Source de l’image:https://www.theurbanist.org/2025/09/18/harrell-pledges-seattle-will-be-ai-leader-plan-fuzzy-on-details/
La semaine dernière, le maire Bruce Harrell a annoncé le nouveau Plan d’IA de la ville, qui cherche à tirer parti de l’essor actuel de l’intelligence artificielle (IA) dans le secteur technologique en intégrant l’IA dans les opérations de la ville, les services publics et l’engagement civique.
Cependant, les critiques s’inquiètent des implications éthiques de l’utilisation de l’IA dans les services publics, ainsi que de ses impacts potentiels sur les travailleurs publics et des dommages environnementaux documentés.
“L’IA sera exploitée pour accélérer l’octroi de permis et le logement, améliorer la sécurité publique, renforcer la réactivité des services pour les habitants de Seattle, et permettre des interactions plus accessibles et dans un langage simple afin de supprimer les obstacles,” déclare le plan.
Le plan inclut un programme de formation à l’IA pour les employés de la ville et des partenariats avec le milieu académique, l’industrie et les communautés.
Sa définition de l’IA est large, et à cause de son niveau élevé, elle manque souvent de spécificité.
La ville ajoutera également un nouveau poste de direction en IA à son département des technologies de l’information (ITD).
“Nous essayons d’être très intentionnels dans notre positionnement de Seattle en tant que leader national de la mise en œuvre responsable de l’intelligence artificielle, ne vous y trompez pas,” a déclaré Harrell lors d’un événement de presse la semaine dernière.
“Nous croyons que cela nous positionnera non seulement en tant que ville forte en termes de nos valeurs, mais en tant que ville portuaire, en tant que ville maritime, en tant que leader biotechnologique, en tant que leader high-tech, cela s’inscrit vraiment dans notre tissu en tant que ville.”
La ville a également dévoilé sa nouvelle politique associée sur l’IA, qui établit des règles concernant l’utilisation de l’IA par les employés de la ville, y compris une liste d’usages prohibés.
Elle exige l’attribution à un outil d’IA pour les images, vidéos et le code source générés ; l’attribution pour le texte généré par l’IA est requise s’il est “utilisé substantiellement dans un produit final.”
La politique stipule que les employés doivent réaliser un outil d’analyse de l’équité raciale avant d’utiliser l’IA d’une nouvelle manière, et les départements doivent travailler pour comprendre les impacts environnementaux des outils spécifiques avant l’acquisition.
La manière dont ces règles fonctionneront dans la pratique, et si elles décourageront certains cas d’utilisation de l’IA, demeure floue.
Le directeur technologique, actuellement Rob Lloyd, est responsable de l’application de cette politique.
Les nombreux pilotes d’IA de Seattle
La ville a engagé 42 pilotes d’IA jusqu’à présent, dont 24 sont actuellement en cours.
Parmi les 18 pilotes achevés, la majorité étaient désignés pour une utilisation “générale” et comprenaient des applications IA telles que Fathom AI, Beautiful.ai, Otter.ai, Hootsuite, AI Calendar, etc. qui effectuent des fonctions de base telles que transcription, coordination de calendrier et création et coordination de contenu.
Un pilote achevé par le département de police de Seattle (SPD) a testé CaseGuard pour le tapage de vidéos portées sur le corps pour divulgation publique.
Le département des incendies de Seattle (SFD) a testé l’outil Corti pour fournir une analyse audio des appels non urgents et pour la “triage de sécurité publique, documentation, amélioration de la qualité et formation.”
Parmi les 24 pilotes en cours, 11 sont menés au sein de l’ITD.
Quatre se déroulent actuellement au sein du département des constructions et inspections de Seattle (SDCI) dans le but de rationaliser et d’accélérer le processus d’octroi de permis.
Le département des transports de Seattle (SDOT) teste un logiciel pour identifier les intersections où des améliorations d’ingénierie peuvent réduire le risque d’accidents.
Un porte-parole de l’ITD, Megan Ebb, a déclaré à The Urbanist que le département d’engagement et de réponse communautaire (CARE) envisage également d’utiliser des outils d’IA pour analyser les données de priorisation des appels, ce qui pourrait les aider à mieux dispatcher les bonnes ressources pour le bon appel.
Cependant, cela n’est pas encore un pilote actif.
Le SPD a deux nouveaux pilotes : l’un est un chatbot Amazon Q/Bedrock “pour des cas d’utilisation commerciaux généraux et à faible risque” et l’autre avec C3 AI, qui, selon l’ITD, est utilisé pour référencer plus facilement les informations politiques.
Ebb a précisé que C3 AI n’est pas utilisé comme outil d’aide aux enquêtes criminelles de base pour le moment.
“Avec l’IA étant une nouvelle technologie, le SPD travaille progressivement sur la gouvernance responsable pour l’utilisation de ces outils à l’avenir,” a déclaré Ebb.
“Dans le cadre de ce processus, le département teste des plateformes dans des cas d’utilisation limités, tels que le résumé des résultats d’enquête pour aider à présenter l’information de manière plus compréhensible.”
Amazon a publié un article de blog plus tôt cet été sur les applications possibles de l’IA pour la sécurité publique, axé sur l’outil recevant des appels de plaintes de bruit et générant automatiquement des rapports d’incidents.
D’autres cas d’utilisation mentionnés dans l’article comprennent le rapport d’incidents de circulation sans blessés, les rapports de véhicules abandonnés et de graffiti et de vandalisme.
L’ITD n’a pas partagé d’exemples actuels spécifiques avec The Urbanist.
Lorsqu’on lui a demandé plus d’informations sur le pilote de l’IA d’Amazon, Ben Dalgetty, un porte-parole du bureau du maire, a déclaré que le SPD est actuellement en train de développer des garde-fous politiques et techniques pour cette technologie.
“Les utilisations futures de cette technologie peuvent avoir des implications pour l’identification de tendances et de modèles complexes utilisés pour prévenir le crime, mais beaucoup de travail reste à faire avant que le SPD ne soit à l’aise pour l’employer de cette manière,” a déclaré Dalgetty.
Cette description semble dangereusement proche du profilage prédictif alimenté par l’IA, dont les études ont montré qu’il peut conduire à un ciblage disproportionné des communautés minoritaires.
Selon les données utilisées par l’outil d’IA, ce biais peut être exacerbé de plusieurs manières.
Un certain nombre de sénateurs américains ont envoyé une lettre au département de la Justice des États-Unis au début de 2024, demandant que le financement de projets de profilage prédictif soit suspendu.
“Des preuves croissantes indiquent que les technologies de profilage prédictif ne réduisent pas la criminalité.
Au contraire, elles aggravent le traitement inégal des Américains de couleur par la justice pénale,” ont écrit les sénateurs.
Et plus tard, “L’utilisation continue de tels systèmes crée une boucle de rétroaction dangereuse : des prédictions biaisées sont utilisées pour justifier des arrêts et des arrestations disproportionnés dans les quartiers minoritaires, ce qui biaise davantage les statistiques sur les lieux où les crimes se produisent.”
Pendant ce temps, la conférence annuelle d’apprentissage de l’ITD a récemment présenté deux dirigeants d’Oracle démontrant une interface logicielle d’IA pour la gestion des dossiers de police.
Le logiciel impliquait une transcription IA des fichiers audio et vidéo ainsi que des résumés de texte.
“Il y a d’énormes problèmes ici, surtout dans le contexte policier, surtout quand nous parlons de passer de quelque chose qui est à l’origine un enregistrement audio,” a déclaré Emily Bender, professeure de linguistique à l’Université de Washington spécialisée en linguistique computationnelle.
Bender a expliqué que la technologie de transcription IA ne fonctionne pas aussi bien lorsque la langue utilisée diverge de la norme “prestigieuse”, ce qui peut alors provoquer davantage d’erreurs.
Les modèles d’IA ont également des biais dans les données sur lesquelles ils sont formés.
“Le système d’IA générative est conçu pour produire essentiellement un texte plausible basé sur l’entrée immédiate en plus de toutes ses données d’apprentissage préalables, et il est très probable qu’il produise des détails supplémentaires qui semblent plausibles dans le contexte mais qui n’ont aucune ressemblance avec ce qui s’est réellement passé,” a déclaré Bender.
Les officiers pourraient ne pas avoir le temps et l’espace pour corriger les transcriptions et autres erreurs dans un tel système d’IA après le fait.
Un tel système compromettrait également la responsabilité, car les rapports qu’il génère pourraient être présentés en cour comme un compte rendu de l’officier impliqué, alors qu’il ne s’agissait pas à l’origine d’un compte rendu personnel de l’officier sur ce qui s’était réellement passé.
Il y a récemment eu des préoccupations de la communauté autour de l’utilisation de l’IA générative par le SPD dans ses communications avec le public.
PubliCola a rapporté une plainte du Bureau de la responsabilité policière (OPA) d’un membre anonyme de la communauté alléguant que le SPD avait utilisé l’IA pour générer des matériels destinés au public, y compris des articles de blog et une déclaration du nouveau chef Shon Barnes.
Alors qu’un outil de détection de l’IA bien connu a révélé que les exemples ci-dessus avaient probablement été complètement ou partiellement écrits par l’IA, le SPD a nié avoir utilisé l’IA générative de manière “substantielle” pour les communications.
Cet exemple montre une faiblesse de la politique d’IA de la ville, qui est vague sur ce que signifie une utilisation substantielle de la génération de texte par IA.
Si les communications du SPD mentionnées ci-dessus avaient réellement été générées avec des outils d’IA, il devrait y avoir une attribution reconnaissant cela.
Comme l’a rapporté PubliCola, l’OPA a référé la plainte comme une “action de superviseur,” ce qui signifie qu’il n’y aura pas de conséquences au-delà de la formation ou de l’encadrement.
Cascade PBS a récemment rapporté qu’à Everett, même après que la ville a adopté une politique d’IA exigeant l’attribution du texte généré par l’IA, le personnel de la ville n’a pas toujours suivi les directives.
En plus du fait que les outils d’IA fournissent parfois des informations incorrectes (parfois appelées “hallucinations”), l’utilisation de l’IA pourrait également éroder davantage la confiance dans le gouvernement, un problème particulier pour le SPD alors qu’il cherche à reconstruire la confiance dans la communauté.
Certains critiques soutiennent que le texte généré par l’IA n’a pas sa place dans les communications gouvernementales.
“Il n’y a aucun cas d’utilisation approprié pour le texte synthétique,” a déclaré Bender.
“Mettre en place un système qui est juste conçu pour imiter la façon dont les gens utilisent le langage ne peut que nuire.”
D’autres préoccupations concernant l’utilisation de l’IA par la ville
L’exemple de villes comme Everett remet en question la mise en œuvre réelle du plan d’IA de la ville.
La récente publication du dernier modèle de chatbot d’OpenAI, ChatGPT-5, qui, dès son lancement, n’était pas capable de dessiner une carte précise des États-Unis ou de créer une liste précise des présidents des États-Unis, a intensifié les critiques sur l’IA générative et soulevé des questions sur l’avenir de cette technologie.
Même dès le début de son déploiement, l’IA a été critiquée pour ses impacts environnementaux.
Les centres de données qui alimentent l’IA nécessitent de grandes quantités d’eau douce pour le refroidissement, et Bloomberg News a découvert que deux tiers des centres de données construits depuis 2022 se trouvent dans des endroits déjà soumis à un stress hydrique.
Les besoins énergétiques des centres de données devraient également augmenter, McKinsey écrivant que les besoins énergétiques seront trois fois plus élevés que la capacité actuelle dans cinq ans aux États-Unis, augmentant la dépendance aux combustibles fossiles.
Les promesses selon lesquelles l’IA pourrait facilement remplacer le travail humain ne se sont pas nécessairement matérialisées dans la pratique.
Par exemple, la société suédoise Klarna a commencé à licencier environ 700 employés en 2022 afin de les remplacer par des IA, pour finalement décider de réembaucher des employés humains ce printemps.
Harrell a souligné que la ville n’a pas l’intention d’utiliser l’IA pour remplacer ses travailleurs et s’est engagé à tenir les dirigeants syndicaux informés.
“Nous travaillons en collaboration avec nos partenaires syndicaux,” a déclaré Harrell.
“Et alors que nous examinons certaines tâches qui pourraient éventuellement être remplacées par l’IA, nous faisons toujours en sorte, lorsque nous adoptons une approche centrée sur l’humain, de travailler avec nos partenaires syndicaux et de veiller à ce que ces discussions soient ouvertes et transparentes.”
Le plan d’IA ajoute que “[a]u fur et à mesure que les systèmes intelligents commencent à automatiser des tâches routinières et/ou administratives, les rôles professionnels se redécouperont effectivement autour de responsabilités plus créatives, orientées vers les personnes et de prise de décision.”
The Urbanist a contacté Protec 17, le syndicat qui représente de nombreux travailleurs de la ville.
“Nous avons récemment été informés du plan d’IA de la ville et nous sommes en train de rassembler des informations et d’analyser les impacts sur les membres de PROTEC17,” a déclaré leur directrice exécutive Karen Estevenin.
“Bien que nous soyons préoccupés par de nombreux aspects concernant l’impact potentiel de l’IA sur la main-d’œuvre — y compris toute réduction de postes — nous sommes également intéressés à explorer des utilisations intelligentes, sûres et efficaces de l’IA qui pourraient soutenir le travail et améliorer les conditions de travail des employés de la ville.”
Une autre question qui pourrait avoir un impact sur les travailleurs de la ville est l’utilisation de l’IA conduisant à la déséducation des travailleurs.
Un article récent publié dans The Lancet a démontré que les gastroentérologues utilisant régulièrement l’IA pour la détection des polypes lors des coloscopies sont devenus déséduqués en six mois, le taux de détection d’un certain type de polype sans utiliser l’IA chutant de 28 % à 22 %.
Plus tôt cet été, le Media Lab du MIT a découvert que l’utilisation de grands modèles de langage (LLM) pour la rédaction d’essais “a eu un coût cognitif” et a entraîné un engagement cognitif plus faible que chez les personnes utilisant seulement leur cerveau ou un moteur de recherche.
“Si l’idée est d’effectuer ces pilotes et d’évaluer, alors la ville devrait vraiment évaluer les impacts sur la déséducation de la main-d’œuvre et la qualité du service qui peut être offert,” a déclaré Bender.
Il y a également la question de la responsabilité lors de l’utilisation de l’IA dans le secteur public.
Bien que Harrell et le plan d’IA soient clairs quant à la nécessité de maintenir un humain dans le processus d’utilisation de ces outils, ces travailleurs pourraient potentiellement être utilisés comme des zones de protection morale, prenant le blâme pour les erreurs de l’IA.
“Parfois, la personne qui est l’humain dans le processus finit par subir les conséquences quand quelque chose tourne mal, et elle protège effectivement l’organisation plus large qui a décidé d’automatiser,” a déclaré Bender.
La poussée pour adopter l’IA
Malgré les dangers potentiels, Harrell est enthousiaste à l’idée d’incorporer l’IA dans la ville de Seattle.
“L’intelligence artificielle est plus qu’un simple mot à la mode à Seattle – c’est un outil puissant que nous exploitons pour construire une meilleure ville pour tous,” a déclaré Harrell.
“En utilisant cette technologie de manière intentionnelle et responsable, nous favorisons une économie d’IA de premier plan dans le pays, créons des emplois et des opportunités pour nos résidents, tout en progressant vers un avenir plus innovant, équitable et efficace pour tous.”
L’année dernière, Harrell a été invité à siéger au conseil de sécurité et de sécurité de l’intelligence artificielle du Bureau de la sécurité intérieure, dont le but déclaré est de développer des recommandations pour que les parties prenantes des infrastructures exploitent l’IA de manière responsable et préviennent ou se préparent à des perturbations liées à l’IA des services critiques.
Harrell est également président du comité permanent de la technologie et de l’innovation de la Conférence des maires des États-Unis.
Lors de son discours à l’événement State of Downtown organisé par l’Association Downtown Seattle en février, Harrell a exprimé ses préoccupations concernant la cybersécurité et l’IA, tout en semblant également faire l’éloge des leaders technologiques de droite qui ont financé la campagne de Trump.
“Nous savons que notre président actuel s’entoure de certains des meilleurs innovateurs,” a déclaré Harrell.
“Lorsque nous mentionnons des noms comme Andreessen ou Peter Thiel ou David Sacks ou Elon Musk, ce sont des innovateurs intelligents.”
Ironiquement, Musk présente un avertissement fort pour l’utilisation des LLM d’IA dans le gouvernement avec son travail plus tôt cette année au département de l’Efficacité gouvernementale (DOGE).
Malgré l’objectif déclaré de Musk et du DOGE d’efficacité, The Atlantic a constaté que le gouvernement américain a en réalité dépensé plus d’argent en février et mars de cette année qu’il ne l’avait fait au cours des mêmes mois l’année dernière.
Au lieu de cela, le DOGE et son rôle dans la facilitation de l’adoption des LLM au niveau fédéral ont remis un pouvoir sans précédent aux riches PDG technologiques qui contrôlent les modèles contractés : à savoir, Mark Zuckerberg (Meta), Peter Thiel (Palantir) et Musk (xAI).
Les systèmes d’IA actuellement utilisés par le gouvernement fédéral entraînent moins de responsabilité, moins de transparence et la création d’un vaste État de surveillance.
En revanche, Harrell présente Seattle comme un leader dans la mise en œuvre responsable de l’IA.
“Vous voyez les contrôles que nous avons mis en place pour notre politique d’IA, et notre plan est de dire qu’il doit passer par une utilisation responsable,” a déclaré Lloyd.
“Il existe un processus de sécurité, il y a une considération de la vie privée.
Et au fur et à mesure que nous progressons, nous affirmons également que nous permettrons à l’IA de rendre la ville de Seattle capable de résoudre des défis civiques.”
Le plan d’IA appelle à la création d’un groupe de gouvernance de l’IA à l’échelle de la ville qui sera responsable de fournir des conseils et des orientations sur la direction du plan d’IA et de ses priorités.
Ce groupe sera convoqué plus tard cet automne après que le poste de direction en IA aura été pourvu.
Le Bureau des droits civils n’a pas participé au développement du plan d’IA.
Cependant, ils seront invités à participer au groupe de gouvernance, a déclaré Ebb.
Bender a déclaré qu’il sera important que la ville précise ce qu’elle souhaite automatiser, évite les machines de texte synthétique et choisisse des cas d’utilisation de manière bien testée et sensée qui garantissent une responsabilité claire.
Pendant ce temps, avec la ville face à un déficit budgétaire structurel, il pourrait être tentant d’utiliser des outils d’IA comme un pansement pour maintenir les choses en cours.
Mais cette stratégie est susceptible de créer de plus grandes disparités.
“Si l’on pense à qui a la possibilité d’opter pour de mauvais services municipaux, ce sont les riches,” a déclaré Bender.
“Et tout le monde d’autre va être coincé avec ce que nous faisons collectivement.
Alors pourquoi ne pas bien faire cela ?”