Le président Joe Biden signera lundi un décret ambitieux pour guider le développement de l’intelligence artificielle – exigeant que l’industrie développe des normes de sûreté et de sécurité, introduisant de nouvelles protections des consommateurs et donnant aux agences fédérales une longue liste de choses à faire pour superviser l’évolution rapide de la technologie.
Cette ordonnance reflète les efforts du gouvernement pour façonner la manière dont l’IA évolue de manière à maximiser ses possibilités et à contenir ses périls. L’IA est une source d’intérêt personnel profond pour Biden, en raison de son potentiel d’impact sur l’économie et la sécurité nationale.
Le chef de cabinet de la Maison Blanche, Jeff Zients, a rappelé que Biden avait donné à son personnel une directive pour agir de toute urgence sur la question, après avoir considéré la technologie comme une priorité absolue.
“Nous ne pouvons pas avancer au rythme normal du gouvernement”, a déclaré Zients au président démocrate. “Nous devons agir aussi vite, voire plus vite, que la technologie elle-même.”
Selon Biden, le gouvernement a tardé à s’attaquer aux risques liés aux médias sociaux et la jeunesse américaine est désormais aux prises avec des problèmes de santé mentale connexes. L’IA a la capacité positive d’accélérer la recherche sur le cancer, de modéliser les impacts du changement climatique, de stimuler la production économique et d’améliorer les services gouvernementaux, entre autres avantages. Mais cela pourrait également déformer les notions fondamentales de vérité avec de fausses images, aggraver les inégalités raciales et sociales et fournir un outil aux escrocs et aux criminels.
Cette commande s’appuie sur des engagements volontaires déjà pris par les entreprises technologiques. Cela fait partie d’une stratégie plus large qui, selon les responsables de l’administration, inclut également la législation du Congrès et la diplomatie internationale, signe des perturbations déjà causées par l’introduction de nouveaux outils d’IA tels que ChatGPT, capables de générer de nouveaux textes, images et sons.
Les développeurs d’IA devront partager les résultats des tests de sécurité
En utilisant la loi sur la production de défense, l’ordonnance obligera les principaux développeurs d’IA à partager les résultats des tests de sécurité et d’autres informations avec le gouvernement. L’Institut national des normes et de la technologie doit créer des normes pour garantir que les outils d’IA sont sûrs et sécurisés avant leur diffusion publique.
Le ministère du Commerce doit publier des directives pour étiqueter et filigraner le contenu généré par l’IA afin de permettre de différencier les interactions authentiques de celles générées par un logiciel. L’ordonnance touche également des questions de vie privée, de droits civils, de protection des consommateurs, de recherche scientifique et de droits des travailleurs.
Un responsable de l’administration qui a présenté l’ordre lors d’un appel dimanche avec des journalistes a déclaré que les listes de tâches contenues dans l’ordre seraient mises en œuvre et exécutées sur une période de 90 à 365 jours, les éléments de sûreté et de sécurité étant confrontés aux délais les plus rapprochés. Le responsable a informé les journalistes sous couvert d’anonymat, comme l’exige la Maison Blanche.
Alors que le Congrès en est encore aux premiers stades du débat sur les sauvegardes de l’IA, l’ordre de Biden met en avant la perspective américaine alors que les pays du monde entier se précipitent pour établir leurs propres lignes directrices. Après plus de deux ans de délibérations, l’Union européenne met la touche finale à un ensemble complet de réglementations ciblant les applications les plus risquées de cette technologie. La Chine, un rival majeur des États-Unis en matière d’IA, a également fixé certaines règles.
Le Premier ministre britannique Rishi Sunak espère également donner à la Grande-Bretagne un rôle de premier plan en tant que centre de sécurité de l’IA lors d’un sommet cette semaine auquel la vice-présidente Kamala Harris prévoit de participer.
Les États-Unis abritent les principaux développeurs d’IA
Les États-Unis, en particulier sur leur côte ouest, abritent de nombreux développeurs de technologies d’IA de pointe, notamment les géants de la technologie Google, Meta et Microsoft, ainsi que des startups axées sur l’IA telles qu’OpenAI, fabricant de ChatGPT. La Maison Blanche a profité du poids de l’industrie plus tôt cette année lorsqu’elle a obtenu l’engagement de ces entreprises à mettre en œuvre des mécanismes de sécurité lors de la construction de nouveaux modèles d’IA.
Mais la Maison Blanche a également fait face à d’importantes pressions de la part de ses alliés démocrates, notamment des groupes syndicaux et de défense des droits civiques, pour s’assurer que ses politiques reflètent leurs préoccupations concernant les méfaits réels de l’IA.
L’Union américaine des libertés civiles fait partie des groupes qui ont rencontré la Maison Blanche pour tenter de garantir que “nous tenons l’industrie technologique et les milliardaires technologiques pour responsables” afin que les outils algorithmiques “fonctionnent pour nous tous et pas seulement pour quelques-uns”, a déclaré ReNika Moore, directrice du programme de justice raciale de l’ACLU.
Suresh Venkatasubramanian, un ancien responsable de l’administration Biden qui a contribué à l’élaboration des principes d’approche de l’IA, a déclaré que l’un des plus grands défis au sein du gouvernement fédéral était de savoir quoi faire concernant l’utilisation des outils d’IA par les forces de l’ordre, y compris aux frontières américaines.
“Ce sont tous des endroits où nous savons que l’utilisation de l’automatisation est très problématique, avec la reconnaissance faciale et la technologie des drones”, a déclaré Venkatasubramanian. Il a été démontré que la technologie de reconnaissance faciale fonctionne de manière inégale selon les groupes raciaux et est liée à des arrestations erronées.