Home Monde Biden va introduire de nouvelles règles radicales pour régir l’utilisation de l’IA

Biden va introduire de nouvelles règles radicales pour régir l’utilisation de l’IA

by News Team
0 comment


Le président Joe Biden signera lundi un décret ambitieux pour guider le développement de l’intelligence artificielle – exigeant que l’industrie développe des normes de sûreté et de sécurité, introduisant de nouvelles protections des consommateurs et donnant aux agences fédérales une longue liste de choses à faire pour superviser l’évolution rapide de la technologie.

Cette ordonnance reflète les efforts du gouvernement pour façonner la manière dont l’IA évolue de manière à maximiser ses possibilités et à contenir ses périls. L’IA est une source d’intérêt personnel profond pour Biden, en raison de son potentiel d’impact sur l’économie et la sécurité nationale.

Le chef de cabinet de la Maison Blanche, Jeff Zients, a rappelé que Biden avait donné à son personnel une directive pour agir de toute urgence sur la question, après avoir considéré la technologie comme une priorité absolue.

“Nous ne pouvons pas avancer au rythme normal du gouvernement”, a déclaré Zients au président démocrate. “Nous devons agir aussi vite, voire plus vite, que la technologie elle-même.”

Selon Biden, le gouvernement a tardé à s’attaquer aux risques liés aux médias sociaux et la jeunesse américaine est désormais aux prises avec des problèmes de santé mentale connexes. L’IA a la capacité positive d’accélérer la recherche sur le cancer, de modéliser les impacts du changement climatique, de stimuler la production économique et d’améliorer les services gouvernementaux, entre autres avantages. Mais cela pourrait également déformer les notions fondamentales de vérité avec de fausses images, aggraver les inégalités raciales et sociales et fournir un outil aux escrocs et aux criminels.

Cette commande s’appuie sur des engagements volontaires déjà pris par les entreprises technologiques. Cela fait partie d’une stratégie plus large qui, selon les responsables de l’administration, inclut également la législation du Congrès et la diplomatie internationale, signe des perturbations déjà causées par l’introduction de nouveaux outils d’IA tels que ChatGPT, capables de générer de nouveaux textes, images et sons.

Les développeurs d’IA devront partager les résultats des tests de sécurité

En utilisant la loi sur la production de défense, l’ordonnance obligera les principaux développeurs d’IA à partager les résultats des tests de sécurité et d’autres informations avec le gouvernement. L’Institut national des normes et de la technologie doit créer des normes pour garantir que les outils d’IA sont sûrs et sécurisés avant leur diffusion publique.

Les États-Unis abritent plusieurs startups axées sur l’IA, telles qu’OpenAI, le créateur de ChatGPT. (Marco Bertorello/AFP via Getty Images)

Le ministère du Commerce doit publier des directives pour étiqueter et filigraner le contenu généré par l’IA afin de permettre de différencier les interactions authentiques de celles générées par un logiciel. L’ordonnance touche également des questions de vie privée, de droits civils, de protection des consommateurs, de recherche scientifique et de droits des travailleurs.

Un responsable de l’administration qui a présenté l’ordre lors d’un appel dimanche avec des journalistes a déclaré que les listes de tâches contenues dans l’ordre seraient mises en œuvre et exécutées sur une période de 90 à 365 jours, les éléments de sûreté et de sécurité étant confrontés aux délais les plus rapprochés. Le responsable a informé les journalistes sous couvert d’anonymat, comme l’exige la Maison Blanche.

REGARDER | L’IA vient-elle pour votre travail ?

La panne | L’intelligence artificielle arrive pour votre travail

Vidéo en vedetteL’intelligence artificielle est-elle une menace ou une opportunité sur le lieu de travail ? Nous analysons le débat avec des personnes qui voient les choses des deux côtés et nous en apprenons davantage sur les raisons pour lesquelles les experts mettent en garde : apprenez à utiliser l’IA avant qu’elle ne soit utilisée contre vous.

Alors que le Congrès en est encore aux premiers stades du débat sur les sauvegardes de l’IA, l’ordre de Biden met en avant la perspective américaine alors que les pays du monde entier se précipitent pour établir leurs propres lignes directrices. Après plus de deux ans de délibérations, l’Union européenne met la touche finale à un ensemble complet de réglementations ciblant les applications les plus risquées de cette technologie. La Chine, un rival majeur des États-Unis en matière d’IA, a également fixé certaines règles.

Le Premier ministre britannique Rishi Sunak espère également donner à la Grande-Bretagne un rôle de premier plan en tant que centre de sécurité de l’IA lors d’un sommet cette semaine auquel la vice-présidente Kamala Harris prévoit de participer.

Les États-Unis abritent les principaux développeurs d’IA

Les États-Unis, en particulier sur leur côte ouest, abritent de nombreux développeurs de technologies d’IA de pointe, notamment les géants de la technologie Google, Meta et Microsoft, ainsi que des startups axées sur l’IA telles qu’OpenAI, fabricant de ChatGPT. La Maison Blanche a profité du poids de l’industrie plus tôt cette année lorsqu’elle a obtenu l’engagement de ces entreprises à mettre en œuvre des mécanismes de sécurité lors de la construction de nouveaux modèles d’IA.

Mais la Maison Blanche a également fait face à d’importantes pressions de la part de ses alliés démocrates, notamment des groupes syndicaux et de défense des droits civiques, pour s’assurer que ses politiques reflètent leurs préoccupations concernant les méfaits réels de l’IA.

L’Union américaine des libertés civiles fait partie des groupes qui ont rencontré la Maison Blanche pour tenter de garantir que “nous tenons l’industrie technologique et les milliardaires technologiques pour responsables” afin que les outils algorithmiques “fonctionnent pour nous tous et pas seulement pour quelques-uns”, a déclaré ReNika Moore, directrice du programme de justice raciale de l’ACLU.

Suresh Venkatasubramanian, un ancien responsable de l’administration Biden qui a contribué à l’élaboration des principes d’approche de l’IA, a déclaré que l’un des plus grands défis au sein du gouvernement fédéral était de savoir quoi faire concernant l’utilisation des outils d’IA par les forces de l’ordre, y compris aux frontières américaines.

“Ce sont tous des endroits où nous savons que l’utilisation de l’automatisation est très problématique, avec la reconnaissance faciale et la technologie des drones”, a déclaré Venkatasubramanian. Il a été démontré que la technologie de reconnaissance faciale fonctionne de manière inégale selon les groupes raciaux et est liée à des arrestations erronées.

You may also like

Leave a Comment

Our Company

Rivedin Provides news from the source.

Newsletter

Subscribe my Newsletter for new blog posts, tips & new photos. Let's stay updated!

Laest News

@2021 – All Right Reserved. Designed and Developed by RIVEDIN

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00