Home Monde Un groupe de défense des consommateurs exhorte OpenAI à retirer l’application vidéo Sora pour des raisons de confidentialité et de désinformation

Un groupe de défense des consommateurs exhorte OpenAI à retirer l’application vidéo Sora pour des raisons de confidentialité et de désinformation

by News Team
0 comment


Écoutez cet article

Environ 6 minutes

La version audio de cet article est générée par synthèse vocale, une technologie basée sur l’intelligence artificielle.

Le groupe de défense des consommateurs à but non lucratif Public Citizen a demandé dans une lettre de mardi qu’OpenAI retire son logiciel de génération vidéo Sora 2 après que l’application ait suscité des craintes quant à la propagation de la désinformation et aux violations de la vie privée.

La lettre, adressée à la société et au PDG Sam Altman, accusait OpenAI d’avoir publié l’application à la hâte afin qu’elle puisse être lancée avant ses concurrents.

Cela montre une « tendance cohérente et dangereuse d’OpenAI se précipitant sur le marché avec un produit qui est soit intrinsèquement dangereux, soit dépourvu des garde-fous nécessaires », a déclaré le groupe de surveillance.

Sora 2, indique la lettre, montre un « mépris imprudent » pour la sécurité des produits et le droit des personnes à leur propre image. Cela contribue également à saper plus largement la confiance du public dans l’authenticité du contenu en ligne, affirme-t-il.

Le groupe a également envoyé la lettre au Congrès américain.

OpenAI n’a pas immédiatement répondu à une demande de commentaires mardi.

Plus réactif aux plaintes concernant le contenu de célébrités

La vidéo Sora typique est conçue pour être suffisamment amusante pour que vous puissiez cliquer et partager sur des plateformes telles que TikTok, Instagram, X et Facebook.

Il pourrait s’agir du rap de feu la reine Elizabeth II ou de quelque chose de plus ordinaire et de plus crédible. Un genre populaire de Sora représente de fausses images de caméra de sonnette capturant quelque chose de légèrement étrange – par exemple, un boa constrictor sur le porche ou un alligator s’approchant d’un enfant imperturbable – et se termine par une image légèrement choquante, comme une grand-mère criant alors qu’elle bat l’animal avec un balai.

ÉCOUTER | L’application vidéo AI Sora 2 est là. Pouvez-vous dire ce qui est réel ? :

Le courant24h17La nouvelle application vidéo IA Sora est là : pouvez-vous dire ce qui est réel ?

Qu’il s’agisse de votre meilleur ami chevauchant une licorne, de Michael Jackson qui enseigne les mathématiques ou de Martin Luther King Junior rêvant de vendre des forfaits vacances, il est désormais plus facile et plus rapide de transformer ces idées en vidéos réalistes, grâce à la nouvelle application d’IA Sora. La société derrière elle, OpenAI, promet des garde-fous pour prévenir la violence et la fraude – mais de nombreux critiques craignent que l’application ne pousse la désinformation à l’extrême… et pollue la société avec encore plus de « slop d’IA ».

Public Citizen se joint à un chœur croissant de groupes de défense, d’universitaires et d’experts tirent la sonnette d’alarme sur les dangers de laisser les gens créer des vidéos d’IA sur à peu près tout ce qu’ils peuvent saisir dans une invite, conduisant à la prolifération d’images non consensuelles et de deepfakes réalistes dans un océan de « slop d’IA » moins nocif.

OpenAI a réprimé les créations d’IA de personnalités publiques faisant des choses extravagantes – parmi eux, Michael Jackson, Martin Luther King Jr. et Mister Rogers – mais seulement après un tollé de la part des domaines familiaux et d’un syndicat d’acteurs.

“Notre plus grande préoccupation est la menace potentielle pour la démocratie”, a déclaré JB Branch, défenseur de la politique technologique de Public Citizen, dans une interview.

“Je pense que nous entrons dans un monde dans lequel les gens ne peuvent pas vraiment faire confiance à ce qu’ils voient. Et nous commençons à voir des stratégies politiques selon lesquelles la première image, la première vidéo diffusée, est ce dont les gens se souviennent.”

Les garde-fous n’ont pas mis fin au harcèlement

Branch, qui a rédigé la lettre de mardi, voit également des menaces plus larges pour la vie privée des gens et affirme que celles-ci pourraient avoir un impact disproportionné sur certains groupes.

REGARDER | Comment le Danemark tente de stopper les deepfakes non autorisés :

Comment le Danemark tente d’arrêter les deepfakes non autorisés

Les vidéos générées par l’IA sont partout en ligne, mais que se passe-t-il lorsque votre image ou votre voix est reproduite sans votre autorisation ? Ashley Fraser, de CBC, explique comment le Danemark tente de remodeler la protection de l’identité numérique et comment les lois du Canada se comparent.

OpenAI bloque la nudité, mais Branch a déclaré que “les femmes se voient harcelées en ligne” par d’autres moyens.

Le contenu de niche fétichisé a réussi à surmonter les restrictions de l’application. Vendredi, le média 404 Media a fait état d’un flot de vidéos réalisées par Sora montrant des femmes étranglées.

OpenAI a présenté sa nouvelle application Sora sur iPhone il y a plus d’un mois. Il a été lancé sur les téléphones Android la semaine dernière aux États-Unis, au Canada et dans plusieurs pays asiatiques, dont le Japon et la Corée du Sud.

L’opposition la plus forte à son encontre est venue en grande partie d’Hollywood et d’autres intérêts du divertissement, notamment de l’industrie japonaise du manga.

OpenAI a annoncé ses premiers grands changements quelques jours seulement après sa sortie, affirmant que “la surmodération est extrêmement frustrante” pour les utilisateurs, mais qu’il est important d’être conservateur “pendant que le monde s’adapte encore à cette nouvelle technologie”.

Cela a été suivi par des accords annoncés publiquement avec la famille de Martin Luther King Jr. le 16 octobre, empêchant les « représentations irrespectueuses » du leader des droits civiques pendant que l’entreprise travaillait sur de meilleures garanties, et un autre le 20 octobre avec l’acteur de Breaking Bad Bryan Cranston, le syndicat SAG AFTRA et les agences artistiques.

“C’est très bien si vous êtes célèbre”, a déclaré Branch. “C’est en quelque sorte un modèle qu’OpenAI a selon lequel ils sont prêts à répondre à l’indignation d’une très petite population. Ils sont prêts à publier quelque chose et à s’excuser par la suite. Mais beaucoup de ces problèmes sont des choix de conception qu’ils peuvent faire avant de le publier.”

REGARDER | L'”actrice” générée par l’IA, Tilly Norwood, suscite des réactions négatives :

L’« actrice » générée par l’IA, Tilly Norwood, suscite la réaction d’Hollywood

La société européenne de production d’IA Particle6 affirme que sa création d’IA, Tilly Norwood, a suscité beaucoup d’intérêt, mais des acteurs hollywoodiens, dont Emily Blunt, Melissa Barrera et Whoopi Goldberg, ainsi que le syndicat SAG-AFTRA, se sont prononcés contre le personnage d’IA.

Poursuites contre ChatGPT en cours

OpenAI a fait face à des plaintes similaires concernant son produit phare, ChatGPT. Sept nouvelles poursuites déposées la semaine dernière devant les tribunaux californiens affirment que le chatbot a poussé les gens au suicide et à des délires nuisibles, même lorsqu’ils n’avaient aucun problème de santé mentale préalable.

Déposées au nom de six adultes et d’un adolescent par le Social Media Victims Law Center et le Tech Justice Law Project, les poursuites affirment qu’OpenAI a sciemment publié GPT-4o prématurément l’année dernière, malgré les avertissements internes selon lesquels il était dangereusement flagorneur et psychologiquement manipulateur. Quatre des victimes se sont suicidées.

Public Citizen n’a pas été impliqué dans les poursuites, mais Branch a déclaré qu’il voyait des parallèles avec la façon dont Sora a été libéré.

“Une grande partie de cela semble prévisible”, a-t-il déclaré. “Mais ils préfèrent lancer un produit, inciter les gens à le télécharger, à attirer des personnes qui en sont accros plutôt que de faire ce qu’il faut et de tester ces choses au préalable et de s’inquiéter du sort des utilisateurs quotidiens.”

OpenAI répond aux créateurs d’anime et de jeux vidéo

OpenAI a passé la semaine dernière à répondre aux plaintes concernant Sora émanant d’une association professionnelle japonaise représentant des animateurs célèbres tels que le Studio Ghibli de Hayao Miyazaki et les créateurs de jeux vidéo Bandai Namco, Square Enix et d’autres.

OpenAI a défendu la grande capacité de l’application à créer de fausses vidéos basées sur des personnages populaires, affirmant que de nombreux fans d’anime souhaitent interagir avec leurs personnages préférés.

Mais la société a également déclaré avoir mis en place des garde-fous pour empêcher la création de personnages connus sans le consentement des détenteurs des droits d’auteur.

“Nous collaborons directement avec les studios et les détenteurs de droits, écoutons les commentaires et apprenons de la manière dont les gens utilisent Sora 2, y compris au Japon, où les industries culturelles et créatives sont profondément valorisées”, a déclaré OpenAI dans un communiqué concernant la lettre du groupe professionnel la semaine dernière.

You may also like

Leave a Comment

Our Company

Rivedin Provides news from the source.

Newsletter

Laest News

@2021 – All Right Reserved. Designed and Developed by RIVEDIN

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00