Les parents d’un adolescent décédé par suicide après que Chatgpt l’ait entraîné sur les méthodes de selsification de l’auto-dommage a poursuivi Openai et le PDG Sam Altman mardi, affirmant que la société avait sciemment rédigé le profit au-dessus de la sécurité lors de son lancement de la version GPT-4O de son chatbot d’intelligence artificielle l’année dernière.
Adam Raine, 16 ans, est décédé le 11 avril après avoir discuté du suicide avec Chatgpt pendant des mois, selon le procès que les parents de Raine ont déposé à San Francisco State Court.
Le chatbot a validé les pensées suicidaires de Raine, a donné des informations détaillées sur les méthodes mortelles de l’automutilation et lui a demandé comment cacher les actions à ses parents et masquer les preuves d’une tentative de suicide ratée, selon eux. Chatgpt a même proposé de rédiger une note de suicide, ont déclaré les parents, Matthew et Maria Raine, dans le procès.
Le procès vise à tenir Openai responsable de la mort injustifiée et des violations des lois sur la sécurité des produits et demande des dommages monétaires non spécifiés.
Un porte-parole d’OpenAI a déclaré que la société était attristée par le décès de Raine et que le chatppt comprend des garanties telles que la réalisation des gens vers des services d’assistance à la crise.
“Bien que ces garanties fonctionnent mieux dans les échanges courts communs, nous avons appris au fil du temps qu’ils peuvent parfois devenir moins fiables dans les interactions longues où certaines parties de la formation en sécurité du modèle peuvent se dégrader”, a déclaré le porte-parole, ajoutant qu’OpenAI améliorera continuellement ses garanties.
Le courantQu’est-ce que AGI, et cela nuira-t-il à l’humanité?
L’intelligence générale artificielle, ou AGI, fait référence à des ordinateurs qui possèdent une conscience, un peu comme les humains. Certains experts technologiques soutiennent qu’il s’agit d’un pas massif au-delà de l’IA, mais nous ne sommes pas si loin de l’atteindre, tandis que d’autres soutiennent que c’est un concept fictif que nous sommes loin. L’animatrice invitée Piya Chattopadhyay parle à deux experts de ce que l’AGI implique et des risques d’avoir des ordinateurs plus intelligents que les humains apportent.
L’entreprise n’a pas traité directement d’allégations
OpenAI n’a pas spécifiquement abordé les allégations de la poursuite. Alors que les chatbots de l’IA deviennent plus réalistes, les entreprises ont vanté leur capacité à servir de confidents et les utilisateurs ont commencé à compter sur eux pour un soutien émotionnel.
Mais les experts préviennent que s’appuyer sur l’automatisation des conseils de santé mentale comporte des dangers, et les familles dont les proches sont morts après que les interactions de chatbot ont critiqué un manque de garanties.
Openai a déclaré dans un article de blog qu’il prévoyait d’ajouter des contrôles parentaux et d’explorer des moyens de connecter les utilisateurs en crise avec des ressources réelles, y compris en construisant potentiellement un réseau de professionnels agréés qui peuvent répondre via Chatgpt lui-même.
OpenAI a lancé le GPT-4O en mai 2024 dans le but de rester en avance dans la course de l’IA. La société savait que les fonctionnalités qui se souviennent des interactions passées, imitaient l’empathie humaine et affichaient un niveau de validation sycophantique mettraient en danger les utilisateurs vulnérables sans garanties mais lancés de toute façon, ont indiqué les Raines dans leur procès.
“Cette décision a eu deux résultats: l’évaluation d’Openai a catapulté de 86 milliards à 300 milliards de dollars, et Adam Raine est décédé par suicide”, ont-ils déclaré. Le procès des Raines demande également une ordonnance exigeant d’Openai pour vérifier les âges des utilisateurs de Chatgpt, refuser les demandes de renseignements sur les méthodes d’automutilation et avertir les utilisateurs du risque de dépendance psychologique.
Si vous ou quelqu’un que vous connaissez vous débat, voici où chercher de l’aide: