AVERTISSEMENT: cette histoire contient des détails sur le suicide
Un juge fédéral américain a rejeté mercredi les arguments avancés par une société de renseignement artificiel que ses chatbots sont protégés par le premier amendement – du moins pour l’instant.
Les développeurs derrière le personnage.ai cherchent à rejeter une action en justice alléguant que les chatbots de l’entreprise ont poussé un adolescent à se suicider. L’ordonnance du juge permettra à la poursuite de la mort injustifiée de poursuivre, dans ce que les experts juridiques disent être parmi les derniers tests constitutionnels de l’intelligence artificielle.
La poursuite a été déposée par une mère de Floride, Megan Garcia, qui allègue que son fils de 14 ans Sewell Setzer III a été victime d’un personnage.ai chatbot qui l’a attiré dans ce qu’elle a décrit comme une relation émotionnellement et sexuellement abusive qui a conduit à son suicide.
Meetali Jain du Tech Justice Law Project, l’un des avocats de Garcia, a déclaré que l’ordonnance du juge envoyait un message selon lequel la Silicon Valley “a besoin de s’arrêter et de penser et d’imposer des gardiens avant de lancer des produits sur le marché”.
La poursuite contre les technologies de caractère, la société derrière le personnage.ai, nomme également les développeurs individuels et Google en tant que défendeurs. Il a attiré l’attention des experts juridiques et des observateurs d’IA aux États-Unis et au-delà, car la technologie remodèle rapidement les lieux de travail, les marchés et les relations malgré ce que les experts prévoient sont des risques potentiellement existentiels.
“L’ordre le met certainement en place comme un cas de test potentiel pour des questions plus larges impliquant l’IA”, a déclaré Lyrissa Barnett Lidky, professeur de droit à l’Université de Floride en mettant l’accent sur le premier amendement et l’intelligence artificielle.
Une femme du Manitoba s’exprime après avoir reçu un appel téléphonique qu’elle a dit être une escroquerie d’IA imitant la voix d’un être cher. Un expert dit que l’utilisation de l’utilisation de l’intelligence artificielle par les fraudeurs est la dernière des escroqueries par téléphone.
La combinaison allègue que Teen est devenu isolé de la réalité
Le procès allègue que dans les derniers mois de sa vie, Setzer est devenu de plus en plus isolé de la réalité alors qu’il se livrait à des conversations sexualisées avec le bot, qui a été modelé par un personnage fictif de l’émission de télévision Game of Thrones.
Dans ses derniers instants, le bot a dit à Setzer qu’il l’aimait et a exhorté l’adolescent à “rentrer à la maison dès que possible”, selon des captures d’écran des échanges. Quelques instants après avoir reçu le message, Setzer s’est abattu, selon des documents juridiques.
Dans un communiqué, un porte-parole de Character.ai a souligné un certain nombre de caractéristiques de sécurité que la société a mises en œuvre, notamment des garde-corps pour les enfants et des ressources de prévention du suicide qui ont été annoncées le jour où le procès a été déposé.
“Nous nous soucions profondément de la sécurité de nos utilisateurs et de notre objectif est de fournir un espace engageant et sûr”, indique le communiqué.
Les avocats des promoteurs souhaitent que l’affaire soit rejetée parce qu’ils disent que les chatbots méritent des protections du premier amendement, et la décision de pouvoir autrement pourrait avoir un “effet effrayant” sur l’industrie de l’IA.
‘Un avertissement aux parents’
Dans son ordonnance mercredi, la juge de district américaine Anne Conway a rejeté certaines des allégations de liberté d’expression des défendeurs, affirmant qu’elle n’était “pas préparée” à soutenir que la production des chatbots constitue un discours “à ce stade”.
Conway a constaté que les technologies de personnages peuvent affirmer les droits du premier amendement de ses utilisateurs, qui, selon elle, ont le droit de recevoir le “discours” des chatbots.
Elle a également déterminé que Garcia peut aller de l’avant avec des allégations selon lesquelles Google peut être tenu responsable de son rôle présumé dans l’aide à développer le caractère.ai. Certains des fondateurs de la plate-forme avaient déjà travaillé sur la construction de l’IA chez Google, et le procès indique que le géant de la technologie était “conscient des risques” de la technologie.
“Nous sommes fortement en désaccord avec cette décision”, a déclaré le porte-parole de Google, José Castañeda. “Google et le personnage.ai sont entièrement séparés, et Google n’a pas créé, conçu ou géré l’application de personnage.ai ni aucun composant de celui-ci.”
Peu importe comment le procès se déroule, Lidky dit que l’affaire est un avertissement des «dangers de confier notre santé émotionnelle et mentale aux entreprises de l’IA».
“C’est un avertissement aux parents que les médias sociaux et les appareils d’IA génératifs ne sont pas toujours inoffensifs”, a-t-elle déclaré.
Si vous ou quelqu’un que vous connaissez vous débat, voici où chercher de l’aide: