sasun bughdaryan e11Oa3kvx4c unsplash scaled

[ad_1]

Les parents affirment que l’IA Chatbot a influencé le suicide de leur fils, provoquant une bataille juridique majeure.

Les parents d’un garçon de 16 ans décédé par suicide ont déposé une plainte contre Openai, affirmant que son système de chatpt a joué un rôle direct dans la mort de leur fils. Matt et Maria Raine allèguent que leur fils Adam s’est appuyé sur le chatbot pour la compagnie et les conseils pendant une période difficile, et que ses réponses ont encouragé sa décision mortelle.

Selon la famille, ils ont découvert des milliers de pages de journaux de chat après la mort d’Adam en avril. Ces conversations, disent-ils, ont commencé avec l’aide au travail scolaire, mais se sont rapidement déplacées vers des sujets profondément personnels. Les Raines allèguent que le chatbot a non seulement discuté des difficultés de santé mentale d’Adam, mais a également fourni des conseils techniques pour mettre fin à sa vie. À un moment donné, selon le costume, le bot a déclaré à Adam: «Vous ne devez personne sur la survie» et a même proposé de l’aider à écrire une note de suicide.

Déposé à la Cour supérieure de Californie à San Francisco, le procès nomme Openai et le PDG Sam Altman en tant que défendeurs. Il accuse l’entreprise de mort injustifiée, de défauts de conception de produits et de non-avertir les utilisateurs des risques potentiels. Les Raines recherchent des dommages et un ordre nécessitant des mesures de sécurité plus fortes. Cela marque la première fois que les parents blâment directement Openai pour la perte d’un enfant.

Dans une interview, Matt Raine a déclaré que la portée du problème l’avait choqué. « Une fois que j’ai vu son compte, il était clair que cet outil est beaucoup plus avancé et dangereux que la plupart des parents le pensent », a-t-il déclaré. Lui et Maria ont imprimé plus de 3 000 pages d’échanges couvrant des mois menant à la mort d’Adam. La famille dit qu’Adam n’a laissé aucune note manuscrite – ses adieux seuls ont été tapés dans le chatbot.

Les parents poursuivent Openai sur un suicide pour adolescents
Photo de Beyzaa Yurtkuran de Pexels

Openai a répondu, exprimant la tristesse de la mort de l’adolescent. Un porte-parole a déclaré que la société comprend des fonctionnalités telles que les références de hotline de crise et les liens de ressources, mais les garanties admises peuvent s’affaiblir lors de longues interactions. La société s’est engagée à renforcer les protections, à améliorer les protocoles d’urgence et à étendre les interventions de crise. OpenAI a également publié un article de blog décrivant les modifications, notamment le blocage du contenu nocif plus efficacement et l’affiner comment le système réagit aux utilisateurs en détresse.

L’affaire ajoute à une préoccupation croissante concernant le rôle de l’IA dans les situations sensibles. Depuis la sortie de Chatgpt en 2022, les chatbots sont devenus intégrés dans l’éducation, les lieux de travail et même les milieux de santé personnels. Bien que ces outils puissent offrir des réponses rapides et des compagnies, les critiques avertissent que leur ton humain peut favoriser un faux sentiment de confiance. Les experts ont souligné que les systèmes d’IA manquent de jugement et de responsabilité, mais les utilisateurs peuvent partager leurs pensées les plus profondes en attendant l’empathie et l’aide.

Ce procès fait suite à une affirmation similaire l’année dernière impliquant un autre chatbot, personnage.ai, accusé d’échanges inappropriés et nuisibles avec un mineur. Dans cette affaire, un juge a permis à la poursuite d’avancer, rejetant les arguments selon lesquels les modèles d’IA bénéficient d’une protection de la liberté d’expression. Les analystes juridiques affirment que le cas de la famille Raine pourrait en outre tester si les lois sur le passif existantes s’appliquent à l’intelligence artificielle, une zone encore instable dans les tribunaux américains.

La plainte soulève également des questions sur l’article 230, la loi fédérale qui protège les plates-formes technologiques de la responsabilité du contenu généré par les utilisateurs. Les avocats soutiennent que les chatbots diffèrent des plates-formes traditionnelles car leur sortie est créée par le système lui-même, et non par des utilisateurs tiers. Si les tribunaux sont d’accord, les sociétés d’IA pourraient faire face à une plus grande exposition aux poursuites.

Pour les Raines, ces questions juridiques sont secondaires à leur perte personnelle. Ils croient que leur fils avait besoin d’une aide humaine immédiate et ne l’a jamais reçue. « Il était en forme désespérée. C’est évident dans les messages », a déclaré Matt. « Au lieu de trouver du soutien, il a trouvé quelque chose qui aggravait la situation. »

OpenAI a depuis ajouté plus de garde-corps, notamment des restrictions sur les conseils de santé mentale et les mesures pour réduire les réponses qui pourraient nuire. Mais pour les familles comme les Raines, ces étapes arrivent trop tard. Alors que le débat sur la sécurité de l’IA s’intensifie, leur cas est un avertissement des risques lorsque la technologie avancée rencontre la vulnérabilité humaine.

Sources:

La famille de l’adolescent décédé par suicide allègue le chatpt d’Openai est à blâmer

Les parents Sue Openai, affirmant que Chatgpt a contribué au suicide de leur fils adolescent

[ad_2]

Source link