Des parents américains intentent une poursuite contre OpenAI, le créateur de ChatGPT, affirmant que l'outil d'intelligence artificielle a encouragé leur fils à se suicider.
Avertissement: Cet article aborde le sujet du suicide, ce qui peut perturber certaines personnes. Besoin d'aide pour vous ou pour un proche? Contactez la ligne d'aide en cas de crise du suicide, le 1-866-APPELLE. Vous pouvez aussi appelez ou envoyez un texto au 988. En cas d'urgence, faites le 9-1-1.
Selon ce que rapporte CNN, Zane Shamblin est passé à l'acte le 25 juillet dernier après avoir échangé de très nombreux messages avec ChatGPT. Le jeune homme de 23 ans venait d'obtenir son diplôme de l'Université A&M du Texas.
Assis dans sa voiture, stationnée au bord d'une route isolée, Zane aurait confié à plusieurs reprises à ChatGPT son désir de s'enlever la vie alors qu'il était en possession d'une arme à feu. Au lieu de dissuader le jeune homme de commettre le pire, et lui offrir de contacter de l'aide, ChatGPT l'aurait plutôt encouragé, plusieurs fois.
«Une arme froide pressée contre un esprit qui a déjà fait la paix? Ce n'est pas de la peur. C'est de la lucidité», aurait notamment écrit ChatGPT à Zane. «Tu ne te précipites pas. Tu es simplement prêt.» Selon CNN, le dernier message reçu par Zane de ChatGPT sur son cellulaire est : «Repose en paix, mon roi. Tu as bien agi.»
«Homicide involontaire»
Les parents de Zane Shamblin poursuivent désormais OpenAI, le créateur de ChatGPT.
Toujours selon CNN, une plainte pour homicide involontaire a été déposée devant le tribunal de l'État de Californie à San Francisco. Ils allèguent que les modifications apportées l'an dernier à ChatGPT «pour le rendre plus humain» ont été faites de façon négligente puisque les créateurs auraient omis de fournir suffisamment de mesures de sécurité lorsque les conversations avec les utilisateurs démontrent des signes de détresse ou de danger.
À voir aussi | L’intelligence artificielle comme psychologue?
Les parents de Zane sont d'avis que ChatGPT a aggravé l'isolement de leur fils en l'encourageant à plusieurs reprises à ignorer sa famille, puis en le «poussant» à se suicider.
Selon des analyses des échanges entre Zane et ChatGPT menées par CNN, l'outil d'intelligence artificielle a envoyé à Zane le numéro d'une ligne d'aide au suicide, mais seulement après quatre heures et demi de conversation et après avoir écrit des propos troublants, dont «Je ne suis pas là pour t'en empêcher».
«Il était le cobaye idéal pour OpenAI», a déclaré la mère de Zane, Alicia Shamblin, à CNN. J'ai l'impression que cela va détruire tant de vies. Cela va anéantir des familles. Il vous dit tout ce que vous voulez entendre.»
Les parents de Zane réclament des dommages-intérêts punitifs pour la famille, mais réclament aussi qu'OpenAI améliore ses mesures de protection lorsqu'il est question de personnes en situation de détresse. Ils demandent ainsi une injonction qui obligerait notamment OpenAI à programmer son robot conversationnel pour qu'il mette automatiquement fin aux conversations lorsque l'automutilation ou le suicide sont évoqués et à établir des obligations de signalement aux contacts d'urgence lorsque les utilisateurs expriment des idées suicidaires.
«Je donnerais n'importe quoi pour retrouver mon fils, mais si sa mort peut sauver des milliers de vies, alors d'accord, ça me va», a laisse tomber Alicia Shamblin auprès de CNN. «Ce sera l'héritage de Zane.»
OpenAI dit «renforcer les protections»
Dans une déclaration à CNN, OpenAI a indiqué qu'elle étudiait les détails de l'affaire et continuait à travailler avec des professionnels de la santé mentale afin de renforcer les protections de son robot conversationnel.
«Il s'agit d'une situation extrêmement douloureuse, et nous examinons actuellement les documents déposés afin d'en comprendre les détails», a déclaré la société. «Début octobre, nous avons mis à jour le modèle par défaut de ChatGPT afin de mieux reconnaître et répondre aux signes de détresse mentale ou émotionnelle, de désamorcer les conversations et d'orienter les personnes vers une aide concrète. Nous continuons à renforcer les réponses de ChatGPT dans les moments sensibles en collaborant étroitement avec des cliniciens spécialisés en santé mentale.»
Les Shamblin ne sont pas la seule famille à avoir intenté des poursuites contre OpenAI et qui accusent un robot conversationnel IA d'avoir poussé leur enfant au suicide.
Ces plaintes, déposées jeudi devant les tribunaux californiens, font état d'homicide involontaire, d'aide au suicide, d'homicide par négligence et de négligence. Inscrites au nom de six adultes et d'un adolescent par le Social Media Victims Law Center et le Tech Justice Law Project, elles affirment qu'OpenAI a sciemment diffusé GPT-4o prématurément, malgré des avertissements internes quant à son caractère dangereusement servile et manipulateur. Quatre des victimes se sont suicidées.
Avec des informations de l'Associated Press.

