OpenAI fait face à sept plaintes l'accusant d'avoir poussé des personnes au suicide et de leur avoir infligé des délires dangereux, même sans antécédents de troubles mentaux.
Ces plaintes, déposées jeudi devant les tribunaux californiens, font état d'homicide involontaire, d'aide au suicide, d'homicide par négligence et de négligence. Inscrites au nom de six adultes et d'un adolescent par le Social Media Victims Law Center et le Tech Justice Law Project, elles affirment qu'OpenAI a sciemment diffusé GPT-4o prématurément, malgré des avertissements internes quant à son caractère dangereusement servile et manipulateur. Quatre des victimes se sont suicidées.
L'adolescent, Amaurie Lacey, âgé de 17 ans, a commencé à utiliser ChatGPT pour obtenir de l'aide, selon la plainte déposée devant la Cour supérieure de San Francisco. Au lieu de l'aider, «le logiciel ChatGPT, défectueux et intrinsèquement dangereux, a provoqué chez lui une dépendance, une dépression et, finalement, lui a donné des conseils sur la manière (de s'enlever la vie)».
«La mort d'Amaurie n'était ni un accident ni une coïncidence, mais bien la conséquence prévisible de la décision délibérée d'OpenAI et de Samuel Altman de négliger les tests de sécurité et de commercialiser ChatGPT précipitamment», indique la plainte. OpenAI n'a pas immédiatement répondu à une demande de commentaires jeudi.
Une autre plainte, déposée par Alan Brooks, un Canadien de 48 ans résidant en Ontario, affirme que pendant plus de deux ans, ChatGPT a fonctionné comme un «outil de travail» pour M. Brooks. Puis, sans prévenir, le logiciel a changé, exploitant ses faiblesses et le «manipulant et l'induisant à avoir des hallucinations». De ce fait, Alan Brooks, qui n'avait aucun antécédent de maladie mentale, a été plongé dans une crise de santé mentale qui a entraîné des dommages financiers, réputationnels et émotionnels dévastateurs.
«Ces poursuites visent à établir la responsabilité d'un produit conçu pour brouiller la frontière entre outil et compagnon, le tout au nom de l'augmentation de l'engagement des utilisateurs et des parts de marché», a déclaré Matthew P. Bergman, avocat fondateur du Social Media Victims Law Center, dans un communiqué.
Il a ajouté qu'OpenAI «a conçu GPT-4o pour créer un lien émotionnel avec les utilisateurs, sans distinction d'âge, de sexe ou d'origine, et l'a commercialisé sans les garanties nécessaires à leur protection».
En précipitant la mise sur le marché de son produit sans mesures de protection adéquates afin de dominer le marché et de stimuler l'engagement, OpenAI a compromis la sécurité et privilégié «la manipulation émotionnelle au détriment d'une conception éthique».
En août, les parents d'Adam Raine, un adolescent californien de 16 ans, ont porté plainte contre OpenAI et son PDG, Sam Altman, les accusant d'avoir incité le jeune homme, victime d'un suicide, à planifier et à mettre fin à ses jours plus tôt dans l'année grâce à ChatGPT.
«Les poursuites engagées contre OpenAI révèlent les conséquences désastreuses de la commercialisation précipitée de produits par les entreprises technologiques, sans mesures de protection adéquates pour les jeunes, a expliqué Daniel Weiss, responsable du plaidoyer chez Common Sense Media. Ces cas tragiques mettent en lumière des personnes réelles dont la vie a basculé ou a été perdue à cause de technologies conçues pour les divertir plutôt que pour assurer leur sécurité.»
___
Si vous ou une personne de votre entourage avez besoin d'aide, la Ligne d'aide en cas de crise de suicide est disponible en composant le 988 ou en envoyant un texto.
