Les victimes de la tuerie de masse survenue à Tumbler Ridge, en Colombie-Britannique, au début de l’année, et leurs familles ont intenté une action en justice en Californie pour homicide involontaire contre OpenAI et son fondateur, Sam Altman.
Les proches et les victimes comptent réclamer plus d’un milliard de dollars américains, selon l’avocat Jay Edelson, qui représente une partie des plaignants.
Établi à Chicago, il a représenté plusieurs clients dans des affaires de mort injustifiée contre OpenAI. Toutefois, il affirme que la tuerie de Tumbler Ridge, où huit personnes ont été tuées, est «de toute évidence la pire» que son cabinet ait jamais traitée.
Me Edelson est le conseiller juridique américain des victimes et des familles de Tumbler Ridge, qui ont déposé aujourd’hui en Californie des poursuites pour mort injustifiée contre OpenAI et M. Altman.
Parmi les plaignants figurent les parents d’enfants tués ou blessés lors de l’attaque et le mari de Shannda Aviugana-Durand, une aide-enseignante qui a également perdu la vie dans la tuerie.
«En ce qui concerne ce que nous allons demander au jury, nous pensons que lorsque l’on examine la situation de Maya, par exemple — cette fillette de 12 ans qui a été atteinte par balle à bout portant et qui lutte pour sa vie —, nous nous attendons à ce que le jury lance un message très fort à OpenAI, et nous demanderons certainement plus d’un milliard de dollars», a déclaré M. Edelson.
Jesse Van Rootselaar, âgée de 18 ans, a mené une tuerie qui a fait huit morts le 10 février avant de se suicider. Il a depuis été révélé que le personnel d’OpenAI avait signalé, plusieurs mois auparavant, les interactions inquiétantes de la tueuse avec le robot conversationnel ChatGPT de l’entreprise — mais que l’entreprise n’en avait pas informé la police.
Un lourd historique déjà
Dans les documents judiciaires fournis par les avocats représentant sept personnes touchées par la tuerie du 10 février, les plaignants accusent aussi l’entreprise d’intelligence artificielle (IA) et son fondateur de ne pas avoir averti les autorités et d’avoir aidé et encouragé la tuerie, entre autres allégations.
«Nous avons donc eu affaire à des suicides encouragés par ChatGPT, au meurtre d’une femme de 83 ans où un homme souffrant de troubles mentaux a été entraîné dans un univers de théories du complot et amené à croire que sa mère et d’autres personnes tentaient de le tuer, ce qui l’a conduit à la tuer puis à se suicider», a listé M. Edelson.
«Et nous avons constaté un certain nombre de cas où des événements causant de nombreuses victimes ont été discutés et planifiés sur des plateformes telles que ChatGPT et Google Gemini. Ce cas (Tumbler Ridge) est manifestement le pire que nous ayons rencontré», a tenu a souligné l’avocat.
OpenAI n’a pas répondu à une demande de commentaires envoyés sur la plateforme de réseaux sociaux X.
Cependant, dans un communiqué publié mardi sur son site Web, OpenAI a déclaré qu’elle «améliorait constamment les mesures prises pour aider à protéger les personnes et les communautés», et que «les fusillades de masse, les menaces contre des fonctionnaires, les tentatives d’attentats à la bombe et les attaques contre des communautés et des individus constituent une réalité grave et inacceptable».
Dans les documents judiciaires, les victimes et leurs familles affirment qu’OpenAI a pris la décision délibérée de ne pas signaler les activités de Jesse Van Rootselaar à la police, sachant que l’ajout de protocoles de sécurité adéquats à ChatGPT ferait perdre des parts de marché à l’entreprise.
Les plaignants affirment également que la désactivation du compte du tireur était trompeuse, car l’entreprise avait fourni des instructions claires aux utilisateurs sur la manière de créer de nouveaux comptes.
OpenAI a indiqué que la tireuse disposait d’un deuxième compte, en plus de celui qui avait été fermé.
«Ces instructions n’étaient pas le fruit du hasard, peut-on lire dans la plainte. L’absence de mesures de sécurité non plus. Elles s’inscrivent dans une tendance. Après chaque tragédie, OpenAI promet de faire mieux. Mais elle ne promet jamais de faire la seule chose qui ferait réellement la différence: empêcher ChatGPT d’interagir avec les utilisateurs sur les thèmes de la violence et de l’automutilation dès le départ.»
OpenAI s’excuse
Dans un message partagé par le premier ministre de la Colombie-Britannique, David Eby, la semaine dernière, M. Altman a présenté ses excuses aux victimes, affirmant que cela était nécessaire même si les mots ne suffisaient pas.
«Je suis profondément désolé que nous n’ayons pas alerté les forces de l’ordre au sujet du compte qui a été banni en juin», a déclaré M. Altman dans ses excuses.
Dans une déclaration transmise par les avocats canadiens des plaignants, Cia Edmonds, la mère de Maya Gebala, a rejeté les excuses de l’homme d’affaires.
«As-tu utilisé ChatGPT pour rédiger tes “excuses”, Sam? a demandé Mme Edmonds dans une déclaration. Elles sont vides, sans âme et dépourvues de toute chaleur humaine. Seule une machine aurait pu assembler ces mots et appeler cela des excuses.»
«Tumbler Ridge a pris connaissance de vos “excuses”, Sam. Nous ne les acceptons pas».
Le ministre fédéral de l’Intelligence artificielle, Evan Solomon, a confirmé aux journalistes qu’Ottawa avait pris connaissance du procès et que le gouvernement continuerait à œuvrer pour des améliorations dans le domaine de l’IA «afin de garantir la protection des citoyens».
«Et comme je l’ai dit, toutes les options sont sur la table», a laissé entendre M. Solomon.
Les avocats canadiens des plaignants, Rice Parsons Leoni & Elliott LLP, ont admis avoir décidé d’intenter ces poursuites en Californie en partie en raison des plafonds imposés aux dommages-intérêts pour préjudice moral par les tribunaux canadiens, le montant maximal de dommages-intérêts punitifs jamais accordé au Canada s’élevant à 1,5 million $.
«En ce qui concerne les enfants assassinés, leurs successions ne sont pas autorisées à intenter des actions en dommages-intérêts contre OpenAI en Colombie-Britannique, et, dans la plupart des cas, les proches d’enfants tués injustement ne peuvent obtenir aucune indemnisation en vertu de la Family Compensation Act de la Colombie-Britannique», peut-on lire dans une déclaration du cabinet.
M. Edelson a fait savoir qu’OpenAI avait tenté de ralentir les procédures judiciaires dans des affaires précédentes, et que le fait de déposer plainte en Californie, où se trouvent les témoins, permettrait d’accélérer la procédure.
L’avocat a indiqué que l’entreprise pourrait valoir plus de 1000 milliards $ d’ici le début du procès.
«Nous sommes bien conscients que, même si le jury accorde un milliard de dollars, cela n’aura pas d’impact significatif sur leurs finances, a ajouté M. Edelson. Cela enverra un message fort, et l’objectif principal de ce procès est d’amener OpenAI à retirer un produit dangereux du marché et à agir de manière responsable.»
