Le premier ministre de la Colombie-Britannique, David Eby, a indiqué qu’il «semblait» qu’OpenAI aurait pu empêcher la récente tuerie de masse à Tumbler Ridge, en Colombie-Britannique, qui a fait neuf morts, alors que la pression s’intensifie sur l’entreprise d’intelligence artificielle concernant sa gestion des interactions avec Jesse Van Rootselaar.
M. Eby a précisé lundi qu’il y aurait un processus de reddition de comptes dans lequel l’entreprise expliquerait pourquoi la police n’avait pas été informée à l’avance des interactions inquiétantes de la tireuse avec ChatGPT, qui avaient été signalées en interne, mais n’avaient été rapportées qu’après les meurtres commis le 10 février.
«De l’extérieur, il semble qu’OpenAI avait la possibilité d’empêcher cette tragédie, d’empêcher cette horrible perte de vies humaines, d’empêcher la mort d’enfants en Colombie-Britannique», a-t-il souligné lundi.
«Cela me met en colère», a réagi le premier ministre.
Sans vouloir porter de jugement hâtif, il a ajouté qu’il espérait que l’entreprise clarifierait ses décisions et que les informations seraient rendues publiques d’une manière ou d’une autre, soit par le biais d’une enquête du coroner, soit par une enquête publique.
Ses remarques surviennent après que le ministre de l’Intelligence artificielle, Evan Solomon, a convoqué des représentants d’OpenAI à Ottawa afin de discuter des questions de sécurité après les révélations concernant les interactions entre la tireuse et ChatGPT.
La société a interdit le compte de Jesse Van Rootselaar en juin, mais a avancé que les publications ne répondaient pas aux critères requis pour informer la police, car elles ne comportaient pas de plans crédibles ou imminents.
Le Wall Street Journal a rapporté vendredi que le compte de Jesse Van Rootselaar avait été banni en juin dernier après avoir été signalé pour des publications troublantes, dont certaines incluaient des scénarios de violence armée.
OpenAI a affirmé avoir contacté la Gendarmerie royale du Canada après le drame du 10 février, au cours duquel Van Rootselaar a tué sa mère et son demi-frère avant de se rendre dans une école secondaire locale pour tuer cinq élèves, une aide-enseignante, puis se donner la mort.
M. Solomon a déclaré lundi aux journalistes qu’il était profondément troublé par ces informations et qu’il avait contacté l’entreprise américaine pendant la fin de semaine pour obtenir plus d’informations et organiser une réunion avec son «équipe de sécurité senior» mardi.
«Nous aurons une réunion pour obtenir des explications sur leurs protocoles de sécurité et leurs seuils d’escalade vers la police afin de mieux comprendre ce qui se passe et ce qu’ils font», a-t-il indiqué.
M. Solomon n’a pas précisé si le gouvernement fédéral avait l’intention de réglementer les agents conversationnels, tels que ChatGPT, mais il insiste sur le fait que toutes les options sont envisagées.
Alan Mackworth, professeur émérite au département d’informatique de l’Université de Colombie-Britannique, spécialisé dans la sécurité et l’éthique de l’IA, a noté dans une déclaration écrite que de nombreux professionnels, tels que les enseignants et les médecins, ont le «devoir de signaler» tout cas suspecté de préjudice ou d’abus envers un mineur.
«Ces obligations sont inscrites dans la loi et/ou dans l’éthique professionnelle. Des obligations similaires devraient être imposées aux réseaux sociaux et aux entreprises spécialisées dans l’IA», a-t-il soutenu.
