Technologie

OpenAI n’a pas respecté la loi canadienne sur la protection de la vie privée

Ces conclusions figurent dans un rapport présenté mercredi à l’issue d’une enquête conjointe menée par les autorités fédérales et provinciales.

Mis à jour le 

Publié le 

Le logo d'OpenAI apparaît sur un téléphone portable placé devant l'écran d'un ordinateur affichant une sortie de ChatGPT, le 21 mars 2023, à Boston. Le logo d'OpenAI apparaît sur un téléphone portable placé devant l'écran d'un ordinateur affichant une sortie de ChatGPT, le 21 mars 2023, à Boston. (Michael Dwyer)

Les autorités fédérales et provinciales chargées de la protection de la vie privée affirment qu’OpenAI n’a pas respecté la législation canadienne lors de l’entraînement de son agent conversationnel ChatGPT, basé sur l’intelligence artificielle, mais l’entreprise ne sera pas sanctionnée.

Ces conclusions figurent dans un rapport présenté mercredi à la suite d’une enquête conjointe menée par le commissaire fédéral à la protection de la vie privée, Philippe Dufresne, et ses homologues de la Colombie-Britannique, de l’Alberta et du Québec.

Mis en ligne en novembre 2022, ChatGPT est un outil conversationnel très populaire qui répond presque instantanément aux requêtes des utilisateurs en ligne en leur fournissant un large éventail d’informations — des réponses qui peuvent être exactes ou non.

Ils ont constaté que la collecte d’informations par OpenAI pour entraîner ses modèles était trop large, ce qui a conduit à la compilation et à l’utilisation de données personnelles sensibles.

Les autorités de régulation ont indiqué que cela pourrait inclure des informations sensibles, telles que l’état de santé et les opinions politiques des individus, ainsi que des données concernant des enfants.

L’enquête a révélé qu’OpenAI n’avait pas clairement expliqué que les informations personnelles collectées à partir de sources accessibles au public pouvaient inclure des données provenant des réseaux sociaux, des forums de discussion et d’autres sites internet similaires.

«OpenAI a lancé ChatGPT sans avoir pleinement pris en compte les risques connus en matière de protection de la vie privée, a déclaré M. Dufresne lors d’une conférence de presse. Ce lancement a exposé les Canadiennes et les Canadiens à des risques de préjudice, comme des atteintes à la vie privée et de la discrimination fondée sur les renseignements fournis à leur sujet.»

Un modèle d’IA est trop dangereux pour être rendu public, selon ses développeurs Les dirigeants des banques canadiennes et les autorités de régulation se sont réunis le 10 avril dernier pour discuter des risques posés par Claude Mythos Preview, le nouveau modèle d’IA d’Anthropic, que l’entreprise juge si puissant qu’elle a décidé de ne pas le rendre public.

Les autorités de protection de la vie privée ont également affirmé qu’OpenAI n’avait pas suffisamment informé les utilisateurs des inexactitudes potentielles dans les réponses de ChatGPT et n’avait, jusqu’à récemment, pas procédé à une évaluation pour valider l’exactitude des informations personnelles incluses dans les réponses.

OpenAI n’a pas non plus fourni à tous un mécanisme facilement accessible et efficace pour consulter, corriger et supprimer leurs informations personnelles, ont déclaré les autorités de surveillance.

M. Dufresne a reconnu qu’OpenAI avait pris des mesures importantes pour améliorer la protection de la vie privée et avait également accepté de mettre en œuvre des mesures supplémentaires pour répondre aux préoccupations de son bureau.

«Ces mesures limiteront considérablement les données personnelles utilisées pour entraîner les nouveaux modèles ChatGPT et protégeront mieux le droit fondamental à la vie privée des Canadiens, a-t-il déclaré. Elles permettront également de mieux sensibiliser les Canadiens aux implications associées à l’utilisation de ChatGPT.»

Aucune sanction

Le commissaire fédéral a expliqué qu’il n’a pas le pouvoir d’imposer des amendes, et qu’il réclame d’ailleurs que le gouvernement modernise la loi de manière à lui en donner le pouvoir.

«La présence de ce risque de sanction-là, ça va motiver n’importe quelle organisation à agir plus rapidement, de façon plus prudente. (...) Il faut absolument faire ça», a dit M. Dufresne.

Or, au Québec, la Commission d’accès à l’information dispose de ce pouvoir, mais a choisi de ne pas l’exercer au terme de l’enquête sur OpenAI.

La commissaire de la section Surveillance, Naomi Ayotte, a expliqué que la décision a été prise vu qu’il s’agit d’une «enquête commune» et vu les actions prises par l’entreprise.

Elle a affirmé que deux éléments ne sont toujours pas réglés et que, si ce n’est pas fait, son organisation «n’hésitera pas à utiliser ses pouvoirs» d’imposer une amende, «mais tout ça précédé d’enquête et d’inspection».

Avec des informations de Michel Saba

Jim Bronskill

Jim Bronskill

Journaliste

Anja Karadeglija

Anja Karadeglija

Journaliste