Technologie

Ottawa envisage une limite d'âge pour les agents conversationnels

Mis à jour

Publié

de1c20e74faab87e4fcf3152b824dc4fc04a99b8d89861c15301a0d360fe05e8.jpg Le ministre de l’Intelligence artificielle et de l’Innovation numérique, Evan Solomon, s’exprime lors de la conférence All In AI à Montréal, le jeudi 25 septembre 2025. LA PRESSE CANADIENNE/Christopher Katsarov (Christopher Katsarov | La Presse canadienne)

Le ministre de l'Intelligence artificielle, Evan Solomon, affirme que son prochain projet de loi sur la protection de la vie privée pourrait inclure des limites d'âge pour les agents conversationnels afin de protéger les enfants.

«Il y a beaucoup de discussions autour de personnes qui nous demandent s'il devrait y avoir un accès adapté à l'âge pour certaines parties des agents conversationnels», a mentionné M. Solomon à La Presse Canadienne.

«Nous allons examiner cette question», a-t-il indiqué.

Ses commentaires interviennent dans un contexte de préoccupations croissantes concernant les risques liés aux agents conversationnels, notamment les problèmes de santé mentale induits par les systèmes d'IA.

Des poursuites pour homicide involontaire visant les agents conversationnels d'intelligence artificielle ont été intentées aux États-Unis par des parents d'adolescents dont les enfants ont mis fin à leurs jours.

Le ministre a présenté jeudi son approche de la réglementation de l'IA lors d'une conférence à Montréal. Le lendemain, la conférence a entendu le témoignage d'un des parents à l'origine de ces poursuites.

Megan Garcia a intenté une poursuite en Floride l'année dernière contre Character.AI après le suicide de son fils de 14 ans. À Montréal, elle a exhorté les décideurs politiques hors des États-Unis à agir.

«J'espère qu'en adoptant et en appliquant une loi, en rendant ces entreprises passibles d'amendes dans leur propre pays, entre autres, vous ferez pression» sur les entreprises technologiques, a-t-elle déclaré.

«Mais pas seulement cela, peut-être aussi nous pousser à agir au nom de nos enfants dans notre propre pays», a-t-elle ajouté.

Lors de l'entrevue, M. Solomon a précisé avoir évoqué l'un des cas de suicide avec des représentants d'OpenAI.

Il a mentionné qu'il était «très difficile de tirer des conclusions hâtives sur la manière de réglementer en se basant sur un cas horrible et tragique».

En Californie, les parents d'un adolescent de 16 ans ont intenté une action en justice pour homicide involontaire contre OpenAI, le créateur de ChatGPT, alléguant que ChatGPT avait encouragé leur fils à se suicider.

Le ministre Solomon a souligné qu'il n'avait pas changé d'avis quant à son rejet d'une approche réglementaire globale de l'IA, mais qu'il était ouvert à l'action sur des questions urgentes et actuelles spécifiques.

Il envisage également d'inclure dans la loi le droit de supprimer les hypertrucages, affirmant être convaincu que les Canadiens souhaitent que des mesures soient prises concernant les images et vidéos trompeuses produites par l'IA.

Evan Solomon s'est dit ouvert aux commentaires des Canadiens et d'un groupe d'experts qu'il a chargé de travailler à la mise à jour de la stratégie canadienne en matière d'IA.

«Il est inutile de demander des commentaires sans y être ouvert», a-t-il avancé.

Il indique que 6500 Canadiens ont donné leur avis lors de la consultation du gouvernement fédéral.