Chroniques

Analyse | Un juge québécois a-t-il utilisé l’IA et rédigé une information erronée pour rendre sa décision?

Ce serait du jamais vu.

Publié le 

Quand l’intelligence artificielle s’invite à la Cour supérieure Entrevue avec Me Frédéric Bérard, avocat en droit constitutionnel, afin de discuter de la question de l’IA dans un jugement.

Un juge de la Cour supérieure du Québec a-t-il rédigé une information erronée puisqu’il a utilisé l’intelligence artificielle dans son jugement? Si c’est le cas, ce serait du jamais vu, constate l’avocat Frédéric Bérard.

Dans un article de La Presse publié vendredi, on apprend que le juge Jocelyn Geoffroy se serait fié au dossier Crawford c. Crawford McGregor, qui, selon lui, se serait rendu à la Cour suprême du Canada, afin de trancher dans le dossier de Robert Giroux – condamné à rembourser 128 M$ à groupe d’investisseurs en raison d’une présumée fraude de type Ponzi.

Or, dans les faits, la Cour suprême du Canada n’a jamais rendu de jugement dans ce dossier.

Cette histoire est fort inquiétante, a lancé Me Bérard sur les ondes de Noovo Info. L’avocat suppose que, si un juge a été épinglé pour avoir utilisé l’IA, il est fort probable que d’autres juges l’aient déjà utilisé.

«Un juge qui se réfère à des décisions qui n’existent pas, ça affecte la confiance que les gens peuvent avoir face à l’administration de la justice», a-t-il ajouté.

Dans le cas du procès de Robert Giroux, il n’est pas impossible que cette erreur du juge vienne invalider le verdict et que la Cour d’appel prenne le tout en considération.

Me Bérard rappelle qu’il existe également le Conseil de la magistrature du Québec, qui «peut appliquer des mesures disciplinaires» à l’endroit du juge Jocelyn Geoffroy.

À voir dans la vidéo.