Les négociateurs de l'Union européenne (UE) sont parvenus vendredi à un accord sur les premières règles en matière d'intelligence artificielle (IA) au monde, ouvrant ainsi la voie à un contrôle juridique de la technologie de l'IA.
Les négociateurs du Parlement européen et des 27 pays membres de l'Union européenne ont surmonté d'importantes divergences sur des points controversés tels que l'IA générative et l'utilisation par la police de la surveillance par reconnaissance faciale, pour signer un accord politique provisoire sur la loi sur l'intelligence artificielle.
«Deal!», a écrit le commissaire européen Thierry Breton, sur le réseau X juste avant minuit. L'UE devient le tout premier continent à établir des règles claires pour l'utilisation de l'IA.»
Ce résultat a été obtenu à l'issue d'un marathon de négociations à huis clos cette semaine, la première session ayant duré 22 heures avant qu'une deuxième série de négociations ne débute vendredi matin.
Les fonctionnaires avaient pour objectif d'assurer une victoire politique à la législation phare.
Les groupes de la société civile l'ont toutefois accueillie froidement, dans l'attente des détails techniques qui devront être réglés dans les semaines à venir. Selon eux, l'accord ne va pas assez loin dans la protection des personnes contre les dommages causés par les systèmes d'IA.
L'Union européenne a pris une longueur d'avance dans la course mondiale à l'élaboration de garde-fous en matière d'IA en dévoilant la première version de son règlement en 2021. L'essor récent de l'IA générative a toutefois poussé les fonctionnaires européens à mettre à jour une proposition destinée à servir de modèle au reste du monde.
Le Parlement européen devra encore voter sur la loi au début de l'année prochaine, mais avec l'accord conclu, c'est une formalité, a déclaré Brando Benifei, un législateur italien qui codirige les efforts de négociation de l'organe, à l'Associated Press vendredi en fin de journée.
L'éventuelle loi n'entrera pas pleinement en vigueur avant 2025 au plus tôt. Elle menace les contrevenants de lourdes sanctions financières pouvant aller jusqu'à 35 millions d'euros (38 millions $) ou 7 % du chiffre d'affaires mondial d'une entreprise.
Modèle de fondation
Les systèmes d'IA générative comme le ChatGPT d'OpenAI ont explosé dans la conscience du monde, émerveillant les utilisateurs par leur capacité à produire des textes, des photos et des chansons semblables à ceux des humains.
Cependant, ils suscitent des craintes quant aux risques que cette technologie en développement rapide fait peser sur l'emploi, la protection de la vie privée et des droits d'auteur, voire sur la vie humaine elle-même.
Aujourd'hui, les États-Unis, le Royaume-Uni, la Chine et des coalitions mondiales telles que le Groupe des sept grandes démocraties ont présenté leurs propres propositions pour réglementer l'IA, même s'ils doivent encore rattraper leur retard par rapport à l'Europe.
La loi sur l'IA a été conçue à l'origine pour atténuer les dangers liés à des fonctions d'IA spécifiques en fonction de leur niveau de risque, de faible à inacceptable. Mais les législateurs ont fait pression pour l'étendre aux modèles de fondation, les systèmes avancés qui sous-tendent les services d'IA à usage général tels que ChatGPT et le robot conversationnel Bard de Google.
Les entreprises qui construisent des modèles de fondation devront établir une documentation technique, se conformer à la législation européenne sur les droits d'auteur et détailler le contenu utilisé pour la formation.
Les modèles de fondation les plus avancés, qui présentent des «risques systémiques», feront l'objet d'une surveillance accrue, notamment en ce qui concerne l'évaluation et l'atténuation de ces risques, la notification des incidents graves, la mise en place de mesures de cybersécurité et la communication d'informations sur leur efficacité énergétique.
Reconnaissance faciale
Les systèmes de surveillance par reconnaissance faciale alimentés par l'IA sont devenus le sujet le plus épineux. Les négociateurs ont trouvé un compromis après d'intenses tractations.
Les législateurs européens voulaient interdire totalement l'utilisation publique de la numérisation des visages et d'autres systèmes d'«identification biométrique à distance» pour des raisons de protection de la vie privée.
Les gouvernements des pays membres ont toutefois réussi à négocier des exemptions afin que les forces de l'ordre puissent les utiliser pour lutter contre des crimes graves tels que l'exploitation sexuelle des enfants ou les attaques terroristes.
Les groupes de défense des droits humains se sont dits préoccupés par ces dérogations et par d'autres lacunes importantes de la loi sur l'IA, notamment l'absence de protection pour les systèmes d'IA utilisés dans le cadre des contrôles migratoires et frontaliers et la possibilité pour les développeurs de refuser que leurs systèmes soient classés comme présentant un risque élevé.
