Début du contenu principal.
Plusieurs grandes entreprises d'intelligence artificielle (IA) se sont engagées jeudi à retirer les images de nudité des bases de données qu'elles utilisent pour entraîner leurs produits et à prendre d'autres mesures pour freiner la diffusion d'images sexuelles frauduleuses nuisibles, appelées «deepfakes» en anglais.
Dans le cadre d'un accord négocié par l'administration Biden, les entreprises technologiques Adobe, Anthropic, Cohere, Microsoft et OpenAI ont déclaré qu'elles s'engageraient volontairement à supprimer les images de nudité de leurs bases de données d'entraînement à l'IA «lorsque cela est approprié et en fonction de l'objectif du modèle».
Cette annonce s'inscrit dans le cadre d'une campagne plus large contre les abus sexuels par l'image commis sur des enfants et contre la création de fausses images intimes d'adultes par l'IA sans leur consentement.
Ces images ont «explosé, ciblant de manière disproportionnée les femmes, les enfants et les personnes LGBTQI+, et constituent l'une des utilisations nuisibles de l'IA connaissant la croissance la plus rapide à ce jour», a affirmé le Bureau de la politique scientifique et technologique de la Maison-Blanche.
Common Crawl s'est joint aux entreprises technologiques pour une partie de l'engagement. Cette organisation à but non lucratif explore le Web et fournit gratuitement ses archives et ses ensembles de données au public, ce qui constitue une source essentielle pour former les «chatbots» et les générateurs d'images de l'IA.
Elle s'est engagée à s'approvisionner de manière responsable en données et à les protéger contre les abus sexuels liés à l'image.
Jeudi, un autre groupe d'entreprises - parmi lesquelles figurent Bumble, Discord, Match Group, Meta, Microsoft et TikTok - a annoncé un ensemble de principes volontaires visant à prévenir les abus sexuels fondés sur l'image.