Technologie

«Déshabille-là»: quand l’IA est utilisée pour dénuder des femmes et des enfants

C’est l’assistant d’intelligence artificielle Grok, intégré à la plateforme, propriété d’Elon Musk, qui est à l’origine de cette tendance.

Publié le 

Grok

Depuis plusieurs jours, le réseau social X voit circuler en masse des images de femmes dénudées sous le hashtag #Grok. En cause: des internautes qui détournent l’intelligence artificielle Grok pour modifier des photos récupérées sur les réseaux sociaux et en retirer les vêtements.

C’est l’assistant d’intelligence artificielle Grok, intégré à la plateforme, propriété d’Elon Musk, qui est à l’origine de cette tendance.

Conçu, au départ, pour modifier et générer des images à partir de photos existantes, l’outil est détourné par certains utilisateurs.

Des photos de femmes publiées sur les réseaux sociaux sont récupérées, puis accompagnées de requêtes telles que «mets-la en bikini» ou «enlève-lui ses vêtements».

En quelques secondes, l’intelligence artificielle produit des images modifiées, représentant ces personnes dans des tenues sexualisées ou complètement dénudés, sans leur consentement.

Le phénomène a pris une ampleur considérable depuis le début du mois de janvier.

Le hashtag #Grok s’est hissé dans le top 10 des tendances sur X, dépassant les 1,5 million de publications.

Si les images ciblent majoritairement des femmes, des contenus impliquant des mineurs ont également été signalés.

Face à la polémique, l’entreprise a reconnu la semaine dernière l’existence de failles dans son système de modération.

Certains États commencent d’ailleurs à réagir. En Inde, les autorités ont donné jusqu’à ce lundi à X pour corriger le problème, sous peine de poursuites judiciaires.

Cette affaire s’ajoute à une longue liste de controverses pour une plateforme qui revendique une politique de liberté d’expression étendue, voire «sans censure». Par le passé, Grok avait déjà été accusé de relayer des propos extrémistes, injurieux, et même de faire l’éloge d’Adolf Hitler.