Dans le monde réel, Cole Tomas Allen est le trentenaire accusé d’avoir tenté d’assassiner Donald Trump. Sur les réseaux, c’est un visage désormais reproduit dans toutes sortes de fakes, grâce aux possibilités exponentielles de l’intelligence artificielle.
Samedi dernier, cet homme de 31 ans originaire de Californie a fait intrusion au dîner de l’Association des correspondants de la Maison-Blanche, entraînant l’évacuation du président américain et de hauts responsables de son administration.
À peine quelques heures après, des images générées par l’IA le montraient sur Facebook aux côtés de célébrités dont il serait l’«ancien chauffeur», «l’assistant» ou un «membre de l’équipe de production».
L’AFP a trouvé plus de 50 personnalités associées à tort au tireur, des acteurs Tom Hanks et Sydney Sweeney aux musiciens Chris Brown et Taylor Swift. En passant par l’ancien président Barack Obama, le pape Léon XIV et la présentatrice de NBC News Savannah Guthrie.
Cole Allen, ou plutôt son effigie, a rejoint un écosystème en ligne saturé de contenus qualifiés de «bouillie d’IA».
«Il y a deux ans, vous n’auriez probablement pas pu fabriquer ces images de lui. Nous ne pouvions produire que des faux convaincants de célébrités qui avaient une grande empreinte numérique», explique Hany Farid, de l’université de Californie à Berkeley. «Désormais, il me suffit d’une seule image de vous».
Aaron Parnas, un journaliste indépendant dont l’image est apparue dans des fakes générés par l’IA, a supplié sur Facebook les internautes de signaler des images «complètement fausses», les jugeant «extrêmement dangereuses». En vain.
Meta n’a pas répondu aux questions de l’AFP.
«Conçus pour la viralité»
Une autre vague de publications a bombardé Allen dans le monde du sport de haut niveau, au sein d’une quarantaine d’équipes de foot, football américain, hockey ou course automobile.
Cette série se base cette fois sur la photo prise par une société de tutorat, saluant Allen comme «l’enseignant du mois» en décembre 2024.
Ce format, fondé sur un seul modèle, permet la production de faux contenus en série, note l’expert du numérique Mike Caulfield. «Cela rappelle la production des fermes à clic, mais avec de l’IA», explique-t-il à l’AFP.
Le développement accéléré des capacités de l’IA ont considérablement facilité la production des fakes, faisant peu à peu disparaître les bévues autrefois révélatrices, comme les mains à six doigts ou les seconds plans incohérents.
«L’IA rend anodin le fait de prendre des photos existantes et d’en modifier les vêtements et l’environnement, ou de remplacer le visage par celui de quelqu’un d’autre», souligne Jen Golbeck, professeure au College of Information de l’Université du Maryland.
«Dès que quelqu’un a une idée, il peut en faire une réalité visuelle. Il y a cinq ans, il n’aurait pas été inhabituel de voir des gens retoucher manuellement, sous Photoshop, des images comme celles que nous voyons, mais jamais à un tel volume».
Les chercheurs craignent de voir les utilisateurs finir par se lasser de ne pouvoir déterminer ce qui est réel et ce qui ne l’est pas.
L’AFP a documenté de similaires flambées de faux contenus après d’autres événements majeurs récents, notamment la capture par les États-Unis du dirigeant vénézuélien Nicolas Maduro en janvier et l’assassinat en 2025 de l’influenceur trumpiste Charlie Kirk.
«Ces contenus sont conçus pour connaître la viralité et bien sûr les algorithmes s’en emparent», explique Hany Farid.
«C’est extrêmement rentable» et c’est une tendance lourde. «Chaque fois qu’il se produit un événement mondial, nous sommes submergés par ce genre d’insanités. Je ne pense pas que cela soit près de disparaître.»
