Un deuxième front s’est ouvert en ligne, avec la propagation d’informations erronées et de fausses images et vidéos liées au conflit qui fait rage au Moyen-Orient.
Marisha Goldhamer, responsable des enquêtes numériques pour l’Amérique du Nord à l’AFP, a expliqué lundi à CTV News Channel que le problème était généralisé et concernait plusieurs langues.
Ce texte est une traduction d’un article de CTV News.
Par exemple, une publication montrant une explosion prétendument provenant d’une installation nucléaire israélienne est en réalité une vidéo tournée en Ukraine en 2017.
Une autre vidéo prétendant montrer une frappe aérienne iranienne est en réalité une séquence tirée d’un jeu vidéo.
Une frappe prétendument menée sur Tel-Aviv est en réalité une explosion dans un entrepôt de produits chimiques chinois, datant de 2015.
Mme Goldhamer a affirmé qu’elle et son équipe prenaient des captures d’écran des vidéos et effectuaient une recherche d’images inversée.
«Souvent, nous constatons que ces vidéos circulent en ligne depuis de nombreuses années», a-t-elle dit, ajoutant que comme il n’y a pas beaucoup d’images vérifiées du conflit actuel, les gens sont incités à combler les lacunes.
«Ils savent que si leur publication devient virale, ils peuvent attirer beaucoup d’attention», a-t-elle ajouté «(Ils) ne semblent pas se soucier de savoir s’ils partagent ou non quelque chose d’authentique.»
Les plateformes de réseaux sociaux telles que X incluent des notes communautaires pour signaler aux utilisateurs les fausses informations ou les images truquées, ce qui peut être utile si les informations sont vérifiées et que la note est publiée rapidement, selon Mme Goldhamer. Elle a toutefois averti que les informations ne devaient pas être partagées en ligne si leur authenticité ou leur exactitude était remise en question.
«Nous voulons être sûrs que si nous avons le moindre doute sur ce que nous voyons sur les réseaux sociaux, nous ne le partageons pas», a-t-elle dit. «Nous contribuons à briser ce cycle de viralité.»
Selon Mme Goldhamer, il existe des indices permettant de déterminer si les vidéos fausses ont été créées à l’aide de l’IA. Une vidéo circulant en ligne qui prétend montrer des avions de combat iraniens attaquant Dubaï montre un homme avec une main déformée et trop de doigts.
«Cela peut être un signe clé indiquant qu’elle a probablement été créée à l’aide d’un outil de génération d’IA», a prévenu l’experte.
Certaines vidéos générées par l’IA comportent des marques d’eau, qui peuvent aider à distinguer les vraies des fausses. Cependant, ces marques peuvent être facilement supprimées des images une fois qu’elles sont partagées en ligne.
Mme Goldhamer encourage les gens à faire davantage de recherches sur les vidéos qui circulent en ligne afin de vérifier leur authenticité ou de déterminer si ce qui est publié est une vraie vidéo qui a été recyclée à partir d’un autre conflit ou incident.
