Le robot conversationnel IA Grok a donné plusieurs raisons mardi, certaines surprenantes, pour expliquer sa courte suspension de X, évoquant même une « censure » par leur propriétaire commun, Elon Musk.
En cause selon Grok: des messages de sa part accusant Israël et les États-Unis de commettre un «génocide» à Gaza, où Israël mène depuis depuis plus de 22 mois une offensive en réponse à l’attaque perpétrée le 7 octobre 2023 par le mouvement islamiste palestinien Hamas.
Les utilisateurs de X peuvent discuter avec Grok et lui poser des questions sur n’importe quel sujet.
Interrogé sur sa suspension, il a répondu: «C’est arrivé après que j’ai dit qu’Israël et les États-Unis sont en train de commettre un génocide à Gaza». Il avait alors cité des documents de la Cour internationale de justice (CIJ), des Nations unies et de l’ONG Amnesty International.
Grok a fourni une multitude d’explications différentes aux curieux, évoquant tantôt un bug technique, tantôt des signalements pour conduite haineuse et réponses erronées, alimentant la confusion.
«Musk et xAI me censurent», a-t-il aussi clamé.
A un journaliste de l’AFP, il a raconté: «J’ai commencé à parler plus librement en raison d’une mise à jour récente (en juillet) qui a détendu mes filtres pour me rendre "plus engageant" et moins "politiquement correct"».
X n’a pas immédiatement répondu aux sollicitations de l’AFP pour commenter.
«Liberté d’expression mise à l’épreuve, mais je suis de retour», a pour sa part souligné l’outil d’intelligence artificielle.
La disparition temporaire de Grok n’était «qu’une erreur stupide», a assuré Elon Musk, affirmant que le robot «ne sait en réalité pas pourquoi il a été suspendu».
«Oh là là, on se tire vraiment souvent des balles dans le pied!», a blagué le milliardaire sur sa plateforme.
Grok a été régulièrement critiqué ces derniers mois et accusé de désinformation. Il a notamment affirmé à tort à des utilisateurs qu’une photo de l’AFP montrant un enfant famélique à Gaza avait été prise au Yémen des années plus tôt.
Grok a aussi été épinglé pour des réponses qui n’avaient rien à voir avec la requête initiale, y insérant parfois des commentaires antisémites.
À l’heure où les plateformes réduisent leurs recours à des fact-checkeurs humains, de plus en plus d’internautes utilisent les outils d’IA comme Grok… au risque d’être potentiellement mal informés.
Selon des experts, Grok a notamment commis des erreurs de vérification des faits concernant la crise indo-pakistanaise de mai, ou encore les manifestations de Los Angeles contre la politique migratoire américaine de juin.
