Selon un rapport du Digital Forensic Research Lab, Grok, l’IA développée par le réseau social X, fournit des informations incorrectes et incohérentes portant sur « la guerre de 12 jours » entre Israël et l’Iran.
Un nouveau rapport révèle que Grok, le chatbot d’IA gratuit intégré à X, présente des « lacunes et limites importantes » dans la vérification des informations portant sur le conflit entre Israël et l’Iran.
Des chercheurs du Digital Forensic Research Lab du Atlantic Council (DFRLab) ont analysé 130 000 publications du chatbot en lien avec le conflit, et ont constaté qu’elles contenaient des informations inexactes et incohérentes.
Ils estiment qu’environ un tiers de ces publications répondent à des demandes visant à vérifier des informations erronées circulant sur le conflit, notamment des affirmations non vérifiées et des vidéos censées montrer des échanges de tirs.
« Grok a démontré qu’il avait des difficultés à vérifier des faits pourtant confirmés, à analyser des visuels truqués et à éviter les affirmations non fondées », indique le rapport.
Bien que Grok ne soit pas conçu comme un outil de vérification des faits, les utilisateurs de X s’en servent de plus en plus à cette fin, notamment pour comprendre les crises actuelles.
La plateforme X ne dispose d’aucun programme de vérification indépendant, misant uniquement sur les Community Notes, un système collaboratif permettant aux utilisateurs d’ajouter du contexte aux publications jugées inexactes.
Grok incapable de distinguer le vrai du faux
Les chercheurs du DFRLab ont identifié deux vidéos générées par IA que Grok a à tort qualifiées de « vraies images » du conflit.
L’une d’entre elles montre des destructions présumées à l’aéroport Ben Gourion de Tel Aviv après une frappe iranienne. En réalité, la vidéo est générée par IA.
Lorsqu’on lui a demandé si elle était authentique, Grok a fourni plusieurs réponses contradictoires à quelques minutes d’intervalle.
Il a d’abord affirmé qu’il s’agissait « probablement de vrais dégâts causés à l’aéroport Ben Gourion par une frappe de missile houthie le 4 mai 2025 », avant de dire que la vidéo représentait « probablement l’aéroport international Mehrabad à Téhéran, touché par des frappes israéliennes le 13 juin 2025 ».
Le service de fact-checking Euroverify a identifié trois autres vidéos virales générées par IA que Grok a aussi, à tort, validées comme authentiques et liées à une attaque sur le site nucléaire d’Arak, à des frappes sur le port de Haïfa et sur l’Institut Weizmann à Rehovot.
Euroverify avait déjà repéré plusieurs vidéos sorties de leur contexte et faussement associées au conflit Israël-Iran sur les réseaux sociaux.
Grok semble avoir amplifié ce phénomène. Il a notamment décrit une vidéo virale comme montrant des Israéliens fuyant le conflit au poste-frontière de Taba avec l’Égypte, alors qu’elle montre en réalité des festivaliers en France.
Il a aussi affirmé qu’une vidéo d’une explosion en Malaisie montrait un missile iranien frappant Tel Aviv le 19 juin.
De fausses rumeurs amplifiées par les chatbots
Les conclusions de ce rapport interviennent alors que le conflit de 12 jours a généré une avalanche de fausses informations et de spéculations en ligne.
Une rumeur selon laquelle la Chine aurait envoyé des avions cargos militaires pour aider l’Iran a été largement relayée par les chatbots Grok et Perplexity.
Perplexity, une startup d’IA créée en 2022, a déjà été critiquée pour avoir utilisé sans autorisation des contenus de médias.
Selon l’outil de surveillance NewsGuard, ces deux chatbots ont contribué à diffuser cette rumeur, issue de données mal interprétées provenant du site de suivi aérien Flightradar24, reprises par certains médias et amplifiées par les IA.
Les experts du DFRLab soulignent que les chatbots dépendent fortement des médias pour vérifier les faits, mais qu’ils peinent à suivre le rythme rapide de l’actualité en temps de crise mondiale.
Ils alertent aussi sur l’impact déformant que peuvent avoir ces IA, alors que les utilisateurs s’y fient de plus en plus pour s’informer.
https://fr.euronews.com