Des dizaines de fausses photos et fausses vidéos ont été partagées à une vitesse record sur les réseaux en un mois de guerre entre les États-Unis, Israël et l’Iran.

Article rédigé par Armêl Balogog
Des dizaines de fausses images générées par intelligence artificielle ont envahi les réseaux sociaux depuis le début du conflit au Moyen-Orient (photo d'illustration). (RichVintage / E+)
Des dizaines de fausses images générées par intelligence artificielle ont envahi les réseaux sociaux depuis le début du conflit au Moyen-Orient (photo d’illustration). (RichVintage / E+)

De fausses vidéos de bombardements, de fausses photos de destruction, de fausses preuves de la mort de journalistes sur le terrain… Des dizaines de fausses images générées par intelligence artificielle ont envahi les réseaux sociaux depuis le début du conflit, samedi 28 février, au point que Newsguard, une entreprise américaine qui détecte les fausses informations sur internet depuis huit ans, estime que la guerre au Moyen-Orient a battu des records, à la fois en quantité de productions de faux par IA en seulement un mois, mais aussi en qualité avec des images inventées de plus en plus réalistes et difficiles à vérifier.

Le dernier exemple en date, relevé par Newsguard, est la fausse photo d’un missile iranien arborant le slogan « No Kings », « pas de rois », du nom d’un vaste mouvement anti-Trump aux États-Unis. Cette fausse image, générée par IA, a été reprise à la fois par des médias et des internautes pro-Iran se félicitant de l’inscription de ce slogan, et par des internautes pro-Israël pour qui, en inscrivant ce slogan sur un missile, l’Iran essaie de draguer les démocrates américains.

Des fausses images et des vraies accusées d’être fausses.

L’autre conséquence de la multiplication de ces fausses images est de semer un doute de plus en plus grand sur tous les visuels qui circulent sur internet et de nous faire questionner des images qui sont pourtant bien réelles. Les commentaires des récentes vidéos du Premier ministre israélien Benyamin Nétanyahou en sont une illustration.

Le 12 mars, la chaîne BFM TV diffusait en direct une prise de parole de Benyamin Nétanyahou, mais des internautes ont cru voir six doigts à l’une de ses mains, comme le relevait l’AFP.

Ces internautes, croyant en une illusion d’optique, y ont vu la preuve que le leader israélien était mort dans un bombardement iranien. Quelques jours plus tard, le 15 mars, Benyamin Nétanyahou a publié une vidéo de lui dans un café pour démentir les rumeurs de sa mort.

Mais, à son tour, cette vidéo a été accusée d’avoir été générée par IA. Le logiciel détecteur d’IA Hive est d’ailleurs venu appuyer cette version en assurant que la vidéo était fausse, avec une certitude de près de 97%. Une nouvelle démonstration que ces logiciels ne peuvent pas être utilisés comme des preuves absolues du vrai ou du faux.

Partager :