RADIO J. « Deepfakes. Comment distinguer le vrai de l’IA ? » Demain matin, ce lundi à 7H05, notre chronique HighTech.
Durant la guerre Israël-Hamas le nombre de deepfakes progresse de manière spectaculaire. Après les fausses informations diffusées sur les réseaux sociaux, ce sont maintenant des contenus, images et vidéos intégralement créés par intelligence artificielle générative qui font chuter les marchés boursiers, influencent les élections et ruinent des réputations.
Pour limiter les dégâts, des chercheurs israéliens se sont lancés dans une course au développement d’outils capables de les détecter.
Les militaires israéliens sont mobilisés sur le champ de bataille numérique. En effet, les technologies deepfake sont utilisées pour diffuser de manière massive de fausses informations contre Israël
L’utilisation de l’intelligence artificielle, de l’apprentissage automatique et des technologies deepfake pour diffuser des informations trompeuses et créer du contenu manipulateur est devenue trop courante.
StartUp Israël. Cyabra. « Notre technologie expose les acteurs malveillants, la désinformation, les réseaux de robots ainsi que les textes et images GenAI. Nous analysons les milliards de conversations qui ont lieu en ligne et sur les réseaux sociaux, comprenons les récits et détectons les campagnes de désinformation ».
Cyabra a découvert récemment un réseau de robots de plus de 40 000 faux profils qui diffusent activement de la propagande pro-Hamas et de fausses nouvelles. Cyabra a détecté que 25 % des profils participant aux conversations sur la guerre Hamas-Israël au cours des deux premiers jours de la guerre étaient faux.
Cyabra révolutionne l’analyse du web et des réseaux sociaux. Cyabra est spécialisée dans la conception d’outils d’aide à la décision qui mesurent entre autres l’authenticité et l’impact des conversations en ligne et détecte et analyse les fausses informations et leurs auteurs.
En trois ans, Cyabra a levé plus de $10,4 millions et compte parmi ses clients de nombreuses organisations publiques et privées aux quatre coins du globe. Cyabra a levé des millions de $ auprès la branche d’investissement de l’Université de Tel Aviv, TAU Ventures.
Cyabra est une société de veille sur les menaces provenant des réseaux sociaux qui constituent un nouveau terrain d’attaque et l’espace qui connait une forte progression en matière d’activités criminelles. Cyabra identifie les menaces, fournit des informations exploitables, des alertes en temps réel et protège les entreprises, les produits et les personnes. Cette technologie met en évidence la désinformation et neutralise les acteurs malveillants et les réseaux de machines nuisibles.
L’éditeur analyse les milliards de conversations en ligne et sur les réseaux sociaux, appréhende les diverses communications et identifie des campagnes de désinformation.
LE PLUS. Israël dénombre plus de 6 000 startups, au moins 70 sociétés de capital-risque (dont Jerusalem Venture Partners, Pitango, Greenfield Cities Holdings, Pontifax Funds, Fortissimo Capital, Magma, Vertex, iAngels…), près de 80 accélérateurs, 55 espaces de coworking et une centaine de centres de R&D.
SELON COURRIER INTERNATIONAL. « En juin dernier, dans le cadre des joutes politiques en amont des primaires de la présidentielle américaine de 2024, plusieurs images ont été diffusées montrant Donald Trump embrassant l’un de ses anciens conseillers à la santé, Anthony Fauci. Sur certains clichés, on voit Trump bécoter gauchement le visage de Fauci, le “monsieur santé” vilipendé par certains conservateurs américains pour avoir défendu le port du masque et les vaccins pendant la pandémie de Covid-19.
“Ça sautait aux yeux” qu’ils étaient faux, se souvient Hany Farid, informaticien à l’université de Californie à Berkeley et l’un des nombreux spécialistes à avoir examiné ces clichés. En scrutant trois des photos, on s’aperçoit que les cheveux de Trump sont flous, curieusement, que les inscriptions n’ont aucun sens à l’arrière-plan, que les bras et les mains ont des positions peu naturelles et que l’oreille visible de Trump défie les lois de l’anatomie. Autant d’éléments qui trahissent – pour l’heure – l’utilisation d’une intelligence artificielle générative (IAG).
Les images et vidéos de ce type, appelées deepfakes, produites par des générateurs text-to-image [qui créent des images à partir d’une indication textuelle] en faisant appel au deep learning [“apprentissage profond”], sont désormais monnaie courante. Si les tricheurs recourent depuis belle lurette à la tromperie pour extorquer de l’argent, influencer l’opinion, voire déclencher des guerres, la vitesse et la facilité avec lesquelles des volumes considérables de contenus fallacieux (mais extrêmement convaincants) peuvent être dorénavant produits et diffusés – associées à un manque de sensibilisation du grand public – constituent une menace grandissante.
Une technologie “fulgurante”.
“Les gens connaissent encore mal la technologie générative. Ce n’est pas comme si elle était apparue progressivement. Ç’a été fulgurant : tout à coup, elle était là, ce qui nous empêche d’avoir le recul nécessaire”, observe Cynthia Rudin, informaticienne spécialiste de l’IA à l’université Duke de Durham, en Caroline du Nord.
Des dizaines d’outils sont désormais disponibles, permettant à l’internaute lambda de générer artificiellement n’importe quel contenu ou presque, à n’importe quelle fin, qu’il s’agisse de créer une fausse vidéo de Tom Cruise sur TikTok pour s’amuser, de faire revivre une victime d’une fusillade dans une école dans une vidéo réclamant un durcissement de la réglementation sur les armes à feu ou de simuler un appel à l’aide d’un proche pour délester une victime de quelques dizaines de milliers de dollars.
Les deepfakes vidéo peuvent même être générés en temps réel, au cours d’une visioconférence, par exemple. Au début de l’année, Jerome Powell, le patron de la Réserve fédérale américaine, a ainsi discuté en visio avec quelqu’un qu’il pensait être le président ukrainien, Volodymyr Zelensky… sauf que ce n’était pas lui.
La quantité de contenus générés par IA est inconnue, mais elle serait en train d’exploser. Les universitaires citent souvent une estimation selon laquelle 90 % des contenus d’Internet pourraient être créés artificiellement d’ici quelques années. “Tout le reste serait alors noyé dans le bruit ambiant”, prévient Cynthia Rudin, ce qui compliquerait la tâche de celles et ceux qui sont à la recherche de contenus utiles ou authentiques. Les moteurs de recherche et les réseaux sociaux ne feront qu’amplifier la désinformation, ajoute-t-elle.
Si les contenus de synthèse ont souvent pour but premier de divertir et d’amuser, comme l’image devenue virale du pape François portant une doudoune de créateur, certains obéissent à une stratégie partisane et parfois malveillante – par exemple via la diffusion tous azimuts de contenus pornographiques dans lesquels le visage d’une personne est associé au corps d’une autre sans son consentement.
Un problème pour la démocratie.
Même un seul contenu de synthèse peut être lourd de conséquences : une image générée par l’IA d’une explosion au Pentagone s’est ainsi propagée comme une traînée de poudre en mai dernier, créant un trou d’air sur le marché boursier. L’existence de ces contenus de synthèse permet également à des individus de rejeter les preuves bien réelles d’un délit en les qualifiant de “fausses”.
“Les gens savent de moins en moins à quel saint se vouer. Et c’est un vrai problème pour la démocratie, analyse Sophie Nightingale, psychologue à l’université de Lancaster (Royaume-Uni), qui étudie les effets de l’IA générative. C’est un point sur lequel il faut réagir, et vite. La menace est d’ores et déjà considérable.” Elle précise que la question va se poser avec acuité dans les deux ans à venir, avec les élections majeures qui vont se tenir aux États-Unis, en Russie et au Royaume-Uni.
Les faux créés par IA pourraient également avoir de lourdes répercussions sur le monde de la science, mettent en garde certains experts, qui craignent que le développement rapide de l’IAG ne permette à des chercheurs peu scrupuleux de publier plus facilement des données et des images frauduleuses.
Pour l’instant, certains contenus de synthèse contiennent encore des indices révélateurs, tels que des mains à six doigts sur les photos. Mais l’IAG s’améliore de jour en jour. “C’est l’affaire de quelques mois” avant que les gens ne soient plus capables de faire la différence, estime Wael Abd-Almageed, informaticien et ingénieur informatique à l’université de Californie du Sud, à Los Angeles.
Dans ce contexte, les chercheurs mettent les bouchées doubles pour tenter de tirer le meilleur parti des deepfakes tout en concevant des garde-fous contre les abus. Il existe à ce jour deux parades technologiques : le marquage des contenus authentiques ou de synthèse au moment de leur création et l’utilisation de détecteurs d’IA pour repérer les faux après publication ».