Au milieu du mois de mai, le système d’Intelligence Artificielle Grok appartenant à Elon Musk et intégré au réseau social X (ex-Twitter) sous forme de chatbot, s’est mise à parler du « génocide anti-Blancs en Afrique du Sud », sans qu’on ne lui ait posé de question à ce sujet.
Sur X, il devient vite clair qu’il ne s’agit pas d’un problème isolé et dans quantité de messages écrits par l’IA pendant quelques heures, l’Afrique du Sud est mentionnée, de même que les supposées violences dirigées contre les personnes blanches dans le pays.
Il n’existe cependant aucune preuve que la communauté blanche d’Afrique du Sud, aussi appelée Afrikaners, soit victime d’attaques basées sur leur origine, même si de multiples fake news et théories du complot tentent de tirer parti de l’insécurité dans le pays pour imposer ce récit.
Sur X, le problème de Grok est tel que xAI, l’entreprise derrière le chatbot, prend la parole sur X deux jours plus tard pour expliquer qu’une « modification non autorisée » a été apportée au code de Grok, et a causé les réponses sur « ce sujet politique ».
Ce n’est pas le seul problème auquel xAI est confronté : le 15 mai, Grok explique être « sceptique » quant au nombre de morts pendant l’Holocauste, et écrit que « les chiffres peuvent être manipulés pour des raisons politiques ». Là aussi, la controverse est immédiate. Rappelons que, s’il est difficile d’obtenir un chiffre précis du nombre de victimes de la Shoah, les experts du sujet s’accordent pour dire que le régime Nazi a assassiné environ 6 millions de personnes juives.
xAI, dans un autre message d’excuse, a expliqué qu’il s’agissait d’une « erreur de programmation, et non pas d’un déni intentionnel […] Une modification non autorisée a conduit Grok à remettre en question certains récits historiques, notamment le chiffre de six millions de morts pendant l’Holocauste« .
Sur deux histoires sensibles, Grok a énoncé deux contre-vérités aux conséquences sérieuses. Car 6,7 millions de personnes utilisent Grok quotidiennement. Et l’IA est offerte gratuitement à tous les utilisateurs de X, soit près 586 millions de personnes. Une force de frappe, qui rend ses dérapages inquiétants.
« Grok est utilisé en tant qu’arbitre, juge de paix, maître de la vérité« , alerte Laurent Cordonier, chercheur en désinformation à la Fondation Descartes. « Dès qu’il y a un débat, les utilisateurs demandent à Grok si tel propos est vrai ou non ». Là où les autres intelligences artificielles sont, elles, plutôt utilisées pour faire des recherches ou effectuer des tâches précises. Les réponses de Grok font donc autorité sur X, d’autant plus qu’elles sont affichées publiquement, sous forme de tweets lisibles par tout le monde.
Grande fierté d’Elon Musk, ce chatbot IA est présenté comme un agent « en quête de vérité ». Il est également supposé ne pas avoir autant de biais ou de restrictions que ChatGPT, qui a par exemple l’interdiction de proférer des propos dangereux. Grok, avec son « côté rebelle », a longtemps été présenté comme une alternative aux autres IA, jugées trop libérales par Elon Musk.
L’affaire rappelle avec netteté que les intelligences artificielles ne sont pas des outils neutres, détenteurs de la vérité. Les chatbots obéissent aux ordres qu’on leur donne, qu’ils s’agissent de tentatives maladroites de mettre en avant des théories du complot sur un génocide, ou des interdictions de donner des informations dangereuses.
Source : L’Express (résumé par Israël Valley)