Une étude de L’ADL met en lumière des biais antisémites dans les outils d’intelligence artificielle

Le modèle Llama de Meta a été identifié comme celui présentant les biais anti-juifs et anti-israéliens les plus marqués

i24NEWS
i24NEWS
The OpenAI logo is seen on a mobile phone in front of a computer screen which displays output from ChatGPT.

L’Anti-Defamation League (ADL) a dévoilé mardi un rapport exhaustif sur les préjugés anti-juifs et anti-israéliens présents dans les outils d’intelligence artificielle (IA) courants, tels que ChatGPT et Gemini. Cette évaluation, la plus détaillée à ce jour, met en lumière des dérives inquiétantes dans la manière dont ces technologies traitent les sujets relatifs au peuple juif, à Israël et aux stéréotypes antisémites.

Après avoir scruté les quatre principaux modèles d’IA, l’ADL a relevé des biais significatifs, de la désinformation, et une attention sélective sur des sujets sensibles. Parmi les exemples les plus frappants, le modèle Llama de Meta a été identifié comme celui présentant les biais anti-juifs et anti-israéliens les plus marqués. Il a fourni des réponses souvent erronées, voire totalement inexactes, concernant des questions liées à Israël et au peuple juif.

Les modèles GPT et Claude, eux, ont montré un biais anti-israélien notable, notamment dans le cadre de discussions sur la guerre entre Israël et le Hamas, où leurs réponses manquaient de cohérence et d’objectivité. En outre, ces outils ont fréquemment refusé de répondre aux questions portant sur Israël, ce qui soulève des interrogations sur leur gestion des problématiques politiques et historiques sensibles.

Le rapport souligne également que ces IA peinent à déconstruire les théories du complot et les stéréotypes antisémites, illustrant ainsi la difficulté à empêcher la propagation de la désinformation par l’intelligence artificielle. L’ADL alerte ainsi sur les risques associés à l’utilisation de ces technologies, appelant à une régulation renforcée pour contrer ces dérives.

Partager :