SPECIAL FAKE NEWS ET VIDEOS. L’intelligence artificielle peut être utilisée pour manipuler des images et du son afin de créer des vidéos totalement fausses (mais tout à fait plausibles). Malou Toft, Vice-présidente EMEA de Milestone Systems, en parle ci-dessous.

Un commentaire d’IsraelValley avant de présenter cet article. Israël qui a souffert lors du dernier conflit Hamas-Israël de « Deepfake vidéos » venant du Hamas.

Selon (1) : « Les vidéos Deepfake ressemblent à s’y méprendre aux vraies vidéos, mais elles sont tout sauf authentiques. Leurs créateurs utilisent l’IA et l’apprentissage automatique pour intégrer de manière transparente n’importe qui dans une scène.

 

Nombre de ces vidéos mettent en scène des personnes qui n’existent pas, car elles ont été créées de toutes pièces par l’IA. D’autres mettent en scène des personnes qui existent bel et bien, mais qui sont photographiées en train de dire des choses qu’elles n’ont jamais dites.

Leur accès est trop facile

La vitesse à laquelle cette technologie se développe est telle que les “deepfakes” convaincants sont désormais rapides et faciles à créer. Selon un rapport rendu par Ars Technica, il a fallu à peine 500 dollars et deux semaines pour créer un “deepfake” de Mark Zuckerberg. En effet, la facilité avec laquelle ils peuvent être créés explique pourquoi le nombre de vidéos deepfakes trouvées en ligne a doublé en l’espace d’un an.

En décembre dernier, un message de Noël alternatif utilisant la technologie deepfake montrait la reine Elizabeth II dansant autour de son bureau et a suscité 350 plaintes de téléspectateurs. Les producteurs de l’émission ont été francs quant à l’utilisation de l’IA pour créer les scènes et ont déclaré vouloir attirer l’attention sur la puissance de cette technologie. Si un monarque dansant ne passe pas le test de plausibilité le plus élémentaire, l’utilisation de plus en plus sophistiquée de la technologie deepfake pour mettre des mots dans la bouche des politiciens rend plus difficile pour les téléspectateurs de distinguer le vrai du faux. Un message deepfake du PDG d’une entreprise cotée en bourse annonçant des choses erronées aux investisseurs pourrait ruiner la réputation de l’entreprise et provoquer le chaos sur les marchés financiers.

Un outil criminel

Cette technologie constitue également un nouvel outil puissant pour les cybercriminels, et des cas de fraude financière impliquant des deepfake ont déjà été signalés. Le PDG d’une entreprise britannique a ainsi transféré 220 000 euros sur le compte bancaire d’un fournisseur, après en avoir reçu l’ordre de son (faux) patron. Selon le cabinet d’études Forrester, le coût des escroqueries par deepfake devrait prochainement dépasser 250 millions de dollars.

Rien de surprenant donc à ce que selon le Pew Research Center, 77% des américains adultes souhaitent que des mesures soient prises pour restreindre la publication de vidéos deepfake !

Protection de l’intégrité des vidéos

Mais compte tenu des préoccupations du public, des entreprises, des ONG et des gouvernements, que peut-on faire ? Des leçons peuvent être tirées d’autres utilisations de la vidéo, où l’intégrité des images est primordiale. Les forces de l’ordre et le pouvoir judiciaire s’appuient sur les images de vidéosurveillance pour enquêter et poursuivre les activités criminelles. Ce faisant, il ne peut y avoir aucun doute sur la véracité des images vidéo qui capturent un braquage de banque en cours, par exemple.

Le maintien de l’intégrité des images vidéo utilisées à des fins probatoires est assuré par une série de mesures de protection. L’accès physique au système de vidéosurveillance est limité pour empêcher tout accès non autorisé, de la caméra au fichier vidéo final. Les séquences vidéo sont sécurisées par le cryptage et le filigrane, tandis que l’ensemble du système est renforcé pour éviter les cyber-attaques. Les personnes qui installent, surveillent et utilisent ces systèmes vidéo sont formées pour en assurer la sécurité.

Des solutions technologiques aux menaces posées par les “deepfakes” émergent. Microsoft, Adobe et d’autres travaillent sur des systèmes de vérification qui donneront confiance à ceux qui regardent des vidéos en ligne. Ces systèmes permettraient aux entreprises de ne pas être dupées par les cybercriminels, mais ils n’empêcheraient pas les “deepfakes” d’être téléchargés sur les plateformes de médias sociaux !

Pour ce faire, il faudrait que les “Big Tech” contrôlent étroitement le contenu partagé sur ses plateformes en comparant la source d’une vidéo à un compte de média social et à la caméra de l’appareil qui y accède. Cela n’est ni facile ni infaillible.

Si la technologie ne peut actuellement fournir une solution miracle au problème des “deepfakes”, la réglementation pourrait-elle être la solution ?

Le projet de loi sur les services numériques de l’UE s’intéressera à la manière dont la technologie a exposé les utilisateurs “à un nouvel éventail de biens, d’activités ou de contenus illicites”. Et le président américain Biden a déjà indiqué qu’il révoquerait l’article 230 de la loi sur la décence des communications, qui protège les médias sociaux de la responsabilité du contenu qu’ils hébergent. Pourtant, une réglementation plus stricte soulève des préoccupations valables quant aux conséquences sur la liberté d’expression.

En dernière analyse, l’éducation constitue l’un des meilleurs outils de lutte contre la technologie deepfake. D’autre part, le développement d’une plus grande culture en ligne aide les internautes à mieux identifier les fausses informations visuelles et à mettre fin au partage des deepfake. La sensibilisation du public à la nature convaincante de nombreux deepfakes devrait être une priorité pour toutes les démocraties. Il serait judicieux de veiller à ce que les travailleurs suivent les bonnes procédures s’ils reçoivent un TikTok de leur PDG leur demandant de transférer de l’argent ! »

(1) www.alliancy.fr

Partager :