France World

Voix robotique et “deepfakes” : les vidéos de l’intox au Mali

Publié le : 10/01/2022 – 16:45Modifié le : 10/01/2022 – 16:46

Depuis plusieurs semaines, des vidéos au style spécifique circulent au Mali : on y entend une voix robotique automatisée lisant un texte, sur des sujets de politique intérieure malienne ou ciblant la présence française dans le pays. Si certaines de ces vidéos sont très artisanales, d’autres sont beaucoup plus sophistiquées et sont des exemples d’un nouveau style de désinformation. 

La rédaction des Observateurs de France 24 s’est concentrée dans cet épisode d’Info ou Intox (que vous pourrez retrouver dans la vidéo ci-dessus) sur des exemples venant de la page Facebook « Nabi Malien Den Halala », comptant 82 000 abonnés et se définissant comme une page relayant normalement des informations musicales ou en lien avec le rappeur TAL-B Halala. 

Néanmoins, cette page semble s’être spécialisée dans un type de désinformation utilisant une certaine méthode : des vidéos automatisées avec une voix robotique lisant un texte sur un sujet en général en rapport avec la présence française au Mali.   

Page Nabi Malien Den Halala à l’origine de ces fausses informations. © Facebook

La page avait notamment popularisé en décembre 2021 une vidéo présentant le philosophe français Bernard-Henri Lévy comme livrant des informations aux jihadistes maliens sur les positions de l’armée malienne… en utilisant une photo prise au Soudan en 2007. Cette vidéo a été vue plus de 900 000 fois sur Facebook et a aussi fortement circulé sur WhatsApp fin 2021. 

Ce type de vidéo n’est pourtant pas rare : comme expliqué par la RTBF, ces contenus pullulent sur les réseaux sociaux maliens depuis quelques mois, et notamment sur le compte YouTube d’Africa24.info, une plateforme se présentant comme un média mais adepte de la désinformation, notamment en tenant des propos prorusses au Mali.

Africa24.info avait notamment été épinglé par les Observateurs de France 24 comme appartenant à un réseau de désinformation structuré beaucoup plus vaste en Afrique de l’Ouest et centrale.

Une vidéo “deepfake” faite pour tromper 

Pour convaincre leur lecteur du bien-fondé des informations qu’elle relaie, la page Facebook Nabi Malien Den Halala n’a pas hésité à aller un cran plus loin dans la mise en forme de son contenu.  

Le 27 décembre, elle a partagé une vidéo mettant en scène un présentateur face caméra devant un décor de journal télévisé. Ce présentateur affirme que la France a versé de l’argent à des partis politiques pour qu’ils ne participent pas aux Assises nationales du Mali, organisées par la junte au pouvoir depuis le coup d’État du 24 mai 2021. 

Cette allégation est basée sur une fausse lettre grossièrement éditée qui a circulé courant septembre au Mali. On y retrouve notamment l’entête du préfet de l’Oise, une mention du ministère de la Défense, et aucune signature sous le nom « président Emmanuel Macron ». 

Fausse lettre à l’origine de la fausse information attribuant à Emmanuel Macron le versement de 23 millions d’euros à des partis politiques maliens. © Facebook

Non seulement l’information est fausse, mais en plus, le présentateur n’est pas réel : il a été fabriqué avec le site internet Synthesia, qui permet de mettre en scène des avatars lisant un texte de son choix. La société Synthesia a participé à la création de nombreux « deepfakes », vidéos automatisées ultraréalistes, comme celui de David Beckham parlant neuf langues différentes pour combattre la malaria. 

Contacté par notre rédaction, le PDG de Synthesia, Victor Riparbelli, a précisé que l’auteur de la vidéo a été banni de son site après que les équipes de modération ont identifié le caractère politique de la vidéo, contrevenant aux règles d’utilisation de la plateforme. 

Si les cas de désinformation par des « deepfakes » automatisés sont plutôt rares, ou de très mauvaise qualité, les technologies sont de plus en plus accessibles en ligne, parfois gratuitement. Il est donc nécessaire de rester vigilant et d’apprendre à détecter les caractéristiques d’un « deepfake », comme nous l’expliquions dans cet épisode.

Source

L’article Voix robotique et “deepfakes” : les vidéos de l’intox au Mali est apparu en premier sur zimo news.