Des médias ukrainiens ont été piraté mercredi 16 mars, diffusant une vidéo de Volodymyr Zelensky annonçant la capitulation de l’armée ukrainienne. Cette vidéo de piètre qualité est un “deepfake”, une vidéo fabriquée en animant les visages et en modifiant les voix pour prêter des propos qui n’ont pas été prononcés. En réponse, d’autres hackers ont rediffusé une vidéo similaire avec Vladimir Poutine annonçant avoir conclu la paix.
Diffusée via plusieurs canaux, dont Facebook, Twitter et Telegram, la vidéo de Volodymyr Zelensky le montre, attristé, expliquant face caméra, en ukrainien :
Chers défenseurs [de l’Ukraine]. Être président s’est avéré ne pas être si facile. Je dois prendre des décisions difficiles. J’ai d’abord décidé de restituer le Donbass [à la Russie]. Il est temps de faire face à la vérité : ça n’a pas marché. […] Et maintenant je prends une autre décision difficile : vous dire au revoir. Et je vous conseille de déposer les armes et de retourner dans vos familles. Vous ne devriez pas mourir dans cette guerre. Je vous conseille de vivre. Et je vais faire pareil.
A deepfake of Ukrainian President Volodymyr Zelensky calling on his soldiers to lay down their weapons was reportedly uploaded to a hacked Ukrainian news website today, per @Shayan86 pic.twitter.com/tXLrYECGY4
— Mikael Thalen (@MikaelThalen) March 16, 2022
Cette vidéo a été diffusée sur les réseaux sociaux de Segodnya, un tabloïd ukrainien en langue russe, ainsi que sur le site Ukraine 24, comme le montrent des captures d’écran. Les deux médias ont rapidement réagi en affirmant avoir été piratés, et ont nié l’authenticité de la déclaration.
Le président ukrainien lui-même a également publié une vidéo dans l’après-midi, mercredi, pour se moquer d’une vidéo qu’il a jugée “puérile”. Il explique face caméra : “la seule chose que je peux proposer, c’est que les militaires russes rangent leurs armes et rentrent chez eux !”
La viralité de la vidéo est difficile à analyser, car celle-ci a rapidement été supprimée des principales plateformes comme Twitter ou Facebook.
Néanmoins, la publication majeure sur Twitter avait atteint les 80 000 vues et un peu plus de 400 retweets mercredi en fin de journée. Ce compte pro-ukrainien se moquait de la piètre qualité du deepfake, affirmant “contre qui nous battons-nous ? Ces handicapés ne savent même pas faire un deepfake correct.”
Selon le site Atlantic Council, la vidéo aurait d’abord été partagée dans un groupe Telegram pro-russe, “Operational”, se félicitant qu’elle ait été reprise dans des médias ukrainiens et partageant le fichier de la vidéo.
Les métadonnées indiquaient que la vidéo avait été créée le 16 mars et partagée deux heures après dans le canal, et que sa viralité avait principalement été amplifiée via VK, le réseau social principal en Russie.
Un deepfake de Vladimir Poutine en réponse
Quelques heures après ce deepfake du président ukrainien, une autre vidéo faisait surface, cette fois avec un Vladimir Poutine tenant un discours pacifiste, loin de ses dernières prises de parole. On l’entend ainsi dire en russe :
“Des négociations viennent à l’instant de se tenir avec l’Ukraine, et se sont terminées avec un succès certain pour la Russie. Je vous informe rapidement : nous avons obtenu la paix avec l’Ukraine. Avec l’Ukraine dans ses frontières reconnues à l’international, avec les régions de Donetsk et Louhansk. Nous nous sommes accordés sur la création d’un fonds commun avec l’UE et les USA pour la reconstruction des infrastructures dans ces régions ukrainiennes. Nous avons aussi signé une feuille de route sur cinq ans pour la réhabilitation de l’indépendance de la Crimée comme une république au sein de l’Ukraine.[…] Il n’y aura pas de répression [en Ukraine]. Tout comme il n’y aura pas de répression de la population russe. Tout cela est inscrit dans les accords de paix. La vie et la paix continuent.”
A deepfake of Russian President Vladimir Putin claiming that Russia has won the war is circulating online today as well.
The deepfake Putin even says that Ukraine has recognized Crimea as Russian territory.
But the video is not new and was first seen online late last month. pic.twitter.com/mEZIQOu5wj
— Mikael Thalen (@MikaelThalen) March 16, 2022
Cette vidéo avait déjà circulé il y a quelques jours selon un journaliste du média américain DailyDot. Là encore, la vidéo dont l’origine est difficile à retrouver, n’a pas été fortement partagée : elle atteignait simplement les 70 000 visionnages et est encore visible sur Twitter relayée par des comptes pro-ukrainiens.
Des alertes sur la diffusion de deepfakes moins de deux semaines auparavant
Le 2 mars, le centre pour les communications stratégiques et la sécurité de l’information ukrainien avait alerté ses abonnés par une publication sur Facebook en expliquant : “Imaginez que vous voyez à la télévision Volodymyr Zelensky faisant une déclaration sur la capitulation du pays. Vous le voyez, vous l’entendez. Mais ce n’est pas la vérité. C’est un deepfake créée par des algorithmes d’apprentissage automatique”.
Un tel contenu peut-il vraiment tromper ? Selon Gérald Holubowicz, journaliste chef de produit pour différents médias, spécialiste des deepfakes joint par la rédaction des Observateurs de France 24, il faut rester prudent.
Si on regarde la crédibilité du contenu, il y a d’abord un problème de qualité : on voit que la taille de la tête [de Volodymir Zelinski, NDLR] est disproportionnée par rapport au cou, et que le canal de diffusion est resté relativement peu efficace. Mais aussi et surtout un problème de contexte : le président Zelensky a une forte crédibilité auprès des Ukrainiens et dispose de canaux de communication directs, donc le fake a été immédiatement contesté.
Or, les accusations de deepfake politique concernent en général des personnages controversés qui étaient fortement chahutés, comme ce fut le cas au Gabon notamment [des opposants avaient accusé le pouvoir d’avoir diffusé un deepfake d’un discours du président Ali Bongo après son AVC, le pensant incapable de gouverner, NDLR]. L’idée c’est de créer la confusion entre ce qui est vrai et ce qui est faux, et cela devient difficile pour un politicien de prouver qu’une vidéo est vraie ou fausse.
“Face à une population peu préparée, ce type de contenu peut être très dangereux”
Pour autant, Gérald Holubowicz estime que le conflit en Ukraine est le premier où on voit se multiplier des deepfakes, notamment de Vladimir Poutine visant à tromper l’opinion publique. Il poursuit :
On voit que le média synthétique commence à prendre une part importante dans cette bataille de la mésinformation. Et il y a un problème de connaissance de ce sujet, et face à une population peu préparée, ce type de contenu peut être très dangereux. Pour un oeil habitué, la manipulation est évidente. Mais les situations auxquelles font face les Ukrainiens les placent dans l’incertitude, et une telle vidéo diffusée massivement sur Telegram ou WhatsApp peut clairement semer la panique pour quelqu’un qui n’a pas l’habitude.
On peut aussi craindre que ce soit des phases de test ou d’apprentissage de la part des hackers : ils publient des vidéos pour voir à quel point cela peut tromper, et étudier quelles erreurs ils ont pu faire pour ensuite produire un autre fake plus convainquant. Et en parallèle, avec les vidéos de Zelensky qui s’accumulent, cela crée aussi des vidéos sur lesquelles ils peuvent travailler et s’améliorer.
Si le conflit s’éternise, je crains qu’on puisse s’attendre à des deepfake de plus en plus convaincants, et c’est pour cela qu’il est important de sensibiliser les populations à ces problématiques, et notamment que les plateformes open-source qui permettent de créer de tels contenus soient plus transparentes sur l’origine de ces vidéos.
Détecter un deepfake
Les vidéos de type deepfake ayant vocation à tromper à grande échelle sont relativement rares, bien qu’il existe quelques cas récents comme au Cameroun ou plus récemment encore au Mali.
Généralement de mauvaise qualité, car impliquant des investissements importants pour être bien réalisées, elles restent souvent faciles à détecter. Voici quelques conseils recensés dans un épisode d’Info ou Intox.