jeudi 12 décembre 2019

La menace des vidéos trafiquées. Deepfake.

Des logiciels gratuits permettent de remplacer un visage par un autre, faisant tenir à quelqu'un de faux propos... Intéressant le monde du spectacle, cette technologie ouvre aussi la voie à toutes les manipulations [1] et aux fausses informations.


« J'ai une grande nouvelle : aujourd'hui, nous avons éradiqué le sida. Dieu merci. Je m'en suis personnellement occupé » , assène Donald Trump lors d'un bref discours sur fond de drapeaux américains, diffusé cet automne 2019. Il aurait pu le dire... mais le locataire de la Maison Blanche n'a jamais prononcé ces mots. La vidéo est un fake (réalisé par Solidarité sida), et pas n'importe lequel :  un deepfake, c'est-à-dire un média (images et sons) généré ou modifié par un algorithme. En pratique, le deepfake consiste le plus souvent à transformer un visage en un autre... Et donc à faire dire ou faire faire n'importe quoi à n'importe qui. L'information est bien entendu trop belle pour être vraie. Et pour cause : cette vidéo est un faux, une opération de communication sur les réseaux sociaux lancée en octobre par l'ONG Solidarité Sida, qui affirme qu'elle pourrait devenir réalité si les chefs d'Etat le décidaient. [4]

Plus précisément, le deepfake, ou hypertrucage, est une technique de synthèse d'images basée sur l'intelligence artificielle. Le terme deepfake est un mot-valise formé à partir de deep learning (apprentissage profond) et de fake (faux). Cette technique peut être utilisée pour créer des infox (information et intoxication) et des canulars malveillants [2].
Dans le deepfake ci-dessus, les postures et le visage du président américain permettaient de deviner l'imposture. Mais pour combien de temps encore ? « Nous sommes déjà capables de générer des vidéos dont il est pratiquement impossible de savoir, à l'oeil nu, si le contenu est réel ou non », prévient Hao Li. 
Hao Li, chercheur allemand installé en Californie passe son temps en conférence, il a aussi monté sa start-up, Pinscreen, spécialisée dans la création sur ordinateur d'avatars photoréalistes. « Les deepfakes peuvent être utilisés pour répandre de fausses informations, et violer la vie privée des utilisateurs », s'inquiète le spécialiste, conscient des dérives possibles. 

En réalité, n'importe qui, aujourd'hui, avec du temps et quelques compétences informatiques, peut produire un deepfake de A à Z. « Il n'y a pas encore de logiciel tout-en-un qui s'installe sur Windows, mais on trouve facilement les codes en ligne, ainsi que des tutoriels », rappelle Sébastien Marcel, qui dirige une équipe de recherche sur la sécurité biométrique à l'IDIAP, un institut suisse indépendant [5]

Un autre échantillon spectaculaire, montrant l'incrustation de la voix et la bouche de Jordan Peele dans une vraie vidéo de Barack Obama. Cet exemple est un projet du cinéaste Jordan Peele et du PDG de BuzzFeed, Jonah Peretti  [3]

Le phénomène du deepfake a pris une très grande ampleur en quelques mois seulement depuis l’automne 2019, à tel point que certains Etats ont souhaité rapidement réguler l'utilisation de cette technologie.
Dès le 1er Janvier 2020, la Chine va interdire et poursuivre en justice les utilisateurs postant ce type de vidéos et les plateformes les hébergeant. La Californie a déjà adopté une législation similaire mais uniquement pour les publicités politiques. Les Etats-Unis souhaitent légiférer avant le début de la campagne présidentielle de 2020.
Facebook et Twitter sont aussi à pied d'œuvre pour développer des outils qui permettent de détecter automatiquement ce type de vidéos et d'images et à les retirer le plus rapidement de leurs plateformes. [6]

Toutefois, certains militants et chercheurs mettent en garde contre une interdiction pure et simple des hypertrucages. Ils craignent qu’une loi donnant à des représentants du gouvernement le pouvoir de décider ce qui est vrai ou faux, puisse être utilisée pour censurer des opinions impopulaires ou dissidentes.
Plus généralement, Sam Gregory  (Co-Chair Partnership on AI Expert Group on societal influence),  nous met en garde contre les risques mais nous conseille aussi de ne pas céder au battage médiatique. 
« Il est bon de ne pas envisager le pire, mais de profiter de ce moment pour avoir une discussion rationnelle. L’effet le plus néfaste de ces contenus tient au fait qu’ils poussent les gens à tout remettre en question. » [3]

Pour les auditeurs du Cnam ayant accès à Europresse :
[1] Tual, Morgane avec Untersinger,Martin. La menace des vidéos trafiquées. Le Monde, mardi 26 novembre 2019. [En ligne via Europresse] : [consulté le 4 décembre 2019] https://nouveau-europresse-com.proxybib-pp.cnam.fr/Link/CNAM/news%c2%b720191126%c2%b7LM%c2%b7767747

Une version courte de l’article en libre accès :
[1bis] Tual, Morgane avec Untersinger,Martin. La menace des vidéos trafiquées. Le Monde, mardi 26 novembre 2019. [En ligne] : [consulté le 4 décembre 2019]
 https://www.lemonde.fr/pixels/article/2019/11/24/deepfakes-faut-il-avoir-peur-de-ces-videos-trafiquees_6020333_4408996.html

[2] Wikipedia. Deepfake.  Ref n°4 :  « Experts fear face swapping tech could start an international showdown » Jon,Christian, sur The Outline , 28 février 2018. [En ligne] : [consulté le 4 décembre 2019]  https://fr.wikipedia.org/wiki/Deepfake

[3] Gregory, Sam. Comment réagir face aux deepfakes. Internet Health Report 2019, Avril 2019. [En ligne] : [consulté le 4 décembre] https://internethealthreport.org/2019/comment-reagir-face-aux-deepfakes/?lang=fr

Pour les auditeurs du Cnam ayant accès à Europresse :
[4] Granja, Christelle. New fake et vieilles ficelles.... Libération, no. 11960, Cahier spécial, lundi 18 novembre 2019 [En ligne via Europresse] : [consulté le 4 décembre 2019] https://nouveau-europresse-com.proxybib-pp.cnam.fr/Link/CNAM/news%c2%b720191118%c2%b7LI%c2%b799b0da1a1e9c53b91806797d2d50d43b

Une version courte de l’article en libre accès :
[4bis] Granja, Christelle. New fake et vieilles ficelles.... Libération, no. 11960, Cahier spécial, lundi 18 novembre 2019 [En ligne] : [consulté le 4 décembre 2019]
https://www.liberation.fr/futurs/2019/11/17/new-fake-et-vieilles-ficelles_1763934

[5] Benjamin, Jérôme. Images virtuelles, vidéos truquées... Peut-on encore croire ce que l'on voit. Aujourd'hui en France (site web) ,Essentiel matin, vendredi 25 octobre 2019 [En ligne via Europresse] : [consulté le 4 décembre 2019] https://nouveau-europresse-com.proxybib-pp.cnam.fr/Link/CNAM/news%c2%b720191025%c2%b7PJW%c2%b78180148

[6] Grumiaux, Mathieu. La Chine interdira les deepfakes non-signalés dès le 1er janvier 2020. Clubic, 03 décembre 2019 [En ligne] : [consulté le 4 décembre 2019] https://www.clubic.com/technologies-d-avenir/intelligence-artificielle/actualite-878345-chine-interdira-deepfakes-signales-1er-2020.html



Aucun commentaire: