Deepfake
Le deepfake [ËdiËpfeÉȘk][1], ou hypertrucage[2] - [3], est une technique de synthĂšse multimĂ©dia reposant sur l'intelligence artificielle. Elle peut servir Ă superposer des fichiers vidĂ©o ou audio existants sur d'autres fichiers vidĂ©o (par exemple changer le visage d'une personne sur une vidĂ©o) ou audio (par exemple reproduire la voix d'une personne pour lui faire dire des choses inventĂ©es). Cette technique peut ĂȘtre utilisĂ©e pour crĂ©er des infox et des canulars malveillants[4] - [5]. Le terme deepfake est un mot-valise formĂ© Ă partir de deep learning (« apprentissage profond ») et de fake (« faux », « contrefait »)[6].
Il est possible de créer des hypertrucages en utilisant l'application FakeApp[7], qui utilise TensorFlow, un outil open source développé par Google[8].
Les hypertrucages vidéos sont aussi appelés infox vidéo[9] ou vidéotox[9].
Histoire
Les techniques pour simuler des mouvements faciaux et les transposer sur une personne-cible ont été présentées en 2016. Elles permettaient de contrefaire, en temps quasi réel, des expressions faciales dans des vidéos en 2D[10].
L'hypertrucage audio est apparu en novembre 2016, avec la présentation du programme, Adobe Voco, premier programme d'hypertrucage audio capable de reproduire la voix humaine[11].
En juillet 2017, la BBC diffuse un discours prononcé par une intelligence artificielle reproduisant Obama, discours essentiellement indiscernable de la réalité[12].
La pornographie hypertruquée est apparue sur Internet en 2017, notamment sur Reddit[13], et a depuis été interdite par Reddit, Twitter, Pornhub et d'autres[14] - [15] - [16].
En , a Ă©tĂ© mise en ligne une application appelĂ©e FakeApp qui permet de crĂ©er facilement des vidĂ©os oĂč les visages ont Ă©tĂ© permutĂ©s et de les partager. Les cĂ©lĂ©britĂ©s sont les principales cibles de ces fausses vidĂ©os sexuelles, mais certaines autres personnes sont aussi touchĂ©es[17] - [18] - [19].
En aoĂ»t 2018, des chercheurs de l'universitĂ© de Californie Ă Berkeley ont publiĂ© une Ă©tude sur la crĂ©ation de fausses vidĂ©os de danseurs. Un individu peut ĂȘtre collĂ© sur les mouvements d'un danseur professionnel[20] - [21].
Domaines d'application
Pornographie
Les hypertrucages sont surtout connus pour avoir été utilisés afin de créer de fausses vidéos érotiques (sextapes), mettant en scÚne des célébrités, et de la pornodivulgation (revenge porn)[22].
Au cours de l'automne 2017, un utilisateur anonyme du site Reddit publie, sous le pseudonyme « Deepfakes », plusieurs vidĂ©os pornographiques. La premiĂšre a attirĂ© l'attention et l'une de celles ayant suscitĂ© le plus de rĂ©actions, met en scĂšne l'actrice Daisy Ridley. Une autre montre l'actrice Gal Gadot (vedette du fim Wonder Woman) en train d'avoir des rapports sexuels avec son beau-frĂšre. D'autres cĂ©lĂ©britĂ©s â Emma Watson, Katy Perry, Taylor Swift ou Scarlett Johansson â ont Ă©galement Ă©tĂ© la cible de vidĂ©os crĂ©Ă©es par lâutilisateur « Deepfakes ».
Avec le temps, le faussaire a corrigé les défauts des vidéos, les rendant de plus en plus réalistes. Le phénomÚne des hypertrucages a d'abord été dénoncé en dans la section technique et scientifique du magazine Vice, ce qui a entraßné l'apparition de nombreux reportages dans d'autres médias[23].
Au Royaume-Uni, les producteurs d'hypertrucages peuvent ĂȘtre poursuivis pour harcĂšlement, mais il y a des appels Ă faire de l'hypertrucage un dĂ©lit Ă part entiĂšre[24].
Politique
La permutation de visages a été utilisée pour donner une image fausse de politiciens connus sur des portails vidéos, des plateformes de streaming et de discussion en ligne. Par exemple, le visage du président argentin Mauricio Macri a été remplacé par celui d'Adolf Hitler, et le visage d'Angela Merkel par celui de Donald Trump[25] - [26]. En , Jordan Peele et Jonah Peretti ont montré les dangers de l'hypertrucages en créant une fausse vidéo de Barack Obama faisant une annonce publique[27].
Le deepfake peut parfois servir un but d'influence et de modification du comportement de la population, ou servir Ă discrĂ©diter une personnalitĂ©. En 2022, en pleine invasion russe de l'Ukraine, la chaĂźne d'information Ukraine 24 diffuse sur son site Internet une vidĂ©o prĂ©tendument tournĂ©e par le prĂ©sident ukrainien Volodymyr Zelensky, dans laquelle il exhorte la population Ă rendre les armes. La vidĂ©o Ă©tait en rĂ©alitĂ© un deepfake, partagĂ© au mĂȘme moment sur les rĂ©seaux sociaux Facebook et Telegram, probablement Ă l'initiative de la Russie ou d'un compte pro-russe, et avait pour but de semer le trouble sur les intentions rĂ©elles du chef d'Ătat[28].
Art
En , l'artiste Joseph Ayerle publie la vidĂ©o dâart intitulĂ©e Un'emozione per sempre 2.0, dans laquelle il met en scĂšne une Ornella Muti virtuelle, recrĂ©Ă©e par intelligence artificielle. Le logiciel Ă©tait capable dâanimer le visage de lâactrice italienne pour rĂ©aliser des scĂšnes qu'elle n'a jamais jouĂ©es[29] - [30].
Ce procĂ©dĂ© pourra Ă©galement ĂȘtre utilisĂ© au cinĂ©ma afin de modifier le mouvement des lĂšvres des acteurs afin de correspondre au doublage dans une autre langue[31].
Télévision
L'émission de télévision française à caractÚre humoristique et satirique C Canteloup sur TF1 utilise cette technologie à partir du 18 novembre 2019, à l'occasion d'un numéro spécial intitulé C'est Canteloup, La grande Métamorphose.
Le feuilleton tĂ©lĂ©visĂ© français Plus belle la vie a pu poursuivre le tournage de son intrigue malgrĂ© lâabsence d'une comĂ©dienne, Malika Alaoui, Ă lâisolement car cas contact au Covid-19, en greffant son visage sur celui d'une autre actrice[32].
"Deep Fake Neighbour Wars", littéralement "La guerre des voisins façon deepfake" est une comédie en six épisodes de 30 minutes utilisant le deep fake, mise en ligne le sur ITV, la télévision privée du Royaume-Uni[33].
Cinéma
Sorti en 2022, Fairytale, réalisé par le cinéaste russe Alexandre Sokourov, utilise une technologie de deep fake pour rassembler Staline, Hitler, Churchill et Mussolini au Purgatoire.
Programmes de trucage
FakeApp utilise des rĂ©seaux de neurones artificiels. Elle utilise la puissance de la carte graphique plus 3 ou 4 Go de stockage pour gĂ©nĂ©rer le rendu final. Pour un bon rendu, le programme a besoin de beaucoup de photos de la personne, en effet, le programme doit apprendre quels aspects de la vidĂ©o cible doivent ĂȘtre modifiĂ©s et pour ce faire, il utilise des algorithmes d'apprentissage profond. Le logiciel utilise TensorFlow, un outil dĂ©veloppĂ© par Google, qui, entre autres, a Ă©tĂ© dĂ©jĂ utilisĂ© pour crĂ©er DeepDream.
Programmes d'hypertrucage audio
- Adobe Voco est un logiciel prototype dâĂ©dition et de production d'hypertrucage audio conçu par Adobe qui permet la crĂ©ation et la modification audio novatrices. SurnommĂ© « Photoshop-for-Voice », il a Ă©tĂ© prĂ©sentĂ© pour la premiĂšre fois lors de l'Ă©vĂ©nement Adobe MAX en novembre 2016.
La technologie prĂ©sentĂ©e dans Adobe MAX Ă©tait un aperçu pouvant potentiellement ĂȘtre intĂ©grĂ© Ă Adobe Creative Cloud. Ă compter de juillet 2019, Adobe n'a pas encore publiĂ© d'informations supplĂ©mentaires sur une date de sortie potentielle[11].
- LyreBird
- WaveNet est un réseau de neurones profond permettant de générer du son brut. Il a été créé par des chercheurs de la société d'intelligence artificielle basée à Londres.
La technique, dĂ©crite dans un document de septembre 2016, est capable de gĂ©nĂ©rer des voix de type humaine Ă la voix relativement rĂ©aliste en modĂ©lisant directement des formes d'onde Ă l'aide d'une mĂ©thode de rĂ©seau neuronal entraĂźnĂ©e avec des enregistrements de parole rĂ©elle. Des tests avec l'anglais amĂ©ricain et le mandarin auraient montrĂ© que le systĂšme surpasse les meilleurs systĂšmes de synthĂšse vocale existants de Google, mĂȘme si, en 2016, sa synthĂšse textuelle Ă©tait encore moins convaincante que le discours humain rĂ©el.
La capacitĂ© de WaveNet Ă gĂ©nĂ©rer des formes dâondes brutes lui permet de modĂ©liser tout type dâaudio, y compris la musique[34].
Critiques
Abus
Le quotidien suisse germanophone Aargauer Zeitung affirme que la retouche d'images et de vidéos à l'aide de l'intelligence artificielle pourrait devenir un phénomÚne de masse dangereux. Cependant, la falsification d'images et de vidéos est antérieure à l'avÚnement des logiciels de montage vidéo et des programmes de retouche d'images ; dans ce cas, c'est le réalisme qui devient un nouveau problÚme.
Il est également possible d'utiliser l'hypertrucage pour des canulars ciblés et de la pornodivulgation à des fins idéologiques ou de cyberharcÚlement[35] - [36].
Effets sur la crédibilité et l'authenticité
Un autre effet de l'hypertrucage est qu'on ne peut plus distinguer si le contenu est satirique ou authentique. Interrogé en 2018 par le site américain The Verge (qui traite de l'actualité technologique, de l'information et des médias), le chercheur en intelligence artificielle américain Alex Champandard (programmeur et cofondateur de la startup Creative) estime que
« tout le monde devrait ĂȘtre conscient de la rapiditĂ© Ă laquelle les choses peuvent ĂȘtre altĂ©rĂ©es aujourd'hui Ă l'aide de cette technique et que le problĂšme ne doit pas venir de la technique mais plutĂŽt ĂȘtre rĂ©solu par la confiance des personnes dans l'information et le journalisme. Le principal danger est de voir arriver le moment oĂč les humains ne pourront plus dĂ©terminer si ce qui se trouve sur une vidĂ©o correspond Ă la vĂ©ritĂ© ou non[37]. »
Informations immatĂ©rielles et non-palpables, les infox vidĂ©os brisent la confiance du fait quâelles trompent les individus[38].
RĂ©actions sur Internet
Les sites Twitter et Gfycat (en) ont annoncĂ© qu'ils allaient supprimer les hypertrucages et bloquer leurs auteurs. Auparavant, la plate-forme Discord avait bloquĂ© un canal de discussion comportant des hypertrucages. Le site pornographique Pornhub prĂ©voyait, lui aussi, de bloquer ces contenus, mais cette interdiction n'est toujours pas entrĂ©e en vigueur depuis 2017[39] - [40]. Chez Reddit, la situation Ă©tait restĂ©e incertaine jusqu'Ă ce que le subreddit, â la sous-partie thĂ©matique en question â, soit suspendu le , en raison de la violation de la politique de « pornographie involontaire »[41] - [42] - [43] - [44].
Protection
Ă terme, selon Solange Ghernaouti, spĂ©cialiste en cybersĂ©curitĂ© et cyberdĂ©fense, l'idĂ©al serait que les images et vidĂ©os numĂ©riques soient dotĂ©es de tatouages numĂ©riques dans le but de lever le voile sur lâorigine du contenu. Des logiciels, tels qu'InVid et Amnesty Youtube Dataviewer, un outil proposĂ©, depuis 2014, par l'organisation non gouvernementale internationale Amnesty International, permettent aux journalistes de dĂ©terminer si une vidĂ©o est truquĂ©e ou manipulĂ©e[38] - [45].
DĂ©veloppement de moyens de lutte
La Chine souhaite mettre en place une loi bannissant les contenus qui ne mentionnent pas lâutilisation de superpositions de vidĂ©os et dâaudios. Ă partir du , les infox vidĂ©os qui ne sont pas mentionnĂ©s comme tels seront considĂ©rĂ©s illĂ©gaux[46] - [47].
Facebook lance un concours « Deepfake Detection Challenge » (DDC), afin de créer des technologies et logiciels capables de déceler des vidéos utilisant la technique d'infox vidéo[48].
Voir aussi
Articles connexes
Liens externes
- Le "deep fake" : vers la fin de la vĂ©ritĂ© dans lâimage numĂ©rique ?, Xavier de La Porte, France Inter, 21 mai 2019
- Le CongrÚs américain veut combattre les hypertrucages, Radio-Canada, 13 juin 2019
- Deepfake : faut-il le voir pour le croire ?, La MĂ©thode scientifique, France Culture, 26 juin 2019
- Internet : les deepfakes, comment ça marche ? France info, 12 septembre 2019
- Fabien Soyez, Au-delà du politique et du porno, le deepfake changera aussi le cinéma, Cnet, 11 octobre 2019
- Morgane Tual, Deepfakes : faut-il avoir peur de ces vidéos trafiquées ?, Le Monde, 24 novembre 2019
- Jennifer Mertens, Le deepfake audio, la nouvelle arnaque tendance développée par les hackers, BibliothÚque du Parlement, 2020, 20 Minutes, [lire en ligne].
- Benoit Marini, Deepfakes : Quand lâIntelligence Artificielle transforme nos rĂ©alitĂ©s ?, TedX Bordeaux, 3 novembre 2018
Références
- Prononciation en anglais retranscrite selon la norme API.
- « hypertrucage », Grand Dictionnaire terminologique, Office québécois de la langue française (consulté le ).
- Billy Joe Siekierski, Hypertrucage : que peut-on faire à propos du contenu audio et vidéo de synthÚse, BibliothÚque du Parlement, 2019, 8 pages [lire en ligne].
- (en) « Experts fear face swapping tech could start an international showdown », sur The Outline (consulté le ).
- (en-US) Kevin Roose, « Here Come the Fake Videos, Too », The New York Times,â (ISSN 0362-4331, lire en ligne, consultĂ© le ).
- (en) John Brandon, « Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise », sur foxnews.com, .
- (en) « FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn! », Reason.com,â (lire en ligne, consultĂ© le ).
- « Iâm using AI to face-swap Elon Musk and Jeff Bezos, and Iâm really bad at it », The Verge,â (lire en ligne, consultĂ© le ).
- Commission dâenrichissement de la langue française, « infox vidĂ©o », sur FranceTerme, ministĂšre de la Culture (consultĂ© le ).
- Justus Thies, « Face2Face: Real-time Face Capture and Reenactment of RGB Videos », Proc. Computer Vision and Pattern Recognition (CVPR), IEEE, (consulté le ).
- (en) « Adobe Voco 'Photoshop-for-voice' causes concern », sur BBC, . .
- (en) « Fake Obama created using AI tool to make phoney speeches », sur BBC. .
- (en-US) Janko Roettgers, « Porn Producers Offer to Help Hollywood Take Down deepfake Videos », Variety,â (lire en ligne, consultĂ© le ).
- (en) « It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet », The Register,â (lire en ligne, consultĂ© le ).
- Arjun Kharpal, « Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor », CNBC,â (lire en ligne, consultĂ© le ).
- (en) « PornHub, Twitter Ban 'deepfake' AI-Modified Porn », PCMAG,â (lire en ligne, consultĂ© le ).
- Britta BauchmĂŒller, « "Fake-App": Mit diesem Programm kann jeder im Porno landen â ob er will oder nicht! », Berliner-Kurier.de,â (lire en ligne).
- Eike KĂŒhl, « KĂŒnstliche Intelligenz: Auf Fake News folgt Fake Porn », Die Zeit,â (ISSN 0044-2070, lire en ligne).
- heise online, « deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien », Heise Online,â (lire en ligne).
- (en) Peter Farquhar, « An AI program will soon be here to help your deepfake dancing - just don't call it deepfake », Business Insider Australia,â (lire en ligne, consultĂ© le ).
- « deepfakes for dancing: you can now use AI to fake those dance moves you always wanted », The Verge,â (lire en ligne, consultĂ© le ).
- (en-US) « What Are deepfakes & Why the Future of Porn is Terrifying », Highsnobiety,â (lire en ligne, consultĂ© le ).
- « AI-Assisted Fake Porn Is Here and Weâre All Fucked », Motherboard,â (lire en ligne).
- Call for upskirting bill to include 'deepfake' pornography ban The Guardian.
- « Wenn Merkel plötzlich Trumps Gesicht trÀgt: die gefÀhrliche Manipulation von Bildern und Videos », az Aargauer Zeitung, .
- Patrick Gensing, « deepfakes: Auf dem Weg in eine alternative RealitÀt? ».
- Aja Romano, « Jordan Peeleâs simulated Obama PSA is a double-edged warning against fake news », sur Vox, (consultĂ© le ).
- « Qu'est-ce que le deepfake de Zelensky laisse craindre pour la suite ? », sur www.20minutes.fr, (consulté le )
- (en) Katerina Cizek, William Uricchio et Sarah Wolozin, « Part 6: Media co-creation with non-human systems », dans Collective Wisdom, PubPub, (lire en ligne).
- (en) « Un'emozione per sempre 2.0 », sur Internet Movie Database, (consulté le ).
- 01net, « Les deepfakes pourraient se révéler utiles dans les doublages des films et des séries TV », sur 01net (consulté le )
- https://www.tf1info.fr/culture/coronavirus-covid-19-quand-plus-belle-la-vie-utilise-le-deep-fake-pour-remplacer-une-comedienne-2170330.html
- https://www.tf1info.fr/culture/deep-fake-neighbour-wars-la-serie-du-royaume-uni-au-faux-casting-incroyable-qui-intrigue-autant-qu-elle-inquiete-avec-kim-kardashian-rihanna-et-greta-thunberg-idriss-elba-2246744.html
- https://arxiv.org/pdf/1609.03499.pdf.
- « KĂŒnstliche Intelligenz: Selfies sind eine gute Quelle », Die Zeit,â (ISSN 0044-2070, lire en ligne).
- « âdeepfakeâ - FakeApp kann Personen in Pornos austauschen â Welche Rechte haben GeschĂ€digte? », Wilde Beuger Solmecke RechtsanwĂ€lte,â (lire en ligne).
- What an âinfiniteâ AI-generated podcast can tell us about the future of entertainment, The Verge, .
- Harold Grand, « AprÚs les fake news, la menace du «deep fake» prend de l'ampleur sur le web », Le Figaro, (consulté le ).
- (en-US) « Pornhub hasn't been actively enforcing its deepfake ban », Engadget,â (lire en ligne, consultĂ© le ).
- (en) « Pornhub Banned deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them », BuzzFeed,â (lire en ligne, consultĂ© le ).
- Markus Böhm, « "deepfakes": Firmen gehen gegen gefĂ€lschte Promi-Pornos vor », Spiegel Online,â (lire en ligne).
- barbara.wimmer, « deepfakes: Reddit löscht Forum fĂŒr kĂŒnstlich generierte Fake-Pornos », futurzone,â (lire en ligne).
- heise online, « deepfakes: Auch Reddit verbannt Fake-Porn ».
- « Reddit verbannt deepfake-Pornos ».
- « Comment vérifier une vidéo ? », sur Les Observateurs de France 24 (consulté le ).
- Corentin Bechade, « La Chine veut bannir les intox et les deepfakes », Les Numériques, (consulté le ).
- Léa Faure, « Le deepfake en Chine désormais considéré comme criminel si l'auteur ne signale pas la nature trompeuse du contenu », sur IT Social (consulté le ).
- Corentin Bechade, « Facebook et Microsoft partent à la chasse aux "deepfakes" », Les Numériques, (consulté le ).