Visiblement convaincus de ce qu’il est décédé à la suite de l’accident vasculaire cérébrale (AVC) survenu à Riyad, le 24 octobre, certains Gabonais considèrent la vidéo de présentation des vœux du Nouvel An du président de la République comme un «deepfake», un détournement de son visage et de sa voix.

La vidéo d’Ali Bongo diffusée, le 31 décembre 2018, serait un «deep fake» pour certains. © Capture d’écran/Gabonreview

 

La présentation de vœux d’Ali Bongo, diffusée par les télévisions nationales et sur les réseaux sociaux n’a pas convaincu ceux qui, depuis son AVC, soutiennent qu’il n’y a pas survécu. Pour eux, la vidéo montrant le président de la République s’adressant aux Gabonais depuis Rabat au Maroc est loin d’être authentique. Il s’agit d’un «deep fake», assurent ceux qui veulent bien le croire.

Sur les réseaux sociaux, cette théorie pour le moins farfelue ne fait pas moins des adeptes. Qu’est-ce donc que cette nouvelle trouvaille en passe de détrôner ou de renforcer les «fake news», ces fausses informations dont se servent ces deux dernières années certaines personnalités véreuses contre leurs adversaires. Aux Etats-Unis, la présidentielle de 2016 en a fortement été impactée.

Une vidéo «deep fake» reproduisant le visage de Barack Obama. Capture d’écran YouTube

Le «deep fake», de l’intelligence artificielle

Comme pour les «fake news», c’est toujours aux Etats-Unis que le phénomène du «deep fake» est apparu sur les réseaux sociaux vers janvier 2018, avec la diffusion d’une vidéo porno mettant en scène Gal Gadot. Bien évidemment, il ne s’agissait pas de l’actrice israélienne.

Comme d’autres, Gal Gadot a simplement été victime de l’usage malveillant d’une «technologie assistée par une intelligence artificielle [permettant] de plaquer, en temps réel, le visage d’une personne sur celui d’une autre déjà présente dans une vidéo», explique le site d’actualité français 20minutes.fr.

Quatre ans plus tôt, pour achever le 7e épisode de la saga Fast & Furious, le visage de Paul Walker a été incrusté sur le visage de ses frères cascadeurs après le décès par accident, en 2013, de l’acteur qui incarnait Brian O’Conner. A l’époque, cette technologie n’était pas accessible au grand public, et avait coûté plus de 50 millions de dollars au producteur.

Bien plus abouti – mais également plus néfaste – qu’un photomontage plus ou moins bien fait, le «deep fake» est désormais expérimenté dans tous les pays du monde, et plusieurs personnalités politiques et d’influence, de Barack Obama à Emmanuel Macron, en passant par Donald Trump, Angela Merkel et même le Pape François Ier, en ont été victimes. Certaines vidéos sont plutôt bien réussies et parviennent à convaincre plusieurs incrédules.

Une tentative de «deep fake» d’Ali Bongo. © Capture d’écran/Gabonreview

Bientôt une nouvelle mode au Gabon ?

Au Gabon où plusieurs internautes, particulièrement ceux issus de l’opposition, soutiennent que la vidéo de présentation des vœux de Nouvel An d’Ali Bongo est un «deep fake», le phénomène pourrait bientôt prendre de l’ampleur. Certains n’ont d’ailleurs pas manqué de s’essayer dès le 31 décembre. La qualité n’est pas forcément garantie. D’autres ont fait étalage de leur savoir-faire en la matière, en diffusant des tutoriels censés permettre au public d’y parvenir. Des internautes soupçonnent Omar Defunzu d’avoir prêté sa voix pour la réalisation de la vidéo d’Ali Bongo. Des jours avant la diffusion des vœux à la nation, l’humoriste a vivement démenti. Il n’empêche, beaucoup refusent de se laisser convaincre du contraire.