Attention aux arnaques de faux reportages TV (deepfake) ! (vidéo)

Une vidéo montre Guillaume Canet vantant les mérites d'une application mobile permettant de gagner de l'argent lors d'un reportage sur TF1. Cette supercherie vous choque-t-elle ? C'est normal, car il s'agit simplement d'un deepfake, une vidéo totalement fausse créée à l'aide d'intelligence artificielle.
L'acteur lui-même a partagé cette mascarade sur Instagram avec pour commentaire : "Vous ne pouvez pas arrêter avec vos absurdités... Voici un exemple flagrant des dangers de l'intelligence artificielle présente sur les réseaux sociaux !" Ce phénomène des faux reportages affecte de nombreuses personnalités. Malheureusement, Canet n'est pas le premier à en être victime. Des célébrités telles que Kylian Mbappé, Élise Lucet ou encore Stromae ont été précédemment visées par ces faux reportages diffusés sous des apparences proches de chaînes de télévision comme BFMTV ou France 3. Mais que se cache-t-il réellement derrière ces vidéos trompeuses ? Pour mieux comprendre cette manipulation, nous avons consulté deux experts en intelligence artificielle.
Selon Victor Baissait, il est primordial de saisir que "la plupart de ces applications de jeu exigent un dépôt d'argent pour jouer. Le piège se referme lorsque les victimes déposent de l'argent mais ne peuvent jamais le retirer, même en cas de gains."
Ces arnaques, en augmentation depuis fin 2023, ciblent principalement quatre grands secteurs : les produits à prix réduits, les médicaments, la bourse et les jeux d'argent.
Pour sensibiliser et alerter sur ces pratiques frauduleuses, Victor Baissait répertorie ces vidéos sur son site internet. Il souligne : "Ces vidéos circulent largement sur les réseaux sociaux, en particulier sur la bibliothèque publicitaire de Meta." Au total, près de 400 vidéos ont été recensées. Comment détecter un deepfake ?
Mais comment se prémunir de ces pièges ? Clara Bismuth, auteure du livre "Médias Synthétiques - quand les deepfakes s'emparent de l'art", recommande : "Il est crucial d'exercer son discernement en analysant le contexte et la source de la vidéo, ainsi que sa qualité visuelle et sonore."
Effectivement, certains éléments visuels peuvent nous mettre la puce à l'oreille, comme dans la vidéo de Guillaume Canet : "Il faut être attentif aux mouvements des lèvres qui ne sont pas synchronisés correctement, aux zones floues. Il y a également la voix qui peut sembler robotique par moments, ou encore des gestes corporels peu naturels."
Cependant, pour Clara Bismuth, il est essentiel de reconnaître que le deepfake n'est pas intrinsèquement malveillant. Il offre des opportunités fascinantes, notamment dans le domaine de l'éducation et du divertissement. "Le dernier exemple que j'ai vu, c'est le dernier Indiana Jones, où il y a presque une demi-heure de film avec un jeune Indiana Jones, grâce à une technologie de deepfake appliquée sur le visage de l'acteur."

"L'équipe rédactionnelle de TV-Programme.com"