Les Deepfakes : Dangers Cachés et Arnaques Imminentes
2025-01-22
Auteur: Emma
Quel est le point commun entre la journaliste Anne-Claire Coudray, le youtubeur Tibo InShape, l'ancien président américain Barack Obama et l'acteur Alain Delon ? Leur visage a été détourné et utilisé dans des "deepfake", ces vidéos hyperréalistes qui font dire n'importe quoi à des célébrités, mais aussi à des proches.
Les "deepfake" sont des créations numériques de plus en plus sophistiquées qui peuvent être utilisées pour arnaquer, désinformer ou même attaquer la réputation de personnes en diffusant de faux contenus, y compris pornographiques. Ces fausses vidéos s'avèrent extrêmement préoccupantes, en particulier à l'approche d'élections.
Qu'est-ce que les Deepfakes ?
Un "deepfake" est un contenu généré ou modifié par intelligence artificielle (IA) qui recrée le visage ou la voix d'une personne. Le tout premier exemple de deepfake remonte à 2018, lorsque une vidéo de Barack Obama a circulé, le montrant en train d'insulter son successeur Donald Trump, alors qu'il n'a jamais prononcé ces mots.
En France, des figures politiques comme Marine Le Pen ont été ciblées par ces vidéos trompeuses. Par exemple, des influenceuses ont utilisé son visage dans des vidéos TikTok pour créer des contenus mensongers qui ont circulé durant la campagne électorale. Emmanuel Macron a aussi fait l’objet de deepfakes qui ont déformé ses propos.
Les Deepfakes au Service des Escroqueries
Ces contenus peuvent également servir à des arnaques. Récemment, une vidéo impliquant Tibo InShape et Anne-Claire Coudray a été publiée, prétendant que ces célébrités avaient découvert une méthode pour gagner de l'argent facilement, incitant les gens à investir dans une application douteuse. Tibo InShape a alerté ses abonnés pour les mettre en garde contre cette arnaque.
Alain Delon, décédé en août 2024, a également été victime d'un deepfake prétendant qu'il voulait léguer son héritage aux citoyens français, une vidéo qui a été visionnée plus de deux millions de fois. De même, Florent Pagny a dénoncé une escroquerie utilisant sa voix pour faire passer de fausses déclarations.
Des publicités mensongères promettant de guérir des maladies comme le diabète sans médicaments sophistiqués circulent également sur les réseaux sociaux, utilisant les visages de médecins respectés. Ces contenus exploitent la crédulité des gens, notamment ceux d'un âge avancé.
De Faux Appels Basés sur l’IA
Plus alarmant, des escrocs commencent à utiliser les voix de nos proches. Un homme d'Angoulême a reçu un appel où il entendait la voix de sa mère lui demandant de l'aide après avoir prétendument perdu son sac et son téléphone. Bien que méfiant, il a failli se laisser berner.
Les arnaqueurs peuvent aisément reproduire une voix en utilisant des extraits préalablement acquis sur les réseaux sociaux, ce qui représente un vrai danger pour la sécurité personnelle. Jérôme Notin, expert en cybercriminalité, conseille de toujours vérifier l'identité de la personne par d'autres moyens avant de révéler des informations personnelles.
La Lutte Contre les Deepfakes
Avec l'évolution rapide de la technologie, les deepfakes deviennent de plus en plus difficiles à détecter. Frédéric Jurie, chercheur en informatique, souligne que les technologies d'IA génératives permettent de créer des contenus qui semblent très réels. Les experts s'inquiètent de leur impact potentiel, notamment en période électorale et en temps de crise.
Dans cette lutte contre la désinformation, il est crucial de parfois faire preuve de scepticisme. Avant de croire à une vidéo ou à un témoignage, il convient de croiser les informations, vérifier la source et rester vigilant face à des contenus trop alléchants. En cas de doute, raccrochez et essayez de recontacter la personne via un autre moyen.
Les deepfakes ne sont pas seulement une distraction ; ils représentent une menace qui nécessite une attention sérieuse et une éducation public sur les risques associés à cette technologie moderne.