Vidéos truquées et voix clonées, les nouvelles arnaques de l'IA - Minizap Vallée de l'Arve
Multimédia

Vidéos truquées et voix clonées, les nouvelles arnaques de l'IA

Les « deepfakes », ces vidéos plus vraies que nature qui mettent faussement en scène des personnes reproduites par l'intelligence artificielle, ne sont plus réservés aux célébrités. Les derniers modèles permettent désormais aux escrocs de cibler n'importe qui, avec des conséquences parfois dramatiques.

En janvier 2024, un employé d'une multinationale de Hong Kong a transféré 25 millions de dollars après une visioconférence avec ce qu'il pensait être ses supérieurs. Tous étaient des « deepfakes », des imitations numériques générées par intelligence artificielle. Un an plus tard, la technologie s'est démocratisée au point qu'un faux vocal basique peut être produit pour quelques euros, ou même gratuitement avec un ordinateur puissant. Les particuliers sont désormais dans le viseur des escrocs, avec des arnaques de plus en plus sophistiquées qui exploitent la confiance envers ce qui est vu et entendu.

Les familles comme nouvelles cibles

L'arnaque émotionnelle ciblée représente l'une des utilisations les plus pernicieuses du deepfake. Le scénario est toujours le même : un parent reçoit un appel vidéo de son fils ou de sa petite-fille, visiblement en détresse. L'enfant explique avoir eu un accident, être retenu quelque part, et demande un virement urgent. La voix, le visage, les expressions sont parfaitement imités. La panique fait le reste. Ces attaques exploitent les progrès fulgurants des algorithmes de synthèse vocale : quelques secondes d'enregistrement suffisent désormais pour cloner une voix de manière convaincante.

Clonage en temps réel

La prochaine étape est déjà là : les deepfakes audio générés en temps réel pendant les appels téléphoniques. Cette évolution rend obsolète la vérification vocale traditionnelle. Un escroc peut désormais appeler en se faisant passer pour un conseiller bancaire, un proche ou un collègue, avec une voix parfaitement imitée qui répond aux questions en direct. Les outils grand public comme ElevenLabs ou Play.ht permettent de produire ces contrefaçons pour quelques euros.

Les ados en première ligne

Les jeunes sont particulièrement exposés. Ils partagent massivement leur visage, leur voix et leurs comportements sur TikTok, Instagram ou YouTube, fournissant involontairement un matériel idéal pour créer des deepfakes. Le phénomène prend une ampleur inquiétante dans les établissements, où des élèves se retrouvent victimes de montages humiliants impossibles à faire disparaître totalement d'Internet. La frontière entre le réel et le faux devient de plus en plus floue pour une génération habituée à consommer des contenus retouchés.

La méfiance, mère de sagesse

Certains indices permettent encore de détecter les contrefaçons : mouvements oculaires anormaux, clignements irréguliers, incohérences dans les expressions faciales, synchronisation labiale imparfaite ou problèmes d'éclairage. Mais ces signaux deviennent de plus en plus subtils à mesure que la technologie progresse. Pour le grand public, la meilleure défense reste le réflexe du doute : recouper le contexte, interroger l'intention derrière un message, s'accorder quelques secondes de réflexion avant de cliquer, payer ou partager. Un changement de paradigme doit s'imposer : toute vidéo est fausse avant que l'on se soit assuré qu'elle est vraie.

La course à la réglementation

L'Europe prépare sa riposte. Le règlement sur l'intelligence artificielle imposera dès août 2026 l'obligation d'identifier et d'étiqueter les contenus générés par IA. Les plateformes et les fournisseurs d'IA générative devront implémenter des outils pour limiter la production et la distribution de deepfakes, mais rien n'empêchera les escrocs de procéder artisanalement. En France, la création d'un contenu généré par IA représentant une personne sans son consentement est déjà punissable, sauf si le caractère parodique est immédiatement apparent. Mais la loi peine à suivre le rythme de l'innovation.

Photos liées à l'article
© CC0
Multimédia

Prince of Persia Remake, le retour du Prince après des années de silence

Annoncé en septembre 2020 pour une sortie initialement prévue en janvier 2021, le remake des Sables du Temps aura finalement mis plus de cinq ans à voir le jour. Le développement, d'abord confié à Ubisoft Pune et Mumbai, a été tra...
Lire la suite
Prince of Persia Remake, le retour du Prince après des années de silence
Multimédia

Xiaomi 17 Pro Max, le smartphone à deux écrans qui voit grand

Xiaomi fait montre d'un grand savoir-faire technologique avec son 17 Pro Max, un smartphone qui mise sur une batterie de 7 500 mAh et un écran secondaire au dos pour se démarquer de la concurrence.
Lire la suite
Xiaomi 17 Pro Max, le smartphone à deux écrans qui voit grand
Multimédia

Bandai Namco ressuscite Code Vein avec une suite ambitieuse et exigeante

Six ans après le premier opus, Bandai Namco relance sa licence avec Code Vein II, un action-RPG qui assume pleinement son inspiration souls-like tout en y ajoutant une mécanique originale de manipulation temporelle. Le joueur inca...
Lire la suite
Bandai Namco ressuscite Code Vein avec une suite ambitieuse et exigeante