Navigation

Une image est en cours d'édition sur un écran à l'aide de l'IA.

Sécurité en ligne

Voici comment reconnaître les images et les vidéos générées par l’IA

De plus en plus de vidéos, photos et enregistrements audio sont fabriqués à l’aide d’une intelligence artificielle. Comment les reconnaître et quand cela devient-il dangereux? Parole à une experte.

Texte
Barbara Scherer
Image
Getty Images
Date
Format
Story

Qu’est-ce qu’un deepfake?

Il s’agit de vidéos, d’images ou d’enregistrements audio créés par l’intelligence artificielle (IA) et donnant l’impression d’être vrais. Un exemple récent de deepfakes sont les images sexualisées de personnes réelles – y compris d’enfants – que des utilisateurs ont créées avec le chatbot d’IA Grok sur la plateforme X. Des cas de fausses vidéos de célébrités faisant l’éloge d’un produit ou d’un autre circulent également régulièrement sur les réseaux.


Comment reconnaître les images et les vidéos générées par l’IA?

Ce n’est pas facile. La technique évolue si rapidement que les deepfakes s’améliorent et deviennent presque indétectables. «Parfois, les images et les vidéos générées par l’IA semblent trop parfaites et trop lisses», explique l’experte en sécurité informatique Andrea Hauser. Des visages peu naturels avec des mimiques étranges ainsi que des transitions floues, par exemple entre le visage et les cheveux, peuvent indiquer des images et des vidéos falsifiées. Il arrive aussi que les vidéos générées ne soient physiquement pas correctes, par exemple une trajectoire étrange d’un ballon.

Selon Andrea Hauser, les vidéos peuvent également être démasquées grâce à de petits détails en ­arrière-plan qui changent soudainement. Par ailleurs, les vidéos générées par IA sont généralement très courtes. Ainsi, si une vidéo ne dure que dix secondes, c’est un signe potentiel d’utilisation de l’intelligence artificielle. Le plus important est généralement le contexte global. «Il faut toujours se demander si les vidéos ou les photos sont crédibles», poursuit Andrea Hauser.

Image générée par IA d'une femme devant une fenêtre avec vue sur les montagnes
Cette image est générée par l’IA.La peau immaculée, la main trop petite et l’étrange poignée de fenêtre sont des indices. Le double ourlet du pull n’est pas non plus correct. En arrière-plan, la silhouette de la forêt est décalée par rapport au cadre de la fenêtre et le contour du rebord de la fenêtre lui-même n’est pas correct. Les sapins sont flous tandis que le bâtiment sur le même plan est net.

Quels types de contenus sont dangereux?

Les escrocs utilisent de plus en plus l’IA pour passer de faux appels. Ils copient des voix réelles pour demander de l’argent. La plupart du temps, c’est une personne connue, comme sa propre fille, qui appelle pour dire qu’elle est impliquée dans un terrible accident et qu’elle a besoin d’une aide financière immédiate. «Les arnaqueurs essaient de créer un moment de stress et de choc pour que leurs victimes agissent sans réfléchir», indique Andrea Hauser.

Il est donc important de respirer un bon coup et de ne pas agir immédiatement. Un numéro de téléphone peut également être falsifié. C’est pourquoi il faut mettre fin à la conversation téléphonique et appeler la personne connue au vrai numéro mémorisé. C’est le moyen le plus sûr pour savoir s’il s’agit d’une arnaque ou non. «Je conseille aux ­familles et aux bons amis de convenir d’un mot secret en cas d’urgence», ajoute Andrea Hauser. Les vraies voix sont récupérées par les escrocs sur les réseaux sociaux. Les utilisateurs devraient donc toujours se demander quels types de contenu ils mettent en ligne.

Plus pour la Suisse

Voici des informations et des histoires concernant Migros, notre engagement et les personnes qui travaillent en coulisses. Nous sommes également à vos côtés avec des conseils pratiques pour la vie quotidienne.

Toutes les stories