Navigation

Un'immagine viene modificata su uno schermo utilizzando l'IA.

Sicurezza online

Come riconoscere le immagini e i video dell’IA

Video, immagini e registrazioni audio sono sempre più fake. Alla base di tutto questo c'è l’intelligenza artificiale. L’esperta Andrea Hauser spiega come si riconosce l’IA e quando diventa pericolosa.

Testo
Barbara Scherer
Immagine
Getty Images
Data
Formato
Story

Che cos’è un deepfake?

I deepfake sono video, immagini o registrazioni audio generati dall’intelligenza artificiale e talmente realistici da risultare ingannevoli. Un esempio attuale di deepfake sono le immagini sessualizzate di persone reali, anche minorenni, create dagli utenti con il chatbot di IA Grok sulla piattaforma X, ex Twitter. L’UE ha nel frattempo avviato una procedura contro il gruppo statunitense di Elon Musk.

In Svizzera, all’inizio dell’anno, ha creato scalpore un annuncio con immagini di Mona Vetsch generate artificialmente: la conduttrice SRF falsificata pubblicizzava uno strumento di investimento.


Come posso riconoscere immagini e video generati dall’IA?

Non è più così semplice. La tecnologia si sviluppa così rapidamente che i deepfake diventano sempre più realistici e difficili da riconoscere. Secondo Andrea Hauser, esperta di sicurezza informatica presso l’azienda zurighese di cybersecurity scip AG, è possibile prestare attenzione ai seguenti aspetti:

  • A volte le immagini o i video generati dall’IA appaiono troppo perfetti e levigati.

  • Anche volti innaturali, con espressioni strane o transizioni poco nitide — ad esempio tra viso e capelli — possono essere un indizio di contenuti falsificati.

  • Talvolta nei video generati dall’IA qualcosa non torna dal punto di vista fisico, come la traiettoria di una palla.

  • Secondo Hauser, anche piccoli dettagli sullo sfondo che cambiano improvvisamente possono smascherare un video.

  • I video creati dall’IA sono spesso molto brevi: se un video dura solo dieci secondi, è probabile che sia generato dall’IA.

  • Il contesto complessivo è di solito l’elemento più importante: “Bisogna sempre chiedersi se le immagini o i video siano realistici”, afferma Hauser.

Immagine generata dall’IA di una donna davanti a una finestra con vista sulle montagne
Questa immagine è generata dall’intelligenza artificiale. Indizi di falsificazione possono essere la pelle troppo perfetta, una mano troppo piccola o una forma insolita della maniglia della finestra. Anche l’orlo doppio del maglione non torna. Sullo sfondo, la silhouette del bosco non è allineata con il telaio della finestra e anche la prospettiva del davanzale è incoerente. Mentre gli abeti risultano sfocati, l’edificio sullo stesso piano è invece nitido.

Quando diventano pericolosi i contenuti generati dall’IA?

I truffatori utilizzano sempre più spesso l’IA per effettuare telefonate fasulle. In questi casi imitano voci reali per chiedere denaro. Di solito chi chiama si spacci­a per una persona familiare – ad esempio la propria figlia – e sostiene di essere coinvolta in un grave incidente e di aver bisogno immediato di denaro.

“Gli aggressori cercano di creare un momento di stress e shock affinché le vittime agiscano impulsivamente”, spiega Hauser. In quel momento è importante fare un respiro profondo e non reagire subito. Anche il numero visualizzato può essere falsificato. Per questo motivo è consigliabile terminare la chiamata e richiamare la persona conosciuta al numero reale salvato nei contatti: si scoprirà immediatamente che la chiamata era falsa.

“Consiglio alle famiglie e agli amici stretti di concordare una parola d’ordine per le emergenze”, aggiunge Hauser. Le voci autentiche vengono spesso recuperate dai truffatori sui social media; perciò gli utenti dovrebbero sempre chiedersi quali contenuti pubblicare.


Posso condividere i deepfake?

Dipende dal contenuto. Se i deepfake violano il diritto penale, i diritti della personalità o le leggi sulla protezione dei dati, non possono essere diffusi. Altrimenti, la loro condivisione è legale.

Nella maggior parte dei casi si tratta però di una questione morale, osserva Hauser: “Spesso i deepfake mirano a suscitare rabbia o paura; bisognerebbe chiedersi se si vuole davvero contribuire a ciò”.

Di più per la Svizzera

Scopri storie interessanti sulla Migros, il nostro impegno e le persone che vi stanno dietro. Ti forniamo anche consigli pratici e astuzie per la vita di tutti i giorni.

Tutte le storie