Navigation

Auf einem Bildschirm wird ein Bild mittels KI bearbeitet.

Onlinesicherheit

So erkennst du KI-Bilder und -Videos

Videos, Bilder und Audioaufnahmen sind immer öfter fake. Dahinter steckt künstliche Intelligenz. Expertin Andrea Hauser erklärt, wie KI erkennbar ist und wann sie gefährlich wird.

Text
Barbara Scherer
Bild
Getty Images
Datum
Format
Story

Was ist ein Deepfake?

Deepfakes sind durch künstliche Intelligenz (KI) erzeugte, täuschend echt wirkende Videos, Bilder oder Audioaufnahmen. Ein aktuelles Beispiel für Deepfakes sind die sexualisierten Bilder von echten Personen – auch Kindern –, die User mit dem KI-Chatbot Grok auf der Plattform X, ehemals Twitter, erstellt haben. Die EU hat inzwischen ein Verfahren gegen den US-Konzern von Elon Musk eingeleitet.

Anfang des Jahres sorgte hierzulande zudem eine Anzeige mit künstlich erzeugten Bildern von Mona Vetsch für Aufsehen. Darin machte die gefakte SRF-Moderatorin Werbung für ein Anlagetool.


Wie erkenne ich KI-generierte Bilder und Videos?

Das ist inzwischen nicht mehr so einfach. Denn die Technik entwickelt sich so schnell, dass Deepfakes immer besser werden und kaum noch zu erkennen sind. Darauf kann man laut Andrea Hauser, IT-Sicherheitsexpertin beim Zürcher Informationssicherheitsunternehmen scip AG, achten:

  • Manchmal wirken KI-Bilder und -Videos zu perfekt und glatt.

  • Auch unnatürliche Gesichter mit einer seltsamen Mimik sowie unscharfe Übergänge, beispielsweise zwischen Gesicht und Haaren, können ein Hinweis auf gefälschte Bilder und Videos sein.

  • Bisweilen stimmt in KI-Videos physikalisch etwas nicht – wie die Flugbahn eines Balls.

  • Videos lassen sich laut Hauser zudem durch kleine Details im Hintergrund, die sich plötzlich verändern, entlarven.

  • KI-Videos sind meistens sehr kurz: Ist ein Video also nur zehn Sekunden lang, spricht das für KI.

  • Am wichtigsten ist meist der gesamte Kontext: «Man sollte sich immer fragen: Sind die Videos oder Bilder realistisch?», sagt Hauser.

KI-generiertes Bild einer Frau vor einem Fenster mit Blick auf Berge
Dieses Bild ist KI generiert. Hinweis darauf geben die makellose Haut, die zu kleine Hand und der komisch geformte Fenstergriff. Auch stimmt der doppelte Pulloversaum nicht. Im Hintergrund ist die Waldsilhouette beim Fensterrahmen versetzt und der Verlauf des Fenstersims selbst stimmt nicht. Während die Tannen unscharf sind ist das Gebäude auf der gleichen Ebene aber scharf.

Wann sind KI-Inhalte gefährlich?

Betrüger nutzen KI immer öfter für Fake-Anrufe. Dabei werden echte Stimmen kopiert, um Geld zu verlangen. Meist ruft eine bekannt wirkende Person wie die eigene Tochter an und sagt, sie sei in einen schlimmen Unfall verwickelt und brauche sofort Geld.

«Die Angreifer versuchen, einen Stress- und Schockmoment zu erzeugen, damit ihre Opfer unüberlegt handeln», erklärt Hauser. In diesem Moment sei es wichtig, kurz durchzuatmen und nicht sofort zu handeln. Auch die Rufnummer könnte gefälscht sein. Darum das Telefonat beenden und die bekannte Person unter der echten, abgespeicherten Nummer anrufen – dann stellt sich sofort heraus, dass der Anruf fake war.

«Ich empfehle Familien und guten Freunden, ein Geheimwort für den Ernstfall zu vereinbaren», sagt Hauser. Die echten Stimmen holen sich Betrüger übrigens auf den sozialen Medien, darum sollten sich Nutzerinnen und Nutzer stets fragen, was für Inhalte sie dort hochladen wollen.

Darf ich Deepfakes teilen?

Das kommt auf den Inhalt an. Verstossen Deepfakes gegen Strafrecht, Persönlichkeitsrechte oder Datenschutzgesetze, dürfen sie nicht verbreitet werden. Ansonsten ist es legal, Deepfakes weiterzuleiten.

Es sei bei den meisten Inhalten eher eine moralische Frage, sagt Hauser: «Oftmals wollen Deepfakes Wut oder Angst auslösen, hier sollte man sich fragen, ob man das unterstützen möchte.»

Meh für d'Schwiiz

Entdecke spannende Geschichten rund um die Migros, unser Engagement und die Menschen dahinter. Weiter stehen wir dir mit praktischen Tipps und Tricks für den Alltag zur Seite.

Alle Stories