
Onlinesicherheit
Wenn KI das Internet für uns durchsucht
Agentische Browser erledigen viele Aufgaben eigenständig – was nicht ohne Risiken ist.
Navigation

Onlinesicherheit
Videos, Bilder und Audioaufnahmen sind immer öfter fake. Dahinter steckt künstliche Intelligenz. Expertin Andrea Hauser erklärt, wie KI erkennbar ist und wann sie gefährlich wird.
Deepfakes sind durch künstliche Intelligenz (KI) erzeugte, täuschend echt wirkende Videos, Bilder oder Audioaufnahmen. Ein aktuelles Beispiel für Deepfakes sind die sexualisierten Bilder von echten Personen – auch Kindern –, die User mit dem KI-Chatbot Grok auf der Plattform X, ehemals Twitter, erstellt haben. Die EU hat inzwischen ein Verfahren gegen den US-Konzern von Elon Musk eingeleitet.
Anfang des Jahres sorgte hierzulande zudem eine Anzeige mit künstlich erzeugten Bildern von Mona Vetsch für Aufsehen. Darin machte die gefakte SRF-Moderatorin Werbung für ein Anlagetool.
Das ist inzwischen nicht mehr so einfach. Denn die Technik entwickelt sich so schnell, dass Deepfakes immer besser werden und kaum noch zu erkennen sind. Darauf kann man laut Andrea Hauser, IT-Sicherheitsexpertin beim Zürcher Informationssicherheitsunternehmen scip AG, achten:
Manchmal wirken KI-Bilder und -Videos zu perfekt und glatt.
Auch unnatürliche Gesichter mit einer seltsamen Mimik sowie unscharfe Übergänge, beispielsweise zwischen Gesicht und Haaren, können ein Hinweis auf gefälschte Bilder und Videos sein.
Bisweilen stimmt in KI-Videos physikalisch etwas nicht – wie die Flugbahn eines Balls.
Videos lassen sich laut Hauser zudem durch kleine Details im Hintergrund, die sich plötzlich verändern, entlarven.
KI-Videos sind meistens sehr kurz: Ist ein Video also nur zehn Sekunden lang, spricht das für KI.
Am wichtigsten ist meist der gesamte Kontext: «Man sollte sich immer fragen: Sind die Videos oder Bilder realistisch?», sagt Hauser.

Betrüger nutzen KI immer öfter für Fake-Anrufe. Dabei werden echte Stimmen kopiert, um Geld zu verlangen. Meist ruft eine bekannt wirkende Person wie die eigene Tochter an und sagt, sie sei in einen schlimmen Unfall verwickelt und brauche sofort Geld.
«Die Angreifer versuchen, einen Stress- und Schockmoment zu erzeugen, damit ihre Opfer unüberlegt handeln», erklärt Hauser. In diesem Moment sei es wichtig, kurz durchzuatmen und nicht sofort zu handeln. Auch die Rufnummer könnte gefälscht sein. Darum das Telefonat beenden und die bekannte Person unter der echten, abgespeicherten Nummer anrufen – dann stellt sich sofort heraus, dass der Anruf fake war.
«Ich empfehle Familien und guten Freunden, ein Geheimwort für den Ernstfall zu vereinbaren», sagt Hauser. Die echten Stimmen holen sich Betrüger übrigens auf den sozialen Medien, darum sollten sich Nutzerinnen und Nutzer stets fragen, was für Inhalte sie dort hochladen wollen.
Das kommt auf den Inhalt an. Verstossen Deepfakes gegen Strafrecht, Persönlichkeitsrechte oder Datenschutzgesetze, dürfen sie nicht verbreitet werden. Ansonsten ist es legal, Deepfakes weiterzuleiten.
Es sei bei den meisten Inhalten eher eine moralische Frage, sagt Hauser: «Oftmals wollen Deepfakes Wut oder Angst auslösen, hier sollte man sich fragen, ob man das unterstützen möchte.»
Entdecke spannende Geschichten rund um die Migros, unser Engagement und die Menschen dahinter. Weiter stehen wir dir mit praktischen Tipps und Tricks für den Alltag zur Seite.