Mit einer aktuellen Deepfake-Betrugskampagne wollen Betrüger Internetnutzer um ihr Geld bringen. Deutsche gehören dabei zu den Hauptzielen, aber auch in anderen Staaten, darunter Kanada, Japan, Südafrika und den Niederlanden, sind ähnliche Videos in Umlauf.
Laut Eset, das jetzt vor der Kampagne gewarnt hat, sitzen die Hintermänner vermutlich in Russland oder der Ukraine. Sie verbreiten seit Mai 2024 verstärkt Online-Werbung, die mit Hilfe von Deepfakes von bekannten Persönlichkeiten zu Investments auffordert.
In den Videos scheinen etwa der CDU-Vorsitzende Friedrich Merz, SAP-Mitbegründer Dietmar Hopp oder Experten der ARD "revolutionäre" Investment-Produkte mit sagenhaften Gewinnmöglichkeiten zu bewerben. Sie versprechen dabei hohe Gewinne bei minimalem Einsatz. Alleine das sollte schon aufhorchen lassen.
Um glaubhafter zu wirken, erwecken die Fake-Videos teilweise den Eindruck, Bestandteil von seriösen Nachrichtensendungen wie der Tagesschau zu sein. Dazu wurde unter anderem ein Beitrag über eine Gewinnverdopplung bei der Lufthansa verwendet.
Echte Nachrichtenbeiträge als KI-Trainingsmaterial
"Politiker und andere Personen des öffentlichen Lebens sind eine wahre Goldgrube für KI-Betrüger", sagt Eset-Forscher Ondrej Novotny, der an der Entdeckung der Kampagne beteiligt war. "Von ihnen existiert eine Fülle an Bildern, Videos und Audioaufnahmen, mit denen sie ihre KI-Werkzeuge füttern können. Das Ergebnis: Eine bekannte Persönlichkeit gibt eine scheinbar seriöse Empfehlung, wie man sein Geld am besten anlegt."
Als Grundlage für die Fake-Videos nutzten die Kriminellen tatsächlich gesendete Nachrichtenbeiträge. Mit diesen Daten trainierten sie die KI-Software, um einen neuen Beitrag zu erstellen. In den gefälschten Videos bewerben die Sprecher dann die dubiose Investment-Plattform "Immediate Matrix". Dort könnten selbst Nutzer ohne Vorkenntnisse Gewinne in Höhe von mehreren tausend Euro erzielen.
Dazu müssten sie nur wenige hundert Euro investieren. Fallen Nutzer darauf herein und investieren, ist das Geld weg. In anderen Ländern drängten Anrufer die Betrogenen zudem zusätzlich noch zu höheren "Investitionen".
"Die Deepfakes in dieser Kampagne sind oft von schlechter Qualität und weisen keine korrekte Lippensynchronisation auf" erklärt Novotny. "Dies schreckt Betrüger aber nicht vom Einsatz ab, weil sie nur einen winzigen Bruchteil der Empfänger benötigen, die auf die Masche hereinfallen und die geforderte Summe überweisen. Das ist leicht verdientes Geld und erfordert nur geringe Investitionen auf Seiten der Kriminellen."
Wie man Deepfake-Videos erkennen kann
Bei Videos im Internet rät Eset, auf folgende Aspekte zu achten:
Sprecher in Deepfake-Videos klingen oft monoton. Echte Menschen betonen bestimmte Worte in Sätzen, wohingegen ihre gefakten Imitate oft die gleiche Stimmlage und Betonung nutzen. Zudem sprechen sie manche Worte falsch aus, insbesondere bei Fremdwörtern und englischen Begriffen machen KI-Werkzeuge noch Fehler. Auch bei der persönlichen Anrede ("Du" oder "Sie") kommen KI-Lösungen oft durcheinander.
Menschen unterlegen das Gesprochene mit einer passen Mimik und Gestik. Wird eine neue Aussage über ein bestehendes Video gelegt, passt diese nicht mehr zu den Bewegungen des Sprechers. Die Aufnahme wirkt dann unnatürlich.
Fehlerhafte Schattenwürfe im Gesicht oder andere Bildfehler sind ein guter Hinweis, dass es sich um einen Fake handelt.
Weitere Empfehlungen woran sich Deepfakes erkennen lassen, geben im Detail das Bundesamt für Sicherheit in der Informationstechnik (BSI) und auf einem leicht verständlichen Niveau die Polizei-Beratung.