KI-Betrug ist in diesem Jahr um 145 Prozent gestiegen: So schützt ihr euch am besten

Betrüger nutzen KI, um eure Stimme zu klonen und euch als Familie oder Chef zu imitieren, doch es gibt wirksame Schutzmaßnahmen

Bevor ihr euren bekannten horrende Summen überweißt, prüft lieber, ob sie wirklich echt sind. (Bildquelle: Adobe Stock - Bevor ihr euren bekannten horrende Summen überweißt, prüft lieber, ob sie wirklich echt sind. (Bildquelle: Adobe Stock -

Stellt euch vor: Euer bester Freund ruft panisch an. Seine Stimme zittert, er erzählt von einem Unfall und braucht dringend Geld von euch. Ihr erkennt die Stimme sofort – schließlich kennt ihr euch seit Jahren.

Doch was, wenn diese Stimme gar nicht echt ist?

148 Prozent mehr KI-Betrug in 2025

Genau das passiert immer häufiger. Cyberkriminelle nutzen Künstliche Intelligenz, um Stimmen zu klonen, Gesichter zu imitieren und Menschen zu betrügen, denen ihr vertraut.

Die Zahlen sind erschreckend: Laut dem Sicherheitsunternehmen Moonlock sind KI-Betrugsfälle 2025 im Vergleich zum Vorjahr um 148 Prozent gestiegen.

Die Technologien dahinter sind erschreckend simpel geworden. Schon wenige Sekunden Audiomaterial reichen aus, um eine überzeugende Stimm-Kopie oder gar ganze Videos von der kopierten Person zu erstellen.

Voice Cloning & Deepfakes - diese Maschen solltet ihr kennen

Betrüger zeigen sich wie so häufig kreativ und haben verschiedene Methoden entwickelt, um euch mit KI Geld oder Daten abzuknöpfen. Wir verraten euch, welche davon die gängigsten sind.

Voice Cloning ist die Basis vieler Betrugsmaschen. Die Technik kann Sprachmuster und damit eure Stimmen mit nur kurzen Audioaufnahmen nachbilden.

Die benötigten Samples finden Kriminelle überall:

  • Voicemail-Nachrichten
  • Interview-Clips
  • Social Media Videos
  • Podcast-Aufnahmen

Laut der Montclair State University reichen schon kurze Clips für eine überzeugende KI-Imitation, doch manche Betrüger gehen noch weiter.

Video starten 17:27 Gefährliche KI-Trends: Was tun, wenn eure Stimme im Netz geklaut wird?

Betrüger nutzen oft Deepfake-Videos für Videoanrufe und ähnliches. Darin wird nicht nur die Stimme, sondern auch das Gesicht oder gleich der ganze Körper eines Menschen kopiert.

Die Täter sammeln Bilder und Videos von LinkedIn, Firmenwebsites und Social Media, um perfekte Imitationen zu erstellen und die Opfer der Betrugsmasche zu bestimmten Handlungen zu drängen, wie beispielsweise das Überweisen von Geld.

Und als ob diese Maschen nicht schon perfide genug wären, fand der E-Mail-Anbieter Paubox heraus, dass fast 48 Prozent der KI-generierten Phishing-Versuche aktuelle Sicherheitssysteme umgehen.

Selbst trainierte Profis fallen darauf rein, warnt der Justizausschuss des US-Senats.

So schützt ihr euch vor KI-Betrug

Der erste und wahrscheinlich wichtigste Schritt ist es, die Maschen zu kennen. Diesen Schritt habt ihr jetzt bereits abgehakt. Experten haben allerdings klare Empfehlungen, wie ihr euch vor den meisten Maschen schützen könnt:

1. Warnsignale erkennen

Es ist nicht nur wichtig, von den Betrugsmaschen gehört zu haben, sondern auch woran man sie erkennt, wenn man mit ihnen konfrontiert wird.

Bei Deepfake-Videos achtet auf:

  • Unnatürliche Mundbewegungen
  • Flackernde Hintergründe
  • Seltsam wirkender Blickkontakt

Bei geklonten Stimmen:

  • Ungewöhnliche Pausen
  • Inkonsistente Hintergrundgeräusche

2. Multi-Faktor-Authentifizierung (MFA)

Bestimmt kennt ihr das von manchen Plattformen: Neben eurem Passwort sollt ihr noch andere Sicherheitsmaßnahmen einführen. Wie zum Beispiel das bestätigen eines Logins über eine App. Genau das ist MFA und gehört bis heute zu den sichersten Methoden, eure Accounts und Daten zu schützen.

Das Schöne ist: MFA macht es Betrügern schwerer, auch wenn sie eure Daten bereits gestohlen haben. Denn obwohl sie vielleicht ein Passwort haben, haben sie noch lange nicht Zugriff auf euer Smartphone.

3. Rückruf-Prinzip

Erhaltet ihr einen verdächtigen Anruf, legt einfach auf und ruft die Person über eine euch bekannte Nummer zurück. So können gefährliche Situationen einfach vermieden werden.

Und sollte einer eurer Mitmenschen wirklich mal dringend etwas von euch brauchen, habt ihr ihn nach dem Rückruf ohnehin wieder am Apparat. Cybersecurity-Analyst Ashwin Raghu verriet gegenüber Business Insider, dass dieses Prinzip ein großes Problem für Betrüger sein kann:

Betrüger zählen darauf, dass Menschen im Moment reagieren.

KI bietet faszinierende Möglichkeiten, aber auch neue Betrugsmaschen. Bleibt wachsam, verifiziert verdächtige Anfragen und sprecht offen über diese Bedrohungen.

So reduziert ihr das Risiko – egal wie echt der Deepfake wirkt.

zu den Kommentaren (0)

Kommentare(0)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.