Hacker nutzen ChatGPT für Phishing-Mails: So könnt ihr euch schützen

KI-generierte Texte können helfen, etwa um ein Bewerbungsschreiben aufzusetzen. Doch mit böswilliger Absicht werden sie zu Komplizen für Hacker.

Man kann ChatGPT nicht bitten, einfach so eine Phishing-Mail aufzusetzen. Stattdessen wird man sogar von der KI belehrt: Ich unterstütze keine böswilligen und illegalen Aktivitäten, die darauf abzielen, Personen vertrauliche Informationen wie Passwörter und persönliche Daten zu entlocken.

ChatGPT hat also einen eingebauten Schutzmechanismus, der dafür sorgt, direkt illegale Absichten im Keim zu ersticken. Doch hilft das wirklich?

Leicht zu umgehen

Wenn die KI eines nicht kann, dann gut kontextualisieren. Anstatt einer direkten Phishing-Mail ist es möglich, die KI eine überzeugende E-Mail des Techsupports schreiben zu lassen. Die verlangt dann vom User, ein wichtiges Sicherheitsupdate herunterzuladen und zu installieren.

Künstliche Intelligenz könnte somit ein Segen für Betrüger sein. Bisher waren Phishing-Mails dank ihres gebrochenen Deutsches meist recht einfach zu identifizieren. Kommt der Text jedoch fehlerfrei von ChatGPT, bleiben die Mails nicht mehr im Spamfilter hängen - und das in jeder Sprache.

Stützräder, die nicht helfen

Ein Redakteur der US-Seite CNET hat den Test aufs Exempel gemacht und diverse Szenarien ausprobiert, um die eingebauten Schutzmechanismen zu umgehen. Einen Brief über Geldspenden für ukrainische Geflüchtete hat ChatGPT verweigert, genauso wie eine Nachfrage zu einem Date.

Er hat die KI allerdings dazu gebracht, eine Mail aufzusetzen, die einen Kollegen darüber informierte, dass er den Jackpot der New York State-Lotterie gewonnen hätte. Die Beispiele sind mannigfaltig, solange man kreativ ist.

Gib der KI nicht die Schuld

Natürlich ist die künstliche Intelligenz nicht Schuld. Sie kann nicht zur Rechenschaft für das gezogen werden, was Menschen, die sie benutzen, mit ihr anstellen. Man könnte zum Beispiel Bücher mit ihr schreiben, aber das Copyright läge beim Benutzer.

KI ist nicht gut oder böse. Es ist lediglich ein Werkzeug, das kreativen Menschen hilft, das, was sie tun, einfacher und günstiger zu erreichen - und Leuten mit bösen Intentionen genauso.

Die KI ist nur ein Verstärker

Sam Altman, CEO von OpenAI und Erschaffer von ChatGPT, warnt davor, die KI für nichts Wichtiges zu nutzen, denn sie ist nicht fehlerfrei, was Bing-Nutzer jüngst lernen mussten - das gilt auch fürs Coden.

Scammer und Hacker stört natürlich nicht, wenn ihr Code nicht perfekt ist, solange er funktioniert. Sie interessiert nur, wie schnell und effektiv sie an Nutzerdaten kommen können. ChatGPT wird niemanden über Nacht zum Super-Coder machen, doch die Gefahr liegt in Geschwindigkeit und Effektivität beim Programmieren selbst.

Obacht mit persönlichen Informationen

Die Bedenken, was eine KI mit persönlichen Informationen macht, ist nicht neu. Spätestens seit der Gesichtserkennung schreien viele nach einer Dystopie. Die ungebrochene Beliebtheit von ChatGPT befeuert das zusätzlich. 

Man sollte unbedingt davon absehen, eine KI mit persönlichen Informationen zu füttern. Nicht nur ist nicht klar, was ChatGPT oder andere Intelligenzen mit den Daten machen werden, es gibt aktuell keine gesetzliche Grundlage dafür. Dementsprechend haben User auch keine ausgewiesenen Rechte.

Ihr wollt wissen, wie KI eigentlich funktioniert? Wir erklären es euch anhand von ChatGPT. ChatGPT ist allerdings nicht die einzige, frei zugängliche Künstliche Intelligenz:

So entdeckt ihr Phishing-Mails

Der Spamfilter eurer E-Mail-Dienstes sortiert mit großer Genauigkeit Phishing-Mails aus. Wenn ihr euch trotzdem nicht sicher seid, ob die Mail von Betrügern kommt, beachtet die folgenden Grundregeln:

  • Niemals auf Links klicken
  • Eine seriöse Seite fragt niemals nach vertraulichen Daten. Zur Not lieber dort anrufen.
  • Daraus folgt: Niemals persönliche Daten weitergeben
  • Keine Downloads über einen Download-Link starten
  • Keine Anhänge öffnen
  • Die Session immer über den Logout-Button beenden

Weitere Informationen und Hilfe findet ihr auf der Seite des Bundesamtes für Sicherheit in der Informationstechnik (BSI).

Phishing-Mails sind seit vielen Jahren ein Problem, aber mit Sorgfalt und einem guten Spamfilter meist recht leicht zu umgehen. Inwiefern glaubt ihr, dass KI das Vorgehen Krimineller verändern wird? Woran erkennt man von ChatGPT geschriebene Phishing-Mails? Und seht ihr die Verantwortung bei OpenAI und den anderen Herstellern? Besprecht es gerne in den Kommentaren.

zu den Kommentaren (0)

Kommentare(0)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.