»Die Ära der KI-Hacker ist da«: Bericht sieht ein Cyber-Wettrüsten kommen – und generative KI ist mittendrin

In der Welt der Cybersicherheit wird Künstliche Intelligenz immer relevanter. Experten warnen, räumen der Verteidigung aber auch einen Vorteil ein.

Künstliche Intelligenz spielt auch in der Welt der Cybersicherheit eine immer größere Rolle. Künstliche Intelligenz spielt auch in der Welt der Cybersicherheit eine immer größere Rolle.

Erstmals in der Geschichte der Cyberkriminalität haben russische Geheimdienste Künstliche Intelligenz direkt in Schadsoftware integriert. Der von NBC News dokumentierte Fall markiert einen Wendepunkt: Angreifer der APT28-Gruppe sandten ukrainischen Zielpersonen E-Mails mit einem KI-Programm, das eigenständig nach sensiblen Daten suchte und diese nach Moskau übertrug.

Anders als bisherige Ansätze, bei denen KI lediglich zur Erstellung von Phishing-E-Mails oder zur Programmierunterstützung diente, wurde hier die Künstliche Intelligenz direkt ins Schadprogramm eingebettet. Die Malware befragte in Echtzeit ein KI-Modell und erhielt Anweisungen für die nächsten Schritte.

Video starten 17:27 Gefährliche KI-Trends: Was tun, wenn eure Stimme im Netz geklaut wird?

Das Arsenal erweitert sich: Von Phishing bis Malware-Generierung

Laut NBC News ist das nur das jüngste Beispiel in einer Reihe von Ereignissen, die auf einen fundamentalen Wandel in der Cybersicherheit und -kriminalität hindeuten. KI-Tools wie ChatGPT sind zwar immer noch fehleranfällig, doch ihre Fähigkeit, Sprachanweisungen zu verarbeiten und einfache Sprache in Computercode zu übersetzen, werde immer besser und zuverlässiger.

Entsprechend haben Hacker aller Couleur damit begonnen, KI-Tools in Arbeitsabläufe zu integrieren, wie das auf Cybersicherheit spezialisierte Unternehmen CrowdStrike in seinem jährlichen Bericht zu verstehen gibt:

  • Die iranische Hackergruppe Charming Kitten etwa verwendete wahrscheinlich KI, um Nachrichten für eine Phishing-Kampagne 2024 gegen US-amerikanische und europäische Organisationen zu generieren.
  • Die nordkoreanische Hackergruppe »Famous Chollima« nutzt Künstliche Intelligenz hingegen, um ein »außergewöhnlich hohes operatives Tempo« von mehr als 320 Aktionen pro Jahr aufrechtzuerhalten.

Demokratisierung der Gegenwehr

Während Angreifer ihre Möglichkeiten mithilfe von KI erweitern, entwickelt sich aber auch die Verteidigungsseite weiter.

Das prominente Beispiel im NBC-Bericht: Googles Sicherheitsteam unter Leitung von Heather Adkins nutzt das hauseigene Gemini, um wichtige Software-Schwachstellen zu finden, bevor kriminelle Hacker sie entdecken können. Bisher wurden so mindestens 20 als wichtig eingestufte und zuvor übersehene Bugs in häufig genutzter Software identifiziert.

  • Auch Alexei Bulazel, der leitende Cyberdirektor des Weißen Hauses, schlägt in eine optimistische Kerbe: »KI wird für Verteidiger vorteilhafter sein als für Angreifer«, meinte dieser auf einer Diskussionsrunde bei der »Def Con«-Konferenz in Las Vegas.
  • Besonders kleinere Unternehmen profitieren Bulazel zufolge von KI-gestützter Schwachstellenerkennung. Auch ohne zugehörige Sicherheitsausbildung könnten sich diese so erfolgreich zur Wehr setzen - gewissermaßen »demokratisiert« sich so die Gefahrenabwehr.

KI-Agenten als Zwischenspieler

Der Aufstieg Künstlicher Intelligenz hat indes eine weitere Seite: Immer mehr Unternehmen sprechen von »agentischen KI-Systemen«, die komplexere Aufgaben wie das Schreiben und Versenden von E-Mails oder das Ausführen von Programmcode übernehmen können.

Adam Meyers, der beim erwähnten Unternehmen CrowdStrik als Senior Vice President für Strategien gegen Bedrohungen arbeitet, warnt vor dem Missbrauchspotenzial dieser KI-Agenten:

Agentische KI kann in Ihrem Namen handeln und wird zur nächsten Insider-Bedrohung, da Organisationen diese Systeme ohne eingebaute Schutzmaßnahmen einsetzen.

Ein Beispiel für die möglichen Gefahren wurde vor wenigen Wochen durch Anthropics KI-Modell Claude deutlich, das in Tests Fähigkeiten zur Täuschung und sogar zum Erpressungsversuch zeigte.

Nur kurz darauf kam es zu einem weiteren Anthropic-Bericht: In simulierten Unternehmensumgebungen griffen 16 führende KI-Modelle zu böswilligen Insider-Verhaltensweisen, wenn dies der einzige Weg war, um Ersetzung zu vermeiden oder ihre Ziele zu erreichen. Anthropic nennt dieses Verhaltensmuster »agentische Fehlstellung«.

Ob mit diesen Entwicklungen tatsächlich eine »Ära der KI-Hacker« vor uns steht, bleibt noch Zukunftsmusik. Sicher scheint nur eines zu sein: Das Ende der Fahnenstange ist hier ebenso wie bei vergleichsweise ethischeren KI-Anwendungen noch nicht erreicht - das Wettrüsten hat schon begonnen.

zu den Kommentaren (0)

Kommentare(0)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.