Künstliche Intelligenz - Neue Arten von Cyber-Attacken mit KI-Hilfe möglich

Künstliche Intelligenz kann der Menschheit sowohl nutzen als auch schaden. Laut IT-Experten ergeben sich dadurch neue Möglichkeiten für Cyber-Angriffe.

Künstliche Intelligenz soll sowohl Möglichkeiten als auch Gefahren für die Menschheit bieten. Künstliche Intelligenz soll sowohl Möglichkeiten als auch Gefahren für die Menschheit bieten.

In den vergangenen paar Jahren hat sich die Leistungsfähigkeit künstlicher Intelligenz rasant weiterentwickelt. Damit einher gehen sowohl Chancen als auch Gefahren für die Menschheit. Insbesondere mit letzteren hat sich kürzlich eine Gruppe von IT-Experten im Rahmen eines Workshops an der Oxford-Universität auseinandergesetzt. Wie Vrodo berichtet, verfassten die 26 Teilnehmer den rund 100-seitigen Aufsatz »The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation« zum Thema Cyber-Angriffe mit künstlicher Intelligenz.

In ihrem Papier gehen die Autoren auf verschiedene Szenarien ein, in denen kriminelle Hacker mithilfe künstlicher Intelligenz diverse virtuelle und reale Angriffe durchführen können. Dabei gliedern die Experten die potentiellen Gefahren in die Bereiche digitale Sicherheit, physische Sicherheit sowie politische Sicherheit und illustrieren diese anhand verschiedener Beispiele.

Missbrauch von Verwundbarkeiten, Dronenangriffe und Propaganda

Unter anderem sprachen die Forscher von neuen Möglichkeiten für Cyber-Angriffe, bei denen sich etwa mithilfe von künstlicher Intelligenz eine Stimme imitieren lässt. Denkbar wären auch Hacker-Angriffe auf autonome Systeme wie KI-gesteuerte Fahrzeuge oder Drohnen. Schließlich ließen sich künstliche Intelligenzen insbesondere auch im Bereich der (politischen) Überwachung und Propaganda zu manipulativen Zwecken nutzen.

Dabei spielen die Experten im Rahmen ihres Berichts verschiedene konkrete Szenarien durch. Im Bereich der digitalen Sicherheit kommt eine Hacking-KI zum Einsatz, die einem ahnungslosen Opfer erst eine Malware unterjubelt und ihre Zugangsdaten zu einem Sicherheitssystem stiehlt, nur um sie anschließend im Darknet zu verkaufen.

Beim zweiten Beispiel übernehmen Hacker die Kontrolle über einen Reinungsroboter und bestücken diesen mit Sprengsätzen. Der Roboter gelangt problemlos in die Nähe eines hochrangigen Politikers und verübt einen erfolgreichen Anschlag.

In einem dritten Beispiel kommt es zum Missbrauch künstlicher Intelligenz zur Überwachung von Bürgern in einem totalitären System: Die Person in dem Szenario beschwert sich im Internet über die Untätigkeit der Regierung, woraufhin ihn eine KI als potentiellen Gefährder einstuft. Am nächsten Tag verhaftet ihn die Polizei. Denkbar sind darüber hinaus auch Fälle von gesellschaftlicher Manipulation - ein Vorwurf, mit dem sich Youtube bereits jetzt in Ansätzen konfrontiert sieht.

Die Verantwortung liegt bei den KI-Programierern

Insgesamt kommen die Forscher zu dem Schluss, dass sich diesen potentiellen Gefahren-Szenarien nur mit den folgenden vier wesentlichen Maßnahmen entgegenwirken lässt:

  • Die Cybersecurity-Community muss miteinander kommunizieren. Potentielle Schwachstellen und ihre Lösungen müssen zügig offengelegt werden.
  • Offene Forschung soll gefördert werden - insbesondere während immer deutlicher zutage tritt, dass künstliche Intelligenz der Menschheit sowohl schaden als auch nutzen kann.
  • KI-Forscher müssen eine Kultur der Verantwortung und Verantwortlichkeit schaffen. Es muss einheitliche ethische Standpunkte, Normen und Erwartungen geben.
  • Die Entwicklung von technologischen und strategischen Lösungen für die genannten Gefahren ist essenziell - dazu gehören die Sicherung der Privatsphäre, die koordinierte Anwendung von KI für die Sicherheit des Allgemeinwohls und die Überwachung KI-relevanter Ressourcen.

Allerdings weisen die Experten auch darauf hin, dass es nicht nur auf die KI-Forscher und deren Firmen ankomme, sondern auch auf die Gesetzgeber, Staatsdiener, Regulatoren und Sicherheitsforscher. »Die Herausforderung ist gewaltig und die Einsätze hoch«, konstatieren die Forscher abschließend.

zu den Kommentaren (17)

Kommentare(13)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.