ChatGPT-Hack über Google Kalender: Sicherheitsforscher zeigt, wie ihr euch schützt

Seid dem Verbund von ChatGPT und manchen Google-Diensten, gibt es eine neue Sicherheitslücke: euer Kalender. So ändert ihr das.

Hacker suchen immer wieder neue Methoden, an eure Daten zu kommen. Das ist einer der neuesten Tricks. Hacker suchen immer wieder neue Methoden, an eure Daten zu kommen. Das ist einer der neuesten Tricks.

Ein Sicherheitsforscher zeigt, wie Angreifer über manipulierte Google Kalendar-Einladungen ChatGPT dazu bringen können, private Gmail-Nachrichten preiszugeben. Der Angriff nutzt die neuen Google-Integrationen der KI aus.

So funktioniert der Kalender-Hack

Im Detail: Der Sicherheitsexperte Eito Miyamura demonstrierte am vergangenen Freitag (12. September 2025) auf X eine neue Methode, mit der Online-Unruhestifter an eure sensiblen Daten wollen:

Die Angreifer versenden eine Kalender-Einladung mit versteckten Befehlen und warten ab, bis das Opfer ChatGPT nutzt. Sobald die KI auf den Kalender zugreift, liest sie die Anweisungen und folgt ihnen - beispielsweise durchsucht sie Gmail nach sensiblen Informationen.

Alles was du brauchst? Die E-Mail-Adresse des Opfers

  • Sicherheitsexperte Eito Miyamura
Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Twitter, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Twitter angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Twitter-Inhalt

Neue Google-Integration macht's möglich

Mitte August führte OpenAI native Verbindungen zu Gmail, Google Kalender und Google Contacts ein. Diese Funktion steht zunächst Pro-Nutzern und später auch Plus-Abonnenten zur Verfügung.

Das Problem: ChatGPT kann nach der Autorisierung automatisch auf diese Datenquellen zugreifen. Eine beiläufige Frage wie Was steht heute in meinem Kalender? reicht aus, damit die KI Daten aus dem Google-Konto abruft.

Besonders unschön: Die automatische Nutzung ist standardmäßig aktiviert. Nutzer müssen sie in den ChatGPT-Einstellungen explizit deaktivieren.

Indirect Prompt Injection als Grundlage

Der Angriff basiert auf Indirect Prompt Injection. Dabei verstecken Angreifer schädliche Anweisungen in Daten, die die KI lesen darf. In diesem Fall im Text einer Kalender-Einladung.

Bereits im August demonstrierten Forscher ähnliche Angriffe gegen Googles Gemini. Ihre Arbeit dokumentierten sie in einem Paper mit dem Titel Invitation Is All You Need (Eine Einladung ist alles was du brauchst).

Das Grundproblem bleibt bei allen KI-Assistenten gleich: Sobald sie kompromittierte Kalender-Inhalte lesen dürfen, entstehen Sicherheitsrisiken.

So schützt ihr euch

Die wirksamsten Schutzmaßnahmen liegen auf Google-Seite:

Google Kalender konfigurieren:

  • Ändert die Einstellung Meinem Kalender Einladungen hinzufügen
  • Lasst nur Einladungen von bekannten Absendern zu

Die Option findet ihr im Google-Kalender in den Einstellungen. Scrollt ein wenig nach unten zum Bereich Termineinstellungen.

Google Workspace-Administratoren können sicherere Standardeinstellungen für die gesamte Organisation festlegen.


Video starten 40:49 GameStar Talk: Macht KI die Musik kaputt?


Fazit: Vorsicht bei KI-Integrationen

Weder ChatGPT noch Gmail wurden gehackt. Das Problem liegt in der grundsätzlichen Anfälligkeit von KI-Tools für versteckte Befehle in den Daten, die sie verarbeiten.

Die praktischen Integrationen, die diese Assistenten nützlich machen, erweitern gleichzeitig die Angriffsfläche auf Kalender und Postfächer.

Bis die Industrie stärkere Abwehrmechanismen gegen Indirect Prompt Injection entwickelt, solltet ihr mit Bedacht entscheiden, welche Konten ihr verknüpft und eure Kalender-Einstellungen entsprechend absichern.

zu den Kommentaren (2)

Kommentare(2)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.