ChatGPT soll dank eines neuen Lockdown-Modus sicherer werden – so funktioniert er

Mit neuen Sicherheitsfeatures möchten die ChatGPT-Macher die Daten von Anwendern besser schützen.

OpenAI führt neue Warnhinweise sowie einen eingeschränkten Modus ein, um ChatGPT-Nutzer besser zu schützen. (Bildquelle: OpenAI) OpenAI führt neue Warnhinweise sowie einen eingeschränkten Modus ein, um ChatGPT-Nutzer besser zu schützen. (Bildquelle: OpenAI)

OpenAI hat neue Kontrollmechanismen für ChatGPT vorgestellt, die darauf ausgerichtet sind, besonders gefährdete Nutzergruppen vor gezielten Cyberangriffen zu schützen.

Der neue Sperrmodus ermöglicht es Organisationen, die Verwendung von externen Systemen einzuschränken, während standardisierte Risiko-Labels vor Funktionen mit erhöhtem Gefährdungspotenzial warnen.

Damit reagiert das Unternehmen auf die Herausforderung von manipulativen Eingaben, bei der Angreifer versuchen, über bösartige Anweisungen in Webseiten oder Dokumenten sensible Informationen aus Chat-Sitzungen zu erhalten.

Video starten 1:00 Super Bowl: Mit diesem Clip schießt Anthropic gegen OpenAI und ChatGPT

Sperrmodus soll besonders gefährdete Angestellte schützen

Die neue optionale Sicherheitsmaßnahme ist vor allem für eine kleine Gruppe von besonders sicherheitsbewussten Benutzern entwickelt worden, die einen erhöhten Schutz vor komplexen Bedrohungen benötigen, so OpenAI.

Wird er aktiviert, schränkt ChatGPT die Kommunikation mit externen Systemen stark ein. Dies soll das Risiko eines Datendiebstahls durch Eingriffe in die Eingabe verringern.

Der Lockdown-Modus in der Übersicht:

  • Gezielte Isolation: Die KI wird eingeschränkt, damit keine Informationen ungeplant nach außen dringen können.
  • Internet ist eingeschränkt: Der Zugriff wird auf Inhalte beschränkt, die bei OpenAI bereits zwischengespeichert sind.
  • Werkzeuge mit Risiken werden deaktiviert: Bestimmte Funktionen, die technisch schwer abzusichern sind, werden abgeschaltet.
  • Kontrolle: Administratoren dürfen festlegen, welche Apps trotz Lockdown-Modus noch funktionieren dürfen.

Warnhinweise sollen Anwender auf mögliche Gefahren hinweisen

So sieht eine der neuen Warnhinweise aus. (Bildquelle: OpenAI) So sieht eine der neuen Warnhinweise aus. (Bildquelle: OpenAI)

Mit standardisierten Warnungen möchte OpenAI Anwender in Zukunft besser vor möglichen Risiken warnen. Ein neues Label soll dabei in ChatGPT, Atlas und Codex deutlich machen, wenn Aktionen das Risiko für Angriffe erhöhen könnten.

Der Warnhinweis wird zum Beispiel in dem Programmier-Assistenten eingeblendet, wenn diesem Zugriff auf das Netzwerk gewährt wird. Zusätzlich blendet OpenAI Erläuterungen ein, die dem Anwender helfen sollen, die richtige Entscheidung zu treffen.

In einer Gamestar-Umfrage zu den verschiedenen KI-Systemen belegt ChatGPT momentan den zweiten Platz.

Mit der Einführung des Lockdown-Modus und den standardisierten Risikokennzeichnungen reagiert OpenAI auf die wachsende Komplexität einer vernetzten KI-Welt. Während der Lockdown-Modus für hochsensible Bereiche entwickelt worden ist, sollen die neuen Warnhinweise das Bewusstsein der Anwender schärfen.

zu den Kommentaren (0)

Kommentare(0)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.