Niemand will, dass Meta AI die eigenen Daten zum Training der hauseigenen KI verwendet, aber was ist mit ChatGPT? Eine Einstellung hilft gerade denjenigen, die dem Chatbot gerne mal erzählen, was sie lieber für sich behalten sollten.
Und ja, ab und an gehöre ich da auch dazu.
Was passiert eigentlich mit euren Chats bei ChatGPT?
Ich bin schon vor längerer Zeit auf einen mittlerweile zwei Jahre alten Reddit-Thread gestoßen. Der Titel: Sollte ich mir über meine Privatsphäre Gedanken machen, wenn ich ChatGPT als Therapeut verwende?
Die kurze Antwort: Selbstverständlich sollte man das.
OpenAI nutzt eure Chats auf mindestens zwei Weisen:
- ChatGPT hat eine Erinnerungsfunktion. Der Chatbot speichert bestimmte Informationen über euch, die später ganz praktisch sein können. ChatGPT weiß, dass ich Physik studiert habe? Dann muss ich das Niveau bei physikalischen Themen nicht immer neu festlegen. Das kann praktisch sein, bedeutet aber auch: Auf einem Server von OpenAI liegt ein sehr detailliertes Profil von mir. Ohne OpenAI zu etwas zu unterstellen: Es gibt immer die Möglichkeit von Leaks.
- Es gibt derzeit einen Run auf die beste KI und alle großen Player aus dem Silicon-Valley machen mit. Und dafür kommt es auch auf die Qualität der Trainingsdaten an. Meta benutzt mittlerweile den Schatz an öffentlichen Posts, die wir geteilt haben, für seine Modelle. OpenAI nutzt laut der eigenen Datenschutzeinstellung eure Chats, die ihr mit ChatGPT führt.
Und trotzdem verstehe ich diejenigen, die ChatGPT zu private Dinge erzählen. Denn der Chatbot kann wirklich helfen, wenn es um Motivation geht oder auch Verständnis, wenn niemand anderes zum Reden da ist.
Deswegen: Wenn ein Chat mal privater wird, oder ihr einfach nicht wollt, dass der zum Training des neuen GPT verwendet wird, bietet euch OpenAI mit einem Klick einen Chat mit ein bisschen mehr Privatsphäre.
Der provisorische Chat bei ChatGPT
Ihr findet die Erinnerungsfunktion praktisch und wollt grundsätzlich auch auf alte Chats zugreifen können, aber nicht, dass OpenAI mit jedem eurer Chats seine Modelle trainiert?
Dann dürfte der provisorische Chat interessant für euch sein.
Der ist eigentlich recht zentral, aber irgendwie trotzdem unauffällig: Direkt neben eurem Profilbild bzw. euren Initialen ist eine kleine gestrichelte Sprechblase.
Klickt oder tippt ihr auf die, öffnet sich ein schwarzer Chat: der provisorische Chat.
OpenAI gibt an, dass provisorische Chats anders als normale behandelt werden:
- Sie dienen nicht zum Training der hauseigenen OpenAI-Modelle.
- Aus ihnen werden keine Erinnerungen über euch gespeichert.
- Dafür werden sie aber in eurem Chatverlauf auch nicht gespeichert. Einmal geschlossen, könnt ihr nicht mehr auf sie zurückgreifen.
Eigentlich hatte ich auch geschrieben: Die provisorischen Chats werden nach 30 Tagen von den Servern von OpenAI gelöscht. Das gibt die Firma im Fenster des provisorischen Chats auch immer noch an, es stimmt aber zumindest zurzeit leider nicht:
In einer Pressemitteilung erklärt OpenAI, dass sie aufgrund einer gerichtlichen Anordnung im Rahmen einer Klage der New York Times aktuell gezwungen seien, alle Chats – einschließlich der temporären und gelöschten – unbefristet zu speichern. Diese Daten würden derzeit in einem separaten, gesicherten System
verwahrt.
Dennoch: Jedes Mal, wenn ich mir denke: Dieser Chat sollte nicht gespeichert und zum Training verwendet werden, aktiviere ich ein provisorisches Chat-Fenster.
Achtung vor falscher Sicherheit
Ich will damit nicht sagen: Der provisorische Chat wird zu eurem persönlichen Online-Therapeuten. Es gilt nach wie vor: Solche Informationen gehören nicht mit Konzernen geteilt und ich möchte persönlich an euch appellieren, hier sensibel zu sein.
Ja, viele Konzerne machen Geld mit unseren Daten. Aber ob Meta weiß, dass ihr gestern mit eurem Hund im Park spazieren wart oder ob OpenAI weiß, dass ihr einen Jobwechsel in Betracht zieht und welche Antidepressiva ihr nehmt, sind zwei unterschiedliche Paar Schuhe.
Und derzeit werden auch provisorische Chats nicht gelöscht.
Aber seien wir ehrlich: Es kann verdammt verlockend sein, mit ChatGPT auch über Persönliches zu reden. Und der provisorische Chat gibt euch zuerst einmal eine gewisse Garantie, zu der sich die Firma verpflichtet.
Verstößt OpenAI gegen die Regeln, drohen rechtliche Konsequenzen.
44:19
»Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI
Das gilt für eure normalen Chats nicht. Und gerade wenn ihr das Guilty Pleasure habt, mit ChatGPT auch Privates zu besprechen, dann bietet euch der provisorische Chat zwei weitere Vorteile:
- Ein kleines mentales Stopschild: Jedes Mal, wenn ihr ihn einschaltet, könnt ihr euch bewusst machen, dass ihr mit ChatGPT eben nicht zu Privates teilen solltet.
- Der Chat verschwindet, wenn ihr ihn schließt. Er minimiert für euch also die Gefahr, jedes Mal zu eurem bestinformierten persönlichen KI-Therapeuten zurückzukehren und dort euer Tagebuch weiterzuführen.
Egal, was ihr mit ChatGPT besprecht: Seid euch darüber bewusst, dass die Firma eure Daten verwendet. Und für bestimmte Themen kann der provisorische Chat ein schnelles Tool sein, um eure Daten vor dem Zugriff von OpenAI zu schützen. Verwendet ihn weise.
Was meint ihr dazu? Erzählt ihr ChatGPT manchmal Dinge, die vielleicht doch zu privat sind? Und wie geht ihr damit um, dass OpenAI mit euren Daten seine Modelle trainiert? Schreibt und eure Gedanken und Erfahrungen in die Kommentare!


Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.