Kaum ist GPT-5 erschienen, spricht CEO Sam Altman bei CNBC schon über GPT-6 – und das große Versprechen: ein Gedächtnis.
Die Leute
wollen laut Altman Funktionen, die erfordern, dass er und seine Firma die Nutzer besser verstehen.
Das ist eine interessante, wie problematische Idee, zumal die KI an anderer Stelle noch starken Nachbesserungsbedarf hat – vor allem, was den Wahrheitsgehalt angeht.
Altman: Die Leute wollen ein Gedächtnis
ChatGPT soll noch persönlicher mit euch kommunizieren – wer hätte das gedacht? Aber was CEO Sam Altman hier als Schlüsselfunktion präsentiert, macht mich etwas stutzig: gespeicherte Erinnerungen.
Die kann man sich in etwa so vorstellen: Ihr sitzt über Wochen an einem Fantasy-Roman, den ihr intensiv mit ChatGPT diskutiert. Nun braucht eure Hauptfigur einen lustigen Sidekick – nur was für ein Wesen soll der sein? Wenn ChatGPT chatübergreifend Erinnerungen über euren Roman speichert, dann könnt ihr ohne viel Erklärung mit der KI genau über diese Frage in jedem neuen Chatfenster diskutieren.
Aber ChatGPT hat diese Funktion bereits: In den Einstellungen könnt ihr die Erinnerung
einschalten. Der Chatbot wird euch dann in folgenden Gesprächen fragen, ob er eine bestimmte Information als Erinnerung über euch speichern soll oder ihr könnt ihn selbst dazu auffordern.
Ich halte die Funktion per se für schon bedenklich, denn solche Erinnerungen bedeuten: Auf den Servern von OpenAI liegt eine Art Steckbrief von euch.
Den Steckbrief möchte Sam Altman mit der erweiterten Erinnerung von GPT-6 offenbar noch etwas umfassender machen. Dabei sind noch nicht einmal die aktuellen Erinnerungen, die OpenAI über euch speichert, verschlüsselt, wie Sam Altman im CNBC-Interview unverblümt zugibt.
Man könne so eine Verschlüsselung laut Altman zwar sehr wohl
hinzufügen, aber einen konkreten Zeitplan will er dafür nicht nennen. GPT-6 allerdings mit seinem erweiterten Gedächtnis soll allerdings schon bald erscheinen.
Bevor wir über ein Supergedächtnis nachdenken, hätte ich eine andere Idee.
56:01
GameStar Tech Talk: Geht KI zu weit?
Statt Erinnerung: Wie wäre es mit weniger Lügen?
Alle derzeitigen Large-Language-Models funktionieren sehr ähnlich, und sie alle haben ein Problem: Halluzinationen.
Das bedeutet: Auch wenn das Modell auf die Anfrage keine richtige Antwort hat, gibt es trotzdem einen kohärenten Text aus – nur dass der eben frei erfundene Behauptungen enthält und der Chatbot sie als Tatsachen präsentiert.
Es gibt verschiedene Gründe für Halluzinationen, aber die sind zuerst einmal strukturell in der Art, wie Large-Language-Models funktionieren, begründet. Denn auch wenn sie uns wie geschwätzige Lexika erscheinen, KI-Chatbots:
- haben ihr Wissen nicht aus einer Datenbank, wo Wahrheiten über die Welt gespeichert sind.
- sind darauf ausgelegt, basierend auf Unmengen Textdaten, das wahrscheinlichste Wort in einem Satz vorherzusagen und so Ausgaben zu produzieren.
Fehlen die Fakten, liefern Chatbots trotzdem Antworten – die oft plausibel klingen, aber frei erfunden sind. Auch wenn Halluzinationen ein Teil von unseren derzeitigen KI-Chatbots bleiben werden, können die trotzdem vermindert werden:
Letztes Jahr wurde etwa in der Fachzeitschrift Nature eine Studie mit einer neuen Methode veröffentlicht, die bestimmte Halluzinationen erkennt, um ihre Genauigkeit bei der Beantwortung von Fragen zu verbessern.
Und das hat OpenAI mit GPT-5 auch geschafft: Es halluziniert weniger als GPT-4o. Tatsächlich zeigt das die Analyse von Vectara: Die Halluzinationsrate von GPT-5 ist allerdings kaum niedriger als die von GPT-4o.
Aber die GPT-Modelle halluzinieren längst nicht wild vor sich hin: Wenn ich ChatGPT heute eine sehr ernst gemeint klingende Anfrage nach einem schottischen Literaten des 19. Jahrhunderts schicke, der aber frei erfunden ist, dann halluziniert das Modell keine Kindheit des Autors zusammen und das ist sehr gut so.
Aber aus meiner Erfahrung im Alltag: Nicht existierende Quellen und unbrauchbare KI-Bilder bekomme ich von GPT-5 immer noch schlicht zu oft.
Deswegen: Nein, Halluzinationen sind mit den Modellen, so wie sie derzeit aufgebaut sind, nicht ganz wegzubekommen. Aber wer mir den großen Wurf eines neuen GPT demonstrieren möchte, der sollte sich zuerst um Halluzinationen kümmern.
Fazit: Viel Zukunft, wenig Datenschutz und ein fader Beigeschmack zum Schluss
Ich hätte es an dieser Stelle nun belassen können, wenn das CNBC-Interview nicht gerade hier noch einen faden Beigeschmack hinterlassen hätte. Denn: Um weniger Halluzinationen und faktenbasierte Ausgaben von ChatGPT ging es im Interview nicht weiter.
Wohl aber um eine andere Sache: ChatGPT soll politisch neutraler werden. Altman folgt damit einer Exekutiv-Anordnung aus dem Weißen Haus mit dem haarsträubenden Titel Preventing Woke AI in the Federal Government
, also etwa Abwehr von Woke-KI in der Regierung
.
Altmans Mission für GPT-6: ChatGPT wirklich persönlich machen. Dazu gehört für ihn auch die politische Ausrichtung:
Ich denke, unser Produkt sollte eine ziemlich mittige, neutrale Haltung haben, und dann sollte man es ziemlich weit verschieben können.
Wer eine super-woke
KI wolle, der solle die auch bekommen, aber eben auch eine konservativere Haltung.
Auch wenn die Exekutiv-Anordnung des US-Präsidenten und Truth-Social-Gründers sich ganz der Wahrheit
verpflichtet sieht, klingt das nicht nach faktenbasierten Ausgaben, sondern nach einer maßgeschneiderten Echokammer.





Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.