Nachdem es für OpenAI lange Zeit nur bergauf zu gehen schien, mehrte sich nach der Einführung von GPT-5 auch die Kritik. Viele Nutzer empfinden das neue Modell als unpersönlicher und wünschen sich GPT-4o zurück. OpenAI-Chef Sam Altman hat jetzt erneut Stellung bezogen.
ChatGPT soll weniger Einschränkungen bekommen
Künstliche Intelligenz ist eines der größten und meistdiskutierten Themen der letzten Jahre und viele Beobachter und Nutzer sind sich einig, dass der Umgang mit der neuen Technologie angesichts ihres Potenzials verantwortungsvoll ausfallen sollte.
1:29
OpenAI Stellt GPT-5 vor: Das kann das neue KI-Modell
Was »verantwortungsvoll« genau bedeutet, ist dabei aber stark umstritten. Manche Nutzer wünschen sich möglichst überhaupt keine Einschränkungen, um das Maximum aus den Möglichkeiten herauszuholen, andere weisen hingegen vehement auf Themen wie Falschaussagen oder den Umgang mit psychischen Erkrankungen hin.
OpenAI steht als aktueller KI-Spitzenreiter natürlich immer zwischen den Fronten und kann es kaum allen Nutzern recht machen. In einem längeren Post auf X hat sich OpenAI-Chef Sam Altman jetzt zu den Entwicklungen der letzten Monate und den Zukunftsplänen geäußert.
Den Post könnt ihr euch hier direkt ansehen, darunter haben wir ihn für euch übersetzt:
Link zum Twitter-Inhalt
Wir haben ChatGPT ziemlich restriktiv gestaltet, um sicherzustellen, dass wir mit psychischen Gesundheitsproblemen vorsichtig umgehen. Wir sind uns bewusst, dass dies für viele Nutzer, die keine psychischen Probleme hatten, weniger nützlich/unterhaltsam war, aber angesichts der Schwere des Problems wollten wir dies richtig machen.
Jetzt, da wir die schwerwiegenden psychischen Gesundheitsprobleme entschärfen konnten und über neue Tools verfügen, werden wir in den meisten Fällen die Einschränkungen sicher lockern können.
In einigen Wochen planen wir die Veröffentlichung einer neuen Version von ChatGPT, die es den Nutzern ermöglicht, eine Persönlichkeit zu haben, die sich eher so verhält, wie es den Nutzern bei 4o gefallen hat (wir hoffen, dass es besser wird!). Wenn Ihr wollt, dass euer ChatGPT sehr menschlich reagiert, viele Emojis verwendet oder sich wie ein Freund verhält, sollte ChatGPT dies tun (aber nur, wenn Ihr es wollt, nicht weil wir die Nutzung maximieren wollen).
Im Dezember, wenn wir die Altersprüfung vollständiger einführen und im Rahmen unseres Grundsatzes »Erwachsene Nutzer wie Erwachsene behandeln«, werden wir noch mehr zulassen, wie z. B. Erotika für verifizierte Erwachsene.
Zum Hintergrund: In der Vergangenheit hatte es immer wieder Meldungen darüber gegeben, dass ChatGPT die psychischen Probleme mancher Nutzer noch verstärkt hat. Das soll unter anderem zum Selbstmord eines Teenagers beigetragen haben.
Das betrifft zwar wohl nur einen sehr kleinen Teil der gesamten Nutzer, ist als Thematik aber so wichtig, dass OpenAI eben stärkere Einschränkungen für alle Nutzer eingeführt hat. Mittlerweile scheint man viele Fehlerquellen aber erkannt zu haben, sodass einige Einschränkungen wieder aufgehoben werden können.
Wie eine verlässliche Altersprüfung dann am Ende aussehen soll, muss dabei natürlich noch beantwortet werden. Was ein solcher Schritt für die Beziehung zwischen Menschen und KI bedeutet, ist ebenfalls eine offene Frage.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.