ChatGPT bekommt einen Nachfolger für ihr Sprachmodell GPT-4.
Es heißt GPT-4o, wobei das »o« für Omni steht.
Es soll sowohl Text, Video als auch Sprache verstehen, interpretieren und ausgeben können. Wie das aussieht und welche Möglichkeiten das bietet, haben sie in einem Video gezeigt.
ChatGPT-4o – so nah war KI nie am echten Menschen
Das neue Sprachmodell von OpenAI setzt in Sachen Mensch-Computer-Interaktion neue Maßstäbe. Das wird durch mehrere Eigenschaften klar:
- Es antwortet durchschnittlich in 320 Millisekunden. Das entspricht ungefähr der Reaktionszeit eines Menschen im Straßenverkehr (via bussgeldkatalog.org)
- Es kann optische Eindrücke besser interpretieren und beschreiben. Auch das Erstellen von Bildern wurde optimiert.
- Es spricht mit bisher unerreichten menschlichen Nuancen in der Stimme.
Wie sich diese Optimierungen tatsächlich auswirken, hat OpenAI in einem Video gezeigt:
Im Video werden verschiedene Anwendungsmöglichkeiten vorgestellt, die GPT-4o bietet. Unter anderem erzählt ChatGPT eine Geschichte in verschiedenen Stimmungslagen, fungiert als Live-Übersetzer in einem englisch-italienischen Gespräch und programmiert Code-Beispiele.
Auf dem YouTube-Kanal von OpenAI werden außerdem einige weitere Beispiele gezeigt. Im folgenden Video nutzt ein blinder Mann die KI, um sich seine Umgebung beschreiben zu lassen:
Link zum YouTube-Inhalt
Die natürliche Art zu sprechen und mit Menschen zu interagieren wird besonders in einem Video klargestellt, in dem der OpenAI-Mitarbeiter fragt, ob er gut genug für ein Vorstellungsgespräch bei OpenAI aussieht.
ChatGPT-4o antwortet in diesem Fall sehr humorvoll und versucht trotz offensichtlicher Mankos im Aussehen, freundlich und freundschaftlich zu bleiben. Wenn ihr euch hier an den Film »Her« erinnert fühlt, wundert usn das nicht:
Link zum YouTube-Inhalt
Neben den neuen Sprachfunktionen hat OpenAI auch gezeigt, wie sehr sich die generierten Bilder verbessert haben. GPT-4o kann beispielsweise deutlich besser mit Schrift im Bild umgehen als zuvor:
Wie kann ich GPT-4o nutzen? Laut der offiziellen Ankündigung von OpenAI werden die Funktionen nach und nach freigeschaltet. Die Text- und Bildfunktionen von GPT-4o sollen dabei kostenlos für alle zur Verfügung stehen und in den nächsten Tagen und Wochen zur Verfügung stehen.
Vorerst keine Sprachausgabe: Momentan ist der Sprachassistent noch nicht verfügbar. In einigen Wochen sollen dann vorerst nur ChatGPT-Plus-Nutzer in den Genuss des Sprachassistenten kommen.
Wir gehen davon aus, dass diese Funktion mit einem der nächsten Updates von ChatGPT (zum Beispiel GPT-5) auch für Nutzer zur Verfügung stehen wird, die keinen Premium-Account haben. Offiziell ist das allerdings nicht.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.