»Sie stellen sich nicht der Realität« - Mitbegründer von OpenAI kritisiert Branche für den Hype um KI und Agenten

Er denkt zwar, dass KI die Zukunft sei, doch diese Zukunft sei angeblich weiter weg, als viele Unternehmen behaupten.

Sind KI-Agenten nur ein übertriebener Hype? (Bildquelle: OpenAI | YouTube - Dwarkesh Patel) Sind KI-Agenten nur ein übertriebener Hype? (Bildquelle: OpenAI | YouTube - Dwarkesh Patel)

In einem zweieinhalb Stunden langen Interview mit dem Podcaster Dwarkesh Patel hat Andrej Karpathy – Mitgründer von OpenAI und ehemaliger KI-Chef bei Tesla – die Erwartungen an Künstliche Intelligenz drastisch gedämpft. Seine Botschaft: Die Branche übertreibt, die Technologie ist noch längst nicht da, wo alle behaupten.

Das Jahrzehnt der Agenten – nicht das Jahr

Karpathy reagierte im Podcast auf die These, 2025 sei »das Jahr der KI-Agenten«. Seine Antwort fällt eher ernüchternd aus: »Das ist das Jahrzehnt der Agenten – nicht das Jahr.«

Der Grund? Die aktuellen Agenten wie Claude und Codex seien zwar beeindruckend, aber »es gibt noch so viel Arbeit zu erledigen«. Die Modelle hätten massive kognitive Defizite und funktionierten schlicht noch nicht zuverlässig genug.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von YouTube, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von YouTube angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum YouTube-Inhalt

Die größten Schwächen aktueller KI-Agenten:

  • Kein kontinuierliches Lernen möglich
  • Keine richtige Computer-Nutzung
  • Mangelnde Intelligenz für komplexe Aufgaben

»Insgesamt sind die Modelle noch nicht da. Ich habe das Gefühl, die Industrie macht einen viel zu großen Sprung und versucht so zu tun, als wäre das fantastisch. Ist es aber nicht – es ist Schrott.«

Die Ursache für die übertriebenen Versprechungen sieht er klar im Geld. Als Patel nachfragt, woher der ganze Hype komme, antwortet Karpathy:

»Ein Großteil davon ist ehrlich gesagt nur Fundraising. Es sind einfach Anreizstrukturen. Vieles ist nur Aufmerksamkeit, die im Internet zu Geld gemacht wird.«

Warum Reinforced Learning »schrecklich« ist

Karpathy wird besonders konkret, wenn es um Reinforced Learning (RL) geht – eine Technik, die als Schlüssel für leistungsfähigere KI gilt. Seine Einschätzung: »Reinforced Learning ist schrecklich.«

Das Problem erklärt er so: Beim RL werden hunderte Lösungsversuche parallel durchgeführt. Am Ende wird geprüft, welche zur richtigen Antwort führten – und jeder einzelne Schritt dieser Versuche wird als »richtig« markiert.

Seine Auffassung: Menschen lernen völlig anders. Sie würden nie hunderte Versuche parallel durchführen und erst am Ende bewerten. Stattdessen reflektieren Menschen kontinuierlich, welche Schritte gut waren und welche nicht. Genau da sieht er den Knackpunkt.

AGI? Nicht vor 2035

Karpathys Timeline für echte Künstliche Allgemeine Intelligenz (AGI) ist deutlich konservativer als die meisten Prognosen aus dem Silicon Valley. Er rechnet mit mindestens einem weiteren Jahrzehnt.

»Meine KI-Timelines sind etwa fünf bis zehn Mal pessimistischer als das, was ihr auf einer AI-House-Party in San Francisco oder auf eurer Twitter-Timeline findet.«

Die Begründung: Es gibt noch zu viele fundamentale Probleme zu lösen – von kontinuierlichem Lernen über echte Multimodalität bis hin zu besseren Trainingsmethoden. Und jedes dieser Probleme braucht Zeit.

Eine Milliarde Parameter reichen?

Richtig interessant wird es, wenn Karpathy über die Zukunft der KI-Modelle spricht. Seine These: Wir brauchen kleinere Modelle, nicht größere.

Aktuelle Spitzenmodelle haben Billionen Parameter und speichern massenhaft Wissen. Doch Karpathy meint, dass genau das ein Problem ist: Die Modelle verlassen sich zu sehr auf auswendig gelerntes Wissen, statt echte Intelligenz zu entwickeln.

»Ich habe vor einer Weile vorhergesagt, dass wir kognitive Kerne bekommen können, die selbst mit einer Milliarde Parametern sehr gut sind. In 20 Jahren könnt ihr mit einem Milliarden-Parameter-Modell ein sehr produktives Gespräch führen.«

Diese Modelle müssten dann faktisches Wissen nachschlagen – wie ein Mensch auch. Sie würden wissen, dass sie etwas nicht wissen.

Zum Vergleich: Karpathy spricht von einer Milliarde Parameter als wären es wenig. Und tatsächlich ist das verglichen mit anderen Modellen auch so: GPT-5 hat beispielsweise 175 Milliarden Parameter.

Karpathy schließt mit einer realistischen Perspektive: »Die Modelle sind fantastisch. Sie brauchen noch eine Menge Arbeit. Momentan ist Autocomplete mein Sweet Spot.«

Der Begriff Autocomplete kommt aus der Programmierung, Karpathy nennt ihn als Gegensatz zum Vibe-Coding. Autocomplete schreibt eine Zeile Code für den Entwickler zuende, während Vibe-Coding dafür steht, die gesamte oder meiste Programmierarbeit von KIs erledigen zu lassen.

zu den Kommentaren (3)

Kommentare(3)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.