Bis Ende des Jahres wird OpenAI eine Million Grafikkarten für ChatGPT nutzen, aber das ist erst der Anfang

OpenAI treibt den Ausbau der KI-Infrastruktur weiter voran und verkündet jetzt einen weiteren Meilenstein.

Sam Altman und OpenAI haben weiter große Pläne. (Quelle: TechCrunch, lizenziert nach CC BY 2.0) Sam Altman und OpenAI haben weiter große Pläne. (Quelle: TechCrunch, lizenziert nach CC BY 2.0)

Künstliche Intelligenz ist weiter auf dem Vormarsch. OpenAI-Chef Sam Altman hat jetzt verkündet, dass sein Unternehmen noch bis Ende des Jahres einen weiteren Meilenstein erreichen wird. Eine Million Grafikkarten sollen dann in Betrieb genommen sein.

OpenAI steuert auf eine Million Grafikkarten zu

KI ist seit Monaten das alles beherrschende Thema in der Tech-Branche und wird das wohl auch noch auf weitere Zeit bleiben. OpenAI-Chef Sam Altman hat in einem Post auf X kürzlich ein neues Hintergrund-Update gegeben.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Twitter, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Twitter angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Twitter-Inhalt

Er schreibt dabei, dass OpenAI bis Ende des Jahres mehr als eine Million GPUs online gebracht haben wird. Er fügt sogar an, dass als Nächstes nach einem Weg gesucht werden muss, diese Zahl noch zu verhundertfachen.

Was steckt dahinter? Grafikkarten sind das Herzstück beim Training und Betrieb von KI, insbesondere von großen Sprachmodellen wie GPT-4 oder den Nachfolgern. Obwohl GPUs eigentlich für die Bildverarbeitung gedacht sind, eignen sie sich aber auch hervorragend für parallele Rechenoperationen, was beim Training von KI-Modellen essenziell ist.

Video starten 2:30 ChatGPT Agent: OpenAI stellt das neue KI-Feature vor

Sowohl das Training als auch der alltägliche Betrieb und Echtzeit-Anwendungen verbrauchen extrem viel Rechenleistung. Ein einziges High-End-KI-System verwendet im Training Zehntausende GPUs gleichzeitig.

Nur der Anfang: Altman hängt zwar ein »lol« an seine Aussage, dass diese Zahl nun verhundertfacht werden müsse, völlig abwegig ist das aber offenbar nicht. Unter dem Codenamen »Stargate« arbeiten OpenAI und Microsoft an einem riesigen Rechenzentrum in den USA, das das größte KI-Rechenzentrum der Welt werden und 2028 in Betrieb gehen soll.

Der Tweet kann als Signal von Altman gelesen werden, wie groß OpenAIs Ambitionen wirklich sind und wie gigantisch der Energie- und Rechenbedarf der nächsten KI-Modelle sein wird.

Schlechte Nachrichten für Spieler? Der große KI-Bedarf in der KI-Branche kann sich durchaus negativ auf den Gaming-Markt auswirken. Hersteller wie NVIDIA verdienen deutlich mehr Geld mit speziell auf KI optimierten Modellen, wodurch neue Gaming-Karten in geringeren Mengen und zu höheren Preisen produziert werden könnten.

zu den Kommentaren (1)

Kommentare(1)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.