Ein verschlafener Donnerstagabend an der Stanford University im Jahr 2000. Der Student Ian Buck sitzt vor einem unmöglich wirkenden Problem: Quake 3 in echter 8K-Auflösung spielen. Nicht einfach spielen – sondern auf acht Projektoren gleichzeitig rendern.
Seine Lösung schwankte zwischen dem sprichwörtlichen Genie und Wahnsinn: Er verband 32 Nvidia-Geforce-Grafikkarten zu einer Renderfarm. Was wie eine simple Episode eines ambitionierten Nerds klingt, setzte aber den Samen für eine der wertvollsten Technologien des 21. Jahrhunderts. Denn Bucks Idee sollte den Weg für Nvidias CUDA-Technologie ebnen – der Plattform, die heute das Rückgrat nahezu aller großen KI-Systeme bildet.
31:56
Teurer als je zuvor: Fällt Gaming-Weihnachten dieses Jahr aus?
Von der Spielerei zur wissenschaftlichen Vision
Für Buck war das Quake-3-Experiment ein Wendepunkt. Er erkannte etwas, das damals kaum jemand verstand: Grafikprozessoren könnten weit mehr als nur Dreiecke zeichnen – sie könnten universelle Rechenmaschinen werden. Mit dieser Einsicht taucht der Informatik-Student tief in die technischen Spezifikationen von Nvidias Chips ein und startet sein Doktorandenprojekt (via Xataka).
- Das Ergebnis: Gemeinsam mit einer kleinen Forschergruppe und unterstützt durch ein DARPA-Stipendium, entwickelt Buck eine quelloffene Programmiersprache namens »Brook«. Dieser Sprache gelange es, Grafikkarten in dezentrale Supercomputer zu verwandeln.
- Plötzlich war es möglich, auf GPUs parallele Berechnungen auszuführen, etwa indem eine Einheit Polygon A beleuchtete, eine andere Polygon B rasterte und eine dritte die Daten speicherte.
Ein Paper mit dem Titel »Brook for GPUs: stream computing on graphics hardware« (abrufbar via Stanford University) folgte – und zog die Aufmerksamkeit einer bestimmten Person auf sich: Nvidia-Gründer Jensen Huang. Dieser erkannte sofort, dass hier ein Riesenpotenzial schlummerte und holte Buck direkt zu Nvidia.
Die Geburtsstunde von CUDA
Das Jahr 2005: Das Unternehmen Silicon Graphics kollabiert – zermürbt von Nvidia. Heutzutage bleibt nur noch die OpenGL-Spezifikation von dem US-amerikanischen Computerhersteller übrig.
Etwa 1.200 ehemalige SGI-Mitarbeiter strömten damals gewissermaßen in die Nvidia-Forschungsabteilung. Unter ihnen: John Nickolls, ein Pionier der Parallelverarbeitung, dessen früheres Projekt zwar gescheitert war, der aber nun an Bucks Seite ein neues Projekt formte.
- Dieses Projekt erhielt einen Namen, der anfangs mehr Verwirrung als Aufklärung stiftete: »Compute Unified Domain Architecture«, kurz CUDA.
- Im November 2006 veröffentlichte NVIDIA die erste Version dieser kostenlosen Software – allerdings exklusiv für eigene Hardware-Partner.
Die anfängliche Euphorie verpuffte schnell. 2007 wurde CUDA gerade 13.000-mal heruntergeladen. Die Millionen Nvidia-Nutzer wollten ihre Grafikkarten ausschließlich zum Spielen verwenden. CUDA-Programmierung erwies sich als komplex, die Investition schien kaum rentabel. Auch intern zehrte das Projekt erhebliche Ressourcen auf, ohne nennenswerte Resultate zu bringen.
Der lange Weg zur KI-Revolution
In den ersten Jahren entwickelte sich CUDA sicherlich nicht zur KI-Technologie – von Künstlicher Intelligenz konnte damals kaum eine Rede sein. Stattdessen waren es Forschungslabore und wissenschaftliche Institute, die CUDA nutzten.
Buck selbst hatte aber bereits 2009 im Interview mit Tom's Hardware eine Ahnung, wohin die Reise gehen könnte:
Wir werden Möglichkeiten in persönlichen Medien sehen, etwa Bild- und Foto-Klassifizierung basierend auf Inhalt – Gesichter, Orte – Operationen, die enorme Rechenleistung erfordern.
Ob Buck sich die folgenden Jahre damit perfekt ausgemalt hat, bleibt euch überlassen. Allzu lange warten musste er zumindest bei seiner Ahnung nicht.
- 2012 präsentierten die beiden Doktoranden namens Alex Krizhevsky und Ilya Sutskever unter der Anleitung von Geoffrey Hinton ein Projekt namens »AlexNet«.
- Diese Software konnte Bilder automatisch nach ihrem Inhalt klassifizieren – eine Idee, die zuvor als rechnerisch unmöglich galt.
Das Entscheidende: Sie trainierten dieses neuronale Netzwerk auf NVIDIA-Grafikkarten mit CUDA-Software.
Spätestens zu diesem Zeitpunkt verschmolzen zwei Welten. CUDA und Künstliche Intelligenz ergaben plötzlich Sinn. Der Rest ist Geschichte: Aus einer absurden Idee eines Stanford-Studenten wurde die Technologie, auf der heute Millionen KI-Systeme laufen – und die NVIDIA zur wertvollsten Tech-Firma der Welt machte.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.