50% aufs erste Jahr – nur für kurze Zeit!

50% aufs erste Jahr – nur für kurze Zeit!

Das erschreckendste an den Killer-Robotern in Arc Raiders: Sie brachten sich das Laufen selbst bei und starben dabei zehntausende Male

Die Roboter-Gegner in Arc Raiders bewegen sich beunruhigend realistisch. Dahinter steckt eine KI, die durch unzählige Tode das Laufen selbst lernte.

Arc Raiders zeigt, wie man KI in Spielen nutzen kann, ohne die Immersion zu zerstören – ganz im Gegenteil! Arc Raiders zeigt, wie man KI in Spielen nutzen kann, ohne die Immersion zu zerstören – ganz im Gegenteil!

Habt ihr an den Playtests von Arc Raiders teilgenommen? Dann ist euch garantiert aufgefallen, dass sich die mechanischen Gegner im kommenden Extraction Shooter beunruhigend realistisch bewegen.

Dahinter steckt allerdings kein klassisches Animations-Team, sondern eine KI, die durch unzählige Fehlschläge gelernt hat, wie ein Lebewesen zu agieren.

Was ist das Besondere an dieser KI?

Statt auf handgefertigte Animationen für jede mögliche Bewegung zu setzen, verfolgt Embark Studios einen radikal anderen Ansatz: physikalisch basiertes Reinforcement Learning. In einem Blog-Post erklärt Tom Solberg vom Machine-Learning-Team des Studios die Funktionsweise. Die Roboter in Arc Raiders sind KI-Agenten, die ihren eigenen Körper und die Welt um sich herum wahrnehmen.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Imgur, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Imgur angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Imgur-Inhalt

Sie lernen das Laufen von Grund auf, indem sie für die richtigen Aktionen belohnt werden – Solberg vergleicht es mit dem Verteilen von virtuellen Hundeleckerlis. Das Ziel ist es, eine Bewegung zu erzeugen, die sich jederzeit lebensecht anfühlt. Statt starre, vorgefertigte Animationen abzuspulen, entscheiden die Roboter in Echtzeit, wie sie ihre Beine in den nächsten Frames bewegen müssen.

Die Gegner reagieren damit dynamisch auf jede Situation: Stolpert ein Roboter über einen Felsen, wird er von einer Explosion erfasst oder von euch angeschossen, passt er seine Bewegungen sofort an, um die Balance wiederzuerlangen. Es gibt keine seltsamen Übergänge zwischen Posen oder unnatürliche Ragdoll-Effekte mehr. Jeder Zusammenstoß und jeder Treffer erzeugt eine glaubwürdige, physikalisch korrekte Reaktion.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Imgur, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Imgur angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Imgur-Inhalt

Die Rolle der Entwickler ändert sich komplett

Diese neue Technologie krempelt den traditionellen Arbeitsablauf für Spieldesigner und Animatoren vollständig um. Anstatt Bewegungsabläufe Frame für Frame zu erstellen, werden Animatoren zu Trainern der KI. Ihre Aufgabe ist es nicht mehr, Animationskurven zu zeichnen, sondern der KI die gewünschten Verhaltensweisen beizubringen.

Ähnlich wie ein Choreograf leiten sie das Gefühl und die Absicht der finalen Bewegung, anstatt jedes Bein selbst zu bewegen, erklärt Solberg. Sie achten auf Details wie die Glaubwürdigkeit der Bewegungen. Spieldesigner können ebenfalls keine exakten Manöver mehr vorskripten. Stattdessen geben sie der KI Ziele und Anweisungen vor, die der Agent dann auf Basis seines Trainings bestmöglich zu erfüllen versucht.

Video starten 18:35 Ein ganzes Match in Arc Raiders: Wir looten, finden Freunde und trotzdem gibt‘s kein Happy End

Der Weg zu diesem Ergebnis war jedoch alles andere als einfach: Unzählige Male sind die KI-Agenten gestolpert, gefallen und gestorben, bis sie stabile und effektive Laufbewegungen verinnerlicht hatten. Die Entwickler mussten dafür eine eigene Machine-Learning-Plattform und entsprechende Plugins für die Unreal Engine entwickeln.

Eine besondere Hürde stellte dabei die Physik-Engine dar. Während Forschungsprojekte oft auf wissenschaftlich exakte Simulationen setzen, sind Game-Engines darauf optimiert, für hohe Bildraten Kompromisse bei der physikalischen Korrektheit einzugehen. Das Team musste also zusätzliche Schichten um die Physik-Engine bauen, um die gewünschten, präzisen Ergebnisse zu erzielen.

Das Ergebnis dieser jahrelangen Arbeit sind Gegner, die sich wie lebendige Wesen anfühlen, die auf ihre Umgebung reagieren. Diese Technologie führt zu sogenanntem emergentem Gameplay – also einzigartigen Spielmomenten, die selbst die Entwickler nicht vorhersehen konnten, weil sie eben nicht von ihnen geskriptet wurden.

zu den Kommentaren (2)

Kommentare(2)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.