KI-Videos sind viel besser als letztes Jahr, aber Will Smith hat euch trotzdem veräppelt

Gruselige Videos von Will Smith in denen er Spaghetti isst, kursieren im Netz. Hat der Schauspieler auch euch hinters Licht geführt?

Hat Will Smith auch euch mit Spaghetti veräppelt? (Bild: Adobe Stock - gkrphoto ) Hat Will Smith auch euch mit Spaghetti veräppelt? (Bild: Adobe Stock - gkrphoto )

Update vom 28. Februar: Wir haben die Geschichte um eine Antwort einer X-Nutzerin erweitert.

Werden euch in letzter Zeit immer wieder dieselben zwei Videos auf euren Social Media Plattformen gezeigt, die Will Smith zeigen, wie er wild Spaghetti isst? Damit seid ihr nicht allein.

Eines davon ist eindeutig KI-generiert, stammt aus dem letzten Jahr und sieht beinahe furchteinflößend aus. Das andere Video zeigt ihn ebenfalls dabei wie er Spaghetti isst, doch es sieht um ein vielfaches realistischer aus. 

Damit soll oftmals gezeigt werden, wie weit KI-generierte Videos in nur einem Jahr gekommen sind. Doch Will Smith führt euch an der Nase herum.

Hier seht ihr was gemeint ist:

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Twitter, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Twitter angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Twitter-Inhalt

Keep my Spaghetti outta your Mouth

Was ist passiert? Vor ein paar Tagen hat OpenAI, das Unternehmen hinter ChatGPT, ein neues KI-Tool für Videogenerierung vorgestellt: Sora.

Dabei handelt es sich um eine KI, die anhand eines Satzes, Bildes oder anderen Videos eine fotorealistische Szene erstellen oder erweitern kann. Das gab es zwar schon zuvor, doch keine Video-KI war bisher so mächtig wie Sora.

Das hat dafür gesorgt, dass die Social Media-Plattformen geradezu mit Sora-Videos überschwemmt wurden.

Will Smith führt euch hinters Licht: Zu einem dieser vielen Videos gehören die oben verlinkten Spaghetti-Videos von Will Smith, die vielfach als Paradebeispiel für die Videoqualität von Sora genutzt wurden. 

Doch es gibt einen Haken: Das »realistische KI-Video« ist überhaupt nicht von einer KI generiert worden. Will Smith selbst hat es auf Instagram gepostet, um sich ein wenig über den aktuellen Trend lustig zu machen.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Twitter, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Twitter angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Twitter-Inhalt

Warum macht sich Will Smith über KI-Trends lustig? Der Grund ist einfacher und weniger übellaunig, als ihr vielleicht denkt. 

Es liegt hauptsächlich an dem leicht gruseligen Video von Will Smith, dass im Gegensatz zu dem neuen Video wirklich von KI generiert wurde. Es hat letztes Jahr für viel Aufsehen gesorgt und ist im Rahmen der Ankündigung von Sora wieder massenhaft gepostet worden.

Daraufhin hat Will Smith anscheinend beschlossen, ein wenig Schabernack zu treiben - mit vollem Erfolg. 

Viele hielten das Video für KI generiert. Auch ihr? Lasst es uns gerne in den Kommentaren wissen.

ADieses Bild stammt aus einem Video, dass mit Sora generiert wurde. Der Hund im Bild existiert also nicht wirklich. (Bild: OpenAI) ADieses Bild stammt aus einem Video, dass mit Sora generiert wurde. Der Hund im Bild existiert also nicht wirklich. (Bild: OpenAI)

Doch damit noch nicht alles: Auf den Spaß mit dem Spaghetti-Video hat Justin Moore auf X Retoure gegeben. Sie hat daraufhin ein neues Video von Will Smith und Spaghetti gemacht - diesmal eindeutig von KI erschaffen, doch es sieht trotzdem um ein vielfaches besser aus, als das Video vom letzten Jahr.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Twitter, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Twitter angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Twitter-Inhalt

Warum ist Sora so gut? Das liegt vor allem daran, dass Sora sich Eigenschaften von Objekten merken kann, die aus dem Bild verschwinden. Bisher haben sich Objekte stark verändert, wenn sie kurz nicht zu sehen waren.

Ein weiteres Problem, das Sora beinahe gelöst zu haben scheint, ist der stetige Wandel, in dem sich KI-Videos zuvor befanden. Es wurden in derselben Szene also immer wieder Hintergründe und Charaktere neu erstellt, die dann mal mehr, mal weniger unterschiedlich aussahen. 

Doch mittlerweile kommt Sora sogar an Will Smiths reales Video heran - zumindest sehr nahe.

Hier seht ihr ein Video, dass von Sora generiert wurde und einen extrem fotorealistischen Menschen zeigt:

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Twitter, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Twitter angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Twitter-Inhalt

Welche Gefahren birgt Sora

Was sich Will Smith erlaubt hat, war ein mehr oder weniger unschuldiger Scherz, der von anderen unwissentlich weitergetragen wurde. Doch wo starke neue Technologien aufkommen, wird es auch immer Menschen geben, die sie zu ihrem Vorteil und zu anderer Leute Nachteil einsetzen werden.

Eine KI, die so leicht realistische Videos machen kann, wird mit an Sicherheit grenzender Wahrscheinlichkeit Betrüger oder andere Tunichtgute zu neuen Missetaten motivieren. 

Deepfakes sind bereits jetzt ein Problem und je realistischer die Videos, desto gefährlicher können sie potenziell sein. Zum Beispiel könnten manche Menschen kriminalisierende Videos von jemandem erstellen, dem sie aus irgendeinem Grund schaden wollen und sie dann im Netz verbreiten. Und das ist nur ein Anwendungsfall von vielen.

Doch es gibt auch Lösungen für das Problem: Firmen wie Adobe, Microsoft, BBC, Google und viele mehr haben sich im Jahr 2021 bereits zusammengeschlossen, um an dem sogenannten C2PA-Standard zu arbeiten. 

Das ist eine Art digitales Wasserzeichen, das klarmachen soll, dass es sich bei den angezeigten Bildern und Videos um KI-generierte Inhalte handelt.

Anders als ein herkömmliches Wasserzeichen soll diese Information nicht im Inhalt selbst zu sehen sein, sondern in den Metadaten gespeichert werden. So könnte jede Plattform eine Anzeige einrichten, die automatisch darauf hinweist, dass es sich bei Beitrag X um KI-Inhalte handelt.

Doch diese Technologie kann leider mit einfachsten Methoden umgangen werden. Zum Beispiel kann man einfach einen Screenshot von KI-Inhalten machen. So wäre in den Metadaten nichts von KI-Generierung zu finden. 

zu den Kommentaren (14)

Kommentare(12)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.