Wir beginnen mit den offensichtlichen Anzeichen für KI-Inhalte und arbeiten uns langsam zu den schwierig erkennbaren Merkmalen vor. Außerdem gibt es noch ein paar weitere Tricks, die ihr anwenden könnt und die nichts damit zu tun haben, die Inhalte genau anzuschauen.
Wasserzeichen
Es beginnt äußerst simpel: Wenn ihr ein Wasserzeichen von Sora seht, könnt ihr euch sicher sein, dass es sich um ein KI-Video handelt. Es steht ja immerhin direkt drauf und springt sogar im Bild hin und her.
Leider gibt es Methoden, wie dieses Wasserzeichen entfernt werden kann, zum Beispiel durch geschickte Videobearbeitung. Deswegen werdet ihr kaum Videos finden, die sich offensichtlich als KI-generiert outen.
Beispiel:
Link zum YouTube-Inhalt
Physisch unmögliche Vorgänge
Es kommt häufig vor, dass Videoinhalte in der realen Welt einfach nicht möglich sind.
Vielleicht habt ihr schon mal ein Video gesehen, in dem jemand eine Glasfrucht mit einem Messer zerschneidet. Das ist so leicht natürlich nicht möglich und ein gut erkennbares Zeichen, dass es sich um ein KI-Video handelt.
Es gibt noch unzählige Beispiele für physisch unmögliche KI-Videos, unter anderem Lava auf einem Untergrund, der nicht Feuer fängt oder aus Honig gefertigte Tastaturen und vieles mehr.
Das wird oftmals von weiteren unlogischen Abfolgen unterstrichen. Im Video unten seht ihr beispielsweise, dass das Glas nach dem Schneiden manchmal eher nach einer Art Gelee aussieht.
Das hilft auch beim Unterschieden zwischen KI-Inhalten und unrealistisch anmutender und dennoch menschengemachter 3D-Animation. Ein Mensch würde solche Logikfehler höchstwahrscheinlich nicht einbauen.
Beispiel:
Link zum YouTube-Inhalt
Nicht identifizierbare Schriftzeichen und Sprachen
Viele (ältere) KI-Modelle haben sowohl bei Videos als auch bei Bildern Schwierigkeiten, Schriftzeichen erkennbar darzustellen oder lesbare Zeichen zu sinnvollen und existierenden Wörtern zu formen.
Das gilt allerdings nicht für alle Modelle. Je neuer das Modell, desto besser beherrscht die KI im Normfall Texte und Schrift.
Dennoch: Wenn ihr seltsame Schrift seht, die ihr nicht identifizieren könnt, handelt es sich höchstwahrscheinlich um KI – oder eine furchtbar schlechte Handschrift.
Beispiel:
Fehlerhafte Hände
Sowohl in KI-generierten Bildern als auch in Videos kommt es vor, dass Hände fehlerhaft sind. Sie haben oftmals zu viele Finger, sind unlogisch überkreuzt oder ergeben schlicht gesagt gar keinen Sinn. Es kommt auch vor, dass zu viele Hände oder Arme dargestellt werden.
Doch dabei handelt es sich um ein aussterbendes Zeichen von KI-Inhalten, da die Modelle immer besser im Darstellen von Händen werden.
Beispiel:
Inkonsistente Darstellung einheitlicher Grafiken
Wenn beispielsweise Symbole oder sich wiederholende Muster dargestellt werden, schleichen sich häufig Fehler ein. Diese können extrem auffällig, aber auch sehr subtil sein.
Beispiel:
Logikfehler und unnatürliches Verhalten
Wir wagen uns langsam in die etwas kniffliger zu erkennenden Merkmale vor. Manchmal sieht ein Inhalt sehr realistisch aus und doch stimmt etwas nicht.
Das kann die verschiedensten Formen annehmen und kann mit den bereits erwähnten physikalischen Unmöglichkeiten einhergehen. Stellt euch am besten die Frage: Würde das in der Realität wirklich so passieren?
Im Beispiel unten seht ihr einen Bären, der auf einem Trampolin hüpft. Das ist an sich schon sehr unwahrscheinlich. Hinzu kommt die Tatsache, dass sich der Ball auf dem Trampolin bewegen müsste. Tut er aber nicht.
Link zum TikTok-Inhalt
Außerdem sinkt der Bär nicht tief genug in das Trampolin ein, dafür dass ein Bär mehrere hundert Kilogramm wiegen kann:
Logikfehler gibt es nicht nur in Videos. Unten seht ihr einen Comic, der sich um ein iPhone drehen soll. Abgesehen von dem ohnehin sehr unlogischen Text, erscheint die Frau in einem Panel zweimal:
Typische KI-Stile
»Typische KI-Stile« sind für manche Menschen leicht ersichtlich und für andere eher weniger. Das hängt von diversen Faktoren ab. Der Entscheidende dürfte allerdings sein, inwiefern ihr euch bereits mit KI-Inhalten auseinandergesetzt habt.
Es gibt zahlreiche KI-typische »Stile«, die nicht unbedingt fehlerhaft und dennoch ein Zeichen für KI sind. Das heißt allerdings nicht, dass jedes KI-Bild oder jedes Video alle diese Stile nutzen.
Da ihr die Stile am besten selbst seht, um zu wissen, was wir meinen, folgen hier ein paar typische KI-Stile und ein jeweiliges Beispiel dazu:
Detailarme Comics mit Knopfaugen: Ein Nutzer auf Reddit zeigt einen kleinen Comic, den er generiert hat, und er ist das perfekte Beispiel.
Man beachte die dicken und gleichmäßigen Linien, den körnigen Look und die Knopfaugen:
Link zum Reddit-Inhalt
Kamera- und Bildqualität
Heutzutage haben die meisten Menschen, die Videos hochladen, Zugriff auf ausgezeichnete Kameras, denn Smartphones sind mittlerweile gut ausgestattet.
KI-Videos sind hingegen oftmals verpixelt oder haben teilweise scharfe und teilweise unscharfe/verpixelte Stellen, je nach KI-Modell. Die Kameraqualität kann also durchaus ein Zeichen für KI-Inhalte sein.
Das gilt nicht für alle qualitativ schlechten Videos. Auch hier müsst ihr wieder mit Logik arbeiten: Wie hoch ist die Wahrscheinlichkeit, dass ein Video, das anscheinend in einem schönen Wohnhaus und mit einem Smartphone gedreht wurde, eine schlechte Qualität hat? Nicht so hoch.
Das Video einer Überwachungskamera hingegen kann schon eher schlechte Qualität haben.
Beispiel:
Hier seht ihr eine KI-generierte Comedy-Show, deren Bildqualität für eine professionell gedrehte Sendung vor Publikum eine eindeutig zu geringe Qualität hat:
Link zum Reddit-Inhalt
Verzerrungen in Videos
Es wird immer kniffliger: In KI-Videos kommt es gerne mal vor, dass bewegte Objekte verzerrt werden. Das könnt ihr euch ungefähr so vorstellen, als würdet ihr ein unverzerrtes Video durch ein Glas (zum Trinken) schauen. Das ist aber so minimalistisch, dass ihr wirklich ganz genau hinschauen müsst.
Im unteren Video seht ihr, dass sich vor allem der pinkfarbene Pullover des Chihuahuas verzerrt.
Beispiel:
Link zum TikTok-Inhalt
So etwas zu erkennen, kann hart sein und braucht etwas Übung. Oftmals hat man beim Schauen das Gefühl, als wäre etwas nicht ganz richtig, ohne zu wissen, was es genau ist – ein häufiges Phänomen bei KI-Inhalten.
Dasselbe gilt beim folgenden KI-Merkmal.
Texturrauschen
Ähnlich wie bei den Verzerrungen seht ihr Texturrauschen größtenteils bei bewegten Objekten oder auf nicht bewegten Oberflächen, wenn die Kamera schwenkt.
Es lässt sich am ehesten als Unruhe in eigentlich ruhigen Oberflächen beschreiben. Ihr könnt das Rauschen unter anderem häufig in Fellen von KI-generierten Tieren beobachten.
Achtet beim folgenden Beispiel auf die Treppenstufen. Das Teppichmuster scheint sich zu verformen.
Beispiel:
Link zum TikTok-Inhalt
Auf der folgenden Seite erfahrt ihr, was ihr tun könnt, wenn ihr mit bloßem Auge nicht weiterkommt.
Nicht sicher, ob etwas KI ist? Das könnt ihr tun
Manchmal kann man sich trotz all dem angeeigneten Wissen um KI nicht sicher sein, ob man gerade generierte Inhalte vor sich hat oder nicht. Auch dann seid ihr nicht hilflos.
Schaut euch andere Inhalte auf den jeweiligen Accounts an
Es kann so einfach sein: Wenn ihr einen Blick auf den jeweiligen Account werft, dessen Inhalt ihr gerade anschaut, wird meist schnell klar, ob es sich um KI handelt. Das kann mehrere Gründe haben:
- Offene Angaben: Es gibt einige Accounts, die zwar KI-Inhalte hochladen, dies aber nicht unbedingt verstecken. Ein Blick in die Profilbeschreibung kann schon ausreichen. Dort findet ihr Stichworte wie »KI-Künstler«, (englisch: »AI-Artist«) oder »KI-Modell« und so weiter.
- Andere Inhalte: Wenn ein Account weniger offen mit der Natur seines Contents umgeht, schaut euch andere Inhalte des Accounts an. Meistens sind die Videos und Bilder qualitativ inkonsistent, sodass ihr schnell erkennt, ob auf einem Profil viel oder ausschließlich KI verwendet wird.
- Kommentare: Viele Plattformen, auf denen euch KI-Bilder und -Videos begegnen, haben eine Kommentarfunktion. Wenn es sich um KI-Inhalte handelt, finden sich oftmals Personen, die genau das kommentieren. Diese Kommentare solltet ihr allerdings mit Vorsicht genießen, da sie nicht immer korrekt sind und es vorkommt, dass menschliche Künstler beschuldigt werden, KI-Kunst hochzuladen.
Gibt es Tools zum Erkennen von KI-Inhalten?
Es gibt zwar Tools und Webseiten, die euch helfen wollen, KI-Inhalte zu erkennen, doch sie sind sehr umstritten. Gerade im Video- und Bildbereich gibt es momentan noch keine Anwendungen, die euch wirklich zuverlässig helfen können. Zumindest, wenn ihr euch nicht in Unkosten stürzen wollt.
Wenn es um Videos geht, spezialisieren sich die meisten Tools auf Deepfakes. Das kann zweifelsohne praktisch sein, doch es hilft nicht bei ausschließlich KI-generierten Inhalten.
Wenn ihr trotzdem Interesse habt, empfehlen wir euch diesen Artikel von dev.to, der sich bereits mit einigen Tools auseinandergesetzt hat, aber ebenfalls betont, dass keines davon perfekt ist.
Zu guter Letzt: Bleibt auf dem neuesten Stand
Am Anfang des Artikels haben wir erwähnt, wie schnell sich KI weiterentwickelt. Es ist also am besten, wenn ihr euch auf dem Laufenden haltet.
Dafür könnt ihr in Zukunft immer wieder hier vorbeischauen, denn wir werden den Artikel mit der Zeit erweitern und aktualisieren.
Wir haben etwas vergessen? Dann schreibt es uns in die Kommentare! Berichtet uns gerne, welche Videos und Bilder euch getäuscht haben und wie ihr es dann doch entdeckt habt.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.