KI-Bilder und -Videos sind mittlerweile so weitverbreitet, dass euch auf YouTube, TikTok, Instagram und Co. wahrscheinlich mehrere am Tag begegnen.
Doch die Bild- und Video-KIs werden immer stärker. Dafür sorgen KI-Modelle wie beispielsweise Sora 2 von OpenAI oder auch das neueste Update von Googles Bildbearbeitungs-KI Nano Banana (Pro).
Das geht so weit, dass Nano Banana mittlerweile sogar eine Handschrift anhand eines kleinen Beispiels gut fälschen kann, wenn auch nicht perfekt.
Für uns ist das Anlass, euch einen ausführlichen Guide bereitzustellen, in dem wir euch so viele Hinweise auf Merkmale von KI-Bildern und -Videos geben wie möglich.
50:25
Stimme von KI-Firma geklaut! Leben wir schon in einer Dystopie?
Die größten Probleme beim Erkennen von KI-Inhalten
Es gibt einige Tipps und Tricks, wie ihr erkennen könnt, dass ihr keine von Menschen gemachten Inhalte seht und zu denen kommen wir auch gleich. Ihr solltet dennoch die folgenden Dinge im Hinterkopf behalten:
- KI entwickelt sich unheimlich schnell: Tipps, die heute noch gelten, können morgen schon überholt sein.
- Qualität variiert stark: Während manche KI-Bilder auf den ersten Blick erkennbar sind, können andere täuschend echt wirken. Es gibt kein einheitliches Qualitätsniveau.
- Es kommt auf den Macher an: Je besser sich jemand auskennt und von den Schwächen seines KI-Modells weiß, desto eher kann die Person diese vermeiden, kaschieren oder ausgleichen.
- Gemischte Inhalte: Wenn reale beziehungsweise menschengemachte Inhalte mit KI kombiniert werden, können sie je nachdem noch viel schwieriger erkennbar sein.
- Verschiedene KI-Modelle, verschiedene Schwächen: Was bei Midjourney ein typisches Erkennungsmerkmal ist, gilt nicht unbedingt für ChatGPT, Nano Banana oder andere Modelle.
Nachdem wir über die Schwierigkeiten beim Erkennen gesprochen haben, kommen wir zu den gegenteiligen Hinweisen. Denn auch wenn es einem so vorkommen kann, ist natürlich nicht alles im Netz KI-generiert.
Es finden sich beispielsweise einige Künstler auf diversen Plattformen, die sich mit Kommentaren und Hass konfrontiert sehen, weil sie angeblich KI-Kunst hochladen, obwohl sie »echte« Künstler sind. Es ist also auch gut zu wissen, wann man sich mit dem Verdacht auf KI-Inhalte zurückhält:
- Kontext ist entscheidend: Ein unscharfes oder merkwürdig aussehendes Detail kann auch einfach ein schlechtes Foto, eine ungünstige Perspektive, ein Kompressionsartefakt oder Absicht sein – nicht jede Anomalie deutet auf KI hin.
- Künstlerische Stile: Manchmal sehen menschengemachte Kunstwerke absichtlich surreal oder »perfekt« aus, während KI-Inhalte bewusst mit Imperfektion versehen werden können, um echter zu wirken.
- Bestätigungsfehler: Wenn wir nach KI-Merkmalen suchen, finden wir sie manchmal auch dort, wo gar keine sind.
Jetzt, wo wir das Vorgeplänkel aus dem Weg geschafft haben, kommen wir zu den tatsächlichen Tipps zum Erkennen von KI-Inhalten. Auf der nächsten Seite geht’s weiter.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.