Die Videoplattform YouTube reagiert auf die wachsende Flut minderwertiger KI-Inhalte mit einem Maßnahmenpaket. CEO Neal Mohan kündigte im jährlichen Ausblick auf dem YouTube Blog an, dass die Plattform eine »hochwertige Nutzererfahrung sichern will, ohne die kreativen Möglichkeiten künstlicher Intelligenz zu beschneiden«.
Der Kampf gegen »KI-Müll« wird zur Priorität
YouTube steht vor einer Herausforderung, die gewissermaßen das gesamte Internet betrifft: Wie unterscheidet man echte, hochwertige Inhalte von maschinell generiertem Datenmüll? Mohan bezeichnet diese minderwertigen KI-Inhalte als »AI Slop« (dt.: »KI-Müll«) – ein Begriff, der sich für repetitive, automatisiert erzeugte Videos etabliert hat, die in großen Mengen auf Plattformen hochgeladen werden.
55:02
KI fair und transparent? Experten erklären, wo es hakt und was sich ändern muss
Die Plattform setzt hierfür auf »bewährte Systeme«, die bereits erfolgreich gegen Spam und Clickbait eingesetzt wurden.
- Hierfür will YouTube seine etablierten Erkennungssysteme ausbauen. Dabei geht es laut Mohan nicht um ein generelles Verbot von KI-generierten Inhalten, sondern um Qualitätskontrolle.
- Die Plattform hatte bereits im Juli 2025 ihre Richtlinien für das YouTube Partner Programm präzisiert und klargestellt, dass massenproduzierte und repetitive Inhalte nicht monetarisierbar sind.
Als offene Plattform unterstützen wir ein breites Spektrum freier Meinungsäußerung und stellen gleichzeitig sicher, dass YouTube ein Ort bleibt, an dem Menschen sich wohlfühlen
Vier Säulen der KI-Strategie 2026
Mohan skizzierte in seinem Brief vier zentrale Bereiche, in denen YouTube im Jahr 2026 aktiv werden muss.
KI als Kreativwerkzeug
YouTube setzt weiterhin auf KI als Werkzeug für Creator: Im Dezember 2025 nutzten durchschnittlich mehr als eine Million Kanäle täglich die KI-Kreativtools der Plattform. Die Plattform kündigte für das kommende Jahr an, dass Creator in der Lage sein werden, Shorts mit ihrem eigenen Konterfei zu erstellen, Spiele mit einfachen Textbefehlen zu produzieren und mit Musik zu experimentieren.
»Likeness Detection«: Schutz der eigenen Identität
Apropos Konterfei: YouTube baut auf der Grundlage seines Content-ID-Systems ein neues Tool auf, mit dem Creator die Nutzung ihrer Erscheinung in KI-generierten Inhalten verwalten können. Das »Likeness Detection«-System wurde im Oktober 2025 für Partner-Programm-Mitglieder ausgerollt.
Das System funktioniert wie folgt: Inhaltsersteller verifizieren ihre Identität durch ein Selfie-Video und einen Lichtbildausweis. YouTube scannt daraufhin hochgeladene Videos auf der gesamten Plattform, um Auftritte des Gesichts oder der Stimme zu erkennen; speziell um KI-generierte oder manipulierte Darstellungen zu identifizieren.
Wenn ein Video erkannt wird, haben Creator drei Optionen:
- Eine Entfernungsanfrage gemäß YouTubes Datenschutzrichtlinien stellen
- Eine Urheberrechtsbeschwerde einreichen, wenn das Video ihre Originalinhalte ohne Erlaubnis nutzt
- Das Video archivieren oder ignorieren, wenn es sich um legitime Kooperationen oder autorisierte Nutzungen handelt
Link zum YouTube-Inhalt
Transparenz und Deepfake-Schutz
Die Unterscheidung zwischen echten und KI-generierten Inhalten wird zunehmend schwieriger, wie Mohan erklärt – besonders bei Deepfakes. YouTube will mehrere Schutzmechanismen etablieren:
- So kennzeichnet die Plattform Inhalte deutlich, die mit YouTubes eigenen KI-Tools erstellt wurden. Inhaltsersteller müssen offenlegen, wenn sie veränderte oder KI-generierte Inhalte erstellen. Diese Offenlegungspflicht ist bereits seit Mai 2025 aktiv.
- Besonders bei sensiblen Themen wie Wahlen, laufenden Konflikten, Naturkatastrophen, Finanzen oder Gesundheit kann YouTube einen zusätzlichen, prominenteren Hinweis im Video-Player einblenden. Als »schädlich« eingestufte Medien, die gegen die Community-Richtlinien verstoßen, werden entfernt.
Qualitätssicherung gegen minderwertigen Content
»Der Aufstieg der KI hat Bedenken hinsichtlich minderwertiger Inhalte, auch bekannt als ›AI Slop‹, geweckt«, räume Mohan ein. YouTube wolle aus zwei Jahrzehnten Erfahrung gelernt haben und keine vorgefassten Meinungen über das Creator-Ökosystem durchsetzen. Trends, die einst ungewöhnlich erschienen – wie ASMR-Videos oder Let's-Play-Formate –, seien mittlerweile Mainstream-Hits.
Die Plattform setzt daher ihre »etablierten Systeme« zur Spam- und Clickbait-Bekämpfung ein, um die Verbreitung von minderwertigen, repetitiven Inhalten zu reduzieren. Diese Systeme sollen im Kontext der KI-generierten Inhalte im kommenden Jahr aktiv ausgebaut werden, um entsprechende Inhalte erfassen zu können und gegebenenfalls obige Maßnahmen durchzusetzen.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.