Lernende KIs werden oft mit Daten gefüttert, deren Urheberrechte nicht geklärt oder schlicht übergangen wurden. Das kann zu rechtlichen Problemen führen, wollt ihr dieses generierte Material etwa kommerziell nutzen.
Diese KIs beuten außerdem geistiges Eigentum anderer aus und erstellen auf dieser Grundlage neue Inhalte. Gerade Künstler, Fotografen oder Autoren sehen das mehr als kritisch.
Bislang war es für Außenstehende nahezu unmöglich, KI-Modelle auf deren Legalität zu überprüfen. Jetzt will die Non-Profit-Organisation Fairly Trained
anderen Unternehmen ein Label verleihen, was die Sauberkeit
nachvollziehbar macht.
Dafür prüfen sie, ob die jeweiligen Firmen bei jedem ihrer Inhalte geklärt haben, ob der Urheber damit einverstanden ist, dass die KI mit ihrem Inhalt gefüttert wird.
Ein wichtiger Schritt: Nur so werden Urheber besser vor Ausbeutung geschützt
Laut The Verge vergibt Fairly Trained ihre Beglaubigung nur bei korrekt eingeholten und geschützten Daten. Entwickler, welche sich auf das Argument der fairen Nutzung (im Englischen: Fair Use) verlassen, werden davon ausgeschlossen.
Fair Use: Das ist ein Begriff aus dem amerikanischen Urheberrecht. Dabei geht es darum, urheberrechtlich geschütztes Material unter bestimmten Umständen ohne die Zustimmung der Urheber zu verwenden.
Das Ziel ist es eigentlich, eine ausgewogene Balance zwischen den Interessen der Urheber und dem Interesse der Öffentlichkeit zu schaffen. Viele Entwickler argumentieren deshalb, dass die faire Nutzung zum Wohle der Allgemeinheit überwiegt und übergehen deshalb die Urheberrechte Einzelner.
In einem Blog-Eintrag vom 17. Januar 2024 schreibt Fairly Trained, dass sie ihr neues Zertifikat für neun generative KIs ausstellen konnten, welche geprüfte Musik-, Bild- und Stimme-Generatoren beinhalten.
Betroffen sind:
- Beatoven.AI
- Boomy
- BRIA AI
- Endel
- LifeScore
- Rightsify
- Somms.ai
- Soundful
- Tuney
Wird sich das Zertifikat durchsetzen?
Ob sich dieses Modell final in der Praxis durchsetzen wird, wird sich zeigen. KI-Modelle, die bereits mit ungeklärtem Material gefüttert wurden, müssten also noch einmal von vorne lernen, um dieses Zertifikat zu erhalten. Das würde für die entsprechenden Entwickler Aufwand, Zeit und Geld bedeuten.
Am Beispiel von Open AI (ChatGPT) sieht man recht deutlich, welche Priorität der Faktor Fairness einnimmt. Die Firma wurde in der Vergangenheit mehrfach wegen Urheberrechtsverletzung verklagt, da sie sich die entsprechende Erlaubnis nicht einholten.
Inwiefern dieses Zertifikat die Probleme löst, die generative KIs für Urheber im Allgemeinen darstellen, wissen auch die Leute hinter Fairly Trained nicht.
Trotzdem gibt es uns Verbrauchern eine Chance. So können wir erkennen, welche Unternehmen sauberer gearbeitet haben und die Rechte und Ideen von Künstlern und Urhebern besser wahren. Am Ende haben also wir den entscheidenden Hebel der Verweigerung in der Hand, um Firmen wie Open AI zum Umdenken zu zwingen.
Was denkt ihr über diese Zertifikate? Kann so der Urheberrechtsstreit geklärt werden? Werden große Firmen wie OpenAI überhaupt einlenken, die vermutlich Millionen an Gigabyte urheberrechtlich geschützter Daten durch ihr System gejagt haben? Würdet ihr auf nicht-zertifizierte KI-Generatoren verzichten? Schreibt uns eure Gedanken dazu gerne in die Kommentare.

Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.