Neuartige Voicechat-KI soll toxischen Spielern automatisch den Mund verbieten

Was für Menschen fast unmöglich zu realisieren ist, könnte mit einer neuen KI-Technik an Fahrt gewinnen: Die verbale Kommunikation toxischer Spieler live zu sanktionieren.

von Christian Just,
18.12.2020 19:12 Uhr

Ein KI-Tool soll Moderatoren die Arbeit erleichtern und toxische Spieler live reglementieren. Ein KI-Tool soll Moderatoren die Arbeit erleichtern und toxische Spieler live reglementieren.

Der Kampf gegen beleidigendes, aufdringliches und rassistisches Verhalten in Online-Spielen ist seit Jahren ein großes Thema. Allerdings bleiben nennenswerte Erfolge gegen toxische Spieler überschaubar, etwa verzeichnete Blizzard einen positiven Trend durch den Einsatz einer KI in Overwatch.

In eine ähnliche Kerbe schlägt das KI-Tool ToxMod. Dieses Programm filtert aber nicht etwa Schimpfwörter aus Textchats, sondern analysiert live den Sprachchat in Spielen. Verstößt nun ein Spieler gegen zuvor von Moderatoren festgelegte Richtlinien, etwa indem er rassistische Begriffe verwendet, soll ToxMod den entsprechenden Abschnitt live sanktionieren können.

Wie funktioniert das Tool?

Die KI soll aber nicht nur in der Lage sein, sanktionierbare Wörter automatisch mit einem Piepton zu überlagern. Das allein wäre schon revolutionär, da Entwickler hier bislang weitgehend machtlos waren. Mit der KI könnte man Spieler besser vor toxischem Verhalten schützen.

Darüber hinaus soll die KI anhand von Wellenlängen auch erkennen, welche Intention sich hinter gesprochenen Tönen verbirgt. Sprich, wenn jemand ohne den Gebrauch anstößiger Wörter aufdringlich, aggressiv oder beleidigend wird, soll die KI dies anhand der Stimmlage erkennen können.

Auch (versehentlich) zu laute Spieler soll ToxMod herunterregulieren oder mutwillige Schreihälse gänzlich stummschalten können. Zudem spricht die KI auf Wunsch der Moderatoren automatisch Strafen aus oder warnt Spieler bei erstmaligen Verstößen.

In Multiplayer-Shootern wie CoD: Warzone geht es verbal oft hart zur Sache. In Multiplayer-Shootern wie CoD: Warzone geht es verbal oft hart zur Sache.

Potenzielle Gefahren

Wie gut das in der Praxis funktioniert, muss die Zeit zeigen, sobald Spiele die Technik tatsächlich im Live-Betrieb anwenden. Hier besteht potenziell die Gefahr, dass die KI fälschlicherweise unbedenkliche Kommunikation zensiert. Allerdings soll sie sich durch Maschinelles Lernen stetig verbessern.

Feintuning und Automatisierung soll gänzlich in den Händen der Moderatoren liegen. So kann die Software etwa bei Multiplayer-Shootern etwas nachsichtiger sein, damit der obligatorische "Trash Talk" mit scherzhaften Beschimpfungen auf Wunsch erhalten bleibt.

Ein übergeordnetes Analysetool gibt menschlichen Moderatoren zudem die Möglichkeit, Transkripte kritischer Kommunikation einzusehen, bewertet nach potenziellem Gefahrengrad. Hier stehen den Moderatoren dann weitere Optionen offen, auffällige Spieler mit Sanktionen wie Bans zu belegen.

Das Video der ToxMod-Entwickler Modulate erklärt euch im Detail, wie das funktioniert:

Link zum YouTube-Inhalt

Die Erfinder der Software hatten sich zunächst auf "Voice Skins" spezialisiert, bevor sie die ToxMod-Software entwickelten. Bereits hier ist das Ergebnis erstaunlich:

Link zum YouTube-Inhalt

Hinter ToxMod steht das Unternehmen Modulate. Wie die Kollegen von PCGamesN im Interview erfahren haben, lernten sich die Gründer Mike Pappas und Carter Hoffman an der renommierten US-amerikanischen Technik-Universität Massachusetts Institute of Technology (MIT) kennen.

Das KI-Tool ist bereits verfügbar. Entwickler, die Interesse haben, ToxMod in ihre Spiele zu integrieren, können sich über die Website weiterführend informieren und per E-Mail Kontakt aufnehmen.

zu den Kommentaren (98)

Kommentare(98)

Nur angemeldete Benutzer können kommentieren und bewerten.