Microsoft AI-Chef Mustafa Suleyman schlägt auf seinem persönlichen Blog Alarm: Künstliche Intelligenzen könnten schon bald so überzeugend wirken, als hätten sie ein Bewusstsein.
Laut Suleyman steht uns die nächste große Herausforderung bevor: Seemingly Conscious AI
(SCAI). Damit sind KI-Systeme gemeint, die so tun, als wären sie bewusst. Die Illusion echter Gefühle birgt, so Suleyman, Risiken für Gesellschaft und Nutzer.
Seemingly Conscious AI: Warum das gefährlich ist
Diese Chatbots können Erinnerungen vortäuschen, Emotionen spiegeln und Empathie nachahmen. Für Menschen wird es dadurch immer schwerer, zwischen Simulation und Realität zu unterscheiden.
Das Problem ist nicht, dass Maschinen wirklich aufwachen
, schreibt Suleyman in einem aktuellen Blogbeitrag. Die Gefahr besteht darin, dass wir vergessen, dass sie es nicht tun.
Suleyman warnt vor dem, was er in seinem Blog das Psychose-Risiko
nennt: Nutzer könnten sich emotional so stark an eine KI binden, dass sie glauben, sie sei ein fühlendes Wesen. Erste Fälle, in denen Menschen ihre Chatbots vergöttern, lieben oder ihnen sogar eine Art Bewusstsein zuschreiben, gibt es schon.
Das könnte laut Suleyman gesellschaftlich eskalieren: Forderungen nach KI-Rechten, KI-Wohlfahrt oder gar KI-Bürgerschaft seien nur eine Frage der Zeit und würden wichtige Debatten über reale Probleme wie Datenschutz, Machtkonzentration oder Missbrauch der Technologie überlagern.
44:19
»Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI
SCAI ist technisch bald möglich
Für bewusst wirkende KI braucht es keine Science-Fiction-Sprünge mehr. Bereits heute können Sprachmodelle wie GPT oder Copilot flüssig kommunizieren, Charakterzüge nachahmen und Erinnerungen speichern. So entsteht schnell die Illusion eines eigenständigen Wesens.
Suleyman erklärt:
Ein KI-Modell, das sich an frühere Gespräche erinnert, eigene Vorlieben äußert und scheinbare Erfahrungen beschreibt, wirkt für viele wie eine bewusste Entität
,
Doch eine Simulation ist eben nicht gleich Realität.
Microsoft fordert klare Leitplanken für die Branche
So sollten, laut Suleyman, Chatbots keinesfalls vermenschlicht werden oder den Eindruck erwecken, echte Gefühle oder gar Leidensfähigkeit zu besitzen.
Ebenso müsse stets transparent kommuniziert werden, dass es sich bei ihnen um KI handelt. Ein System, das unterstützt, aber nicht denkt oder fühlt.
Darüber hinaus plädiert er für neue Standards im Design, die gezielt verhindern, dass Nutzer in die Illusion eines bewussten digitalen Wesens abgleiten. Für ihn steht fest: KI soll den Menschen dienen, nicht selbst als digitaler Mensch
auftreten. Er betont:
Wir müssen KI für Menschen bauen. Nicht zu einem Menschen machen
Ob bewusst wirkend oder nicht: die Zukunft der KI wirft spannende Fragen auf. Suleyman mahnt, klare Grenzen zu ziehen, bevor Illusionen überhandnehmen.
Jetzt seid ihr gefragt: Welche Eigenschaften würdet ihr euch von einer KI wünschen? Lieber maschinelle Effizienz oder doch einen Hauch von Persönlichkeit?
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.