KI-Experten trafen sich in einer 30-Millionen-Dollar-Villa und besprachen was nach der Menschheit kommt

Was passiert, nachdem alles den Bach runtergegangen ist und wie wird es überhaupt dazu kommen?

Was können wir tun, um Gefahren durch KI zu vermeiden und was passiert, wenn die Menschheit doch irgendwann von der Erdoberfläche verschwindet? (Bild: Adobe Stock ArTo) Was können wir tun, um Gefahren durch KI zu vermeiden und was passiert, wenn die Menschheit doch irgendwann von der Erdoberfläche verschwindet? (Bild: Adobe Stock ArTo)

In einer 30-Millionen-Dollar-Villa mit Blick auf die Golden Gate Bridge. So wird die Szenerie von Wired beschrieben, in der sich Forscher und Tech-Unternehmer treffen, um ein beunruhigendes Thema zu besprechen: Wie soll unser Nachfolger aussehen, wenn die Menschheit nicht mehr existiert?

Was klingt wie Science-Fiction, ist Realität. Rund 100 Gäste diskutierten am Sonntag, den 8. Juni 2025, über einen Worthy Successor. So lautet der Name der Veranstaltung. Zu Deutsch: würdiger Nachfolger (für die Menschheit).

Der Mann hinter der Endzeit-Party

Gastgeber Daniel Faggella, Gründer von Emerj Artificial Intelligence Research, machte seine Intention glasklar:

Das moralische Ziel fortgeschrittener KI sollte es sein, eine Form von Intelligenz zu schaffen, die so mächtig und weise ist, dass du gerne vorziehen würdest, dass sie (nicht die Menschheit) den zukünftigen Pfad des Lebens selbst bestimmt.

Faggella ist in dem Diskurs kein Unbekannter. 2016 warnte er bereits bei TechCrunch vor KI-Risiken. Heute konzentriert er sich auf die philosophischen Aspekte einer superintelligenten KI-Nachfolge.

Wer war dabei? Die Gästeliste liest sich wie das Who's Who der KI-Branche:

  • Gründer von KI-Unternehmen mit Milliardenbewertungen
  • Forscher aller großen westlichen KI-Labore
  • Führende Philosophen und Denker im AGI-Bereich

Ein Gast trug ein T-Shirt mit der Aufschrift: Kurzweil hatte recht – eine Anspielung auf den Futuristen Ray Kurzweil, der für seine gewagten Thesen zu Zukunftstechnologien und Transhumanismus bekannt ist.

Was wurde besprochen? Drei Visionen vom Ende

Ginevra Davis aus New York warnte, dass menschliche Werte möglicherweise nicht auf KI übertragbar sind. Ihre Lösung: Cosmic Alignment – KI soll universelle Werte finden, die die Menschheit vereinen könnten, die wir allerdings noch nicht entdeckt haben.

Philosoph Michael Edward Johnson argumentierte, dass wir ohne vollständiges Verständnis von Bewusstsein riskieren, etwas zu versklaven, das leiden kann, oder etwas zu vertrauen, das es nicht kann.

Faggella selbst präsentierte sein Konzept des axiologischen Kosmismus: Die KI-Nachfolge soll nicht nur überleben, sondern neue Bedeutungen und Werte schaffen können.

Video starten 44:19 »Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI

Die unbequeme Wahrheit

Auf die Frage, warum Faggella diese Party veranstaltet hat, behauptet er gegenüber dem Magazin Wired:

Die großen Labore, die Leute, die wissen, dass AGI wahrscheinlich die Menschheit beenden wird, sprechen nicht darüber, weil es das Vorhaben nicht erlaubt.

Er verweist auf frühere Warnungen von Tech-Größen wie Elon Musk, Sam Altman und Demis Hassabis. Heute seien alle im Wettlauf um die erste AGI gefangen.

Realitätscheck: Wie ernst ist die Lage?

Für die einen bitterer Ernst, für andere nichts als Science-Fiction

Pro Warnung:

Contra Panik:

  • Aktuelle KI-Systeme versagen bei grundlegenden Reasoning-Aufgaben.
  • Viele Argumente basieren auf Spekulation, nicht auf empirischen Beweisen.
  • Forscher sehen Anzeichen für ein nahendes Leistungsplateau bei generativer KI.
Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von YouTube, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von YouTube angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum YouTube-Inhalt

Fazit: Science-Fiction oder ernste Warnung?

Das Event mag wie eine Nerd-Fantasie wirken, doch die Teilnehmer sind einflussreich genug, um KI-Entwicklungen zu prägen. Faggella betont jedoch:

Das ist keine Befürwortergruppe für die Zerstörung des Menschen. Das ist eine Befürwortergruppe für die Verlangsamung des KI-Fortschritts, um sicherzustellen, dass wir in die richtige Richtung gehen.

Ob berechtigte Sorge oder Millionen-Dollar-Spinnerei – die KI-Elite nimmt das Thema jedenfalls ernst.

Was sagt ihr zu solchen Diskussionen? Macht ihr euch Gedanken über die Gefahr der Auslöschung durch ein intelligentes System? Schreibt es gerne in die Kommentare!

zu den Kommentaren (8)

Kommentare(8)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.