In einer 30-Millionen-Dollar-Villa mit Blick auf die Golden Gate Bridge
. So wird die Szenerie von Wired beschrieben, in der sich Forscher und Tech-Unternehmer treffen, um ein beunruhigendes Thema zu besprechen: Wie soll unser Nachfolger aussehen, wenn die Menschheit nicht mehr existiert?
Was klingt wie Science-Fiction, ist Realität. Rund 100 Gäste diskutierten am Sonntag, den 8. Juni 2025, über einen Worthy Successor
. So lautet der Name der Veranstaltung. Zu Deutsch: würdiger Nachfolger
(für die Menschheit).
Der Mann hinter der Endzeit-Party
Gastgeber Daniel Faggella, Gründer von Emerj Artificial Intelligence Research, machte seine Intention glasklar:
Das moralische Ziel fortgeschrittener KI sollte es sein, eine Form von Intelligenz zu schaffen, die so mächtig und weise ist, dass du gerne vorziehen würdest, dass sie (nicht die Menschheit) den zukünftigen Pfad des Lebens selbst bestimmt.
Faggella ist in dem Diskurs kein Unbekannter. 2016 warnte er bereits bei TechCrunch vor KI-Risiken. Heute konzentriert er sich auf die philosophischen Aspekte einer superintelligenten KI-Nachfolge.
Wer war dabei? Die Gästeliste liest sich wie das Who's Who der KI-Branche:
- Gründer von KI-Unternehmen mit Milliardenbewertungen
- Forscher aller großen westlichen KI-Labore
- Führende Philosophen und Denker im AGI-Bereich
Ein Gast trug ein T-Shirt mit der Aufschrift: Kurzweil hatte recht
– eine Anspielung auf den Futuristen Ray Kurzweil, der für seine gewagten Thesen zu Zukunftstechnologien und Transhumanismus bekannt ist.
Was wurde besprochen? Drei Visionen vom Ende
Ginevra Davis aus New York warnte, dass menschliche Werte möglicherweise nicht auf KI übertragbar sind. Ihre Lösung: Cosmic Alignment
– KI soll universelle Werte finden, die die Menschheit vereinen könnten, die wir allerdings noch nicht entdeckt haben.
Philosoph Michael Edward Johnson argumentierte, dass wir ohne vollständiges Verständnis von Bewusstsein riskieren, etwas zu versklaven, das leiden kann, oder etwas zu vertrauen, das es nicht kann.
Faggella selbst präsentierte sein Konzept des axiologischen Kosmismus
: Die KI-Nachfolge soll nicht nur überleben, sondern neue Bedeutungen und Werte schaffen können.
44:19
»Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI
Die unbequeme Wahrheit
Auf die Frage, warum Faggella diese Party veranstaltet hat, behauptet er gegenüber dem Magazin Wired:
Die großen Labore, die Leute, die wissen, dass AGI wahrscheinlich die Menschheit beenden wird, sprechen nicht darüber, weil es das Vorhaben nicht erlaubt.
Er verweist auf frühere Warnungen von Tech-Größen wie Elon Musk, Sam Altman und Demis Hassabis. Heute seien alle im Wettlauf um die erste AGI gefangen.
Realitätscheck: Wie ernst ist die Lage?
Für die einen bitterer Ernst, für andere nichts als Science-Fiction
Pro Warnung:
- Bill Gates warnte bereits vor einem Jahrzehnt vor den Risiken durch KI.
- Experten unterzeichneten bereits 2023 Statements über die
Auslöschungsrisiken durch KI
- Das führende KI-Unternehmen OpenAI diskutierte intern AGI-Gefahren.
Contra Panik:
- Aktuelle KI-Systeme versagen bei grundlegenden Reasoning-Aufgaben.
- Viele Argumente basieren auf Spekulation, nicht auf empirischen Beweisen.
- Forscher sehen Anzeichen für ein nahendes Leistungsplateau bei generativer KI.
Link zum YouTube-Inhalt
Fazit: Science-Fiction oder ernste Warnung?
Das Event mag wie eine Nerd-Fantasie wirken, doch die Teilnehmer sind einflussreich genug, um KI-Entwicklungen zu prägen. Faggella betont jedoch:
Das ist keine Befürwortergruppe für die Zerstörung des Menschen. Das ist eine Befürwortergruppe für die Verlangsamung des KI-Fortschritts, um sicherzustellen, dass wir in die richtige Richtung gehen.
Ob berechtigte Sorge oder Millionen-Dollar-Spinnerei – die KI-Elite nimmt das Thema jedenfalls ernst.
Was sagt ihr zu solchen Diskussionen? Macht ihr euch Gedanken über die Gefahr der Auslöschung durch ein intelligentes
System? Schreibt es gerne in die Kommentare!
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.