Better Call Claude – oder lieber doch nicht: In den USA steht ein Mann wegen Millionenbetrugs vor Gericht. Im Vorfeld seines Prozesses hatte er nun seinen Fall mit dem KI-Chatbot Claude besprochen, um die Ergebnisse mit seinen Anwälten zu teilen.
Nun hat die Staatsanwaltschaft seine gesammelten Chats mit dem Bot beschlagnahmt. Und auch der Richter stellt fest: KI-Chatbots unterliegen nicht dem Anwaltsgeheimnis.
50:25
Stimme von KI-Firma geklaut! Leben wir schon in einer Dystopie?
Angeklagter wollte mit Claude seinen Fall vorbereiten
Wie die US-Staatsanwaltschaft (SDNY) berichtet, steht der Unternehmer Bradley Heppner derzeit wegen eines großangelegten Betrugssystems vor Gericht, bei dem er über 150 Millionen Dollar veruntreut haben soll. Ihm werden unter anderem Wertpapierbetrug und die Fälschung von Unterlagen vorgeworfen, die zur Insolvenz einer Firma und Milliardenverlusten für Kleinanleger führten.
In die Schlagzeilen gerät der Ex-Unternehmer aber nun vor allem, weil er sich in der Vorbereitung seines Falls ausgiebig mit dem KI-Chatbot Claude von Anthropic unterhalten hat. Wie The National Law Review nun berichtet beschlagnahmte das FBI bei einer Hausdurchsuchung Chats zwischen Claude und dem Angeklagten.
Heppners Anwälte versuchten zu verhindern, dass die 31 Dokumente als Beweismittel vor Gericht zugelassen werden – erfolglos: Richter Jed S. Rakoff entschied, dass die Chatprotokolle keinem Anwaltsgeheimnis unterliegen.
The National Law Review erklärt die Gründe dafür wie folgt:
- KI ist kein Anwalt: KI hat keine anwaltliche Zulassung und unterliegt entsprechend keiner Schweigepflicht.
- Keine Rechtsberatung: Anthropic selbst schließt rechtliche Beratung in seinen AGB explizit aus.
- Keine Vertraulichkeit: Da Daten für KI-Training genutzt werden können, kann der Angeklagte nicht argumentieren, er habe die Chats in Erwartung von Privatsphäre erstellt. Heppner hatte einen Account für Privatnutzer verwendet.
- Kein nachträglicher Schutz: Heppner wollte mithilfe des Bots seinen Fall vorbereiten und hatte die Unterlagen anschließend seinem Anwaltsteam ausgehändigt. Ein privater Chat wird laut dem National Law Review aber nicht plötzlich geheim, nur weil man ihn später dem Anwalt schickt.
- Eigeninitiative: Heppner nutzte die KI von sich aus, nicht auf Anweisung seiner Anwälte.
Doch die Aushändigung der Unterlagen ist nicht Heppners größtes Problem. Laut der National Law Review droht ihm nun ein juristischer Domino-Effekt:
- Wer Teile seiner Strategie einer KI anvertraut, verliert das Anwaltsgeheimnis unter Umständen für den gesamten Themenbereich. Damit hätte die Staatsanwaltschaft plötzlich Zugriff auf weit mehr Dokumente, als nur die KI-Chats.
- Zudem könnten seine Verteidiger durch die Chat-Inhalte unfreiwillig zu Zeugen werden. Da man im US-Recht nicht gleichzeitig als Anwalt und Zeuge im selben Fall auftreten darf, droht Heppner der Verlust seines renommierten – und entsprechend teuren – Anwaltsteams unmittelbar vor Prozessbeginn.
Heppner hat sich durch seine unbedarften Chats mit dem KI-Chatbot nun also in eine ausgesprochen missliche Lage gebracht.
Vertrauliche Gespräche mit der KI – nicht nur ein juristisches Problem
Nun mag Heppners Geschichte, ein Unternehmer, der in den USA wegen des Vorwurfs eines Millionenbetrugs vor Gericht steht, sehr spezifisch sein. Dennoch hat sein Fall sehr wohl Berührungspunkte mit vielen Menschen, die KI-Chatbots in ihrem Alltag nutzen:
- Seit langem berichten online immer mehr Menschen davon, ChatGPT und Co. als persönlichen Therapeuten zu nutzen. Solche sensiblen Informationen solltet ihr nicht mit KI-Chatbots teilen, da sich die Firmen besonders bei den Privataccounts vorbehalten, eure Chats zu behalten und zum Training weiterer Modelle zu verwenden.
- Bei ChatGPT gibt es allerdings eine Einstellung, mit der ihr auch als Privatnutzer verhindert, dass eure Chats zum Trainieren von Sprachmodellen verwendet werden – allerdings behält sich OpenAI auch hier vor, die Chats zumindest für 30 Tage zu speichern.
Auch wenn hoffentlich niemand der hier Lesenden sich irgendwann selbst in eine Situation begibt, die mit der von Heppner vergleichbar ist, kann er als Mahnmal für viele von uns stehen. Es gibt Dinge, die bespricht man unter keinem Umständen mit einem KI-Chatbot, sondern lieber mit seinen Anwälten, Ärzten – oder auch Freunden.

Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.