Manche Menschen teilen ihre Rechtsangelegenheiten mit einer KI. Zum Problem wird es, wenn ein Richter die Chats als Beweismittel zulässt.

Man sollte nicht alles mit KI besprechen – mittlerweile fast eine Binsenweisheit. Einen Ex-Unternehmer kann dieser Fehler nun allerdings sehr teuer zu stehen kommen.

Wie sehr sich Heppner mittlerweile über seine Chats mit Claude ärgert, ist nur zu erahnen. (Bildquelle: Wasan, Adobe Stock) Wie sehr sich Heppner mittlerweile über seine Chats mit Claude ärgert, ist nur zu erahnen. (Bildquelle: Wasan, Adobe Stock)

Better Call Claude – oder lieber doch nicht: In den USA steht ein Mann wegen Millionenbetrugs vor Gericht. Im Vorfeld seines Prozesses hatte er nun seinen Fall mit dem KI-Chatbot Claude besprochen, um die Ergebnisse mit seinen Anwälten zu teilen.

Nun hat die Staatsanwaltschaft seine gesammelten Chats mit dem Bot beschlagnahmt. Und auch der Richter stellt fest: KI-Chatbots unterliegen nicht dem Anwaltsgeheimnis.

Video starten 50:25 Stimme von KI-Firma geklaut! Leben wir schon in einer Dystopie?

Angeklagter wollte mit Claude seinen Fall vorbereiten

Wie die US-Staatsanwaltschaft (SDNY) berichtet, steht der Unternehmer Bradley Heppner derzeit wegen eines großangelegten Betrugssystems vor Gericht, bei dem er über 150 Millionen Dollar veruntreut haben soll. Ihm werden unter anderem Wertpapierbetrug und die Fälschung von Unterlagen vorgeworfen, die zur Insolvenz einer Firma und Milliardenverlusten für Kleinanleger führten.

In die Schlagzeilen gerät der Ex-Unternehmer aber nun vor allem, weil er sich in der Vorbereitung seines Falls ausgiebig mit dem KI-Chatbot Claude von Anthropic unterhalten hat. Wie The National Law Review nun berichtet beschlagnahmte das FBI bei einer Hausdurchsuchung Chats zwischen Claude und dem Angeklagten.

Heppners Anwälte versuchten zu verhindern, dass die 31 Dokumente als Beweismittel vor Gericht zugelassen werden – erfolglos: Richter Jed S. Rakoff entschied, dass die Chatprotokolle keinem Anwaltsgeheimnis unterliegen.

The National Law Review erklärt die Gründe dafür wie folgt:

  • KI ist kein Anwalt: KI hat keine anwaltliche Zulassung und unterliegt entsprechend keiner Schweigepflicht.
  • Keine Rechtsberatung: Anthropic selbst schließt rechtliche Beratung in seinen AGB explizit aus.
  • Keine Vertraulichkeit: Da Daten für KI-Training genutzt werden können, kann der Angeklagte nicht argumentieren, er habe die Chats in Erwartung von Privatsphäre erstellt. Heppner hatte einen Account für Privatnutzer verwendet.
  • Kein nachträglicher Schutz: Heppner wollte mithilfe des Bots seinen Fall vorbereiten und hatte die Unterlagen anschließend seinem Anwaltsteam ausgehändigt. Ein privater Chat wird laut dem National Law Review aber nicht plötzlich geheim, nur weil man ihn später dem Anwalt schickt.
  • Eigeninitiative: Heppner nutzte die KI von sich aus, nicht auf Anweisung seiner Anwälte.

Doch die Aushändigung der Unterlagen ist nicht Heppners größtes Problem. Laut der National Law Review droht ihm nun ein juristischer Domino-Effekt:

  1. Wer Teile seiner Strategie einer KI anvertraut, verliert das Anwaltsgeheimnis unter Umständen für den gesamten Themenbereich. Damit hätte die Staatsanwaltschaft plötzlich Zugriff auf weit mehr Dokumente, als nur die KI-Chats.
  2. Zudem könnten seine Verteidiger durch die Chat-Inhalte unfreiwillig zu Zeugen werden. Da man im US-Recht nicht gleichzeitig als Anwalt und Zeuge im selben Fall auftreten darf, droht Heppner der Verlust seines renommierten – und entsprechend teuren – Anwaltsteams unmittelbar vor Prozessbeginn.

Heppner hat sich durch seine unbedarften Chats mit dem KI-Chatbot nun also in eine ausgesprochen missliche Lage gebracht.

Vertrauliche Gespräche mit der KI – nicht nur ein juristisches Problem

Nun mag Heppners Geschichte, ein Unternehmer, der in den USA wegen des Vorwurfs eines Millionenbetrugs vor Gericht steht, sehr spezifisch sein. Dennoch hat sein Fall sehr wohl Berührungspunkte mit vielen Menschen, die KI-Chatbots in ihrem Alltag nutzen:

Auch wenn hoffentlich niemand der hier Lesenden sich irgendwann selbst in eine Situation begibt, die mit der von Heppner vergleichbar ist, kann er als Mahnmal für viele von uns stehen. Es gibt Dinge, die bespricht man unter keinem Umständen mit einem KI-Chatbot, sondern lieber mit seinen Anwälten, Ärzten – oder auch Freunden.

zu den Kommentaren (4)

Kommentare(4)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.