Das Vertraulichkeitsproblem
Das Mandantengeheimnis ist der Grundpfeiler der anwaltlichen Praxis. Wenn ein Anwalt Mandantendetails in ChatGPT einfügt — Namen, Aktenzeichen, Finanzunterlagen, Krankengeschichten — werden diese Informationen an einen Drittanbieter-Server übermittelt. Nach den meisten anwaltsrechtlichen Standesregeln stellt dies eine Offenlegung dar, die das Mandantengeheimnis aufheben kann.
Anders als ein Gespräch mit einem Referendar oder einem Kollegen werden Daten, die an einen KI-Anbieter gesendet werden, verarbeitet, gespeichert und möglicherweise für das Modelltraining verwendet. OpenAI, Anthropic und Google speichern Gesprächsdaten für unterschiedliche Zeiträume, und ihre Mitarbeiter können sie zu Sicherheitszwecken einsehen. Das verändert die Vertraulichkeitsgleichung grundlegend.
Was die Anwaltskammern sagen
Standesorganisationen weltweit haben begonnen, Leitlinien zur KI-Nutzung in der Rechtspraxis zu veröffentlichen:
- ABA Formal Opinion 512 (2024) — Die American Bar Association hat bestätigt, dass Anwälte bei der Nutzung von KI-Tools eine Sorgfaltspflicht haben, einschließlich des Verständnisses, wie Mandantendaten verarbeitet und gespeichert werden.
- Leitlinien der Bundesrechtsanwaltskammer — Die BRAK und verschiedene Landesrechtsanwaltskammern haben Stellungnahmen veröffentlicht, die Anwälte verpflichten, KI-Tools vor der Nutzung mit Mandantendaten auf Vertraulichkeitsrisiken zu prüfen.
- EU-Berufsrecht — Europäische Anwaltskammern haben betont, dass DSGVO-Pflichten für Mandantendaten gelten, die mit KI-Diensten geteilt werden — eine regulatorische Ebene zusätzlich zur Berufsethik.
- Polnische Anwaltskammer (NRA) — Hat davor gewarnt, dass die Weitergabe von Mandantendaten an Cloud-basierte KI-Tools die berufliche Verschwiegenheitspflicht (tajemnica adwokacka) verletzen kann, die im polnischen Recht nahezu absolut gilt.
Der Konsens ist klar: Anwälte können KI nutzen, aber sie müssen aktive Maßnahmen zum Schutz von Mandanteninformationen ergreifen.
Reale Fälle: Wenn Anwälte Fehler machten
Der Fall Mata gegen Avianca
Im Jahr 2023 nutzte der New Yorker Anwalt Steven Schwartz ChatGPT zur Recherche von Rechtsprechung für eine Einreichung bei einem Bundesgericht. Die KI erzeugte frei erfundene Gerichtsentscheidungen, die nicht existierten. Das Gericht verhängte Sanktionen gegen Schwartz und seine Kanzlei. Obwohl dieser Fall primär KI-Halluzinationen betrifft, offenbarte er auch, dass der Anwalt Mandanten-Falldetails ohne Schutzmaßnahmen an einen Drittanbieter-KI-Dienst übermittelt hatte.
Datenoffenlegung in Kanzleien
Mehrere Kanzleien haben interne Vorfälle gemeldet, bei denen Associates Mandantenverträge, Vergleichsbedingungen oder Zeugenaussagen in KI-Chatbots einfügten. In einem dokumentierten Fall kopierte ein junger Anwalt einen vollständigen Fusionsvertrag — einschließlich vertraulicher Finanzkonditionen — in ChatGPT, um eine Zusammenfassung zu erhalten. Die Kanzlei entdeckte den Verstoß erst Wochen später bei einer internen Prüfung.
Gerichtseinreichungen und Offenlegungspflichten
Mehrere Gerichte verlangen inzwischen von Anwälten die Offenlegung, ob KI bei der Erstellung von Schriftsätzen verwendet wurde. Richter am Southern District of New York, am Northern District of Texas und an britischen Gerichten haben solche Anforderungen eingeführt. Das schafft ein zusätzliches Risiko: Wenn Sie KI mit Mandantendaten verwendet und diese Daten nicht geschützt haben, kann die Offenlegungspflicht den Verstoß ans Licht bringen.
Warum „Einfach nicht nutzen“ keine Antwort ist
Einige Kanzleien haben KI-Chatbots gänzlich verboten. Doch dieser Ansatz hat erhebliche Nachteile:
- Wettbewerbsnachteil. Kanzleien, die KI effektiv einsetzen, können Dokumente schneller entwerfen, gründlicher recherchieren und besseren Mehrwert für Mandanten liefern. Ein generelles Verbot bringt eine Kanzlei hinter ihre Wettbewerber.
- Schatten-KI. Wenn Kanzleien Tools verbieten, ohne Alternativen bereitzustellen, nutzen Anwälte sie trotzdem — auf privaten Geräten, ohne Aufsicht. Das schafft noch größeres Risiko, weil es keine institutionelle Kontrolle oder Nachverfolgung gibt.
- Mandantenerwartungen. Unternehmensmandanten erwarten zunehmend, dass ihre Kanzleien KI-Tools zur Effizienzsteigerung einsetzen. Manche Ausschreibungen fragen mittlerweile gezielt nach KI-Fähigkeiten.
Die praktische Lösung besteht nicht darin, KI zu meiden, sondern sie sicher zu nutzen — mit angemessenem Datenschutz.
Praktische Schritte für Kanzleien
- Eine KI-Richtlinie aufstellen. Definieren Sie, welche Tools zugelassen sind, welche Datentypen übermittelt werden dürfen und welche Schutzmaßnahmen erforderlich sind. Machen Sie dies zum Teil der Einarbeitung neuer Associates.
- Vor der Übermittlung anonymisieren. Ersetzen Sie Mandantennamen, Aktenzeichen, Daten, Finanzzahlen und alle identifizierenden Informationen durch Platzhalter, bevor Sie sie in KI-Tools einfügen. Das bewahrt den analytischen Wert und eliminiert das Vertraulichkeitsrisiko.
- Enterprise-Tools nutzen. ChatGPT Enterprise, Claude for Business und ähnliche Produkte bieten vertragliche Garantien, dass Daten nicht für das Training verwendet werden. Allerdings beinhalten sie weiterhin die Speicherung bei Drittanbietern.
- Den Anonymisierungsprozess automatisieren. Manuelles Schwärzen ist langsam und fehleranfällig. Ein einziger übersehener Name oder ein übersehenes Aktenzeichen kann das Mandantengeheimnis gefährden. Automatisierte Tools, die personenbezogene Daten erkennen und maskieren, bevor sie den Browser verlassen, sind schneller und zuverlässiger.
- KI-Ergebnisse überprüfen. Prüfen Sie immer Zitate, juristische Argumentation und Sachverhaltsbehauptungen. KI-Modelle halluzinieren, und das Einreichen erfundener Zitate bei Gericht kann die Karriere beenden.
- Prozesse dokumentieren. Führen Sie Aufzeichnungen darüber, welche KI-Tools Sie nutzen, welche Datenschutzmaßnahmen bestehen und wie Sie Ergebnisse verifizieren. Das schützt Sie, wenn ein Mandant oder eine Standesorganisation Ihre Praktiken hinterfragt.
Wie Private Prompt Juristen hilft
Private Prompt wurde genau für diesen Anwendungsfall entwickelt. Die Erweiterung erkennt automatisch sensible Daten in Ihren Prompts — Mandantennamen, Aktenzeichen, Geldbeträge, Adressen, Telefonnummern — und ersetzt sie durch anonyme Platzhalter, bevor der Text einen KI-Anbieter erreicht.
Die gesamte Verarbeitung erfolgt lokal in Ihrem Browser. Keine Mandantendaten werden an einen externen Server übermittelt. Wenn die KI antwortet, stellt die Erweiterung die Originalwerte wieder her, sodass Sie den vollständigen Kontext sehen. Das bedeutet, dass Sie den vollen Nutzen der KI-Unterstützung erhalten, ohne jegliches Vertraulichkeitsrisiko.
Für Kanzleien ist das der Unterschied zwischen einer praktikablen KI-Richtlinie und einem Verbot auf dem Papier, das jeder ignoriert.
Mandantengeheimnis bei der KI-Nutzung schützen
Private Prompt anonymisiert Mandantendaten automatisch, bevor sie einen KI-Chatbot erreichen. Das Mandantengeheimnis bleibt gewahrt.
Mehr über Private Prompt erfahren
Private Prompt