Problem poufności
Tajemnica adwokacka jest fundamentem zawodu prawnika. Kiedy adwokat lub radca prawny wkleja dane klienta do ChatGPT — imiona, numery spraw, dane finansowe, historie medyczne — informacje te trafiają na serwer zewnętrznej firmy. Zgodnie z przepisami samorządów prawniczych stanowi to ujawnienie, które może naruszyć tajemnicę zawodową.
W odróżnieniu od rozmowy z aplikantem czy współpracownikiem, dane wysłane do dostawcy AI są przetwarzane, przechowywane i potencjalnie wykorzystywane do trenowania modeli. OpenAI, Anthropic i Google przechowują dane z konwersacji przez różne okresy, a ich pracownicy mogą je przeglądać w celach bezpieczeństwa.
Co mówią samorządy prawnicze
Organy etyki prawniczej na całym świecie zaczęły wydawać wytyczne dotyczące korzystania z AI:
- Naczelna Rada Adwokacka (NRA) — ostrzegła, że udostępnianie danych klientów narzędziom AI opartym na chmurze może naruszać tajemnicę adwokacką, która w polskim prawie jest niemal bezwzględna. Adwokat nie może być z niej zwolniony nawet przez klienta.
- Krajowa Izba Radców Prawnych (KIRP) — wydała rekomendacje dotyczące ostrożnego korzystania z narzędzi AI, podkreślając konieczność anonimizacji danych przed ich przesłaniem do zewnętrznych serwisów.
- Europejskie izby adwokackie — podkreślają, że obowiązki wynikające z RODO dotyczą danych klientów udostępnianych serwwisom AI, co stanowi dodatkową warstwę regulacyjną obok etyki zawodowej.
- American Bar Association (ABA) — w opinii formalnej 512 (2024) potwierdziła, że prawnicy mają obowiązek kompetencji w korzystaniu z narzędzi AI, w tym rozumienia sposobu przetwarzania i przechowywania danych klientów.
Prawdziwe przypadki: Kiedy prawnicy popełnili błąd
Sprawa Mata v. Avianca
W 2023 roku nowojorski prawnik Steven Schwartz użył ChatGPT do wyszukiwania orzecznictwa dla pisma procesowego w sądzie federalnym. AI wygenerowało sfabrykowane cytaty z orzeczeń, które nie istniały. Sąd nałożył sankcje na Schwartza i jego kancelarię. Choć sprawa dotyczy przede wszystkim halucynacji AI, ujawniła również, że prawnik przesłał dane sprawy klienta do zewnętrznego serwisu AI bez żadnych zabezpieczeń.
Wyciek danych z kancelarii
Wiele kancelarii odnotowało wewnętrzne incydenty, w których aplikanci wklejali umowy klientów, warunki ugód czy zeznania świadków do chatbotów AI. W jednym udokumentowanym przypadku młody prawnik wkleił do ChatGPT całą umowę fuzji — wraz z poufnymi warunkami finansowymi — by uzyskać streszczenie. Kancelaria odkryła naruszenie podczas audytu wewnętrznego kilka tygodni później.
Obowiązek ujawnienia przed sądem
Coraz więcej sądów wymaga od prawników ujawnienia, czy AI było wykorzystywane przy przygotowywaniu pism procesowych. Sądy w USA, Wielkiej Brytanii i coraz częściej w Europie wprowadzają takie wymogi. Jeśli użyłeś AI z danymi klienta i nie zabezpieczyłeś tych danych, wymóg ujawnienia może odsłonić naruszenie.
Dlaczego zakaz AI to nie rozwiązanie
Niektóre kancelarie całkowicie zakazały chatbotów AI. Ale takie podejście ma poważne wady:
- Konkurencyjność. Kancelarie korzystające z AI efektywnie mogą szybciej przygotowywać dokumenty, dokładniej badać orzecznictwo i oferować klientom lepszą wartość. Całkowity zakaz stawia kancelarię w tyle za konkurencją.
- Shadow AI. Gdy kancelarie zakazują narzędzi bez dostarczenia alternatyw, prawnicy korzystają z nich i tak — na prywatnych urządzeniach, bez nadzoru. To tworzy jeszcze większe ryzyko, bo nie ma kontroli instytucjonalnej ani śladu audytowego.
- Oczekiwania klientów. Klienci korporacyjni coraz częściej oczekują, że ich kancelarie będą korzystać z narzędzi AI w celu zwiększenia efektywności. Niektóre przetargi wprost pytają o możliwości AI.
Praktyczne kroki dla kancelarii
- Opracuj politykę AI. Zdefiniuj, które narzędzia są dopuszczone, jakie typy danych można przesyłać i jakie zabezpieczenia są wymagane. Włącz to do programu wdrożeniowego dla nowych pracowników.
- Anonimizuj przed wysłaniem. Zastąp imiona klientów, numery spraw, daty, kwoty i wszelkie informacje identyfikujące symbolami zastępczymi. Zachowujesz wartość analityczną, eliminując ryzyko naruszenia poufności.
- Korzystaj z narzędzi klasy enterprise. ChatGPT Enterprise, Claude for Business i podobne produkty oferują gwarancje umowne, że dane nie będą używane do trenowania. Jednak nadal wiążą się z przechowywaniem danych przez stronę trzecią.
- Automatyzuj anonimizację. Ręczna redakcja jest wolna i podatna na błędy. Jeden pominięty PESEL, numer sprawy czy nazwisko może naruszyć tajemnicę. Automatyczne narzędzia wykrywające i maskujące dane wrażliwe w przeglądarce są szybsze i pewniejsze.
- Weryfikuj odpowiedzi AI. Zawsze sprawdzaj cytowane orzecznictwo, argumentację prawną i twierdzenia faktyczne. Modele AI halucynują, a złożenie sfabrykowanych cytatów w sądzie ma konsekwencje kończące karierę.
- Dokumentuj proces. Prowadź ewidencję używanych narzędzi AI, zastosowanych zabezpieczeń i sposobów weryfikacji. To chroni Cię, jeśli klient lub samorząd zakwestionuje Twoje praktyki.
Jak Private Prompt pomaga prawnikom
Private Prompt został zaprojektowany z myślą o takich przypadkach. Rozszerzenie automatycznie wykrywa dane wrażliwe w promptach — imiona klientów, numery spraw, kwoty, adresy, numery telefonów, PESEL, NIP — i zastępuje je anonimowymi symbolami zastępczymi zanim tekst dotrze do jakiegokolwiek dostawcy AI.
Całe przetwarzanie odbywa się lokalnie w przeglądarce. Żadne dane klienta nie są przesyłane na zewnętrzny serwer. Gdy AI odpowie, rozszerzenie przywraca oryginalne wartości, byś widział pełny kontekst. Dla kancelarii to różnica między polityką AI, która działa, a papierowym zakazem, który wszyscy ignorują.
Chroń tajemnicę adwokacką korzystając z AI
Private Prompt automatycznie anonimizuje dane klientów zanim trafią do chatbota AI. Tajemnica zawodowa pozostaje nienaruszona.
Dowiedz się więcej o Private Prompt
Private Prompt