Zakupiliśmy narzędzie AI do naszego działu prawnego. Zanim zaczniemy z niego korzystać powinniśmy stworzyć ramy bezpieczeństwa, które pozwolą korzystać z AI w sposób zgodny z prawem, etyką zawodową i wewnętrznymi standardami organizacji.

W praktyce oznacza to konieczność opracowania konkretnych dokumentów i procedur jeszcze przed rozpoczęciem operacyjnego użycia AI.

Oto kolejny odcinek newslettera, w którym opisujemy proces wdrożenia narzędzia AI wspomagającego pracę prawniczek i prawników.

DPIA

Wykorzystanie AI w dziale prawnym wiąże się zazwyczaj z przetwarzaniem danych osobowych. Jednocześnie podmioty danych mają ograniczoną wiedzę o takim przetwarzaniu, a przez to realizacji swoich praw. Ponadto dział prawny często ma dostęp do danych wrażliwych pracowników. Aktualnie AI w pracy prawnika bez wątpienia stanowi innowacyjne wykorzystanie rozwiązań technologicznych lub organizacyjnych. Mamy więc potencjalnie spełnione trzy przesłanki z publikowanego przez Prezesa Urzędu Ochrony Danych Osobowych wykazu rodzajów operacji przetwarzania danych osobowych wymagających oceny skutków przetwarzania dla ich ochrony.

W kontekście AI DPIA powinna uwzględniać m.in.:

Dobrą praktyką jest również dokumentowanie przyjętych założeń dotyczących dopuszczalnych przypadków użycia AI w pracy prawników, o czym poniżej.

Środki bezpieczeństwa

Jeżeli kupujemy narzędzie to główny ciężar zapewnienia środków bezpieczeństwa spoczywa na dostawcy rozwiązania.

Jednak po naszej stronie warto zadbać o dwuskładnikową weryfikację przy logowaniu do narzędzia. W narzędziu AI będziemy przetwarzać wiele plików zawierających wrażliwe informacje, dlatego uzyskanie do niego dostępu przez osoby trzecie jest istotnym ryzykiem, które powinniśmy zaadresować.

Niektóre narzędzia pozwalają również ustawić okres retencji danych – warto skorzystać z takiej możliwości. Z jednej strony nie chcemy utracić dostępu do naszych danych, z drugiej nie powinniśmy przechowywać nadmiernej liczby informacji w zewnętrznym narzędziu.

Polityka korzystania z AI

Kolejnym kluczowym dokumentem jest wewnętrzna polityka korzystania z AI. Jej celem nie jest blokowanie innowacji, lecz wyznaczenie jasnych granic. Polityka powinna odpowiadać na pytania:

1 kto może korzystać z narzędzi AI,

2 z jakich narzędzi może korzystać,

3 do jakich celów,

4 przy użyciu jakich danych,

5 z jakimi obowiązkami po stronie użytkownika.

Z perspektywy działu prawnego szczególnie istotne jest jednoznaczne wskazanie, że AI nie zastępuje profesjonalnej oceny prawnej, a wygenerowane treści wymagają każdorazowo weryfikacji.

Polityka powinna również regulować zakaz wprowadzania do narzędzi AI określonych informacji. Dla przykładu, możemy dopuścić wprowadzanie informacji objętych tajemnicą zawodową pod warunkiem, że spełnione są określone warunki bezpieczeństwa, ale nigdy nie dopuszczamy wprowadzania informacji niejawnych w rozumieniu ustawy o ochronie informacji niejawnych.

Procedura zarządzania incydentami związanymi z AI

Istotnym elementem, rekomendowanym również przez Krajową Izbę Radców Prawnych, jest procedura zarządzania incydentami związanymi z AI.

Procedura powinna określać sposób zgłaszania incydentów, osoby odpowiedzialne za ich analizę oraz kryteria oceny skutków. Ważne jest także powiązanie jej z istniejącymi procedurami bezpieczeństwa informacji i compliance. Dzięki temu dział prawny jest przygotowany nie tylko na korzystanie z AI, ale również na reagowanie, gdy technologia zawiedzie.

Jasna komunikacja zasad korzystania z AI

Wszelkie procedury i zalecenia muszą być prawidłowo komunikowane do zespołu i użytkowników narzędzi AI.

Dobrą praktyką jest określenie i udostępnienie podstawowych zasad, swojego rodzaju przykazań określających co wolno, a czego nie wolno korzystając z AI.

Ponadto warto prowadzić szkolenia zarówno z zakresu zasad korzystania, ale także w zakresie korzystania z AI pod kątem unikania ryzyk, jakie niesie – przede wszystkim halucynacji i nadmiernej zależności od oceny dokonywanej przez AI.

Podsumowanie

Wdrożenie AI w dziale prawnym to proces, który wymaga świadomych decyzji organizacyjnych i prawnych jeszcze zanim narzędzie realnie zacznie wspierać codzienną pracę zespołu.

DPIA, odpowiednio dobrane środki bezpieczeństwa, polityka korzystania z AI oraz procedura zarządzania incydentami nie są formalnością, lecz fundamentem bezpiecznego i odpowiedzialnego użycia technologii, która coraz silniej wpływa na pracę prawników.

Jeżeli rozważają Państwo wdrożenie AI w swoim dziale prawnym albo chcą uporządkować już funkcjonujące rozwiązania – warto podejść do tego procesu systemowo. Zapraszamy do kontaktu i rozmowy o praktycznych aspektach przygotowania DPIA, polityk wewnętrznych oraz procedur, które realnie działają w środowisku prawniczym.


przycisk pobierz newsletter


Kontakt

Zapraszamy do kontaktu z naszym zespołem specjalizującym się w prawie nowych technologii, jeśli:

Michał Pietrzyk – radca prawny, Senior Associate w zespole IP/IT, Digital Transformation and Automation Lead