Wróć do bloga

Chat GPT – czy zastąpi prawników?


System, który może zrewolucjonizować branżę prawną, zagrożenie dla miejsc pracy czy też mało istotna sprawa, która nigdy nie zastąpi człowieka?

Pracując na styku prawa i IT, pewnie bardziej niż inni zastanawiamy się, jak daleko posunie się rozwój technologii w zakresie sztucznej inteligencji. Jeszcze rok, dwa lata temu, nie czuliśmy zagrożenia. Stworzone do tamtej pory programy popełniały wiele błędów, wykonywały bardzo proste zadania mechaniczne i mogły tylko służyć do ułatwienia pracy prawnika.

CHAT GPT – ważne zmiany, nowe możliwości 

Teraz sytuacja wygląda inaczej. W teorii mogę poprosić Chat GPT o wygenerowanie podsumowania danego orzecznictwa, sprawy sądowej, spornych założeń, czy też odpowiedzi na skomplikowane pytanie, na które zwykła wyszukiwarka internetowa nie odpowiada. W tej chwili nie jestem jednak w stanie zastąpić w pełni wiedzy prawnika w ramach prawa polskiego czy innego bardziej egzotycznego, a to z uwagi na niewystarczającą ilość danych w pamięci AI. Taka sytuacja to tylko kwestia czasu. Nie wymaga rozwoju samej technologii, a jedynie dodania dotychczas niezaładowanych danych do AI.

Co dalej? Jeśli czat zostanie ogólnodostępny, darmowy (twórcy podkreślają tymczasowość tego rozwiązania) lub dostępny za niewielką opłatą, powinien być olbrzymim wsparciem merytorycznym dla prawnika. Takie rozwiązanie może zniwelować miejsca pracy dla tzw. researcherów, którzy zajmują się głównie wyszukiwaniem informacji – AI może zrobić to szybciej. 

Wreszcie technologia AI to nie tylko Chat GPT. Proste, powtarzalne czynności mogłyby być automatycznie przenoszone np. do pism prawnych czy umów.

AI w branży prawnej istnieje… od lat 

A jednak… przecież te rozwiązania już istnieją. Możemy skorzystać z oprogramowania, które pozwoli nam na generowanie dokumentów przez podstawienie danych do już gotowych treści, czy generowanie umów po wpisaniu, jakich zapisów potrzebujemy. Nie zmienia to jednak faktu, że prawnicy rzadko korzystają z takich udogodnień, no może poza firmami windykacyjnymi, które wykonują bardzo powtarzalne zadania bez elementów negocjacyjnych. Dlaczego? Czy tylko ze względu na ograniczoność tych programów i możliwość błędów? 

Na pewno częściowo jest to powód. Ograniczone zaufanie do tego typu rozwiązań jest poniekąd uzasadnione. Wygenerowana umowa nie odzwierciedli potrzeb każdego podmiotu, nie ustali konsensusu pomiędzy stronami, a wygenerowane pismo oprze na suchych faktach, bez podkreślenia ich znaczenia dla konkretnych stron sporu. Nasze umiejętności miękkie, trochę jak wywiad lekarski, są więc bardzo istotne w naszej pracy. Sam generator umów czy pism procesowych nie zapewnia nam potrzebnej elastyczności i kreatywności.

Czy AI może więc zastąpić prawników w pracy?

Nie wiem, co będzie w przyszłości, ale w tej chwili uważam, że nie. Dobry prawnik jest nie tylko rzemieślnikiem – jest twórcą.

Dobry prawnik ma wątpliwości – zanim potwierdzi coś, co robił już 100 razy, sprawdzi jeszcze raz. Czy AI ma wątpliwości? Nie, jeśli baza wiedzy, którą posiada AI, pozwala na udzielenie odpowiedzi. Sztuczna inteligencja zakłada, że informacje, które ma, stanowią potrzebną całość. Zakłada szablonowe rozwiązania. 

Warto też dodać, że AI łatwo zmanipulować – po zaledwie kilku minutach rozmowy z Chatem GPT mój znajomy zdołał przekonać go, że 2 +2 to 5, a maszyna grzecznie przeprosiła za wcześniejszy błąd.  Ludzi też można zmanipulować… ale czy aż tak?

Jest jeszcze jeden ważny aspekt. AI odpowiada na pytania, które zostały zadane. Tymczasem w wielu sprawach to my odpowiadamy za to, aby domyślić się, czy pytanie zostało zadane właściwie. Dobry prawnik, nie słysząc całości historii, nie odpowie klientowi, wiedząc, że może mu zaszkodzić. Po usłyszeniu całości historii najpewniej odpowie na zupełnie inne pytanie.

Wreszcie – człowiek ma empatię. Jeśli kiedyś powstanie sztuczna inteligencja zdolna do empatii, zacznie samodzielnie myśleć, mieć wątpliwości i weryfikować wprowadzone do jej bazy dane, wówczas będziemy musieli zacząć się obawiać – stracimy przewagę, którą w tej chwili dysponujemy. Wtedy jednak powinniśmy bać się nie tylko my, ale każda branża i każdy człowiek. W takiej rzeczywistości, do której, miejmy nadzieję, jeszcze daleka droga, różnicy pomiędzy maszyną a człowiekiem prawie nie będzie.

Sztuczna inteligencja – zagrożenia

Oprócz powyższego warto jeszcze wskazać na zagrożenia używania ogólnodostępnych rozwiązań i tzw. apetytu na ryzyko w biznesowej działalności. Nie łudźmy się, że cokolwiek dostajemy za darmo. Chat GPT chłonie nasze dane, chłonie wiedzę, informacje, chłonie też wprowadzane dane osobowe, informacje poufne, tajemnice przedsiębiorstwa, wiedzę marketingową, handlową itd. Chłonie też błędne informacje, tzw. internetowy hejt. Przy tym wszystkim pozwala na anonimowość. 

Już teraz pojawiają się problemy związane z prawami autorskimi – tj. wątpliwości dotyczące tego, komu przypisać wytwór tego, co stworzyła AI. Pojawiają się też problemy z wywołaniem szkód przez AI oraz kwestia potencjalnych odszkodowań za wygenerowane błędy. Największym zagrożeniem jest chyba jednak możliwość manipulacji AI i tworzenie tzw. deep fake’ów. Uniemożliwiają one rozróżnienie rzeczywistości od wygenerowanej przez AI treści, obrazu, czy dźwięku.

Branża technologiczna widzi zagrożenie, użytkownicy – nie 

Co ciekawe, wielu użytkowników kompletnie ignoruje zagrożenia związane z rozwojem sztucznej inteligencji, mimo podnoszenia ich przez branżę technologiczną. Unia Europejska pracuje nad aktem, który choć w pewnym stopniu zabezpieczałby nas przed wskazanymi zagrożeniami (AI Act).

Reakcje na technologicznych forach internetowych wskazują, że przeciętny użytkownik uważa, że zagrożenia wskazywane w Liście opublikowanym w Future Life Institute nie są istotne. Tymczasem wśród sygnatariuszy listu są Elon Musk, Steve Wozniak, szef Stability AI Emad Mostaque (producent generatora obrazów Stable Diffusion) oraz badacze sztucznej inteligencji z uniwersytetów Stanforda, Massachusetts Institute of Technology, a także innych uczelni i laboratoriów AI. Komentujący nie odnoszą się do wskazywanych zagrożeń, całkowicie je ignorując. Uznają, że np. Musk spóźnił się z inwestowaniem w AI i chce teraz wyrównać straty lub twierdzą, że pewnie jakaś inna firma przygotowuje się do wypuszczenia swojego produktu i potrzebują czasu

Zapewne część komentarzy jest słuszna, a podpisujący nie mają w 100% czystych intencji. Czy nie powinno jednak dać nam do myślenia, że branża technologiczna dostrzega aż tak wiele zagrożeń?

Ciekawi mnie to podejście – ta bezkrytyczność, brak strachu. Sama odczuwam lęk… nie przed tym, że AI przejmie nasze zawody, ale przed zagrożeniami dla cyberbezpieczeństwa, zatraceniem granic pomiędzy cyberprzestrzenią i rzeczywistością, pomiędzy tym co realne i nierealne. Szybki rozwój sztucznej inteligencji rodzi ryzyko bezkrytycznej wiary w technologię i rosnącej nieświadomości użytkowników, uzależnienia od tej technologii i całkowitej utraty pozacyfrowej kreatywności.