ODPOWIEDZIALNOŚĆ SZTUCZNEJ INTELIGENCJI

Obecnie w żadnym państwie na świecie nie wdrożono kompleksowej regulacji prawnej dotyczącej Sztucznej Inteligencji, zaś dotychczasowe przepisy prowadzą często do powstania tzw. liability gap.  

W prawie polskim zgodnie z art. 415 kodeksu cywilnego statuującym ogólne zasady odpowiedzialności odszkodowawczej „kto z winy swej wyrządził drugiemu szkodę, obowiązany jest do jej naprawienia”. Sztuczna Inteligencja może jednak być autonomiczna, uczyć się na błędach i wyciągać wnioski. W sytuacji, w której oprogramowanie zostało prawidłowo skonstruowane i wdrożono odpowiednie zabezpieczenia, zaś użytkownik zapoznał się zasadami działania programu oraz mechanizmami zapobiegającymi nadużyciom, brak jest osoby która może ponosić odpowiedzialność za szkodę powstałą na skutek autonomicznych decyzji SI. 

Sztuczna Inteligencja potencjalnie może również dopuścić się naruszenia dóbr osobistych. Zgodnie z art.24 § 1 k.c. ten, czyje dobro osobiste zostaje zagrożone cudzym działaniem, może żądać zaniechania tego działania, a w razie dokonanego naruszenia może on także żądać, ażeby osoba, która dopuściła się naruszenia dopełniła czynności potrzebnych do usunięcia jego skutków. 

Jak podkreśla się jednak w literaturze, cudze działanie oznacza działanie człowieka, a co za tym idzie wpis naruszający dobra osobiste musi pochodzić od człowieka. Przyjmuje się jednak, iż administrator portalu może ponosić odpowiedzialność za wszystkie wpisy zamieszczone w serwisie jeśli ich nie usunie. 

Mając na uwadze problem liability gap Sztucznej Inteligencji w wielu krajach, komitet ds. prawnych Komisji UE przedstawił rekomendacje dotyczące reżimu odpowiedzialności cywilnej jaki mógłby mieć zastosowanie w ustawodawstwie unijnym.  

Eksperci Komisji wskazują, iż niekiedy może być trudno powiązać określone działanie SI z określonym uprzednim działaniem człowieka np. na etapie projektowania algorytmu. Choć SI posiada pewien zakres swobody, jest dziełem człowieka i nie jest w pełni autonomiczna. Dlatego też Komitet co do zasady stoi na stanowisku, że nie ma potrzeby przeprowadzania kompleksowej rewizji rozwiązań prawnych odnośnie odpowiedzialności SI, choć specyfika sztucznej inteligencji wymaga z pewnością dostosowania istniejących rozwiązań w celu zapewnienia możliwości w każdym przypadku osoby odpowiedzialnej za jej działanie.   

Komitet wskazał również, iż właściwą regulacją dla kwestii odpowiedzialności SI mogą być przepisy dotyczące odpowiedzialności za produkt niebezpieczny, a więc na zasadzie ryzyka producenta. W przypadku gdy szkoda została wyrządzona na skutek udziału osoby trzeciej, mogą mieć zastosowanie zasady ogólne. 

Osoba wdrażająca określone rozwiązanie, zarządza ryzykiem powiązanym z działaniem sztucznej inteligencji, co daje podstawę do zastosowania reżimu odpowiedzialności takiej jak za szkodę wyrządzoną przez zwierzęta, za które co do zasady odpowiada właściciel.   

Zdaniem Komitetu, rozwiązaniem problemu liabilty gap SI ma więc być dostosowanie odpowiednich, a przywołanych przez Komitet przepisów i reżimów odpowiedzialności w ustawodawstwie poszczególnych państw unijnych.

Innovations Tax & Legal Care

Autorzy:

Magdalena Raniszewska – radca prawny

Karolina Gałka – aplikant radcowski

Zamknij menu