Wróć do bloga

Sztuczna inteligencja – 5 najważniejszych zagrożeń prawnych


AI działa na zasadzie użycia danych, które zostały do niego wprowadzone przez twórcę i weryfikacji zapytań użytkowników. Na podstawie danych, którymi gospodaruje, AI generuje najbardziej prawdopodobną odpowiedź. Nie jest to magiczna formuła generująca poprawne rozwiązanie, a matematyczne prawdopodobieństwo.

Mając więc dostęp do bardzo szerokiej bazy danych zawierającej wszystkie potrzebne do odpowiedzi dane, Chat GPT potrafi odpowiedzieć na pytanie. Potrafi też wygenerować tekst w odpowiednim stylu, formacie czy nawet napisać wiersz.

Kiedy Chat GPT… nie wie?

Co dzieje się jednak, kiedy Chat GPT nie ma wystarczającej ilości danych w swojej bazie, aby odpowiedzieć na dane pytanie? Czy czat odpowie, że nie zna danej odpowiedzi? Niestety nie. Chat nie wie, że nie zna odpowiedzi i szuka najbardziej prawdopodobnego rozwiązania. Tzn. jeśli zapytam o skrót danej sprawy Sądu Okręgowego, a czat tej danej sprawy nie zna, to odpowie mi najbardziej prawdopodobną odpowiedzią. W praktyce – streści mi zupełnie inną sprawę, w której wyrok wydał właśnie Sąd Okręgowy. 

Jako prawnicy zastanawiamy się więc, jakie nowe zagrożenia pojawiają się wraz z powszechnym użyciem AI. Poniżej opis zagrożeń prawnych przy użytkowaniu AI (z wyłączeniem zagrożeń związanych z użyciem wytworów AI).

Zagrożenie nr 1 – niekompletna baza danych 

  • Zarówno pojedyncze artykuły, opracowania, czy też pełne bazy danych są chronione przed ich użyciem bez wiedzy i woli twórcy.
  • W zakresie aplikacji służących do generowania obrazów już teraz widać znaczne naruszenia praw autorskich innych osób – z uwagi na generowanie obrazów z naniesionymi na nie znakami wodnymi.

 

Rozwiązania prawne: UE wspiera rozwój AI, m.in. uchwalając akty ułatwiające wymianę danych nieosobowych:

  1. Data Governance Act – DGA – rozporządzenie skupi się na mechanizmach ułatwiających ponowne wykorzystania niektórych kategorii chronionych danych sektora publicznego;
  2. Data Act – rozporządzenie reguluje podmioty i sposoby dostępu do danych nieosobowych generowanych na terenie UE.

 

Zagrożenie nr 2 – brak weryfikowalności danych

Na co najmniej 3 różnych etapach istnieje wysokie ryzyko manipulacji danymi:

  1. jakość i poprawność pobieranych przez AI danych na etapie ich tworzenia;
  2. jakość i poprawność danych na etapie używania AI;
  3. zabezpieczenia przed manipulacją zewnętrzną (hakerską) danych, zarówno na etapie 1 jak i 2. 

 

Rozwiązania prawne: UE postuluje wprowadzenie wymogów weryfikowalności wprowadzanych danych (Raport ENISA z 16 marca 2023 r.) – zarówno w ramach wymogów ustawowych jak i wymagań branżowych. 

Zagrożenie nr 3 – naruszenia danych osobowych (RODO)

  1. Zagrożenie dla twórcy – konieczność zabezpieczenia danych, wprowadzenia mechanizmów weryfikacji wprowadzanych danych, zabezpieczenia treści przed dostępem nieletnich (patrz: Zakaz użycia Chatu GPT we Włoszech). 
  2. Zagrożenia dla użytkownika – możliwość wypływu danych, konieczna ostrożność w zakresie użycia danych innych osób oraz swoich danych wrażliwych.

 

Rozwiązania prawne: ENISA postuluje wprowadzenie dodatkowych wymagań w zakresie cyberbezpieczeństwa w normach branżowych/ISO. Postuluje też uwzględnienie w AI Act szczególnych norm postępowania w zakresie rozwiązań wysokiego ryzyka (np.  dotyczących przetwarzania danych wrażliwych, w tym biometrycznych).

Zagrożenie nr 4 – naruszenie tajemnicy przedsiębiorstwa / tajemnic branżowych (bankowa/ubezpieczeniowa)

  1. Zagrożenia dla twórcy – w przypadku wprowadzenia weryfikowalności wprowadzanych danych, możliwość wypływu informacji stanowiących tajemnice (np. kod źródłowy, wzory obliczeń).
  2. Zagrożenia dla użytkownika – w szczególności w zakresie działalności biznesowej. AI wykorzystuje dane wpisane przez użytkowników (ML – wciąż się uczy). Użytkownik więc nie dzieli się informacjami poufnymi tylko z innymi twórcą AI, ale całą społecznością korzystającą z tego rozwiązania.

 

Rozwiązania prawne: Wystarczające wydają się obecne rozwiązania prawne, natomiast konieczne jest szkolenie i uświadamianie pracowników.

Zagrożenie nr 5 – szkody spowodowane przez działanie AI

Na chwilę obecną  nie wskazano, kto odpowiada za szkody spowodowane przez AI (np. case opisany w Belgijskim dzienniku De Standaard – AI zasugerowała popełnienie samobójstwa). Aspekt wymagający bardzo przemyślanej regulacji. 

Rozwiązania prawne: UE pracuje nad dyrektywą w sprawie dostosowania zasad pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (AI Liability Directive).