Sztuczna inteligencja – 5 najważniejszych zagrożeń prawnych
AI działa na zasadzie użycia danych, które zostały do niego wprowadzone przez twórcę i weryfikacji zapytań użytkowników. Na podstawie danych, którymi gospodaruje, AI generuje najbardziej prawdopodobną odpowiedź. Nie jest to magiczna formuła generująca poprawne rozwiązanie, a matematyczne prawdopodobieństwo.
Mając więc dostęp do bardzo szerokiej bazy danych zawierającej wszystkie potrzebne do odpowiedzi dane, Chat GPT potrafi odpowiedzieć na pytanie. Potrafi też wygenerować tekst w odpowiednim stylu, formacie czy nawet napisać wiersz.
Kiedy Chat GPT… nie wie?
Co dzieje się jednak, kiedy Chat GPT nie ma wystarczającej ilości danych w swojej bazie, aby odpowiedzieć na dane pytanie? Czy czat odpowie, że nie zna danej odpowiedzi? Niestety nie. Chat nie wie, że nie zna odpowiedzi i szuka najbardziej prawdopodobnego rozwiązania. Tzn. jeśli zapytam o skrót danej sprawy Sądu Okręgowego, a czat tej danej sprawy nie zna, to odpowie mi najbardziej prawdopodobną odpowiedzią. W praktyce – streści mi zupełnie inną sprawę, w której wyrok wydał właśnie Sąd Okręgowy.
Jako prawnicy zastanawiamy się więc, jakie nowe zagrożenia pojawiają się wraz z powszechnym użyciem AI. Poniżej opis zagrożeń prawnych przy użytkowaniu AI (z wyłączeniem zagrożeń związanych z użyciem wytworów AI).
Zagrożenie nr 1 – niekompletna baza danych
- Zarówno pojedyncze artykuły, opracowania, czy też pełne bazy danych są chronione przed ich użyciem bez wiedzy i woli twórcy.
- W zakresie aplikacji służących do generowania obrazów już teraz widać znaczne naruszenia praw autorskich innych osób – z uwagi na generowanie obrazów z naniesionymi na nie znakami wodnymi.
Rozwiązania prawne: UE wspiera rozwój AI, m.in. uchwalając akty ułatwiające wymianę danych nieosobowych:
- Data Governance Act – DGA – rozporządzenie skupi się na mechanizmach ułatwiających ponowne wykorzystania niektórych kategorii chronionych danych sektora publicznego;
- Data Act – rozporządzenie reguluje podmioty i sposoby dostępu do danych nieosobowych generowanych na terenie UE.
Zagrożenie nr 2 – brak weryfikowalności danych
Na co najmniej 3 różnych etapach istnieje wysokie ryzyko manipulacji danymi:
- jakość i poprawność pobieranych przez AI danych na etapie ich tworzenia;
- jakość i poprawność danych na etapie używania AI;
- zabezpieczenia przed manipulacją zewnętrzną (hakerską) danych, zarówno na etapie 1 jak i 2.
Rozwiązania prawne: UE postuluje wprowadzenie wymogów weryfikowalności wprowadzanych danych (Raport ENISA z 16 marca 2023 r.) – zarówno w ramach wymogów ustawowych jak i wymagań branżowych.
Zagrożenie nr 3 – naruszenia danych osobowych (RODO)
- Zagrożenie dla twórcy – konieczność zabezpieczenia danych, wprowadzenia mechanizmów weryfikacji wprowadzanych danych, zabezpieczenia treści przed dostępem nieletnich (patrz: Zakaz użycia Chatu GPT we Włoszech).
- Zagrożenia dla użytkownika – możliwość wypływu danych, konieczna ostrożność w zakresie użycia danych innych osób oraz swoich danych wrażliwych.
Rozwiązania prawne: ENISA postuluje wprowadzenie dodatkowych wymagań w zakresie cyberbezpieczeństwa w normach branżowych/ISO. Postuluje też uwzględnienie w AI Act szczególnych norm postępowania w zakresie rozwiązań wysokiego ryzyka (np. dotyczących przetwarzania danych wrażliwych, w tym biometrycznych).
Zagrożenie nr 4 – naruszenie tajemnicy przedsiębiorstwa / tajemnic branżowych (bankowa/ubezpieczeniowa)
- Zagrożenia dla twórcy – w przypadku wprowadzenia weryfikowalności wprowadzanych danych, możliwość wypływu informacji stanowiących tajemnice (np. kod źródłowy, wzory obliczeń).
- Zagrożenia dla użytkownika – w szczególności w zakresie działalności biznesowej. AI wykorzystuje dane wpisane przez użytkowników (ML – wciąż się uczy). Użytkownik więc nie dzieli się informacjami poufnymi tylko z innymi twórcą AI, ale całą społecznością korzystającą z tego rozwiązania.
Rozwiązania prawne: Wystarczające wydają się obecne rozwiązania prawne, natomiast konieczne jest szkolenie i uświadamianie pracowników.
Zagrożenie nr 5 – szkody spowodowane przez działanie AI
Na chwilę obecną nie wskazano, kto odpowiada za szkody spowodowane przez AI (np. case opisany w Belgijskim dzienniku De Standaard – AI zasugerowała popełnienie samobójstwa). Aspekt wymagający bardzo przemyślanej regulacji.
Rozwiązania prawne: UE pracuje nad dyrektywą w sprawie dostosowania zasad pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (AI Liability Directive).