Skip to main content

Unijne podejście do regulacji sztucznej inteligencji. Czy ochrona praw podstawowych powinna być priorytetem?

By 18 października, 2022Aktualności

Sztuczna inteligencja na blogu Law4Tech

Zgodnie z zapowiedzią kontynuujemy serię artykułów dotyczących sztucznej inteligencji. Zachęcamy do zapoznania się ze wcześniejszymi wpisami:

  1. Czy powinniśmy się bać rozwoju sztucznej inteligencji? (https://law4tech.pl/czy-powinnismy-sie-bac-rozwoju-sztucznej-inteligencji/)
  2. W jaki sposób sztuczna inteligencja może usprawnić działanie urzędów? (https://law4tech.pl/w-jaki-sposob-sztuczna-inteligencja-moze-usprawnic-dzialanie-urzedow/)
  3. Rozporządzenie ws. sztucznej inteligencji i jego wpływ na obecne projekty (https://law4tech.pl/rozporzadzenie-w-sprawie-sztucznej-inteligencji-i-jego-wplyw-na-obecne-projekty/)

 

Na czym skupia się Unia w podejściu do regulacji sztucznej inteligencji?

Zasadniczym założeniem towarzyszącym Komisji Europejskiej od ogłoszenia prac dotyczących prób uregulowania sztucznej inteligencji jest chęć połączenia ze sobą dwóch priorytetów, nazywanych przez Komisję doskonałością i zaufaniem. Podejście oparte na doskonałości polega na takim stworzeniu ram prawnych działania systemów sztucznej inteligencji, aby maksymalnie wykorzystać jej potencjał na polu gospodarczym, komercyjnym, marketingowym czy administracyjnym. Z drugiej strony doskonałość musi łączyć się z zaufaniem, czyli stanem, w którym sztuczna inteligencja będzie wykorzystywana w sposób bezpieczny dla człowieka, a regulacje prawne będą chroniły jego dobrostan oraz prawa podstawowe.

Więcej na temat pierwotnych założeń, który w konsekwencji stanowiły drogowskaz dla autorów projektu unijnego rozporządzenia „Akt w sprawie sztucznej inteligencji” przeczytasz w „Białej księdze w sprawie sztucznej inteligencji. Europejskie podejście do doskonałości i zaufania” (https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_pl.pdf).

Można zatem uznać, że aksjologiczne podejście Unii do uregulowania sztucznej inteligencji jest skupione na człowieku, co materializuje się w ochronie praw podstawowych – wskazywanych jako głównym priorytecie regulatorów. Jeszcze dobitniej ilustruje powyższe fragment uzasadnienia dołączonego do Aktu w sprawie sztucznej inteligencji: „Sztuczna inteligencja powinna działać na rzecz ludzi i społeczeństwa, a ostatecznym celem jest zwiększenie dobrostanu człowieka.” (https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX:52021PC0206).

 

Jakie prawa podstawowe mogą być zagrożone przez wykorzystanie sztucznej inteligencji?

Rodzi to naturalnie pytania oraz wątpliwości wysuwane ze strony podmiotów skupionych na maksymalizacji zysku wynikającego z wykorzystania systemów sztucznej inteligencji, o których na łamach naszego bloga wspomina Oktawia Sepioł w swoim tekście dot. Rozporządzenia ws, sztucznej inteligencji (https://law4tech.pl/rozporzadzenie-w-sprawie-sztucznej-inteligencji-i-jego-wplyw-na-obecne-projekty/). Patrząc jednak z perspektywy praw każdego z nas, wykorzystanie systemów sztucznej inteligencji przez podmioty prywatne czy publiczne w sposób, który nie podlega restrykcyjnej kontroli jest obarczony ryzykiem dla takich praw podstawowych jak:

  • godność;
  • prawo do poszanowania integralności fizycznej i psychicznej;
  • prawo do ochrony danych osobowych;
  • prawo do wolności wypowiedzi;
  • prawo do dobrej administracji;
  • prawo do skutecznego środka prawnego przed sądem.

 

Czy to dobre rozwiązanie?

Łatwo zauważyć wagę każdego z tych praw podstawowych dla każdego z nas. Oczywiście potencjalne szkody wywołane działaniem sztucznej inteligencji mogą być mniej lub bardziej dotkliwe. Podobnie jak z ryzykiem ich wystąpienia. Dlatego cała koncepcja stworzenia konkretnych, namacalnych gwarancji bezpieczeństwa opiera się na analizie ryzyka w wykorzystaniu systemów sztucznej inteligencji. Tutaj właśnie jeszcze wyraźniej widać rolę praw podstawowych i ich ochrony, ponieważ Komisja czyni je swoistym drogowskazem w ocenie tego czy dane ryzyko związane z wykorzystaniem sztucznej inteligencji jest niedopuszczalne, wysokie czy minimalne. Ciężko znaleźć bardziej racjonalną metrykę pozwalającą wyważyć odpowiednie proporcje pomiędzy dążeniem do doskonałości, a środkami mającymi zapewnić zaufanie wobec wykorzystywania sztucznej inteligencji.

Unijne podejście do regulacji sztucznej inteligencji może okazać się fantastycznym wzorcem dla innych państw chcących dokonać analogicznych regulacji u siebie. Skupienie legislatorów na maksymalizacji bezpieczeństwa i minimalizacji ryzyka jest dobrą drogą, szczególnie jeśli spojrzymy na wyzwania legislacyjne przez pryzmat społecznych obaw związanych z wykorzystaniem sztucznej inteligencji.

  Autor: Jakub Kozłowski