Sztuczna inteligencja na blogu Law4Tech
Zgodnie z zapowiedzią kontynuujemy serię artykułów dotyczących sztucznej inteligencji. Zachęcamy do zapoznania się ze wcześniejszymi wpisami:
- Czy powinniśmy się bać rozwoju sztucznej inteligencji? (https://law4tech.pl/czy-powinnismy-sie-bac-rozwoju-sztucznej-inteligencji/)
- W jaki sposób sztuczna inteligencja może usprawnić działanie urzędów? (https://law4tech.pl/w-jaki-sposob-sztuczna-inteligencja-moze-usprawnic-dzialanie-urzedow/)
- Rozporządzenie ws. sztucznej inteligencji i jego wpływ na obecne projekty (https://law4tech.pl/rozporzadzenie-w-sprawie-sztucznej-inteligencji-i-jego-wplyw-na-obecne-projekty/)
Na czym skupia się Unia w podejściu do regulacji sztucznej inteligencji?
Zasadniczym założeniem towarzyszącym Komisji Europejskiej od ogłoszenia prac dotyczących prób uregulowania sztucznej inteligencji jest chęć połączenia ze sobą dwóch priorytetów, nazywanych przez Komisję doskonałością i zaufaniem. Podejście oparte na doskonałości polega na takim stworzeniu ram prawnych działania systemów sztucznej inteligencji, aby maksymalnie wykorzystać jej potencjał na polu gospodarczym, komercyjnym, marketingowym czy administracyjnym. Z drugiej strony doskonałość musi łączyć się z zaufaniem, czyli stanem, w którym sztuczna inteligencja będzie wykorzystywana w sposób bezpieczny dla człowieka, a regulacje prawne będą chroniły jego dobrostan oraz prawa podstawowe.
Więcej na temat pierwotnych założeń, który w konsekwencji stanowiły drogowskaz dla autorów projektu unijnego rozporządzenia „Akt w sprawie sztucznej inteligencji” przeczytasz w „Białej księdze w sprawie sztucznej inteligencji. Europejskie podejście do doskonałości i zaufania” (https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_pl.pdf).
Można zatem uznać, że aksjologiczne podejście Unii do uregulowania sztucznej inteligencji jest skupione na człowieku, co materializuje się w ochronie praw podstawowych – wskazywanych jako głównym priorytecie regulatorów. Jeszcze dobitniej ilustruje powyższe fragment uzasadnienia dołączonego do Aktu w sprawie sztucznej inteligencji: „Sztuczna inteligencja powinna działać na rzecz ludzi i społeczeństwa, a ostatecznym celem jest zwiększenie dobrostanu człowieka.” (https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX:52021PC0206).
Jakie prawa podstawowe mogą być zagrożone przez wykorzystanie sztucznej inteligencji?
Rodzi to naturalnie pytania oraz wątpliwości wysuwane ze strony podmiotów skupionych na maksymalizacji zysku wynikającego z wykorzystania systemów sztucznej inteligencji, o których na łamach naszego bloga wspomina Oktawia Sepioł w swoim tekście dot. Rozporządzenia ws, sztucznej inteligencji (https://law4tech.pl/rozporzadzenie-w-sprawie-sztucznej-inteligencji-i-jego-wplyw-na-obecne-projekty/). Patrząc jednak z perspektywy praw każdego z nas, wykorzystanie systemów sztucznej inteligencji przez podmioty prywatne czy publiczne w sposób, który nie podlega restrykcyjnej kontroli jest obarczony ryzykiem dla takich praw podstawowych jak:
- godność;
- prawo do poszanowania integralności fizycznej i psychicznej;
- prawo do ochrony danych osobowych;
- prawo do wolności wypowiedzi;
- prawo do dobrej administracji;
- prawo do skutecznego środka prawnego przed sądem.
Czy to dobre rozwiązanie?
Łatwo zauważyć wagę każdego z tych praw podstawowych dla każdego z nas. Oczywiście potencjalne szkody wywołane działaniem sztucznej inteligencji mogą być mniej lub bardziej dotkliwe. Podobnie jak z ryzykiem ich wystąpienia. Dlatego cała koncepcja stworzenia konkretnych, namacalnych gwarancji bezpieczeństwa opiera się na analizie ryzyka w wykorzystaniu systemów sztucznej inteligencji. Tutaj właśnie jeszcze wyraźniej widać rolę praw podstawowych i ich ochrony, ponieważ Komisja czyni je swoistym drogowskazem w ocenie tego czy dane ryzyko związane z wykorzystaniem sztucznej inteligencji jest niedopuszczalne, wysokie czy minimalne. Ciężko znaleźć bardziej racjonalną metrykę pozwalającą wyważyć odpowiednie proporcje pomiędzy dążeniem do doskonałości, a środkami mającymi zapewnić zaufanie wobec wykorzystywania sztucznej inteligencji.
Unijne podejście do regulacji sztucznej inteligencji może okazać się fantastycznym wzorcem dla innych państw chcących dokonać analogicznych regulacji u siebie. Skupienie legislatorów na maksymalizacji bezpieczeństwa i minimalizacji ryzyka jest dobrą drogą, szczególnie jeśli spojrzymy na wyzwania legislacyjne przez pryzmat społecznych obaw związanych z wykorzystaniem sztucznej inteligencji.