Skip to main content

Rozporządzenie ws. sztucznej inteligencji i jego wpływ na obecne projekty

By 22 lutego, 2022Aktualności

Powoli obserwujemy jak sztuczna inteligencja (AI) staje się dziedziną o strategicznym znaczeniu gospodarczym i głównym motorem rozwoju nowych technologii. Może ona stanowić remedium na problemy pojawiające się w wielu branżach, takich jak medycyna, ochrona środowiska, czy inteligentna administracja. Sztuczna inteligencja daje maszynom i systemom zdolność do samodzielnego analizowania swojego otoczenia i podejmowania decyzji bez udziału ludzkiego operatora. Jednakże podjęcie takiej decyzji przez oprogramowanie, bez kontroli człowieka, wiąże się z ryzykiem.

Rozporządzenie ws. sztucznej inteligencji

Nie dziwi zatem, że tak kluczowy obszar współczesnego systemu gospodarczego stał się przedmiotem zainteresowania europejskiego prawodawcy. W konsekwencji 21 kwietnia 2021 r. Komisja Europejska przedstawiła projekt rozporządzenia ws. sztucznej inteligencji – Artificial Intelligence Act (dalej: AIA). Jego treść natychmiast stał się przedmiotem szerokiej dyskusji w całej Europie.

Oczywiście wspomniana propozycja nie była zaskoczeniem dla społeczności europejskiej. Zainteresowanie Komisji Europejskiej sztuczną inteligencją jest częścią złożonej strategii zatytułowanej „Europejska droga do Cyfrowej Dekady”. Jednakże opublikowanie prawdopodobnego kształtu przyszłych przepisów dało obraz możliwych skutków dla funkcjonujących na rynku firm technologicznych.  

W Europie pojawiły się głosy, iż proponowane przez instytucje unijne przepisy są zbyt restrykcyjne. Nadmierne uregulowanie nowej technologii prowadzi do spowolnienia rozwoju sztucznej inteligencji. Z tego względu, kwestia nadchodzącej regulacji stała się istotna dla całej branży technologicznej.

Z drugiej jednak strony, omawiane rozporządzenie ma na celu uczynienie z Unii Europejskiej globalnego centrum godnej zaufania sztucznej inteligencji. Są to pierwsze ramy prawne, które uwzględniają nie tylko zalety nowej technologii, ale także związane z nią zagrożenia. W założeniu proponowane przepisy sprawią, że systemy sztucznej inteligencji produkowane lub wykorzystywane w Unii Europejskiej będą bezpieczne, etyczne i kontrolowane przez człowieka.

Powyższy efekt zapewnić ma wprowadzenie szeregu obowiązków, które obciążać będą producentów i podmioty wykorzystujące sztuczną inteligencję. Projektując nowe regulacje, Komisja Europejska przyjęła podejście oparte na ocenie ryzyka. Na tej podstawie, producentom i użytkownikom pośrednim narzucone zostaną proporcjonalne obowiązki, odpowiadające wykrytym zagrożeniom. Idea taka została wprost nakreślona w 14 punkcie preambuły AIA.

Należy jednak zastanowić się, czy zaproponowane przepisy rzeczywiście spełnią wskazane wyżej założenia. Może przeciwnie, doprowadzą do ograniczenia sektora technologicznego. Kwestia ta pozostaje istotna również dla polskiej gospodarki. Jak bowiem wskazano w zeszłorocznym raporcie Fundacji DigitalPoland, pod względem liczby ekspertów pracujących nad rozwojem lub wdrożeniem AI, Polska zajmuje 1. miejsce wśród krajów Europy Środkowo-Wschodniej.

Na kogo zostaną nałożone dodatkowe obowiązki, wynikające z rozporządzenia?

Zgodnie z art. 2 rozporządzenia ws. sztucznej inteligencji, projekt dotyczy:

1) dostawców wprowadzających do obrotu lub oddających do użytku systemy sztucznej inteligencji w Unii, niezależnie od tego, gdzie dostawcy ci mają siedzibę,

2) użytkowników systemów AI znajdujących się na terytorium Unii,

3) dostawców i użytkowników systemów AI znajdujących się w państwie trzecim, produkujących produkty wykorzystywane w Unii.

Pomimo, iż w dalszych częściach ww. przepisu przewidziano wyłączenia (takie jak wykorzystanie sztucznej inteligencji w celach wojskowych lub współpracy sądowej) i tak wyraźna jest tendencja do nałożenia obowiązków na jak najszersze grono podmiotów.

Jakie systemy zostaną objęte rozporządzeniem ws. sztucznej inteligencji?

Zakres urządzeń uznawanych za systemy AI został określony w artykule 3 pkt 1) AIA. Definicja składa się zasadniczo z dwóch elementów, które muszą być w równym stopniu uwzględnione:

  1. oprogramowanie oparte na technikach, czy podejściach wymienionych w załączniku I,
  2. zdolność do generowania wyników (takich jak treść, przewidywania, zalecenia lub decyzje) dla danego, określonego przez człowieka celu.

Lista metod w załączniku I jest dość szeroka i obejmuje m.in. metody statystyczne, uczenie maszynowe i głębokie uczenie, ale także metody optymalizacji. Ponadto w art. 4 AIA Komisji Europejskiej przyznano prawo do zmiany listy w celu dostosowania jej do rozwoju technologii. Zatem zakres systemów informatycznych objętych rozporządzeniem będzie się prawdopodobnie zwiększał.

W projekcie rozporządzenia wyróżniono kategorie systemów AI, różnicując je właśnie na podstawie przewidywanego ryzyka. Przypisanie określonego urządzenia do jego kategorii jest istotne dla dalszego określenia obowiązków operatora. Analiza przepisów wskazuje, że istnieją cztery główne kategorie systemów AI. Każda z nich podlega innemu reżimowi prawnemu.

  1. Sztuczna inteligencja, której wykorzystanie zostało zakazane w art. 5 AIA, tj. systemy służące do scoringu społecznego lub rozwiązania wykorzystujące manipulację podprogową w celu wpływania na ludzkie zachowanie.
  2. Systemy wysokiego ryzyka określone w art. 6 AIA, np. systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym, systemy wykorzystywane do rekrutacji lub oceny zdolności kredytowej oraz medyczne zastosowania AI.
  3. Niektóre systemy AI podlegające obowiązkowi przejrzystości określonemu w tytule IV AIA, np. chatboty.
  4. Inne systemy AI bez szczególnych wymagań wskazanych w projekcie rozporządzenia, np. filtry antyspamowe, konwersja mowy na tekst i automatyczne tłumaczenie tekstu.

Oczywiście największa ilość wymagań musi zostać spełniona przez producentów i użytkowników pośrednich systemów wysokiego ryzyka (opisanych powyżej jako pkt. 2). Nie można jednak zapomnieć o obowiązkach przejrzystości, narzuconych na podmioty wykorzystujące AI o ograniczonym stopniu ryzyka (powyżej wskazane w pkt. 3).

Czy przyszła regulacja już teraz wpływa na obecny rynek?

25 stycznia 2022 r. Parlament Europejski przystąpił do rozpatrywania wniosku Komisji w sprawie uchwalenia omawianego aktu prawnego. Kiedy zatem podmioty z branży technologicznej mogą spodziewać się nałożenia na nie opisywanych wyżej obowiązków? Nowe rozporządzenie wejdzie w życie dwudziestego dnia po jego opublikowaniu w Dzienniku Urzędowym Unii Europejskiej. Natomiast zastosowanie znajdzie dopiero 24 miesiące po tej dacie. 

Nie oznacza to jednak, iż nadchodzące prawodawstwo należy zignorować do czasu rozpoczęcia jego stosowania. Z perspektywy software house’ów, ale także podmiotów z innych branż, zwyczajnie wykorzystujących sztuczną inteligencję, istotne znaczenie będą miały przepisy przejściowe (w szczególności art. 83 AIA). Przepisy nowego rozporządzenia znajdą bowiem zastosowanie jedynie do tych systemów sztucznej inteligencji wysokiego ryzyka, które:

1)     oddane zostaną do użytku po dniu rozpoczęcia stosowania rozporządzenia lub

2)     zostały wcześniej wdrożone, lecz w znaczący sposób zmieniły swoje przeznaczenie lub strukturę.

Powyższe oznacza, iż wszelkie podmioty planujące w kolejnych latach wdrożenie sztucznej inteligencji do swoich struktur, powinny już w tym momencie zastanowić się nad odpowiednią kwalifikacji rozwijanego oprogramowania na gruncie przepisów AIA.

W przypadku zakwalifikowania rozwijanego systemu do kategorii wysokiego ryzyka, może się okazać, iż jego rozwój i oddanie do użytku przed upływem 2 lat od wejścia w życie rozporządzenia, będzie rozwiązaniem łatwiejszym i tańszym, niż sprostanie szeregowi obowiązków wynikających z nowych przepisów. Jak się okazuje, moment rozpoczęcia wykorzystania systemu opartego na sztucznej inteligencji jest kluczowy pod względem stosowania przepisów nowego rozporządzenia.  

Tymczasem w przypadku zakwalifikowania oprogramowania do przewidzianej przez AIA kategorii “systemów zakazanych”, stanie się on niezgodny z nowymi przepisami. Nawet pomimo jego wdrożenia przed uchwaleniem rozporządzenia. To natomiast może pociągnąć za sobą konieczność likwidacji takiego oprogramowania, a co za tym idzie, znacznych strat finansowych. Ma to znaczenie zwłaszcza w kontekście obecnie rozwijanych projektów technologicznych, nawet w przypadku ich ukończenia przed momentem wejścia w życie nowego rozporządzenia. 

 

Zapraszamy do zapoznania się również z pozostałymi tekstami na temat sztucznej inteligencji. W jaki sposób sztuczna inteligencja może usprawnić działanie urzędów?

  Autor: Oktawia Sepioł