Skip to main content

Definicja systemu sztucznej inteligencji z perspektywy Data Scientist

By 19 sierpnia, 2022Aktualności
Źródło: Adobe Stock

Dynamiczny rozwój systemów sztucznej inteligencji („SI”), a także znaczący wzrost ich implementacji, zarówno przez podmioty prywatne jak i publiczne wzbudził obawy w zakresie ich etycznego i odpowiedzialnego wykorzystywania. W Europie nikt już nie ma wątpliwości, że w tej dziedzinie konieczne stało się wprowadzenie odpowiednich regulacji prawnych. Sztuczna inteligencja stanowi jedno z wyzwań stojących przed europejskim prawodawcą. W szczególności jednym z nich jest określenie definicji legalnej „systemów sztucznej inteligencji”. Od jej charakteru w dużej mierze zależeć będzie zakres zastosowania unijnego rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji i zmieniającego niektóre akty ustawodawcze Unii („AI Act”).

Propozycje definicji legalnej SI w projekcie AI Act

 W opublikowanym w kwietniu 2021 r. projekcie AI Act Komisja Europejska przedstawiła następującą definicję sztucznej inteligencji:

Art. 3 pkt. 1 „system sztucznej inteligencji” oznacza oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję; 

załącznik I

TECHNIKI I PODEJŚCIA Z ZAKRESU SZTUCZNEJ INTELIGENCJI, o których mowa w art. 3 pkt 1

mechanizmy uczenia maszynowego, w tym uczenie nadzorowane, uczenie się maszyn bez nadzoru i uczenie przez wzmacnianie, z wykorzystaniem szerokiej gamy metod, w tym uczenia głębokiego; metody oparte na logice i wiedzy, w tym reprezentacja wiedzy, indukcyjne programowanie (logiczne), bazy wiedzy, silniki inferencyjne i dedukcyjne, rozumowanie (symboliczne) i systemy ekspertowe; podejścia statystyczne, i optymalizacji

Zaproponowana definicja sztucznej inteligencji spotkała się jednak z krytyką wielu środowisk. Wśród głównych zarzutów wskazywano fakt, że jest ona zbyt szeroka i swym zakresem obejmowałaby systemy, które z perspektywy technicznej nie powinny być utożsamiane z systemami sztucznej inteligencji.

Kompromis?

W dniu 15 lipca 2022 r. czeska Prezydencja Rady Unii Europejskiej przedstawiła kompromisowy projekt rozporządzenia wprowadzający znaczące zmiany w stosunku do pierwotnego projektu – między innymi w zakresie definicji systemu sztucznej inteligencji. Jak możemy przeczytać w punkcie 1.1 w/w projektu “W odpowiedzi na obawy Państw członkowskich, iż definicja systemu sztucznej inteligencji jest zbyt niejednoznaczna i szeroka oraz że nie zapewnia wystarczająco jasnych kryteriów odróżniania AI od bardziej klasycznych systemów oprogramowania, prezydencja czeska zaproponowała nową wersję definicji w art. 3 ust. 1, która zawęża ją do systemów opracowanych za pomocą technik uczenia maszynowego i podejść opartych na wiedzy”. Warto zauważyć, iż do nowej propozycji definicji SI dodano pojęcie autonomii, a także zrezygnowano z odesłania do treści załącznika I.

Zaproponowana definicja prezentuje się następująco:

‘artificial intelligence system’ (AI system) means a system that is designed to operate with a certain level of autonomy and that, based on machine and/or human-provided data and inputs, infers how to achieve a given set of human-defined objectives using machine learning and/or logic- and knowledge based approaches, and produces system-generated outputs such as content (generative AI systems), predictions, recommendations or decisions , influencing the environments with which the AI system interacts;

Sztuczna inteligencja – czeska definicja okiem Data Scientist

 Pierwszym fragmentem, który już na samym początku stawia zaproponowaną definicję pod znakiem zapytania jest stwierdzenie, że systemy sztucznej inteligencji projektowane są w taki sposób, by działać z pewnym poziomem autonomii. Jeśli autonomię rozumiemy jako samodzielność i niezależność w decydowaniu o sobie [Źródło: PWN] to wiele systemów mogłoby być wykluczone z tak sformułowanej definicji SI. Modele Sztucznej Inteligencji oparte są na danych/wiedzy, która jest im dostarczana, a to trochę tak jakby z góry nadawane były im zasady, wedle których mają funkcjonować. Od modeli SI wymagana jest precyzyjność, dostrzeganie matematycznych wzorców, które nie są widoczne dla człowieka gołym okiem. Bardzo często budowane są modele uczenia maszynowego, od których oczekuje się, że zautomatyzują podejmowanie określonych decyzji – dla których znamy odpowiedź, ale chcemy by takich decyzji było podejmowanych miliony na sekundę. Czy wtedy taki system posiada jakikolwiek poziom autonomii? Jest to dosyć kontrowersyjne i z pewnością mogłoby stać się polem do dyskusji.

W dalszej części czeskiej definicji natrafiamy na fragment, który opisuje ideę budowania systemów AI, a mianowicie „osiągnięcie określonego zestawu celów zdefiniowanych przez człowieka”. Ta koncepcja wydaje się być nieco wąska. Warto postawić tutaj pytanie, a co jeśli zostaną stworzone systemy, których zadaniem będzie dostrzeganie potencjalnych problemów, a następnie przekazywanie ich kolejnym systemom AI do rozwiązania. Czy wtedy autorem zdefiniowanych celów będzie człowiek, czy system? Tutaj również mogą pojawić się pewne wątpliwości.

Definicja SI – w poszukiwaniu złotego środka

Należy podkreślić, że obecnie brak jest powszechnie akceptowanej definicji „sztucznej inteligencji”. W przestrzeni publicznej pojęcie to jest wykorzystywane tak naprawdę dla celów marketingowych, jako tzw. buzzword. Pod kątem technicznym, obszar SI jest tak szeroki, że jakakolwiek próba jego zdefiniowania prowadzi do stworzenia skomplikowanego i często kontrowersyjnego opisu. Kluczowym elementem ewentualnej definicji powinno być uwzględnienie, że SI ma możliwość „uczenia się”, bazując na dostarczonych lub zdobytych przez ten system informacjach. Być może rozdzielenie tego pojęcia na mniejsze elementy nieco ułatwiłoby zadanie. Z punktu technicznego moglibyśmy rozdzielić SI na kilka nieco pokrywających się między sobą poddziedzin, tj. Uczenie Maszynowe, Głębokie Uczenie Maszynowe, Analiza Predykcyjna, Sieci Neuronowe, Cognitive Computing, Przetwarzanie Języka Naturalnego (NLP), Wizja Komputerowa (Computer Vision).

Podsumowanie – dalsza debata

W przestrzeni eksperckiej nadal trwa debata nad zakresem definicji SI. Z jednej strony istnieje ryzyko zbyt wąskiego określenia SI. Warto przy tym przypomnieć, że główny cel wprowadzenia definicji SI w projekcie AI Act pozostaje niezmienny: „Pojęcie systemu sztucznej inteligencji powinno być jasno zdefiniowane w celu zapewnienia pewności prawa, przy jednoczesnym zapewnieniu elastyczności umożliwiającej dostosowanie się do przyszłego rozwoju technologicznego.” Europejski prawodawca ma świadomość, że SI ciągle znajduje się w fazie rozwoju i niezwykle ciężko jest przewidzieć jego kierunek. Zbyt wąskie sformułowanie definicji mogłoby doprowadzić do jej szybkiej dezaktualizacji, a to mogłoby skończyć się utratą kontroli prawnej nad wieloma rozwiązaniami technologicznymi. Z drugiej strony zbyt szerokie ujęcie SI mogłoby doprowadzić do zahamowania jej rozwoju. Ze względu na jej nieostry charakter organizacje mogłyby być zmuszone do przeprowadzenia audytu, czy konkretny system stanowi SI w rozumieniu AI Act. Zapewnienie zgodności systemów sztucznej inteligencji z treścią regulacji AI Act będzie wymagało przy tym wdrożenia odpowiednich procedur, a co za tym idzie wzrostu nakładów finansowych. Zarówno małe, średnie firmy mogłyby mieć spory problem z utrzymaniem konkurencyjności w stosunku do większych podmiotów, w tym szczególności gigantów technologicznych.

Niezależnie od tego w jakim kształcie ostatecznie zostanie przyjęta definicja SI w AI Act, możemy być pewni, że jego wejście w życie będzie stanowiło spore wyzwanie dla całej branży. Przede wszystkim dla menedżerów, którzy będą musieli przygotować swoje organizacje do nadchodzących regulacji.

Więcej wiedzy

Jeśli chciałabyś/chciałbyś dowiedzieć się więcej na temat regulacji o AI zachęcamy do lektury naszych pozostałych tekstów, w tym:

Unijne podejście do regulacji sztucznej inteligencji. Czy ochrona praw podstawowych powinna być priorytetem?

Rozporządzenie ws. sztucznej inteligencji i jego wpływ na obecne projekty

 

Źródła:

  1. https://www.euractiv.com/section/digital/news/ai-act-czech-presidency-pushes-narrower-ai-definition-shorter-high-risk-list/
  2. https://www.shrm.org/hr-today/news/all-things-work/pages/regulations-ahead-on-artificial-intelligence.aspx
  3. Pei Wang, Department of Computer and Information Sciences, Temple University 1925 North 12th Street, Philadelphia, PA 19122-1801, USA “On Defining Artificial Intelligence” – Journal of Artificial General Intelligence 10(2) 1-37, 2019
  4. https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0012.02/DOC_1&format=PDF
  5. https://artificialintelligenceact.eu/wp-content/uploads/2022/07/AIA-CZ-1st-Proposal-15-July.pdf
  6. https://sjp.pwn.pl/sjp/autonomia;2551312.html

  Autor: DS Hacker