RAPORT

KORONAWIRUS: MAPY, STATYSTYKI, PORADY

Nowe przepisy dot. sztucznej inteligencji. KE wyjaśnia

KE przedstawiła nowe przepisy dot. sztucznej inteligencji (fot. Shutterstock/sdecoret)
KE przedstawiła nowe przepisy dot. sztucznej inteligencji (fot. Shutterstock/sdecoret)

Komisja Europejska ogłosiła „nowe ramy regulacyjne dotyczące sztucznej inteligencji”. Zakazane zostaną rozwiązania oparte na ten innowacyjnej technologii, które będą uznane za zagrażające bezpieczeństwu lub prawom obywateli.

Sztuczna inteligencja rozpozna rysy i przywróci twarze na niewyraźnych zdjęciach

Naukowcy opracowali model AI, który rozpoznaje ludzkie rysy i który podczas obróbki zdjęć pomoże zrekonstruować twarze na rozmazanych fotografiach...

zobacz więcej

Jak podała KE w komunikacie prasowym, „potencjalne korzyści, jakie sztuczna inteligencja (AI) przynosi naszym społeczeństwom, są wielorakie – od lepszej opieki medycznej po lepszą edukację”. Unia Europejska chce więc działać jednomyślnie, aby wykorzystać możliwości, które niesie szybki rozwój technologiczny sztucznej inteligencji.

Komisja Europejska uznała za konieczne „podjęcie działań legislacyjnych w celu zapewnienia dobrze funkcjonującego rynku wewnętrznego systemów AI, na którym odpowiednio uwzględnia się zarówno korzyści, jak i zagrożenia”.

KE poinformowała, że „ramy prawne będą miały zastosowanie zarówno do podmiotów publicznych, jak i prywatnych w Unii i poza nią”. Dotyczy to sytuacji, gdy „dany system AI jest wprowadzany do obrotu w Unii lub jego stosowanie ma wpływ na mieszkańców Unii”.

Kogo będą obowiązywać przepisy?


Przepisy mogą obowiązywać dostawców i użytkowników systemów AI o wysokim ryzyku. Jak dodano, „nie będą one miały zastosowania w przypadku korzystania z rozwiązań AI do celów prywatnych, niezawodowych”. Komisja wyróżnia cztery poziomy ryzyka stosowania AI. Pierwsze to „niedopuszczalne ryzyko”, w ramach którego „zakazana zostanie bardzo ograniczona grupa szczególnie szkodliwych zastosowań sztucznej inteligencji sprzecznych z wartościami UE, ze względu na naruszanie prawa podstawowych”.

Sztuczna inteligencja przewiduje, co byśmy poczuli, gdyby…

Psycholodzy i neurobiolodzy nie od dziś pochylają się nad naturą naszych uczuć. Nie jest tajemnicą, że są one bardzo silnie związane z...

zobacz więcej

Wymieniono tu m.in. wykorzystywanie słabości u dzieci.

Druga kategoria to „wysokie ryzyko”, która dotyczy ograniczonej liczby systemów AI, mających „negatywny wpływ na bezpieczeństwo ludzi lub ich prawa podstawowe (chronione na mocy Karty praw podstawowych Unii Europejskiej)”.

Dla wszystkich systemów AI wysokiego ryzyka wprowadzono obowiązkowe wymogi. Obejmują one „jakość stosowanych zbiorów danych, dokumentację techniczną i prowadzenie dokumentacji, przejrzystość i przekazywanie informacji użytkownikom, nadzór ze strony człowieka oraz solidność, dokładność i cyberbezpieczeństwo”.

Zobacz także: Sztuczna inteligencja rozpoznaje choroby genetyczne


Trzeci poziom to „ograniczone ryzyko”. Dotyczy on wyraźnego ryzyka manipulacji, np. w przypadku zastosowania wirtualnych rozmówców.

„Użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną”


Wprowadzono tu również konkretne wymogi w zakresie przejrzystości. KE zaznaczyła, że „użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną”.

Czwarta kategoria to „minimalne ryzyko”. Jak wyjaśniono w komunikacie, „wszystkie pozostałe systemy AI można opracowywać i wykorzystywać z zastrzeżeniem obowiązujących przepisów bez konieczności stosowania się do dodatkowych obowiązków”.

Sztuczna inteligencja została wyposażona w intuicję

Sztuczna inteligencja została wyposażona w intuicję. Wprawdzie jedynie matematyczną, ale to dopiero początek. Jak objaśniają na łamach najnowszego...

zobacz więcej

Większość systemów sztucznej inteligencji wykorzystywanych w UE należy właśnie do tego poziomu. „Dostawcy tych systemów mogą dobrowolnie zdecydować się na stosowanie wymogów dotyczących wiarygodnej sztucznej inteligencji i zobowiązać się do przestrzegania dobrowolnych kodeksów postępowania” – podano.

Zobacz także: Polacy chcą wykorzystać AI do cyberbezpieczeństwa w szkołach


Kryteria klasyfikacji obejmują skalę wykorzystania rozwiązań sztucznej inteligencji, przeznaczenie, „liczbę osób, na które dane zastosowanie może potencjalnie wywierać wpływ, zależność od wyniku i nieodwracalność szkód, a także stopień, w jakim obowiązujące prawodawstwo Unii przewiduje skuteczne środki służące zapobieganiu tym zagrożeniom lub znacznemu ich minimalizowaniu”. Stosowanie i egzekwowanie przepisów będzie spoczywać na państwach członkowskich UE. W tym celu każdy kraj powinien wyznaczyć co najmniej jeden organ „odpowiedzialny za nadzór nad stosowaniem i wdrażaniem odnośnych przepisów, a także za prowadzenie działań w zakresie nadzoru rynku”.

Szczegóły organizacyjne


Jak podkreślono, jeden krajowy organ nadzorczy „będzie reprezentował dane państwo w Europejskiej Radzie ds. Sztucznej Inteligencji”. W jej zaś skład „wejdą wysokiego szczebla przedstawiciele właściwych krajowych organów nadzoru, Europejskiego Inspektora Ochrony Danych oraz Komisji”.

Sztuczna inteligencja szuka leków na COVID-19

Naukowcy opracowali nowy system oparty na uczeniu maszynowym. Jego zadaniem jest identyfikacja leków, które mogą być wykorzystywane do walki z...

zobacz więcej

Będzie ona m.in. „kierować do Komisji zalecenia i opinie dotyczące systemów AI wysokiego ryzyka oraz innych aspektów istotnych z punktu widzenia skutecznego i jednolitego wdrażania nowych przepisów”.

W komunikacie zauważono, że rozporządzenie „dopiero nabiera kształtu i UE będzie podejmować działania wspierające ustanawianie globalnych standardów w zakresie AI w ścisłej współpracy z partnerami międzynarodowymi, zgodnie z wielostronnym systemem opartym na zasadach i w poszanowaniu wartości, które UE wyznaje”. Dodano też, że Unia Europejska „zamierza pogłębić partnerstwa, koalicje i sojusze z partnerami UE (np. Japonią, USA czy Indiami), a także organizacjami wielostronnymi (np. OECD i G-20) i regionalnymi (np. Radą Europy)”.

Zobacz także: Polityka rozwoju sztucznej inteligencji w Polsce


źródło:
Zobacz więcej