Przepisy mają na celu m. in. ochronę praw człowieka. Parlament Europejski w Strasburgu zatwierdził akt w sprawie sztucznej inteligencji. Nowe regulacje pozwalają na zbudowanie środowiska prawnego, które z jednej strony zapewnią możliwość rozwoju sztucznej inteligencji, a z drugiej gwarantują poszanowanie praw człowieka i minimalizują zjawisko dyskryminacji. Rozporządzenie musi też formalnie przyjąć Rada. Wejdzie w życie 20 dni po publikacji w Dzienniku Urzędowym, a w pełni obowiązywać zacznie 24 miesiące później.Nowe przepisy zakazują pewnych zastosowań sztucznej inteligencji, które zagrażają prawom obywateli. Są to między innymi systemy kategoryzacji biometrycznej, które wykorzystują cechy wrażliwe, i nieukierunkowane pobieranie wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej, by stworzyć bazy danych służące rozpoznawaniu twarzy. Zakazane będą też rozpoznawanie za pomocą AI emocji w miejscu pracy i instytucjach edukacyjnych, prognozowanie przestępczości (wyłącznie na podstawie profilowania osoby lub oceny jej cech). Nie będzie też dozwolona sztuczna inteligencja, która manipuluje zachowaniem ludzi lub wykorzystuje ich słabości.Zastosowanie sztucznej inteligencjiSztuczna inteligencja to zdolność maszyn do wykazywania ludzkich umiejętności, takich jak rozumowanie, uczenie się, planowanie i kreatywność. Umożliwia systemom technicznym postrzeganie ich otoczenia, radzenie sobie z tym, co postrzegają i rozwiązywanie problemów, działając w kierunku osiągnięcia określonego celu. Komputer odbiera dane (przekazane lub zebrane za pomocą jego czujników, np. kamery), przetwarza je i reaguje.Sztuczna inteligencja może przynieść wiele korzyści, takich jak automatyzacja procesów, uczenie się i analiza danych, jednak istnieją również pewne wady, takie jak koszt tworzenia i utrzymania, brak empatii i zrozumienia, bezpieczeństwo i prywatność oraz ryzyko utraty miejsc pracy.Korzyści ze sztucznej inteligencjiWprowadzenie sztucznej inteligencji (AI) niesie za sobą wiele korzyści dla społeczeństwa i gospodarki. Oto kilka głównych korzyści wynikających z rozwoju i wdrożenia AI:Poprawa opieki zdrowotnej: Sztuczna inteligencja może być wykorzystywana w medycynie do diagnozowania chorób, opracowywania planów leczenia, monitorowania stanu pacjentów oraz przewidywania epidemii i trendów zdrowotnych.Wpływa też na bezpieczniejszy i bardziej ekologiczny transport, wydajniejszą produkcję czy też tańsze i bardziej zrównoważone formy energii. Sztuczna inteligencja posiada olbrzymi potencjał edukacyjny. Może znacząco przyspieszać proces nauki i pomagać w rozwiązywaniu skomplikowanych zadań.Rozwój AI może prowadzić do powstania nowych technologii, produktów i usług, co z kolei może otwierać nowe możliwości biznesowe i stymulować innowacje w różnych sektorach gospodarki.Sztuczna inteligencja może być wykorzystywana w zapobieganiu przestępczości i w wymiarze sprawiedliwości w sprawach karnych, ponieważ mogłaby szybciej przetwarzać ogromne zbiory danych, dokładniej oceniać ryzyko ucieczki więźniów oraz przewidywać i zapobiegać przestępstwom lub nawet atakom terrorystycznym.Kolejną korzyścią z AI jest możliwość wykrywania fałszywych wiadomości i dezinformacji, sprawdzając informacje z mediów społecznościowych, szukając niepokojących słów oraz identyfikując wiarygodne źródła online.W kwestiach wojskowych sztuczna inteligencja mogłaby być wykorzystywana do obrony i strategii ataku w hakowaniu i phishingu lub do atakowania ważnych systemów w cyberwojnach.Zagrożenia i wyzwania związane ze sztuczną inteligencjąSztuczna inteligencja (AI) niesie za sobą wiele potencjalnych korzyści, ale również istnieje wiele zagrożeń z nią związanych. Niektóre z głównych zagrożeń związanych ze sztuczną inteligencją obejmują:Bezpieczeństwo danych: Wraz z rosnącym wykorzystaniem sztucznej inteligencji wzrasta ryzyko naruszenia prywatności i bezpieczeństwa danych. Niewłaściwe wykorzystanie danych osobowych lub wrażliwych może prowadzić do ich kradzieży, nadużyć lub manipulacji.Bezrobocie i zmiany rynku pracy: Rozwój sztucznej inteligencji może prowadzić do automatyzacji wielu procesów pracy, co może skutkować zmniejszeniem liczby miejsc pracy w niektórych sektorach gospodarki. Może to również wymagać zmiany kwalifikacji i umiejętności pracowników.Zagrożenia dla bezpieczeństwa publicznego: Sztuczna inteligencja może być wykorzystywana w celach przestępczych, takich jak ataki cybernetyczne, fałszerstwa czy propagowanie dezinformacji. Może również stanowić zagrożenie dla bezpieczeństwa narodowego, gdy zostanie wykorzystana do celów szpiegowskich lub ataków na infrastrukturę krytyczną.Obniżenie wartości pracy ludzi: W niektórych przypadkach sztuczna inteligencja może prowadzić do obniżenia wartości pracy ludzkiej i sprawić, że ludzie staną się nadmiernie zależni od technologii, co może mieć negatywne konsekwencje dla ich zdrowia psychicznego i fizycznego.Zwiększenie nierówności społecznych: Rozwój sztucznej inteligencji może pogłębiać istniejące nierówności społeczne, dając przewagę tym, którzy mają dostęp do najnowszych technologii i umiejętności, podczas gdy inne grupy mogą być wykluczone z korzyści wynikających z tej technologii.Porozumienie państw UE ws. sztucznej inteligencjiW grudniu ubiegłego roku, po trzech dniach intensywnych negocjacji między państwami członkowskimi a Parlamentem Europejskim, Unia Europejska osiągnęła bezprecedensowe na poziomie światowym porozumienie, regulujące rozwój sztucznej inteligencji.Decydujący wpływ na rozpoczęcie negocjacji miało pojawienie się w 2022 roku systemu ChatGPT, generatora tekstu kalifornijskiej firmy OpenAI, zdolnego do napisania w ciągu kilku sekund esejów, wierszy czy tłumaczeń. System ten ujawnił światu ogromny potencjał sztucznej inteligencji, ale także pewne ryzyko. Przykładowo – dystrybucja fałszywych zdjęć w sieciach społecznościowych ukazała niebezpieczeństwo manipulacji opinią publiczną.Kompromis między PE a Radą przewiduje uwzględnienie dwóch elementów – rozwoju sztucznej inteligencji i ograniczeń uniemożliwiających nadużywanie AI. Twórcy będą musieli dopilnować, aby tworzone dźwięki, obrazy i teksty były wyraźnie oznaczane jako sztuczne.Sednem projektu jest lista zasad, nałożonych wyłącznie na systemy uznane za niosące "wysokie ryzyko", głównie stosowane w obszarach wrażliwych, takich jak infrastruktura krytyczna, edukacja, zasoby ludzkie, egzekwowanie prawa itp. Systemy te będą podlegać szeregowi obowiązków, takich jak zapewnienie kontroli człowieka nad maszyną, sporządzenie dokumentacji technicznej lub wdrożenie systemu zarządzania ryzykiem.Przepisy przewidują wprowadzenie szczególnego nadzoru nad systemami sztucznej inteligencji, wchodzącymi w interakcję z człowiekiem. Zmusi to do poinformowania użytkownika, że ma kontakt z maszyną.Dokument przewiduje też rzadkie stosowanie zakazów, które dotyczyć mają przede wszystkim zastosowań sprzecznych z europejskimi wartościami. Jako przykład, którego nie należy naśladować, podane są Chiny, gdzie istnieją systemy oceny obywateli czy masowego nadzoru bądź zdalna biometryczna identyfikacja osób w miejscach publicznych. W tej ostatniej kwestii państwa UE uzyskały jednak swobodę w przypadku niektórych działań dotyczących egzekwowania prawa, takich jak walka z terroryzmem.Porozumienie przewiduje też, że prawodawstwo europejskie zostanie wyposażone w środki nadzoru i sankcje, utworzone zostanie także europejskie biuro ds. sztucznej inteligencji w Komisji Europejskiej. Za najpoważniejsze wykroczenia będą nakładane kary pieniężne w wysokości do 7 proc. obrotu, a dolna granica wynosić będzie 35 mln euro.