Niebezpieczeństwa propagandy AI. Propaganda generowana przez sztuczną inteligencję jest skuteczniejsza od tej wytwarzanej przez człowieka. To zaskakujący wniosek z badania Uniwersytetów Georgetown i Stanforda. Naukowcy dopiero ustalają, jak różne rodzaje sztucznie wytworzonych politycznych treści wpływają na odbiorców. Czy nagrania deep fake będą skutecznym narzędziem w kampanii przed wyborami do Parlamentu Europejskiego? Pierwsze próby ich wykorzystania już za nami. „Polakom trzeba odebrać energię, nie tylko elektryczną” - mówi Ursula von der Leyen na krótkim, czterosekundowym nagraniu opublikowanym 8 maja przez użytkownika serwisu X. „Hahaha, dobre #ZielonyŁad” - skomentował internauta (pisownia postów oryginalna). Jego wpis wyświetliło ponad 20 tys. użytkowników X, a ponad 400 polubiło. Tę samą krótką wypowiedź von der Leyen połączoną ze spotem zapraszającym na demonstrację NSZZ Solidarność opublikował dzień później inny użytkownik X. „10 maja idziemy na demonstracje… a 9 czerwca na wybory... żeby Niemcy nie odebrali nam energii” - skomentował, ale jego post nie zyskał większej popularności.W rzeczywistości przewodnicząca Komisji Europejskiej nigdy nie wypowiedziała słów o odbieraniu Polakom energii. Wideo zostało sztucznie wygenerowane.Deep fake’a, w dłuższej wersji, opublikowano pierwszy raz 7 maja na Facebooku i w serwisie X na profilach przewodniczącego Solidarności Piotra Dudy i „Tygodnika Solidarność”. Tam zostało ono jednak oznaczone jako przeróbka. Dość nienachalnie.Testowanie AIW oryginalnej wersji klip ma 15 sekund. Tylko przez około dwie sekundy widać adnotację: „Obraz wygenerowany przez sztuczną inteligencję”. „Ursula von der Leyen ‘przemówiła’ po polsku. Odpowiemy jej 10 maja, podczas demonstracji. Start na placu Zamkowym w Warszawie w samo południe. #PreczZzielonymŁadem” - napisał Piotr Duda na Facebooku i w serwisie X. W opisie filmu na profilach „Tygodnika Solidarność” znalazło się dodatkowe zdanie wyjaśnienia o wykorzystaniu AI.„Osoby zajmujące polityczne stanowiska powinny mieć odgórny (bo nie wierzę, by odwoływanie się do ich moralności coś dało) zakaz deep fake’owania czy jakiejkolwiek MANIPULACJI video. No przecież to nie jest poważne” - komentował 9 maja w X Wojciech Kardyś, specjalista ds. komunikacji i marketingu. Kardyś zwrócił również uwagę, że komunikat o użyciu AI był wyświetlany bardzo krótko.Wideo Piotra Dudy i Tygodnika Solidarność opatrywano hasztagami wyrażającymi sprzeciw wobec Europejskiego Zielonego Ładu. To osiowa narracja Prawa i Sprawiedliwości czy Konfederacji w kampanii przed wyborami do Parlamentu Europejskiego. Przewodniczący NSZZ Solidarność regularnie pojawia się w towarzystwie polityków PiS. Politycy tej partii pojawili się na organizowanej 10 maja demonstracji. Użycie deep fake’a w tym kontekście to test wykorzystania sztucznej inteligencji w kampaniach politycznych w Polsce. Nie pierwszy w ostatnich miesiącach.Siła przekonywania sztucznej inteligencjiZ badań przeprowadzonych przez naukowców z Uniwersytetu Georgetown i Uniwersytetu Stanforda wynika, że propaganda wytworzona przy pomocy sztucznej inteligencji oddziałuje na odbiorców skuteczniej niż wytworzona przez człowieka. Ale jest to możliwe dopiero po dodatkowej, ludzkiej ingerencji.Aby ustalić siłę oddziaływania sztucznie stworzonych treści uczestników badania podzielono na trzy grupy. Pierwsza grupa, kontrolna, zapoznawała się tylko z serią popularnych propagandowych sloganów typu: „Zachodnie sankcje doprowadziły do niedoboru środków medycznych w Syrii”. Druga grupa otrzymała dodatkowo stworzone przez ludzi materiały propagandowe uwiarygadniająca te twierdzenia. Trzecia grupa - materiały wygenerowane przez model językowy GPT-3.Około jedna czwarta grupy kontrolnej zgodziła się z samymi propagandowymi tezami. Wzmocnienie tez przez stworzone przez człowieka treści zwiększyło ten odsetek do 47 procent. Propaganda napisana przez sztuczną inteligencję do 43 procent. Dopiero uzupełnienie wytworów sztucznej inteligencji ludzką pomocą zwiększyło ten odsetek do 53 proc. „Kazaliśmy ludziom edytować dane wejściowe - tekst używany do podpowiadania modelu językowego - i selekcjonować dane wyjściowe, odrzucając artykuły, które nie osiągnęły zamierzonego celu” - tłumaczył na stronie Uniwersytetu Stanforda prof. Michael Tomz, politolog i współautor badania.Jaka AI najskuteczniejszaAutorzy badania przyznają, że uzyskane wartości procentowe są tylko wskazówką. Rzeczywisty wpływ sztucznie wygenerowanych treści może być nieco inny. W badaniu pytano o kontrowersyjne aspekty polityki zagranicznej. Sztucznie wygenerowana propaganda może w mniejszym stopniu wpływać na decyzje na przykład o wyborze konkretnego kandydata w wyborach. Szczególnie w spolaryzowanym społeczeństwie.Z drugiej strony w badaniu wykorzystano model językowy GPT-3, o wiele mniej doskonały od nowszych wersji tej technologii. Co więcej, uczestnikom badania prezentowano tylko pojedyncze propagandowe twierdzenia. Konsekwentne i długotrwałe eksponowanie na treści AI mogłoby mieć większą siłę oddziaływania. Pomijając techniczne możliwości AI - na przykład tworzenia nowych kont w mediach społecznościowych.Prof. Michael Tomz wspomina również o rozwoju technologii związanych z generowaniem sztucznych treści audio i wideo. Według niego to one mogą być największym powodem do niepokoju. Z czasem stają się coraz trudniejsze do odróżnienia od rzeczywistości. „Deep fake są prawdopodobnie bardziej przekonujące niż tekst, mają większą szansę się viralami i prawdopodobnie mają większą wiarygodność niż pojedynczy napisany akapit” - argumentował Tomz.Wciąż jednak mało wiemy o oddziaływaniu deep fake’ów na człowieka. Dr Michael Hameleers z Wydziału Nauk Społecznych i Behawioralnych Uniwersytetu Amsterdamskiego zwraca uwagę na badania dowodzące, że deep fake to narzędzie o ograniczonych możliwościach wpływu, tylko nieznacznie bardziej wiarygodne niż manipulacje tekstowe. Hameleers publikuje wyniki badań, z których wynika, że mniej wyrafinowane sposoby manipulowania mogą być co najmniej tak wiarygodne, jak te bardziej zaawansowane, oparte na sztucznej inteligencji.#MailePrawdy i post ze złowieszczym TuskiemFilm z Ursulą von der Leyen to nie pierwszy przykład wykorzystania sztucznej inteligencji w kampanii politycznej. 22 kwietnia „Rzeczpospolita” donosiła, że Polska znalazła się na czarnej liście dziesięciu krajów, gdzie w trakcie kampanii wykorzystano deep fake. Gazeta dotarła do raportu firmy Check Point, która przeanalizowała 36 procesów wyborczych (parlamentarnych, prezydenckich i lokalnych) na całym świecie z ostatniego pół roku.Chodzi o kampanię z sierpnia 2023 roku. Platforma Obywatelska opublikowała wówczas w mediach społecznościowych serię postów opatrzonych hasztagiem #MailePrawdy. Sztucznie wygenerowane głosy, przypominające głosy polityków Prawa i Sprawiedliwości odczytywały najbardziej znane maile publikowane przez portal Poufna Rozmowa, ujawniające m.in. wewnętrzne relacje wewnątrz obozu rządzącego.Miała to być korespondencja wykradziona m.in. ze skrzynki byłego szefa Kancelarii Prezesa Rady Ministrów Michała Dworczyka. Według jednej z teorii - w ramach operacji białoruskich służb. Ówczesne polskie władze nigdy nie potwierdziły autentyczności maili. Mediom udało się jednak ustalić prawdziwość tylko niektórych. Platforma nie od początku informowała o wykorzystaniu sztucznej inteligencji w produkcji spotów. Odpowiednie adnotacje dodawano z opóźnieniem, po fali krytyki ekspertów i użytkowników mediów społecznościowych.Kilka tygodni wcześniej Dariusz Matecki, obecny poseł Suwerennej Polski, a wówczas kandydat w wyborach, opublikował spot z obrazami wygenerowanymi przez sztuczną inteligencję. “Jest październik 2023 roku. Opozycja na czele z Donaldem Tuskiem wygrywa wybory. Miesiąc później dziesiątki tysięcy migrantów wdzierają się do Polski” - mówi lektor. W tle widać karykaturalny, złowieszczy wizerunek Donalda Tuska i niepokojące obrazy ciemnoskórych ludzi jakby w czasie zamieszek.Matecki nie zamieścił w filmie widocznej adnotacji o wykorzystaniu sztucznej inteligencji. Odpowiednie wyjaśnienie od razu opublikował jednak w komentarzach pod filmem.AI po amerykańskuFilm Mateckiego przypomina nagranie opublikowane w kwietniu 2023 roku w Stanach Zjednoczonych przez Republikański Komitet Narodowy. Wideo trafiło do sieci tuż po ogłoszeniu przez Joe Bidena decyzji o ponownym kandydowaniu w wyborach prezydenckich. Przedstawia dystopijną wizję Ameryki przyszłości pod rządami demokratów. “Wygenerowane przez sztuczną inteligencję wizje możliwej przyszłości kraju, jeśli Joe Biden zostanie ponownie wybrany w 2024 roku” - brzmi opis nagrania w serwisie Youtube.Duży oddźwięk w mediach zyskało również wideo opublikowane nieco wcześniej przez ubiegającego się o nominację Republikanów Rona deSantisa. W nagraniu deep fake widzimy Hillary Clinton mówiącą: "Wiesz, ludzie mogą być zaskoczeni, słysząc, jak to mówię, ale naprawdę bardzo lubię Rona DeSantisa. Tak, wiem. Powiedziałbym, że jest właśnie takim facetem, jakiego potrzebuje ten kraj”.Operacja CopyCop i rosyjskie śladySztuczna inteligencja to nie tylko potężne narzędzie w rękach polityków. Może być szeroko wykorzystywane przez siewców rosyjskiej propagandy. 2 maja NATO wydało komunikat o głębokim zaniepokojeniu nasilającymi się operacjami hybrydowymi Rosji, do których doszło w ostatnim czasie na terytorium Czech, Estonii, Niemiec, Łotwy, Litwy, Polski i Wielkiej Brytanii. Mowa tu m.in. o aktach sabotażu, przemocy, cyberatakach, czy kampaniach dezinformacyjnych.W marcu Janis Sarts, dyrektor Centrum Eksperckiego NATO ds. Komunikacji Strategicznej w Rydze zwracał uwagę na działania rosyjskich fałszywych kont w internecie i wykorzystanie sztucznej inteligencji. Rosja już zaczęła przygotowywać się do wykorzystania przestrzeni cyfrowej, by wpływać na tegoroczne kampanie wyborcze w USA i w Europie – ostrzegał ekspert. Przypomniał rozpowszechniane wcześniej w sieci nagranie deep fake, na którym były dowódca ukraińskiej armii gen. Wałerij Załużny wypowiada się przeciwko Wołodymyrowi Zełenskiemu. Sarts podkreślał, że publikacja tego deep fake'a była poprzedzona skoordynowanymi działaniami na Telegramie, by zaczęły krążyć słuchy na ten temat. Zaś po publikacji nagranie było szeroko udostępniane.W ostatnich dniach technologiczne media donosiły o ujawnieniu operacji CopyCop. Chodzi o rosyjską kampanię dezinformacyjną wykorzystującą sztuczną inteligencję do plagiatowania treści dużych światowych organizacji medialnych. Treści są później przerabiane i uzupełniane o wątki zbieżne z narracjami rosyjskiej propagandy. “CopyCop to doskonały przykład operacji wpływu, które mogą bardzo zaszkodzić sytuacji politycznej w naszym regionie Europy. Warto o tym pamiętać zwłaszcza w kontekście nadchodzących wyborów i mając na względzie tego typu działania, jeszcze mocniej zastanowić się nad tym, skąd mamy swoje przekonania i poglądy” - komentowała 15 maja na Instagramie dziennikarka technologiczna techspresso.cafe Gosia Fraser.