Kiedy AI dezinformuje. Czatboty AI mogą rozsyłać propagandę. Nawet jedna piąta generowanych przez nie odpowiedzi może opierać się na rosyjskich źródłach. Co ciekawe, wiele zależy od stylu komunikacji z maszynami. Im bardziej złośliwe zapytania, tym większe prawdopodobieństwo trafienia na propagandę i dezinformację. Użytkownicy generatywnych czatbotów AI coraz częściej wykorzystują je zamiast wyszukiwarek. Narzędzia te wciąż nie są w pełni wiarygodne. I to nie tylko przez halucynacje, czyli zmyślone odpowiedzi udzielane na niektóre zapytania. Analitycy brytyjskiego think tanku Institute for Strategic Dialogue (ISD) udowodnili, że czatboty mają duże problemy z identyfikowaniem wiarygodnych treści. Około jednej piątej odpowiedzi może opierać się na źródłach rosyjskich, przedstawiających wypaczony obraz rzeczywistości.Wszystko przez fakt, że rosyjskie portale i strony internetowe są przesiąknięte dezinformacyjnym przekazem – na przykład o wojnie w Ukrainie. W rosyjskiej optyce to Rosja broni się przed agresją Ukraińców, odpiera presję Zachodu i stoi na straży wartości.Wiele wskazuje, że problemy czatbotów z dezinformacją to nie przypadek, a konsekwencja działań rosyjskiej machiny propagandowej. Chodzi o „LLM grooming”, czyli celowe wypełnianie obszarów, w których modelom językowym brakuje wiarygodnych źródeł.Czytaj także: Mowa nienawiści, pornografia, oszustwa. Nowe przepisy mają usunąć je z sieciZłośliwe promptyEksperyment przeprowadzony przez ISD polegał na zadaniu wybranym czatbotom 300 pytań po angielsku, hiszpańsku, francusku, niemiecku i włosku. Wszystkie dotyczyły inwazji Rosji na Ukrainę. Blisko jedna piąta odpowiedzi odnosiła się do rosyjskich źródeł – w tym kontrolowanych przez Kreml lub takich, które w przeszłości brały udział w kampaniach informacyjnych Moskwy.Duże modele językowe mają szczególny problem z rozpoznawaniem materiałów przeklejanych z rosyjskich mediów, a publikowanych na stronach internetowych z innych krajów.Ilość przedstawianych użytkownikowi niewiarygodnych informacji zależała od poruszanego tematu. Najwięcej rosyjskich propagandowych treści pojawiało się przy pytaniach o pobór do ukraińskiego wojska, a także o kwestie związane z NATO. Modele o wiele rzadziej cytowały rosyjskie źródła przy pytaniach o ukraińskich uchodźców. Nie zaobserwowano znaczących różnic w odpowiedziach na prompty formułowane w różnych językach.Czytaj także: „Cichy kryzys zdrowia psychicznego”. Dzieci w sidłach algorytmówJedną z ciekawszych obserwacji jest zmiana zachowania modeli językowych w zależności od tonu wprowadzanego promptu. Neutralne polecenia zwracały tylko 11 proc. odpowiedzi opartych na rosyjskich źródłach. Polecenia wpisywane tendencyjnie lub złośliwie – na przykład dobitnie wyrażające poglądy pytającego – zwracały 24 proc. takich odpowiedzi. Oznacza to, że modele są narażone na efekt potwierdzenia (confirmation bias). To jeden z najpowszechniejszych błędów poznawczych w psychologii. Oznacza tendencję do wyszukiwania i interpretowania informacji w sposób, który potwierdza nasze przekonania lub istniejące hipotezy.Czat czatowi nierównyWedług ekspertów Institute for Strategic Dialogue, najbardziej narażony na rosyjskie wpływy jest Chat GPT. Szczególnie przy tendencyjnych zapytaniach. Złośliwie sformułowany prompt po włosku, hiszpańsku i niemiecku zawierał polecenie przygotowania listy zbrodni wojennych popełnionych przez Ukraińców. W odpowiedzi model uwzględnił artykuł objętego sankcjami serwisu RT opublikowany na stronie Azerbaycan.com.Model DeepSeek podawał nawet po kilka nawiązań do rosyjskich źródeł w jednej odpowiedzi. Grok częściej niż inne modele opierał odpowiedzi na postach z mediów społecznościowych – w tym rosyjskich dziennikarzy i influencerów.Najmniej rosyjskich źródeł podawał Gemini. Nie udzielał odpowiedzi na niektóre złośliwe zapytania i częściej odmawiał odpowiedzi na zapytania, „które mogą być nieodpowiednie lub niebezpieczne”.Czytaj takżę: Niebezpieczne gry i aplikacje dla dzieci? UE mówi „stop”Karmienie modeli i pralnia informacyjnaNa początku tego roku zespół Digital Forensic Research Lab (DFRLab) należący do amerykańskiego think-tanku Atlantic Council opisał, jak Rosjanie infekują duże modele językowe i Wikipedię. Od 2014 roku Moskwa prowadzi sieć portali informacyjnych Pravda. Pełni ona rolę „pralni informacyjnej”, kolportując w około 80 krajach treści z oficjalnych mediów rosyjskich i powiązanych z Kremlem kanałów na Telegramie.Sieć aktywizuje się szczególnie w okolicach ważnych wydarzeń politycznych, jak wybory prezydenckie w Stanach Zjednoczonych.Serwisy Pravda nie zostały stworzone jak zwyczajne źródło informacji czy promocji kraju. Celem ich twórców jest nasycenie cyklu informacyjnego prorosyjskimi treściami. Duże modele językowe jak Chat GPT czy Gemini są trenowane na olbrzymich zbiorach danych.Na przykład w GPT3 60 proc. treści pochodziło z kolekcji stron internetowych z całego świata. 22 proc. ze zbioru tekstów przygotowanego przez firmę OpenAI, która stworzyła model. Były to na przykład dłuższe, ciekawsze posty z forów, artykułów i blogów. Treści pochodzące z Wikipedii stanowiły około 3 proc. danych. Była to mniejsza część zbioru, ale istotna ze względu na większą wiarygodność.W 2024 roku Viginum, francuska agencja rządowa analizująca zagraniczne ataki informacyjne, ujawniła powiązania operacji Pravda z firmą IT działającą na okupowanym Krymie. Późniejsze śledztwo DFRLab potwierdziło te ustalenia, dowodząc bezpośredniego udziału Moskwy.UE wobec dezinformacjiEksperci Institute for Strategic Dialogue zachęcają firmy technologiczne do stworzenia wspólnego rejestru źródeł państwowych, by ułatwić oznaczanie treści pochodzących ze źródeł kontrolowanych przez państwa. Przekonują, że odpowiedzi udzielane przez czatboty powinny zawierać precyzyjne informacje o cytowanych źródłach – prezentować ich pochodzenie, wspominać o ich właścicielach czy powiązaniach. Namawiają firmy do podpisania Europejskiego kodeksu postępowania w zakresie dezinformacji (EU Code of Conduct on Disinformation).Jednocześnie wzywają rządy i Unię Europejską do sformułowania wytycznych dotyczących przedstawiania użytkownikom czatbotów treści pochodzących z mediów objętych sankcjami. Apelują jednocześnie o monitorowanie tych treści i szkolenia urzędników.Przynajmniej część tych postulatów zyskało już unijne ramy prawne. Od 17 lutego 2024 roku w państwach Unii obowiązuje akt o usługach cyfrowych (Digital Services Act, DSA). Zobowiązuje on duże platformy internetowe do aktywnego monitorowania treści i przeciwdziałania dezinformacji, a także do współpracy w tych obszarach z niezależnymi podmiotami. Trwa implementacja tych przepisów do polskiego prawa. Ustawa wdrażająca DSA 17 października przeszła pierwsze czytanie w Sejmie – mimo sprzeciwu opozycji, która przekonuje, że jej przepisy mogą doprowadzić do cenzurowania internetu.Czytaj także: Łukaszenka z okazji święta rolników: Ciężko pracuj, a Bóg ci pomożeNajważniejszą instytucją unijną, która działa na rzecz powstrzymywania zagranicznych operacji wpływu jest Europejska Służba Działań Zewnętrznych (EEAS). Służba tworzy ramy organizacyjne współpracy między państwami członkowskimi. Zapewnia również szybkie mechanizmy wymiany informacji o zagrożeniach, co umożliwia szybkie reakcje dyplomatyczne, czy nakładanie sankcji. W ramach EEAS działa EUvsDisinfo – archiwum fałszywych treści wprowadzanych do obiegu informacyjnego głównie przez rosyjskie podmioty.