Premiera o godzinie 17:00. Startuje nowy podcast na kanale YouTube TVP Info. Premiera „Niepytalski Pyta” w sobotę 18 października o godzinie 17:00. W tym odcinku podcastu popularnonaukowego rozmawiamy o sztucznej inteligencji. A już teraz publikujemy felieton autora poświęcony wpływowi myślenia maszynowego na myślenie człowieka. W świecie nieustannej wymiany informacji każdy uczy się od każdego. Dlatego jeszcze zanim algorytmy sztucznej inteligencji zaczną myśleć tak samo jak współcześni ludzie, to ludzie nieodległej przyszłości mogą zacząć myśleć tak, jak algorytmy sztucznej inteligencji.Ludzkie uczenie maszynoweCo ma wspólnego polski pisarz Tadeusz Borowski z międzynarodową siecią spamerów? Z pozoru zupełnie nic. A jednak. Otóż łączą ich opisy zdarzeń z niemieckich obozów śmierci. Chodzi o problem, na który kilka miesięcy temu zwróciło uwagę Muzeum Auschwitz – w mediach społecznościowych pojawiają się klikibaitowe historie obozowe wygenerowane w AI, opatrzone zdjęciami również wygenerowanymi w AI. Ze śledztwa BBC wynika, że za te zbierające miliony odsłon podróbki prawdziwych dramatów, odpowiada międzynarodowa sieć spamerów. Dziennikarzom udało się porozmawiać z jedną z osób zaangażowanych w projekt, mężczyzną z Pakistanu. Wyjaśnił im, że tego typu treści powstają po to, żeby korzystać z mechanizmów monetyzacji treści na Facebooku. Muzeum interweniowało w spółce Meta, ale jak dotąd nie przyniosło to oczekiwanych efektów. „Choć wiele stron zostało zamkniętych, to z naszego punktu widzenia nie są to działania satysfakcjonujące, bowiem fundamentalnie nie zgadzamy się z tym, iż tego typu publikacje nie naruszają regulaminu platformy. Jest to bowiem publikowanie fałszywych informacji o nieistniejących ofiarach obozów śmierci.Zgłaszając treści, można wybrać taki właśnie punkt. META natomiast zamyka niektóre strony nie ze względu na to, ale na nieuprawione wykorzystywanie mechanizmów monetyzacji. Brak uznania tego typu fałszywych postów za naruszanie regulaminu jest dla nas niezrozumiałe” – pisał mi Paweł Sawicki z Muzeum Auschwitz. Podobny przypadek opisywały niedawno media odnośnie do fałszywego zdjęcia z obozu w Stutthofie. Nie można pozostać przy debatowaniu, czy jest to przekroczenie granicy dobrego smaku. Konsekwencje są dużo dalej idące. Strażnicy pamięci o ofiarach zawracają uwagę, że przez treści zakłamujące historię, podważana jest prawdziwość faktów historycznych. Jako przykład wskazują komentarze pod własnymi postami, w których internauci zarzucają, że to treści wygenerowane w AI. A to już wprost zmierza do podważania prawdziwości samej zagłady. Zwłaszcza jeśli wziąć pod uwagę, że duża część treści, jakie oglądamy w mediach społecznościowych, nie wynika wprost z naszej decyzji, ale ze zgadywanki algorytmu, co może nam się wydać ciekawe. Czy raczej – klikalne. Zatem jeśli po jednym sugerowanym poście ze zmyśloną historią zaraz potem pojawi nam się wpis instytucji naukowej (bo, łącza je te same słowa kluczowe), to łatwo konsumentowi mediów wrzucić je do jednego worka. I już jakimś stopniu dziełem przypadku jest, czy będzie to worek z napisem prawda, czy fejk.Czytaj też: Gen Z wychodzi na ulice, czyli nowa arabska wiosna? Podcast „Z paszportem”Antyczna filozofia, współczesne dylematy A to nieuchronnie zbliża nas do ukutego już w starożytności poglądu filozoficznego, że nic nie jest prawdziwe, a wszystko jest tylko w naszych głowach. Nazywamy go solipsyzmem i choć brzmi wzniośle, to niestety pozwala na tworzenie różnych bardzo niewzniosłych teorii, jak chociażby kłamstwo oświęcimskie. Ale nie tylko. Historia, zwłaszcza współczesna jest komfortową nauką. Na najważniejsze rzeczy mamy dokumenty, autentyczne nagrania. Co jednak z pozostałymi naukami?Te także mogą paść ofiarami halucynacji AI. Czyli wymysłów sztucznej inteligencji – będących ciągiem przypadkowych informacji niepopartych faktami, czy w ogóle jakimkolwiek ludzkimi publikacjami. Dobrym przykładem są nauki prawne, w których już teraz na podstawie zmyślonych przez sztuczną inteligencję przepisów prawa, opinii prawnych czy uzasadnień wyroków, powstają pisma procesowe. W USA przynajmniej raz doszło do tego, że na podstawie zmyślonych przez AI przepisów został wydany wyrok. Szczęśliwie w drugiej instancji został uchylony. Ile się uprawomocniło, tego nie wiemy, bo ostatecznych wyroków nie analizuje się tak dogłębnie. Nasz system prawny też nie jest całkiem odporny. Problem ten poruszał mecenas Mikołaj Stępkowski z kancelarii Sołtysiński, Kawecki, Szlęzak, na którego biurko trafił wniosek o unieważnienie znaku towarowego. Jego zdaniem niemal na każdej z 50 stron dokumentu widniały halucynacje AI. – Orzeczenia Sądu Najwyższego, Naczelnego Sądu Administracyjnego. Daty orzeczeń i sygnatury zostały całkowicie zmyślone – mówił prawnik na łamach Teleexpressu Extra. Bo problem polegania na generatywnej sztucznej inteligencji bardziej niż na własnej wiedzy nie dotyka wyłącznie laików, ale także profesjonalistów. A nawet naukowców akademickich. Wiosną o odnajdywanych w pracach naukowych obszernych fragmentów tekstu wygenerowanych przez prawdopodobnie ChatGPT pisał magazyn naukowy „Nature”. Pozostaje mieć nadzieję, że i tamten artykuł nie został wygenerowany przez duży model językowy. Cyberkopciuszek 2077 Ale materiały generowane przez AI wpływają jednak nie tylko na sposób myślenia o nauce, rzeczywistości czy przeszłości. Także na sposób myślenia w ogóle. Oto przykład, jak do tego dochodzi. Na platformach streamingowych są kanały specjalizujące się w masowym wypuszczaniu historyjek dla dzieci, wygenerowanych przez duże modele językowe, opatrzonych wygenerowanymi obrazkami, czytanych tym samym monotonnym, wygenerowanym głosem. Dzieci chłoną te historie jak gąbki, bo odnoszą się one do bliższych im zagadnień niż problem oddzielania ziaren maku od popiołu, czy zasypianiu na ziarnku grochu. Łatwiej w końcu wygenerować historyjkę z popularnymi słowami kluczowymi, niż zaangażować literata, który potrzebuje czasu i pieniędzy.Czytaj też: Klaudia Jachira: Bywam rozczarowana polityką. Czasem wypłaczę się w domuKłopot w tym, że historyjkę o księżniczce na ziarnku grochu napisał ktoś o indywidualnym stylu, wyjątkowym sposobie formułowania myśli, czy po prostu o unikalnym sposobie składania słów w zdanie. W szczególności uwzględniającym to, że autor w tych myślach zawarł dostępne mu dziedzictwo kulturowe, frazeologię, nawiązania kulturowe, ładunek emocjonalny zawarty w warstwie podtekstowej konkretnych słów. A nawet w szyku zdania, który wszak w naszym języku jest niemal dowolny i w jakimś stopniu zindywidualizowany. Duże modele językowe potrafią wprawdzie udawać style, ale na dłuższą metę udawanie jest wykrywalne. Fałszerz obrazów Chełmońskiego nigdy nie zostanie Chełmońskim. Nie wpłynie na rozwój sztuki, tak jak opowiastki wygenerowane przez AI nie wpłynie na rozwój języka. Ale wpłynie na język, jakim porozumiewają się dzieci wychowane na wygenerowanych historyjkach. Dlatego, choć jeszcze ciągle pojawia się myśl – „nie, człowiek tak nie formułuje myśli”, to im głębsza będzie nasza symbioza ze sztuczną inteligencją, im częstsza nasza z nią komunikacja, tym częściej będziemy przenosić sposób formułowania myśli sztucznej inteligencji do świata realnego. I tym trudniej będzie powiedzieć – „człowiek tak nie myśli”. Bo człowiek tak będzie myślał. To nie sztuczna inteligencja upodobni się do człowieka, ale człowiek do sztucznej inteligencji. Jako dowód niech posłuży analiza językoznawcza Vanessy Bates Ramirez na łamach „Scientific American”, z której wynika, że w angielszczyźnie niegenerowanej, nawet w luźnych rozmowach, nagle zaczęła się moda na używanie słów „delve” i „meticulous”. I akurat tak przypadkiem się składa, że ta moda zbiegła się w czasie z pojawianiem się ChatGPT, który wyjątkowo te słowa „lubi”. Warto przytoczyć historyjkę z brytyjskiego parlamentu, deputowany zarzucił koledze, że wygenerował przemówienie. „I rise to speak, I rise to speak, I rise to speak. Słychać wyraźnie ChatGPT, bo to jest amerykanizm, którego tu nie usłyszysz. Ale proszę, używaj go dalej. Bo świetnie pokazuje, że te obrady to absurd” – kpił Tom Tugendhat, reprezentant Partii Konserwatywnej w Izbie Gmin. American dream, narodowy koszmar Wkrótce coraz trudniej będzie ocenić, czy ktoś wygenerował sobie wystąpienie, czy po prostu uległ modzie językowej wynikającej z interakcji z LLM. A ponieważ te największe są trenowane na kontencie tworzonym przez Amerykanów, to moda najczęściej będzie amerykańska właśnie. Oczywiście są próby tworzenia dużych modeli językowych w językach narodowych. W Polsce jest to na przykład Orlik. Duże przedsiębiorstwa inwestujące w generatywną sztuczną inteligencję wspierają także i te inicjatywy, choć mam wątpliwości, czy z troski o dziedzictwa kulturowe. Problem ten stawia nas w obliczu dylematu. Czy wspierać rozwój sztucznej inteligencji dając wielkim przedsiębiorstwom z branży IT dostęp do kreatywnego kontentu za darmo, tylko po to, by zachować szanse, że „wychowamy” AI w oparciu nasze dziedzictwo kulturowe, czy jednak ograniczyć ten dostęp, by swojej kultury nie narazić na mieszanie jej z AI, ograniczyć kradzież praw autorskich, a może też zawłaszczanie i fałszowanie kultury. Bo co stoi na przeszkodzie, by pakistańscy spamerzy zaczęli generować poezję w stylu staropiastowskim z początku dziesiątego wieku, tylko po to, żeby zarobić na monetyzacji postów. Więcej o konsekwencjach rozwoju sztucznej inteligencji i innych zagadnieniach popularno-naukowych możecie dowiedzieć się z podcastu TVP.info „Niepytalski pyta”.Czytaj też: „Z paszportem”: Ropa, krew i Pokojowa Nagroda Nobla