
Psycholodzy i neurobiolodzy nie od dziś pochylają się nad naturą naszych uczuć. Nie jest tajemnicą, że są one bardzo silnie związane z podejmowaniem przez nas decyzji, zwłaszcza gwałtownych. Poddajemy się „sercu” nie „rozumowi”, choć też nie od dziś domniemywa się, że oba źródła ludzkich motywacji, tak emocjonalne, jak i racjonalne, ukrywają się w mózgu. Uczeni z Uniwersytetu Stanu Colorado w Boulder i Duke University w Durham postanowili przyjrzeć się bliżej temu poglądowi. Dokładnie zaś ustalić, jak bardzo dla naszych emocji jest istotne, co i jak dostrzegamy. Krótko mówiąc – jak głęboko poruszenia naszego „serca” zależą od naszych oczu.
Sztuczna inteligencja została wyposażona w intuicję. Wprawdzie jedynie matematyczną, ale to dopiero początek. Jak objaśniają na łamach najnowszego...
zobacz więcej
Pokutujący dotąd, czyli do ostatniego wydania „Science Advances” pogląd w tej sprawie głosił, wbrew chociażby staremu polskiemu przysłowiu „czego oczy nie widzą, tego sercu nie żal”, że emocje są niezależne od środowiska zmysłów. Aby zatem badać uczucia w kontekście neurologicznym, amerykańscy uczeni stworzyli sztuczną inteligencję typu sieci neuronowej, którą nazwali „EmoNet”. To właśnie ten „krzemowy mózg” miał za zadanie rozpoznawać, a w istocie przewidywać, jakie emocje towarzyszą człowiekowi, gdy widzi konkretny obraz. Emocje te podpadały aż pod 20 kategorii. Wymienić tu warto: obrzydzenie, satysfakcję estetyczną, zagubienie, smutek, lęk, uwielbienie, przerażenie, pożądanie seksualne, rozbawienie, zainteresowanie, znudzenie itd.
Zanim jednak właśnie ustalono, że podstawowe schematy naszych emocji są osadzone w naszym wzroku, niczym klisze, grupa badawcza pod kierunkiem Tora D. Wadera pokazała stworzonemu przez siebie programowi komputerowemu zdolnemu się uczyć (tzw. splotowa sieć neuronalna) 137 tys. 482 obrazów. Poddała także najpierw 853 ludzkich uczestników badania podobnemu testowi, prosząc ich o określenie jakości i mocy uczucia, które wywołuje w nich dany obraz, który następnie przedstawiano sztucznej inteligencji. Ta sesja treningowa dla AI miała ją nauczyć, jak te obrazy działają na ludzi. Potem maszynie podano kolejne 25 tys. obrazów już opisanych przez ludzi co do wzbudzanych przez nie emocji, ale nieznane jej z sesji treningowej. Maszyna okazała się niemal bezbłędna i bardzo wybiórcza. Wyodrębniła 11 podstawowych kategorii emocji.
Nieodzowne były też badania metodą funkcjonalnego rezonansu magnetycznego aktywności kolejnych i kolejnych mózgów podczas prezentowania obrazów. To pozwoliło wykazać, że w obszarze mózgu zwanym korą wzrokową, powstają pod wpływem tych obrazów rozmaite wzorce aktywności komórek nerwowych. Porównajmy je tu do negatywów fotograficznych, związanych nie tylko z tym, co widać będzie na zdjęciu (co ostatecznie zrozumie z tego nasz mózg), ale i z emocjami fotografa, który to zdjęcie robi. Tylko oglądając obrazy aktywności kory wzrokowej na tomografie naukowcy byli w stanie przewidzieć 15 z 20 emocji werbalizowanych przez ludzi uczestniczących w badaniu. Sama kora wzrokowa zatem, bez udziału innych części mózgu, jest zdolna odkodowywać emocje zamknięte w postrzeganych obrazach. Cóż, mózg jest artystą. Na marginesie, kora wzrokowa jest odpowiedzialna za widzenie, gdyż same światłoczułe komórki naszego oka, czopki i pręciki, rejestrują wprawdzie różne natężenia i długości fali świetlnej, ale nie rozumieją tego, co widzą. Tak prawdziwy obraz, jak i optyczne złudzenie, powstają w mózgu.
Estońscy i hiszpańscy uczeni zaprojektowali i wykorzystali sztuczną inteligencję (AI), by opowiedziała nam historię powstawania ludzkości na naszym...
zobacz więcej
W badaniu tym mierzono się z teorią głosząca, że emocje są typowymi reakcjami na sytuacje stanowiące zagrożenie, czyli od których zależy nasze przetrwanie. Mogłoby to oznaczać, że jakieś kombinacje bodźców, oddziałujących na zmysły, mogłyby pobudzać rozmaite emocje. Niestety, nie istniał model pozwalający to sprawdzić. Stworzono go pod postacią sztucznej inteligencji opartej na popularnym modelu rozpoznawania obiektów AlexNet, który zamiast rozpoznawać obiekty (czy to pies, czy kanapa lub znacznie mniej trywialne: czy to pole bawełny koszone o zmroku, czy koncert rockowy) miał rozpoznawać emocje związane z widzeniem owych obiektów przez znormalizowaną grupę ludzi.
AlexNet zrobił wielką karierę w 2012 roku, gdy jego twórcy, między innymi jego pomysłodawca, a wówczas student informatyki Alex Krizhevsky, wygrali tym programem rodzaj konkursu zwany ImageNet. Polegał on na prawidłowym rozpoznaniu co widnieje na, bagatela, 13 milionach obrazów podzielonych na 20 tys. kategorii. Taki potężny mózg, tak ludzki, jak i sztuczny, zostały „kupione” przez Google. Przez kolejne pięć lat Krizhevsky był częścią tej korporacji. W najgłębszym sensie to jego rewolucyjnemu pomysłowi na rozpoznawanie obrazów oparte o AI zawdzięczamy bany w mediach społecznościowych za „opublikowanie obrazu niezgodne z regulaminem społeczności”. To także tu mają swój początek wszelkie programy rozpoznające twarze ludzkie, etc.
Publikacja naukowa autorstwa Krizhevsky’ego opisująca AlexNet w samym 2019 roku została zacytowana już ponad 40 tys. razy. Między innymi przez wyżej wspomnianych uczonych z Kolorado, gdzie podobna ucząca się sztuczna sieć neuronalna zdolna jest przewidzieć nasze uczucia pod wpływem konkretnych obrazów. Przyszłość? Nie myślmy wyłącznie czarno, choć manipulowanie ludzkimi uczuciami za pomocą obrazów przychodzi na myśl w pierwszej kolejności.
Uczucia, jak się okazuje, rodzą się w oczach. Potrafimy nauczyć sztuczną inteligencję przewidywać ludzkie emocje wywołane przez obraz. Także ruchomy, bo zarówno ludzie, jak i EmoNet byli w opisanym tu badaniu testowani nie tylko zdjęciami, ale także filmami, czyli kadrami następującymi po sobie w czasie i mającymi jakiś wspólny wydźwięk. Nie każdy obraz wywołuje w nas emocje, ale niemal każdy można „rozebrać” na elementy, które pojedynczo lub w innym układzie jakieś emocje wywołają. Tyle przynajmniej pozwoliła naukowcom jak dotąd przewidzieć sztuczna inteligencja nazwana EmoNet.