Szkodliwe błędy algorytmu. Google usuwa część swoich podsumowań tworzonych przez sztuczną inteligencję po tym, jak śledztwo The Guardian wykazało, że użytkownicy mogli być narażeni na zagrożenie zdrowia. Chodzi o tzw. AI Overviews – generowane przez AI streszczenia informacji, które pojawiają się na samej górze wyników wyszukiwania. Dziennikarze Guardiana ustalili, że AI Overviews zawierały nieprawdziwe i wprowadzające w błąd informacje dotyczące badań krwi, w tym testów funkcji wątroby. W jednym z przypadków eksperci określili prezentowane dane jako „niebezpieczne” i „alarmujące”, ponieważ mogły sprawić, że osoby z poważną chorobą wątroby uznałyby się za zdrowe. Po wpisaniu zapytania o prawidłowe zakresy wyników badań wątroby użytkownicy otrzymywali zestawy liczb bez kontekstu oraz bez uwzględnienia różnic wynikających z wieku, płci, pochodzenia czy narodowości pacjentów.Fałszywe poczucie bezpieczeństwaZdaniem ekspertów wartości uznawane przez AI za normę mogły znacząco odbiegać od faktycznych standardów medycznych. Takie podsumowania mogły prowadzić do fałszywego poczucia bezpieczeństwa i zniechęcać pacjentów do dalszych konsultacji lekarskich, mimo poważnych problemów zdrowotnych. Po publikacji śledztwa Google usunął AI Overviews dla zapytań dotyczących zakresów badań krwi i testów funkcji wątroby.Google: „Nie komentujemy pojedynczych usunięć”Rzecznik Google przekazał, że firma nie komentuje indywidualnych przypadków usuwania treści z wyszukiwarki. Podkreślił jednocześnie, że w sytuacjach, gdy AI Overviews pomijają istotny kontekst, Google wprowadza ogólne usprawnienia i podejmuje działania zgodnie z obowiązującymi zasadami. Koncern zaznaczył też, że podsumowania AI pojawiają się wyłącznie w przypadku zapytań, co do których ma „wysoką pewność” jakości odpowiedzi.Problem nie zniknął. Wystarczy przeredagować pytanieZdaniem Vanessy Hebditch z British Liver Trust decyzja o usunięciu części podsumowań to „bardzo dobra wiadomość”. Jednocześnie zwróciła uwagę, że problem nie został rozwiązany. Guardian wykazał, że przy nieco innym sformułowaniu zapytań – na przykład przy użyciu skrótów medycznych – AI Overviews nadal się pojawiały. AI nie rozumie złożoności medycynyEksperci podkreślają, że testy funkcji wątroby to zestaw różnych badań, a ich interpretacja jest skomplikowana i nie sprowadza się do porównania liczb z tabelą. Tymczasem AI Overviews prezentowały wyniki w sposób uproszczony, bez ostrzeżeń, że nawet prawidłowe wartości nie wykluczają poważnej choroby.– Takie fałszywe uspokojenie może być bardzo szkodliwe – ostrzegła przedstawicielka British Liver Trust.Czytaj też: AI oducza dzieci myślenia. Niepokojące wyniki badań