Kasa i zysk się liczą. Pacjent – niekoniecznie. Płyn mózgowo rdzeniowy wylał się nosem. Omyłkowe przekłucie czaszki pacjenta. Dwa udary rzekomo po przypadkowym uszkodzeniu tętnic z dookoła tryskającą krwią – to niektóre z alarmujących zgłoszeń po wykorzystaniu w salach operacyjnych urządzeń medycznych wyposażonych w sztuczną inteligencję. Temat ten w raporcie specjalnym opisała agencja Reutera. Punktem wyjścia tej historii – kto by się spodziewał? – jest kasa. A kasa – o czym doskonale wiemy – jest najważniejsza. Pojawia się więc nowa przełomowa technologia i każda branża ściga się w jak najszybszym wdrożeniu celem rozbicia banku, bycia liderem rynku, zdystansowania konkurencji, napompowania ego itdZawrotne tempo wprowadzania urządzeń medycznych opartych na uczeniu maszynowymRynek produktów czy usług medycznych nie może wobec tego ignorować absolutnie rewolucyjnej technologii, jaką jest sztuczna inteligencja. I nic w tym zdrożnego. Niezrozumiałym byłoby nie spróbować użyć do leczenia bądź diagnostyki narzędzia, które zmieni ludzkość (jeśli nie zgładzi, ale to temat na inną opowieść).Czytaj także: Pierwszy pacjent USA. Co naprawdę dolega Donaldowi Trumpowi?Problem polega jednak nie na samej idei, lecz na kontroli i tempie tych wdrożeń. Medycyna wypływa tutaj bowiem na kompletnie niezbadane wody, a liczby pokazują, że tempo jest zawrotne. Tymczasem ściganie się na nowe rozwiązania w pogoni za zyskiem niekoniecznie działa na korzyść pacjentówNiebezpieczne zdarzenia przy operacjach zatokDziennikarze Reutera podali w raporcie, że amerykańska Agencja Żywności i Leków (FDA) zatwierdziła już co najmniej 1357 urządzeń medycznych opartych na sztucznej inteligencji – to dwa razy więcej niż do 2022 rokuJednym z takich rozwiązań jest system TruDi należący do firmy Acclarent, będącej jeszcze dwa lata temu oddziałem Johnson & Johnson, giganta branży medycznej. Urządzenie stosowane w leczeniu przewlekłego zapalenia zatok wprowadzono na rynek w 2018 r., a trzy lata później ogłoszono „krok naprzód”. Polegał on na dodaniu do TruDi sztucznej inteligencji do wspomagania laryngologów w operacjach.Od momentu wejścia na rynek tego urządzenia, jeszcze bez AI, FDA otrzymała niepotwierdzone doniesienia o siedmiu przypadkach usterek i jednego przypadku urazu pacjenta. Ale od chwili dołożenia do systemu rozwiązań AI, takich niepotwierdzonych doniesień o awariach i zdarzeniach niepożądanych było już co najmniej 100. Chirurdzy wprowadzani w błądZ tego – od końca 2021 r. do listopada 2025 – przynajmniej dziesięć osób zostało poszkodowanych. Większość przypadków wiązała się z tym, że system nawigacyjny TruDi wprowadzał chirurgów w błąd, co do lokalizacji instrumentów operacyjnych w głowach operowanych osób.Czytaj także: Unijny plan walki z rakiem traci impet. Kontrolerzy alarmują„Zgłoszono wyciek płynu mózgowo-rdzeniowego z nosa jednego pacjenta. W innym opisanym przypadku chirurg omyłkowo przekłuł podstawę czaszki. W dwóch innych przypadkach pacjenci rzekomo doznali udarów mózgu w wyniku przypadkowego uszkodzenia dużej tętnicy” – poinformował Reuters.Co istotne, raporty FDA dotyczące urządzeń mogą być niekompletne i nie mają na celu ustalenia przyczyn wypadków medycznych, dlatego nie jest jasne, jaką rolę w tych zdarzeniach mogła odegrać sztuczna inteligencja.FDA zaznaczyła, że w raportowanych zdarzeniach często brakuje szczegółów, są one redagowane w celu ochrony tajemnic handlowych i nie można ich używać wyłącznie do wskazywania winnych. Agencja czasami otrzymuje również wiele zgłoszeń dotyczących jednego incydentu.Skargi na urządzenia medyczne z AI się mnożąDziennikarze ustalili, że co najmniej 1401 skarg złożonych do FDA między 2021 a październikiem 2025 roku dotyczyło urządzeń medycznych znajdujących się na liście obejmującej 1357 produktów wykorzystujących sztuczną inteligencję. Co najmniej 115 dotyczyło problemów z oprogramowaniem lub algorytmami.Czytaj także: Wyścig po myśliwiec 6. generacji. „Pozwoli narzucić wolę przy użyciu siły”Dwie wspomniane ofiary udarów złożyły pozwy w Teksasie, twierdząc, że sztuczna inteligencja systemu TruDi przyczyniła się do ich uszczerbku na zdrowiu. „Produkt był prawdopodobnie bezpieczniejszy przed wprowadzeniem zmian w oprogramowaniu, które uwzględniały sztuczną inteligencję, niż po wprowadzeniu modyfikacji” – stwierdzono w jednym z pozwów.Johnson & Johnson przekazał pytania Reutera na ten temat do firmy Integra LifeSciences, która w 2024 roku zakupiła Acclarent i system nawigacyjny TruDi.Właściciel bronił się twierdząc, że doniesienia „nie wskazują na nic więcej niż to, że system TruDi był używany podczas operacji, w której wystąpiło zdarzenie niepożądane”. Dodał, że „nie ma wiarygodnych dowodów wskazujących na żaden związek przyczynowo-skutkowy między systemem nawigacyjnym TruDi, technologią sztucznej inteligencji i rzekomymi urazami”.Dwie tętnice uszkodzone i dwa udaryW czerwcu 2022 r. dr Marc Dean, używając systemu nawigacyjnego TruDi ze sztuczną inteligencją, wszczepił Erin Ralph mały balonik do zatoki przynosowej w szpitalu w Fort Worth w Teksasie. Zabieg ten, znany jako balonoplastyka, to małoinwazyjna technika leczenia przewlekłego zapalenia zatok. Balonik jest pompowany w celu powiększenia otworu zatoki, co umożliwia lepszy drenaż i łagodzi stan zapalny.Jednak wykorzystany system, jak zarzuca się w pozwie, „wprowadził w błąd i źle skierował” instrumenty chirurga. Tętnica szyjna – która dostarcza krew do mózgu, twarzy i szyi – miała zostać uszkodzona, co doprowadziło do powstania zakrzepu. Prawnik poszkodowanej stwierdził przed sądem, że z własnej dokumentacji dr Deana wynika, że „nie miał pojęcia, że znajduje się w pobliżu tętnicy szyjnej”.W efekcie po opuszczeniu szpitala kobieta doznała udaru i za chwilę wylądowała na oddziale intensywnej terapii. Lekarze usunęli jej fragment czaszki, „aby mózg miał miejsce na obrzęk”, jak sama poszkodowana, matka czwórki dzieci, opisała swoje przykre perypetie w internetowej zbiórce pieniędzy na leczenie w serwisie GoFundMe.Rok później w maju 2023 r. dr Dean używał TruDi podczas kolejnej operacji plastyki zatok u Donny Fernihough. Według pozwu, tętnica szyjna pacjentki miała wówczas „wybuchnąć”. Krew „tryskała wszędzie” – obryzgując nawet na przedstawiciela Acclarent, który obserwował operację. Fernihough w dniu operacji także doznała udaru.Czytaj także: Pielęgniarz odmówił lekarce pobrania krwi. Przez jej tatuażePozew zarzuca firmie Acclarent, że ta „wiedziała lub powinna była wiedzieć, że domniemana sztuczna inteligencja spowodowała lub nasiliła tendencję zintegrowanego systemu nawigacyjnego do niespójności, niedokładności i zawodności”.Ponad pół miliona dla doktora za konsultacjeAcclarent zaprzeczył zarzutom w obu toczących się wciąż sprawach. Firma stwierdziła w sądzie, że nie zaprojektowała ani nie wyprodukowała systemu TruDi, a jedynie go dystrybuowała. Integra LifeSciences, właściciel Acclarenta, przekazał Reuterowi, że nie ma dowodów na związek między technologią sztucznej inteligencji a zarzucanymi urazami.Dr Marc Dean rozpoczął pracę jako konsultant firmy Acclarent w 2014 r. i otrzymał od firmy ponad 550 000 dol. honorariów konsultacyjnych do 2024 r., jak wynika z danych Open Payments, federalnej bazy danych śledzącej powiązania finansowe między firmami a lekarzami. Co najmniej 135 000 dol. z tych honorariów było związane z systemem TruDi.Integra poinformowała, że lekarz ten nie jest już konsultantem TruDi, a płatności na jego rzecz po przejęciu Acclarentu były przeznaczone na posiłki.Rzekome naciski na wprowadzenie AIFernihough przekonywała w pozwie, że w 2021 r. ówczesny prezes Acclarentu Jeff Hopkins naciskał na wprowadzenie sztucznej inteligencji do TruDi „jako narzędzia marketingowego”, aby móc reklamować system jako „wyposażony w nową i nowatorską technologię”.Czytaj także: Tak radzą sobie ze stratą. Robią cyfrowe klony zmarłychOprogramowanie TruDi wykorzystuje uczenie maszynowe do identyfikacji określonych segmentów anatomii pacjenta i obliczenia „najkrótszej, prawidłowej ścieżki między dwoma punktami określonymi przez lekarza”, jak wynika z wpisu Acclarentu na LinkedIn. Technologia ta ma na celu uproszczenie planowania operacji i zapewnienie informacji zwrotnej w czasie rzeczywistym podczas zabiegów takich jak operacje zatok.Lekarz miał ostrzegać o problemachJak zarzucono w jednym z pozwów, władze Acclarentu skontaktowały się z dr Deanem w sprawie planu dodania sztucznej inteligencji. Chirurg miał ostrzec Hopkinsa i Acclarent, „że istnieją problemy wymagające rozwiązania”. Pomimo tego ostrzeżenia Acclarent „obniżył swoje standardy bezpieczeństwa, aby przyśpieszyć wprowadzenie nowej technologii na rynek” i „osiągnął cel zaledwie 80 proc. dokładności dla niektórych z tych nowych technologii przed zintegrowaniem ich z systemem nawigacyjnym TruDi”.Jesteśmy jako gatunek dopiero na samym początku rewolucji związanej ze sztuczną inteligencją. Jest z tym trochę tak jak z technologią atomową – z jednej strony można ją wykorzystywać do produkcji energii, a z drugiej można wykorzystać do wyprodukowania śmiercionośnej broni.Czytaj także: Dzieci algorytmów. „Nie mają przyjaciół, tylko polubienia”Zwolennicy przekonują, że AI pomoże znaleźć lekarstwa na rzadkie choroby, odkryć nowe leki, poprawić umiejętności chirurgów i dać pacjentom poczucie bezpieczeństwa. Wszystko jednak rozbija się o to, co zostało już powiedziane na wstępie, jak technologia jest wdrażana i czemu służy.Aby szybciej i jak najwięcej zarobićZ przeprowadzonej przez dziennikarzy Reutera analizy danych dotyczących bezpieczeństwa oraz dokumentacji prawnej, a także rozmów z lekarzami, pielęgniarkami, naukowcami i organami regulacyjnymi, na pierwszy plan wysuwa się jedno główne zagrożenie – producenci urządzeń, giganci technologiczni i twórcy oprogramowania ścigają się z czasem, aby zdystansować konkurencję na rynku i dzięki temu zarobić więcej.System TruDi nie jest jedynym, który budzi wątpliwości. FDA otrzymała doniesienia dotyczące dziesiątek innych urządzeń wspomaganych sztuczną inteligencją. To np. monitor pracy serca, który rzekomo nie wykrywał nieprawidłowości czy urządzenie ultrasonograficznego, które miało błędnie identyfikować części ciała płodu.Błędne identyfikowanie części ciała płoduW raporcie FDA z czerwca 2025 roku zarzucono, że oprogramowanie Sonio Detect, wykorzystujące techniki uczenia maszynowego do analizy obrazów, podczas badań prenatalnych błędnie identyfikuje części ciała płodu.Czytaj także: Wyścig o panowanie nad światem na finiszu. Kwanty bronią ostateczną„Algorytm sztucznej inteligencji oprogramowania Sonio Detect jest wadliwy i błędnie oznacza struktury płodu, przypisując je niewłaściwym częściom ciała” – stwierdzono w raporcie. Sonio Detect należy do Samsung Medison, oddziału koncernu Samsung Electronics. Samsung Medison stwierdził, że raport FDA „nie wskazuje na żadne zagrożenie bezpieczeństwa, ani też FDA nie zażądała od Sonio żadnych działań”.Kardiomonitory pod lupąCo najmniej 16 skarg dotyczyło kardiomonitorów wspomaganych sztuczną inteligencją, produkowanych przez giganta branży urządzeń medycznych Medtronic. Miały one nie rozpoznawać nieprawidłowych rytmów lub przerw w pracy serca. Medtronic poinformował FDA, że niektóre incydenty były spowodowane „dezorientacją użytkownika”.Algorytmy sztucznej inteligencji w implantowalnych kardiomonitorach Medtronic z serii LINQ są określane jako „sztuczna inteligencja oparta na głębokim uczeniu”. Według strony internetowej firmy, znacznie zmniejszyły one liczbę fałszywych ostrzeżeń i informowały o rzeczywistych alarmach dotyczących zdarzeń sercowych. Firma informuje jednak również na swojej stronie internetowej i w materiałach produktowych, że jej technologia sztucznej inteligencji AccuRhythm AI może błędnie klasyfikować rzeczywiste nieprawidłowe rytmy serca lub przerwy.Firma Medtronic poinformowała agencję Reutera, że przeanalizowała wszystkie 16 epizodów i oceniła, że urządzenie przeoczyło tylko jeden przypadek nieprawidłowego rytmu serca. „W żadnym ze zgłoszeń nie pacjent nie ucierpiał” – poinformował producent. Medtronic stwierdził, że niektóre incydenty były związane z problemami z wyświetlaniem danych, a nie z technologią sztucznej inteligencji. Firma jednak odmówiła pełnego wyjaśnienia, co poszło nie tak w każdym z tych incydentów.Niemal połowa wycofań w niecały rok od wprowadzenia na rynekNaukowcy z uniwersytetów Johns Hopkins, Georgetown i Yale poinformowali w sierpniu w JAMA Health Forum, że 60 urządzeń medycznych zatwierdzonych przez FDA, wykorzystujących sztuczną inteligencję, było powiązanych ze 182 przypadkami wycofania produktów z rynku. Ich analiza wykazała, że 43 proc. wycofań nastąpiło w ciągu niecałego roku od otrzymania zielonego światła. To około dwa razy więcej niż wskaźnik wycofań wszystkich urządzeń zatwierdzonych na podstawie podobnych przepisów FDA.Czytaj także: Pierwsza taka operacja w Polsce. Wyjęli pacjentce wątrobę, by ją zoperowaćBoom na sztuczną inteligencję – zauważył Reuters – stanowi istotny problem dla FDA. Jak przekazało dziennikarzom łącznie pięciu obecnych i byłych naukowców agencji, federalny regulator z trudem nadąża za napływem urządzeń medycznych wspomaganych sztuczną inteligencją, ubiegających się o zatwierdzenie. Rzecznik Departamentu Zdrowia i Opieki Społecznej Stanów Zjednoczonych (HHS), do którego należy FDA, powiedział, że agencja dąży do zwiększenia swoich możliwości w tym obszarze.Za mało specjalistów do kontroliZ całą pewnością problem z liczbą rąk do pracy w FDA byłby nieporównywalnie mniejszy, gdyby nie działania amerykańskiego rządu.Około cztery lata temu FDA poszerzyła zatrudnienie o naukowców specjalizujących się w sztucznej inteligencji, w szczególności w recenzowaniu urządzeń do obrazowania medycznego i radiologii. Wielu z nich pracowało w Wydziale Obrazowania, Diagnostyki i Niezawodności Oprogramowania (DIDSR). Jednostka ta stała się kluczowym zasobem agencji w zakresie oceny bezpieczeństwa sztucznej inteligencji w medycynie, jak powiedzieli agencji Reutera jeden obecny i dwóch byłych pracowników FDA. Na początku ubiegłego roku liczba ta wzrosła do około 40 osób.Kontrolerzy próbują „łamać” modele AIPrzyciąganie najlepszych specjalistów do pracy w administracji rządowej nie jest łatwe. Rekrutacja często wymaga przekonania do rezygnacji z wyższych wynagrodzeń, na jakie można liczyć w sektorze prywatnym. Zadanie kontrolerów często polega na próbie „złamania” modeli sztucznej inteligencji w urządzeniach.Czytaj także: Miasto na Księżycu, miasto na Marsie. Kosmiczne plany Elona MuskaJak przekazali byli pracownicy FDA, chodzi np. o testowanie algorytmów urządzenia w różnych sytuacjach klinicznych i sprawdzaniu, czy wydajność sztucznej inteligencji pogarsza się z czasem. Starano się również zminimalizować „halucynacje”, czyli sytuacje, w których modele sztucznej inteligencji generują fałszywe informacje.Radykalne cięcia Muska w administracji obniżyły jakość kontroliAle po tym, jak Donald Trump objął urząd prezydenta możliwości w zakresie badania urządzeń medycznych z AI w USA zostały ograniczone. Wszystko za sprawą Elona Muska i jego kampanii na rzecz cięcia kosztów za pośrednictwem Departamentu Efektywności Rządowej (DOGE). W wyniku działań miliardera, około 15 z 40 naukowców zajmujących się sztuczną inteligencją w jednostce DIDSR zostało zwolnionych lub odeszło, jak stwierdziły osoby z FDA.Inna jednostka, która opracowywała politykę dotyczącą urządzeń wykorzystujących sztuczną inteligencję, Centrum Doskonałości Zdrowia Cyfrowego (Digital Health Center of Excellence), straciła około jednej trzeciej swojego personelu, liczącego około 30 osób.Czytaj także: Lekarstwo na raka. Polscy naukowcy krok od przełomu– Niektórzy wysocy rangą regulatorzy nie mają pojęcia, jak działają te technologie. Wyjaśnialiśmy im, dlaczego uważamy, że ta technologia jest bezpieczna lub niebezpieczna w użyciu na rynku – powiedział jeden z byłych urzędników. Jeśli jest mniej oczu, łatwiej coś przeoczyćOd czasu radykalnych cięć zaordynowanych przez Muska, obciążenie pracą niektórych recenzentów urządzeń prawie się podwoiło, jak twierdzą dwaj byli pracownicy. – Jeśli nie masz zasobów, istnieje większe prawdopodobieństwo, że coś zostanie przeoczone – powiedział były recenzent urządzeń, który zrezygnował z pracy w ubiegłym roku.FDA wymaga badań klinicznych nowych leków, ale urządzenia medyczne podlegają innym procedurom kontroli. Zgodnie z przepisami FDA większość urządzeń z zastosowaniem sztucznej inteligencji wprowadzanych na rynek nie musi być testowana na pacjentach.Urządzenia z łagodniejszą kontrolą niż lekiZamiast tego producenci spełniają przepisy FDA, powołując się na wcześniej dopuszczone urządzenia, które nie miały opcji związanych ze sztuczną inteligencją – zwrócił uwagę dr Alexander Everhart, wykładowca na wydziale medycznym Uniwersytetu Waszyngtońskiego w St. Louis i ekspert w dziedzinie regulacji dotyczących urządzeń medycznych.Pozycjonowanie nowych urządzeń jako aktualizacji istniejących to ugruntowana praktyka, ale Everhart twierdzi, że sztuczna inteligencja wprowadza nową niewiadomą.– Uważam, że tradycyjne podejście FDA do regulacji urządzeń medycznych nie jest w stanie zapewnić bezpieczeństwa i skuteczności technologii opartych na sztucznej inteligencji – powiedział Everhart agencji Reutera, zaznaczając, że aktualne podejście do zatwierdzania urządzeń przed wejściem na rynek w zasadzie skazuje na branie deklaracji producenta „za dobrą monetę”. – Nie wiem, czy to, co teraz jest w FDA, stanowi jakieś realne zabezpieczenie – podsumował.