Polskie rozwiązanie AI dla medycyny docenione na światowej konferencji

Polscy naukowcy z Politechniki Warszawskiej opracowali nowatorskie podejście do wyjaśniania decyzji sztucznej inteligencji analizującej obrazy medyczne. Ich metoda, zastosowana w narzędziu Xlungs wspomagającym diagnostykę płuc, zyskała międzynarodowe uznanie i zostanie zaprezentowana pod koniec kwietnia na jednej z najważniejszych konferencji AI na świecie – ICLR w Singapurze. Badacze podkreślają, że transparentność AI to klucz do jej rewolucyjnego zastosowania w medycynie.

Marian Szutiak (msnet)
1
Udostępnij na fb
Udostępnij na X
Polskie rozwiązanie AI dla medycyny docenione na światowej konferencji

Koniec z "czarną skrzynką" w diagnostyce?

Dlaczego "wyjaśnialna AI" (Explainable AI - XAI) jest tak istotna w zastosowaniach medycznych? Jak tłumaczy prof. Przemysław Biecek, lider zespołu MI².AI z Wydziału Matematyki i Nauk Informacyjnych PW, który kieruje projektem, lekarz wspierany przez sugestie sztucznej inteligencji musi rozumieć, skąd się one wzięły. Szczególnie w sytuacji, gdy model AI wykryje potencjalnie groźną zmianę na obrazie z tomografii komputerowej klatki piersiowej pacjenta.

Dalsza część tekstu pod wideo

Koncepcja XAI stanowi odpowiedź na problem modeli AI działających jak "czarne skrzynki" – dających gotowe wyniki, ale nie zdradzających procesu, który do nich doprowadził. Brak zrozumienia tego procesu rodzi ryzyko błędów i podważa zaufanie do technologii. Potrzebę transparentności dostrzegają również regulatorzy. Unijny AI Act, który wszedł w życie na początku 2025 roku, klasyfikuje systemy AI stosowane w medycynie jako potencjalnie wysokiego ryzyka i wprost wymaga od nich możliwości wyjaśnienia podejmowanych decyzji.

Polska sztuczna inteligencja wyjaśnia analizę płuc

Zespół badawczy MI².AI z Politechniki Warszawskiej swoje nowatorskie podejście do XAI stosuje już w praktycznym projekcie Xlungs. Dzięki współpracy z Polską Grupą Raka Płuca, naukowcy wykorzystali imponującą bazę 40 tysięcy obrazów tomografii komputerowej płuc do trenowania modelu sztucznej inteligencji. Celem Xlungs jest wspieranie lekarzy w szybszym i skuteczniejszym diagnozowaniu chorób płuc. Co ważne, narzędzie zaprojektowano tak, by współpracowało z powszechnie przyjętymi standardami dokumentacji medycznej, co ułatwia jego integrację z istniejącymi systemami szpitalnymi.

W swojej pracy naukowej, zatytułowanej „Rethinking Visual Counterfactual Explanations Through Region Constraint”, która zostanie zaprezentowana w Singapurze, polscy badacze proponują metodę pozwalającą lepiej zrozumieć decyzje AI. Zamiast generować ogólne wyjaśnienia dla całego obrazu, ich podejście koncentruje się na wybranych fragmentach obrazu. Dzięki temu lekarz może łatwiej zobaczyć, które konkretne zmiany w analizowanym obrazie (np. w podejrzanym fragmencie płuca) skłoniłyby model AI do podjęcia innej decyzji diagnostycznej.

Wyjaśnialność AI jest szczególnie ważna w medycynie, gdzie interpretacja zdjęcia z tomografii komputerowej decyduje o rodzaju zalecanej terapii. Lekarze, ale także ich pacjenci, potrzebują przekonania, że mogą polegać na narzędziach, które wykorzystują do wspierania diagnozy i rozumieją, jak one dochodzą do danych wniosków. Lekarz nie zaufa “czarnej skrzynce”. Musi mieć możliwość zweryfikowania, czy taka sugestia ma sens.

- dr hab. inż. Marcin Luckner, kierownik prac deweloperskich w projekcie Xlungs

Międzynarodowe uznanie na ICLR

Sukces polskiego zespołu i wagę ich badań potwierdza zakwalifikowanie pracy do prezentacji na konferencji International Conference on Learning Representations (ICLR). To jedno z najważniejszych i najbardziej prestiżowych światowych spotkań naukowców i ekspertów w dziedzinie uczenia maszynowego, sztucznej inteligencji i uczenia głębokiego (deep learning). Tegoroczna edycja odbędzie się pod koniec kwietnia w Singapurze. Udział w ICLR to ogromne wyróżnienie dla zespołu MI².AI i Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej.

Polskie rozwiązanie w dziedzinie wyjaśnialnej sztucznej inteligencji ma szansę realnie przyczynić się do budowy zaufania i efektywniejszego wykorzystania AI w medycynie. Międzynarodowe uznanie pokazuje, że polscy naukowcy odgrywają istotną rolę w światowych badaniach nad tworzeniem transparentnych i odpowiedzialnych systemów sztucznej inteligencji.