Piotr Sankowski, prezes IDEAS NCBR i profesor w Instytucie Informatyki na Uniwersytecie Warszawskim, otrzymał czwarty już w swojej karierze grant European Research Council. Jest pierwszym Polakiem, któremu się to udało. W ramach Proof of Concept Grant jego zespół zajmie się badaniami podstawowymi z obszaru Explainable AI, czyli objaśniania, w jaki sposób algorytmy podejmują decyzje. Powstałe w wyniku prac polskich naukowców biblioteki danych pomogą innym twórcom budować rozwiązania AI oraz algorytmy optymalizacyjne lepiej zrozumiałe dla użytkowników.
W parę miesięcy od wybuchu popularności generatywnej sztucznej inteligencji pojawiły się w sieci zestawy promptów, czyli sprawdzonych zapytań do modeli językowych. Dzięki zastosowaniu w nich konkretnych zwrotów ChatGPT czy Midjourney wydobywają z siebie bardziej przewidywalne wyniki. Autorami tych promptów są zawansowani użytkownicy, którzy usiłują odgadnąć, w jaki sposób myślą algorytmy AI – najczęściej metodą prób i błędów.
W przypadku większości narzędzi opartych na sztucznej inteligencji, nie tylko końcowi użytkownicy nie są w stanie wyjaśnić, jak ona działa. Nie wiedzą o tym także jej twórcy. Mogą dzięki testom nauczyć się przewidywać, np. jaką odpowiedź zwróci ich model językowy przy konkretnym zapytaniu, ale nie umieją wyjaśnić, dlaczego tak się dzieje.
Wyzwania związane z wyjaśnieniem wyników działania algorytmów nie dotyczą tylko głębokich sieci neuronowych, ale także prostszych algorytmów optymalizacyjnych, które mogą mieć nawet dowody poprawności. Prowadząc nasze badania, zdaliśmy sobie sprawę, że użytkowników takie dowody nie interesują, nawet jeśli byliby w stanie je zrozumieć. Mimo to chcą oni dowiedzieć się, dlaczego algorytm podjął konkretną decyzję – komentuje dr hab. Piotr Sankowski, prezes IDEAS NCBR i lider grupy badawczej.
Stworzeniu takich wyjaśnień poświęcone są badania w projekcie EXplainable ALgorithmic Tools (EXALT) prowadzonym przez Piotra Sankowskiego w IDEAS NCBR, centrum badawczo-rozwojowym w obszarze sztucznej inteligencji.
Naszym zdaniem fundamentalną sprawą jest, abyśmy dobrze zrozumieli, jak tworzyć wyjaśnienia prostych algorytmów zanim uda nam się z sukcesem wyjaśnić zaawansowane algorytmy AI w ramach prac nad Explainable AI (XAI) – dodaje Sankowski.
Czego dotyczyć będzie grant EXALT?
Na realizację projektu EXALT Piotr Sankowski otrzymał grant Proof of Concept Europejskiej Rady ds. Badań Naukowych (European Research Council, ERC) w wysokości 150 tys. euro do zrealizowania w ciągu 18 miesięcy. To już czwarty grant badawczy w jego karierze naukowej, jaki otrzymał od tej agencji. Wcześniej był laureatem ERC Starting Grant (2010), ERC Proof of Concept Grant (2015), ERC Consolidator Grant (2017).
Przedmiotem naszych badań będą proste algorytmy optymalizacyjne, takie jak w nawigacji GPS wytyczające najkrótszą drogę dla pojazdu czy przypisujące pracownikom zadania do wykonania, aby zmaksymalizować efektywność. Do nich stworzona zostanie „nakładka”, czyli dodatkowy algorytm, który ma ustalić „dlaczego” dany algorytm podjął określoną decyzję. Może to być użyteczne przy tworzeniu rozwiązań opartych na sztucznej inteligencji w obszarach takich, jak medycyna, obsługa klienta, sprzedaż czy wspomniane systemy nawigacyjne. Kwestią otwartą pozostaje to, w jaki sposób ta informacja będzie przekazywana użytkownikowi końcowemu – wyjaśnia Sankowski.
Docelowo prace jego zespołu posłużą do powstania biblioteki oprogramowania, którą następnie będzie można wykorzystać do tworzenia objaśnianych algorytmów optymalizacji kombinatorycznej.
Dlaczego świat potrzebuje Explainable AI?
Już sama informacja, że „nawet twórcy sztucznej inteligencji jej nie rozumieją” dodatkowo wypaczona w popularnych narracjach może budzić obawy przed jej stosowaniem szczególnie u osób mniej biegłych w dziedzinie technologii cyfrowych. To z kolei może stwarzać presję na decydentów, by prawnie zahamować rozwój AI np. ze względu na kwestie związane z prywatnością danych. Zwłaszcza, że dostarcza ona coraz bardziej zaawansowanych rozwiązań, które już teraz znajdują zastosowanie nie tylko w biznesie, ale także np. w medycynie. Dzięki narzędziom XAI udaje się już poczynić postępy m.in. w diagnostyce chorób płuc i analizach zdjęć rentgenowskich.
Sztuczna inteligencja potrafi popełniać głupie błędy, w zadaniach, które ludziom często wydają się oczywiste. Przykładowo w odróżnianiu psów i kotów na zdjęciach, widząc zwierzę na dworze, założy, że to pies, bo statystycznie w dostarczonej jej bazie fotografii psy częściej występowały poza domem. Jednak wiedząc, że algorytm AI wykształcił taki mechanizm jesteśmy w stanie go skorygować, aby otoczenie nie było tak istotnym kryterium rozpoznawania zwierząt – opowiada Sankowski.
Narzędzie, które także dla naukowców przypomina „czarną skrzynkę” wyrzucającą z siebie ciągi danych, z czasem może stać się trudniejsze do rozwijania. Dzięki wdrażaniu rozwiązań z obszaru XAI twórcy czatbotów mogliby lepiej zrozumieć, kiedy modele językowe halucynują i ograniczyć takie zachowania, a producenci autonomicznych pojazdów byliby bardziej pewni niezawodności systemów stojących za sterowaniem pojazdami. Z kolei lekarze, który z stawianiu diagnoz korzystać będą z analiz dostarczonych przez sztuczną inteligencję, będą znali nie tylko jej końcową rekomendację, ale również ścieżkę „rozumowania”, jaka doprowadziła algorytm do takich wniosków. Będą więc mieli więcej informacji o zdrowiu pacjentów, a na ich podstawie podejmą lepsze decyzje.
Piotr Sankowski jest profesorem w Instytucie Informatyki na Uniwersytecie Warszawskim, gdzie w roku 2009 otrzymał habilitację, a w 2005 – doktorat z informatyki (w 2009 roku obronił doktorat z fizyki w dziedzinie teorii ciała stałego w Polskiej Akademii Nauk). Od początku powstania IDEAS NCBR stoi na czele tego ośrodka. Jego zainteresowania badawcze dotyczą algorytmiki, ze szczególnym uwzględnieniem algorytmicznej analizy grafów i algorytmów analizy danych. W 2018 roku otrzymał Nagrodę NCN, najważniejsze w Polsce wyróżnienie dla młodych naukowców, którzy dokonali znaczących odkryć w dziedzinie badań podstawowych prowadzonych w Polsce. Jest współzałożycielem i CTO spin-offu MIM Solutions. Należy do ELLIS Society – prestiżowego europejskiego stowarzyszenia gromadzącego ekspertów w dziedzinie AI.
Granty Proof of Concept, o wartości 150 tys. euro, przyznawane są naukowcom, którzy w trakcie badań finansowanych w innych konkursach European Research Council (Starting, Consolidator, Advanced lub Synergy) uzyskali nieoczekiwane lub nowe możliwości dla zastosowań komercyjnych lub społecznych. Celem półtorarocznego grantu jest m.in. weryfikacja koncepcji badawczej oraz angażowanie partnerów zewnętrznych. W ramach przyznanych środków można sfinansować prace, których nie przewidziano w pierwotnym projekcie. Do tej pory w ręce polskich naukowców trafiło pięć takich grantów (dwa dla prof. Magdaleny Król – 2020 i 2022 r., po jednym dla dr. hab. Piotra Sankowskiego – 2015, prof. Janusza Bujnickiego – 2012 i prof. Katarzyny Marciniak – 2023).
W sumie do Polski trafiły już 73 granty ERC wszystkich kategorii, w tym 43 Starting Grants, 14 Consolidator Grants, 9 Advanced Grants, 6 Proof of Concept Grants i 1 Synergy Grant. Wśród ponad dwudziestu polskich jednostek, w których są lub były realizowane te prestiżowe granty, prym wiedzie Uniwersytet Warszawski (łącznie z najnowszym już 29 grantów).
MK