Opracowanie narzędzi dla psychologów i psychiatrów to jeden z głównych celów nowego zespołu powstałego w ośrodku IDEAS NCBR. Badacze chcą nauczyć algorytmy m.in. analizy wypowiedzi pacjentów celem szukania atypowych wzorców słownych.
Szansa na bezprecedensowe postępy w medycynie to jeden z najsilniejszych motorów rozwoju sztucznej inteligencji. W tym roku w Chinach, po raz pierwszy w historii, do badań klinicznych trafiły leki opracowane przez AI. Duże nadzieje pokłada się też w algorytmach monitorujących na bieżąco stan zdrowia pacjentów – zarówno w szpitalach, jak i w domach, za pomocą telemedycyny – które mogłyby wykryć problemy zdrowotne, zanim lekarz czy nawet sam chory zaobserwują niepokojące objawy.
Podobne podejście można zastosować w obszarze zdrowia psychicznego. Tu również modele korzystające ze sztucznej inteligencji są w stanie przetworzyć więcej danych na temat kondycji pacjenta niż potrafiłby przeanalizować człowiek, i umieją dostrzec niewidoczne dla ludzkiego oka wzorce. Różnica jest jednak w samych danych – przy diagnozowaniu zaburzeń psychicznych analizuje się przede wszystkim słowa i zachowania. Język, jakiego pacjenci używają do opisywania swoich stanów mentalnych, myśli czy emocji, mówi więcej niż się wydaje i może stanowić materiał podczas procesu diagnostycznego.
Czym zajmie się nowy zespół badawczy?
Diagnozowanie stanów ze spektrum autyzmu i schizofrenii jest bardzo trudne. Wiele osób mimo doświadczania trudności w kontaktach społecznych może w codziennym życiu radzić sobie stosunkowo dobrze i nawet przez wiele lat nie szukać pomocy specjalistów lub otrzymywać niepełne i błędne diagnozy. Według badań około 40 proc. osób z autyzmem cierpi na depresję – często zdarza się, że lekarz poprzestaje na diagnozie depresji, zaś autyzm pozostaje niewykryty. Zwłaszcza kobiety, głównie ze względów kulturowych, mają często niezwykle dobrze rozwinięte umiejętności kamuflowania swoich trudności, wiążących się z funkcjonowaniem społecznym. Jednocześnie bardzo doświadczeni eksperci często potrafią w intuicyjny sposób rozpoznać symptomy w interakcji z daną osobą. Jednak dokładny przebieg takiego intuicyjnego procesu diagnostycznego nadal pozostaje tajemnicą, a jego przeanalizowanie może stanowić kamień milowy w rozwoju narzędzi diagnostycznych.
Do takich zadań można również wytrenować sztuczną inteligencję. Doskonaleniem modeli AI służących m.in. wsparciu diagnostyki zajmować się będzie zespół badawczy „Psychiatria i fenomenologia obliczeniowa” powstały w IDEAS NCBR, ośrodku badawczo-rozwojowym w obszarze sztucznej inteligencji. Liderem zespołu został dr hab. Marcin Moskalewicz, profesor w Instytucie Filozofii Uniwersytetu M. Curie-Skłodowskiej w Lublinie oraz kierownik Pracowni Filozofii Zdrowia Psychicznego na Uniwersytecie Medycznym im. Karola Marcinkowskiego w Poznaniu.
Zespół będzie pracował nad koncepcją obliczeniowego modelu opartego o dane mikrofenomenalne, to znaczy bardzo szczegółowe informacje dotyczące subiektywnych przeżyć, umożliwiającym zautomatyzowaną analizę doświadczeń osób neuroatypowych.
Sztuczna inteligencja jest w stanie przeanalizować bazy liczące tysiące czy wręcz dziesiątki tysięcy wypowiedzi o określonym profilu mentalnym, na przykład pochodzących od osób ze spektrum autyzmu, aby odkryć w nich niedostrzegalne dla człowieka wzorce. Jest też w stanie odnosić treści narracji do owych wzorców wskazując na podobieństwa i różnice, a tym samym stanowić ważne narzędzie pomocnicze w ich rozpoznawaniu – wyjaśnia dr hab. Marcin Moskalewicz. – Analiza z wykorzystaniem sieci neuronowych może pomóc w zrozumieniu specyfiki tego, w jaki sposób osoby neuroatypowe postrzegają rzeczywistość, np. tego, jak odbierają przebieg interakcji społecznych – dodaje.
Co AI wnosi do psychiatrii?
Od kilkunastu lat, kiedy ktoś wpisuje w Google frazę, która mogłaby być związana z samobójstwem, wyszukiwarka na pierwszym miejscu wyników wyświetla numer telefonu zaufania, przypominając, że w kryzysie psychicznym należy skorzystać z profesjonalnej pomocy. To automatyczna odpowiedź oparta na prostym algorytmie kojarzącym odpowiednie kombinacje słów. Od 2022 roku wyszukiwarka została wyposażona w bardziej zaawansowane narzędzie oparte na AI. Zachętę do skorzystania z pomocy psychologicznej zobaczą osoby, które poszukują np. miejsc, gdzie najczęściej popełniane są samobójstwa. Google podpowie również, jak szukać pomocy, kiedy ktoś wyszuka hasła związane z przemocą domową i seksualną oraz uzależnieniem od substancji psychoaktywnych.
Modele językowe wspierane sztuczną inteligencją mogłyby działać na wielu platformach internetowych, zwłaszcza w sieciach społecznościowych, gdzie użytkownicy publikują dużo osobistych treści i gdzie za ich zgodą dane te mogłyby być analizowane.
W przypadku stosowania narzędzi opartych o AI niezbędna jest świadoma zgoda jak również poszanowanie światopoglądu. Psychiatria i psychologia kliniczna nie mogą być tylko „evidence-based”, muszą być także „values-based” – zauważa Moskalewicz.
I przypomina, że każdy z nas zostawia ślad w sieci, na który możemy spojrzeć jak na nasz cyfrowy fenotyp. Badanie takich fenomenalnych śladów cyfrowych pozwala wychwycić zarówno cechy zobiektywizowane, jak i te mające szczególną wartość dla pacjenta, a dotyczące jego odczuć i postrzegania sensów.
W diagnostyce zdrowia psychicznego kluczowe są nie tylko relatywnie łatwo uchwytne zmiany zachowania, ale również powierzchniowo niewidoczne przeżycia wewnętrzne. Dane pozyskane w badaniach jakościowych i mikrofenomenologicznych są nieporównywalnie bardziej szczegółowe niż te zbierane ad hoc. To od wartości tych danych początkowych zależy w dużej mierze jakość uzyskanego efektu końcowego – podkreśla lider nowego zespołu w IDEAS NCBR.
Możliwe, że dzięki sztucznej inteligencji badaczom i diagnostom uda się lepiej zrozumieć, w jaki sposób osoby neuroatypowe postrzegają świat.
Wprowadzenie na pełną skalę perspektywy pacjenta może przewartościować postrzeganie wielu tzw. zaburzeń psychicznych. Czy autyzm jest zaburzeniem, czy tylko pewną strategią poznawczą, która w zależności od kontekstu społecznego niesie ze sobą zarówno trudności, jak i przewagi? Nawet urojenia mogą być źródłem sensu dla pacjentów, pojawiają się wręcz pytania bioetyczne czy traktować je jako fałszywe przekonania, czy może zmienić perspektywę i spojrzeć na nie po prostu jako na alternatywne formy przeżywania niewymagające leczenia? Możliwe, że wprowadzenie AI do diagnostyki pomoże w przyszłości to określić – wskazuje dr hab. Marcin Moskalewicz.
Zespół interesują także dylematy bioetyczne związane z zastosowaniem AI w terapii. Obecnie prowadzi eksperyment in silico dotyczący roli uprzedzeń poznawczych w interakcji ludzi z botami terapeutycznymi.
MK