Jest co najmniej kilka powodów zbliżenia ludzi i robotów w ostatnich latach – są one coraz tańsze i prostsze w obsłudze, w programowaniu oraz w integracji z innymi urządzeniami (IoT). Stają się one również coraz bardziej bezpieczne i niezawodne – posiadają coraz więcej czujników, które monitorują ich stan i parametry robocze. A dzięki rozwojowi wielu technologii, w tym sztucznej inteligencji, dają również coraz więcej możliwości wykorzystania, również w badaniach naukowych.
Dla badaczy z zakresu nauk społecznych szczególnie interesujące są roboty humanoidalne – czyli programowalne maszyny, które mogą naśladować zarówno działania, jak i wygląd człowieka. Choć podziałów robotów jest bardzo wiele, zwykle mówi się, że tego rodzaju roboty stanowią podkategorię robotów społecznych. Zdaniem Cynthii Breazeal – profesor z Massachusetts Institute of Technology, pionierki badań nad wykorzystaniem robotów w środowisku ludzkim – roboty społeczne to urządzenia zaprojektowane tak, aby wchodziły w interakcję z człowiekiem w naturalny, interpersonalny sposób. Celem takich robotów jest wspieranie człowieka w różnych zadaniach oraz nawiązanie emocjonalnej interakcji z nim.
Rozwój badań nad robotami społecznymi oraz ich wykorzystaniem zaowocował pojawieniem się wysoko punktowanych czasopism naukowych, na których szczycie jest International Journal of Social Robotics, choć lista czasopism poświęconych tej tematyce stale rośnie (Computers in Human Behavior, IEEE Transactions on Robotics, Science Robotics, Human-Computer Interaction, International Journal of Human-Computer Interaction, International Journal of Humanoid Robotics, International Journal of Human Computer Studies, Frontiers in Robotics and AI, ACM Transactions on Human-Robot Interaction). Co roku można również zaobserwować coraz więcej konferencji dotyczących interakcji z maszynami. Najważniejszą jest odbywająca się corocznie (od 2010 roku) w różnych częściach świata konferencja ICSR – International Conference on Social Robotics, ale są też bardzo wąsko wyspecjalizowane konferencje naukowe, w tym tak oryginalne jak International Congress on Love & Sex with Robots, która w tym roku będzie miała już swoją ósmą edycję.
Biorąc pod uwagę publikacje z zakresu robotyki społecznej, badania naukowe z ich wykorzystaniem możemy podzielić ogólnie na 3 kategorie:
Badanie interakcji z robotami
Badania w ramach dziedziny jaką jest interakcja ludzi z robotami (Human-Robot Interaction, HRI) pokazują, że wywołują one często sprzeczne emocje – lęki, ale i również spore zaciekawienie czy zachwyt.
To co często obserwujemy w tej specyficznej relacji, a co nie występuje w interakcji z ludźmi, to tzw. efekt Doliny Niesamowitości (Uncanny Valley Effect). Zjawisko odkryte w 1970 roku przez profesora inżynierii i robotyki Masahiro Mori polega na awersji w stosunku do robotów zbyt podobnych do człowieka. Tłumaczy się je bardzo różnie: jako efekt odczuwanej niepewności czy nieprzewidywalność w obliczu obiektu posiadającego cechy ludzkie i nieludzkie, jako konsekwencja rozczarowania gdyż szybko okazuje się, że robot pomimo swojego ludzkiego wyglądu nie dorównuje temu, co potrafi człowiek, jako efekt sprzecznych emocji (mieszanka lęku i fascynacji) czy też jako skutek postrzegania robota w podobny sposób, jak widzimy człowieka chorego, nietypowego, niejednoznacznego (unikamy takich osób w środowisku ludzkim).
Generalnie jednak historia badań w obszarze HRI pokazała, że relacje z robotami w znacznym stopniu przypominają relacje z ludźmi. A to za sprawą silnej antropomorfizacji inteligentnych maszyn. Mamy tendencję do przypisywania ludzkich cech obiektom nie ludzkim, do zachowania się w stosunku do robotów w podobny sposób jak do ludzi. Szereg badań prowadzonych na całym świecie pokazało na przykład, że przenosimy na roboty różne stereotypy obecne w ludzkich relacjach. I tak – mężczyźni są bardziej ulegli wobec robota, którego nazwano imieniem żeńskim, roboty większym rozmiarów są obdarzone większym autorytetem czy też faworyzujemy roboty przynależne do grupy własnej (wyprodukowane we własnym kraju).
Ale to nie wszystko – ulegamy również wpływowi społecznemu ze strony robotów – zarówno tzw. regule wzajemności, jak i technice manipulacji „stopa w drzwiach”, jesteśmy również mocno podatni na wpływ robotów atrakcyjnych fizycznie. A jak pokazało nasze niedawno przeprowadzone badanie – mocno ulegamy również robotowi, który został osadzony w roli autorytetu, i pod jego wpływem dopuszczamy się takich czynów jak rażenie innego człowieka prądem (replikacja słynnego eksperymentu Stanley Milgrama, ale z wykorzystaniem robota Pepper).
Reagujemy również bardzo emocjonalnie w relacjach z humanoidalnymi maszynami – odczuwamy empatię gdy robot „skaleczy” swoją dłoń czy też mamy opory, aby wyłączyć robota, gdy okazał się dla nas pomocny. Ponadto dotyk ze strony robota obniża naszą fizjologiczną reakcję na stres. Z kolei inne nasze badania, opublikowane kilka miesięcy temu pokazały, że ludzie reagują pobudzeniem fizjologicznym gdy dotykają różnych miejsc robota, opisanych językiem ludzkiej anatomii (np. głowa, ręka, plecy). Przy czym okazało się, że pobudzenie jest najwyższe gdy dotykane są „części intymne” (genitalia, pośladki).
Badania interakcji z robotem pokazują nam, że mamy trudność w znalezieniu odrębnej kategorii ontologicznej w myśleniu o robotach i zachowujemy się w stosunku do nich, zwykle w podobny sposób jak w stosunku do ludzi.
Badania symulacyjne procesów społecznych i psychologicznych
Gdy uznamy, że robot może do pewnego stopnia być substytutem człowieka, bo traktujemy roboty jak ludzi, mamy w stosunku do nich określone emocje jak do ludzi, a ich percepcja jest zbliżona do spostrzegania ludzi, to możemy (do pewnego stopnia) zastąpić ludzi robotami w eksperymentach laboratoryjnych. Maszyny mogą pełnić w nich rolę aktorów społecznych. A ponieważ wiele robotów zostało tak zaprojektowanych aby imitować stany emocjonalne za pomocą określonych gestów, mimiki czy dźwięku, możliwe jest badanie ludzkich reakcji nie tylko na zachowanie robota, ale również na prezentowane przez niego stany emocjonalne.
Różne zaaranżowane (zaprogramowane) zachowania robota mogą pozwolić na zaobserwowanie różnych ludzkich reakcji o charakterze emocjonalnym (np. zakłopotanie), poznawczym (np. zapamiętywanie informacji), motywacyjnym (np. wybory decyzyjne) czy behawioralnym (np. pomaganie).
„Zamiast próbować stworzyć program symulujący umysł dorosłego, dlaczego nie spróbować stworzyć programu symulującego umysł dziecka? Gdyby go następnie poddać odpowiedniemu procesowi edukacji, otrzymalibyśmy mózg dorosłego”. To słowa Alana Turinga, które napisał w swojej publikacji z roku 1950. Przez wiele lat wydało się to niedorzeczne, ale postęp w dziedzinie AI, zwłaszcza prace nad sztucznymi sieciami neuronowymi pozwalają na coraz lepsze symulowanie ludzkiej inteligencji. Doprowadziło to do powstania robotyki rozwojowej (developmental
robotics) czy też robotyki kognitywnej (cognitive robotics).
W największym skrócie – interdyscyplinarne zespoły, złożone ze specjalistów z różnych dziedzin (psychologia rozwojowa, kognitywistyka, neuropsychologia, biologia, medycyna, robotyka) budują roboty, które uczą się jak małe dzieci w interakcji z otoczeniem, poprzez jego eksplorację oraz doświadczenia sensomotoryczne. Pozwala to na modelowanie ludzkich zmian rozwojowych.
Przykładowo, w Italian Institute of Technology w Genui opracowano robota ICUB, wyglądem przypominającego 3-letnie dziecko. Robot posiada otwartoźródłowe oprogramowanie i pozwala na przeprowadzenie studium przypadku. Badacze mogą analizować procesy rozpoznawania i kategoryzowania bodźców przez robotycznego 3-latka, a także nabywania i różnicowania pojęć, tworzenia reprezentacji poznawczych, uczenia się na własnych błędach, podejmowania decyzji, itd.
Inny przykładem opisanego tu podejścia jest BabyX 7 – zaawansowany komputerowy model 3D niemowlęcia symulujący jego interakcje i reakcje. Model stworzony został przez firmę Soul Machines z Nowej Zelandii. Jej CEO jest dr Mark Sagar, który obronił doktorat z inżynierii na Uniwersytecie w Auckland, a następnie przebywał na stażu podoktorskim na MIT. BabyX reaguje na bodźce zewnętrzne, podobnie jak robi to prawdziwe niemowlę – na przykład odwzajemnia uśmiech, płacze gdy jest ignorowane. Model wyposażony jest w wirtualny układ nerwowy, a także mózg, który jest raczej uproszczoną wersją, ale posiada różne funkcje takie jak kontrola mimiki twarzy, reagowanie na różne bodźce czy zarządzanie procesami uczenia się.
Badania aplikacyjne (produktów)
Badania tego rodzaju robi się po to, aby przetestować skuteczność prototypów robotów czy też istniejących już na rynku urządzeń stosowanych w edukacji czy terapii. Przykładowo – z uwagi na starzenie się społeczeństw w ostatnich latach, na rynku pojawiło się bardzo wiele robotów asystujących dla seniorów. Choć jak pokazuje szereg badań ogólnie są one dobrze przyjmowane przez osoby starsze – pozwalają na zachowanie poczucia niezależności i samodzielności, zmniejszają psychofizyczne obciążenie osób opiekujących się nimi, oraz zapewnienie im poczucia bezpieczeństwa (np. połączenia alarmowe, monitoring funkcji życiowych czy pilnowanie bezpieczeństwa domu) – to oczywiście robot robotowi nierówny i każdy prototyp robota wymaga szeregu badań (ilościowych, jakościowych, UX). Jak wiadomo – intuicja projektantów i inżynierów nie raz okazała się myląca.
Przykład mogą stanowić prowadzone od wielu lat prace nad udoskonalaniem robota HOBBIT 8 przeznaczonego dla wspomagania osób starszych. W 2014 roku na próbie samotnych osób w wieku 70 + pozbawionych stałej opieki, przeprowadzono badania (ilościowe i jakościowe) w trzech krajach UE (Austria, Szwecja, Grecja). Pozwoliły ono zorientować się badaczom, że testowany produkt jest dość łatwy w obsłudze, ale mimo to grupa docelowa była sceptyczna wobec zakupu robota na własny użytek. Byli raczej skłonni go wypożyczyć. Zebrane dane naukowe pozwoliły zatem na wprowadzenie dalszych usprawnień i rozwój projektu.
Z kolei w tym roku opublikowano metaanalizę różnych badań nad skutecznością stosowanego powszechnie w stosunku do osób z demencją terapeutycznego robota „Paro”. Zebrano jedynie dwanaście badań, które pokazały umiarkowany wpływ Paro na ilość stosowanych leków, niewielki wpływ na stany lękowe pacjentów, pobudzenie
czy depresję. Ogólnie jednak jakość dostępnych danych naukowych oceniono jako niską, co pokazuje konieczność zwiększenia liczby badań nad różnymi typami robotów stosowanych przez praktyków.
W ostatnich latach prowadzi się wiele badań nad interakcją dzieci z robotami co zaowocowało wyodrębnienie się z HRI poddziedziny skupionej na interakcji dzieci z robotami (Child-Robot Interaction, cHRI lub CRI). W bazach naukowych można napotkać na metaanalizy badań nad różnymi urządzeniami edukacyjnymi i terapeutycznymi dla dzieci. Np. Melanie Jouaiti orz Patrick Hénaf z Uniwersytetu Lotaryńskiego pokazali w swoim przeglądzie badań efektywność robotów w rehabilitacji ruchowej dzieci ze spektrum autyzmu. Również zespół Luthffi Idzhar Ismail z Ghent University opublikował przegląd badań wskazujący na pozytywny wpływ robotów na jakość życia dzieci autystycznych. Rozmaite badania porównawcze pozwalają również ocenić, który typ robota jest najskuteczniejszy w określonej funkcji.
Można zatem powiedzieć, że wykorzystanie robotów w badaniach otwiera dla naukowców specjalizujących się w badaniach społecznych i psychologicznych szereg możliwości. Ale oprócz zalet, nie możemy pominąć wad, związanych z wieloma ograniczeniami tych urządzeń.
Na koniec warto nadmienić, że w 2018 roku powstała również bardzo przydatna dla naukowców baza robotów antropomorficznych – The ABOT (Anthropomorphic roBOT). Jak piszą jej sami twórcy z Brown University: „Jest to potężne narzędzie metodologiczne dla badaczy i projektantów, którzy badają psychologiczny wpływ ludzkiego wyglądu robotów lub tworzą takie roboty”.
Obecnie w bazie znajduje się ponad 250 robotów. Badacze amerykańscy w toku tworzenia bazy odkryli, że ludzki wygląd możemy sprowadzić do trzech odrębnych wymiarów taki jak manipulatory, twarz oraz powierzchnia ciała. Dodali zatem do bazy funkcje pozwalające na wyszukiwanie robotów po tych wymiarach, ale można dodatkowo również wskazać pożądane ogólne podobieństwo do człowieka oraz zaawansowanie w mechanicznym poruszaniu się. A zatem możemy używać 5 filtrów, określając dla każdego wymiaru zakresu 0–100, gdzie wyższa liczba oznacza wyższy poziom zaawansowania/podobieństwa do człowieka. Możemy w ten sposób dobrać odpowiedniego robota do prowadzonych badań czy też sprawdzić, jakimi parametrami cechuje się posiadane przez nas urządzenie. Np. robot Pepper używany w naszych badaniach został tak scharakteryzowany: twarz – 96, manipulatory ciała – 86, wygląd powierzchni – 23. Ogólnie co do podobieństwa do człowieka Pepper otrzymał 42,17 punktów. Z kolei NAO otrzymał odpowiednio – 88, 97,4 oraz 45,92 punktu. Wydaje się, że oba urządzenia produkcji Softbank Robotics są obecnie najpopularniejszymi robotami wykorzystywanymi do badań interakcji z robotami.
Zarówno Pepper i NAO posiadają m.in. kamery, mikrofony, żyroskopy oraz serię czujników dotykowych. Oba urządzenia można zaprogramować do interaktywnej komunikacji oraz na rozpoznawanie określonych obiektów. Niestety jednak należy przyznać, że poziom zaawansowania technologicznego robotów wciąż nie pozwala na ich autonomiczne, płynne działanie, zwłaszcza w zakresie generowania złożonych odpowiedzi. Dlatego niemal zawsze w eksperymentach wykorzystywana jest procedura „Czarnoksiężnika z Oz” (Wizard of Oz). To znaczy – choć badani są tego zwykle nieświadomi, roboty w zdecydowanej większości przypadków mają swojego „czarnoksiężnika” – czyli operatora z zewnątrz. Robotyka społeczna rozwija się jednak w takim tempie, że roboty stosowane w badaniach staną się znacznie bardziej zaawansowane i przydatne do kreowania różnych scenariuszy eksperymentalnych.
Ostatnio nadzieje na większą interaktywność i autonomiczność robotów rozbudziło pojawienie dużych modeli językowych (large language model – LLM). Wydaje się, że podłączenie robota do takiej bazy, z jakiej korzysta ChatGPT może rozwiązać problem konieczności wcześniejszego programowania robota, gdyż teoretycznie może on wtedy swobodnie komunikować się w zasadzie na dowolny temat. Jak się okazuje jednak, nie jest to takie proste. Warto zauważyć, że ChatGPT generuje odpowiedzi sprofilowane na komunikację pisemną i są to zwykle dłuższe i
specyficzne układane przez algorytmy zestawy danych. Czyste przeniesienie treści z tej formy na komunikat głosowy napotyka na szereg trudności – taka rozmowa jest po prostu mało naturalna. Dlatego programiści i konstruktorzy robotów podejmują próby tworzenia specjalnych aplikacji, które są zasilane LLM, ale uwzględniają różnice – komunikacja pisemna i asynchroniczna vs komunikacja werbalna i niewerbalna i synchroniczna. Chodzi nie tylko o wzbogacenie przekazu robota adekwatną komunikacją niewerbalną czy intonacją, ale również o obserwację przez
robota reakcji rozmówców czy „wyczuwanie” momentów w rozmowie gdy możliwe jest zabranie głosu czy konieczne oddanie go rozmówcy (turn-taking). Takie prace podejmuje się w przypadku takich robotów jak Pepper, Furhat czy Digit. Są one bardzo obiecujące, ale na efekty przyjdzie nam jeszcze trochę poczekać, a konwersacja z robotem pozostanie jeszcze bardzo długo chropowata (na szczęście jednak nie zawsze jednak jest to istotne w danym projekcie badawczym).
Wady i zalety wykorzystywania robotów w badaniach społecznych i psychologicznych
ZALETY:
WADY:
dr Konrad Maj
kierownik Centrum HumanTech, Uniwersytet SWPS w Warszawie
(artykuł ukazał się w e-czasopiśmie PWN Nauka)