Aktualności
Badania
04 Listopada
Źródło: www.pixabay.com
Opublikowano: 2021-11-04

Czy pozwolisz maszynie na samodzielne podejmowanie decyzji?

Rozwój sztucznej inteligencji sprawił, że coraz częściej zgadzamy się, aby technologia w nią wyposażona podejmowała za nas decyzje. Zjawisko to nazwane techno-empowerment zostało odkryte i opisane przez naukowców z Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją Uniwersytetu Łódzkiego. W swoich najnowszych badaniach eksperymentalnych pokazali, że aby wyjaśnić intencje do przekazania technologii autonomii decyzyjnej, powinniśmy sięgnąć do etologii i naturalnych relacji łączących organizmy żywe w ich niszy ekologicznej. 

Od wielu lat w teorii nauk o zarządzaniu oraz praktyce biznesowej upowszechnia się trend przekazywania autonomii decyzyjnej pracownikom (employee-empowerment), co ma zwiększyć ich przywiązanie do miejsca pracy oraz spełnienie w życiu zawodowym, a także wzmocnić poczucie odpowiedzialności za organizację. Okazuje się, że nie tylko pracownicy, lecz także technologia zyskuje autonomię decyzyjną w organizacji funkcjonującej w erze cyfrowej. Dr Artur Modliński i Matthew Gladden z Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją działającego na Wydziale Zarządzania Uniwersytetu Łódzkiego przekonują, że współczesna organizacja zaczyna wręcz przypominać cyborga.

O ile przed rozwojem sztucznej inteligencji człowiek był jedyną inteligentną częścią organizacji, o tyle w chwili obecnej mamy coraz więcej przykładów łączenia inteligencji ludzkiej i maszynowej. Technologia zaczęła zastępować człowieka w najprostszych zadaniach fizycznych, ale wyraźnie awansuje w zakresie odpowiedzialności powierzanych jej zadań – przyznają naukowcy.

Szkodzi czy pomaga?

W celu wyjaśnienia, co skłania ludzi do przekazania technologii autonomii decyzyjnej, nawiązali do swoich wcześniejszych badań etologicznych, stawiając śmiałą tezę, że aby zrozumieć intencje człowieka w zakresie przekazywania decyzji, powinniśmy potraktować inteligentną technologię jak żywy organizm. Badacze argumentują to naturalnymi relacjami wykształconymi pomiędzy zwierzętami na drodze ewolucji.

Założeniem naszego badania eksperymentalnego było to, że organizmy żywe poszukują sygnałów wysyłanych przez inne organizmy w celu ustalenia czy relacje między nimi są antagonistyczne, mutualistyczne czy obojętne. Innymi słowy, poprzez sygnały szukamy odpowiedzi czy dany organizm może nam zaszkodzić lub pomóc – wyjaśniają uczeni UŁ.

W swoim eksperymencie badacze stworzyli ulotkę zachęcającą do skorzystania z pomocy autonomicznego asystenta biurowego, który samodzielnie umawia spotkania, wystawia faktury, płaci rachunki z konta bankowego swojego właściciela. Jednocześnie stworzone zostało osiem grup, a w każdej z nich autonomiczny asystent był wyposażony w inny komplet sygnałów wysyłanych do potencjalnych odbiorców. Jedną grupą sygnałów był kraj pochodzenia. Autonomiczny asystent w grupie kontrolnej nie reprezentował żadnego kraju, a w trzech grupach informował, że został wyprodukowany w Chinach, Stanach Zjednoczonych lub Rosji. Drugą grupą sygnałów był certyfikat bezpieczeństwa. Autonomiczny asystent albo miał taki certyfikat, albo potencjalny użytkownik nie był informowany, że taki certyfikat w ogóle istnieje. Po przeprowadzeniu badania okazało się, że potencjalni użytkownicy chętniej deklarowali intencje zaadaptowania autonomicznego asystenta, jeśli nie deklarował pochodzenia z żadnego konkretnego kraju.

Taki wynik jest zgodny z postawioną przez nas hipotezą. Ludzie nadal posiadają silną identyfikację z grupą, w tym grupą narodowościową. Technologia, która nie pochodzi z naszej grupy, jest automatycznie utożsamiana z grupą obcą. Ludzie wyraźnie stosują te heurystyki także do maszyn, wyrażając niższą skłonność do tego, aby maszyna o obcym pochodzeniu nie podejmowała za nas niezależnych decyzji – podkreślają naukowcy.

Mimikra w relacji człowiek-maszyna

W badaniu eksperymentalnym wyraźnie wykazano, że czynnikiem zachęcającym do przekazania asystentowi autonomii decyzyjnej jest posiadanie certyfikatu bezpieczeństwa.

Chociaż certyfikat bezpieczeństwa wykorzystany w naszym badaniu nie istnieje w rzeczywistości i został przez nas zaprojektowany praktycznie od zera, uczestnicy ewidentnie docenili go jako sygnał świadczący o wiarygodności autonomicznego asystenta. Jest to dla nas ciekawy wniosek sugerujący swoistą mimikryzację relacji człowiek-maszyna. Mimikra to w środowisku naturalnym naśladowanie sygnałów wysyłanych przez zwierzęta w celu zmylenia przeciwnika (np. naśladowanie trującego gatunku, aby odstraszyć drapieżnika). W naszym przypadku fikcyjny certyfikat bezpieczeństwa był sygnałem zachęcającym, który w rzeczywistości mógłby zmylić potencjalnych użytkowników pozwalających asystentowi na podejmowanie niezależnych decyzji – tłumaczy dr Artur Modliński.

W trzeciej części eksperymentu wykazano, że na sygnały wysyłane przez autonomicznego asystenta bardziej reagują kobiety niż mężczyźni. O ile dla mężczyzn żaden z sygnałów nie wpływał istotnie statystycznie na intencje do przekazania autonomii decyzyjnej asystentowi, o tyle w przypadku kobiet taki wpływ był wyraźny.

Kobiety uczestniczące w badaniu eksperymentalnym deklarowały chęć przekazania asystentowi autonomii decyzyjnej, gdy nie posiadał informacji o kraju jego stworzenia, ale przyznano mu certyfikat bezpieczeństwa. Zależność tę przewidzieliśmy na etapie przygotowania eksperymentu. Kobiety są bardziej wyczulone na odczytywanie i przetwarzanie sygnałów ze środowiska niż mężczyźni, co da się wytłumaczyć teorią ewolucji i etologii. Zgodnie z twierdzeniem Triversa, samice inwestują większy wysiłek w reprodukcję niż mężczyźni. Tym samym przekazanie materiału genetycznego wiąże się z koniecznością bardziej skutecznego rozpoznawania atrakcyjnego genetycznie samca lub dostrzeżenia zagrożenia. Samce wykazują się mniejszym wyczuleniem na sygnały ze środowiska bądź wręcz celowo je ignorują, aby popisać się przed samicami i konkurentami. Świadczą o tym kolejne badania wskazujące, że mężczyźni częściej nie dostosowują się do znaków na drodze – zwracają uwagę uczeni z Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją.

Istotną konkluzją z przeprowadzonych badań jest konieczność tworzenia autonomicznej technologii bez podkreślania jej pochodzenia, które to może być postrzegane jako czynnik zniechęcający do skorzystania z niej. Twórcy powinni natomiast inwestować w certyfikaty bezpieczeństwa, które nadal stanowią na rynku autonomicznych technologii swoistą rzadkość, ale mają wyraźne znaczenie dla konsumentów. Na ile w przyszłości maszyny będą podejmowały za nas decyzje, okaże się w niedalekiej przyszłości.

źródło: UŁ

Dyskusja (0 komentarzy)