Gdy człowiek zbyt ściśle współpracuje ze sztuczną inteligencją, może wybierać gorsze pomysły i mieć większą trudność z przekuwaniem ich w konkretne działania – dowodzą badania polsko-holenderskiego zespołu z udziałem naukowców Akademii Leona Koźmińskiego w Warszawie.
Sztuczna inteligencja coraz mocniej wkracza do codziennej pracy. Pisze e-maile, analizuje dane, podpowiada kolejne zadania. W wielu organizacjach zaczęło dominować przekonanie, że im bliżej człowiek współpracuje z AI, tym lepsze osiąga wyniki. Najnowsze badanie polsko-holenderskiego zespołu podważa to założenie. Naukowcy z Rijksuniversiteit Groningen i Akademii Leona Koźmińskiego pokazali, że zbyt ścisła współpraca z AI może osłabiać to, co w innowacji najważniejsze: trafny wybór najlepszego pomysłu i umiejętność jego wdrożenia.
Większość dotychczasowych badań nad AI i innowacją skupiała się przede wszystkim na generowaniu pomysłów. Znacznie rzadziej analizowano to, co dzieje się później: jak ludzie wybierają najlepsze rozwiązanie i jak przygotowują plan jego realizacji. A to właśnie te etapy decydują o tym, czy pomysł stanie się realną wartością dla organizacji.
Genialny pomysł, który nie zostanie wybrany lub zostanie wybrany, ale nigdy nie będzie odpowiednio zrealizowany, nie przyniesie organizacji żadnych korzyści – podkreśla dr Leon Ciechanowski z ALK.
Jak badano współpracę człowieka z AI
Aby lepiej zrozumieć ten mechanizm, zaprojektowano eksperyment sprawdzający, czy bliskość interakcji między człowiekiem a sztuczną inteligencją wpływa na dwa kluczowe etapy innowacji: selekcję pomysłów i ich wdrożenie. Tę bliskość określono jako współpracę proksymalną.
W praktyce oznacza ona pracę ramię w ramię z AI: równy podział zadań, ciągłą wymianę informacji i traktowanie systemu jako współtwórcy, a nie wyłącznie pomocniczego narzędzia. W modelu wysokiej bliskości AI inicjowała interakcję, sama proponowała pomysły i oczekiwała partnerskiego udziału człowieka. W modelu niskiej bliskości odpowiadała tylko wtedy, gdy była o to proszona i pozostawała w roli wsparcia.
W badaniu uczestniczyło 221 pracowników z Niemiec i Holandii, reprezentujących m.in. branżę technologiczną, consulting i usługi specjalistyczne. Współpracowali oni z agentem AI opartym na GPT-4o firmy OpenAI, którego zadaniem było wsparcie w tworzeniu pomysłu biznesowego. Następnie uczestnicy wybierali najlepszy pomysł spośród wygenerowanych i przygotowywali plan jego wdrożenia. Jakość tych decyzji oceniali niezależni eksperci z doświadczeniem biznesowym i przedsiębiorczym.
Badanie uwzględniało także dwa dodatkowe elementy: poziom oryginalności pomysłów oraz stopień, w jakim uczestnicy opierali się na sugestiach AI przy tworzeniu planu działania.
Bliższa współpraca nie zawsze jest lepsza. Praca ramię w ramię z AI może rozbijać myślenie, choć jest ono niezbędne do podejmowania dobrych decyzji – komentuje dr Leon Ciechanowski.
Im bliżej AI, tym słabszy wybór pomysłów
Wyniki pokazały wyraźnie, że osoby pracujące z AI w modelu bardzo bliskiej współpracy wybierały gorsze pomysły niż ci, którzy korzystali z niej z większym dystansem. Niezależni sędziowie ocenili jakość wyboru pomysłów przez osoby pracujące w bliskiej współpracy z AI średnio na 2,76 w pięciostopniowej skali. W grupie pracującej z większego dystansu wynik wyniósł 3,24.
Jednym z wyjaśnień jest rozproszenie uwagi. Uczestnicy musieli jednocześnie śledzić sugestie AI, odpowiadać na nie i oceniać pomysły. To utrudniało zachowanie poznawczego dystansu i spokojną ocenę, które rozwiązanie rzeczywiście ma największy potencjał. Z perspektywy teorii rozproszonego poznania problem polega na tym, że przy zbyt ścisłej współpracy z aktywnym agentem AI zakłóceniu może ulec nieprzerwany tok myślenia potrzebny do podejmowania ważnych decyzji. W prostszych zadaniach takie poznawcze „odciążenie” bywa pomocne. Jednak wybór najlepszego pomysłu spośród wielu opcji wymaga skupienia i ciągłości osądu.
Wyniki pokazały jednak także ważny niuans. Negatywny efekt bliskiej współpracy z AI nie był równie silny w każdej sytuacji. Gdy uczestnicy pracowali z pulą bardziej oryginalnych, nowatorskich pomysłów, niekorzystny wpływ ścisłej współpracy z AI wyraźnie słabł. Oryginalne pomysły silniej angażują uwagę i pobudzają ciekawość. Kiedy uczestnicy mieli do czynienia z bardziej nieoczywistymi rozwiązaniami, byli bardziej skłonni do rzeczywistego namysłu i mniej podatni na rozproszenie wywołane aktywną obecnością AI.
Wdrożenie było trudniejsze, chyba że…
Bardziej złożony obraz pojawił się na etapie wdrażania pomysłów. Sama ścisła współpraca z AI również obniżała jakość planów wdrożeniowych. Kluczowe okazało się jednak to, czy uczestnicy faktycznie korzystali z sugestii sztucznej inteligencji przy tworzeniu ostatecznego planu.
Gdy badani nie opierali się na wynikach generowanych przez AI, bliska współpraca pogarszała jakość wdrożenia. Kiedy jednak świadomie uwzględniali rekomendacje systemu, negatywny efekt wyraźnie słabł. Co więcej, osoby, które w większym stopniu potrafiły wykorzystać uporządkowane sugestie AI, tworzyły ogólnie lepsze plany działania. Problemem nie jest zatem samo korzystanie z AI, ale sposób, w jaki człowiek włącza jej podpowiedzi do własnego procesu myślenia i decydowania.
Badanie podważa jedno z najbardziej rozpowszechnionych założeń dotyczących pracy z AI mówiące, że większa integracja człowieka i technologii zawsze oznacza lepszy efekt. O ile warto projektować procesy pracy z AI – świadomie, dopasowując stopień jej zaangażowania do konkretnego etapu zadania – o tyle w przypadku decyzji ocennych, takich jak wybór najlepszego projektu czy strategii, lepiej sprawdzi się AI w roli konsultanta niż równorzędnego partnera. W takim kontekście kluczowe staje się szkolenie ludzi w krytycznym korzystaniu z AI. Najlepsze wyniki osiągają nie ci, którzy bezrefleksyjnie podążają za systemem, ale ci, którzy potrafią świadomie zdecydować, kiedy warto skorzystać z jego rekomendacji, a kiedy je odrzucić.
AI w pracy: nie tylko czy, ale jak blisko
Badanie zostało przeprowadzone w kontrolowanych warunkach eksperymentalnych, na próbie pracowników z Niemiec i Holandii. Autorzy podkreślają, że kolejne analizy powinny sprawdzić te wyniki w bardziej złożonych, rzeczywistych warunkach organizacyjnych i w różnych kontekstach kulturowych. Już teraz jednak widać wyraźnie,
że w świecie pracy pytanie o AI nie brzmi już tylko: czy z niej korzystać. Coraz ważniejsze staje się pytanie: jak blisko, kiedy i w jaki sposób warto z nią współpracować.
W badanie zaangażowani byli prof. Aleksandra Przegalińska i dr Leon Ciechanowski z Akademii Leona Koźmińskiego. Wyniki opublikowano w „Computers in Human Behavior Reports”.
źródło: ALK
Te badania są kompletnie nieaktualne, pewnie 18 miesięcy czekali na opublikowanie artykułu. "Niezależni sędziowie ocenili jakość wyboru pomysłów przez osoby pracujące w bliskiej współpracy z AI średnio na 2,76 w pięciostopniowej skali. W grupie pracującej z większego dystansu wynik wyniósł 3,24." Od kiedy to liczy się wartość średnią z danych uzyskanych w pomiarze na skali Likerta. Tam nawet zera nie ma. Zmienne są skokowe a nie ciągle. Pewnie jeszcze testy parametryczne używali. I ta praca przeszła pozytywnie przez ręce Recenzentów I Redaktorów . Nadużycie metodologiczne. Poza tym teraz jest model 5.4.