Wokół nauki
15 Lipca
Rys. Sławomir Makal
Opublikowano: 2021-07-15

Heurystyki, z którymi się zmagamy

Trening poznawczy, praca zespołowa i ramy instytucjonalne sprawiają, że sposób myślenia naukowca musi wydawać się laikowi obcy i dziwny. Tym, co może budzić szczególne zaskoczenie, jest stosunek naukowców do faktów.

Chcąc zrozumieć specyfikę myślenia naukowego, warto skupić się nie tyle na tym, jak myśli naukowiec, ile na warunkach umożliwiających mu myślenie w określony sposób. Ludzie mają szereg tendencji i dyspozycji poznawczych, a uprawianie nauki wymaga ograniczenia ich wpływu na nasze działanie. W nauce osiąga się to nie tylko przez trening, ale również poprzez ustanowienie odpowiednich ram organizacyjnych i instytucjonalnych.

Nasz biologiczny system poznawczy ma szereg ograniczeń. Paradoks hazardzisty, zjawisko kotwiczenia, efekt sformułowania, efekt Dunninga–Krugera, błąd konfirmacji… to tylko kilka zniekształceń poznawczych, które zostały dobrze opisane i przebadane przez psychologię poznawczą. Mamy trudność ze zrozumieniem takich abstrakcyjnych zagadnień, jak statystyka i prawdopodobieństwo. Spaczenie konfirmacyjne utrudnia nam projektowanie eksperymentów. Często dostrzegamy wzorce tam, gdzie ich nie ma, a nie widzimy ich tam, gdzie faktycznie istnieją.

Jest to koszt, jaki ponosimy za możliwość korzystania z rozmaitych heurystyk. Heurystyki to uproszczone, dalekie od niezawodności, ale na ogół się sprawdzają. Przyspieszają podejmowanie decyzji i realizację wielu zadań. Problem z heurystykami polega na tym, że nie możemy ich ot tak zawiesić. Tymczasem, chcąc podejmować lepsze decyzje i znajdować lepsze rozwiązania procesu, musimy nadzorować stosowanie heurystyk i czasami działać wbrew nim. Oznacza to, że walczymy z naszym biologicznym wyposażeniem. Jak trudne jest to zadanie? Dobrą ilustracją może być problem Monty’ego Halla.

Problem wziął nazwę od imienia i nazwiska gospodarza amerykańskiego teleturnieju, który w Polsce był znany pod nazwą Idź na całość. Podczas turnieju gracz był stawiany przed trzema bramkami: jedna skrywała cenną nagrodę, a dwie pozostałe kozy (w polskiej wersji zastąpione przez maskotki). Gracz miał wybrać jedną bramkę, po czym gospodarz odsłaniał jedną z dwóch niewybranych bramek, zawsze taką, która skrywała kozę. Następnie pytał gracza, czy chce zmienić wybór na niewybraną, zasłoniętą bramkę. Pytanie: czy warto zmienić wybór? Intuicyjna odpowiedź, której udziela większość ludzi, jest taka, że nie ma to znaczenia, ponieważ szansa trafienia wynosi 50% w obu przypadkach. Większość z nas nie zmienia bramki, gdyż kierujemy się niechęcią do straty. Jest to błędna strategia. Zmieniając bramkę mamy większe prawdopodobieństwo wygranej: szansa, że nagroda skrywa się za bramką, którą oferuje gospodarz, wynosi dwie trzecie. Prawdopodobieństwo się „kumuluje”. Faktycznie, zmieniając bramkę, wybieramy między drzwiami, na które wskazaliśmy, a dwoma pozostałymi (nie ma znaczenia, że znamy zawartość jednych z nich). Wystarczy wyobrazić sobie, że gospodarz nigdy nie odsłonił bramki i po prostu zaproponował nam zamianę wybranych drzwi na pozostałe. Albo wyobrazić sobie, że wybieramy jedne drzwi spośród stu, po czym gospodarz otwiera 98 drzwi, za którymi nie ma nagrody i proponuję nam zmianę.

Zwalczyć zdrowy rozsądek

Problem spopularyzowała Marilyn vos Savant w 1990 roku. Prowadziła rubrykę w „Parade Magazine”. Gdy nadesłano do niej problem Monty’ego Halla, udzieliła poprawnej odpowiedzi i wyjaśniła, dlaczego należy zmienić drzwi. Reakcja czytelników była zaskakująca. Vos Savant została zasypana krytykami. Tylko 8% czytelników, którzy nie byli naukowcami, zgodziło się z nią. Publikując kolejne artykuły z dalszymi wyjaśnieniami była w stanie podnieść tę wartość do 56%. Jeśli chodzi o akademików, to tylko 36% spośród nich zgadzało się z nią; po serii artykułów wartość ta wzrosła do 71%. Często mówi się o tym, że rozwiązanie problemu jest oczywiste, gdy już znamy odpowiedź. W niektórych przypadkach to nieprawda, czego przykładem jest problem Monty’ego Halla. Jest on do tego stopnia kontrintuicyjny, że wielu ludzi nie zgadza się z odpowiedzią lub nie rozumie samego problemu, nawet jeśli przedłożyć im wyjaśnienie.

Nauka obfituje w kontrintuicyjne koncepcje, które wymagają zwalczenia zdrowego rozsądku. Ale bazuje też na kontrintuicyjnych metodach rozwiązywania problemów. Nie chodzi tylko o to, że są one kontrintuicyjne dla laików: idą one pod prąd heurystyk, którymi się kierujemy. Karl Popper już dawno temu zwrócił uwagę, że szybciej rozwiążemy problem, szukając danych i projektując doświadczenia, które mogą obalić nasze przypuszczenia, a nie takich, które będą w stanie je wyłącznie potwierdzić. Popper trafnie scharakteryzował pewną postawę, która musi wyróżniać naukowca. Musimy zmagać się ze spaczeniem konfirmacyjnym.

Chcąc zrozumieć te zmagania, posłużmy się eksperymentem 2-4-6 pomysłu Petera Wasona. Eksperymentator informuje badaną osobę, że myśli o pewnej regule wyznaczania ciągu trzech liczb. Podaje jako przykład ciąg 2-4-6. Badany ma odgadnąć regułę. Może proponować inne trzyliczbowe ciągi, a eksperymentator będzie odpowiadał, czy są one zgodne z regułą czy nie. W eksperymencie nie chodzi o to, jaka jest reguła (prawidłowa odpowiedź to dowolny ciąg rosnących liczb), ale jakie testowe ciągi zaproponuje badany. W przeważającej większości ludzie podają ciągi zgodne z ich przypuszczeniami. Tymczasem, chcąc sprawnie rozwiązać problem, powinni postępować odwrotnie. Jeśli przypuszczam, że reguła brzmi „Każda kolejna liczba jest większa od poprzedniej o dwa”, to chcąc się upewnić, że mam rację, powinienem podać ciąg sprzeczny z hipotezą (np. 1-2-3), a nie taki, który pasuje do niej (np. 10-12-14). Testując musimy się przełamać i podać ciąg, który przeczy naszym przypuszczeniom.

Naukowcy są wtórnie socjalizowani do tego, by zwalczać w sobie takie odruchy. Mamy zadawać sobie trudne pytania, sprawdzać poprawność naszych interpretacji, szukać konkurencyjnych wyjaśnień danych, które posiadamy. Ale chodzi nie tylko o trening. Jesteśmy do tego zmuszani przez system wzajemnej oceny, który sprawia, że deficyty naszego rozumowania – nadinterpretacje, skróty myślowe, ewidentne błędy logiczne – zostaną wytknięte przez innych badaczy.

W grupie bywamy mądrzejsi

W walce z własnymi ograniczeniami (i chcąc zwiększyć szansę na sukces naukowy) często zdajemy się na pracę zespołową. Zanim wyślemy artykuł do recenzji i wniosek o grant do oceny, dajemy go innym do przeczytania. Ale również pracujemy w grupach. I badania pokazują, że zespołowe rozwiązywanie problemów (nie tylko) naukowych daje wyraźne korzyści. W symulowanych eksperymentach pary radzą sobie zdecydowanie lepiej niż pojedyncze osoby: znajdują prawidłowe rozwiązanie szybciej i przy mniejszej ilości prób. Kooperacja wymusza na osobach pracujących w parach jasne artykułowanie założeń, przypuszczeń, przesłanek.

Ale nie każda praca grupowa ułatwia rozwiązywanie problemów. W grupie bywamy mądrzejsi, ale nie jest to regułą. Trzeba wiedzieć, jak zaprojektować interakcje, i wiedzieć, czego oczekujemy od współpracowników. Najczęściej lepiej jest poprosić o rozwiązanie różne osoby, które nie miałyby ze sobą styczności, niż grupę osób. Wiemy to między innymi z badań nad mądrością tłumu i eksperymentów z rynkami predyktywnymi. Problemem jest kotwiczenie. Gdy dokonujemy szacunku, oceny, formułujemy pomysł, kierujemy się wcześniej posiadanymi informacjami. Kotwice działają również w przypadku rozwiązywania problemów: kierujemy się analogiami, sugerujemy pomysłami innych etc. Gdy mamy do czynienia z problemem słabo zdefiniowanym, czyli takim, w przypadku którego nie ma znanych optymalnych metod rozwiązywania (do tej kategorii zalicza się przewidywanie pogody, przebiegu procesów społeczno-gospodarczych, szacowanie, rozwiązywanie nowych problemów poznawczych i technicznych, gdy nie wiadomo jeszcze, co jest istotne, a co nie), duża różnorodność pomysłów jest pożyteczna. Kotwice są szkodliwe, gdyż zmniejszają różnorodność propozycji, które formułuje grupa. Badania nad mądrością tłumu dostarczają ciekawej ilustracji.

Załóżmy, że prosimy grupę ludzi, którzy nie mają ze sobą styczności, by obstawiali, niczym w zakładach sportowych, jakie miejsca w najbliższych wyborach zajmą kandydaci lub partie. Jeśli zagregować setki takich niezależnych zakładów, powinniśmy być w stanie dość precyzyjnie przewidzieć wynik. W tej konkretnej dziedzinie mądrość tłumu sprawdza się co najmniej tak dobrze, jak badania ankietowe. Jednak skuteczność tej procedury podkopać mogą rozmaite informacje, które zakotwiczają szacunki i przewidywania. Na przykład lepiej jest, gdy osoby formułujące zakłady nie znają wyników badań przedwyborczych, nawet jeśli te są bardzo trafne. Przytoczmy wyniki prostego eksperymentu. W pierwszym kroku poproszono uczestników o dokonanie prostego oszacowania. Następnie badanym przekazywano informację zwrotną na temat średniej dla całej grupy, po czym wszyscy badani mogli skorygować swoje szacunki. Procedurę powtarzano kilka razy. W teorii wyglądało to tak, jakby każdy z uczestników mógł podpiąć się pod mądrość własnej grupy. W praktyce znikała różnorodność. Po każdym cyklu grupa stawała się coraz bardziej zgodna, ale zagregowane szacunki były coraz mniej trafne; pierwsza średnia podana do wiadomości grupy była najtrafniejsza. Efekt mądrości tłumu został zastąpiony konsensusem grupowym.

Nie wystarczy zamknąć grupę ludzi w pokoju

Skupmy się na innych procedurach, które teoretycznie mają umożliwiać zbiorowe rozwiązywanie problemów. Jedną z nich jest burza mózgów. Chodzi o procedurę, w której grupa ludzi najpierw generuje rozmaite pomysły, a dopiero potem przechodzi do ich krytyki i selekcji. Burze mózgów są popularne, niemal wszędobylskie. Problem jednak w tym, że nie są szczególnie skuteczne, co wykazano w toku rozmaitych eksperymentów. Liczba pomysłów zgłaszanych podczas burzy mózgów i ich różnorodność są mniejsze niż wtedy, gdy zbierzemy pomysły od członków zespołu niezależnie, uniemożliwiając im konsultowanie się ze sobą. Wystarczy zachęcić uczestników burzy mózgu do spisania pomysłów przed spotkaniem, a w grupie skupić się na krytyce i selekcji, by uzyskać lepsze rezultaty.

Nie wystarczy zamknąć grupę ludzi w pokoju, by rozwiązała problem. Źle zaprojektowany proces kolektywnego rozwiązywania problemów może doprowadzić do sytuacji, którą Irving Janis określał syndromem myślenia grupowego. Występuje on w szczególności w homogenicznych grupach i bierze się z tego, że członkowie grupy wzajemnie utwierdzają się w błędnych przekonaniach, odrzucając część informacji jako niepasującą do ich przekonań i zamierzeń. Ryzyko wystąpienia tego syndromu możemy zmniejszyć nie tylko podnosząc różnorodność grupy, ale i wprowadzając pewne zabezpieczenia, na przykład przydzielając komuś rolę adwokata diabła.

Co to ma wspólnego z myśleniem naukowym? Współczesna nauka to system instytucji (czyli formalnych i nieformalnych reguł działania), który ma pomóc w walce z naszymi ograniczeniami poznawczymi. Dzięki niemu poziom krytycyzmu jednostek jest podnoszony. Projektując badanie myślimy o tym, jak przekonamy oceniających. Przygotowując artykuł nie tylko staramy się przekonać recenzentów do tezy, ale i staramy się ujawnić wszelkie szczegóły, które mają w ogóle umożliwić im dokonanie oceny. Sekcje metodologiczne mają sprawiać wrażenie, że teoretycznie każdy badacz z naszej dziedziny, dysponując tymi samymi zasobami i niezbędnym czasem, powinien być w stanie powtórzyć nasze badania i sprawdzić dane. Zdajemy się na krytykę członków naszych zespołów. Praca zespołowa mieszana jest z długimi okresami pracy indywidualnej, co pomaga uniknąć kotwiczenia. Poza tym badacze aktywnie poszukują sposobów, by odróżnić się na tle stanu badań, efektem czego jest ogromna różnorodność metod, technik, problemów, a niekiedy teorii. Wreszcie, różne dyscypliny w różny sposób mieszają kooperację i konkurencję: nie można osiągnąć sukcesu w nauce bez wsparcia współbadaczy przyjmujących rolę mistrzów, współpracowników lub wykonawców, ostatecznie jednak sukces przypisywany jest w większym stopniu jednostkom niż zespołom.

Obcy i dziwny sposób myślenia

Trening poznawczy, praca zespołowa i ramy instytucjonalne sprawiają, że sposób myślenia naukowca musi wydawać się laikowi obcy i dziwny. Tym, co może budzić szczególne zaskoczenie, jest stosunek naukowców do faktów. W szkołach przekonywani jesteśmy, że naukowcy produkują fakty. To prawda, ale są oni również specjalistami w demontowaniu faktów. W naukach eksperymentalnych i w wielu innych obszarach empirycznych następuje nieustanna rewizja ustaleń. Wiemy, że koncepcje, którymi się posługujemy, mogą okazać się zbyteczne lub najzwyczajniej błędne za kilka lat. Owszem, istnieją w polu wiedzy punkty, których jesteśmy skłonni bardziej bronić niż innych. Jednak historia uczy, że nie powinniśmy przywiązywać się do tego, jak obecnie wyjaśniamy świat. Kryzys replikacji, mający miejsce w wielu dyscyplinach naukowych z psychologią na czele, dobitnie to nam uświadamia.

Naukowcy w szczególności nie przywiązują się do wstępnych wyników badań. I tu ujawnia się jedno z podstawowych nieporozumień wokół tego, co może i jak działa nauka. Media mogą donosić o najnowszych odkryciach, ale naukowcy wolą wstrzymać się z ocenami. Czekają na pojawienie się niezależnych badań dostarczających zbieżne wyniki. Czy jesteśmy w stanie powtórzyć ciekawy wynik, posługując się taką samą procedurą? Czy inne zespoły będą w stanie replikować wynik? Czy taki sam wynik da się uzyskać dzięki innej procedurze? To kluczowe pytania, które zadajemy sobie, zastanawiając się, czy mamy do czynienia z niezależnym od naszych działań faktem, czy jedynie artefaktem. Są to też pytania, które laicy zadają sobie bardzo rzadko.

dr hab. Łukasz Afeltowicz, prof. AGH,

Wydział Humanistyczny AGH w Krakowie

Dyskusja (1 komentarz)
  • ~Leszek Chybowski 28.10.2021 09:41

    Bardzo dobry artykuł. Materiał doskonale obrazuje fakt, że każde działanie, podejście i narzędzie ma swoje zalety, ale również i wady.