Nowy eksperymentalizm
08 Grudnia
Rys. Sławomir Makal
Opublikowano: 2020-12-08

Antropologia infrastruktury nauki

Pod koniec lat siedemdziesiątych kilku badaczy społecznych wykorzystało znaną z antropologii społecznej metodę obserwacji uczestniczącej w celu lepszego zrozumienia tego, co dzieje się w laboratoriach przyrodniczych. Podejście antropologiczne okazało się przynosić na tyle interesujące rezultaty, że w podobny sposób zaczęto analizować inne miejsca aktywności naukowej. Stąd mowa o etnografii laboratorium lub o antropologii nauki.

Termin „infrastruktura” zrobił zawrotną karierę w drugiej połowie XX wieku. To poczciwe słowo wywodzące się z języka francuskiego początkowo oznaczało prace inżynieryjne poprzedzające kładzenie torów kolejowych. Z czasem termin zaadaptowało NATO, a infrastrukturą zaczęto określać nie tylko nasypy, tunele i mosty kolejowe, ale także same tory, nastawnie i stacje oraz wszelkie inne elementy sieci komunikacyjno-transportowych umożliwiające przerzut wojsk i sprzętu. Termin zaadaptowały również ONZ i inne organizacje międzynarodowe mające zajmować się po wojnie odbudową i rozwojem. Dziś trudno wyobrazić sobie kontekst, w którym termin „infrastruktura” nie znajduje zastosowania. Biorąc pod uwagę rozmaite użycia terminu, infrastrukturę można zdefiniować jako czynniki, które wymagane są, aby jakieś urządzenie, praktyka społeczna lub instytucja działały poprawnie. W takim sensie można mówić o infrastrukturze energetycznej, telekomunikacyjnej, ale także o infrastrukturze zdrowia publicznego lub o infrastrukturze demokracji. Gdy mowa o infrastrukturze nauki w pierwszej kolejności na myśl przychodzą zestawy eksperymentalne, urządzenia pomiarowe i pomieszczenia lub całe budynki dostosowane do potrzeb pracy z nimi (chodzić może o odpowiednią wentylację, ekranowanie promieniowania, odpowiednie zasilanie etc.). Jest to jednak ujęcie zdecydowanie za wąskie.

Infrastruktura to nie tylko rzeczy, ale także działania rozmaitych ludzi i instytucji. Rozwój państw wymaga nie tylko infrastruktury materialnej w postaci zapór, autostrad czy portów, ale również infrastruktury niematerialnej, na którą składają się „kapitały” ludzkie, społeczny i kulturowy. A przynajmniej przekonały się o tym instytucje międzynarodowe starające się wspomagać rozwój krajów tak zwanego trzeciego świata, kredytując budowę zapór, fabryk, dróg i innych wielkich struktur: bez ludzi i instytucji tego typu obiekty szybko stawały się białymi słoniami. Podobnie jest z badaniami. Nie podniesiemy innowacyjności gospodarki, budując parki naukowo-technologiczne: te muszą być jakoś wpięte w gospodarkę i społeczeństwo. Możemy też wyposażyć uniwersytety w świetne laboratoria, ale bez badaczy i w szczególności bez pomysłu jakie nowatorskie doświadczenia można na tym sprzęcie wykonać, urządzenia te równie dobrze można pozostawić w pudłach i na paletach.

Gdy jednak piszemy o infrastrukturze dla nauki, nie mamy na myśli pracy naukowców. Ogromna część pracy umożliwiającej działalność laboratoryjną kończy się zanim jeszcze naukowcy przystąpią do obmyślania publikowalnych doświadczeń. Laboratoria muszą zostać zaopatrzone w gazy, odczynniki i próbki. Urządzenia muszą zostać zamówione, przewiezione i zamontowane, a niekiedy też zmodyfikowane. Konieczna jest też ich kalibracja. Czynności te mogą wydawać się banalne, ale od tych technikaliów zależy, czy badania będą miały jakikolwiek sens. Jeśli w połowie projektu zmieni się oprogramowanie, odczynniki lub maszynę, wyniki mogą przestać być porównywalne. W większych ośrodkach, gdzie jest wyraźny podział pracy na techniczną i badawczą, praca taka jest sporadycznie dostrzegana, a jeszcze rzadziej doceniana. Im lepiej technicy wykonują swoje zadania, tym rzadziej się o nich myśli. W ten sposób praca przy infrastrukturze (odróżniana od pracy na infrastrukturze) staje się przejrzysta. Przejrzysta, ale nie niewidzialna. Bo gdy eksperyment się nie powiedzie, nie uda się powtórzyć jakiejś procedury, prototyp nie zadziała, to jedną z rzeczy, która zostanie poddana gruntownej rewizji, będzie infrastruktura właśnie.

Jak kultury pierwotne

Infrastruktura wykracza jednak daleko poza ramy pojedynczej pracowni badawczej. Jest ona tym, co zapewnia porównywalność i replikowalność wyników uzyskanych przez różne zespoły i jest decydująca w procesie transmisji wiedzy i danych. Tak przynajmniej przekonują nas przedstawiciele antropologii technonauki, jednego z ważniejszych obszarów nurtu science and technology studies.

Na pierwszy rzut oka termin „antropologia technonauki” wygląda jak zbitka pojęciowa. Pierwszy człon nazwy tego podejścia odnosi się nie tyle do przedmiotu, co do metody. Pod koniec lat siedemdziesiątych kilku badaczy społecznych wykorzystało znaną z antropologii społecznej metodę obserwacji uczestniczącej w celu lepszego zrozumienia tego, co dzieje się w laboratoriach przyrodniczych. Badacze społeczni potraktowali przyrodoznawców tak samo, jak wcześniej klasyczni antropolodzy zwykli traktować przedstawicieli kultur pierwotnych: zamiast przyjmować opisy aktywności oferowane przez badanych, przyjrzeli się bliżej temu, co ci faktycznie robią. Podejście antropologiczne okazało się przynosić na tyle interesujące rezultaty, że w podobny sposób zaczęto analizować inne miejsca aktywności naukowej. Stąd mowa o etnografii laboratorium lub o antropologii nauki. Z kolei terminem „technonauka” posługujemy się, by zwrócić uwagę na to, że w praktyce nie ma możliwości ścisłego odgraniczenia prac naukowych od wdrożeniowych. Ponadto istnieje ścisły związek nauki z rynkiem i przemysłem: nauka generuje innowacje napędzające przemysły i rynki; wiele przemysłów dostarcza nauce materiałów i podzespołów umożliwiających prace naukowe; rynki są kluczowe w procesie unifikacji i standaryzacji procesów przemysłowych i dyfuzji innowacji. W kontekście relacji nauka-przemysł warto zwrócić uwagę na elementarną obserwację antropologów: w laboratoriach przyrodniczych nie bada się Natury, tylko przetworzone lub wytworzone artefakty. Jak pokazała to Karin Knorr Cetina w książce Epistemic Cultures, dotyczy to w równym stopniu laboratoriów biologii molekularnej, co CERN. Woda jest destylowana, cząsteczki i związki chemiczne syntetyzowane, myszy modyfikowane genetycznie, odczynniki i substraty reakcji przemysłowo produkowane. Znaczną część tych rzeczy dostarczają wyspecjalizowane przedsiębiorstwa, które są jednocześnie gwarantem standaryzacji.

Antropolodzy poświęcili sporo uwagi infrastrukturze technonauki. Jak zauważa Bruno Latour, fakty naukowe i technologie są jak pociągi: nie działają bez torów. Funkcjonują w określonych strukturach tak jak lokomotywa. Struktury można łączyć i rozprzestrzeniać, ale poza nimi nie mamy gwarancji, że dana rzecz zadziała. Nie można jechać lokomotywą po polu. Zarejestrowanie pewnych zjawisk wymaga powołania do istnienia sieci instrumentów i praktyk. Najlepszym tego przykładem jest zmiana klimatyczna. Wbrew temu, co może się wydawać, nie wystarczy spojrzeć za okno, by stwierdzić, że zmienia się klimat. Pogoda to nie klimat. Infrastruktura niezbędna do stwierdzenia, czy i jak zmienia się klimat, wymagała dziesiątek lat, co opisał Paul Edwards w książce A Vast Machine. Ale infrastruktura konieczna jest do pomiaru zjawisk, których badanie ma dużo dłuższą historię niż nauka o klimacie. Elektromagnetyzm, grawitacja i inne zjawiska fizyczne są uniwersalne, ale możemy je badać i sensownie się o nich wypowiadać dopiero wtedy, gdy dysponujemy odpowiednimi, skalibrowanymi i powszechnie stosowanymi instrumentami.

Transfer wiedzy milczącej

Dyscypliną fundamentalną dla kalibracji aparatury jest metrologia. Zajmuje się ona problematyką pomiarów i jednostek miar. Jednym z jej zadań jest standaryzacja miar: chodzi o to, by metr, sekunda, wolt i inne jednostki oznaczały to samo na całym świecie. Korzenie metrologii sięgają roku 1795, kiedy stworzono system metryczny, ale jej faktyczny rozwój nastąpił dopiero w latach pięćdziesiątych i sześćdziesiątych ubiegłego wieku. W tamtym okresie na poligonach amerykańskich wiele testowanych technologii nie działało z powodu niewystarczającej standaryzacji miar w fabrykach produkujących poszczególne komponenty. Zaczęto szkolić wojskowych i cywilnych metrologów, mających miarom nadać stabilność i niezmienność. Ale chodziło nie tylko o kapitał ludzki. Potrzebne były nowe instytucje. W przypadku rozkalibrowania urządzeń konieczne było przewiezienie przez wykwalifikowanego kuriera wzorca jednostki z centrum metrologicznego do laboratorium. Była to operacja skomplikowana, wymagająca ścisłego trzymania się procedur i trwała niekiedy kilka tygodni. Dziś miary ustala się na podstawie przeprowadzanych w laboratoriach standardowych eksperymentów mających na celu „odzyskanie” jednostki.

Podstawowe wyzwanie, z jakim mierzą się naukowcy i inżynierowie, wiąże się z tym, że z jednej strony fakty, dane, maszyny, próbki muszą być przenoszone z miejsca na miejsce i między kontekstami, a z drugiej strony nie powinny ulegać zmianom. Aby replikować jakieś doświadczenie lub prototyp, nie wystarczy wysłać schemat i opis procedury: najczęściej konieczny jest transfer wiedzy milczącej, a niekiedy podzespołów i próbek. Transfer danych z kolei ma sens tylko i wyłącznie wtedy, gdy są one zapisywane i odczytywane przez osoby o podobnym wykształceniu według tego samego schematu. To wszystko są rzeczy uzależnione od infrastruktury w szerokim, antropologicznym znaczeniu.

Infrastruktura odgrywa rolę nawet w klasyfikowaniu obserwowanych zjawisk. Zwracali na to uwagę Susan Leigh Star i Geoffrey Bowker. Najlepiej zademonstrować to na przykładzie epidemiologicznym. Aby móc diagnozować jakąś chorobę i stwierdzić, że mamy do czynienia z epidemią, musimy wpierw ustanowić pewne ramy klasyfikacji. Najlepiej ilustruje to przykład pierwszej pandemii, czyli epidemii świńskiej grypy. Dziś kojarzymy ją głównie z kontrowersjami politycznymi wokół zakupu leków przeciwwirusowych oraz z zarzutami pod adresem WHO o to, że podniosła fałszywy alarm. Ale czy był on rzeczywiście fałszywy? Trudno stwierdzić, gdyż zabrakło infrastruktury umożliwiającej ustalenie, ilu tak naprawdę ludzi zachorowało i ilu zmarło w wyniku grypy H1N1 lub jej powikłań. Wiemy o 18 449 laboratoryjnie potwierdzonych przypadkach zgonów. Ale według szacunków – bo na nie musimy się zdać – faktyczna liczba zgonów była kilkunastokrotnie większa. Szacuje się, że na świcie umarło od 151 700 do 575 400 osób z powodu świńskiej grypy. Dla porównania na sezonową grypę rocznie umiera od 250 do 600 tysięcy osób. Lecz – ponownie – są to wartości szacunkowe. Nie wiemy, ile osób zabijają grypy, gdyż nie ma standaryzacji: w różnych krajach, regionach, a nawet w rożnych szpitalach ten sam przypadek może zostać różnie zaklasyfikowany. Być może po epidemii COVID-19 to się zmieni.

Niedorozwinięta infrastruktura

Jeszcze z jednego ważnego powodu nie znamy liczby ofiar gryp. Przyjmuje się, że większość ofiar grypy H1N1 to mieszkańcy krajów rozwijających się. Zresztą dotyczy to wszystkich chorób zakaźnych. Tymczasem infrastruktura umożliwiająca monitorowanie chorób zakaźnych w tych krajach jest na zupełnie innym poziomie niż w krajach rozwiniętych. Braki kadrowe oraz braki w sprzęcie laboratoryjnym sprawiają, że lekarze w wielu obszarach naszej planety są zmuszeni diagnozować choroby w zupełnie innym trybie, niż ma to miejsce w Europie i Stanach Zjednoczonych. Przykładowo, przez wiele lat, gdy w krajach rozwiniętych diagnozę AIDS opierano na pozytywnym wyniku dwukrotnego laboratoryjnego testu krwi na obecność wirusa HIV, w Afryce lekarze zdani byli na wywiad kliniczny. Według definicji z Bangui z 1985 roku do zdiagnozowania AIDS wystarczało stwierdzenie co najmniej dwóch z trzech głównych objawów (gorączka trwająca ponad miesiąc, chroniczna biegunka, utrata co najmniej 10 procent wagi) i jednego objawu dodatkowego (między innymi stały suchy kaszel trwający dłużej niż miesiąc, zagrzybienie jamy ustnej i przełyku, opryszczka, ogólne powiększenie węzłów chłonnych). Taka procedura musiała skutkować wieloma błędnymi diagnozami. Zmiana tej sytuacji wymagała opracowania nowych technologii i strategii testów. Gwałtowny skok liczby testów w Afryce południowej nastąpił dopiero w latach 2008-2014. Jednak fakt, że dopiero w 2017 roku uzyskaliśmy testowalność na poziomie 75%, nie oznacza, że wcześniej nie można było mówić o globalnej epidemii HIV/AIDS. To, że infrastruktura w krajach rozwijających się jest niedorozwinięta, nie powstrzyma przecież lekarzy przed próbami diagnozowania i leczenia ludzi. Muszą radzić sobie w takich warunkach, w jakich przyszło im funkcjonować. Nie dotyczy to wyłącznie chorób zakaźnych. Warto odwołać się tu do studium przypadku anemii autorstwa Annemarie Mol i Johna Law.

Ludzie chorujący na anemię żyją zarówno w krajach rozwiniętych, jak rozwijających się. Diagnozowanie anemii w Europie zakłada przeprowadzanie testów laboratoryjnych. Sieć laboratoriów dość gęsto oplata Europę. Jednak znaczne obszary Afryki pozbawione są (czy może były w momencie prowadzenia badań) tego typu infrastruktury. Jest kilka powodów, które utrudniają lub czasami uniemożliwiają stworzenie pracowni badawczej w sercu Afryki. W przypadku rozległych obszarów tego kontynentu brak podstawowych warstw technologicznych umożliwiających zbudowanie laboratoriów. Nie ma odpowiednich dróg i lotnisk, przez co nie można przewieźć w wyznaczone miejsce niezbędnych urządzeń. Wyboista droga to zbyt wielkie wyzwanie dla ekspansji laboratoriów medycznych. Brak sieci dróg oznacza, że lekarze i badacze muszą pracować na przestarzałym sprzęcie lub w ogóle bez niego się obejść. Problemem może być energia elektryczna. Nawet jeśli uda nam się ustanowić i zasilić pracownię polową, pozostaje problem personelu. Jeśli rozwiąże się wszystkie problemy, pozostaje presja czasu. O ile europejski lekarz może skupić się na pacjencie, o tyle w warunkach afrykańskiego szpitala polowego medyk dysponuje zaledwie kilkoma minutami. W podobnym stopniu jest obciążone pracą samo laboratorium. Kolejnym wyzwaniem obok personelu, maszyn, infrastruktury i czasu jest klimat. Znaczenie ma wreszcie stabilność polityczna obszaru, na którym ma powstać szpital polowy wraz z laboratorium. Dlatego lekarze utrzymują, że w przypadku medycyny tropikalnej każdy element laboratorium i organizacji jego funkcjonowania stanowi poważny problem.

Powyższy przykład ilustruje bardzo istotną kwestię: infrastruktura dla nauki wykorzystuje infrastrukturę nowoczesności (badacze społeczni przez nowoczesność rozumieją nie okres historyczny, lecz pewną formę organizacji życia społecznego zakładającą wysoki poziom racjonalizacji). Może wydać się to banalne, ale Ludwik Pasteur miałby poważne problemy z opracowaniem szczepionki przeciw wąglikowi, gdyby nie poziom rozwojowy ówczesnej Francji. Gdyby nie centralne biuro statystyczne zbierające dane od weterynarzy z całego kraju nikt nawet nie wiedziałby, że panuje epidemia wąglika. Gdyby nie wsparcie hodowców nie mógłby przeprowadzić publicznej demonstracji. Gdyby nie dobrej jakości drogi miałby problem z przewiezieniem próbek z farm do swojego paryskiego laboratorium. To wszystko jest dla nas przejrzyste. Im infrastruktura lepiej działa, tym mniej o niej myślimy.

Naukowa kooperacja a ukryta praca

Na koniec warto wspomnieć o jeszcze jednej roli infrastruktury w kontekście badań naukowych. Ta odgrywa także rolę w stymulowaniu naukowej kreatywności. Istnieje szereg badań pokazujących, że naukowcy, którzy mają rozbudowane sieci współpracy lub pracują w duetach, uzyskują lepsze wyniki poznawcze. Ale – ponownie – współpraca nie jest czymś, co po prostu dzieje się samo. Ogromny wysiłek jest wkładany przez architektów i menedżerów w to, by naukowcy wchodzili ze sobą w interakcje. Oczywistym miejscem, gdzie naukowcy się spotykają, są konferencje, ale nie wolno zapominać o tym, że forma architektoniczna kampusów też może stymulować lub blokować współpracę. Nie chodzi tu nawet o zapewnienie naukowcom sal seminaryjnych. Jak pokazują badania, naukę uprawia się także na korytarzach, lobby czy choćby w windach. Ale niekiedy pracę trzeba wykonywać zdalnie, czy to w związku z potrzebą „społecznego” dystansowania, czy w związku z presją czasu. Świetnym przykładem, że jest to możliwe, okazała się epidemia SARS z 2003. Gdy zaczęły pojawiać się doniesienia z chińskiej prowincji Guangdong o nowej, nieznanej chorobie układu oddechowego, jedenaście laboratoriów rozsianych po całym świecie podjęło próbę zidentyfikowania czynnika zakaźnego. Organizowano codzienne telekonferencje, podczas których prezentowano wyniki testów, wymieniano się zdjęciami, analizami, raportami i próbkami. Już w pierwszych dniach wyeliminowano szereg potencjalnych przyczyn. Naukowcy z Hongkongu wyizolowali wirusa, który przypuszczalnie wywoływał SARS. W tym samym czasie amerykańskie CDC niezależnie wyizolowało własnego kandydata – drobnoustrój należący do grupy koronawirusów. W ciągu następnego tygodnia inne laboratoria potwierdziły obecność tego samego koronawirusa w próbkach pobranych od chorych. Zaczęto sekwencjonować genom wirusa. Na początku kwietnia holenderscy badacze stworzyli model zwierzęcy SARS. Badany koronawirus wydawał się spełniać wszystkie postulaty Kocha, co pozwoliło uznać go z dużą dozą prawdopodobieństwa za przyczynę SARS. Od momentu rozpoczęcia badań do ich zakończenia minął niespełna miesiąc. Jest to spektakularny przykład tego, co może dać współpraca naukowców. Ale nie stało się to samo z siebie. Proces był koordynowany i moderowany przez WHO, przy czym organizacja ta nie miała zwierzchnictwa nad placówkami. To naukowcy rozwiązali problem, ale warunki do tego stworzyła im WHO. Bez tej organizacji moglibyśmy nie zdawać sobie sprawy, że jakiś problem domaga się rozwiązania. WHO jest również jedną z najważniejszych organizacji, kluczowych dla budowania infrastruktury umożliwiającej monitorowanie epidemii.

Artykuł powstał w ramach realizacji grantu w Narodowym Programie Rozwoju Humanistyki 2016-2020, moduł 2a. Rozwój, nr 0248/NPRH4/H2a/83/2016.

dr hab. Łukasz Afeltowicz, prof. AGH, badacz społeczny,

zajmuje się społecznymi studiami nad nauką i technologią oraz socjologią środowiskową,

Wydział Humanistyczny AGH w Krakowie.

Autor dziękuję za uwagi Jackowi Gądeckiemu, z którym wspólnie prowadzą prace nad koncepcją antropologii infrastruktury. W artykule wykorzystano też wątki z dwóch książek autora: „Laboratoria w działaniu” (2011) oraz „Modele, artefakt, kolektywy” (2012).

Dyskusja (0 komentarzy)