|
PolemikiWyniki publikowane przez ISI są szeroko znane i czy to nam
się podoba, Andrzej Kajetan Wróblewski Od paru lat na łamach „Forum Akademickiego” toczy się ostra polemika na temat praktyk bibliometrycznych, to znaczy wyciągania wniosków z baz danych dotyczących publikacji naukowych i ich cytowań. Sprawy są bardzo ważne, jednak dyskusji nie widać końca. Z doświadczenia wiem, że jeśli rozsądni skądinąd ludzie nie mogą dojść do porozumienia mimo długiej i ostrej dyskusji, to jest prawdopodobne, iż albo dyskutują o różnych rzeczach, albo przypisują różne znaczenia tym samym wyrażeniom. Wydaje mi się, że właśnie to obserwujemy w polemice na łamach „FA”. Chciałbym wprowadzić do tej dyskusji pewien porządek, wyróżniając w
praktykach bibliometrycznych trzy obszary o bardzo różnym znaczeniu, metodologii
i sensowności. Wydaje mi się, że będzie to ważne zwłaszcza dla czytelników,
którzy obserwując wspomnianą polemikę, mogli się już poczuć nieco zagubieni. Nie
zamierzam toczyć boju z jakimkolwiek konkretnym artykułem polemicznym, chociaż
czytelnicy będą mogli się zorientować, z kim się zgadzam, a czyje poglądy uważam
za błędne. KILKA WIADOMOŚCI PODSTAWOWYCHBibliometria jest narzędziem, które pozwala oceniać stan nauki i technologii na podstawie całkowitej produkcji piśmiennictwa naukowego. Wyniki bibliometryczne mogą być pomocne w procesie zarządzania nauką, pod warunkiem, że są właściwie i umiejętnie wykorzystywane. Nazwę „bibliometria” zaproponował Pritchard w 1969 r., ale ta dziedzina ma znacznie dłuższą historię (już w latach 20. ub. wieku prace bibliometryczne publikował Alfred Lotka). Wcześniej używano najczęściej terminu „statystyczna bibliografia”. Współczesna bibliometria jest związana przede wszystkim z nazwiskiem Eugene’a Garfielda, który w 1955 r. zaproponował stworzenie indeksu cytowań naukowych (Citation indexes for science, „Science”, 121, 108 (1955)). Garfield miał zresztą tylko zamiar dostarczenia naukowcom narzędzia do łatwego przeszukiwania literatury w celu znalezienia wcześniejszych prac na podobny temat. Ten cel Garfielda został dziś zupełnie zapomniany, ponieważ szybko indeksy cytowań zaczęły być wykorzystywane do porównań i rankingów personalnych. Pierwszy Science Citation Index (SCI) ukazał się w 1963 r. i był dość skromny, obejmował bowiem 102 tys. artykułów, które zostały opublikowane w 1961 r. w 613 wybranych czasopismach. Garfield założył w Filadelfii Instytut Informacji Naukowej (Institute of Scientific Information, w skrócie ISI), którego zadaniem było i jest opracowywanie coraz bardziej rozbudowywanych indeksów cytowań. Żyjemy obecnie w epoce zalewu informacji. Ciekawe, że już niemal 400 lat temu Barnaby Rich (1613) miał podobne odczucia, gdy napisał: Jedną z chorób obecnego wieku jest mnogość książek, które tak zarzucają świat, że nie jest możliwe trawienie tej obfitości treści, która każdego dnia pojawia się na świecie. Obecnie jednak sytuacja właściwie wymknęła się już spod kontroli. Nikt nie wie, ile dokładnie jest na świecie periodyków naukowych. Ich spis, być może niepełny, opracowany przez UNESCO, zawiera już niemal pół miliona tytułów. Jest rzeczą oczywistą, że ogromna większość tych periodyków jest zupełnie bezużyteczna, ponieważ nie jest w ogóle zauważana ani czytana przez naukowców, nie wnosi zatem niczego do postępu nauki. Warto tu przytoczyć wyniki pewnego statystyka, który zbadał 53 tys. wypożyczeń z działu naukowego British Library, która prenumerowała wtedy 9120 czasopism uznanych za najważniejsze. Okazało się, że nikt nigdy nie sięgnął do ponad połowy z nich (4800), a dalsze 2274 czasopisma były konsultowane tylko raz. W 1950 r. Samuel Bradford udowodnił, że ogromna większość istotnych prac w
danej dziedzinie ukazuje się w stosunkowo niewielkiej liczbie czasopism. Tylko
te istotne prace są dalej cytowane i przyczyniają się do postępu. Praktyki ISI
opierają się właśnie na wykorzystaniu „prawa Bradforda” i monitorowaniu tylko
starannie wyselekcjonowanej próbki czasopism, uznanych za najbardziej istotne w
poszczególnych dziedzinach. Tak jest tworzona „lista filadelfijska” (szczegółowe
zasady jej komponowania można sprawdzić na internetowej stronie ISI). PODSTAWOWE ZASADY BIBLIOMETRIIPodstawowa reguła w bibliometrii brzmi: im większa próbka, tym bardziej
wiarygodne wyniki. Stąd wynikają następujące trzy zasady: Najstarszy i najlepiej znany indeks cytowań SCI jest mało przydatny do oceny i porównywania instytutów naukowych czy uczelni oraz zupełnie bezużyteczny do porównywania całych krajów. Dlatego też ISI przygotowuje specjalne bazy danych: National Science Indicators (NSI) oraz National Citation Report (NCR). Odnoszę wrażenie, że w dotychczasowej dyskusji na łamach „FA” spierano się
jednocześnie o te bardzo różne sprawy: wyniki bibliometryczne dotyczące całych
państw, poszczególnych instytutów czy wydziałów i wreszcie – indywidualnych
badaczy. MOŻNA WIERZYĆ – NSIW 1992 r. ISI opublikował po raz pierwszy bazę National Science Indicators (NSI). Od tego czasu corocznie wydawane są kolejne, wzbogacone wersje tej bazy. Jej najnowsze wydanie z 2001 r. obejmuje publikacje i cytowania za okres 1981-2000. Baza ta jest obecnie oparta na danych z ponad 8500 najważniejszych czasopism naukowych z całego świata, tworzących „listę filadelfijską” (w tym ok. 5500 z nauk matematyczno-przyrodniczych, 1800 z nauk społecznych i 1200 z nauk humanistycznych i sztuki). Baza obejmuje już ok. 130 mln cytowań i prawie 12 mln publikacji. Publikacje i cytowania są przyporządkowane ponad 170 krajom i regionom geograficznym (na podstawie narodowości autorów), nie ma natomiast w niej informacji o nazwiskach autorów i instytucjach, z których się wywodzą. Baza NSI pozwala na szybkie ustalanie wkładu poszczególnych krajów do danej dziedziny, porównywanie z sobą różnych państw pod względem wkładu do nauki światowej, a także ustalanie silniejszych i słabszych dziedzin w danym kraju. Ściśle mówiąc, istnieją dwie wersje bazy National Science Indicators, tzw. NSI Standard i NSI Deluxe. Publikacje i cytowania w bazie NSI Standard obejmują 24 dziedziny: nauki biologiczno-medyczne, matematyczno-fizyczne, przyrodnicze, techniczne oraz ekonomię, prawo, edukację, psychologię i nauki społeczne; jedna z kategorii to tzw. badania multidyscyplinarne, do której autorzy bazy zaliczają publikacje z pogranicza dyscyplin. Ta klasyfikacja dziedzin została oparta na schemacie używanym w „Current Contents”, przeglądzie zawartości czasopism naukowych, wydawanym co tydzień przez ten sam Institute of Scientific Information. Wersja NSI Deluxe obejmuje dodatkowo 10 dziedzin nauk humanistycznych, społecznych i sztuki, a ponadto dla 16 z dziedzin objętych przez NSI Standard podano w niej dokładniejszy podział na dyscypliny, tak że łącznie mamy tu podział publikacji i cytowań na 105 pól badawczych, odpowiadających konwencji „Current Contents”. Warto podkreślić, że dziedziny i pola badawcze w NSI zostały zdefiniowane jako zbiór publikacji ogłoszonych w określonym zestawie czasopism rejestrowanych w jednej z siedmiu edycji „Current Contents” oraz w indeksach cytowań. Niektóre pola stworzone na potrzeby NSI nie mają swojego odpowiednika w innych klasyfikacjach nauk. Przydział publikacji do odpowiednich kategorii następował zatem głównie na podstawie przyporządkowania im czasopism, w których znajdują się publikacje i cytowania. W nielicznych przypadkach czasopismo przyporządkowywano dwóm (lub nawet trzem) kategoriom, a klasyfikację publikowanych artykułów wykonywano indywidualnie. Prace ogłaszane w czasopismach wielodyscyplinowych (jak „Nature”, „Science” itp.) były przydzielane indywidualnie do odpowiednich kategorii. Nie udało się jednak uniknąć przyporządkowania niektórych publikacji do więcej niż jednej kategorii, wobec czego sumowanie publikacji ze wszystkich kategorii daje liczbę nieco większą od rzeczywistej liczby opublikowanych prac i to samo dotyczy cytowań. W bazie NSI publikacje i cytowania są przypisywane odpowiednim krajom na
podstawie adresów podawanych przez autorów. Publikacja i jej wszystkie
późniejsze cytowania są przypisane danemu krajowi, jeżeli chociaż jeden z
autorów podał adres z tego kraju. Trzeba podkreślić, że ISI rejestruje wszystkie
nazwiska i adresy autorów, nie tylko pierwszego na liście. Jeżeli autorzy pracy
pochodzą z kilku państw, to zalicza się ją z jednakową wagą jednostkową każdemu
z tych państw. Ten system zliczania unika ułamków i został przyjęty ze względu
na zastosowanie komputerów, w których informacje są przechowywane w systemie
zero-jedynkowym. Powoduje to jednak pewne problemy z ustaleniem wkładu danego
kraju do nauki światowej. Ograniczona objętość tego artykułu nie pozwala na
wchodzenie w szczegóły. Poprzestanę tylko na stwierdzeniu, że zsumowanie
artykułów przypisanych wszystkim państwom daje wartość większą (obecnie o ponad
20 proc.) od rzeczywistej liczby artykułów opublikowanych w całym świecie,
należy więc pamiętać o odpowiedniej normalizacji (zapomina się o tym czasem w
wydawnictwach KBN, a nawet w ostatnim opracowaniu GUS: Nauka i technika w 1999
roku, Warszawa 2001). UZNAWANY STANDARDTrzeba koniecznie wiedzieć, że zasada tworzenia bazy NSI jest inna niż dla
Science Citation Index, na którym jest oparta. W SCI rejestrowane są wszystkie
cytowania zamieszczone w obecnie publikowanych pracach (w czasopismach objętych
rejestrem SCI), można więc tam np. znaleźć nadal cytowania (wprawdzie nieliczne)
prac Isaaca Newtona z XVII w. czy Alberta Einsteina z początku obecnego
stulecia. Natomiast w NSI rejestruje się tylko cytowania do prac
zarejestrowanych w tej bazie, a więc opublikowanych w latach 1981-2000. Tak więc
np. obecne cytowania prac (w tym polskich) opublikowanych przed 1981 rokiem nie
wchodzą do tej bazy. Baza NSI jest skonstruowana tak, jakby świat powstał
dopiero 20 lat temu. Na przykład, z bazy NSI można się dowiedzieć o znacznych różnicach w cytowaniach prac w poszczególnych dziedzinach. Dane uzyskane z NSI 2001 są zamieszczone w załączonej tablicy. Dane te musi znać każdy, kto chciałby wyciągać jakieś wnioski bibliometryczne w stosunku do różnych dziedzin nauki. Nie można tego przecież robić bez wprowadzania bardzo istotnych poprawek normalizacyjnych, skoro np. średnia liczba cytowań jednej pracy z biologii komórki jest ponad 130 razy większa niż pracy z architektury i sztuki. Z bazy NSI można bezpiecznie wyciągać wnioski na temat trendów czasowych i miejsca poszczególnych państw w rankingu światowym. To właśnie dane z tej bazy dyskutowałem parokrotnie na łamach „FA” i innych periodyków, wskazując na pogarszającą się pozycję Polski. Wiadomo, że z 15. miejsca, które Polska zajmowała w 1981 r., spadliśmy obecnie na miejsce 21. To właśnie wnioski z tej bazy interesują władze KBN i były jednym z powodów, dla których przy wprowadzaniu nowej kategoryzacji jednostek podkreślano rolę publikowania prac przede wszystkim w czasopismach „listy filadelfijskiej” oraz przestrzegania właściwej afiliacji autorów. Oto parę przykładowych wyników z najnowszej bazy NSI 2001. Nasza informatyka z 13. miejsca w świecie w 1981 r. spadła aż na 27. w 1999 r., nauki techniczne – z 12. na 25., materiałoznawstwo – z 11. na 16. Regres tych dziedzin ilustruje dodatkowo niewielka liczba patentów. Duży regres spotkał nauki medyczne (obecnie dopiero 29. miejsce w świecie). O jego skali może świadczyć to, że z czterokrotnie od Polski mniejszej Grecji pochodzi dwukrotnie więcej publikacji medycznych. Wielki regres spotkał także nauki społeczne (obecnie tylko 36. miejsce w świecie!). Przedstawiciele tych nauk często narzekają, że reguły klasyfikacji „filadelfijskiej” nie odpowiadają naszym polskim warunkom. Dziwne jest jednak, że takich problemów nie mają wyprzedzające nas w rankingu tej dziedziny Chorwacja, Czechy, Grecja, Turcja czy Meksyk, albo że z siedmiokrotnie od Polski mniejszej Finlandii pochodzi 5 razy więcej publikacji w naukach społecznych. Kryteria oceny pozostają niezmienne, więc skoro w 1981 r. wypadaliśmy w wielu dziedzinach korzystnie, a obecnie już nie, to nie jest to wina kryteriów. Przeciwnicy bibliometrii głoszą, że nie można mierzyć „produkcji naukowej” danego państwa liczbą artykułów naukowych w uznanych na świecie czasopismach, a więc opierać się na bazach danych ogłaszanych przez ISI. Otóż ja oczywiście wiem, iż postęp nauki odbywa się dzięki wybitnym
odkryciom, a nie statystyce, ale – wbrew temu, co na łamach „FA” głosił pewien
„znawca” – te dwie rzeczy są ze sobą silnie skorelowane, o czym można się
przekonać porównując np. rankingi państw według liczby publikacji i według
najbardziej uznanych wyróżnień (nagrody Nobla, medale Fieldsa itp.). Łatwo
zrozumieć, że wybitni uczeni i największe odkrycia naukowe nie zdarzają się na
pustyni naukowej, lecz tam, gdzie istnieje obszerne i bogate zaplecze z wieloma
tysiącami pracowników nauki. Trzeba także pamiętać, że wyniki publikowane przez
ISI są szeroko znane i czy to nam się podoba, czy nie, jest to dziś jeden z
uznanych standardów oceny pozycji naukowej poszczególnych państw,
wykorzystywanych przez OECD, Unię Europejską, UNESCO, World Bank itd. Ci, którzy
twierdzą inaczej, po prostu wprowadzają w błąd opinię publiczną. OSTROŻNIE WYKORZYSTYWAĆ – NCRBaza NCR jest dostarczana przez ISI na specjalne zamówienie z danego kraju, ponieważ wymaga specjalnego, jednostkowego opracowania. W bazie tej znajdują się informacje o publikacjach i cytowaniach autorów zatrudnionych w poszczególnych uczelniach czy jednostkach badawczych tego kraju. Zasady tworzenia bazy NCR są inne niż w NSI, a zbliżone do SCI. W bazie tej notuje się publikacje począwszy od 1979 r. oraz cytowania do tych publikacji (przyporządkowane rokowi, w którym było cytowanie, a nie – jak w NSI – rokowi publikacji cytowanej pracy). Podobnie jak w NSI, także w NCR publikacje i cytowania przyporządkowane są różnym dziedzinom i dyscyplinom. Baza NCR pozwala na porównywanie aktywności naukowej poszczególnych jednostek w danej dziedzinie. To ostatnie zastrzeżenie jest istotne, ponieważ parametry dotyczące publikacji i cytowań w różnych dziedzinach różnią się bardzo istotnie. Nie wolno więc – bez wprowadzania odpowiednich czynników korekcyjnych – porównywać aktywności jednostek z różnych dziedzin nauki. Ale nawet porównywanie osiągnięć poszczególnych jednostek w tej samej czy zbliżonej dziedzinie musi być dokonywane bardzo ostrożnie. Trudność polega na tym, że prace publikowane przez pracowników danego instytutu trafiają nie tylko do jednej dziedziny według klasyfikacji ISI. Np. pracownicy instytutów fizycznych publikują swe prace w czasopismach z fizyki, matematyki, materiałoznawstwa, a czasem nawet astrofizyki czy chemii (fizycznej). Tu znów więc trzeba pamiętać o różnicach między dziedzinami (patrz tablica). Nie ma w zasadzie w Polsce dwóch instytutów o identycznym profilu badawczym. Trzeba tu dodać, że baza NCR dla Polski w postaci przysyłanej przez ISI nie nadaje się w ogóle do użytku, a surowe dane z tej bazy muszą być dopiero przetworzone do potrzeb KBN przez Ośrodek Informacji Naukowej (OPI). Problem polega na tym, że nie mamy w Polsce ustalonych obcojęzycznych nazw naszych jednostek badawczych. Nazwy te są każdorazowo tłumaczone ad hoc na angielski lub inne języki. Pisałem na ten temat w „FA” (nr 4/1999). Przy przeglądaniu materiałów nadsyłanych do KBN okazało się, że niektóre instytucje występują w prasie światowej pod kilkoma czy nawet kilkunastoma różnymi nazwami. Nasze uczelnie techniczne nie potrafiły się zdecydować na wybór jednolitej nazwy angielskiej i spotyka się obok nazwy Polytechnic także Technical University oraz University of Technology, oczywiście z różnymi wariacjami przyimków of i in przy podawaniu nazwy miasta. Nawet moja szacowna macierzysta uczelnia występuje jako Warsaw University oraz University of Warsaw – skąd zagraniczny czytelnik ma wiedzieć, że chodzi o tę samą uczelnię? Przecież gdzie indziej tak właśnie odróżnia się uczelnie (np. University of Miami i Miami University albo University of Washington i Washington University to są różne uczelnie). Niedawno na prośbę władz uczelni z Zielonej Góry zbierałem z najnowszej,
jeszcze surowej bazy NCR dla Polski, dane na temat publikacji z tych uczelni.
Okazało się, że pracownicy tamtejszej WSP i Politechniki używali w publikacjach
łącznie ponad 40 różnych nazw. Mam nadzieję, że utworzony obecnie Uniwersytet w
Zielonej Górze od początku narzuci swym pracownikom jednolite obcojęzyczne nazwy
uczelni.
NAJWIĘCEJ PUŁAPEK I NIEBEZPIECZEŃSTW – SCITak się składa, że większość dyskusji na łamach „FA” dotyczy właśnie Science Citation Index, który, moim zdaniem, jest najbardziej kontrowersyjnym źródłem informacji. Korzystanie z SCI wymaga wielkiej umiejętności i ostrożności, inaczej bowiem można nie tylko dojść do mało sensownych wyników, ale – ponieważ sprawa dotyczy poszczególnych badaczy – wyrządzić im niezasłużone krzywdy. Najpierw pewien komentarz. Mając krytyczny stosunek do SCI, opracowałem jakiś czas temu indeks cytowań dla połowy XVIII wieku [wyniki są opublikowane w artykule: Science Citation Index A.D. 1758, „Prace Komisji Historii Nauki PAU”, tom II, 61-74 (2000)]. Okazało się, że najczęściej cytowani wówczas autorzy są dziś w dużej części zapomniani, natomiast uczeni dziś uznawani za wybitnych (np. Euler, Huygens) znaleźli się daleko od czołówki. Ten wynik daje sporo do myślenia. Niektóre z powodów, dla których dane z SCI o cytowaniach poszczególnych autorów trzeba traktować z ostrożnością, były już podane powyżej. Przede wszystkim są to wielkie różnice cytowalności w poszczególnych dziedzinach. Jeżeli więc dwóch badaczy ma w SCI liczby cytowań odpowiednio 100 i 1000, to sama taka informacja jest całkowicie bezużyteczna i na pewno nie można powiedzieć, że ten drugi badacz jest dziesięć razy lepszy od pierwszego. Sprawa może pozostać otwarta nawet po wprowadzeniu poprawek na średnią cytowalność w poszczególnych dziedzinach. Pozostają bowiem jeszcze inne ważne czynniki, np.:
Z tych powodów nie należy przywiązywać zbyt wielkiej wagi do bezwzględnej liczby cytowań przy ocenie działalności poszczególnych badaczy. Z zastrzeżeniami wyrażonymi powyżej można jednak przypuszczać, że artykuł w ogóle nie cytowany (albo cytowany tylko przez jego autora – tzw. samocytowanie) nie ma wartości naukowej, a artykuł mający bardzo dużo cytowań ma większą wartość od artykułu z bardzo małą liczbą cytowań, o ile dotyczy tej samej specjalności. Niestety, zdarzają się tu sytuacje zupełnie patologiczne. Np. w Hiszpanii zaczęto przy konkursach kierować się tylko bezwzględną liczbą cytowań. Przedstawiciele nauk o Ziemi, botaniki i zoologii przegrywali z genetykami lub przedstawicielami biologii molekularnej i publicznie wołali o ratunek („Nature”, 16 maja 1996 r.). Naszą polską specjalnością jest to, że w niektórych dziedzinach i instytutach panuje nieuzasadniona bałwochwalcza wiara w tzw. impact factor (IF). Dochodzi do patologicznych sytuacji, że wynagrodzenia są uzależniane od wartości IF czasopisma, do którego został wysłany artykuł danego pracownika (niezależnie od tego, czy ten artykuł ktoś przeczyta i zacytuje!). Zwolennicy używania IF zupełnie nie zdają sobie sprawy ze znanych wad tego parametru, a przede wszystkim z tego, że wartość IF danego czasopisma ma słaby związek z liczbą cytowań poszczególnej pracy zamieszczonej w tym czasopiśmie. Szczegółowa dyskusja IF zabrałaby zbyt wiele miejsca, więc odłożę ją do innego artykułu. Tu ograniczę się tylko do empirycznego stwierdzenia, że wartość IF danego periodyku jest w zasadzie ustalana przez bardzo niewielką liczbę bardzo „gorących” artykułów, podczas gdy ogromna większość artykułów stanowi tylko „tło”, ponieważ ich cytowania są opisane malejącą funkcją wykładniczą. Taka funkcja wykładnicza ma, jak wiadomo, maksimum przy wartości zero, a więc właśnie przy zerze cytowań jest największa wartość prawdopodobieństwa a priori cytowania pracy wysłanej do każdego periodyku! Niedawno spotkałem w Polsce pewnego naukowca, który jako wskaźnik swego
dorobku naukowego podawał sumę wartości IF czasopism, w których opublikował
swe prace. Zupełnie nieważne, czy ktoś te prace potem przeczytał i zacytował.
To wyjątkowo bezrozumne podejście! Prof. dr hab. Andrzej Kajetan Wróblewski, fizyk, jest profesorem na Wydziale Fizyki Uniwersytetu Warszawskiego. W latach 1989-92 pełnił funkcję rektora tej uczelni. W latach 1997-2000 wiceprzewodniczący KBN. |
|