Strona główna

Archiwum z roku 2001

Spis treści numeru 9/2001

Bibliometryczne nieporozumienia
Poprzedni Następny

Polemiki

Wyniki publikowane przez ISI są szeroko znane i czy to nam się podoba,
czy nie, jest to dziś jeden z uznanych standardów oceny pozycji naukowej
poszczególnych państw, wykorzystywanych przez OECD,
Unię Europejską, UNESCO, World Bank.

Andrzej Kajetan Wróblewski
 

Fot. Stefan Ciechan

Od paru lat na łamach „Forum Akademickiego” toczy się ostra polemika na temat praktyk bibliometrycznych, to znaczy wyciągania wniosków z baz danych dotyczących publikacji naukowych i ich cytowań. Sprawy są bardzo ważne, jednak dyskusji nie widać końca. Z doświadczenia wiem, że jeśli rozsądni skądinąd ludzie nie mogą dojść do porozumienia mimo długiej i ostrej dyskusji, to jest prawdopodobne, iż albo dyskutują o różnych rzeczach, albo przypisują różne znaczenia tym samym wyrażeniom. Wydaje mi się, że właśnie to obserwujemy w polemice na łamach „FA”.

Chciałbym wprowadzić do tej dyskusji pewien porządek, wyróżniając w praktykach bibliometrycznych trzy obszary o bardzo różnym znaczeniu, metodologii i sensowności. Wydaje mi się, że będzie to ważne zwłaszcza dla czytelników, którzy obserwując wspomnianą polemikę, mogli się już poczuć nieco zagubieni. Nie zamierzam toczyć boju z jakimkolwiek konkretnym artykułem polemicznym, chociaż czytelnicy będą mogli się zorientować, z kim się zgadzam, a czyje poglądy uważam za błędne.

KILKA WIADOMOŚCI PODSTAWOWYCH

Bibliometria jest narzędziem, które pozwala oceniać stan nauki i technologii na podstawie całkowitej produkcji piśmiennictwa naukowego. Wyniki bibliometryczne mogą być pomocne w procesie zarządzania nauką, pod warunkiem, że są właściwie i umiejętnie wykorzystywane. Nazwę „bibliometria” zaproponował Pritchard w 1969 r., ale ta dziedzina ma znacznie dłuższą historię (już w latach 20. ub. wieku prace bibliometryczne publikował Alfred Lotka). Wcześniej używano najczęściej terminu „statystyczna bibliografia”. Współczesna bibliometria jest związana przede wszystkim z nazwiskiem Eugene’a Garfielda, który w 1955 r. zaproponował stworzenie indeksu cytowań naukowych (Citation indexes for science, „Science”, 121, 108 (1955)). Garfield miał zresztą tylko zamiar dostarczenia naukowcom narzędzia do łatwego przeszukiwania literatury w celu znalezienia wcześniejszych prac na podobny temat. Ten cel Garfielda został dziś zupełnie zapomniany, ponieważ szybko indeksy cytowań zaczęły być wykorzystywane do porównań i rankingów personalnych. Pierwszy Science Citation Index (SCI) ukazał się w 1963 r. i był dość skromny, obejmował bowiem 102 tys. artykułów, które zostały opublikowane w 1961 r. w 613 wybranych czasopismach. Garfield założył w Filadelfii Instytut Informacji Naukowej (Institute of Scientific Information, w skrócie ISI), którego zadaniem było i jest opracowywanie coraz bardziej rozbudowywanych indeksów cytowań.

Żyjemy obecnie w epoce zalewu informacji. Ciekawe, że już niemal 400 lat temu Barnaby Rich (1613) miał podobne odczucia, gdy napisał: Jedną z chorób obecnego wieku jest mnogość książek, które tak zarzucają świat, że nie jest możliwe trawienie tej obfitości treści, która każdego dnia pojawia się na świecie.

Obecnie jednak sytuacja właściwie wymknęła się już spod kontroli. Nikt nie wie, ile dokładnie jest na świecie periodyków naukowych. Ich spis, być może niepełny, opracowany przez UNESCO, zawiera już niemal pół miliona tytułów. Jest rzeczą oczywistą, że ogromna większość tych periodyków jest zupełnie bezużyteczna, ponieważ nie jest w ogóle zauważana ani czytana przez naukowców, nie wnosi zatem niczego do postępu nauki. Warto tu przytoczyć wyniki pewnego statystyka, który zbadał 53 tys. wypożyczeń z działu naukowego British Library, która prenumerowała wtedy 9120 czasopism uznanych za najważniejsze. Okazało się, że nikt nigdy nie sięgnął do ponad połowy z nich (4800), a dalsze 2274 czasopisma były konsultowane tylko raz.

W 1950 r. Samuel Bradford udowodnił, że ogromna większość istotnych prac w danej dziedzinie ukazuje się w stosunkowo niewielkiej liczbie czasopism. Tylko te istotne prace są dalej cytowane i przyczyniają się do postępu. Praktyki ISI opierają się właśnie na wykorzystaniu „prawa Bradforda” i monitorowaniu tylko starannie wyselekcjonowanej próbki czasopism, uznanych za najbardziej istotne w poszczególnych dziedzinach. Tak jest tworzona „lista filadelfijska” (szczegółowe zasady jej komponowania można sprawdzić na internetowej stronie ISI).

PODSTAWOWE ZASADY BIBLIOMETRII

Podstawowa reguła w bibliometrii brzmi: im większa próbka, tym bardziej wiarygodne wyniki. Stąd wynikają następujące trzy zasady:
1. Wyniki dotyczące całych krajów czy dziedzin nauki można uznać za wiarygodne.
2. Wyniki dotyczące instytucji czy centrów naukowych są w przybliżeniu wiarygodne.
3. Wyniki dotyczące poszczególnych badaczy są bardzo mało wiarygodne i należy do nich podchodzić z najwyższą troską i ostrożnością.
Zasady te można jeszcze uzupełnić przez stwierdzenie, że trendy czasowe są w bibliometrii na ogół bardziej wiarygodne od bezwzględnych wartości parametrów.

Najstarszy i najlepiej znany indeks cytowań SCI jest mało przydatny do oceny i porównywania instytutów naukowych czy uczelni oraz zupełnie bezużyteczny do porównywania całych krajów. Dlatego też ISI przygotowuje specjalne bazy danych: National Science Indicators (NSI) oraz National Citation Report (NCR).

Odnoszę wrażenie, że w dotychczasowej dyskusji na łamach „FA” spierano się jednocześnie o te bardzo różne sprawy: wyniki bibliometryczne dotyczące całych państw, poszczególnych instytutów czy wydziałów i wreszcie – indywidualnych badaczy.

MOŻNA WIERZYĆ – NSI

W 1992 r. ISI opublikował po raz pierwszy bazę National Science Indicators (NSI). Od tego czasu corocznie wydawane są kolejne, wzbogacone wersje tej bazy. Jej najnowsze wydanie z 2001 r. obejmuje publikacje i cytowania za okres 1981-2000. Baza ta jest obecnie oparta na danych z ponad 8500 najważniejszych czasopism naukowych z całego świata, tworzących „listę filadelfijską” (w tym ok. 5500 z nauk matematyczno-przyrodniczych, 1800 z nauk społecznych i 1200 z nauk humanistycznych i sztuki). Baza obejmuje już ok. 130 mln cytowań i prawie 12 mln publikacji. Publikacje i cytowania są przyporządkowane ponad 170 krajom i regionom geograficznym (na podstawie narodowości autorów), nie ma natomiast w niej informacji o nazwiskach autorów i instytucjach, z których się wywodzą.

Baza NSI pozwala na szybkie ustalanie wkładu poszczególnych krajów do danej dziedziny, porównywanie z sobą różnych państw pod względem wkładu do nauki światowej, a także ustalanie silniejszych i słabszych dziedzin w danym kraju. Ściśle mówiąc, istnieją dwie wersje bazy National Science Indicators, tzw. NSI Standard i NSI Deluxe. Publikacje i cytowania w bazie NSI Standard obejmują 24 dziedziny: nauki biologiczno-medyczne, matematyczno-fizyczne, przyrodnicze, techniczne oraz ekonomię, prawo, edukację, psychologię i nauki społeczne; jedna z kategorii to tzw. badania multidyscyplinarne, do której autorzy bazy zaliczają publikacje z pogranicza dyscyplin. Ta klasyfikacja dziedzin została oparta na schemacie używanym w „Current Contents”, przeglądzie zawartości czasopism naukowych, wydawanym co tydzień przez ten sam Institute of Scientific Information. Wersja NSI Deluxe obejmuje dodatkowo 10 dziedzin nauk humanistycznych, społecznych i sztuki, a ponadto dla 16 z dziedzin objętych przez NSI Standard podano w niej dokładniejszy podział na dyscypliny, tak że łącznie mamy tu podział publikacji i cytowań na 105 pól badawczych, odpowiadających konwencji „Current Contents”. Warto podkreślić, że dziedziny i pola badawcze w NSI zostały zdefiniowane jako zbiór publikacji ogłoszonych w określonym zestawie czasopism rejestrowanych w jednej z siedmiu edycji „Current Contents” oraz w indeksach cytowań. Niektóre pola stworzone na potrzeby NSI nie mają swojego odpowiednika w innych klasyfikacjach nauk.

Przydział publikacji do odpowiednich kategorii następował zatem głównie na podstawie przyporządkowania im czasopism, w których znajdują się publikacje i cytowania. W nielicznych przypadkach czasopismo przyporządkowywano dwóm (lub nawet trzem) kategoriom, a klasyfikację publikowanych artykułów wykonywano indywidualnie. Prace ogłaszane w czasopismach wielodyscyplinowych (jak „Nature”, „Science” itp.) były przydzielane indywidualnie do odpowiednich kategorii. Nie udało się jednak uniknąć przyporządkowania niektórych publikacji do więcej niż jednej kategorii, wobec czego sumowanie publikacji ze wszystkich kategorii daje liczbę nieco większą od rzeczywistej liczby opublikowanych prac i to samo dotyczy cytowań.

W bazie NSI publikacje i cytowania są przypisywane odpowiednim krajom na podstawie adresów podawanych przez autorów. Publikacja i jej wszystkie późniejsze cytowania są przypisane danemu krajowi, jeżeli chociaż jeden z autorów podał adres z tego kraju. Trzeba podkreślić, że ISI rejestruje wszystkie nazwiska i adresy autorów, nie tylko pierwszego na liście. Jeżeli autorzy pracy pochodzą z kilku państw, to zalicza się ją z jednakową wagą jednostkową każdemu z tych państw. Ten system zliczania unika ułamków i został przyjęty ze względu na zastosowanie komputerów, w których informacje są przechowywane w systemie zero-jedynkowym. Powoduje to jednak pewne problemy z ustaleniem wkładu danego kraju do nauki światowej. Ograniczona objętość tego artykułu nie pozwala na wchodzenie w szczegóły. Poprzestanę tylko na stwierdzeniu, że zsumowanie artykułów przypisanych wszystkim państwom daje wartość większą (obecnie o ponad 20 proc.) od rzeczywistej liczby artykułów opublikowanych w całym świecie, należy więc pamiętać o odpowiedniej normalizacji (zapomina się o tym czasem w wydawnictwach KBN, a nawet w ostatnim opracowaniu GUS: Nauka i technika w 1999 roku, Warszawa 2001).
W bazie NSI Deluxe podano także dane zbiorcze trzech dużych obszarów geopolitycznych: Unii Europejskiej, Ameryki Łacińskiej i obszaru Asia Pacific (Azja Południowo-Zachodnia od Pakistanu do Korei oraz Australia i Nowa Zelandia).

UZNAWANY STANDARD

Trzeba koniecznie wiedzieć, że zasada tworzenia bazy NSI jest inna niż dla Science Citation Index, na którym jest oparta. W SCI rejestrowane są wszystkie cytowania zamieszczone w obecnie publikowanych pracach (w czasopismach objętych rejestrem SCI), można więc tam np. znaleźć nadal cytowania (wprawdzie nieliczne) prac Isaaca Newtona z XVII w. czy Alberta Einsteina z początku obecnego stulecia. Natomiast w NSI rejestruje się tylko cytowania do prac zarejestrowanych w tej bazie, a więc opublikowanych w latach 1981-2000. Tak więc np. obecne cytowania prac (w tym polskich) opublikowanych przed 1981 rokiem nie wchodzą do tej bazy. Baza NSI jest skonstruowana tak, jakby świat powstał dopiero 20 lat temu.
Ponieważ baza NSI obejmuje ogromną liczbę prac i cytowań, wyciągane z niej wnioski są znaczące statystycznie i bardzo istotne.

Na przykład, z bazy NSI można się dowiedzieć o znacznych różnicach w cytowaniach prac w poszczególnych dziedzinach. Dane uzyskane z NSI 2001 są zamieszczone w załączonej tablicy. Dane te musi znać każdy, kto chciałby wyciągać jakieś wnioski bibliometryczne w stosunku do różnych dziedzin nauki. Nie można tego przecież robić bez wprowadzania bardzo istotnych poprawek normalizacyjnych, skoro np. średnia liczba cytowań jednej pracy z biologii komórki jest ponad 130 razy większa niż pracy z architektury i sztuki.

Z bazy NSI można bezpiecznie wyciągać wnioski na temat trendów czasowych i miejsca poszczególnych państw w rankingu światowym. To właśnie dane z tej bazy dyskutowałem parokrotnie na łamach „FA” i innych periodyków, wskazując na pogarszającą się pozycję Polski. Wiadomo, że z 15. miejsca, które Polska zajmowała w 1981 r., spadliśmy obecnie na miejsce 21. To właśnie wnioski z tej bazy interesują władze KBN i były jednym z powodów, dla których przy wprowadzaniu nowej kategoryzacji jednostek podkreślano rolę publikowania prac przede wszystkim w czasopismach „listy filadelfijskiej” oraz przestrzegania właściwej afiliacji autorów.

Oto parę przykładowych wyników z najnowszej bazy NSI 2001. Nasza informatyka z 13. miejsca w świecie w 1981 r. spadła aż na 27. w 1999 r., nauki techniczne – z 12. na 25., materiałoznawstwo – z 11. na 16. Regres tych dziedzin ilustruje dodatkowo niewielka liczba patentów. Duży regres spotkał nauki medyczne (obecnie dopiero 29. miejsce w świecie). O jego skali może świadczyć to, że z czterokrotnie od Polski mniejszej Grecji pochodzi dwukrotnie więcej publikacji medycznych. Wielki regres spotkał także nauki społeczne (obecnie tylko 36. miejsce w świecie!). Przedstawiciele tych nauk często narzekają, że reguły klasyfikacji „filadelfijskiej” nie odpowiadają naszym polskim warunkom. Dziwne jest jednak, że takich problemów nie mają wyprzedzające nas w rankingu tej dziedziny Chorwacja, Czechy, Grecja, Turcja czy Meksyk, albo że z siedmiokrotnie od Polski mniejszej Finlandii pochodzi 5 razy więcej publikacji w naukach społecznych.

Kryteria oceny pozostają niezmienne, więc skoro w 1981 r. wypadaliśmy w wielu dziedzinach korzystnie, a obecnie już nie, to nie jest to wina kryteriów.

Przeciwnicy bibliometrii głoszą, że nie można mierzyć „produkcji naukowej” danego państwa liczbą artykułów naukowych w uznanych na świecie czasopismach, a więc opierać się na bazach danych ogłaszanych przez ISI.

Otóż ja oczywiście wiem, iż postęp nauki odbywa się dzięki wybitnym odkryciom, a nie statystyce, ale – wbrew temu, co na łamach „FA” głosił pewien „znawca” – te dwie rzeczy są ze sobą silnie skorelowane, o czym można się przekonać porównując np. rankingi państw według liczby publikacji i według najbardziej uznanych wyróżnień (nagrody Nobla, medale Fieldsa itp.). Łatwo zrozumieć, że wybitni uczeni i największe odkrycia naukowe nie zdarzają się na pustyni naukowej, lecz tam, gdzie istnieje obszerne i bogate zaplecze z wieloma tysiącami pracowników nauki. Trzeba także pamiętać, że wyniki publikowane przez ISI są szeroko znane i czy to nam się podoba, czy nie, jest to dziś jeden z uznanych standardów oceny pozycji naukowej poszczególnych państw, wykorzystywanych przez OECD, Unię Europejską, UNESCO, World Bank itd. Ci, którzy twierdzą inaczej, po prostu wprowadzają w błąd opinię publiczną.

OSTROŻNIE WYKORZYSTYWAĆ – NCR

Baza NCR jest dostarczana przez ISI na specjalne zamówienie z danego kraju, ponieważ wymaga specjalnego, jednostkowego opracowania. W bazie tej znajdują się informacje o publikacjach i cytowaniach autorów zatrudnionych w poszczególnych uczelniach czy jednostkach badawczych tego kraju. Zasady tworzenia bazy NCR są inne niż w NSI, a zbliżone do SCI. W bazie tej notuje się publikacje począwszy od 1979 r. oraz cytowania do tych publikacji (przyporządkowane rokowi, w którym było cytowanie, a nie – jak w NSI – rokowi publikacji cytowanej pracy). Podobnie jak w NSI, także w NCR publikacje i cytowania przyporządkowane są różnym dziedzinom i dyscyplinom.

Baza NCR pozwala na porównywanie aktywności naukowej poszczególnych jednostek w danej dziedzinie. To ostatnie zastrzeżenie jest istotne, ponieważ parametry dotyczące publikacji i cytowań w różnych dziedzinach różnią się bardzo istotnie. Nie wolno więc – bez wprowadzania odpowiednich czynników korekcyjnych – porównywać aktywności jednostek z różnych dziedzin nauki.

Ale nawet porównywanie osiągnięć poszczególnych jednostek w tej samej czy zbliżonej dziedzinie musi być dokonywane bardzo ostrożnie. Trudność polega na tym, że prace publikowane przez pracowników danego instytutu trafiają nie tylko do jednej dziedziny według klasyfikacji ISI. Np. pracownicy instytutów fizycznych publikują swe prace w czasopismach z fizyki, matematyki, materiałoznawstwa, a czasem nawet astrofizyki czy chemii (fizycznej). Tu znów więc trzeba pamiętać o różnicach między dziedzinami (patrz tablica). Nie ma w zasadzie w Polsce dwóch instytutów o identycznym profilu badawczym.

Trzeba tu dodać, że baza NCR dla Polski w postaci przysyłanej przez ISI nie nadaje się w ogóle do użytku, a surowe dane z tej bazy muszą być dopiero przetworzone do potrzeb KBN przez Ośrodek Informacji Naukowej (OPI).

Problem polega na tym, że nie mamy w Polsce ustalonych obcojęzycznych nazw naszych jednostek badawczych. Nazwy te są każdorazowo tłumaczone ad hoc na angielski lub inne języki. Pisałem na ten temat w „FA” (nr 4/1999). Przy przeglądaniu materiałów nadsyłanych do KBN okazało się, że niektóre instytucje występują w prasie światowej pod kilkoma czy nawet kilkunastoma różnymi nazwami. Nasze uczelnie techniczne nie potrafiły się zdecydować na wybór jednolitej nazwy angielskiej i spotyka się obok nazwy Polytechnic także Technical University oraz University of Technology, oczywiście z różnymi wariacjami przyimków of i in przy podawaniu nazwy miasta.

Nawet moja szacowna macierzysta uczelnia występuje jako Warsaw University oraz University of Warsaw – skąd zagraniczny czytelnik ma wiedzieć, że chodzi o tę samą uczelnię? Przecież gdzie indziej tak właśnie odróżnia się uczelnie (np. University of Miami i Miami University albo University of Washington i Washington University to są różne uczelnie).

Niedawno na prośbę władz uczelni z Zielonej Góry zbierałem z najnowszej, jeszcze surowej bazy NCR dla Polski, dane na temat publikacji z tych uczelni. Okazało się, że pracownicy tamtejszej WSP i Politechniki używali w publikacjach łącznie ponad 40 różnych nazw. Mam nadzieję, że utworzony obecnie Uniwersytet w Zielonej Górze od początku narzuci swym pracownikom jednolite obcojęzyczne nazwy uczelni.
Podkreślę ponownie, że ze względu na omówione wyżej różnice między dyscyplinami nie można w zasadzie porównywać wyników bibliometrycznych całych uczelni, nawet tego samego profilu, ponieważ mają one na ogół odmienną strukturę dyscyplinową. Można natomiast dość bezpiecznie wyciągać wnioski z trendów czasowych wyników danej jednostki, albo porównywać wyniki tej samej specjalności w różnych jednostkach.

Dziedzina (wg klasyfikacji ISI) i przykładowe poddziedziny

Średnia liczba cytowań jednej pracy (1981-2000)

Biologia molekularna i genetyka
(w tym: biologia komórki – 36,91)
31,32
Immunologia 24,32
Neurologia 21,18
Biologia i biochemia
(w tym: biochemia i biofizyka – 25,73
fizjologia – 21,16
biologia ogólna – 11,59)
20,57
Mikrobiologia 17,47
Astrofizyka 16,09
Nauki medyczne
(w tym: onkologia – 20,17
reumatologia – 12,49
pediatria – 8,31
laryngologia – 5,75
ortopedia – 4,44)
12,16
Farmakologia 11,97
Psychologia i psychiatria 10,83
Nauki o Ziemi 10,53
Chemia
(w tym: chemia fizyczna – 10,92
inżynieria chemiczna – 5,67)
9,60
Fizyka 9,50
Ekologia 8,94
Nauki o roślinach i zwierzętach 7,50
Ekonomia i zarządzanie 6,57
Prawo 5,82
Nauki rolnicze
(w tym: nauki o żywieniu – 6,16
agronomia – 3,42)
5,62
Materiałoznawstwo 5,34
Matematyka 5,00
Nauki społeczne
(w tym: socjologia i antropologia – 5,70
politologia – 2,70
bibliotekoznawstwo – 2,33)
4,81
Informatyka 4,48
Nauki techniczne
(w tym: elektronika – 4,40
inżynieria lotnicza – 2,67)
4,37
Edukacja 3,39
Archeologia 2,94
Humanistyka – ogólne 2,02
Lingwistyka 1,28
Filozofia 1,21
Historia 1,18
Studia klasyczne 0,91
Religioznawstwo i teologia 0,90
Sztuki wykonawcze 0,69
Literaturoznawstwo 0,43
Architektura i sztuka 0,27

NAJWIĘCEJ PUŁAPEK I NIEBEZPIECZEŃSTW – SCI

Tak się składa, że większość dyskusji na łamach „FA” dotyczy właśnie Science Citation Index, który, moim zdaniem, jest najbardziej kontrowersyjnym źródłem informacji. Korzystanie z SCI wymaga wielkiej umiejętności i ostrożności, inaczej bowiem można nie tylko dojść do mało sensownych wyników, ale – ponieważ sprawa dotyczy poszczególnych badaczy – wyrządzić im niezasłużone krzywdy.

Najpierw pewien komentarz. Mając krytyczny stosunek do SCI, opracowałem jakiś czas temu indeks cytowań dla połowy XVIII wieku [wyniki są opublikowane w artykule: Science Citation Index A.D. 1758, „Prace Komisji Historii Nauki PAU”, tom II, 61-74 (2000)]. Okazało się, że najczęściej cytowani wówczas autorzy są dziś w dużej części zapomniani, natomiast uczeni dziś uznawani za wybitnych (np. Euler, Huygens) znaleźli się daleko od czołówki. Ten wynik daje sporo do myślenia.

Niektóre z powodów, dla których dane z SCI o cytowaniach poszczególnych autorów trzeba traktować z ostrożnością, były już podane powyżej. Przede wszystkim są to wielkie różnice cytowalności w poszczególnych dziedzinach. Jeżeli więc dwóch badaczy ma w SCI liczby cytowań odpowiednio 100 i 1000, to sama taka informacja jest całkowicie bezużyteczna i na pewno nie można powiedzieć, że ten drugi badacz jest dziesięć razy lepszy od pierwszego. Sprawa może pozostać otwarta nawet po wprowadzeniu poprawek na średnią cytowalność w poszczególnych dziedzinach. Pozostają bowiem jeszcze inne ważne czynniki, np.:

Zdarza się, że prace błędne uzyskują dużą liczbę cytowań, właśnie dlatego, że są błędne (przykładem może być osławiona „zimna fuzja”, której autorzy już w pierwszym roku uzyskali ok. 400 cytowań, w ogromnej większości bardzo krytycznych).
Wskutek „lenistwa” autorów artykuły przeglądowe uzyskują więcej cytowań niż wartościowe prace oryginalne, na których te przeglądy są oparte.
Niektóre prace o dużej wartości bywają niezrozumiałe i nie są cytowane aż do chwili ich akceptacji przez środowisko (np. praca Stevena Weinberga na temat unifikacji oddziaływań elektromagnetycznych i słabych, która przyniosła mu Nagrodę Nobla z fizyki, w ciągu pierwszych 5 lat po ukazaniu się miała tylko 5 cytowań).
Prace „klasyczne” przestają być cytowane. Jeśli wynik jakiegoś autora zostaje powszechnie zaakceptowany w danej dziedzinie, to często jego artykuł przestaje być cytowany, „bo i tak wszyscy to wiedzą”. Gdyby np. w artykułach z fizyki każdorazowo cytować Principia Isaaca Newtona, to byłby on dziś rekordzistą pod względem liczby cytowań i odpowiadałoby to jego randze jako jednego z największych uczonych wszystkich czasów. A tak rekordzistami są: O.H. Lowry, N.J. Rosebrough, A.L. Farr i R.J. Randall, autorzy metodycznej pracy Protein measurement with the Folin phenol reagent, „J. Biol. Chem.” 193, 265-275 (1951), która nadal każdego roku uzyskuje ok. 6000 cytowań i nazbierała ich już blisko 300 tys.! Nie dowodzi to jednak, że autorów trzeba uznać za najwybitniejszych współczesnych uczonych.
Liczba cytowań w danej dyscyplinie zależy od liczby publikowanych prac, a ta – od liczby autorów. Zatem w bardzo wąskich dyscyplinach, w których pracuje niewielu autorów, cytowań jest mniej niż w dziedzinach rozległych.
W starszych wersjach SCI podawane było tylko nazwisko pierwszego autora pracy.
Wielką trudność stanowi też notoryczne przekręcanie przez autorów prac nazwisk „egzotycznych” cytowanych przez nich artykułów (dotyczy to nazwisk słowiańskich, węgierskich, chińskich, japońskich, hinduskich, fińskich etc.). Ponieważ cytowania trafiają do SCI automatycznie, powielane tam są wszystkie te błędy i z tej przyczyny nieszczęśliwi autorzy o trudnych nazwiskach mogą występować w SCI w różnych miejscach. Sam się o tym przekonałem odnotowując już kilkanaście wariantów mojego nazwiska w SCI.

Z tych powodów nie należy przywiązywać zbyt wielkiej wagi do bezwzględnej liczby cytowań przy ocenie działalności poszczególnych badaczy. Z zastrzeżeniami wyrażonymi powyżej można jednak przypuszczać, że artykuł w ogóle nie cytowany (albo cytowany tylko przez jego autora – tzw. samocytowanie) nie ma wartości naukowej, a artykuł mający bardzo dużo cytowań ma większą wartość od artykułu z bardzo małą liczbą cytowań, o ile dotyczy tej samej specjalności.

Niestety, zdarzają się tu sytuacje zupełnie patologiczne. Np. w Hiszpanii zaczęto przy konkursach kierować się tylko bezwzględną liczbą cytowań. Przedstawiciele nauk o Ziemi, botaniki i zoologii przegrywali z genetykami lub przedstawicielami biologii molekularnej i publicznie wołali o ratunek („Nature”, 16 maja 1996 r.).

Naszą polską specjalnością jest to, że w niektórych dziedzinach i instytutach panuje nieuzasadniona bałwochwalcza wiara w tzw. impact factor (IF). Dochodzi do patologicznych sytuacji, że wynagrodzenia są uzależniane od wartości IF czasopisma, do którego został wysłany artykuł danego pracownika (niezależnie od tego, czy ten artykuł ktoś przeczyta i zacytuje!).

Zwolennicy używania IF zupełnie nie zdają sobie sprawy ze znanych wad tego parametru, a przede wszystkim z tego, że wartość IF danego czasopisma ma słaby związek z liczbą cytowań poszczególnej pracy zamieszczonej w tym czasopiśmie.

Szczegółowa dyskusja IF zabrałaby zbyt wiele miejsca, więc odłożę ją do innego artykułu. Tu ograniczę się tylko do empirycznego stwierdzenia, że wartość IF danego periodyku jest w zasadzie ustalana przez bardzo niewielką liczbę bardzo „gorących” artykułów, podczas gdy ogromna większość artykułów stanowi tylko „tło”, ponieważ ich cytowania są opisane malejącą funkcją wykładniczą. Taka funkcja wykładnicza ma, jak wiadomo, maksimum przy wartości zero, a więc właśnie przy zerze cytowań jest największa wartość prawdopodobieństwa a priori cytowania pracy wysłanej do każdego periodyku!

Niedawno spotkałem w Polsce pewnego naukowca, który jako wskaźnik swego dorobku naukowego podawał sumę wartości IF czasopism, w których opublikował swe prace. Zupełnie nieważne, czy ktoś te prace potem przeczytał i zacytował. To wyjątkowo bezrozumne podejście!
Mam nadzieję, że tym artykułem pomogłem trochę uporządkować dyskusję na temat zalet i wad bibliometrycznego podejścia do wyników naukowych. Do wszystkich dalszych dyskutantów mam prośbę, aby zechcieli oddzielnie wypowiadać poglądy na te trzy różne tematy: NSI, NCR i SCI.

Prof. dr hab. Andrzej Kajetan Wróblewski, fizyk, jest profesorem na Wydziale Fizyki Uniwersytetu Warszawskiego. W latach 1989-92 pełnił funkcję rektora tej uczelni. W latach 1997-2000 wiceprzewodniczący KBN.


Komentarze