Umiędzynarodowienie nie jest przywilejem elit. Jest standardem współczesnej nauki. Jeśli chcemy poważnie traktować obecność polskich badaczy w świecie, musimy projektować system, który mierzy wyżej, a nie taki, który dostosowuje standardy do wygody kosztem jakości i konkurencyjności – pisze prof. Magdalena Musiał-Karg z Uniwersytetu im. Adama Mickiewicza, prezeska Polskiego Towarzystwa Nauk Politycznych i wiceprezydentka International Political Science Association.
Debata o przyszłym kształcie listy czasopism w Polsce coraz częściej przybiera ton tożsamościowy. Padają określenia „globaliści”, „lokaliści”, „scopusowcy”, pojawiają się sugestie o klasowym charakterze sporu. Tymczasem istota problemu jest znacznie prostsza, ale i znacznie poważniejsza. To jest spór o konstrukcję bodźców w systemie nauki.
Nie zgadzam się z tezą, że sprzeciw wobec arbitralnego podnoszenia punktacji krajowych czasopism wynika z obaw o prestiż czy pozycję „umiędzynarodowionych” badaczy. Takie uproszczenie przesuwa debatę z poziomu projektowania polityki naukowej na poziom emocjonalnych etykiet. A przecież stawką jest to, jak państwo definiuje jakość badań i jakie zachowania będzie premiować. Spór nie dotyczy tego, czy publikacje w języku polskim są potrzebne. Są – i to bezdyskusyjnie. W naukach społecznych i humanistycznych pełnią ważną funkcję: kulturotwórczą, ekspercką i dydaktyczną. Dane pokazują zresztą, że język polski w tych dyscyplinach dominuje i nie jest zagrożony, a na pewno nie znajduje się na marginesie systemu.
Różnice w prezentowanych stanowiskach dotyczą raczej tego, czy i w jakim zakresie system ewaluacyjny ma odzwierciedlać różnice w zasięgu, konkurencyjności i widoczności badań. Jeżeli publikacja w krajowym czasopiśmie otrzymuje taką samą lub wyższą punktację niż artykuł w uznanym czasopiśmie międzynarodowym, nie jest to kwestia „sprawiedliwości klasowej”, lecz konstrukcji bodźców. System premiuje pozostawanie w obiegu krajowym, zamiast zachęcać do wyjścia poza niego. Twierdzenie, że wzrost punktacji krajowych tytułów „nikomu nie zaszkodzi”, pomija elementarną zasadę działania systemów ewaluacyjnych: bodźce kształtują zachowania. Jeżeli różnica między obiegiem międzynarodowym a krajowym zostanie zniwelowana, motywacja do podejmowania większego ryzyka publikacyjnego będzie słabsza. Nie dlatego, że ktoś obawia się utraty prestiżu, lecz dlatego, że racjonalnie reaguje na sygnały systemowe. Nie chodzi o ochronę czyichkolwiek przewag. Chodzi o to, czy państwo chce budować system, który jasno premiuje obecność w międzynarodowej debacie, a jednocześnie profesjonalizuje i stabilizuje obieg krajowy, czy raczej taki, który relatywizuje różnice w poziomie konkurencyjności.
Mierzyć wyżej, nie cofać się
Warto przypomnieć, że przed reformą Jarosława Gowina funkcjonowało kilka list czasopism. System był wielopoziomowy i nie powodował oskarżeń o polaryzację. Nie był doskonały, żaden system ewaluacji nie jest doskonały, ale różnicowanie poziomów postrzegane było jako oczywisty element porządkowania jakości, a nie jako instrument podziałów czy hierarchizacji środowiska. Dziś, po latach nastawienia na umiędzynarodowienie, stoimy przed pokusą wyrównywania punktacji bez względu na realne różnice jakościowe. To byłby krok wstecz. Zamiast mierzyć wyżej, zaczęlibyśmy relatywizować standardy.
Rozumiem intencję wzmocnienia krajowego obiegu publikacyjnego i docenienia roli języka polskiego w naukach społecznych i humanistycznych. To cel, który zasługuje na poważne potraktowanie. Wspieranie profesjonalnych, stabilnych czasopism krajowych jest elementem budowania infrastruktury intelektualnej państwa. Mam jednak obawę, że proponowane rozwiązanie może w praktyce skierować system w dół, nie poprzez jawne obniżenie standardów, lecz poprzez osłabienie bodźców do ich podnoszenia. Jeśli zrównujemy poziomy bez uwzględnienia realnych różnic w konkurencyjności i zasięgu oddziaływania, ryzykujemy przesunięcie akcentu z ambicji na wygodę. Nie byłoby to wzmacnianie jakości, lecz jej stopniowe rozmywanie. Nie chodzi tu o wprowadzanie bodźców negatywnych ani o wykluczanie kogokolwiek. Chodzi o tworzenie takich reguł gry, które nagradzają ambicję, jakość i gotowość do konkurowania na poziomie międzynarodowym, przy jednoczesnym profesjonalnym wsparciu obiegu krajowego. System powinien wzmacniać, a nie wyrównywać w dół. Jeśli przestaniemy premiować wysiłek i konkurencyjność, przestaniemy mieć powód, by mierzyć wyżej. A bez ambicji nie ma rozwoju. Państwo, które rezygnuje z nagradzania jakości i odwagi konkurowania, samo ogranicza swoje aspiracje i ustępuje miejsca przy światowym stole.
Dwie listy jako rozwiązanie systemowe, nie ideologiczne
Proponuję stworzenie dwóch list czasopism – krajowej i międzynarodowej. Nie jako narzędzia służącego uspokajaniu kogokolwiek ani budowaniu kompromisu między „globalistami” a „lokalistami”, lecz jako rozwiązania systemowego, porządkującego role i funkcje różnych obiegów komunikacji naukowej w sposób przejrzysty i sprawiedliwy. Warto zwrócić uwagę, że podobne rozwiązania funkcjonują w mniejszych krajach własnojęzykowych. W Finlandii system Publication Forum (JUFO) opiera się na wielopoziomowej klasyfikacji czasopism, w której najwyższe poziomy przypisane są najbardziej konkurencyjnym tytułom międzynarodowym. W Estonii umiędzynarodowienie traktowane jest jako standard funkcjonowania nauki w małym państwie. To pokazuje, że możliwe jest pogodzenie silnego obiegu krajowego z wyraźnie premiowanym obiegiem międzynarodowym. Co więcej, takie rozwiązania nie prowadzą do polaryzacji. Przeciwnie – są to systemy, które porządkują funkcje i tworzą jasne bodźce. Model dwóch list jest więc kompromisem instytucjonalnym: silny, profesjonalny obieg krajowy oraz wyraźnie premiowany obieg międzynarodowy. Umiędzynarodowienie nie jest tu dodatkiem, jest standardem.
Uważam, że na liście międzynarodowej powinny znaleźć się wyłącznie te tytuły, które są indeksowane w uznanych bazach, takich jak Scopus czy Web of Science, posiadają udokumentowaną, anonimową procedurę recenzyjną, rzeczywiście funkcjonują w obiegu międzynarodowym zarówno pod względem składu redakcji, jak i struktury autorów publikacji, zachowują stabilność wydawniczą oraz przestrzegają międzynarodowych standardów etycznych. Tego rodzaju lista powinna być wyraźnie wyżej punktowana, ponieważ odzwierciedla realny poziom konkurencyjności, zasięg oddziaływania oraz widoczność badań w globalnym obiegu naukowym.
Wykaz krajowy, podobnie jak lista międzynarodowa, powinien obejmować wyłącznie czasopisma recenzowane, transparentne proceduralnie i posiadające stabilną historię wydawniczą. Powinny to być tytuły indeksowane przynajmniej w uznanych bazach specjalistycznych właściwych dla danej dyscypliny oraz spełniające standardy etyki publikacyjnej. Punktacja tej listy musi być niższa niż listy międzynarodowej, nie jako wyraz deprecjacji języka polskiego, lecz jako odzwierciedlenie realnych różnic w zasięgu i konkurencyjności. System powinien jednocześnie konsekwentnie eliminować czasopisma o podejrzanych praktykach redakcyjnych, niskiej przejrzystości procedur czy cechach quasidrapieżnych. Na obecnych listach znajdują się tytuły budzące poważne wątpliwości. Bez ich rzetelnego odsiewania każda reforma pozostanie niewiarygodna i będzie jedynie kosmetyczną korektą.
Transparentność i odpowiedzialność
Kluczowe znaczenie mają transparentne kryteria kwalifikowania czasopism do obu list. System musi być na tyle przejrzysty, aby nikt nie miał wątpliwości, dlaczego jedno czasopismo znajduje się na danej liście, a inne nie. Punkty nie mogą być efektem uznaniowości, środowiskowych sympatii czy doraźnych decyzji. Kryteria powinny być jasno opisane, publicznie dostępne i mierzalne, tak aby każda redakcja wiedziała, jakie standardy musi spełnić. Tylko wówczas system będzie budował zaufanie, a nie podejrzenia o ręczne sterowanie czy polityczne wpływy. Brak przejrzystości zawsze prowadzi do utraty wiarygodności całego systemu, nawet jeśli intencje reformy są dobre. Warto pamiętać, że w okresie pełnienia funkcji ministra nauki przez Przemysława Czarnka środowisko już doświadczyło nagłych i trudnych do uzasadnienia zmian w punktacji czasopism. Te doświadczenia pokazały, jak szybko zaufanie do systemu może zostać podważone, jeśli decyzje nie są oparte na jasno zdefiniowanych i konsekwentnie stosowanych zasadach.
I jeszcze jedna kwestia, która wydaje mi się niezwykle ważna w dyskusji nad tworzeniem listy czasopism oraz jej rolą w procesie ewaluacji dyscyplin i dorobku indywidualnego. Awanse naukowe nie mogą odbywać się bez obecności w obiegu międzynarodowym. Minimalny wymóg publikacji w czasopismach indeksowanych w Scopus czy Web of Science powinien stanowić element standardu przy habilitacji i tytule profesora. Nie jest to forma wykluczenia, lecz potwierdzenie zdolności funkcjonowania w globalnej debacie naukowej i gotowości do konkurowania na poziomie międzynarodowym. Równie istotne jest jednak to, by w procedurach awansowych recenzenci zwracali uwagę na jakość i wiarygodność miejsc publikacji. W dorobku kandydatów do stopni i tytułów naukowych nie powinny być uwzględniane publikacje w czasopismach o charakterze drapieżnym lub stosujących wątpliwe praktyki wydawnicze. Jeżeli takie publikacje znajdują się w wykazie dorobku, powinny zostać wyraźnie zweryfikowane i – w przypadku potwierdzenia wątpliwości – wyłączone z oceny. Odpowiedzialność za standardy nie kończy się na poziomie tworzenia list, to także rola recenzentów oraz ciał powołanych do przeprowadzania procedur awansowych (dla przypomnienia: np. Narodowe Centrum Nauki takie działania podjęło, choć kwestie przejrzystości i jednolitości standardów wciąż wymagają dopracowania). Tylko w ten sposób system awansowy będzie wzmacniał rzetelność badań.
Z jednej strony w debacie słyszymy słuszne argumenty o chronicznym niedofinansowaniu systemu, o braku środków na publikowanie w modelu Open Access, o barierach finansowych utrudniających obecność w międzynarodowym obiegu. To realny problem, z którym mierzy się wiele zespołów badawczych. Z drugiej strony obserwujemy zjawisko trudne do uznania za racjonalne: znaczne środki publiczne trafiają do płatnych czasopism o wątpliwej renomie, nierzadko wykazujących cechy periodyków drapieżnych lub quasidrapieżnych. Artykuły publikowane w takich miejscach bywają wysoko punktowane, a następnie stają się podstawą do przyznawania nagród i premii finansowych. W efekcie publiczne pieniądze najpierw zasilają nieprzejrzyste modele wydawnicze, a później są ponownie rozdysponowywane w systemie motywacyjnym. Jeśli jednocześnie mówimy o braku środków na rzetelny Open Access, a tolerujemy przepływ znaczących kwot do czasopism o wątpliwych standardach, to znaczy, że problem nie dotyczy wyłącznie poziomu finansowania. Dotyczy również konstrukcji systemu i jakości mechanizmów weryfikacyjnych. A także tego, jak zbudowana jest lista i jaką punktację nadaje się poszczególnym kanałom publikacji.
Dlatego tak istotne jest to, jak tworzona jest lista czasopism i jakie kryteria decydują o obecności danego tytułu w systemie punktowym. Doświadczenia z poprzednich lat pokazały, że sposób konstruowania listy ma bezpośredni wpływ nie tylko na strategie publikacyjne, lecz także na przepływ publicznych pieniędzy. Lista nie jest neutralnym narzędziem technicznym. Jest jednym z najważniejszych regulatorów całego systemu. Nie podzielam pojawiającej się w dyskusji publicznej tezy, że komitety naukowe PAN z definicji nie są właściwym podmiotem do oceny czasopism. Uważam, że mogą być – pod warunkiem spełnienia określonych warunków. Zasiadają w nich samodzielni pracownicy naukowi, często posiadający doświadczenie publikowania za granicą i funkcjonowania w międzynarodowym obiegu. Kluczowe jest jednak to, by zespoły oceniające były wolne od konfliktu interesów, nie powinny w nich zasiadać osoby pełniące funkcje kierownicze w redakcjach ocenianych periodyków ani osoby bezpośrednio zainteresowane wynikiem punktacji. Równie ważne jest, by osoby oceniające miały kompetencje w zakresie oceny jakości czasopism, rozumiały znaczenie indeksacji, procedur recenzyjnych, wskaźników widoczności i standardów etycznych. Transparentność kryteriów jest tu kluczowa.
To nie jest spór o tożsamość
Narracja klasowa nie rozwiązuje problemu konstrukcji systemu. Umiędzynarodowienie nie jest przywilejem elit. Jest standardem współczesnej nauki. Argument o prymacie dydaktyki również nie uzasadnia zacierania różnic jakościowych. Niedofinansowanie systemu nie powinno prowadzić do obniżania ambicji systemowych. Jeśli finansowanie badań jest niewystarczające, odpowiedzią powinno być jego zwiększenie, a nie redefiniowanie standardów widoczności. Najlepsze polskie książki, zakorzenione w lokalnym kontekście, bywają tłumaczone i wchodzą do obiegu globalnego. To dowód, że oba poziomy mogą współistnieć, a nawet się wzmacniać: silny obieg krajowy nie jest alternatywą dla umiędzynarodowienia, tylko może być jego zapleczem. To jest spór o to, czy system ma wzmacniać ambicję konkurencji światowej, czy neutralizować bodźce do jej podejmowania. Sprawiedliwy system nie polega na wyrównywaniu wszystkiego do jednego poziomu. Polega na uczciwym odzwierciedlaniu różnic i tworzeniu klarownych reguł gry. Jeśli chcemy poważnie traktować obecność polskich badaczy w świecie, musimy projektować system, który mierzy wyżej, a nie taki, który dostosowuje standardy do wygody kosztem jakości i konkurencyjności.
Magdalena Musiał-Karg
O ewaluacji i wykazach list czasopism i wydawnictw także w najnowszym numerze „Forum Akademickiego”, który już niebawem pojawi się na naszej stronie internetowej
Gratuluję PT Autorce logicznych i dobrze przedstawionych argumentów. Mam nadzieję, że nowa punktacja usunie takie absurdy jak np. zakwalifikowanie czasopisma Fish and Fisheries (IF 6,1) do dyscypliny naukowej Inżynieria Lądowa i przypisanie mu aż 200 punktów , Transport i Geodezja przy jednoczesnym niezakwalifikowaniu do tejże dyscypliny takich czasopism jak Cement and Concrete Research (IF 13,1 i tylko 140 punktów). Innym absurdem jest przypisanie w tej dyscyplinie pismu Automation in Construction tylko 140 punktów w sytuacji, w której to czasopismo ma najwyższą wartośc IF (11,5) w kategorii Engineering-Civil w bazie Web of Science.
Może jeszcze taki kijek w mrowisko...
https://www.science.org/content/article/major-china-funder-plans-curtail-spending-pricey-open-access-fees
Ciekawy artykuł, najbardziej podoba mi się oświadczenie "wielkich wydawnictw", że APC w niektórych czasopismach jest bardzo wysokie, bo czasopisma są bardzo selektywne co drastycznie podwyższa koszty recenzji :)
Profesorka z 54 cytowaniami w Scopusie. Co ona wie o publikowaniu w rozpoznawalnych czasopismach?
No i co z tego, że 54. Mądrość to nie statystyka, ani tym bardziej bibliometria na potrzeby korporacji wydawniczych. W nauce liczy się tylko PRAWDA. Nawet jedno prawdziwe zdanie może być cenne dla ludzkości. A nie cytowanie. Dzieła Lenina cytowane są kilkadziesiąt tysięcy razy, tylko po co.
Jak zawsze żałosne humanistyczne odwracanie kota ogonem.
Oto _prawda_: publish or perish.
Skoro tak, to niech się wszyscy tu zaczną pisać o tym, o czym nie mają pojęcia (a liczba cytowań świadczy o tym, że autorka niespecjalnie ma pojęcie o publikowaniu w rozpoznawalnych czasopismach).
Będzie wesoło, będzie się działo...
Ile trzeba mieć cytowań w Scopusie, by "mieć pojęcie"
Dokładnie tyle ile 99% humanistów nie jest w stanie osiągnąć.
Profesor politologii z Polski ma 2-3 cytowania w Scopusie, o ile w ogóle ma tam jakieś publikacje. Chyba ona coś jednak wie o publikowaniu w swojej dyscyplinie. Czy ten komentarz jest wyłącznie po to, by dowalić ładnej kobiecie?
Chyba komuś paranoja się ujawnia, skoro od razu sprowadza mój komentarz do "puci" i "urody".
Sprawa jest prosta - to tekst z kategorii "nie znam się.." (bo nie publikuję w rozpoznawalnych czasopismach, czego konsekwencją jest mała liczba cytowań), "...ale się wypowiem". Jaką to ma wartość merytoryczną, oprócz parcia na ekran i potrzeby zaistnienia na forum publicznym?
Pani politolog, więc humanistka, czyli nie naukowiec => typowe.
Między ambicją a wygodą
Naprawdę ? Naprawdę taki wybór ?
Życiorys z wikipedi pokazuje, że cały czas jest wygoda.
Z perspektywy rynkowej to klasyczny przykład konfliktu interesów i tzw. pętli zamkniętej.
Sytuacja wygląda tak:
Elsevier jest wydawcą (produkuje towar).
Scopus (należący do Elsevier) jest narzędziem oceny (wystawia oceny towarom).
Naukowcy (często publikujący u Elsevier) zasiadają w radach oceniających.
W biznesie taka sytuacja (gdzie sędzia jest właścicielem jednej z drużyn) byłaby nie do pomyślenia. W nauce budzi to ogromny opór, a krytycy nazywają to oligopolem wydawniczym.
Dlaczego to w ogóle trwa?
Efekt skali: Scopus i konkurencyjne Web of Science (Clarivate) stały się standardem, według którego rządy przyznają fundusze uczelniom. Trudno "wypisać się" z systemu, od którego zależą pieniądze na badania.
Brak alternatywy: Budowa bazy o takiej skali kosztuje miliardy, więc mniejsi gracze nie mają szans na start.
Wspólny interes: Choć naukowcy narzekają na dominację Elsevier, to jednocześnie potrzebują wysokich pozycji w Scopusie, by ich kariery rosły.
Ten stan rzeczy doprowadził do powstania ruchów takich jak Open Science i inicjatywy DORA (Declaration on Research Assessment), które wzywają do zaprzestania oceniania naukowców na podstawie tego, w jakich bazach (jak Scopus) znajdują się ich teksty.
"konkurencyjne Web of Science (Clarivate)" - WoS chyba nie jest powiązane z żadnym wydawcą w przeciwieństwie do Scopusa?
Wstawiłem już ten link poniżej, ale że wydaje mi się też powiązany z tym wpisem, to go powtórzę.
https://richardtol.substack.com/p/fraud-and-cover-up?sort=top
Przeczytałem, polecam innym osobom, które zmusza się do publikowania w Q1 scopus, w grupie Elsevier. Pod rygorem zwolnienia z pracy, gdy wyniki publikowania (nie badań), będą poniżej zadanego progu. To dopiero zdumiewający system oceny pracowniczej.
@Ireneusz
@Hubert Wojtasek
Chciałem dodać jedną rzecz tutaj:
Przestrzegałbym przed takim całkowicie negatywnym podejściem do tematu publikowania. Z tego, że w połowie stycznia było w Nature retraction nie oznacza, że to pismo jest całkowicie do kitu, i już nie należy publikować w Nature. Tak, jest masywny problem z publikowaniem, z różnych stron na to patrząc, ale to nie jest tak, że zupełnie nic nie działa i w związku z tym właściwie nie da się niczego ocenić, i najlepiej to w ogóle zrezygnować jak najszybciej z pracy, bo dużo tych wycofań publikacji się widzi ostatnio.
Nie sądzę, żeby ktokolwiek negował problemy w świecie publikowania naukowego, ale nie ma co siać całkowitego defetyzmu; ciągle jest mnóstwo osób, którzy robią dobrą robotę i publikują bardzo ciekawe, świetnej jakości prace. A to podejście "nothing works" to tylko woda młyn tych, którzy zwyczajnie woleliby być w ogóle nigdy nie oceniani.
Panie Marcinie,
Chyba nie do końca zdaje Pan sobie sprawę z tego, jak wygląda sytuacja w znacznej części publikatorów naukowych. W wielu dyscyplinach, szczególnie tych najbardziej atrakcyjnych, na które idą ogromne pieniądze, np. środki z programów unijnych (David Bimler zalicza do nich np. 3E - economy, energy, environment) większość publikacji to fałszywki - albo produkty papierni, albo sfabrykowane dane we własnym zakresie. To nie przypadek, że w ciągu ostatnich 15 miesięcy kilka flagowych czasopism z nauk o środowisku zostało przez Clarivate usuniętych z Journal Master List za przekręty redakcyjne, m.in. Chemosphere i STOTEN. A te publikacje potem idą do ewaluacji i stają się podstawą do rozdziału kilkunastu miliardów subwencji. Moim zdaniem nie można na to zamknąć oczu i udawać, że wszystko jest cacy. Dlatego od 1,5 roku w zasadzie nie prowadzę badań i próbuję z tym walczyć. Model publikowania musi ulec zmianie - trzeba odejść od wydawców komercyjnych, którzy w pogoni za zyskiem nie dbają już o jakość tego, co publikują. Nie wiem, kiedy wyjechał Pan z kraju, ale u nas mniej więcej od 20 lat, kiedy weszły listy czasopism punktowanych, niewiele osób prowadzi badania "z ciekawości", żeby coś odkryć, rozwiązać jakiś problem. Badania prowadzi się po to, żeby mieć publikacje i wypełniać sloty. Zresztą do tego niekoniecznie trzeba też prowadzić badania. Jest sporo osób, których dorobek w 20-40% składa się z przeglądówek (najczęściej w MDPI). Nie wiem, czy Pan pamięta artykuły prof. Hensela na temat poprzedniej ewaluacji - w pierwszej dziesiątce najpopularniejszych czasopism było 7 MDPI, w tym pierwsze cztery.
https://forumakademickie.pl/mdpi-w-ewaluacji/
I to wszystko stanowi tzw. problemy nierozwiązywalne, z którymi wszelakie zespoły powołane do ich rozwiązania nie mogą sobie poradzić. Dlaczego? Bo jakiekolwiek racjonalne zmiany naruszałyby interesy zbyt wielu "grup trzymających władzę".
Większość, really... odklejać się zupełnie w drugą stronę serio nie warto... serio, dalej bardzo dużo osób prowadzi badania z ciekawości - przynajmniej w technicznych i ścisłych.
Taa, te 52200 artykułów opublikowanych od 1.01.2022 do 31.12.2025 w MDPI to na pewno efekt ciekawości. To, że w przypadku niektórych uczelni liczba publikacji we współpracy z Iranem, Pakistanem czy Arabią Saudyjską wzrosła w tym czasie 10-krotnie to też efekt ciekawości.
Ocena w różnych dyscyplinach jest różna, ale jak się porównuje między dyscyplinami, to niektórzy sobie błogo żyją i w tym obszarze jest działka, w której Pan naukowo pracuje.
@Ireneusz
Dla ścisłości, DORA nie "wzywa do zaprzestania oceniania naukowców na podstawie tego, w jakich bazach (jak Scopus) znajdują się ich teksty". W swoim oryginalnym dokumencie DORA mówi o tym, że "nie należy stosować wskaźników opartych na czasopismach, takich jak współczynnik wpływu czasopism (impact factor), jako zastępczej miary jakości poszczególnych artykułów badawczych, do oceny wkładu poszczególnych naukowców ani przy podejmowaniu decyzji o zatrudnieniu, awansie lub finansowaniu".
To jednak trochę co innego, bo obecność jakiegoś pisma naukowego w danej bazie danych/repozytorium akurat właśnie może świadczyć o jakości tego pisma. DORA o tym nie mówi.
Temat jest, zdaje się trudny, bo na łamach FA co dzień nowy artykuł jak liczyć punkty... Tymczasem nie ma to praktycznie żadnego wpływu na wzrost poziomu badań naukowych, na umiędzynarodowienie, na postęp technologiczny. Publikacja powinna być efektem prac badawczych a w obecnym systemie stała się (w związku z zasadami ewaluacji) jak widać celem samym w sobie, pod który definiuje się prace badawcze. Być może to będzie niepopularna opinia ale jeśli ktoś prowadzi rzetelne i wartościowe prace badawcze to publikacje prędzej czy później się pojawią a pożytek naukowy i wydajność takiego procesu będzie o wiele większy.
Żyjemy w czasach w których już prawie każdy wie, że duża liczba publikacji (nawet tych najwyżej punktowanych) i duży indeks Hirscha mogą zarazem coś znaczyć ale równocześnie mogą nie znaczyć zupełnie nic co powoduje, że jest to już narzędzie oceny pozbawione jakiejkolwiek wartości.
Jeśli już chcemy się bawić w ocenę jakości naukowej na bazie tzw. punktów ministerialnych to powinny być dwie niezależnie oceniane listy (jak ktoś już tu zaproponował):
1. Lista angielskojęzycznych czasopism oparta na jakiejś ogólnoświatowej bazie danych, np. scopus czy WoS,
2. Lista polskojęzycznych czasopism naukowych i branżowych(żeby ta nauka była dla polskich przedsiębiorców i firm!).
I można to zrobić na wiele różnych sposobów - np. punkt 1 na bazie Q czasopisma (wtedy tylko 4 poziomy co byłoby wystarczające) czy innego Citescore SNIPa czy IF. Choć może najlepszy byłby wskaźnik FWCI. Nie trzeba wtedy żadnych zespołów, list itp. Naukowcy mogą robić badania a nie oceniać ile to czy tamto czasopismo ma mieć punktów.
Punkt 2 można włączyć do oceny wpływu na otoczenie społeczno-gospodarcze i można sobie ponadawać punkty różnym czasopismom.
Postulowałbym też rezygnację z płatnego OA bo to wypacza do cna reguły tej "gry".
Nie rozumiem też dlaczego tylko konferencje informatyczne są doceniane. Obecne zasady wycięły to co najważniejsze w nauce - a więc zderzanie ze sobą różnych pomysłów i teorii na konferencjach naukowych, gdzie można było się od siebie dużo nauczyć, bo jeżdżenie na nie się po prostu nikomu nie opłaca i przełożeni nie chcą dawać pracownikom na nie pieniędzy. Bo przecież bardziej się opłaca i lepiej zapłacić za artykuł OA w takim czy innym czasopiśmie żyjącym z tego.
Nie wszyscy publikują po polsku czy angielsku. Są też inne języki.
Tak bardzo się zakorzeniła lista czasopism w naszym myśleniu o ewaluacji, że stała się niemal aksjomatem. A przynajmniej jedyną alternatywą wobec oceny eksperckiej. Są inne, lepsze niz lista czasopism sposoby ewaluacji oparte na wskaźnikach bibliometrycznych. Jak chociażby faktyczna liczba niezależnych cytowań danego artykułu. Oczywiście tylko w STEM.
Ocena ekspercka każdego artykułu jest bez sensu (pomijając nawet koszty tej oceny). Przecież one już zostały ocenione ekspercko przez recenzentów (na ogół bardziej kompetentnych niż ewentualny polski ekspert, któremu dany artykuł się trafi). Ale warto ocenić ogólny poziom tych recenzji - poziom czasopisma.
Cytowania jako automatyczny miernik? W dobie coraz większych i sprytniejszych spółdzielni ?! Ale nawet bez tego argumentu widać, że cytowania to miara popularności a nie jakości. Kiedyś była tu niezła korelacja, ale obecna inflacja wszystkiego mocno ją zaburza. Brak cytowań jest alarmujący, ale bardzo duża ich liczba - także oznacza raczej jakiś efekt socjologiczny niż poziom badań.
W sumie to skomplikowany problem, może nawet bez rozwiązania, aby jakość badań wyrazić jednym prostym wskaźnikiem. Lepiej stosować jakiś progi. Osławione sloty są krokiem w tym kierunku, mocno ograniczają spółdzielnie, ale -w obecnej formie- są bardzo silnym anty-bodźcem do rozwoju mocnych zespołów krajowych, premiując wielokrotnie bardziej pracę na rzecz innych ośrodków, w tym zagranicznych, tu powinna być większa równowaga).
"Ale nawet bez tego argumentu widać, że cytowania to miara popularności a nie jakości."
zgoda, tylko że dotyczy to nie tylko pojedynczego artykułu, ale też czasopisma.
Jeżeli liczba cytowań jest niedoskonałą miarą jakości artykułu, to jeszcze bardziej niedoskonałą miarą jest średnia liczba cytowań innych artykułów w tym samym czasopiśmie, bo przecież IF czy Cite Score to nic innego, jak średnia liczba cytowań. A liczba punktów ministerialnych jest prostą funkcją IF i Cite Score właśnie.
Jeżeli cytowania jednego artykułu są zaburzone przez spółdzielnie cytowań, chwilowe mody itd., to wiara w to, iż cytowania pozostałych artykułów w tym czasopiśmie nie są zaburzone przez je zjawiska, jest naiwnością.
Ja nie twierdzę, że liczba cytowań niezależnych jest najlepszą miarą jakości artykułu, ale 200 punktów za artykuł posiadający zero cytowań ponieważ inne artykuły w tym samym czasopiśmie miały po 100 cytowań lub 40 punktów za artykuł posiadający 200 cytowań ponieważ inne artykuły w tym samym czasopiśmie miały po 2 cytowania, to nie jest najlepszy pomysł, a tak właśnie działa obecna punktacja ministerialna.
Dokładnie. Są tylko trzy metody oceny pracy uczonego:
1. Na czuja (mądrze nazywana ekspercką).
2. Według ilości cytowań.
3. Według miejsca publikacji artykułów.
A miejsce publikacji artykułów możemy z kolei ocenić na dwa sposoby:
1. Na czuja.
2. Według ilości cytowań.
Jeśli metodę na czuja uznajemy za mało wiarygodną, to skazani jesteśmy na ocenianie uczonych według ilości cytowań - do wyboru samego ocenianego uczonego albo innych ludzi, którzy przed nim w publikowali w piśmie, które oceniliśmy jako dobre lub złe. Metoda ostatnia wydaje się nieco absurdalna.
Może kogoś zainteresuje...
https://richardtol.substack.com/p/fraud-and-cover-up?sort=top
Nawet brak cytowań nie jest tutaj wielkim alarmem, gdyż są dziedziny tak niszowe, że zajmuje się nimi garstka osób. Nie ma fizycznie kto tych cytowań "produkować". To czy taka niszowa tematyka powinna być podejmowana to inna kwestia, której też nie da się ocenić jakkolwiek obiektywnie.
Zero to jest zero. Nisza jednoosobowa jest stanowczo zbyt mała :)
Najwięcej cytowań mają receptury kuchenne.
Tak, to drugi biegun :) I nie jest to tylko żart. Globalne wydawnictwa często wydają "wszystko", w tym mają jakiś sektor naukowy. Przyznawanie punktów wydawcy (200, 80) jest zbyt szeroką opcją, czyż nie? Mnie ten wątek mało (lub wcale) nie interesuje, ale dziwię się, że w ogóle się o nim nie mówi.
"Spór nie dotyczy tego, czy publikacje w języku polskim są potrzebne. Są – i to bezdyskusyjnie. W naukach społecznych i humanistycznych pełnią ważną funkcję: kulturotwórczą, ekspercką i dydaktyczną."
Jednakże działalność kulturotwórcza, ekspercka i dydaktyczna to nie jest nauka. Owszem ta działalność jest potrzebna (jak wiele innych rzeczy, np. drogi i szpitale), ale to jest inny rodzaj aktywności, który nie powinien być ewaluowany razem z badaniami naukowymi. Badania naukowe muszą funkcjonować w międzynarodowym obiegu i nie jest to kwestia języka, tylko ich definicji. Jeśli chcemy mieć u nas nie tylko działalność kulturotwórczą i dydaktyczną, ale też badania naukowe w naukach HS, to konstrukcja bodźca powinna to odzwierciedlać.
Celna uwaga. Natomiast cały system ewaluacji zmierza w odwrotnym kierunku, mieszając naukę z wieloma innymi kwestiami.
Tylko, że ten system konstruują sami naukowcy - Zespół doradczy ds. nowego modelu ewaluacji (31 osób), KEN (34 osoby) i zespoły doradcze do spraw wykazów czasopism naukowych i recenzowanych materiałów z konferencji międzynarodowych (jakieś 350-400 osób). Pytanie, dlaczego robią to w ten sposób? 😁
Wykonali swoją pracę. Czy Ty wykonałeś swoją pracę po otrzymaniu doskonałego szkolenia w USA i Japonii?
Mr Fu,
Do you really think that my training in US and Japan was limited to science? Think again. You are already late. The board is set, the pieces are moving.
Główne założenia bym poparł:
"Spór nie dotyczy tego, czy publikacje w języku polskim są potrzebne. Są – i to bezdyskusyjnie.",
"Twierdzenie, że wzrost punktacji krajowych tytułów „nikomu nie zaszkodzi”, pomija elementarną zasadę działania systemów ewaluacyjnych: bodźce kształtują zachowania" [to samo dotyczy tytułów zagranicznych]
"Jeżeli różnica między obiegiem międzynarodowym a krajowym zostanie zniwelowana, motywacja do podejmowania większego ryzyka publikacyjnego będzie słabsza."
"Chodzi o tworzenie takich reguł gry, które nagradzają ambicję, jakość i gotowość do konkurowania na poziomie międzynarodowym, przy jednoczesnym profesjonalnym wsparciu obiegu krajowego."
Natomiast nie rozwiązują tego systemowe ustawienie listy polskiej (P) NIŻEJ od listy zagraniczne (Z)j, na wzór starych czasów. Po co się upierać przy jednym parametrze (porządku liniowym)? Dwie listy obok byłyby lepsze. Pula 3N podzielona na dwa rozdzielone koszyki, o proporcji zależnej od dyscypliny (o tej proporcji można dyskutować i z czasem nią manewrować).
Zgadzam się, że miernikiem jakości czasopisma jest selektywność (bariera edytorsko-recenzencka). Trudno to sprawdzić, zwłaszcza dla pism polskich. Proponowałbym mechanizm sprzężenia zwrotnego. Przed okresem ewaluacji nadaje się jakąś wstępną punktację (lista Z - jakiś wskaźnik scopusowy, lista P - niech będą te oceny ekspertów czy komitetów). Jeśli w okresie ewaluacyjnym rośnie (zwłaszcza dynamicznie) liczba polskich afiliacji (Z) lub publikacji wsobnych (P), to automatycznie następuje obniża punktacji o 1 czy 2 poziomy, bo mamy dowód, że punktacja była zawyżona. Wskażniki wsobności powinny być monitorowane na bieżąco (od polskich czasopism należałoby zażądać aktualizacji i jawności tego wskaźnika przed wpisem na listę, a wydawcy zagraniczni na ogól to mają; a jak nie mają, to profilaktycznie może o 1 poziom obniżyć itp. itd.).
Nie rozumiem uwag o Open Access i drapieżności (kto na obecnej liście MNiSW jest drapieżnikiem? prawie wszyscy? a może nikt?). Marnotrawienie pieniędzy z budżetu jest w ogóle szkodliwe. Bezrefleksyjne wspieranie OA to zły pomysł, kwota grantów to też czynnik ujemny podobnie jak wydatki na publikacje (do zrównoważenia lub przewyższenia EFEKTAMI ilościowymi i jakościowymi, np. wysoka ranga i liczba publikacji, uzyskanymi dzięki grantom itd.).
Tak, ma Pani rację – biznes wydawniczy naukowy, zwłaszcza giganci tacy jak Elsevier (część RELX Group), Springer Nature, Wiley czy Taylor & Francis, to bardzo dochodowy sektor, który w dużej mierze opiera się na darmowej pracy naukowców (recenzje, redakcja, pisanie) i publicznych pieniądzach na badania.
Oto aktualne (stan na luty 2026) liczby, które potwierdzają Pani punkt widzenia:
Elsevier (RELX STM division):
W 2024 r. przychody segmentu naukowego ≈ £3.05 mld (ok. $3.8–4 mld USD), zysk operacyjny adjusted ≈ £1.17 mld, marża operacyjna ≈ 38–38.4%.
To oznacza zysk rzędu $1.4–1.5 mld tylko w 2024 r. (według analiz niezależnych i raportu RELX).
Marża 38% jest wyższa niż u wielu gigantów tech (np. Microsoft ~34–36% w podobnych okresach) czy nawet przemysłu tytoniowego (~32%).
Springer Nature:
Przychody w 2024 r. ≈ €1.847 mld (ok. $2 mld USD), zysk operacyjny adjusted ≈ €512 mln.
W 2025 r. (pierwsze 9 miesięcy) wzrost przychodów o ~6%, prognoza na cały rok 2025: €1.93–1.96 mld.
Marża operacyjna w segmencie badawczym często oscyluje wokół 27–30%, ale całość grupy też jest bardzo rentowna.
Czterech największych (Elsevier + Springer Nature + Wiley + Taylor & Francis):
W 2024 r. łącznie ponad $7 mld zysku (według analizy Brockington et al., listopad 2025, arXiv).
Marże >30% – to poziomy, które w innych branżach budzą kontrowersje jako „rent-seeking” (ekstrakcja renty).
Dlaczego tak się dzieje?
Naukowcy piszą, recenzują i edytują za darmo (lub za symboliczną opłatą).
Badania są w większości finansowane publicznie (NCN, UE, granty narodowe).
Dawniej: biblioteki płaciły abonamenty (paywall) – bardzo drogie.
Teraz: przejście na Open Access → autorzy płacą APC (Article Processing Charges) – często 2000–5000 €/artykuł w topowych tytułach.
Publiczne pieniądze → idą do korporacji → zyski wypłacane akcjonariuszom (np. CEO RELX zarobił >€15 mln w 2024).
To klasyczny model „nauki jako darmowego surowca” dla prywatnego zysku. Krytycy (Plan S, cOAlition S, Unpaywall, Sci-Hub, ruchy open science) od lat nazywają to „akademickim wyzyskiem”.
Jednak nie jest to tylko „chciwość korporacji” – system też sam się napędza:
„Publish or perish” → presja na publikacje w punktowanych czasopismach (w Polsce: wykaz MEiN, Scopus/WoS).
Jednostki i kraje oceniają naukowców po punktach → naukowcy muszą publikować w drogich venue.
Giganci mają monopol na prestiżowe tytuły → mogą windować ceny.
W Polsce to boli podwójnie: NCN i uczelnie płacą APC z grantów publicznych, a potem te same granty zależą od publikacji w… tych samych wydawnictwach.
Czy da się to zmienić?
Tak – ale wymaga systemowych decyzji:
Masowe wsparcie diamond OA (bez opłat dla autorów i czytelników).
Silniejsze listy krajowe z wysoką punktacją (bez zależności od Scopus).
Wymóg OA bez APC w grantach publicznych.
Rozwój platform typu arXiv + overlay journals lub polskie mega-czasopisma OA.
Na razie jednak korporacje mają się świetnie – i tak, to one zarabiają miliardy na barkach naukowców i podatników. To nie spisek, to po prostu bardzo skuteczny model biznesowy w wadliwym systemie ewaluacji nauki.
Trochę mnie zdziwił ten wpis.
1. "Masowe wsparcie diamond OA (bez opłat dla autorów i czytelników)."
To na pewno - chyba we wszystkich dojrzewa refleksja, że to jest bardzo potrzebne
2. "Silniejsze listy krajowe z wysoką punktacją (bez zależności od Scopus)."
To dość dziwny postulat. Na Scopusie jest sporo pism diamond OA, a nawet jeśli zrezygnować ze Scopusa, to listy krajowe nie są jedyną alternatywą.
3. "Wymóg OA bez APC w grantach publicznych."
Ale przecież to już się dzieje. NCN wymaga publikowania OA oraz daje bardzo niski limit środków na opłaty OA, zmuszając do szukania alternatyw (i słusznie).
@Ireneusz
No wreszcie jakiś ciekawy realistyczny głos. Nie wiem na ile te dane są prawdziwe, ale jedno wiem na pewno: za tą cała chorą sytuacją stoi po prostu biznes. I nie jest to tak, że to nasi naukowcy kombinują, a na świecie to są tacy sami. szlachetni. Na chwilę obecną jedyną nieuczciwością, ściganą prawnie są plagiaty. A poza tym, wszystkie inne chwyty są dozwolone: publikacje z tysiącem autorów (w CERNie), autor z dwustoma publikacjami rocznie (na uczelni w Kanadzie), a już takie tam dopisywanie kolegów, to już dzisiaj prawie norma (sobie śpimy, a indeksy cykają, bo każdy kolega też ma kolegów).
Oczywiście trzeba niestety w tym jakoś funkcjonować. Ale trzeźwe spojrzenie, trzeba mieć, że niestety ci goście z Zachodu, to też w sumie okropni przekręciarze.
Można próbować i nawet trzeba to jakoś odkręcać, ale proste recepty raczej nie zadziałają, warto tutaj pamiętać o prawie Murphy'ego: "Niemożliwe jest zbudowanie niezawodnego urządzenia — głupcy są zbyt pomysłowi".
Myślę, że szczególnie godne podkreślenia jest to sprzężenie zwrotne - obecny system oparty na punktozie/IF/publish or perish jest samozabetonowujący się. To jest prosta rzecz, chyba dla każdego oczywista. Jeśli ma powstać nowa konferencja, nowe czasopismo, nowy wydawca (a konkurencja jest rzeczą pożądaną) - to rzecz jasna na ogół potrzebuje okresu rozwoju, wzrostu. Oznacza to, że wtedy ludzie muszą brać udział w takich nowych konferencjach, czy publikować w takich nowych czasopismach. Ale wiadomo, że tego nie uczynią - a już zwłaszcza w krajach, w których państwo administracyjnie ich do tego zniechęca, agresywnie zmuszając do kooperacji z tymi podmiotami, które JUŻ mają wysokie wskaźniki bibliometryczne. Jaka powinna być na to odpowiedź? Co do kwestii wielokrotnie ostatnio poruszanej, czyli promocji polskich wydawców w ewaluacji: ja bym w całości wyrzucił obecny system ewaluacji do kosza, ale jeśli już mamy obracać się mniej więcej wokół niego, to oczywiście dowartościowałbym polskie czasopisma, a i stworzenie polskiego giganta to też wcale dobry pomysł. Nie dlatego, żeby tworzyć jakieś niezasłużone fory, nie dla wygodnictwa. Po prostu dlatego, że jest to warunek konieczny (a oczywiście nie wystarczający) pojawiania się konkurencji wobec beneficjentów globalnego systemu. Dla rozbetonowania tego systemu.
"konkurencja jest rzeczą pożądaną"? może i tak, ale tu tej konkurencji jest aż za dużo. Raczej ogromną inflację czasopism (i artykułów) uważam za niepożądaną. Wręcz jako bardzo pożądany czynnik widziałbym: TRADYCJĘ. Pisma o ustalonej tradycji i reputacji powinny mieć za to jakiś plus.
Sam krytykowałem p. Kudrycką za obsesję konkurencyjności w nauce; u nas wygodnie dla ministerstwa konkurencyjność w nauce łączy się z możliwością praktycznie dowolnego obniżania strumienia finansowania przy zachowaniu pozorów uczciwości. Zgodzę się, że nadmierna konkurencyjność czasopism przypomina konkurencję u nas między państwowymi uczelniami o ugruntowanej tradycji z wyższymi szkołami dóbr wszelakich - oczywiście prowadzi ona do obniżenia poziomu. Tym niemniej uważam, że zabetonowanie pozycji czasopism też nie jest dobre - każdy, nawet dobry, powinien jednak czuć na plecach oddech potencjalnej konkurencji, tylko rzeczywiście ta potencjalność nie powinna się materializować zbyt często i zbyt prosto.
Ale wydawnictwami drapieżnymi nazywa się MDPI i Frontiers. Czy tylko ja jestem trzeźwy in universo czy ktoś jeszcze?
MDPI ma ciekawą cechę (oby inni się nią "zarazili"): autorzy o jakiejś ustalonej reputacji (próg na razie nie jest chyba zbyt wysoki) dość łatwo publikują tam za darmo (waivery, vouchery, invitations). Zatem duże wydatki w tym kierunku oznaczają niezbyt wysoki poziom autorów lub ich nadmierne finansowanie (skoro nie chce im się sięgać lub zabiegać po zwolnienie z opłaty), zatem jest to indykator ujemny przy ewaluacji lub wręcz do obniżenia finansowania takiej jednostce. Może warto takie sprzężenie wykorzystać?
MDPI tak hojnie rozrzuca waivery, że chyba tylko analfabeci muszą płacić. Wielka Piątka z kolei odwrotnie - potrafią niespodziewanie przyszpilić żądaniem słonej opłaty, kiedy artykuł przeszedł recenzje i został przyjęty do druku. Wprost tego nie powiedzą ale sugestie potrafią dać dość wyraźne, że jak się okupu nie zapłaci, to publikacja nastąpi na świętego Nigdy. Nie tam szukamy drapieżników, gdzie są.
Z utęsknieniem czekam, aż jakiś ważny tego świata wywróci ten koślawy (korupcjogenny) publikacyjny stolik i skieruje naukę na właściwe tory. Celem badań naukowych nie są same badania naukowe, a tym bardziej opisujące je publikacje, Celem badań naukowych nie powinna być wyłącznie chęć zaspokojenia ciekawości, ambicji i własnego ego wykonującego je naukowca. Celem badań naukowych powinna być (nawet tylko potencjalna) jak największa przydatność społeczna ich wyników i pewnie dlatego niejaki Nobel ufundował nagrodę dla "tych, którzy w ubiegłym roku uczynili najwięcej dla dobra ludzkości". Nauka powinna pełnić rolę służebną wobec ludzkości a nie odwrotnie. Oczywiście problemem do dyskusji jest jak uczynić z przydatności społecznej miarodajne kryterium w ocenie jednostek naukowych i samych naukowców ale z pewnością od tej dyskusji odsunąłbym właśnie naukowców.
Ja to widzę trochę inaczej:
1) Podstawowym zadaniem uczonego jest jednak dążenie do prawdy, poszerzanie ludzkiej wiedzy, tu ciekawość jak najbardziej pasuje.
2) Nauka ma też doniosłe zadania utylitarne wobec kraju i wobec ludzkości; zresztą często (acz nie wyłącznie) realizacja punktu 1 owocuje zwiększonym dobrostanem kraju i ludzkości, tylko nieraz to długo trwa (ileż rzeczy, które można by określić jako "pure mathematical nonsense" znajdowało zastosowanie, tylko po latach!). Natomiast w jakim stopniu naukowiec jest nakierowany na bezpośrednie korzyści dla społeczeństwa a jakie dla ludzkiej wiedzy podstawowej bardzo zależy od dziedziny i od osoby naukowca, od sytuacji, i trudno tu stawiać sztuczne bariery; acz oczywiście należy wreszcie poważnie potraktować utylitarną stronę nauki.
3) Punkt 1 nie ma per se nic wspólnego z wynaturzeniami w rodzaju punktozy, "publish or perish", nadymaniem się po angielsku, sztuczną wymuszoną mobilnością, cwaniactwem wydawnictw i papierników itd. - należy winić te patologie i ich przyczyny a nie np. ciekawość uczonego.
Absolutnie nie ma nic złego w ciekawości naukowca. Ja użyłem jedynie określenia, że ciekawość nie powinna być jedyną motywacją jaką kieruje się naukowiec podczas wykonywania swojej pracy. Natomiast moim zdaniem, między innymi te patologie które Fiidelio wymienił w punkcie 3), sprawiają, że kryterium publikacyjne stało się bezużyteczne i należy zastosować inne. Proszę zwrócić również uwagę na fakt, że "przydatność społeczna" to bardzo szerokie pojęcie, w którym zawiera się również "poszerzanie ludzkiej wiedzy".
@Grześ
Jak najbardziej, ciekawość MOŻE być jedyną motywacją jaką kieruje się naukowiec podczas wykonywania swojej pracy.
I na szczęście jest, dzięki czemu mamy takie rzeczy, jak GFP, PCR i CRISPR (każda z nich to nagroda Nobla).
A czy jest pan tak całkowicie pewny, że tymi noblistami kierowała wyłącznie ciekawość, a nie również inne motywacje np. chęć opracowania/usprawnienia metody diagnostycznej, czy w bardzo dalekiej perspektywie terapii? Musiał pan ich wszystkich naprawdę dobrze znać aby twierdzić, że to była wyłącznie ciekawość. Szacunek.
„Z jednej strony w debacie słyszymy słuszne argumenty o chronicznym niedofinansowaniu systemu, o braku środków na publikowanie w modelu Open Access”
Po raz trzeci przytoczę więc na tych łamach następujące dane (z 2024, bo nie chce mi się szukać danych za rok ubiegły, może zresztą nie są jeszcze dostępne). Tak wyglądało wykorzystanie puli artykułów Open Access finansowanych centralnie w ramach umów WBN:
Elsevier – pula 1013 artykułów na 2024 została wykorzystana 23.10.2024
Springer-Nature – pula 1466 artykułów na 2024 została wykorzystana 06.12.2024
Taylor&Francis – pula 97 artykułów na 2024 została wykorzystana 12.12.2024
ACS – pula 398 artykułów na 2024 została wykorzystana 21.10.2024
MDPI – opublikowano 11852, oczywiście wyłącznie w OA, czyli 5 razy więcej niż w tych czterech wydawnictwa razem wziętych. Przypomnę, że APC w tym wydawnictwie nie są finansowane w ramach umowy krajowej.
Jak więc widać nie jest to problem braku środków na publikowanie w OA, jeśli te pule są wykorzystywane pod koniec roku. Jest to kwestia „konstrukcji bodźców”.
Porównajmy dwa czasopisma: Journal of Biological Chemistry (IF = 4,0, 100 pkt.) i International Journal of Molecular Sciences (IF = 4,9, 140 pkt.). Niby punktacja nawet odzwierciedla IF. Między tymi czasopismami jest przepaść. Wiadomo na czyją korzyść. Wie o tym każdy, kto próbował publikować w JBC. W polskim systemie opłaca się oczywiście publikować w IJMS. W latach poprzedniej ewaluacji (2017-2021) polscy uczeni opublikowali w tym czasopiśmie ok. 3700 artykułów. Wyżej były tylko Materials i Energies (Przemysław Hensel, FA 9/2023), w JBC - 51 (słownie pięćdziesiąt jeden). Za lata 2022-2025 ta przepaść będzie jeszcze większa. Oczywiście sytuacja wygląda zupełnie inaczej w krajach wiodących naukowo. Spróbujcie dostać się na postdoka w dobrej uczelni amerykańskiej. Z dorobkiem w JBC można startować praktycznie do każdej uczelni z pierwszej setki, z dorobkiem w International Journal of Molecular Sciences – do żadnej. To jest miara renomy czasopisma, a nie jakieś punkciki, czy nawet IF-y.
@Hubert Wojtasek
Tak, dlatego też rzetelna ewakuacja przez zagranicznych ekspertów zamiast stosowania list czasopism mogłaby być szokiem w polskim środowisku naukowym.
Moim zdaniem taki "reality check" przydałby się. Juz nawet niezależnie od tego, co potem ministerstwo z tym zrobi.
A po co zagraniczna. Polska też wystarczy, tylko po co ? Po co środowisko ma na siebie bata toczyć ?
Dlatego, że Pan chciałby być w tych zagranicznych ekspertach ?
Owszem, ale pod warunkiem, że tymi ekspertami nie będą znowu Rafel Luque, Jose Manuel Lorenzo czy Hamid Reza Karimi. A naprawdę dobrych może być trudno zrekrutować. Dlatego jestem sceptyczny.
@Hubert Wojtasek
Ja osobiście widzę tą ewaluację jako jakiś rodzaj zła koniecznego. Nie jest to przyjemna aktywność. Dlatego wydaje mi się, że zawsze będzie to jakiś rodzaj "lawirowania", aby wybrać najmniejsze zło (konieczne). Skoro już się przez to przechodzi, to niech chociaż będzie to zrobione tak dobrze, jak się tylko da.
"ewakuacja przez zagranicznych ekspertów" :))))) Musieliby nieźle namieszać w ocenie by dawać drapaka z polski
@dać drapaka
Nieźle mi się udało z tą ewakuacją.
:-)
Tak to jest jak się pisze szybko w telefonie. Oczywiście chodziło mi o ewakuację. Przepraszam za pomyłkę
Ale rzeczywiście, mogę sobie wyobrazić, że ci goście mogliby po wykonaniu zadania chcieć szybko zniknąć..
EWALUACJĘ
Geeez...
Kto wybierałby tych "zagranicznych ekspertów"? Bo jesli robiono by to podobnie do tego jak robi się przy wyborze zagranicznych recenzentów w NCN to nie wróżę temu systemowi znaczącej poprawy obiektywizmu parametryzacji.
@Adam M.
Nie wiem, prawdę mówiąc.
Ale to nie jest jakiś wielki problem.
Można również zapytać tych, co już to robili w ten właśnie sposób:
https://forumakademickie.pl/ewaluacja-jak-to-robia-w-portugalii/
No to wywalić z listy na dzień dobry wszystkie żurnale (polskie i zagraniczne), które publikują wyłącznie w OA (co skutecznie wyeliminuje polskie predatory w stylu Zeszytów Naukowych prof. Radosława W. z PŚl).
A to co zostanie według kwartyli przeliczyć na punkty (200-140-100-70).
Jeśli nie ma w kwartylach, a trzeba koniecznie promować, to dać 20-70 punktów na zachętę.
Maksymalna liczba punktów dla Q1? Taka lista miałaby bardzo kiepską moc rozdzielczą. W takiej sytuacji najlepiej po prostu zrezygnować z idiotycznej punktacji ministerialnej i korzystać TYLKO z bibliometrii. Oczywiście zaraz pojawią się płacze "naukowców" niezdolnych do publikowania w dobrych czasopismach. Biedni mają fenomenalne prace, ale niestety z jakiegoś powodu nikt poważny nie chce ich publikować ani cytować.
Nie mam nic przeciwko umiędzynarodowienialu. Tak się jednak składa że na polskich listach czasopism nie ma ważnych czasopism z mojej dziedziny. Nie lepiej zlikwidować te listy i zostawić wybór i wolność publikacyjną?
Łatwo panu gadać. A czym się pożywią ministerialni eksperci?
Większej głupoty nie można było napisać "W dorobku kandydatów do stopni i tytułów naukowych nie powinny być uwzględniane publikacje w czasopismach o charakterze drapieżnym..." To tylko "wyśmienity naukowiec" z Polski coś takiego mógłby wysmarować. Może ci naukowcy z UE, USA i innych krajów co publikują w tych drapieżnych czasopismach i dostają projekty z Horyzontów, projekty ERC, z ESA, i wielu innych instytucji grantowych krajowych , to według Pani prof. są to jołopy i nie zasługują na nic, mimo że dostają projekty i to z górnej półki i co, i nie powinni dostawać nic, bo publikują w drapieżnych czasopismach. Pani profesor jako wielka naukowczyni nie chciało się zdefiniować co to są drapieżne czasopisma, i wali z grubej rury, drapieżne lub quasi, to są te za które ja tak uważam, i co mi zrobicie, bo jestem wielka pani profesor i już mi nikt nie podskoczy, ale będę tępiła tych co według mnie itd. Nie dobrze to wróży nauce polskiej. Naukowcy od polityki nie wnoszą nic konstruktywnego do nauki, tylko zamęt i coraz większą głupotę.
Ciekawi mnie kto i w jaki sposób zdefiniuje "czasopisma drapieżne". Co w sytuacji gdy czasopismo stanie się drapieżne 2 lata po opublikowaniu w nim części (lub całości) cyklu? Albo dopiero po złożeniu dokumentów?
Cudowny pomysł, taki niezbyt przemyślany.
Proszę wyrażać się z szacunkiem, per profesorka
Prezeska to jednak brzmi niepoważnie. Nie wiem czy sama zainteresowana jest tym zachwycona.
Ja proponuję wystandaryzować edycję tekstów w czasopisamach polskich - każdy ma własny sposób formatowania tekstu, podpisów pod tabelami, rysunkami, stosowania przypisów dolnych / końcowych, cytowań. Tak jakby nie można był stworzyć jednolitego standardu dla wszystkich polskich czasopism naukowych.
@Prof SGH
Naprawdę, po co marnować czas i wysiłek na takie rzeczy? Artykuły w "PNAS" wyglądają trochę inaczej, niż w "Science" albo "Nature", i komu to przeszkadza?
Dla artykułu w PNAS, Science lub Nature warto się "trochę" postarać. Polskie pisma, że zacytuję pewnego pomarańczowego człowieka, nie mają żadnych kart ;)
@sdf
No tak, ale od tego formatowania tekstu czy ujednolicania tabelek chyba im tych "kart" nie przybędzie. Tak sądzę.
(1) Minimalny wymóg publikacji w czasopismach indeksowanych w Scopus czy Web of Science powinien stanowić element standardu przy habilitacji i tytule profesora.
(2) W dorobku kandydatów do stopni i tytułów naukowych nie powinny być uwzględniane publikacje w czasopismach o charakterze drapieżnym lub stosujących wątpliwe praktyki wydawnicze.
I co ja na to poradzę, że (1) wydaje mi się sprzeczne z (2)? Scopus jest własnością Elseviera, które to wydawnictwo jest sławne z wątpliwych praktyk wydawniczych. Podobnie jak pozostałe wydawnictwa z Wielkiej Piątki, niestety minęły już czasy, kiedy niestosowne zachowania można było przyczepić tylko do Frontiers i MDPI. Na tle Wielkiej Piątki są to dziś wydawnictwa niemal przyjazne nauce.
Przekazywanie wyników badań za darmo w publikacjach świadczy o tym, że nie są one o wielkiej wartości (mogą być łatwo uzyskane przez innych). Jeśliby by coś warte, to strzegłoby się je, tak jak stare receptury.
Prawie wszystkie największe osiągnięcia naukowe były publikowane za darmo. Myli pan chyba przemysł z nauką. Jedno i drugie jest ważne, ale mają one całkiem różne cele! Czy jest pan faktycznie naukowcem? Trudno uwierzyć że tak absurdalny postulat mógłby wyjść spod pióra naukowca.
Tak naukowcy amerykańscy od razu publikowali swoje wyniki nad bronią atomowa i dlatego Rosja dziś ją posiada.
No tak. Jak wszyscy wiemy, dowód hipotezy Poincarego mógł być łatwo uzyskany przez innych. Tak samo łatwo można uzyskać szereg innych badań publikowanych za darmo w Nature albo Science. Wystarczy chcieć.
To, że w szlamie znajduje się diamenty, chyba każdemu jest znane.
Niewiarygodne, każdy kolejny komentarz kk jest coraz głupszy, a wyjściowo ich poziom był już bardzo niski (np. z jakiegoś powodu bronienie Trumpa pod artykułem o ewaluacji).
Nie broniłem Trumpa, nie rozumie Pan prostego tekstu pisanego, więc nie jest Pan Polakiem, a druga ewentualność to niski poziom inteligencji. Jeśli jest Pan naukowcem, tym gorzej dla tego środowiska.
Obecne artykuły naukowe za 1000 lat będą dowodami prymitywizmu myślowego obecnych naukowców.
Proszę nie dać się prowokować. Komentarze próbują tu pisać osobniki dla których język polski nie jest językiem ojczystym.