Wpadliśmy w pułapkę systemu, który wymusza na nas „wyrabianie punktów” za publikacje. W tym chaosie pójście na skróty i publikacja w czasopiśmie, które oferuje szybkie i skuteczne rozwiązania, czasem wydaje się optymalnym wyborem. Ale tylko pozornie – mówi prof. Magdalena Musiał-Karg z Wydziału Nauk Politycznych i Dziennikarstwa Uniwersytetu im. Adama Mickiewicza w Poznaniu.
Zdecydowana większość polskich badaczy stara się dbać o etykę pracy i publikować w sprawdzonych, dobrych czasopismach. Istnieje jednak wzrastający trend, który pokazuje, że część środowiska coraz chętniej wybiera tytuły o wątpliwej renomie. Prześledziliśmy to na przykładzie ostatnich dwóch lat okresu ewaluacyjnego. Gdybym miała szukać powodów takiej sytuacji, to zapewne jest to pokłosie reformy szkolnictwa wyższego i tzw. punktozy. Nasi badacze, wiedząc, że dostęp do większości zagranicznych renomowanych czasopism jest utrudniony, obarczony kilkumiesięcznym procesem recenzyjnym i redakcyjnym, idą na skróty i publikują w periodykach łatwiej dostępnych. I tu znów trzeba pamiętać, że wykorzystują oni tak naprawdę legalną ścieżkę publikacji, ponieważ większość tytułów, które uznalibyśmy za podejrzane o drapieżne praktyki, znajduje się na ministerialnej liście czasopism; co więcej, te tytuły mają naprawdę wysoką punktację.
W poprzednim okresie ewaluacyjnym zauważyliśmy, że koledzy, między innymi z naszej dyscypliny naukowej (nauki o polityce – dop. RED), coraz częściej chwalą się w mediach społecznościowych publikacjami za 100 czy 140 punktów w czasopismach, których już same tytuły budziły nasze wątpliwości. To były wydawnictwa, które wprawdzie miały w tytule słowo „scientific” albo „research”, ale obejmowały tak wiele dyscyplin, a nawet dziedzin naukowych, że ich profil był bardzo szeroki i płynny. U jednego greckiego wydawcy zauważyliśmy nawet, że w ciągu ostatnich dwóch lat w znaczącej przewadze autorami byli naukowcy z Polski – w latach 2020 i 2021 reprezentowali około 90% wszystkich autorów. Są to bardzo niepokojące obserwacje.
Po pierwsze dlatego, że wydawano na ten cel pieniądze publiczne. Wydziały ponosiły koszty nie tylko samej publikacji, ale również wydatki związane z ich przygotowaniem, w tym między innymi tłumaczeniem. Jest jeszcze druga ważna kwestia. Tak jak wspomniałam, periodyki te – mimo wątpliwej renomy – mają całkiem niezły wskaźnik punktowy w polskim wykazie czasopism. Zdarzało się więc tak, że wydatki na publikację w czasopismach podejrzanych o drapieżne praktyki były multiplikowane. Najpierw wydawano pieniądze na tłumaczenie, potem na opłatę umożliwiającą publikację artykułu (article processing charge), a następnie – już po opublikowaniu tekstu – autor był nagradzany w wydziałowych, uniwersyteckich konkursach za osiągnięcia naukowe. Taka sytuacja jest bardzo niesprawiedliwa w stosunku do tych, którzy starają się publikować swoje teksty w czasopismach prestiżowych, mających bardzo wysoki impact factor na liście ministerialnej, ale często o wiele gorzej punktowanych.
Wydawcy, których uznaje się za drapieżnych, często odstępują też od najlepszych praktyk redakcyjnych, proces recenzowania i publikacji jest u nich krótki i często nierzetelny. Tu znów uzupełnię; w czasopismach o ustalonej renomie proces ten może trwać od kilku miesięcy do nawet roku. „Drapieżcy” proponują termin znacznie krótszy. W końcu ostatnie kryterium: wydawnictwa te stosują agresywne, masowe, czasami bardzo niewybredne metody zabiegania o klienta. Bombardują naukowców zaproszeniami do publikowania w ich tytułach. Trzy pierwsze kryteria i ostatnie, które przytoczyłam, są wystarczające, aby czasopismo zakwalifikować do drapieżnych. W Polsce określenie to zyskało na popularności w ciągu ostatnich kilku lat, zwłaszcza w kontekście ewaluacji.
Z przeanalizowanych przez nasz zespół danych wynika, że nawet 450 tytułów o wątpliwej renomie i standardach wydawniczych i etycznych znajduje się na liście punktowanych czasopism w Polsce. Rozmawialiśmy z osobami, które były odpowiedzialne za przygotowanie tego wykazu. Bardzo często tłumaczyły, że w pierwotnej wersji nie było – albo nie było aż tylu – czasopism, które uznajemy za drapieżne. Tytuły te trafiały często na listę w wyniku ingerencji ministra. Z tego, co wiemy, modyfikacji, już poza pracami Komisji Ewaluacji Nauki, było co najmniej kilka.
Jest jeszcze jedna kwestia, która wydaje się nam niezwykle ważna, mianowicie wysoka liczba punktów za publikację w polskich wydawnictwach i nieznajomość kryteriów, którymi kierował się minister, wielokrotnie zmieniając tę punktację. W pierwszej wersji „wartość” publikacji w wielu polskich czasopismach (praktycznie we wszystkich z mojej dyscypliny oraz z dyscyplin pokrewnych) ustalona była na 20 punktów. Z uwagi na późniejsze zmiany pierwsza wersja punktacji wydawała się najbardziej sprawiedliwa, bowiem – mimo wielu kontrowersji – nie stawiała naszych periodyków na równi z prestiżowymi czasopismami zagranicznymi. Dziś mamy taką sytuację, że wiele polskich średnich lub słabych czasopism ma punktację taką samą, a nawet wyższą od najlepszych światowych tytułów.
Obiektywnie należy stwierdzić, że czasopisma (akurat z mojej dyscypliny) ukazujące się w Polsce nie mogą rywalizować z najlepszymi światowymi wydawnictwami. Tymczasem po ubiegłorocznej, lipcowej i listopadowej korekcie, okazało się, że niektóre z nich z 20 punktów nagle otrzymały aż 140, a nawet 200 punktów. Kompletnie nie wiadomo, na podstawie jakich kryteriów nastąpiły te zmiany. Minister Czarnek dowartościował polskie czasopisma, dopisując im punkty na podstawie niejasnych reguł. Uznaniowość polityki przyznawania punktów sprawia, że środowisko naukowe jest zdezorientowane. Z jednej strony chcemy publikować dobrze, w prestiżowych tytułach, a z drugiej rozliczani jesteśmy z punktów. Ewaluacja zmusza nas, przepraszam za kolokwializm, „do robienia punktów” dla dobra dyscypliny, uniwersytetu, a niekoniecznie do umiędzynarodowienia badań.
Ostatni ruch ministra Wieczorka niewiele zmienia. Faktem jest, że obniża – na szczęście – punktację różnym „egzotycznym” czasopismom, a także polskim tytułom, eliminując w ten sposób 200-punktowe periodyki, które obiektywnie nie zasługują na to, by mieć tyle samo lub więcej punktów niż najbardziej prestiżowe i specjalistyczne zagraniczne czasopisma. Jednak, niestety, ze zjawiskiem, nazwijmy to nietransparentnego zrównania czasopism zagranicznych i polskich, mamy do czynienia także teraz. Nadal całkiem sporo tytułów ma 140 i 100 punktów – i na dobrą sprawę nikt nie wie, na jakiej podstawie są tak wyceniane, a inne – np. o lepszej cytowalności – na to nie zasługują. Uważam, że nadal część badaczy – szczególnie tych reprezentujących nauki humanistyczne i społeczne – w zamian za ryzyko długich i wymagających prób publikowania w najlepszych journalach na świecie będzie koncentrować się na zbieraniu punktów w polskich czasopismach, bo tak szybciej i łatwiej, a także efektywniej dla dyscypliny. Istnieje potrzeba zrewidowania całej listy i być może powrotu do dwóch – zagranicznej i krajowej, ale wtedy należałoby zmienić również reguły I kryterium ewaluacji.
Wpadliśmy w pułapkę systemu, który wymusza na nas „wyrabianie punktów”. W tym chaosie czasem pójście na skróty i publikacja w czasopiśmie drapieżnym wydaje się optymalnym rozwiązaniem. Ale tylko pozornie. Dlatego bardzo podobają mi się działania Uniwersytetu Ekonomicznego w Poznaniu, gdzie pokazano, że nie należy nagradzać zachowań wątpliwych etycznie.
Z drugiej strony, zdarzają się wydawnictwa, które mają w swojej ofercie zarówno tytuły mogące uchodzić za drapieżne, jak i poprawnie prowadzone. Dlatego tak ważne jest uświadamianie, uwrażliwianie i rozmawianie na ten temat. Zwłaszcza młodzi naukowcy powinni wiedzieć, że budowanie swojej kariery naukowej publikacjami na skróty nie jest najlepszym pomysłem. Po pierwsze – to, co już powiedziałam – wydajemy publiczne pieniądze na rzecz wydawcy, który prowadzi nie do końca transparentną działalność. Po drugie, szkodzimy całemu środowisku naukowemu. Polscy naukowcy nie chcą być postrzegani jako ci, którzy publikują byle gdzie i byle jak. I trzecia rzecz: uważam, że komisje przyznające stopnie i tytuły naukowe powinny mieć na uwadze nie tylko liczbę punktów przyznanych za publikacje, ale też ich jakość i to, gdzie się ukazały.
Jestem zwolenniczką rozwiązania, które przyjęliśmy na Wydziale Nauk Politycznych i Dziennikarstwa UAM. Umówiliśmy się, że dziekan nie będzie finansował publikacji, które mają ukazać się w wątpliwych naukowo tytułach. Staramy się też nie premiować kolegów, którzy publikują w takich periodykach. Natomiast najlepszym rozwiązaniem jest uwrażliwianie i uświadamianie zagrożeń, jakie niosą ze sobą czasopisma drapieżne. Tym bardziej bardzo mnie cieszy, że Polskie Towarzystwo Nauk Politycznych, któremu przewodniczę, już w 2022 roku przyjęło stanowisko w sprawie tzw. predatory journals. Apelujemy, by prace publikowane przez przedstawicieli naszej dyscypliny wydawane były w czasopismach przestrzegających wysokich standardów etycznych oraz oceny eksperckiej. Mam nadzieję, że takie działania zagwarantują systematyczne podnoszenie jakości badań i publikacji naukowych.
MZ, MK, www.uniwersyteckie.pl
Proszę o wyjaśnienie, które to są polskie czasopisma naukowe?
Czy te których wydawcą jest polski wydawca (zarejestrowany w KRS) czy może wydawane w języku polskim, lub te , które nie mają CiteScore lub IF?
A a może jeszcze jakieś inne kryterium.
Aktualnie bardzo dużo czasopism przeszło na publikowanie prac w języku angielskim, a do tego prawie wszystkie publikują prace w Internecie zwłaszcza czasopisma z nauk inżynieryjno-technicznych, rolniczych. Dlatego też wg mnie nie liczy się wydawca a jakość artykułu bo to że zacne gremium się zbierze i określi, że jakieś czasopisma są drapieżne to nie oznacza że nie ma w nich wartościowych prac, które są czytane i cytowane przez naukowców z całego świata.
Drodzy czytelnicy i dysputanci,
moim zdaniem, te wszystkie te indeksy: IF, SNIP, SJR odnoszą się de facto do rangi czasopisma, czyli przedmiotu sprawy, a nie do podmiotu, czyli autora pracy i jego kunsztu
"Cytowalność" danej pracy nie jest odzwierciedleniem jej wartości. i nigdy nie będzie. W wielu przypadkach wydawcom chodzi tylko o kasę.
1. Wracam do sprawy liczby autorów w pracy, oceny ich dorobku i płatności za publikację (4 osoby na 1l wody, to zaledwie 0,25l na każdego, a nie 2 czy 4 litry.
2. Do tej pory, wszystkie, te dane indeksowe nie mają wpływu na naturalny (bardziej obiektywny) rozwój kariery naukowej w Polsce, bo brak jest de facto w wielu jednostkach i komisjach, oficjalnych minimów wymagań awansowych. Prace naukowe czy upowszechniające wiedzę (przeglądówki), to nie tylko publikacje z IF uwzględnianym przez Scopus, WoS itp... ale i recenzowane książki czy monografie spoza listy dawnego MEiN (a te też powinny mieć znaczenie awansowe, np. w procesie dydaktycznym).
3. Brak oddzielenia PAN (i jego zreformowania) od uczelni wyższych, których priorytetem jest kształcenie (tak powinno być, a nie jest), skutkuje tym, co mamy obecnie.
A tak, już przy okazji, podczas reformy listy czasopism punktowanych, mam tu na myśli "konkurs ministerstwa", który dofinansował polskie czasopisma, aby je w wielu przypadkach "ucywilizować" nie był powszechnie znany (wniosek: kto się załapał, ten się nachapał). Ciekawe, co na temat przejrzystości takiego postępowania konkursowego, sądzą konstytucjonaliści prawni?
To prawda, że staliśmy zakładnikami tego systemu, ale także prawdą jest że sami naukowcy jego wymyślili. Natomiast w mojej opinii tu ogromną cegłę dołożyli przedstawiciele nauk społecznych. Ogromna liczba recenzji (projektów, publikacji, doktoratów, nagród, opinii) sprawiła że zaproponowano sztuczną listę do porównania dorobku publikacyjnego z różnych dyscyplin, a przy okazji wykorzystaną w ewaluacji. Nie wiem kto to w ogóle wymyślił najpierw próg 50pkt, a później 200pkt. Jak już, to dlaczego nie 10 lub 100, co jest raczej naturalne. Jak pokazuje czas to niema w tym żadnego sensu oprócz różnych dyskusji i wymiany zdań na wzór rozmów o polityce czy o piłce nożnej. W większości wszyscy podświadomie wiedzą jak powinno być bez różnych wskaźników i algorytmów. Lista „ministerialna” tworzona była przez różne zespoły z różnych dyscyplin, a to oznacza m.i. że jedno czasopismo jest przypisywane wielu dyscyplinom. Zakładam, że przy tym pracowały naprawdę eksperci w swoich dziedzinach. A więc tak się stało, że jedno pismo dla jednej dyscypliny jest prestiżowe, a dla drugiej jest słabe a punktacja jest identyczna. Także ilościowy IF prestiżowych czasopism dla matematyków jest zupełnie inny niż prestiżowy top np. dla medyków. Moim zdaniem system na zasadzie list/algorytmów w przypadku porównania publikacji jest zbędny bo każdy w swojej dziedzinie może sprogować na trzy poziomy (znakomity, dobry i słaby), jeżeli tam publikował. Być może za jakiś czas, subwencja na badania naukowe zniknie (na wzór bogatych krajów) i wtedy ewaluacja będzie zbędna i zastąpiona przez system grantowy. Alfabet poewaluacyjny, który już teraz nic nie znaczy w skali międzynarodowej, zniknie na amen.
Naprawde, nie rozumiem, o co jest tyle krzyku w tej liscie czasopism.
Wystarczy uznac, ze IF danego pisma jest wazny, a potem zastosowac kategorie dziedzin naukowych tak, jak sa one opisane w Clarivate, poniewaz oczywiste jest, ze inne sa zasiegi IFs dla czasopism w neurologii i inne w ekonomii. I tym kierowac sie przy ewaluacji. Nota bene, dobrze zrobiona ewaluacja opiera sie nie tylko na publikacjach.
Tak, IF pisma z definicji nie powinien miec wplywu na jakosc oceny konkretnego naukowca, ale do takich szczegolow to trzeba najpierw dorosnac. Polska nie jest na tyle rozwinietym krajem, zeby mogla sobie na tym etapie pozwolic odejsc od IF jako miarki tego, co robia i co publikuja naukowcy polscy. Przyjdzie na to czas pozniej, kiedy juz sytuacja w nauce polskiej sie poprawi.
Dopiero takie podejscie pokaze, ze moze jednak warto miec jedna publikacje w Nature Communications, niz piec publikacji w przedziwnych czasopismach o IF 2.
Mozna tez zastosowac inne indykatory, to nie musi byc IF, ale powinno to byc cos, czego nie ustalaja co roku od nowa Wielcy Naukowcy Polscy, a minister bezmyslnie podpisuje, tylko sa to wskazniki ustalane zupelnie niezaleznie od korupcjogennych spotkan misiow z kolka wzajemnej adoracji.
H-indeksy czy IF czasopisma nie są też dobrymi wskaźnikami. Dobrze pokazuje to historia węgierskiej noblistki za mRNA, która nie wygrywała grantów, która miała kłopoty z publikacjami, aby się ukazały na wcześniejszym etapie, która była przytulana do zespołów badawczych innych, aby mieć środki finansowe na swoje badania i która miała zostać wyrzucona z uczelni za brak wyników lub pozostać z obniżoną pensją.
Tak dokladnie, jak pisze powyzej. IF nie zostal opracowany dla oceny naukowcow, tylko dla oceny wplywu danego czasopisma w konkretnej dziedzinie naukowej. Problem z tym, ze wieloskladnikowa prace naukowa jest bardfzo trudno ocenic i IF tuatj moze pomoc. Nie musi to byc IF, moga bycv ine wskazniki.
Natomiast historia Katalin Kariko jest dosyc symptomatyczna i wymowna jako przyklad tego, jak trudno niektore pomysly przebijaja sie w skostnialym swiecie nauki. I ta "konserwatywnosc" ma oczywiscie wplyw na przebieg kariery naukowcow. Gdyby bylo wiecej otwartosci przy ocenie grantow i wiecej pieniedzy na granty, byc moze historia Kariko potoczylaby sie inaczej. Zreszta jest to doskonaly przyklad na to, jak trudna jest ocena pracy naukowej i ewaluacja naukowcow.
Obecny system postrzegany jest jako odbiegający od rzeczywistości (niesprawiedliwy) więc tyle szumu.
A co z tego ma podatnik?
Lepiej prowadzone badania naukowe. Tak jak w innych krajach, w tych czesciach swiata, ktore nazywamy "rozwinietymi".
A Nobel za mRNA pokazuje inną ścieżkę (patrz historia noblistki).
Wycinek:
Ich współpraca zaczęła się w 1998 roku i zaowocowała odkryciem, jak modyfikować RNA, by mogło być wykorzystane w celach terapeutycznych. Artykuł na ten temat opublikowali w 2005 roku. Zyskał on jednak niewiele uwagi w środowisku naukowym. Z czasem założyli startup, którego celem miało być opracowywanie leków wykorzystujących RNA. Jednak uczelnia sprzedała prawa do ich metody firmie CellScrypt.
Jakby w latach 1980-2000 stosować według Noblistki reguły oceny według wykazu czasopism naukowych w Polsce, to dawno by ona straciła pracę i ani szczepionki ani Nobla by nie było.
Chodzi o lata od 1980 do 2005.
Naprawde, trzeba troszke spojrzec w szczegoly i rozumiec, o czym sie mowi.
Cytat: "Artykuł na ten temat opublikowali w 2005 roku. Zyskał on jednak niewiele uwagi w środowisku naukowym" - artykul, o ktorym mowa, zostal opublikowany w pismie "Immunity". To jest jedno z najwazniejszych w swiecie tytulow w immunologii. Obecnie ma IF 32.4, w roku publikacji IF wynosil ponad 15. Tak wiec jesli konkretnie ta praca mialaby byc ewaluowana wedlug IFs, to zostalaby oceniona bardzo wysoko. Nie ma tutaj zadnego problemu. Przytoczony przyklad jak najbardziej przemawia za zastsowaniem podejscia do ewaluacji, o ktorym pisze powyzej.
BARDZO wazne, zeby wiedziec, ze (1) nie tylko publikacje powinny byc oceniane przy ewaluacji, (2) nie istnieje system ewealuacji, ktory jest perfekcyjny; kazdy sposob bedzie mial jakies slabosci i ulomnosci. Chodzi jednak o to, zeby jak najbardziej zblizyc sie do tego, co aktualnie uwaza sie za "dobra nauke".
A moze rozeslac ankiety do wszystkich pracownikow naukowych z kazdej dyscypliny (od doktorantow do czlonkow rzeczywistych PAN), z prosba o wskazanie czasopism z danej dyscypliny iprzyporzadkowanie im punktow wg. wlasnej oceny. A potem zostanie srednia. Sposob w 100% demokratyczy, a przy tym bedzi mozna ocenic poziom naszych "naukowcow".
A czy nie lepiej calkowicie odejsc od punktozy ? Sa inne kryteria bardziej wlasciwe nauce. Sam publikuje i za 200 lub 140 w bardzo renomowanych (co najmniejj raz w roku), za 140 w mdpi oraz w toznych krakowych od 20 do 100,a takzematerialac konferencyjnych najrozniejszego poziomu. Jednym slowem publikuje gdzie chce, bawie sie publikacjami, a zarazem pamietajac ze przy kazdej publikacji jest moje nazwisko. Publikacyjny wyscig szczurow i nagrody rektorskie nigdy mnie nie interesowaly, choc z przyjemnoscia je wydawalem.
Dziękuję, w pełni zgadzam się. Sytuacja wygląda tak że za 12 stron w greckim periodyku / napisanie ,tłumaczenie wg wymagań wydawcy ok 5-6 dni / a autorska monografia/napisanie rok, półtora / tak samo 100 punktów - Chore od momentu ministerialnego poczęcia !
W pełni zgadzam się z wnioskami z artykułu. W praktyce jednak całe systemy zarządzania kadrami na uczelniach zostały podporządkowane ewaluacji, a premiowane są wyłącznie punkty i osoby, które takie punkty produkują. Władze uczelni i wydziałów tworzą systemy motywacyjne, które takie zachowania premiują. To, co wydaje mi się jednak największym problemem, to szybkie i gładkie promocje "producentów punktów" na kolejne stopnie i tytuły naukowe. W wielu recenzjach nie pojawia się najmniejsza refleksja nad meritum działalności naukowej, natomiast większość recenzji zajmują wyliczenia punktów, "wskaźniki punktowego rozwoju naukowego" itp. Jest to tak naprawdę straszne w sytuacji, gdy kolejni wypromowani w ten sposób doktorzy habilitowani i profesorowie będą reprodukować tę praktykę w swoich recenzjach i kolejnych postępowaniach naukowych. W ten sposób "zły pieniądz" wypiera z rynku "dobry pieniądz", a cały system ulega degradacji. Pozostaje tylko pytanie, czy tę dramatyczną tendencję można odwrócić... .
Uznane za drapieżne winny być usunięte z listy czasopism punktowych.
Nie tylko sam proces publikacyjny , nagród, bo i mamy nadawanie tytułów habilitacji i profesorów w oparciu o drapieżne czasopisma, bo skoro je Ministerstwo dopuszcza, to nie można ich podważać przy nadawaniu stopni, ani obniżać ich rangi.
No to chyba trzeba jeszcze ustalić co to znaczy "drapieżne czasopismo", bo póki co na samych ogólnikach lecimy. Jak ma być transparentnie, to trzeba opracować algorytm nadawania łatki "drapieżne" i tyle. Może tak:
1. "Średni czas od wysłania do publikacji < 90 dni" = drapieżne (wyleci większość MDPI)
2. "APC > 2000 jednostek walutowych" = drapieżne (wyleci dodatkowo większość Springerów, Elsevierów)
I możemy sobie publikować w czasopismach polskich, w których redaktorzy naczelni wrzucają po 3 własne publikacje na wydanie (a wydań kilkanaście w roku). W każdej z tych publikacji grube kilkadziesiąt (!) własnych pozycji w bibliografii, cytowanych (albo i nie) w tekście hurtem. Co prawda już tylko za 70p, ale to i tak za dużo na taką redaktorską hucpę, nastawioną na pompowanie własnego indeksu h.
A pewnie, że trzeba, a na przykład : IF czasopisma przez liczbę artykułów albo h-indeks przez liczbę wszystkich współautorów wszystkich artykułów i może to być z 4 letniego poprzedniego okresu ewaluacyjnego albo z dwóch takich okresów i tak powstanie lista uszeregowania, którą można zagregować w grupy mniejsze czy większe i wtedy się okaże czy 20,40, 70, 100, 140 i 200 to słusznie wyznaczone progi punktowe, bo dla mnie ta punktacja wygląda bardzo dziwnie. Trzeba też przejść na indywidualne przeliczanie czyli liczba punktów za artykuł w czasopiśmie przez liczbę współautorów przy ocenianiu indywidualnego pracownika, bo tak mamy spółdzielnie lub kupowanie sobie miejsca pośród współautorów.
Zgadza się. Jasny algorytm wyliczania punktów + jasny algorytm klasyfikacji akceptowalności czasopisma ze względu na praktyki biznesowe (tfu, edytorskie).
Nawet osobno dla czasopism polskich i zagranicznych (można wręcz tak zrobić, by z punktacji wynikało, który algorytm był uwzględniony, np. punkty podzielne bez reszty przez 20 - czasopismo zagraniczne, niepodzielne bez reszty - polskie).
Z góry ustalony podział (np. TOP5% -200p, TOP10% - 140p, TOP20% - 100p, reszta nieważna bo i tak szefostwo nie akceptuje marnowania slotów na publikacje <100p).
Co roku automatyczna aktualizacja według algorytmu.
Podział punktów na autorów (najlepiej - według obowiązkowych proporcji deklarowanych w CREDIT, dlaczego autor mający 90% wkładu w pracy podpisanej przez 5 ma dostać tylko 20% punktów, a nie 90%?).
Jak najwięcej algorytmów, jak najmniej uznaniowości.
Dziwi mnie ta chęć ucieczki od algorytmów, wzorów matematycznych wyceniających indywidualną pracę naukowca. Wszakże nauka to opis rzeczywistości wzorami, algorytmami.
Ale wtedy działa IF na liczbę artykułów, który to wskaźnik podnosi wycenę artykułu i raczej tak nie będzie jak Pan pisze Panie Stanisławie.
Algorytmy algorytmami, ale większym problemem dla nauki jest to, że bardzo dobre czasopisma zostały przejęte przez oligopol wydawniczy i są publikowane dla zysku. A zysk jest ogromny: https://www.theguardian.com/science/2017/jun/27/profitable-business-scientific-publishing-bad-for-science. Tym trzeba się zająć (ponadnarodowo, sama Polska tego nie załatwi), natomiast w cyzelowaniu algorytmów nie pokładałbym zbyt dużej nadziei. Dla przykładu, przeliczanie „liczba punktów za artykuł w czasopiśmie przez liczbę współautorów” kończy się tym, że jednoosobowy tekst napisany w tydzień do lokalnego czasopisma może zostać wyceniony wyżej niż trzyosobowa publikacja przygotowywana przez wiele miesięcy w piśmie z bardzo wysokim wskaźnikiem odrzuceń. Nie ma takiego systemu algorytmicznego, którego nie można ograć, i to jest już dobrze rozpoznane w badaniach nad wskaźnikami.
Ktoś kto ma deklarowane 10%, to tak jakby 10 osób wpadło na pomysł co jest mało realne.
Dlaczego ma tylko 10% ? Dziwne ? Chodzi o wysiłek czasowy ? Niestety ryzyko współpracy. Jak się decydujesz współpracować to znaczy że dzielisz punkty według liczby współautorów.
Co do punktacji 20,40, 70, 100, 140 i 200.
200 pkt za artykuł rocznie to jest za około 1 000 godzin rocznie
czy artykuł za 20 pkt powstanie w ciągu 100 godzin - wątpliwe bardzo
rozpiętość więc 1:10 jest za duża
chyba jest to 1: 2 lub 1: 2.5, ale ciekawy jestem ile to wyjdzie z porównania sumarycznej liczby h-indeksu w ciągu roku na liczbę wszystkich współautorów wszystkich artykułów
co więcej podział sumarycznej liczby h-indeksów przez sumę wszystkich współautorów wszystkich artykułów da nam wartości dyskretne składające się w przybliżeniu coś ciągłego i można wtedy wyróżnić dla czasopism punktację na przykład 40, 50, 60, 70, 80, 90, 100 co bardziej odpowiada rzeczywistości niż jakieś wydumane nie wiadomo skąd 20, 40, 70, 100, 140 i 200 (rozpiętość 1 : 2.5)
Dlugosc wzoru nie powinna byc krotsza niz 2 linijki. Ponadto, wzor bez calek i pochodnych ulamkowych bedzie nieprecyzyjny o nie uwzgledni calej zlozonosci problemu.
Ktoś kto ma deklarowane 10%, to tak jakby 10 osób wpadło na pomysł co jest mało realne.
Dlaczego ma tylko 10% ? Dziwne ? Chodzi o wysiłek czasowy ? Niestety ryzyko współpracy. Jak się decydujesz współpracować to znaczy że dzielisz punkty według liczby współautorów.
Co do punktacji 20,40, 70, 100, 140 i 200.
200 pkt za artykuł rocznie to jest za około 1 000 godzin rocznie
czy artykuł za 20 pkt powstanie w ciągu 100 godzin - wątpliwe bardzo
rozpiętość więc 1:10 jest za duża
chyba jest to 1: 2 lub 1: 2.5, ale ciekawy jestem ile to wyjdzie z porównania sumarycznej liczby h-indeksu w ciągu roku na liczbę wszystkich współautorów wszystkich artykułów
co więcej podział sumarycznej liczby h-indeksów przez sumę wszystkich współautorów wszystkich artykułów da nam wartości dyskretne składające się w przybliżeniu coś ciągłego i można wtedy wyróżnić dla czasopism punktację na przykład 40, 50, 60, 70, 80, 90, 100 co bardziej odpowiada rzeczywistości niż jakieś wydumane nie wiadomo skąd 20, 40, 70, 100, 140 i 200 (rozpiętość 1 : 2.5)