O jak najszybsze zmiany w wykazie czasopism apelują towarzystwa naukowe związane z naukami o polityce i administracji, naukami o komunikacji społecznej i mediach oraz stosunkami międzynarodowymi.
Na początku roku minister Dariusz Wieczorek ogłosił nowy wykaz czasopism naukowych i recenzowanych materiałów z konferencji międzynarodowych. W zasadzie to przywrócenie listy, którą rekomendowała Komisja Ewaluacji Nauki w czerwcu ubiegłego roku. Usunięto zmiany, które zostały dodane później przez ministra Przemysława Czarnka, a nie były uwzględnione w uchwale KEN. W wywiadzie dla FA szef resortu poinformował że podjęto już prace nad zasadami tworzenia zupełnie nowej listy.
Pod koniec stycznia Polskie Towarzystwo Nauk Politycznych, Polskie Towarzystwo Komunikacji Społecznej, Polskie Towarzystwo Studiów Europejskich, Polskie Towarzystwo Studiów Międzynarodowych i Polskie Stowarzyszenie Badań Wspólnoty Europejskiej PECSA przyjęły wspólne stanowisko w sprawie rekomendowanych zmian w procedurze ustalania nowego zestawienia.
Uważamy, że istnieje konieczność opracowania nowego wykazu w oparciu o obiektywne kryteria z uwzględnieniem rzeczywistej jakości i roli poszczególnych czasopism naukowych dla konkretnych dziedzin (szczególnie nauk społecznych i humanistycznych) i dyscyplin naukowych – czytamy w piśmie.
Jego autorzy zauważają, że obecnie na liście znajduje się kilkaset tytułów czasopism oraz nazw wydawców podejrzanych o tzw. drapieżne praktyki. Za niepokojące uznają, że na tej podstawie oceniana będzie jakość pracy naukowej uczelni, konkretnej dyscypliny i poszczególnych naukowców. Dlatego postulują podjęcie pilnych działań zmierzających do przygotowania nowego wykazu, który będzie się opierał na transparentnych kryteriach, uwzględniających wartość czasopism dla środowiska naukowego.
Pragniemy również zwrócić uwagę na potrzebę wprowadzenia odmiennego traktowania czasopism krajowych oraz czasopism zagranicznych – te drugie bowiem o wiele częściej niż czasopisma polskie reprezentowane są w bazach Web of Science oraz Scopus. W tej sytuacji ocena polskich czasopism powinna opierać się w większej mierze na ocenie eksperckiej oraz na danych bibliometrycznych – sugerują.
Domagają się także usunięcia z listy periodyków, które podejrzewane są o drapieżne praktyki i pokrywają się z wykazami predatory journals. Naukowcy skupieni w towarzystwach, które przyjęły wspólne stanowisko, nie mają wątpliwości, że uwzględnianie tych tytułów (szczególnie wysoko punktowanych) szkodzi jakości badań naukowych i sprawia, że proces ewaluacji nauki w Polsce „promuje” publikowanie w wydawnictwach stosujących niskie standardy etyczne.
W ostatnim punkcie wskazują konieczność powołania zespołów eksperckich, które będą odpowiedzialne za przygotowanie wykazu. Miałyby to być osoby należące do komitetów Polskiej Akademii Nauk oraz eksperci rekomendowani przez te organizacje.
Biorąc pod uwagę, że wykaz czasopism naukowych i recenzowanych materiałów z konferencji międzynarodowych jest jednym z kluczowych narzędzi ewaluacji jakości działalności naukowej, działania zmierzające do racjonalizacji wykazu czasopism uważamy za niezwykle ważne i wymagające podjęcia natychmiastowych kroków – konkludują autorzy stanowiska, wyrażając jednocześnie gotowość do włączenia się do dyskusji i prac w tym zakresie.
MK
Stanowisko w sprawie rekomendowanych zmian w procedurze ustalania nowego wykazu czasopism naukowych
Deapiezne czasopisma wydawane np. przez MDPI to patologia. Niedoważanie polskich czasopism uwazam za korzystne bo w wiekszosci artykuły prezentuja skandalicznie niski poziom.
Na złą sławę MPDI pracuje kilka, może kilkanaście czasopism z ponad 400, ale modne jest "jechanie" po MDPI, to się jedzie. Tymczasem niektóre czasopisma tego wydawcy mają po 300-400 publikacji w roku i 4 (albo i 5, jeśli doliczyć edytora akademickiego) na pierwszym etapie recenzji. Takiej liczby recenzentów w jednym etapie nie spotkałem w żadnym czasopiśmie Springera czy Elseviera.
Przy okazji - ciekawe, że nikt się nie czepia rasistowskich czasopism np. z Elseviera, których edytorzy błyskawicznie, pod bzdurnymi pretekstami, odrzucają zgłoszenia z innych "kręgów kulturowych", że to tak eufemistycznie ujmę.
Czy próbował Pan kiedyś opublikować artykuł w czasopiśmie z wydawnictwa MDPI? Są tam czasopisma w których naprawdę trzeba mieć wyniki badań na najwyższym światowym poziomie żeby opublikować.
To, że mają sprawny system obsługi zgłoszeń nie oznacza, że nie działają zgodnie z obowiązującymi zasadami etycznymi.
A co do płacenia za OA bo to też częsty zarzut to większość czasopism z Elsevier, Springer Nature i innych tzw. "stajni" pobiera większe opłaty.
Lista predatory journals to jest po prostu śmiech na sali. Są tam czasopisma uznane w świecie nauki i jakby przyjrzeć się dobrze każdemu czasopismu to prawie wszystkie można by tam wpisać.
"Są tam czasopisma uznane w świecie nauki"
Prosiłbym o konkrety
Proszę spróbować opublikować np. w:
Biomolecules
Antioxidnats
3-4 recenzentów i podwójna kontrola zanim zostanie przyjęte do procedowania + oczywiście antyplagiat.
A tak na marginesie proszę o przykłady łamania etycznych zasad i publikowania złych artykułów w czasopismach z MDPI.
Dużo ludzie piszą na ten temat ale konkretów brak. Oczywiście ostatnio jakieś wypadło z SCOPUS i JCR ale to tak jak wypadają z tych baz czasopisma innych wydawców bo zawsze się trafi czarna owca tyle, że nie należy generalizować. A niestety większość piszących o tragizmie co do jakości w MDPI po prostu poddało się fali, gdyż wydawnictwo to zagroziło zmniejszeniem wpływów do kasy innych wydawnictw, które od lat doją naukę nie tylko polską i rozpoczął się czarny PR dla tego czasopisma.
Duże firmy wydawnicze niestety rządzą rynkiem i robią różnego rodzaju rankingi po to żebyśmy korzystali z ich usług i za to płacili.
Skala punktacji ma być ciągła wedle wybranej rozdzielczości, więc jak minimum 20 pkt, to co 20 pkt następna punktacja czasopism, a nie dziury tak jak dziś dziury między 70 a 100 czy 100 a 140 czy 140 a 200 pkt. i uwzględnienie czasochłonności skoro artykuł za 20 pkt pisze się wraz z przeprowadzonymi badaniami 200 godzin a ten najwyżej oceniany w 500 godzin (tak przypada w roku 50% udziału pracy naukowej na uczelniach) to rozpiętość mamy 2.5, więc skoro minimalna punktacja na przykład 40 pkt, to maksymalna nie więcej niż 100 pkt (rozpiętość 2,5).
Istnienie jakiejkolwiek listy (szczególnie w obecnej formie) nie ma najmniejszego sensu z następujących powodów:
- Cały czas powstają nowe czasopisma. Aby to uwzględnić, odpowiedni organ (komitet, rada) musiałby zbierać się regularnie.
- Możliwość jednoosobowego zarządzania listą jest co najmniej absurdalna
- Dotychczasowe komisje nie potrafiły sensownie przypisać punktów zarówno dobrym, jak i złym czasopismom (przypadki IF = 40 za 40 pkt i jednocześnie IF = 1.8 za 200 punktów w obrębie jednej dziedziny)
- około 40% czasopism na liście ma 20 pkt. Równie dobrze mogłoby ich tam nie być
- Członkowie komisji mają jawny interes w wysokiej punktacji niektórych czasopism
Jestem zdania, że zwyczajnie nie potrzeba żadnej (ani starej, ani nowej) listy czasopism dla ewaluacji nauki polskiej. Wystarczą kwartyle, impact factor i rozpoznawalność czasopisma - system wykazu czasopism działający tylko w Polsce i tylko dla polskich naukowców jest anachronizmem i nie jest potrzebny. Największe potęgi naukowe świata (np. USA, Niemcy, Japonia, Dania, Francja itd.) nie posiadają list i wykazów czasopism - tam, awanse, projekty, publikacje podlegają ocenie eksperckiej a nie punktozie jak w Polsce... Każda (nowa) lista czasopism będzie tylko i wyłącznie przyczynkiem do sporów, bo zawsze coś, komuś nie będzie się podobać... jak to w Polsce... obiektywna ocena ekspercka jest optymalnym rozwiązaniem
"Obiektywna" tak jak przy recenzjach/opiniach projektów NCN?
Czy w naszym kraju jest możliwa ocena obiektywna?
To tak jakby uznać że w RDN pisane są opinie/recenzje obiektywne. Niestety tak nie jest, o czym świadczy wypowiedź jednego z członków prezydium RDN, że opinie/recenzje są subiektywne.
Wiec w przypadku parametryzacji dyscyplin obiektywizmu oczekujemy gdy opinie pisałyby osoby z konkurencji (innych instytucji naukowych tez podlegających parametryzacji). `
W ostatniej ocenie mieliśmy tego próbkę odnośnie III kryterium. I najwięcej wniosków o ponowne rozpatrzenie było właśnie do tego kryterium, gdyż ocena ta często decydowała o kategorii naukowej a była subiektywna a nie obiektywna.
Nie podzielam mitycznego przeświadczenia, że wszystkie oceny eksperckie są subiektywne i że wszystko co się na tym opiera działa źle. Byłem/jestem autorem projektów finansowanych między innymi przez NCN, oceniałem dla NCNu, brałem udział w obradach panelu, miałem styczność z dawną CK i nową RDN - z moich globalnych doświadczeń wynika, że system ekspercki działa dobrze. Oczywiście ma Pan/Pani rację, że zdarzają się kiepskie recenzję i w NCNie i także w RDN, czy jakimkolwiek innym ciele naukowym - problem ten dotyka wszystkich krajów posiadających taki sposób recenzji projektu/dorobku itd. To nic dziwnego to tzw. "human factor". Czy lista czasopism i punktacja coś zmieni w tej materii? Nie sądzę, dlatego, że znowu, lista taka będzie przez kogoś arbitralnie ustalana (nawet jak to będzie n naukowców to co z tego? - każdy będzie pewnie widział tylko swoją perspektywę i tylko dążył do swoich racji). Moim zdaniem zatem lista nie pomoże, będzie tylko przeszkadzać i doprowadzać do kolejnego wyścigu po punkty. Ani stara lista, ani ta ostatnia i przedostatnia, ani żadna inna nie była doskonała, każda z nich miała braki. Przecież każdy naukowiec wie gdzie najlepiej w jego/jej dyscyplinie publikować i jakie wybierać czasopisma. Wszyscy znamy dobre i słabe czasopisma z naszego zakresu zainteresowań badawczych... Może kwestią do dyskusji jest jak wybierać ekspertów do oceny danego wniosku do RDNu czy NCNu? Może powinniśmy pomyśleć ile takich ekspertyz powinien dany wniosek zawierać? Może powinien być dobry tryb odwoławczy (dobry=merytoryczny) i wtedy ten system działałby lepiej. To że każdy z nas otrzymał kiedyś kiepską recenzję/opinię eksperta, nie oznacza jeszcze, że całościowo system ekspercki jest zły. Taki argument można podnieść w przypadku każdego systemu oceniającego cokolwiek - błędy się niestety zdarzają...
Ogólnie ujmując zgadzam się gdyż dużo w tym racji a zwłaszcza co do list czasopism bo co do oceny eksperckiej to za długo jestem w tym systemie żebym nie wiedział jak to funkcjonuje zwłaszcza przy mizernych środkach finansowych, ale to już inny problem (uczciwości i etyki naukowców).
Jak dla mnie trzeba dać sobie odpowiedź na pytanie: Po co jest ocena parametryczna i czy w ogóle jest potrzebna?
Jeśli do uprawnień akademickich (doktoryzowanie i habilitacje) to lepiej załatwić to minimum kadrowym i wtedy nie mamy tego szumu całego dotyczącego kategorii dyscyplin.
Jeśli do rozdysponowania subwencji to myślę, że tutaj też algorytm można oprzeć na innych zmiennych lub podnieść wagę aktualnie uwzględnianych takich jak ilość i jakość kadry gdyż praktycznie środki z subwencji są przeznaczane na utrzymanie potencjału badawczego a nie jego rozwój (tak zresztą pisze w rozporządzeniu w którym kwoty są rozdysponowywane na poszczególne jednostki. Potrzymanie potencjału to znaczy że każda instytucja otrzymuje tyle żeby mogła przeżyć bez stresu do następnego roku nie tracąc na potencjale badawczym i naukowym ale też i nie zyskując. Zysk/wzrost potencjału to fundusze pozyskiwane w drodze konkursowej.
Więc może ta cała parametryzacja jest niepotrzebna i stwarza chaos powodując stratę energii, czasu i pieniędzy na działania z nią związane, które niewiele wnoszą do poprawy jakości badań i publikacji.
Oby decydenci nie publikowali w drapieżnych czasopismach.
Punktacja 0 lub mocno obniżona dla drapieżnych lub tych, gdzie jest dużo publikacji zagranicznych ze współautorstwem polskim.
Dodatkowo dzielić punkty na liczbę współautorów, gdyż 1 czy 2 współautorów polskich przy innych obcokrajowcach nie powinno mieć żadnej premii w postaci 100% punktów i podobnie dla tych z różnych dyscyplin. Obecne zasady zachęcają do drogi na skróty.
W ocenie dyscyplin należy też wziąć pod uwagę liczbę dydaktyków, czyli im więcej dydaktyków to mniej punktów z punktów wypracowanych, czyli mnożenie przez zwykła proporcję liczby naukowych i dydaktyczno-naukowych do ogólnej liczby zatrudnionych w dyscyplinie.