Aktualności
Sprawy nauki
11 Marca
Źródło: archiwum prywatne
Opublikowano: 2024-03-11

Natalia Letki: Nie jesteśmy zakładnikami punktozy

Raport OPI w połączeniu z danymi Scopus i Eurostat pozwala zweryfikować kilka mitów dotyczących polskiej nauki. Wbrew powszechnie panującemu przekonaniu nie jesteśmy zakładnikami punktozy i publikujemy coraz mniej, a nie coraz więcej. W dodatku na tle innych krajów UE publikujemy mało, a nasze prace są bardzo słabo umiędzynarodowione i rzadko cytowane. Przedstawione dane sugerują też, że awanse nie są powiązane ze wzrostem jakości prac, ponieważ profesorowie nie publikują znacząco lepiej niż doktorzy – komentuje dla FA dr hab. Natalia Letki z Wydziału Nauk Politycznych i Studiów Międzynarodowych Uniwersytetu Warszawskiego.

Raport „Nauka w Polsce 2023” przygotowany przez Ośrodek Przetwarzania Informacji wzbudził duże zainteresowanie w środowisku naukowym i w mediach. Dane mówiące o tym, że w okresie 2018–2022 znaleźliśmy się w europejskiej czołówce pod względem liczby opublikowanych prac naukowych (6 miejsce w UE), a na ostatniej pozycji, jeśli chodzi o ich naukowy wpływ (mierzony wskaźnikiem cytowalności CWFI) i umiędzynarodowienie (odsetek prac w międzynarodowym współautorstwie), stały się podstawą gorących dyskusji w większości konkludujących, że polscy naukowcy są zakładnikami systemu. Publikują bardzo dużo i bardzo słabo, zaś przyczyną takiego stanu rzeczy jest zły system ewaluacyjny oparty na punktach i slotach, wymuszający publikowanie dużej liczby prac, co odbywa się kosztem ich jakości. W skrócie: polska nauka i polscy naukowcy są ofiarami szalejącej punktozy.

Odniosę się do tych kwestii w oparciu o dane zawarte w samym raporcie OPI, jak również zaczerpnięte z baz Scopus (SciVal) i Eurostat (obecnie dostępną wersję polskiego opracowania okrojono w stosunku do pierwotnej o część danych sytuujących Polskę na tle Europy – dop. red) oraz omówię kwestię, która moim zdaniem jest równie ciekawa i znacząca, a mianowicie publikacyjnego wymiaru kariery naukowej w Polsce. Posługuję się tu przyjętymi wskaźnikami bibliometrycznymi bez rozważania, czy np. rzeczywiście publikacje w wysoko punktowanych czasopismach są zawsze lepsze od publikacji w nisko punktowanych (oczywiście nie są) i czy cytowalność zawsze jest wskaźnikiem jakości (oczywiście nie zawsze), ponieważ zastrzeżenia te dotyczą wszystkich państw i grup naukowców i dlatego nie są przeszkodą dla międzynarodowych czy nawet wewnątrzkrajowych porównań.

Czy polscy naukowcy są bardzo produktywni?

Scopus podaje liczbę publikacji w polskiej nauce w latach 2018–2022 wynoszącą 296 408, co daje nam 6 miejsce w Europie, za Niemcami (1 013 180), Włochami (733 863), Francją (648 364), Hiszpanią (579 973), Holandią (356 427), co w dyskusjach na temat raportu OPI jest przedstawiane jako dowód na wysoką produktywność naszych naukowców. W opracowaniu nie wspomniano jednak, że pod względem liczby zatrudnionych badaczy jesteśmy czwartym krajem w UE (105 998 w 2021 według Eurostat – dla celów porównawczych korzystam z kategorii „Higher education” tego źródła zamiast z danych OPI), po Niemczech, Francji i Hiszpanii.

W omawianym okresie Polacy opublikowali średnio 2,8 pracy na osobę, co sprawia, że zajmujemy w unijnym gronie 5 miejsce, ale od końca (za nami są jeszcze Węgry, Słowacja, Łotwa i Litwa). Publikujemy zatem znacznie mniej niż większość krajów kontynentu – dla przykładu w Holandii wskaźnik ten wynosi 11,47, na Cyprze – 11,07, we Włoszech – 8,83, w Słowenii – 8,07, w Luksemburgu – 7,72, a w Szwecji –6,25 (Wykres 1 pod tekstem). Co więcej, jeżeli wziąć pod uwagę, że nasze współczynniki umiędzynarodowienia i cytowalności są najniższe w UE, to nie tylko publikujemy (relatywnie) mało, ale też słabo, co jest zbieżne np. z naszą pozycją w Europie w zakresie pozyskiwania prestiżowych grantów ERC. W latach 2018–2022 pozyskaliśmy ich 0,43 na 1 tys. zatrudnionych naukowców, podczas gdy liderzy – Holandia, Francja, Niemcy i Hiszpania – odpowiednio 18,69; 4,81, 3,64 i 3,03.

Czy reforma Gowina, sloty i punkty wymusiły wzrost „produkcji” publikacyjnej?

Jednym z istotnych elementów tzw. reformy Gowina z 2017 roku była modyfikacja zasad ewaluacji działalności jednostek naukowych, przy czym za kluczowe należy uznać zmiany punktacji czasopism na liście A, likwidację tzw. listy B i ograniczenie liczby publikacji sprawozdawanych przez pracowników ocenianych jednostek poprzez zastosowanie tzw. slotów (w liczbie 4 na osobę) i algorytmicznej penalizacji za tzw. liczbę 0 (czyli pracowników, którzy w danym okresie nic nie opublikowali). Miało to na celu zwiększenie umiędzynarodowienia badań (w efekcie zlikwidowania zachęt do publikowania po polsku w czasopismach krajowych) i ograniczenie liczby publikacji, by można się było skoncentrować na ich jakości.

Od tego czasu sama lista stała się wielokrotnie narzędziem używanym ad hoc w celu zabezpieczenia interesu niektórych grup, zaś naukowcy skarżą się na konieczność sprawozdawania aż tylu (czterech lub więcej, w zależności od struktury współautorstwa) publikacji w każdym okresie ewaluacyjnym (czyli raz na 4 lata). Jednocześnie wiele jednostek wprowadziło system zachęt finansowych do zdobywania jak największej liczby punktów za publikacje, przy czym głównym sposobem ich pomnażania stały się artykuły w tzw. czasopismach drapieżnych (szeroko dyskutowano te kwestie na łamach FA, m.in. P. Hensel MDPI w ewaluacji, J. Szczepaniak MDPI – problem bez rozwiązania?, E. Gołata Szybko, łatwo, drogo!). Niektórzy obserwatorzy wywodzą z tego tezę, że polscy naukowcy chcieliby publikować mało i dobrze, ale są zmuszani przez system do publikowania coraz więcej i więcej; stali się jednym słowem zakładnikami punktozy. Czy rzeczywiście?

Według OPI od 2018 do 2021 r. sprawozdana roczna liczba publikacji spadła o 23,2% (z 138 024 do 106 068), przy czym liczba artykułów naukowych – o 17,2% (z 92 360 do 76 501). Poprzedni raport tej instytucji podaje, że w 2017 roku powstały 142 374 publikacje, a więc wydaje się, że jest to dłuższy trend spadkowy – w zaledwie 5 lat (2017–2021) liczba ta spadła o ponad 25%. W moim przekonaniu pokazuje to, że wprowadzone zmiany regulacji odniosły skutek w postaci ograniczenia liczby publikacji naukowych i choć nie mamy silnych dowodów na poprawę ich jakości (cytowalność) i umiędzynarodowienia, to analiza danych SciVal pokazuje nieznaczny wzrost w ostatnich latach odsetka prac pisanych we współpracy z zagranicznymi badaczami. Uwzględniając te dwa kryteria, zgodnie z raportem OPI, jesteśmy jednak nadal na ostatnim miejscu w UE (34,8%, FWCI 1); wypadamy słabiej niż wszystkie inne kraje postkomunistyczne.

Jaki jest publikacyjny wymiar kariery naukowej w Polsce?

Choć tej części raportu nikt w mediach ani serwisach społecznościowych nie omawia, to wydała mi się ona ciekawa. Kariera naukowa w Polsce jest centralnie certyfikowana: osoby, które poczyniły znaczny wkład w rozwój nauki mogą otrzymać tytuł doktora habilitowanego, a naukowcy, których wkład jest wybitny – profesurę. Najnowsze opracowanie OPI pokazuje, w jaki sposób ta wybitność przekłada się na działalność publikacyjną. Otóż doktorzy opublikowali w latach 2019–2022 średnio 7 prac, habilitowani – 11, a profesorowie – 13. Ci ostatni są więc niemal dwa razy bardziej produktywni od doktorów (Wykres 2 pod tekstem).

Jednakże temu wzrostowi liczby publikacji na poszczególnych etapach kariery nie towarzyszy zmiana ich struktury jakościowej (mierzonej wykazem ministerialnym, który choć jest niewątpliwie dalece niedoskonały, to jego niedoskonałość dotyczy wszystkich porównywanych grup). Wśród artykułów autorstwa doktorów i doktorów habilitowanych najwyżej punktowane stanowią 3%, a profesorów – zaledwie 4%. Naukowcy ze szczytu akademickiej hierarchii publikują nieco częściej prace za 140 pkt. (18%), które w dorobku pozostałych dwóch grup stanowią 15%. Również kategorie po 100 i poniżej 100 pkt. są na poszczególnych etapach kariery zbliżone wielkością; jedynie prace poza wykazem stanowią 15% tych zgłoszonych przez profesorów i doktorów habilitowanych, a 16% – przez doktorów. Tak więc uzyskiwanie kolejnych awansów zawodowych wydaje się oparte jedynie na większej liczbie publikacji, a nie na ich rosnącej jakości. Udział wszystkich kategorii artykułów naukowych sprawozdanych przez dr. i dr. hab. w latach 2019–2022 jest niemal identyczny i nie różni się znacząco od dorobku profesorów.

Istotne byłoby przeanalizowanie tych danych dla poszczególnych dziedzin, bo o ile funkcjonowanie grup badawczych w niektórych dyscyplinach (np. w naukach o życiu) prowadzi do podobnej struktury prac dla wszystkich członków zespołu, o tyle tam, gdzie przeważają badania indywidualne (np. w naukach społecznych i humanistycznych, które sprawozdały aż 36% analizowanych artykułów), struktura dorobku powinna odzwierciedlać rozwój towarzyszący kolejnym etapom kariery. Dane OPI sugerują więc, że w Polsce znaczący i wybitny wkład w rozwój nauki ma przede wszystkim wymiar ilościowy, a nie jakościowy. To kolejny przykład ograniczonej sensowności funkcjonowania centralnego systemu awansowego. Stanowi on duże obciążenie finansowe i organizacyjne, natomiast nie spełnia swojej podstawowej funkcji promowania jakości naukowej.

Podsumowując, raport OPI w połączeniu z danymi Scopus i Eurostat pozwala zweryfikować kilka mitów dotyczących polskiej nauki i naukowców. Wbrew powszechnie panującemu przekonaniu nie jesteśmy zakładnikami punktozy i publikujemy coraz mniej, a nie coraz więcej. W dodatku na tle innych krajów UE publikujemy mało, a nasze prace są bardzo słabo umiędzynarodowione i bardzo rzadko cytowane. Przedstawione dane sugerują też, że awanse naukowe nie są powiązane z rosnącą jakością prac, ponieważ profesorowie i doktorzy habilitowani nie publikują znacząco lepiej niż doktorzy. I wreszcie – według Eurostatu – jest nas coraz więcej: w 2013 roku w Polsce pracowało 69 027 naukowców, w 2021 – już 105 998.

Natalia Letki, Uniwersytet Warszawski

Wydział Nauk Politycznych i Studiów Międzynarodowych

Wykres 1. Liczba opublikowanych prac naukowych w stosunku do liczby naukowców i znormalizowany wskaźnik cytowalności (FWCI) dla krajów UE w latach 2018–2022, źródła: SciVal, Eurostat
Wykres 2. Udział procentowy kategorii czasopism wśród artykułów naukowych sprawozdanych przez prof., dr. hab. i dr. w latach 2019–2023, źródło: OPI
Dyskusja (36 komentarzy)
  • ~Ewa 17.03.2024 10:08

    Ciekawe ile opublikowaliby doktorzy gdyby musieli publikować sami - bez wkładu i pomocy profesorów...

  • ~akademik 13.03.2024 08:51

    Co należy cenić ? Czy cytowany /wiele razy/w Scholarze artykuł za 40 pkt , czy artykuł w "drapieżnym" greckim periodyku za 650 euro i 100 pkt. nie cytowany ?

    • ~Marcin Przewloka 13.03.2024 16:31

      Ostatecznie, z punktu widzenia nauki i poglebiania wiedzy, nie liczy sie gdzie dany artykul jest opublikowany.
      Liczy sie, jak bardzo przyczynil sie do rozwoju nauki, a to jest wyrazone poprzez cytowalnosc.
      O punktach i drapieznictwie mozna wiec tutaj zapomniec.

      I w tym wlasnie kierunku ida pewne starania (np. DORA), ktore mialyby wyelimionowac znaczenie IF przy ocenie dorobku.
      Jak na razie ta walke przegrywamy, czesciowo dlatego, ze aktualnie nie mamy pod reka niczego lepszego, niz IFs.....

  • ~Jakub Michalski 12.03.2024 09:24

    Spadek ilości publikowanych prac jest też związany z reformą Gowina. Wszystkie osoby (NA), które nie wypełniły czterech slotów, zostały przeniesione ze stanowisk badawczo -dydaktycznych na stanowiska dydaktyczne. A jako dydaktyk nie muszą publikować to nie publikują. Zresztą mając 360 godzin dydaktycznych ciężko jest robić coś sensownego w laboratorium.

  • ~Zzzr 12.03.2024 00:09

    Ciekawe byloby porownanie usrednionych nakladow finansowych na jedna publikaje, zwlaszcza w kategorii nauk o zyciu gdzie wplyw dostepu do aparatury badawczej i nakladow na odczynniki ma duze znaczenie

    • ~Irena 12.03.2024 10:08

      Bardzo ciekawe. Wtedy bylibyśmy prawdopodobnie w czołówce.

      • ~Marcin Przewloka 12.03.2024 10:51

        @Zzzr
        @Irena

        Natomiast jakbysmy przeliczyli usrednione naklady finansowe na liczbe cytowan tych publikacji, to mogloby sie znowu okazac, ze jednak Polska niestety juz nie jest w tej czolowce...

  • ~Jan Cieśliński 11.03.2024 21:25

    1. Wydaje mi się, że nauka polska daje dokładnie taki output, jaki jest oczekiwany przez decydentów. Systemy punktowe używane w ewaluacji od kilkunastu lat ostro premiowały publikacje w obiegu międzynarodowym (Scopus), zatem ich liczba dynamicznie rosła od wielu lat (niewiele brakowało, a dogonilibyśmy Niemcy w liczbie publikacji na głowę, ale teraz trend się zmienia, patrz niżej).

    2. Wspomniany w artykule spadek o 25% dotyczy wszystkich publikacji (czyli w większości tych nieobecnych w bazie Scopus). Spadek liczby publikacji w Scopusie (bardzo niewielki) nastąpił dopiero w latach 2022-2023, a wytłumaczenie tej nowej tendencji jest bardzo proste: ogromne podwyżki punktowe dla czasopism polskich spoza Scopusa. Po kilkunastu latach dominacji Web of Science czy Scopusa, zaczęło się więc opłacać publikowanie w obiegu lokalnym.

    3. Nieprecyzyjna (wręcz błędna) jest informacja o znacznym wzroście liczby pracowników naukowych. Nie widać tego wzrostu. Liczba nauczycieli akademickich lekko spada, począwszy od roku 2010 (według GUS), z tendencją do ustabilizowania się. Wielki wzrost (z 69 tys. na 106 tys., według Eurostatu) jest chyba wynikiem błędu interpretacyjnego i różnic w raportowaniu danych (ustawa 2018 scaliła sektor nauki i szkolnictwa wyższego, wcześniej chyba liczono pracowników uczelni z mniejszą wagą, zakładając, że część czasu poświęcają na dydaktykę). Zapewne ów poprzedni sposób raportowania danych lepiej odzwierciedlał faktyczny stan rzeczy (bardzo duża część etatów w szkolnictwie wyższym obsadzona jest przez osoby, które zajmują się głównie dydaktyką i nawet nie aspirują do pracy badawczej) i ten współczynnik 2.8 publikacji na głowę jest zaniżony (faktycznych "głów" jest znacznie mniej).

    4. Jeśli chodzi o wymagania awansowe, to skoro nie ma wymogu publikowania w coraz to lepszych czasopismach, to trudno się dziwić, że taki efekt nie występuje. Zresztą, nie doczekaliśmy się nawet sensownego katalogu owych "lepszych czasopism". Czasopism za 200 pkt jest prawie tysiąc (z tego spora część, to czasopisma mało znane lub niezbyt wysokiej jakości). Jeśli chodzi o 140-stki jest jeszcze znacznie gorzej.

    5. Zdecydowanie nie podzielam opinii o "drapieżności" MDPI. Wszelkie reguły są tam całkiem dobre, czasem wręcz znakomite (problem jest z kadrą edytorsko-recenzencką). Dodatkowo proszę zauważyć, że są tam liczne możliwości darmowej publikacji w pełnym Open Access. Owszem, selektywność tego wydawnictwa jest raczej niska, zatem chyba żadna z ich kilkunastu 140-tek nie jest warta takiej punktacji (co zresztą dotyczy setek innych czasopism). To tylko jeden z bardzo licznych przykładów błędnego ustawienia punktacji czasopism w ostatnich latach. A naukowcy i uczelnie dostosowuję się do wymagań narzucanych przez decydentów.

    Wniosek: w dużej mierze jednak jesteśmy zakładnikami punktozy. Zatem warto ustawić jej parametry na jakimś sensownym poziomie. A na ocenę ekspercką (w warunkach polskich) w ogóle bym nie liczył. Skoro nawet nie udało się nam wyselekcjonować wąskiego zbioru czasopism o naprawdę dużym prestiżu, to o czym tu mówić? A od tego trzeba zacząć...



    • ~Wt 11.03.2024 22:45

      Zakwestionowana lista czasopism dowartościowała polskie czasopisma z bazy Scopus i WoS. Otrzymały po 140 pkt. Było ich prawie 80.

  • ~Prawie emeryt 11.03.2024 19:26

    Jaki jest średni wiek profesorów?

  • ~Kk 11.03.2024 18:53

    Mysle ze powodem spadku liczby i jakosci publikacji jest fakt braku pieniedzy. Ja ostatnie dwa lata zostalam wrecz finansowo zaglodzona przez alme. Poczatkek roku a ja mam 2 tys na koncie czyli koniec pracy na ten rok. Nie mam tez bardzo co publikowac. A granty skladam stale

    • ~ZZZr 12.03.2024 00:19

      Brak adekwatnych srodkow finansowych to przemilczany temat. Przy braku grantow nie ma za co pojechac na konferencje a to oznacza ze mamy opoznienie okolo roczne w dostepie do najnowszych wynikow zw swojej dziedziny, nie mowiac juz o networkingu

  • ~Tomek 11.03.2024 18:34

    Mam lepsze doświadczenia z MDPI (humanistyka) niż z wydawnictwami z najwyższej półki. Sprawny proces recenzyjny, dobrze dobrani recenzenci, recenzje na temat. Za to gdzie indziej oczekiwanie prawie rok na desk rejection. Albo recenzje z błędami i jakimiś insynuacjami, kim jest autor. Kilka lat temu czytałem list jakiegoś humanisty z USA, który skarżył się na załatwianie publikacji na telefon. Na uniwersytecie, gdzie odbywałem stypendium, w bardzo prestiżowym piśmie ukazał się artykuł doktorantki naczelnego.

  • ~Maciek 11.03.2024 18:06

    "Nie jesteśmy zakładnikami punktozy"

    Oczywiście, że nie. Wręcz przeciwnie. Teraz nie dość, że nie jestesmy zakładnikami punkotzy, to wręcz jesteśmy panami slotozy.

    Liczba publikacji maleje? Stało się tak właśnie przez wyeliminowanie punktozy i jednoczesne wprowadzenie slotozy. Skoro ten sam pomiar bardziej opłaca wykonać się w innej jednostce, niż u siebie (bo będzie więcej do slota) to tak się właśnie robi.

    Skoro slot można wypełnić przez współautorstwo publikacji jako jedyny autor z danej jednostki, to tak się właśnie robi. Jednocześnie, przy niewielkim zaangażowaniu, można również otrzymać ocenę wyróżniającą się, bo zapełnienie 4 slotów publikacjami za 200/140 punktów jest właśnie tym, czego system od nas oczekuje.

    Ludzie tak robią, bo to po prostu wystarcza, a nie każdy ma chęci i siłę walczyć o granty.

  • ~Marcin Przewloka 11.03.2024 18:01

    Komentarz pani Natalii Letki jest bardzo ciekawy i dobrze, ze podaje alternatywny sposob patrzenia na "produktywnosc".
    O wszystkich tych liczbach i wskaznikach moznaby dyskutowac tygodniami. Ja sie odniose tylko do tych spostrzezen:
    "Dane [...] stały się podstawą gorących dyskusji w większości konkludujących, że polscy naukowcy są zakładnikami systemu."
    "W skrócie: polska nauka i polscy naukowcy są ofiarami szalejącej punktozy."

    W artykule powyzej te stwierdzenia sa przynajmniej czesciowo obalone.
    Jednak wydaje mi sie, ze nalezy sprobowac stworzyc system, ktory bedzie mocno i jednoznacznie promowal publikowanie prac charakteryzujacych sie wysoka jakoscia, a w zwiazku z tym majaych szanse bycia wysoko-cytowanymi.
    I beda wiec dalej naukowcy "zakładnikami systemu", i system ten dalej bedzie "punktoza", poniewaz kazda ocena jakosciowa zmierza do przedstawienia wartosci w postaci liczbowej, ale jednoczesnie bedzie on poprawial polozenie polskiej nauki w statystykach takich, jak te przedstawione przez OPI, Eurostat czy Scopus.
    Jednym slowem, w wiekszosci wypadkow oplaca sie byc zakladnikiem systemu, o ile ten system jest dobry. Nie idealny (bo taki nie istnieje), ale dobry. I wtedy tez warto by bylo powiazac kariere naukowa z takim wlasnie systemem ewaluacji, poniewaz obecnie "dane sugerują, że awanse nie są powiązane ze wzrostem jakości prac".

    I jeszcze tylko dodam, ze szukanie dobrego systemu ewaluacji, albo ciagle ulepszanie obecnie istniejacego systemu, nie jest tylko polskim problemem, ale jest problemem nauki w wiekszosci krajow na swiecie.

  • ~Maruda 11.03.2024 15:56

    W komentarzach ludzie popłyneli. Jednak zrównanie IEEE i Nature z MDPI to niezły fikołek intelektualny, i takie trochę odklejenie od światowej nauki.

    W ministerstwie muszą mieć polskich naukowców za małpy. Ktoś da jakiemuś nieznanemu czasopismu z MDPI 140/200 punktów i nagle Polacy się rzucają xD Potem jeszcze na forach gadają, że MDPI jest w porzo. Najwyraźniej MDPI Materials jest na poziomie Nature Materials. Albo MDPI Cancer na poziomie Nature Cancer, bo oba mają 200 punktów xD

    • ~KOwal 11.03.2024 16:08

      Kolega jest pierwszym, który porównuje "MDPI Materials" i "Nature Materials". Niżej mowa jest o Nature Scientific Reports (według różnych źródeł 50-70% akceptacji, też 140p skoro już kolega uznał za stosowane przywołać nasze ułomne punktacje).
      Skoro jednak kolega nie dostrzega różnicy w "drapieżności" między Nature Materials i Nature Scientific Reports, to dalsza dyskusja chyba nie ma sensu.

  • ~Tom 11.03.2024 15:29

    Publikacja OA kosztuje od 3 do 5 tys USD!!!!! W mdpi jest nawet tsniej2-2.6 tys CH.
    Skąd pieniądze! Ja nie mam by na spotkanie robocze jechać do Niemiec. Nie ma grantów. To mit!

    • ~KOwal 11.03.2024 15:48

      Oczywiście, że są granty. Skoro można dostać 1,3 miliona zł z NCN (SONATA BIS 13) na "ponowne przemyślenie stuletniej koncepcji" albo 2 miliony na dywagacje na temat postrzegania alkoholizmu w XIX wieku ("Alkohol, trzeźwość i pijaństwo: dyskursy o granicach picia w Polsce porozbiorowej w XIX wieku"), to znaczy że pieniądze na badania leżą na ulicy i trzeba tylko się po nie schylić.
      Ileż to rzeczy można przemyśleć (nawet ponownie) jak się ma 1,3 miliona złotych z kieszeni podatników.

      • ~Jan bez ziemi 11.03.2024 16:41

        Miszczu, z tych pieniędzy autor projektu zobaczy niewiele. 20-30% zabiera jednostka, jest też zakup aparatury, opłaty konferencyjne, open Access, realizacja badań itp itd. Chodź i sam zobacz jak to jest zamiast pie…..olić takie farmazony dla ludu niesuwerennego.

        • ~KOwal 11.03.2024 16:55

          Znaczy się, aparaturę do destylacji alkoholu według XIX receptur? Czy może aparaturę do przemyśliwania stuletnich koncepcji? Proszę nie rozśmieszać czytelników.

  • ~Tom 11.03.2024 15:27

    Publikujemy mniej, bo 1. Mniej funduszy na badania. 2.dluzrj się bada, do dobrego artykułu. Polskie są odrzucane często, bo nie intetesują wydawnictw. 3. Procedura składania pub, czas oczekiwania na recenzję jest wydłużony. 4. Jesteśmy zmęczeni biurokracją, systemami komp. Do obdługi dydaktyki, ocen co dwa lata etc...

  • ~XXX 11.03.2024 13:43

    MDPI to dno, nikt poważny nie czyta tych czasopism. Jeżeli ktoś broni MDPI to znaczy że jest słaby i nie może opublikować nic u poważnych wydawców. Przez MDPI polska nauka idzie na dno. Doktoranci myślą, że są genialni jak udaje się im opublikować pierwszą pracę w MDPI. Ci ambitni obrywają. Czas to zweryfikuje cytowaniami. Moi doktoranci nie mają problemów, żeby dostać pozycję post-doc za granicą przy 5 publikacjach od renomowanych wydawców, podczas gdy tymi "geniuszami" z 10 pracami w MDPI nikt nie jest zainteresowany. Będą zasilać rynek "genialnych polskich" naukowców w Polsce, produkując kolejnych "geniuszy". Kiedyś miałem nadzieję, że to się zmieni, jednak jak widzę takie komentarze jak powyższy i recenzje na tytuł albo na stopień dr hab. gdzie 200 czy 300 cytowań uważa się za genialne osiągnięcie, to ręce opadają.

    • ~L 11.03.2024 14:32

      Dużo rantu, dużo trollowania, dużo obrażania ale zero konkretów. Czas zweryfikuje cytowaniami? Proszę bardzo:

      https://www.scimagojr.com/journalsearch.php?q=130124&tip=sid&clean=0
      https://www.scimagojr.com/journalsearch.php?q=15047&tip=sid&clean=0
      https://www.scimagojr.com/journalsearch.php?q=13660&tip=sid&clean=0
      https://www.scimagojr.com/journalsearch.php?q=25236&tip=sid&clean=0

      https://www.scimagojr.com/journalsearch.php?q=21100335701&tip=sid&clean=0
      https://www.scimagojr.com/journalsearch.php?q=21376&tip=sid&clean=0
      https://www.scimagojr.com/journalsearch.php?q=21301&tip=sid&clean=0
      https://www.scimagojr.com/journalsearch.php?q=4000151809&tip=sid&clean=0

      Może czas wyjść ze swojej bańki?

    • ~KOwal 11.03.2024 13:53

      Zadałem konkretne pytania, a tu znów uogólnienia i nagonka na MDPI.
      "MDPI to dno", IEEE (z Access) i Nature (z Scientific Reports) to super, hiper wydawnictwa.

      Co z tego, że wskaźnik akceptacji i APC w IEEE i Nature wyższe, mądralińscy wiedzą lepiej co jest drapieżne, a co nie.
      Szkoda, że nie potrafią czytać ze zrozumieniem i odnosić do konkretnych pytań.

      Skoro najprościej wrzucić wszystko do jednego worka, zamiast odnosić się do konkretnych czasopism, to bądźmy uczciwi i zaliczmy MDPI, IEEE i Nature do jednej grupy drapieżnych wydawców (bo w każdym z tych wydawnictw znajdą się drapieżne czasopisma). Albo zaliczmy MDPI, IEE i Nature to nie-drapieżnych, bo w każdym znajdą się czasopisma z niskimi wskaźnikami akceptacji i dobrymi recenzjami.

  • ~KOwal 11.03.2024 12:04

    Kolejna osoba utożsamiająca (lub sugerująca utożsamianie) MDPI z "czasopismami drapieżnymi".
    A może by tak konkretnie:
    1. w czym IEEE Access (acceptance rate 30%) albo Nature Scientific Reports (acceptance rate 49%) jest niby mniej drapieżne niż nawet Sustainability (acceptance rate 30%)? Może od razu za drapieżne wydawnictwa uznajmy także IEEE i Nature, tak dla elementarnej uczciwości?
    2. jak drapieżny jest JTAER z acceptance rate 8% i APC=1000 CHF, np. w porównaniu z Egyptian Informatics Journal, mającym acceptance rate 13% i APC=1200 USD? Pierwsze czasopismo jest wydawane przez MDPI i od razu trafia do szufladki "drapieżne", a drugie wydaje Springer, więc jest super, hiper, nie-drapieżne?

    • ~QQ 11.03.2024 12:53

      Fakt, IEEE i Nature mają te czasopisma kobyłki. Ale wysyłając tam pracę można liczyć na normalny proces recenzji, no i praca trafia do ich systemu.

      W MDPI w niektórych czasopismach (wszystkich które znam hmm) to 2-4 tygodnie i jest (płacisz masz), także z czym do ludzi. Niektóre czasopisma MDPI jeszcze upubliczniają recenzje, i tutaj aż oczy pieką jak się patrzy :/ No i dochodzi masa innych problemów z MDPI, jak agresywne naganianie ludzi na special issues itd.

      Czasopisma drapieżne nie są nowym zjawiskiem, ale w przypadku MDPI mowa o skomercjalizowanej na maxa patoli.

      • ~L 11.03.2024 14:15

        Kto normalny spędza 2-4 tygodnie na zrecenzowanie kilkunastostronicowego artykułu? To, że w jakimś czasopiśmie na recenzje czeka się miesiącami nie przekłada się na jakość tych recenzji. To wynika tylko z tego, że redakcja i recenzent mają autora w nosie. MDPI wymusiło na recenzentach przynajmniej odpowiadanie na czas. A że jakość tych recenzji bywa różna - cóż, w "renomowanych" wcale nierzadko trafiają się recenzje w postaci jednego zdania.

        "Skomercjalizowana na maxa patola" to po prostu biznesowo zoptymalizowana realizacja założeń Impact Factor...

        • ~Tom 11.03.2024 15:31

          Prawda!
          6 miesięcy czekasz na ręce zje, a termin jest 21 dni. Taki realny w mdpi 1tyd to żart

        • ~KOwal 11.03.2024 14:38

          Dokładnie tak. MDPI potrafi zmotywować recenzentów i to jest klucz do ich popularności (i sukcesu finansowego), a nie wskaźnik akceptacji (łatwość publikacji) czy "drapieżność".

          Jaki sens mają czasopisma, w których proces recenzji papieru typu short communication (3 strony!) trwa od lipca 2023? Recenzje będą lepsze dzięki temu, że odleżały już 7,5 miesiąca i nie widać, żeby się pojawiły? W międzyczasie badania poszły na tyle do przodu, że nawet jak ten artykuł się ukaże, to będzie już zdrowo przeterminowany.
          A może recenzje będą lepsze, bo papier leży od czerwca 2023 i w międzyczasie 2x zmienili się recenzenci, ale żaden nie dowiózł recenzji?

      • ~KOwal 11.03.2024 13:57

        "Normalny proces recenzji" w IEEE Access i Nature Scientific Reports różni się od nienormalnego procesu recenzji np. w Sustainability tym, że trwa dłużej, a efekt (wskaźnik akceptacji) jest podobny.
        Że już nie wspomnę, że Sustainability, Energies czy Applied Science to mniej niż 1% czasopism MDPI.

        • ~QQ 11.03.2024 14:39

          Operujesz procentami chyba nie do końca rozumiejąc co się za nimi kryje.

          Z tego co widzę to w Scientific Reports było mniej więcej 20k publikacji w 2023, a w IEEE Access 10k. Dla porównania, w Applied Sciences i Sustainability było po około 20k prac (więc 40k tylko w obu) w 2023 roku, a w Energies koło 18k. No to teraz dolicz sobie te pozostałe 99% czasopism MDPI xD

          Nawet gdyby przyjąć tę głupkowatę tezę, że Scientific Reports/IEEE Access i te czasopisma MDPI niczym się nie rożnią to samo MDPI odpowiada za gigantyczną część drapieżnego rynku czasopism. I już nie wspomnę, że w MDPI nie ma żadnych czasopism na poziomie tych najlepszych z IEEE i Nature.

          • ~L 11.03.2024 15:07

            Przepraszam ale nie rozumiem. Zdefiniuj "drapieżny".

            Czy "drapieżny" oznacza, że wydawca publikuje dużo? Jeśli tak, to Springer, Elsevier i IEEE są zdecydowanie bardziej drapieżne od polskich wydawców.

            Czy "drapieżny" oznacza, że wydawca (jeszcze) nie ma czasopism z bardzo dużymi H i IF? Jeśli tak, to Springer, Elsevier i IEEE są zdecydowanie bardziej drapieżne od polskich wydawców.

          • ~KOwal 11.03.2024 14:48

            Procenty są obiektywną miarą i pokazują bezwzględnie ile zgłoszeń jest odrzucanych, a ile przyjmowanych.
            Jeśli jakość publikacji (albo odwrotnie - drapieżność) mierzyć wskaźnikiem akceptacji, to 30% z 40k nie różni się od 30% z 10k, a jest niższe niż 50% z 20k. A jeśli chcemy wprowadzić inną miarę drapieżności (najlepiej dla czasopism, a nie wydawców), to może najwyższy czas to zrobić, obronić i powszechnie stosować?

            A odnośnie ostatniego zdania - w Polsce też "nie ma żadnych czasopism na poziomie tych najlepszych z IEEE i Nature" (wymysły ex-ministra Czarnka litościwie pominę). Czy z tego należy wyciągnąć przez analogię wniosek, że wszystkie polskie czasopisma są drapieżne?

            • ~QQ 11.03.2024 15:37

              No właśnie nie. Procent przyjmowanych prac jest wypadkową liczby nadesłanych prac, oceny edytorskiej i różnych rzeczy związanych z procesem recenzji (np. ogarnięci recenzenci częściej będą odrzucać przyczynkowe prace). Ten procent to nie jest cel sam w sobie dla czasopisma, jest parametrem wtórnym. Jak IEEE Access przyjął 10k z około 30k (te ~30%) nadesłanych prac w 2023 to to nie oznacza, że jak w 2024 dostaną 300k prac to przyjmą 100k, zwłaszcza jak te napływowe prace będą beznadziejne.

              MDPI ciągnie gigantyczne pieniądze za publikowanie słabych jakości prac w ogromnej ilości (~350k prac w 2023). I najwyraźniej w PL te prace nie są nikomu potrzebne oprócz samych autorów na potrzeby ewaluacji, bo nagle jak któryś tytuł MDPI dostaje delisting to ludzie przestają tam wysyłać prace. Nie jesteśmy bogaci, nie ma sensu na ten badziew przepalać pieniędzy.

              • ~KOwal 11.03.2024 16:03

                To może warto zastanowić się dlaczego ludzie wysyłają papiery do MDPI. Dlatego że jest łatwiej? Może. Ale niekoniecznie. Moim zdaniem decyduje prawdopodobieństwo reakcji (odpowiedzi, recenzji - nawet negatywnej) w sensownym czasie.
                Gdyby inni wydawcy były w stanie zadeklarować uczciwy czas odpowiedzi, powiedzmy 2-3 miesiące na recenzje i nie dłużej niż 2 tygodnie na biurku edytora, to liczba wysyłek do MPDI gwałtownie by spadła.
                Można za patologię uważać setki numerów specjalnych, można za patologię uważać 30+% wskaźnik akceptacji, ale patologią jest również przetrzymywanie artykułów kilkanaście miesięcy. Patologią jest recenzowanie 3 stron na krzyż przez prawie 8 miesięcy (a może będzie więcej), patologią jest wielotygodniowy brak decyzji edytora po otrzymaniu recenzji (Required Reviews Completed i tak sobie wisimy).
                Po sobie widzę, że wysyłka do Springera czy Elseviera to loteria. Jak się źle trafi, to papier grzęźnie na naście miesięcy zanim pojawią się pierwsze (!) recenzje. A gdzie poprawki i kolejna runda? Co w tym czasie robić? Jak publikować kolejne etapy badań, nie mając opublikowanych wcześniejszych wyników? A jak nowsze wyniki zostaną wydane wcześniej niż starsze, bo akurat trafi się los na loterii i szybki proces edycyjny?
                MDPI to nie tylko Sustainability, Energies, Applied Science. Są też czasopisma, które wydają sto kilkanaście/kilkadziesiąt prac w roku ze wskaźnikiem akceptacji <10%, za cenę 3x, 4x niższą niż OA w Springerze czy Elsevierze z podobnym IF. To też czasopisma drapieżne? Tylko dlatego, że wydawane przez MDPI?