Aktualności
Sprawy nauki
05 Sierpnia
Źródło: www.pixabay.com
Opublikowano: 2024-08-05

Ekonomiści z SGH i UW: Przy nowej liście czasopism spróbujmy uniknąć konsekwencji prawa Goodharta

Publikacja w czasopismach lokalnych, nierozpoznawalnych w światowej nauce, jest często dużo szybsza i pozbawiona krytycznej oceny recenzentów ze światowego obiegu. Przyznanie takim tytułom nielogicznie wysokiej liczby punktów zachęca do „pójścia na łatwiznę” i publikowania w periodykach, które nie mają większego wpływu na naukę. W skali kraju wypacza to ocenę parametryczną – piszą ekonomiści ze Szkoły Głównej Handlowej i Uniwersytetu Warszawskiego, przedstawiając jednocześnie propozycję konstrukcji listy czasopism dla dyscypliny ekonomia i finanse.

Przyjęta przez polski rząd Polityka naukowa państwa, strategiczny dokument wskazujący priorytety w zakresie funkcjonowania systemu szkolnictwa wyższego i nauki, jako jeden z celów wskazuje wsparcie dla prowadzenia „wysokiej jakości badań naukowych” oraz „optymalnego wykorzystania wiedzy naukowej”. Polityka ta ma za zadanie przyczyniać się „do budowania przewagi konkurencyjnej Polski na arenie międzynarodowej”. W naszej ocenie założenia do przygotowywanej obecnie w Ministerstwie Nauki i Szkolnictwa Wyższego nowej listy punktacji czasopism stoją w sprzeczności z tym naczelnym celem polityki naukowej. W miejsce obiektywnych, porównywalnych między krajami i stanowiących praktyczny punkt odniesienia kryteriów ilościowych, proponuje się istotną rolę oceny ekspertów reprezentujących wyłącznie polskie środowisko naukowe.

W liście otwartym wyraziliśmy obawę, że ten proponowany przez MNiSW sposób oceny utrudnia motywowanie naukowców w naszej dyscyplinie, by prowadzili wysokiej jakości badania i budowali pozycję Polski na arenie międzynarodowej. Jedynym sposobem osiągania tego celu jest motywowanie najzdolniejszych naukowców do aspirowania do najlepszych czasopism międzynarodowych. Pod listem w tej sprawie podpisało się niemal 300 osób, w tym polscy ekonomiści o największym międzynarodowym dorobku naukowym, laureaci grantów Narodowego Centrum Nauki i European Research Council. List wzbudził entuzjazm i poparcie w wielu środowiskach naukowych innych dyscyplin nauk społecznych (w tym zbieżne stanowiska wielu komitetów naukowych PAN), lecz nie znalazł zrozumienia w oczach Konferencji Rektorów Uczelni Ekonomicznych. Nie bagatelizując różnicy poglądów, przedstawiamy konstruktywną propozycję punktowania publikacji w czasopismach. W polskiej nauce jest miejsce dla wszystkich dążących do doskonałości naukowej, w tym realizowanie potrzeb tej części środowiska, która pozostaje zorientowana na publikowanie w krajowym obiegu naukowym.

Cele

Naszą propozycję przygotowaliśmy, mając na uwadze dobro polskiej nauki. Uważamy, że nauka powstająca w Polsce i rodzimi naukowcy zasługują na miejsce wśród światowych elit naukowych. Zależy nam, by wnosili oni jak największy wkład w rozwój nauki, a wyniki ich badań były jak najszerzej znane i cytowane. System motywujący do publikowania wyników badań w czasopismach nieznanych na świecie stoi w sprzeczności z celem Polityki naukowej państwa, jakim jest „optymalne wykorzystanie wiedzy naukowej”, ponieważ prowadzi do marnotrawstwa potencjału naukowców oraz środków przeznaczanych na naukę.

Zdajemy sobie sprawę, że polityka naukowa państwa ma wiele wymiarów, a lista czasopism punktowanych jest jedynie jednym z wielu jej narzędzi. Tutaj ograniczamy się jednak wyłącznie do listy czasopism. Zakładając, że pozostanie ona ważnym elementem polityki naukowej, uważamy, że:

  1. Lista czasopism powinna wyznaczać aspiracje i motywację do umiędzynarodowienia i rozwoju dla osób zajmujących się badaniami naukowymi w Polsce.
  2. Lista powinna zapewniać silne bodźce czasopismom krajowym (ich redaktorom i wydawcom), aby dążyli do funkcjonowania w międzynarodowym obiegu naukowym.
  3. Lista powinna być łatwa w konstrukcji i zarządzaniu.
  4. Lista powinna podlegać okresowym przeglądom pod kątem spełniania powyższych celów.

Aktualna lista nie zapewnia osiągania tych celów. Nie zapewni ich też lista zgodna z obecnymi propozycjami MNiSW.

Diagnoza sytuacji

  • Zawyżona punktacja słabych czasopism

Pierwszym problemem stosowanego w Polsce sposobu punktowania publikacji naukowych jest to, że jest on zbyt spłaszczony i błędnie sugeruje ekwiwalencje pomiędzy publikacjami w prestiżowych międzynarodowych czasopismach i czasopismach lokalnych. Punkty powinny być odzwierciedleniem wpływu danej publikacji na naukę. Literatura zajmująca się mierzeniem jakości publikacji i czasopism posługuje się tzw. wskaźnikami wpływu. Wskaźniki te, najprościej mówiąc, bazują na średniej liczbie cytowań artykułu opublikowanego w danym czasopiśmie. Przykładowo średnia liczba cytowań topowego czasopisma ekonomicznego The Quarterly Journal of Economics wynosi 19 w ciągu pierwszych dwóch lat od publikacji. Tymczasem krajowe czasopisma nie mają nawet wyliczonych wskaźników wpływu albo nie zobowiązują się do audytowalnego procesu recenzji i trzymania się światowych standardów. Nie są także  cytowane w światowym obiegu. Zgubna jest logika, ze dwie albo trzy albo nawet pięć takich publikacji ma podobny wpływ na naukę jak The Quarterly Journal of Economics. Pisał o tym niedawno Tomasz Kozłowski w tekście „Ewaluacja do resetu”.

Publikacja w czasopismach lokalnych, nierozpoznawalnych w światowej nauce, jest często dużo szybsza i pozbawiona krytycznej oceny recenzentów ze światowego obiegu naukowego. Przyznanie takim tytułom nielogicznie wysokiej liczby punktów zachęca polskich naukowców do „pójścia na łatwiznę” i publikowania w periodykach, które gwarantują otrzymanie wystarczającej liczby punktów, choć nie mają większego wpływu na naukę. W skali kraju wypacza to ocenę parametryczną.

  • Zbyt długa lista

Lista w dyscyplinie ekonomia i finanse zawiera obecnie około 2100 czasopism. To bardzo dużo. Dla porównania brytyjska Academic Journal Guide opracowana przez Chartered Association of Business Schools dla ekonomii i biznesu zawiera „zaledwie” 800 czasopism, podobnie jak francuska lista dla tej dyscypliny opracowana przez CNRS lub obecnie Hcéres.

Istotną przyczyną takiego stanu rzeczy jest ogromna liczba zamieszczonych na liście czasopism lokalnych. Każda jednostka naukowa w Polsce, jak również niektóre katedry, mają ambicję wydawania własnego czasopisma naukowego. Niepisaną tradycją było dotąd, by wszystkie te czasopisma były skrupulatnie umieszczane na liście. Najlepszym dowodem iluzji popytu na prace naukowe w tych czasopismach są coraz liczniejsze skandale na skutek popularnych medialnie prowokacji. Opublikowano zbyt wiele razy teksty, które nie przeszłyby progu weryfikacji w czasopismach renomowanych. Krótką listę łatwiej jest też chronić przed pojawieniem się na niej czasopism drapieżnych.

Dodatkową przyczyną długiej listy jest fakt, że to samo czasopismo może być uwzględniane w kilku lub nawet kilkunastu dyscyplinach naukowych. Na przykład dla czasopism przypisanych do ekonomii i finansów średnia liczba dyscyplin, w których występują te czasopisma przekracza 6, ale są też czasopisma figurujące w niemal wszystkich dyscyplinach. Przy wszystkich zaletach interdyscyplinarności, warto się zastanowić, czy tak rozszerzona lista powinna być podstawą do oceny wpływu publikacji w dyscyplinie ekonomia i finanse.

  • Czasopisma drapieżne

Na obecnej liście znajdują się czasopisma nieprzestrzegające standardów uczciwego recenzowania, a za to publikujące za wysoką opłatą dużą liczbę artykułów. Części z tych czasopism udaje się też systematycznie zawyżać swoją liczbę cytowań (poprzez nieuczciwe praktyki i manipulowanie cytowaniami), uzyskiwać indeksowanie i np. wskaźnik Impact Factor. Na szczególną uwagę zasługują w tym kontekście szczególnie popularne wśród polskich ekonomistów czasopisma Energies, wpisane na listę ze 140 punktami, oraz European Research Studies Journal i Sustainability ze 100 punktami.

  • Błędne wzorce zachowań

Kryteria oceny jednostek, a więc i punkty przyznane za publikacje, uległy z czasem decentralizacji i w ramach wielu uczelni stały się podstawą do oceny naukowców na poziomie indywidualnym. W ten sposób błędy w konstrukcji listy czasopism doprowadziły nie tylko do błędnej oceny parametrycznej jednostek naukowych, ale i stworzyły błędne wzorce zachowań dla naukowców, zachęcając ich do poświęcania czasu na publikowanie w periodykach, które nie mają oddziaływania na światową naukę w czasopismach, bo zostały niesłusznie wpisane na listę z wysoką punktacją. Każde niskiej jakości czasopismo umieszczone w grupie prestiżowych wydawnictw staje się okazją dla naukowca szukającego szybkiej możliwości opublikowania wyników słabej jakości. Publikacje te są następnie podstawą do awansów naukowych.

Błędy w konstrukcji listy czasopism nie tylko nie dają bodźców do rozwoju własnego potencjału naukowego, ale i utrwalają złe nawyki w kolejnych pokoleniach badaczy. Dla przykładu w wymienionym powyżej Energies (140 punktów), wydawanym przez MDPI, udział publikacji z polską afiliacją wzrósł po wpisaniu do wykazu z 1,5% do 15%. W okresie objętym ewaluacją liczba publikacji z Polski w tym jednym czasopiśmie wyniosła ponad 4 500. W okresie 2019–2023 łączna liczba publikacji z polską afiliacją w czasopismach MDPI wyniosła ponad 21 tys. Przekładając to na liczbę naukowców w Polsce, średnio w tym okresie niemal co trzeci miał publikacje u tego wydawcy.

  • Promowanie ilości kosztem jakości

Zawyżając punktację czasopism słabej jakości, obecna lista promuje ilość ponad jakość. Brak procesu recenzyjnego lub nawet jego niska jakość prowadzi do przyjmowania do takich periodyków dużej liczby tekstów o niewielkiej wartości naukowej. Badacz, który kieruje się wyłącznie punktami wynikającymi z listy, w okresie ewaluacji jest w stanie napisać, a także szybko i z dużą dozą pewności opublikować sporo tekstów, których wartość dodana do nauki pozostawia wiele do życzenia. Zjawisko to doczekało się już swojej nazwy (ang. hyperprolific authors) i stało się przedmiotem opracowań m.in. w Nature. Analogicznie, wysyłanie wyników swoich badań do najlepszych światowych czasopism, długi i wielostopniowy proces recenzyjny, w dłuższej perspektywie przekłada się na mniejszą liczbę publikacji. Prace te są jednak bardzo wartościowe, co jest potwierdzone w opiniach (niejednokrotnie wielu) recenzentów oraz wysokich indeksach cytowań. Obecny system punktacji nagradza, a więc i promuje ilość, a nie jakość.

  • Ręczne sterowanie

Kolejnym problemem jest ręczne sterowanie skonstruowaną listą. Przykłady takiego ręcznego sterowania i zawyżania punktacji arbitralnie wybranych czasopism bez konsultacji ze środowiskiem naukowym stały się wręcz anegdotyczne. Ktoś mógłby skwitować, że są to jednak pojedyncze przykłady, które nie wpływają w znaczący sposób na daną dyscyplinę. Chcemy zwrócić uwagę, że jest dokładnie przeciwnie. Nawet małe (ręczne) zmiany, polegające na zawyżeniu punktacji kilku czy kilkunastu tytułów w danej dyscyplinie mogą mieć dalekosiężne skutki, ze względu na omówione powyżej zjawisko nadmiernego wyboru takiego „taniego” (w rozumieniu łatwości publikacji) czy nawet „najtańszego” czasopisma, jak i wypierania jakości przez ilość.

Propozycje

Kierując się powyższymi obserwacjami, proponujemy przyjęcie następujących zasad przy konstrukcji nowej listy czasopism punktowanych w dyscyplinie ekonomia i finanse (a być może ogólniej w naukach społecznych). Odnosimy się jedynie do sposobu konstrukcji listy, nie proponując innych metod oceny jednostek naukowych. Przyjmujemy obecną skalę i kategorie punktowania (od 20 do 200 pkt).

  1. Konieczne jest usunięcie z listy czasopism drapieżnych. Obecność nawet kilku takich tytułów na liście przynosi dramatyczne skutki: marnotrawstwo publicznych pieniędzy na opłaty akceptacyjne (APC), kierowanie strumienia finansowania do uczelni i ośrodków z dużą liczbą takich publikacji czy też tworzenie błędnych wzorców dla młodych naukowców rozpoczynających swoją karierę naukową. Ze względu na to, że zbiór czasopism drapieżnych nie jest zamknięty (wciąż pojawiają się nowe), oczyszczanie listy z takich czasopism należy oddać grupie ekspertów. Pomimo tego, że wiele jednostek naukowych podjęło uchwały piętnujące publikowanie w czasopismach drapieżnych i stanowisko środowiska naukowego wydaje się być w tej sprawie jasne, czasopisma te wciąż znajdują się w ministerialnym wykazie.
  2. Postulujemy wyraźne rozróżnienie punktacji pomiędzy czasopismami, które są indeksowane w rozpoznawanych międzynarodowych bazach danych, np. posiadających Impact Factor (Web of Science), Journal Citation Indicator (Clarivate) lub SJR, SNIP, CiteScore (Scopus), a tymi, które nie są w nich indeksowane. Co do tych drugich, proponujemy stworzenie osobnej listy tak, aby punkty zdobyte za publikacje w czasopismach nieindeksowanych były osobną, wyraźnie rozróżnioną kategorią punktów.  Dzięki temu stworzymy nie tylko bodźce dla naukowców do publikowania w światowym obiegu, ale także zachęty dla redakcji czasopism krajowych (obecnie nieindeksowanych) do tego, aby aktywnie starały się o takie indeksowanie.
  3. Lista czasopism punktowanych w danej dyscyplinie powinna być stosunkowo krótka. Długi wykaz nie tylko jest trudny w zarządzaniu, ale też bardziej podatny na błędy wynikające z niepoprawnej klasyfikacji lub „przegapienia” czasopisma drapieżnego. Rozmiar listy francuskiej czy brytyjskiej jest naszym zdaniem absolutnym maksimum. Co warto dodać, nie chcemy przez to ograniczyć swobody publikacyjnej naukowców. Wartym rozważenia rozwiązaniem jest uwzględnienie w ocenie parametrycznej znacznie mniejszej części powstających publikacji niż obecnie (np. jedynie najlepszej publikacji każdego naukowca lub ocenianie najlepszych N publikacji jednostki w oknie ewaluacyjnym). To sprawi, że parametryzacja będzie tańsza i prostsza, a krótka lista nie będzie ograniczała swobody publikacyjnej. Powstaną natomiast silne, projakościowe bodźce na poziomie indywidualnym, ponieważ uczelniom będzie zależało na przyciąganiu najlepszych naukowców.
  4. Liczba punktów powinna odpowiadać jakości i prestiżowi danego czasopisma. Aby to osiągnąć należy posłużyć się sprawdzonymi metrykami oceniającymi jakość czasopisma. Uznane metryki bazują na średniej liczbie cytowań prac ukazujących się w danym czasopiśmie w konkretnym okresie. Ze względu na różne wzorce cytowań pomiędzy dyscyplinami (np. medycyna i matematyka), a nawet pod-dyscyplinami (np. w ramach ekonomii czasopisma publikujące badania teoretyczne vs. stosowane) metryki te powinny być odpowiednio korygowane. Dodajmy, że problematyka metodyki wyliczania takich metryk cytowań doczekała się osobnych opracowań, grup badaczy, a nawet całych czasopism specjalizujących się w ich takiej konstrukcji, aby uniknąć błędów opisanych w powyższej diagnozie. Dla przykładu warto wspomnieć chociażby o metodzie rekursywnych wskaźników wpływu (ang. recursive impact factors), opisanej m.in w pracy Ignacio Palacios-Huerta i Oscara Volij pt. „The Measurement of Intellectual Influence” (Econometrica, 2004, vol. 72, no. 3, ss. 963-977), korygującej wskaźniki cytowań o ich źródło pochodzenia (korygując w górę cytowania z prestiżowych czasopism, a korygując w dół np. wzajemne cytowania pomiędzy kartelami czasopism drapieżnych). Konstruując nową listę i ranking czasopism punktowanych, warto skorzystać z wypracowanych już metod, mających solidne podstawy naukowe.
  5. Lista powinna podlegać okresowym przeglądom. Nigdy nie będzie ona bowiem doskonale realizować celu nadrzędnego, jakim jest maksymalizacja wkładu polskich badaczy w rozwój nauki. Żadne wskaźniki bibliometryczne nie są w stanie tego precyzyjnie zmierzyć. Znane jest prawo Goodharta, mówiące (w swej ogólnej wersji) że „gdy dowolny wskaźnik zaczyna być traktowany jako cel, przestaje być dobrym wskaźnikiem”. Obecna tendencja polskich naukowców do publikacji w MDPI, tudzież prowadzony regularnie lobbing w kierunku nadawania czasopismom lokalnym po 140 czy 200 punktów, może zostać w przyszłości zastąpiony innymi tendencjami, równie słabo skorelowanymi z wkładem do nauki światowej. Okresowe przeglądy listy jednak powinny temu przeciwdziałać. Dobrym (i stosunkowo mało pracochłonnym) sposobem na przegląd może być np. wyszukiwanie znaczących rozbieżności w punktacji pomiędzy listą polską i listami zagranicznymi, np. francuską czy brytyjską. Każdy przypadek znacznej rozbieżności powinien być rozpatrywany przez ekspertów.

prof. Michał Brzoza-Brzezina (SGH), prof. Jakub Growiec (SGH), dr hab. Jan Hagemejer (UW),

prof. Krzysztof Makarski (SGH), dr hab. Krzysztof Szczygielski (UW),

prof. Joanna Tyrowicz (UW), prof. Łukasz Woźny (SGH)

Dyskusja (115 komentarzy)
  • ~Qa 12.08.2024 18:52

    Nowy, uaktualniony wykaz czasopism to niewielki fragment, który należy połączyć z oceną wydawnictwa, bo np.
    na liście nie powinny znajdować się czasopisma, które dopuszczają autorstwo ponad pięciu osób (z wagami znaczenia co w nim zrobili) a zdaża się artykuł aż 60 naukowców bez wag. Trzeba to powiązać z NIE uznawaniem przy ewaluacji sztucznego wieloautorstwa. Byłoby super gdyby losowi recenzenci wyławiali pseudoautorów, dopisywanym za zasługi lub z zależności służbowej. Co szefa nie wpiszesz to nie masz awansu ? Są autorzy którzy na wszystkim się znają w jednym roku. Dopisz mnie a ja w swojej uczelni mam 100% zasług przy ocenie.
    Punktacja będzie zawsze problematyczna, gdy jej nie likwidujemy to nie może wzrastać lub maleć drastycznie w krótkim okresie. Cieszy pomysł wyrzucenia drapieżnych czasopism, gdzie findusze uczelni przeznacza się na kupowanie prac często z abstraktami innymi od pseudotreści. Artykuł powinien mieć ograniczoną liczbę cytowań i pozbawioną wskazywania tymczasowym (internetowych) treści.

  • ~ala 10.08.2024 12:51

    Rozumiem, że poza MDPI inne wydawnictwa nie są drapieżne, ponieważ są:

    a) bezpłatne,
    b) recenzenci uosobieniem wszelakich cnót nauk, a recenzje bardzo sprawiedliwe! ?


    Pachnie hipokryzją....

    • ~KOwal 12.08.2024 10:09

      Jest takie powiedzenie - Panu Bogu świecę, a diabłu ogarek.
      Wystarczy w cyklu ewaluacyjnym opublikować coś 3 razy coś za 70-100p, żeby szefostwo było zadowolone, a resztę można ku własnej satysfakcji wysyłać tam, gdzie kto lubi - np. do MDPI za vouchery.

      Inna sprawa, że w razie jakiegoś postępowania awansowego można trafić na nawiedzonego recenzenta, który zapomniawszy swoich publikacji w Sustainability czy Energies będzie grzmiał o "drapieżnych wydawcach". Tyle, że jak to w życiu bywa - jak psa chce się uderzyć, to kij się znajdzie. Jak będzie chciał ów recenzent uwalić, to uwali, różne paragrafy już są, wpisze tylko nazwisko.

    • ~Ochlalal 11.08.2024 14:33

      Słychać wycie? Znakomicie. Zapewniam, że żaden dobry badacz nie publikuje po znajomości w dobrych pismach. Za to uniwersytety w Polsce są pełne miernych pracowników naukowo-dydaktycznych, którzy nie potrafią napisać sensownego artykułu, który przejdzie recenzje. Skończył się raj tomów pokonferencyjnych, czasopism bez recenzji i teraz boli, bo jedyne na co was stać do mdpi. Niepozdrawiam.

      • ~ala 12.08.2024 12:46

        Spokojnie!. Prosimy tylko o transparentne definicje i klarowne zasady.
        Gratulujemy Panu wyników.
        Dobry artykuł zawsze się obroni!
        A i jeszcze jedno - Pozdrawiam! :)))

  • ~Ala 10.08.2024 12:42

    Nie rozumiem dlaczego wydawnictwo MDPI tak bardzo jest szykanowane?
    Skoro płaci się za artykuł to czasopismo jest tzw. drapieżne (cokolwiek to oznacza)?

    Skończmy z tą hipokryzją, niemal za wszystkie artykuły dziś się płaci!
    Hipokryzja ......

  • ~Wacław 10.08.2024 12:05

    Tak Ci, którzy mają Znajomości (tzw kandydaci do Nobla) będą publikować w czasopismach tzw. NIEDRAPIEŻNYCH swoje badania (w ich odczuciu wysokiejjjjj jakości) i tak to się będzie kręciło!
    Ci którzy nie mają pieniędzy na badania i znajomości dalej będą walczyć o przetrwanie!

    Proponuję ewaluację o ilość przyznanych nagród Nobla albo wykorzystywanych przez przemysł patentów !

  • ~Grześ 09.08.2024 12:31

    Ponawiam postulat całkowitej likwidacji habilitacji jako procedury nic nie wnoszącej do jakości polskiej nauki a wzmacniającej jedynie pozycje kasty. Wiele razy przedstawiałem argumenty za likwidacją habilitacji i nikt na tym forum nie potrafił merytorycznie się im przeciwstawić.

    • ~Profesor PAN 09.08.2024 13:41

      Przecież habilitację (w stylu niemieckim) już dawno temu zlikwidowano. Teraz jest hiszpańska agregación dla zmylenia przeciwnika tylko nazywana habilitacją ale poważnym ludziom powinno chodzić o funkcję a nie o nazwę, prawda?

  • ~Ireneusz 08.08.2024 21:06

    Czytelnik decyduje czy artykuł posiada wartość naukową czy nie, a nie często niekompetentni recenzenci i redaktorzy czasopism. Tylko ten kto zechce przeczytać tekst ocenia wartość dzieła . W zasadzie czas czasopism naukowych dobiega końca . Tekst naukowy obecnie można opublikować gdziekolwiek i kiedykolwiek. Można wysłać do kogokolwiek, na przykład do środowiska naukowego. Redakcje czasopism uprawiają biznes, nie mający nic wspólnego z nauką. Z wyjątkiem czasopism open acess. Płacenie za dostęp do artykułu naukowego jest formą ograniczania dostępu do wiedzy. Jednocześnie ktoś zarabia na wolnej nauce. Bibliometryści powinni zaprzestać działalności, bo ich praca to przelewanie pustego w próżne.

    • ~obserwator bajzlu 09.08.2024 07:43

      Nikt poważny nie marnuje swojego czasu na szukanie artykułów po świerszczykach.

      • ~Profesor PAN 09.08.2024 09:02

        O ile wiem, po czasopismach naukowych też nie. ArXiv, SSRN i kilka innych serwerów preprintów wystarczy. Albo po prostu Google i słowa kluczowe. XIX wiek minął ponad sto lat temu.

        Jeśli kto zapozna się z artykułem dopiero po wieloletnim procesie publikowania, już na starcie przegrywa z tym, kto artykuł uzyskał z serwera preprintów albo wręcz od autora. Nauka jest też wyścigiem.

  • ~Alek Rachwald 08.08.2024 16:34

    Zwracam uwagę, że doskonałość nie istnieje. Na wypadek jakiegoś nieporozumienia podkreślam: nie istnieje. W związku z tym doskonałość naukowa nie istnieje również. Operowanie przez rząd i przez naukowców pojęciem "doskonałość" w kontekście nauki polskiej lub jakiejkolwiek budzi jedynie ironiczne uśmiechy, warto w końcu zdać sobie z tego sprawę i zaprzestać tej zabawy w pozory.

    • ~Marcin Przewloka 08.08.2024 18:42

      @Alek Rachwald

      Rzeczywiscie, byc moze absolutnie doskonala doskonalosc nie istnieje, ale warto do tej doskonalosci zmierzac. Chyba wiekszym problemem jest okreslenie, jakie sa atrybuty tej doskonalosci, i jak je zmierzyc. To chyba o to wszyscy sie ciagle spieraja.
      Natomiast co do samej nazwy moze nie trzeba byc az tak dogmatycznym. Research Excellence Framework, czyli ewaluacja nauki w Wielkiej Brytanii, ma ta "doskonalosc" w nazwie i jakos to dziala...

  • ~Mac 07.08.2024 16:13

    Szanowni Państwo
    Otrzymaliśmy informację, że w propozycji zmian w ustawie będą wprowadzone nowe, radykalne wymagania dla ubiegających się o stopień i tytuł naukowy, wbrew poprzednim zapewnieniom, że będę nie-rewolucyjne.
    Czy prawdą jest, że sugerowane zmiany zablokują awans setek, tysięcy pracowników naukowych? Takie opinie są nam przekazywane z różnych źródeł.
    Apelujemy i prosimy o pilną publiczną konsultację ze środowiskiem akademickim. Propozycje miały być przedstawione w lipcu br. Wszyscy oczekujemy transparencji w procesie zmian w Ustawie o Szkolnictwie Wyższym.

    • ~Mac 11.08.2024 23:32

      Nawiązując do poprzedniego komentarza, planujemy wystosowanie listu do Pana Ministra Wieczorka z podaniem głównych powodów dlaczego plany znacznego podwyższenia wymogów będą miały negatywny wpływ na stan nauki w Polsce i rozwój kadry naukowej. Drugą opcją będzie interwencja u posłów i senatorów głosujących nad nowelizacją ustawy.

      • ~Marcin Przewloka 12.08.2024 13:53

        @Mac

        Ja sam, ale z komentarzy tutaj mam tez wrazenie, ze nie jestem w tym odczuciu osamotniony, nie znam tych planow.
        Czy mogliby Panstwo podac wiecej szczegolow? Moze link do strony z ta propozycja?
        Artykul na ten temat tutaj, na FA, bylby tez dobrym pomyslem, ktory moglby zreszta tez dodac kontekst do opisu calego zjawiska.

    • ~Ch 08.08.2024 17:29

      Jako młody naukowiec nie mam nic przeciwko zaostrzeniu kryteriów. Niech habilitacja faktycznie spełnia swoją funkcję…jest jedno “ale”. Mamy obecnie w Polsce wielu naukowców z habilitacją, a to ze Słowacji, a to robioną na wariata jak zmieniały się kolejne przepisy. Proszę poczytać sobie starsze autoreferaty, aż dziw bierze, że niektórzy mają hab. Bo osiągnięcia zwyczajnie są marne….i teraz oni mają być recenzentami w procedurze, której sami by nie przeszli?
      Może czas na “sprawdzam”? Dożywotnia habilitacja to pomyłka. Wprowadźmy sensowne kryteria, ale wymagajmy od wszystkich. Wielu pracowników naukowych spoczęło na laurach, z hab. Przecież nikt ich nie wyrzuci….

      • ~M 08.08.2024 18:39

        Czy tak samo będzie kolega pisał, gdy nagle w ustawie pojawi się zapis za kilak miesięcy, ze warunkiem awansu na tytuł profesor jest kierowanie grantem zewnętrznym? Problem w tym, że osoby domagające się zmiany w Ustawie same nigdy nie kierowały takim wnioskiem.

        • ~Ch 08.08.2024 22:58

          Nie o tym jest mój post. Nie mam nic przeciwko wymaganiom dotyczącym kierowania projektami ….tylko że oceniają cię wtedy ludzie którzy nigdy żadnego grantu nie mieli a mają hab. Tu jest pies pogrzebany, jeśli śrubujemy kryteria to nie mogą oceniać habilitantów osoby które nie są w stanie tych kryteriów spełnić….

          • ~Keri 08.08.2024 23:14

            Spójrz na wpis poniżej, w którym jest sugestia, a właściwie plan na przyszłość, aby zrobić wszystko poprzez modyfikacje w ustawie, aby uniemożliwić awans na prof. 'zwyczajnego', z docelowym maksymalnym ograniczeniem osób z tytułem do (slownie) jednego na jednostkę. Dokładnie tak jak za komuny (nie przed-komuny). To nie żart, ale raczej niestety dobrze zaplanowana strategia. I nikt nawet nie protestuje. To świadczy jak w tragicznej sytuacji jest nasze środowisko.

        • ~Adiunkt 08.08.2024 20:50

          Z tego co pamiętam zapis o kierowaniu projektami badawczymi był w pierwszej roboczej wersji ustawy z 2018 roku, ale jakoś w trakcie prac nad ustawą został zmieniony na uczestniczenie w pracach zespołów badawczych realizujących projekty finansowane w drodze konkursów krajowych i zagranicznych. Najwyraźniej krewni i znajomi leśnych dziadków już papiery profesorskie wyrobili, więc logiczne, że należy podwyższyć poprzeczkę, żeby im nikt w najbliższej przyszłości konkurencji nie robił.

          • ~Kari 08.08.2024 23:38

            Proszę przeczytać w komentarzu poniżej, jakie są plany wprowadzenia zmian - chęć stworzenia systemu z jednym 'zwykłym' w jednostce i uniemożliwienie awansów. Jak za czasów komunizmu. To staje się faktem niestety....

            • ~KOwal 09.08.2024 10:37

              O który wpis chodzi? Gdzie są wskazane te plany wprowadzenia zmian?

          • ~Kari 08.08.2024 23:02

            Niestety, szykuje się powrót do centralnego zarządzania, całkowitego ograniczenia możliwości awansu przyszłych pokoleń naukowców na lata poprzez wprowadzenie nierealnych zapisów. Czy naprawdę tego nie widzicie?

    • ~Profesor PAN 08.08.2024 12:45

      Zastanawiam się, czy zablokowanie awansu owych setek tysięcy pracowników naukowych nie wyszłoby polskiej nauce na zdrowie. Polska nauka to armia pełna generałów ale bez szeregowców. Jakby w katedrze był jeden profesor zwyczajny i góra dwu nadzwyczajnych, byłoby tak jak to jest w krajach cywilizowanych a w Polsce było przed komuną.

      • ~M 08.08.2024 18:37

        Z calym szacunkiem, czyli potwierdza Pan, ze wyrazajaca taka opinie grupa naukowcow lobbujaca caly czas u decydentow, stara sie zablokowac mozliwosc rozwoju i awansu naukowego tysiecy ambitnych badawczy poprzez wprowadzenie dodatkowych kryteriow. Dramat.
        Tak, powierdzam, wspomnianie zmiany juz sa proponowane, niestety, dyskutuje sie na tematy poboczne i zamienne ( swiadomie?).
        Do młodych i zdolnych naukowcow, czas na dzialania anty-lobbingowe, dla dobra nauki w Polsce.

        • ~Profesor PAN 08.08.2024 23:05

          Nie mam pojęcia, decyzje zapadają tak wysoko nad moją głową, że nie dostrzegam, kto je podejmuje. Ja robię tylko swoją robotę.

          • ~Keri 09.08.2024 10:50

            Prosimy o wyjaśnienie stwierdzenia "swoja robotę". Czy chodzi o aktywność na forum promującą maksymalne ograniczenie możliwości awansu naukowego. Czy Pan Profesor był też jednym z autorów apelu wystosowanego przez samodzielnych pracowników w czerwcu br. , którzy lobbują za wprowadzeniem drastycznych wymogów awansu naukowego?

            • ~Ch 09.08.2024 12:19

              A co według ciebie jest tym radykalnym hamulcem ? Kierowanie grantem? Publikacje w renomowanych czasopismach? Nie wiem, to nic nieosiągalnego dla faktycznie dobrego naukowca….

              • ~Keri 09.08.2024 13:55

                Na wydziale co najmniej kilku doskonałych naukowców z H 25-30, a nawet więcej wg Web of Science, IF > 200, nigdy nie dostali grantu, mimo, że próbowali wielokrotnie w systemie, gdzie współczynnik sukcesu to kilka, maksymalnie kilkanaście procent. Naprawdę nie widzi Pan problemu, czy tez jest Pan w grupie lobbujących?

                • ~Keri 09.08.2024 15:07

                  Nigdy, przenigdy success rate nie był w mojej dziedzinie więcej niż 15%, podane wielkości 20-25% są totalnie nieprawdziwe (piszę o swojej dziedzinie) i raczej wyjątkowe, może w niektórych dziedzinach tak było jak NCN rozpoczynało działalność lata temu. Od tego czasu współczynnik sukcesu aplikacji a granty sukcesu spadł o połowę i niżej i to od co najmniej 10 lat, w których składamy wnioski.
                  Tylko apel do młodych i ambitnych, zapomnijcie o to, że uda się wam uzyskać takie finansowanie, chyba, że jesteście z dużych ośrodków lub macie wyjątkowe szczęście (nagle zwiększone finansowanie), co raczej nigdy nie nastąpi. Nawet jeżeli będziecie mieli wybitny międzynarodowy i uznany dorobek, wasza staranie zostaną skutecznie ograniczone przez prostą zapisy w ustawie o kierowaniu badaniami z grantów.
                  Pamiętajcie o tych słowach za kilka miesięcy, gdy pojawi się propozycja zmian w ustawie, tylko wtedy będzie za późno.

                • ~Ch 09.08.2024 14:18

                  baśnie z mchu i paproci. Niski współczynnik sukcesu jest od 2 lat, co pana koledzy robili wcześniej kiedy granty dostawało 20-25% ? Jeszcze parę lat temu wnioski pisało się po polsku, polscy recenzenci i przechodziły różne projekty. Większość moich znajomych jeszcze przed hab. Ma na koncie kierowanie przynajmniej 1-2 projektami, maja publikacje o międzynarodowym zasięgu w dobrych czasopismach. Nie będą mieli problemu zatem w uzyskaniu habilitacji- dla ciekawostki, mówię o naukach humanistycznych. Natomiast ostatnio przeglądam sporo prac tzw monografii habilitacyjnych z mojej działki, to przeraża miałkość niektórych dzieł. Tak hab. Nie muszą mieć wszyscy i nie powinni. Tak samo nie dajemy doktoratu każdemu studentowi.

            • ~Profesor PAN 09.08.2024 11:21

              Wyraziłem taki pogląd. Nawet w sposób nieostry i niezobowiązujący, bo użyłem określenia "zastanawiam się." Uzasadniłem analogią militarną twierdząc, że armie nie wygrywają przez awansowanie wszystkich do stopnia generała. Apele podpisywałem w latach 80-tych, kiedy byłem młody, wyrywny i głupi, do dziś się tego wstydzę i oczywiście nic podobnego nie robię. A co, nie wolno mi?

              • ~Keri 09.08.2024 14:49

                Powinniśmy bardzo podziękować Panu Profesorowi za wyrażenie opinii, że tylko nieliczni i wybrani mogą awansować, z parytetem 1 profesor tytularny i nic więcej. Wiemy teraz doskonale jaki jest punk wiedzenia tej grupy i do czego dąży w nowelizacji ustawy o szkolnictwie wyższym z ograniczeniem możliwości awansu do minimum. Szczerze dziękujemy.

                • ~Byly naukowiec 10.08.2024 13:29

                  @Profesor PAN, ciężko mi sobie wyobrazić jak musi wygląda wnioskowanie osoby, która chce limitować ludzka chęć do rozwoju. To może tak: Wy mięso armatnie, My generałowie. Przecież nie może być za dużo generalow, prawda, bo kogoś tzn mięso armatnie, muszą przemielić? W gospodarce opartej na wiedzy perspektywy rozszerzają sie w sposób wykładniczy. I tak też powinniśmy myśleć o rozwoju banków wiedzy, czyli ludzi ja przechowujących i multiplikujacych.

                • ~Marcin Przewloka 09.08.2024 15:52

                  @Keri

                  Na calym swiecie sa naukowcy, ktorzy w pewnym momencie swojej kariery pozostaja na tym, czy innym stanowisku i dalej nie awansuja. Powody tego moga byc bardzo rozne, ale generalnie rzecz ujmujac, nie ma niczego niezwyklego lub "zlego" w tym, ze na przyklad 'associate professor' nie awansuje na 'full professor' i do emerytury bedzie zajmowal to nizsze stanowisko. To samo zreszta tyczy sie innych stanowisk.
                  Tak wiec generalnie nie wszyscy musza awansowac , to mam na mysli. I stad tez sie bierze "piramida", gdzie jest mniej profesorow, niz pracownikow na nizszych pozycjach. Oczywiscie, to nie powinno byc okreslone zadnymi "parytetami", tylko konkretnymi, jasno okreslonymi oczekiwaniami, co do promocji.

                  Natomiast juz konkretnie, co do tych nowych propozycji, to dobrze by bylo spojrzec w szczegoly, bo tam wlasnie, jak zwykle zreszta, diabel siedzi. Jakis link do tej propozycji nowych przepisow bylby tutaj pomocny.

                • ~Profesor PAN 09.08.2024 15:32

                  Naprawdę uważa pan, że armia samych generałów wygra wszystkie bitwy? OK, każfy ma prawo do swoich poglądów.

      • ~KB 08.08.2024 13:15

        Zgadzam się z opinią o "radykanlnych wymaganiach". Inna sprawa, że jeśli będą jakieś większe wymagania to śruba i tak będzie prawdopodobnie zbyt mało dokręcona.

        Jakie kraje ma Pan na myśli? Profesorów na zagranicznych uczelniach nie brakuje. Różnica polega na tym, że stałe etaty są głównie dla profesorów (lub dydaktyków), a reszta grupy to zazwyczaj tymczasowi doktoranci i postdoc. NCN chciał popchnąć naukę w tym kierunku poprzez brak/niewielkie finansowanie innych stanowisk niż doktorant i postdoc w projektach. Istotna różnica polega na tym, że assistant professor w Stanach, czyli w zasadzie odpowiednik naszego adiunkta, może być promotorem doktoratu.

        • ~Profesor PAN 08.08.2024 13:25

          Miałem głównie na myśli Niemcy ale to mniej istotne, idzie o zdrową strukturę organizacyjną. Fakt, że polska mizeria wynika z 40 lat głodzenia nauki. To nie kryzys, to rezultat.

    • ~Adam R 08.08.2024 10:36

      Na czym mają polegać te nowe, radykalne wymagania? Kryteriów ilościowych do ustawy nie wprowadzą, nie wpiszą, że trzeba mieć X artykułów lub X punktów. Zwiększą liczbę recenzentów? Zaczną wymagać monografii albo długiego pobytu zagranicznego?

      • ~m 08.08.2024 18:44

        Nie będą ilościowe, wystarczy, że dodają jedno kryterium nie możliwe do spełnienia dla większości dobrych naukowców w kraju. To już się szykuje i nikt nie apeluje o odrzucenie zmian. Marazm i apatia środowiska przeraża, pomimo widma totalnej blokady możliwości awansu na lata.

    • ~Andrzej 08.08.2024 09:10

      Czy można prosić o więcej szczegółów planowanych zmian, o których mowa powyżej?

  • ~Ireneusz 07.08.2024 08:34

    Nie ważne w jakim czasopiśmie artykuł jest opublikowany, ważne jest to , aby był czytany przez zainteresowane osoby i ewentualnie cytowany. Prestiż czasopisma, sztucznie często pompowany przez wydawców i redaktorów, nie ma wiele wspólnego z jakością i oryginalnością artykułu. Reaserch Gate, to ważne źródło informacji naukowej i o środowisku naukowym. Wiemy kto czyta i kto cytuje.

    • ~KOwal 07.08.2024 11:46

      No chyba jednak dla czytania i cytowania ma znaczenie gdzieś papier jest opublikowany.

      "Słabe" miejsce publikacji zniechęca do tego by się nim zainteresować i na nie powołać, w szczególności dlatego, że recenzenci potrafią się czepiać takich źródeł w bibliografii (na podstawie czasopisma/miejsca publikacji, a nie treści) zmniejszając tym samym szansę na akceptację manuskryptu.

      Oczywiście nie jest to reguła, ale myślę, że korelacja między postrzeganą przez "środowisko" jakością czasopisma, a liczbą cytowanych zeń artykułów byłaby silnie dodatnia.

      • ~Marcin Przewloka 07.08.2024 18:40

        @KOwal

        Kiedy mowimy o tresci pojedynczych artykulow, ich ocena nie ma nic wspolnego z tym, gdzie ten artykul jest opublikowany. Impact Factors to jest niestety taka "proteza", ktora stosuje sie tylko dlatego, ze nie ma niczego lepszego pod reka.
        Pojedynczy artykul w PLoS ONE nie musi byc gorszy niz jakis inny opublikowany w Nature Communications.
        To jest wlasnie to, co chcieli przekazac sygnatariusze dekladacji DORA.
        https://sfdora.org/

        To uzywanie IFs to jest bardzo trudny problem w dzisiejszym swiecie nauki, taki z serii "nie chcem, ale muszem". Nie wiadomo, jak w tym momencie go rozwiazac. No wstyd normalnie. Jednak to, ze jakas patologia dziala i nie mozna jej aktualnie wyleczyc, nie powinno nam przeslaniac tej waznej informacji, ze to jednak ciagle jest patologia.

        I jeszcze z historii nauki: poniewaz te najwieksze odkrycia zawsze zaskakuja wszystkich i nikt w nie poczatkowo nie wierzy, naukowcy maja problem z publikowaniem takich przelomowych wynikow. Noblowska praca Ciechanovera i Hershko ukazala sie w Biochem. Biophys. Res. Commun. w 1978 roku. Prosze sprawdzic Impact Factor BBRC. No smiech po prostu, prawda? Tylko teraz, co by Pan zrobil z ta praca, kiedy mialby Pan oceniac ich grant proposal?

        • ~KOwal 08.08.2024 08:38

          @Marcin Przewloka
          Abstrahując od Pańskich wycieczek osobistych - rozumiem, że nie zgadza się Pan z moją myślą że "korelacja między postrzeganą przez "środowisko" jakością czasopisma, a liczbą cytowanych zeń artykułów byłaby silnie dodatnia"?

          Jakiś czas temu przygotowując przeglądy literatury brałem pod uwagę tylko treści, małą wagę przywiązując do miejsca publikacji. Po kilku recenzjach, w których zarzuty dotyczyły jakości cytowanych czasopism (sic!) musiałem się dostosować do reguł gry i zacząłem robić autocenzurę. Coś jak o wronach i krakaniu. Życie.

          • ~Marcin Przewloka 08.08.2024 08:59

            @KOwal

            W moim komentarzu nie ma zadnych "wycieczek osobistych". Staram sie skupiac sie tylko na problemie.
            Zgadzam sie z teza, ze "korelacja między postrzeganą przez "środowisko" jakością czasopisma, a liczbą cytowanych zeń artykułów byłaby silnie dodatnia".
            I ciagle sposob oceny pojedynczych artylow tylko poprzez Impact Factor pisma, w ktorym sie one ukazaly, okreslam jako patologie. Zjawisko, ktore uroslo, jest czescia naszej naukowej codziennosci, ale jednak zjawisko negatywne.

            Zas "mysl przewodnia" mojego komentarza brzmi tak: Starajmy sie przynajmniej pokazywac, ze patologia jest patologia. Wtedy byc moze latwiej znajdziemy rozwiazanie.
            Chyba, ze nie widzi Pan tego problemu w ten sposob, czego przejawem byloby na przyklad niezgadzanie sie deklaracja DORA (co nie byloby niczym dramatycznym; zwyczajnie - inny poglad w tej sprawie).

            • ~Profesor PAN 08.08.2024 09:14

              Oczywiście, że korelacja między jakością czasopisma, a liczbą cytowanych przezeń artykułów jest silnie dodatnia. Czasopismo jest dobre tylko i wyłącznie dlatego, że publikuje dobre artykuły, a dobre artykuły (ciągle jeszcze) są cytowane. Nie odwrotnie, co może się wydawać różnym urzędnikom.

              Angielski rezydent powinien znać powiedzienie: correlation is not causation. Anglicy lubią je powtarzać z różych okazji.

              • ~Marcin Przewloka 08.08.2024 13:49

                @Profesor PAN

                No tak, ale nie trzeba byc angielskim rezydentem, zeby o tej roznicy wiedziec.
                Nie chcialem wnikac w szczegoly tego konkretnego punktu dyskusji bo latwo zeszlibysmy z tematu.
                Ale niewatpliwie ta korelacja istnieje, i stad sie biora roznice w IFs. Bo to jest troche taki self perpetuating cycle....
                :-)

        • ~Profesor PAN 08.08.2024 08:27

          Myślałem o napisaniu takiego kabaretu: komisja rozpatruje proposale grantowe Kopernika, Newtona, Lavoisiera, Einsteina, Plancka i Heisenberga. Czasem sobie myślę, że w XIX wieku dokonał się tak wielki postęp nauki głównie dlatego, że wtedy nie było grantów i oceny punktowej.

          • ~Ireneusz 08.08.2024 14:54

            Tak, prawda, przez pęd publikacyjny właściwie nie ma postępu w nauce, obecnie odkryć przełomowych brak, a takie były w zeszłym wieku i w poprzednim. A wynalazki to robota start UPS albo R&D w koncernach. Wyniki badań powinny być szybko upublicznione, a przez bezwładność wydawnictw i redakcji czasopism czekają rok a nawet dwa. To jest żenujące zjawisko w środowisku naukowym. Badacza czy naukowca nie powinien interesować IF, tylko dobra robota naukowa i dydaktyczna .

            • ~Marcin Przewloka 09.08.2024 16:03

              @Ireneusz

              Sporo negatywnych trendow jest we wspolczesnej nauce, rzeczywiscie to prawda. Problemy sie pietrza, na roznych poziomach. Niektore bardzo trudno rozwiazac, na przyklad wlasnie sprawa ewaluacji pracy naukowej, czy tez co zrobic z publikowaniem i ocena publikacji.
              Jednak nie uogolnialbym tego mowiac, ze "właściwie nie ma postępu w nauce". Jest postep, jak najbardziej. Rowniez, nie zgadzam sie z opinia, ze "wynalazki to robota start UPS albo R&D w koncernach". Trzeba pamietac o tym, ze praktycznie 100% innowacji technologicznych opiera sie na odkryciach dokonanych w badaniach podstawowych. Prawde mowiac, nie znam wyjatkow od tej reguly. Tak, firmy prywatne sa bardziej czasoso- i finansowo-efektywne, niz instytucje czysto-naukowe, zwykle sponsorowane z podatkow, ale ciagle te fundamentalne odkrycia stoja u podstaw wszystkiego, co pozniej mozemy zobaczyc na rynku (czy tez latajace w kosmosie...).

      • ~Profesor PAN 07.08.2024 13:13

        Naprawdę ma dla pana znaczenie, gdzieś artykuł został opublikowany, i to w ten sposób, że sprawdza pan aktualną listę ministerialną i pisma 200-punktowe czyta od deski do deski, 140-punktowe przegląda, na 100-punktowe rzuca okiem a resztę pogardliwie wyrzuca do kosza? Te 20-punktowe przez bibułkę.

        Ludzie nigdy nie przestaną mnie zadziwiać.

        • ~KOwal 08.08.2024 08:31

          Ja generalnie czytam to co wydaje się sensowne i oceniam po treści, a nie po okładce (czasopiśmie).

          Problem w tym, że nie raz i nie dwa miałem sytuacje, że recenzenci czepiali się jakości cytowanych - nie publikacji, ale czasopism.

          • ~Profesor PAN 08.08.2024 09:03

            Tylko kilka razy trafił pan na recenzenta-idiotę? Szczęściarz. Choć może nie, bo moim recenzentom zdarzało się wpadać na różne debilne pomysły ale coś tak durnego żadnemu nie przyszło do głowy. Czyli wychodzi, że to ja jestem szczęściarzem.

            Że istnieje punktowa ocena czasopism i że może ona kogoś obchodzić, nie wiedziałem przez dziesięciolecia, dowiedziałem się dopiero po powrocie z Niemiec, kiedy kazano mi sprawdzać, czy pisma do których wysyłam artykuły, są tego godne. Przy okazji dowiedziałem się, ile punktów dostały najbardziej prestiżowe pisma z mojej dziedziny - okrągłe zero. Nie zwiększyło to mojego i tak umiarkowanego szacunku do ministerstwa.

    • ~Profesor PAN 07.08.2024 08:43

      Dokładnie. Ale jakoś polscy naukowi mandaryni mają trudności z zauważeniem tej oczywistości. Dlaczego? Wyczuwam, że nie o rację idzie a o interesy.

  • ~M 06.08.2024 15:07

    W mojej ocenie dyskusja nad listami i punktowaniem czasopism przysłania prawdziwe problemy polskiej nauki. Jeśli tak dalej pójdzie, nie będziemy mieli kogo uczyć, ani nie będzie miał kto pisać tych publikacji. Do dobrych badań potrzebne są odpowiednie warunki, w tym również finansowe.

  • ~MRV 06.08.2024 14:52

    Co do ogółu się zgadzam, ale...

    Czy nie wygodniej byłoby zamiast kilku przedziałów punktów (obecnie 6) zrobić ich ok. 20, gdzie wzrost punktacji byłby wykładniczy (albo piramidalny jak w Chinach) i proporcjonalnie zależny od Open-Access-złotówki (kara za wyższą wartość i nagroda lub brak kary za niższą wartość względem średniej lub mediany z wyłączeniem np. najwyższego percentyla dajmy na to CiteScore)? Z jednej strony odseparowałoby to akademicki olimp od bentosu, z drugiej ukróciłoby przepłacanie za publikowanie.

    Oczywiście należałoby się wtedy zdecydować na uznanie, że czasopisma nie figurujące w bazach to odpad. Czy słusznie? Być może, bo często tychże gazetek nie da się ani zdobyć, ani przeczytać czegokolwiek, bo tak słabo jest to dostępne. Jeśli ktoś przekona większość, że najdonioślejsze prace publikuje się super-niszowo i w strumieniach o co najwyżej krajowym zasięgu, to będzie to duże osiągnięcie. Wykluczam jednostkowe przypadki, jak założenie własnego czasopisma tylko po to by opublikować hipotezę czerwonej królowej, bo taki przypadki można policzyć na palcach.

    Dlaczego czasopisma krajowe są obecnie nieindeksowane? Bo to świerszczyki! Często pojawia się argument, że jest to skierowane do krajowego przemysłu, krajowego odbiorcy. Gwarantuję, że krajowy przemysł, edukacja i nazwijmy to "hobbyści" czytają regularnie periodyki o obiegu światowym. Ba! Przedsiębiorstwa i hobbyści prześcigają się w poszukiwaniach w najnowszej literaturze i całym spektrum "grey literature" z ośrodków zagranicznych, które i tak później kończą się najczęściej publikacjami w topowych czasopismach (doktoraty, raporty techniczne, bazy danych i inne). Gdzie były te wszystkie czasopisma przez te wszystkie lata i co zrobiły aby być indeksowanymi? Co zrobili wydawcy tychże czasopism aby wspomóc wejście do baz? Jakie zachowania względem polskich autorów stosowali polscy edytorzy i recenzenci? Co było celem nadrzędnym istnienia czasopisma kiedyś i teraz? Naprawdę nie musimy się martwić o to, czy jakieś czasopismo, które należy do towarzystwa, uczelni, przedsiębiorstwa, czy innego ciała, będzie istniało, czy nie i czy padnie od braku tekstów. Widocznie nie było na tyle wystarczające, aby ktokolwiek chciał do niego pisać.

    Po co tworzyć nowe wskaźniki, skoro są już liczne, uznane w środowisku światowym? Czy nie warto je przemnożyć po prostu o kosztochłonność publikowania?

    Uwaga o OA - skoro karać za publikowanie w OA, to czemu jednocześnie krajowa licencja na dostęp subskrypcyjny do czasopism z wysokim IF i wysokim CiteScore jest ograniczana w ostatnich latach? Mamy zacząć kraść poprzez znane portale? Albo to, albo to. Poza tym, jeśli budżet uczelni jest skonstruowany z uwzględnieniem publikowania w OA jako element strategiczny i dana uczelnia nie przynosi strat, to jaki jest cel odgórnej manipulacji?

    Obecny kształt ewaluacji uciął masowe publikowanie miernoty, bo wszystkie ręce są na pokładzie i każdy musi przynieść po cztery najlepsze grzyby do koszyka! Skoro ma to oceniać doskonałość uczelni, to czemu nie ma dodatkowej nagrody parametryzacyjnej za bycie pierwszym lub korespondującym autorem? Czemu również nie wprowadzić dodatkowej miary określającej pracochłonność w oparciu o liczbę autorów? Zakładając, że autorzy znają wytyczne COPE, ile musiał się napracować 17 autor spośród 35? A jeśli nawet jakaś dyscyplina woli kolejność alfabetyczną autorów, to czy przy publikacjach, gdzie autorów jest dziesiątki, wkład był na tyle duży per capita, że świadczy o doskonałości wyłącznie tejże osoby? Skoro już przy tym, czemu karać współprace doskonałych pracowników w jednej jednostki i premiować współprace z jednostkami zewnętrznymi? Czy to nie jest w niektórych przypadkach ukryte przerzucanie kosztów prowadzenia badań na jednostki zewnętrzne? Dlaczego dwóch noblistów z jednej jednostki może dostać karę za wspólną publikację przy określonym zakresie punktów? Za mało doskonali byli?

    Listy nie muszą być krótkie, muszą być przejrzyście skonstruowane. Nic nie szkodzi, że jest w niej 1000 periodyków, których nikt nie czyta, problemem jest ręczne wycenianie ich na poziomie czasopism przynajmniej dobrych. To jest główna przyczyna wypaczenia parametryzacji. Przecież tu nie trzeba niczym ręcznie sterować, wystarczy napisać kilka dobrych algorytmów i co roku do arkusza zaciągać dane. Czasopisma dobre pozostaną dobrymi, czasopisma złe pozostaną złymi, publikowanie drogie pozostanie drogim, a tanie tanim. Wzrost wykładniczy zostanie wykładniczym, podobnie jak stosunek, np. względem ilości autorów (chyba, że zmienimy matematykę sterując nią ręcznie).

  • ~KB 06.08.2024 13:09

    W dyskusjach na temat ewaluacji głównie komentuje się ocenę indywidualną naukowca, a nie oceny jednostek. To teraz pytania dotyczące w ogóle sensu ewaluacji - czy ktokolwiek zna kogoś kto został zwolniony w jego/jej jednostce z powodu niedostatecznych postępów naukowych?

    W skali całego mojego Wydziału nie znam ani jednego przypadku. Zatem czy dyskusja o ewaluacji indywidualnej ma jakikolwiek sens, skoro to i tak nic nie zmienia. Ludzie słabi naukowo nadal pracują na w nauce, ewaluacja jest raz na 4 lata, a kryteria oceny dostatecznej czy dobrej są praktycznie żadne.

    • ~Marcin Przewloka 06.08.2024 14:13

      @KB

      To w Polsce jest jakas ogolnonarodowa ewalaucja kazdego naukowca z osobna?
      I potem osobna ewalaucja jednostek naukowych?
      (przepraszam za moja ignorancje)

      • ~Profesor PAN 06.08.2024 15:41

        Tak samo jak wszędzie, kierownictwo jednostki naukowej ocenia swych pracowników. I ocenia lepiej tych, co się bardziej przyczyniają do lepszej oceny jednostki, co dziwić nie powinno. Praktycznie wszędzie kryteria oceny są identyczne i praktycznie wszędzie dyrektorzy, rektorzy i dziekani mówią, że nie nie nie, oczywiście inaczej ocenia się pracowników i instytuty, uniwersytety, wydziały.

        • ~Marcin Przewloka 06.08.2024 16:30

          @Profesor PAN

          Czyli ta ocena pracownika jest oddzielna od oceny jednostki, jesli dobrze rozumiem.
          Ja jako pracownik jestem oceniany co roku (tak z grubsza...), ocena jednostki naukowej - co 7 lat.
          Zdecydowanie, sa roznice w tym, na co jest nacisk w czasie tych dwoch roznych ewaluacji.

          • ~KB 06.08.2024 17:23

            Jeśli mnie pamięć nie myli, obie są co 4 lata. Żeby nie dostać oceny negatywnej, mniej więcej wystarczy wykazać jakikolwiek artykuł (część naukowa) i wypełniać pensum (część dydaktyczna).

            Ewaluacja jednostek jest bardziej skomplikowana, ale w uproszczeniu każdy wrzuca do wspólnego worka do 4 najlepszych publiakcji. Jest to liczone według udziału w publikacji (udział w stosunku do współautorów z tej samej dyscypliny w danej jednostce), więc w praktyce więcej. Na tej podstawie oblicza się średnią wagę zgłoszonych publikacji. Jeśli wykazuje się tylko jedną publikację to nadal jest ona dzielona na 4. Dla przykładu (dość skrajnego) monoautorska publikacja w Nature w ciągu 4 lat za 200 pkt, daje średni slot 50 pkt i tyle taka osoba wnosi do wspólnego worka danej dyscypliny. N0 (brak jakiejkolwiek aktywności przez 4 lata) to bodajże punkty ujemne.

            • ~Młody Sheldon 07.08.2024 08:16

              Przykład z Nature jest błędny i pokazuje, że osoby zabierające głos w dyskusji na tym forum nie mają pojęcia jakie zasady obowiązywały w ewaluacji 2017-2021 w ramach I kryterium /punkty za publikacje/

              • ~KB 07.08.2024 12:47

                Ewaluacje jednostek ogarniały wyznaczone do tego osoby oraz kadra zarządzająca. Zwykły adiunkt, słuszenie zresztą, jeśli pracuje rzetelnie nie musi się tym tematem specjalnie przejmować. Przez rzetelną pracę rozumiem publikowanie w dobrych czasopismach, niezależnie od tego jaki jest system, ponieważ to się zawsze obroni.

                Chętnie natomiast przeczytam wyjaśnienie od kogoś z większą wiedzą i czegoś się nauczę.

            • ~Marcin Przewloka 06.08.2024 22:40

              @KB

              Rozumiem.
              Co 4 lata to moim zdaniem zdecydowanie za czesto.
              W czasie ewaluacji pracownika, ktora w kraju w ktorym pracuje, jest sprawa 100% zalezna od pracodawny, zwykle pytaja o pieniadze. Zas w czasie co-7-letniej ewaluacji "panstwowej" pytaja o publikacje oraz inne rzeczy, ktore z nauki moga wynikac. Na potrzeby najblizszej ewalaucji (REF2029), publikacje z naszego wydzialu beda wrzucone do wspolnego worka, co usrednia, ale daje tez poczucie wspolnej pracy i wspierania sie.

    • ~Profesor PAN 06.08.2024 13:40

      Oczywiście, że zwalnia się ludzi, którzy nie publikują. Albo przynajmniej przenosi na etaty dydaktyczne. N0 to straszne obciążenie dla jednostki a praca w nauce to brutala walka o byt.

      • ~KB 06.08.2024 17:11

        Nie przesadzałbym z tą brutalnością. Na mojej topowej uczelni w Polsce faktycznie kilka osób zostało przeniesionych na etaty dydaktyczne (lub inne) w trakcie ewaluacji, ale to wciąż jednostki w skali dążenia do legendarnej doskonałości naukowej. Przy dobrych wiatrach było to może 4% pracowników. Poza tym, w czasach gdy nie ma kogo uczyć łatwiej będzie obniżyć poprzeczkę, niż przenieść kogoś z etatu gdzie pensum wynosi 240 godzin, na etat gdzie pensum wynosi 360 godzin.

        Realia są takie, że bycie współautorem dwóch artykułów za powiedzmy 70 pkt w ciągu 4 lat w zupełności wystarczy, żeby utrzymać etat naukowo-dydaktycznym. Nie trzeba być nawet pierwszym autorem, a jak się dobrze ustawi to nie trzeba nawet wiele zrobić i można być dopisanym.

  • ~Profesor PAN 05.08.2024 22:34

    " Ocenianie naukowca na podstawie wskaźnika wyliczanego dla czasopisma przypomina tu sytuację, w której jako ocenę szkolną ucznia bralibyśmy nie jego indywidualny wynik uzyskany w teście, ale średnią ocen jego szkolnej klasy. Tego typu postępowanie uznawane jest za błąd rozumowania nazywany ecological fallacy (Paulus, Cruz, Krach 2018), polegający na utożsamianiu wyniku średniego dla zbiorowości z wynikiem indywidualnej osoby będącej przedstawicielem tej zbiorowości."

    Cytat z Konrad Kulikowski, Negatywne oddziaływanie polityki ewaluacji jednostek naukowych na jakość polskiej nauki. Perspektywa mertonowskiego etosu naukowego, Studia Socjologiczne 2024 1 (252), 55–79

    Jakiś miłośnik punktozy będzie w stanie wejść z tym w polemikę?

    • ~Marcin Przewloka 06.08.2024 10:45

      @Profesor PAN

      No moglbym wejsc w ta polemike, ale nie wejde, bo to strasznie duzo klepania w klawiature. Zwyczajnie nie mam tyle czasu... Przepraszam :-)

      Tylko dwa komentarze, krotko.

      Otoz jesli juz zalozymy, ze ewaluacja jest konieczna i ma czemus sluzyc, to kazda ewaluacja zamienia sie w "punktoze". A to dlatego, ze na koncu ewlauacji oczykujemy liczb. Ostatecznie progres i jakosc chcemy opisac liczbowo. Wiec jakis rodzaj "punktozy" z definicji zawsze bedzie, to jest nieuniknione.
      Na przyklad w Wielkiej Brytanii w REF dostajemy za publikacje gwiazdki, od jednej do czterech (czyli od 1 do 4 punktow, tak?). No smiesznosc wielka, ale co zrobic?

      Jesli ewalaucja ma sie odbywac co kilka lat, a nie co lat 10 czy 15, to niestety najlepszy spsosob oceny publikacji, czyli porzez liczby cytowan, odpada. W tym momencie wszystko inne, czego sie uzyje, bedzie przyblizeniem, z definicji niedoskonalym. To stad uzywanie tych wszystkich IFs i innych wartosci bibliometrycznych.
      Trzeba tylko pamietac, ze ewaluacja pracy pojedynczej osoby to rzecz zupelnie inna, niz ewaluacja calego wydzialu czy instytutu. To wazne w kontekscie pracy, ktora Pan przytoczyl.

      • ~Profesor PAN 06.08.2024 11:23

        A dlaczego to niby odpada sposób oceny publikacji poprzez liczbę cytowań, skoro sam pan go ocenia jako najlepszy, jeśli tylko ewaluacja ma się odbywać co kilka lat? Publikuje pan raz lub kilka razy w roku ale cytowany jest kilkadziesiąt razy w sposób właściwie ciągły.

        Ocena oparta wyłącznie na cytowaniach ma wady, które pewno będziemy w stanie wymienić. Polski problem jest inny - w ewaluacji cytowań nie uwzględnia się w ogóle! Klasyk, który pracuje nad głębokim problemem i dlatego kilka lat nie publikował, powinien zostać zwolniony jako nieuk. Nigdy nie uwierzę, że tak samo jest w UK, panu samemu zdarzały się kilkuletnie przerwy w publikowaniu.

        • ~Marcin Przewloka 06.08.2024 12:31

          @Profesor PAN

          Cytowania musza miec czas na zakumulowanie sie. Kilka lat to czesto za malo (tutaj sporo tez zalezy od dziedziny). Cytowalnosc powinna byc uwzgledniona, jednak w krotkim okresie czasu moze nie odzwierciedlac zainteresowania i 'contribution to the field'. NB, wydaje mi sie, ze okresy ewaluacji przeprowadzane mniej, niz co 5 lat nie maja za bardzo sensu.

          Publikacje, tak jak granty, przychodza czesto falami, szczegolnie w malych grupach badawczych, sa wiec okresy "bezrybia", to normalne.
          Ale ocenianie pojedynczych osob to co innego, niz ocenianie calej jednostki naukowej; w tym drugin przypadku efektywnosc publikowania sie usrednia, wiec mozna oczekiwac wiecej.

          • ~Profesor PAN 06.08.2024 13:36

            Oczywiście, że cytowania muszą mieć czas na zakumulowanie się. Ale czy nauka nie jest z istoty swojej takim kumulowaniem? Stojąc na ramionach (powinno być barkach) gigantów... Kto chce patrzeć na naukę w krótkim okresie czasu, zachowuje się jak milicjant z dowcipu, który oceniał pracę migacza: działa, nie działa, działa, nie działa... Nauka nie jest sprawą chwilową!

            A ocenianie indywidualnych osób według innych kryteriów niż organizacji to marzenie ściętej głowy, przynajmniej w Polsce. Każdy kierownik placówki zechce mieć u siebie te osoby, które przyczynią się do jej sukcesu, a nie zechce tych, którzy będą mieć własne pomysły. Walka o byt jest zawsze pierwsza.

            • ~Marcin Przewloka 06.08.2024 14:07

              @Profesor PAN

              To wszystko prawda, tylko nie bardzo widze mechanizmy, ktore pomoglyby te pomysly wprowadzic w zycie.
              Pojedyncze osoby oczywiscie przyczyniaja sie do dorobku danej instytucji, ale ich ocena to nie to samo. Od instytucji oczekujemy znacznie wiecej, nie tylko ilosciowo.

              Troche ciezko mi jest odniesc sie do konkretow, bo system nauki brytyjskiej czy amerykanskiej jest bardzo plaski. Czlowiek staje sie group leaderem czy tez nauczycielem akademickim i juz. Staje sie w 100% samodzielny. W Polsce jest inaczej. Tak wiec inaczej patrzy sie na osiagniecia danej grupy/zespolu.

              Wracajac do "punktozy", cokolwiek nie uznamy za priorytet w ewalaucji, zawsze zamieni sie to na jakis rodzaj "punktozy". To chcialem przekazac w moim komentarzu. Punktozy moga byc oczywiscie rozne, ale prawde mowiac nie przywiazywalbym do tego jakiejs szczegolnej wagi. Niech odpowiedzialni za ewaluacje wgryza sie w szczegoly kilku (2 lub 3) systemow ewaluacji nauki europejskiej. Niech pogadaja ze specjalistami z tych krajow, niech usiada i zastanowia sie, co z tego przelozyc na grunt polskiej nauki, potem niech konsultuja jeszcze raz, az znajda rozwiazanie. Nie trzeba odkrywac kola, mozna sprobowac zaczerpnac od innych.
              Co wazne - jak juz sie ten sposob opracuje, to trzeba go wprowadzic w zycie porzadnie, poprawnie, nie po lebkach i udajac. Zeby to mialo rece i nogi i czemus sluzylo. Jak juz wydawac pieniadze i spedzac nad czyms czas, to efektywnie.

              • ~Profesor PAN 06.08.2024 17:44

                W takim razie odpowiem cytatem z klasyka:

                Rzeczpospolita to postaw czerwonego sukna, za które ciągną Szwedzi, Chmielnicki, Hiperborejczykowie, Tatarzy, elektor i kto żyw naokoło. A my z księciem wojewodą wileńskim powiedzieliśmy sobie, że z tego sukna musi się i nam tyle zostać w ręku, aby na płaszcz wystarczyło; dlatego nie tylko nie przeszkadzamy ciągnąć, ale i sami ciągniemy.

                Rozumie pan? Polacy nie po to idą do komisji, komitetów, rad i zespołów ekspertów, by coś zrobić dla dobra wspólnego, ale by załatwić coś sobie i (ewentualnie) swojemu środowisku. Taka tradycja, jeśli Anglicy mają inną, to bardzo im się chwali.

                • ~Marcin Przewloka 06.08.2024 22:54

                  No wlasnie nie rozumiem.
                  Moze rzeczywiscie, tak jak Pan pisze, troszke stracilem kontakt z ta inna rzeczywistoscia.
                  Mysle, ze w kazdym kraju roznice sa jednak spore, jak sie przyjrzec szczegolom. Pomimo tej calej uniwersalizacji i globalizacji.

              • ~Profesor PAN 06.08.2024 15:44

                "Niech odpowiedzialni za ewaluacje wgryza sie w szczegoly kilku (2 lub 3) systemow ewaluacji nauki europejskiej. Niech pogadaja ze specjalistami z tych krajow, niech usiada i zastanowia sie, co z tego przelozyc na grunt polskiej nauki, potem niech konsultuja jeszcze raz, az znajda rozwiazanie."

                Dawno pan w Polsce nie był, prawda? I nie zdaje sobie sprawy z humorystycznego aspektu tego tekstu.

                • ~Marcin Przewloka 06.08.2024 16:49

                  @Profesor PAN

                  To znaczy nie bardzo widze problem. Cztery lub piec osob w zespole. Mysle, ze maksymalnie rok pracy.
                  Powinno sie udac. Sporo rozmow z kolegami/kolezankami z innych krajow, ale nawet tak bardzo duzo podrozowac nie trzeba, wystarczy Teams, no i sporo czytania i dyskusji, ale to nie jest cos niebywalego, nie? W koncu mowimy o systemach, ktore juz dzialaja, wiec nawet nie chodzi o wymyslanie, tylko raczej transfer.
                  Cos zle mowie?

    • ~Marek 06.08.2024 06:41

      Przykład problematyczny, żeby nie powiedzieć nietrafiony, choćby ze względu na powszechnie obserwowane zjawisko ICC w badaniach edukacyjnych. Jest na ten temat masa artykułów w ostatnich dekadach.

      • ~Profesor PAN 06.08.2024 08:33

        Że jaki przykład? I co to takiego ten trzyliterowy nikomu nie znany skrót, dlaczego w badaniach edukacyjnych i co to ma do ewaluacji? Jest pan pewiem, że wpisał ten tekst we właściwe miejsce?

        • ~Marek 06.08.2024 09:03

          Mowa o przykładzie porównującym ocenę naukowca do oceny ucznia w relacji do średniej oceny klasy. Z badań z obszaru nauk o edukacji jasno wynika, że na ocenę ucznia znaczny wpływ ma ogólny poziom klasy więc informacja o ogólnym poziomie klasy wiele mówi o poziomie poszczególnych uczniów więc twierdzenie, że średnia ocena czasopisma nic nie mówi o poziomie poszczególnych autorów jest zastanawiające.

          • ~Profesor PAN 06.08.2024 09:40

            Ależ oczywiście, że na wyniki ucznia znaczny wpływ ma ogólny poziom klasy, nikt tego ani trochę nie podawał w wątpliwość choćby dlatego, że rozmowa była o czymś zupełnie innym. Na wyniki ucznia ma też duży wpływ zamożność otoczenia, szwajcarskie dzieci generalnie uczą się lepiej niż somalijskie. I pewnie jest milion innych czynników.

            Nikt jakoś nie wpadł na pomysł, by w oceniać uczniów na podstawie średniego dochodu w ich mieście. Na taki pomysł nie wpadł nawet podwójny minister Przemysław Czarnek, znaczy nie wpadła jego połowa edukacyjna, bo połowa naukowa wpadła - by oceniać naukowców w zależności od pism, w których publikują, a te pisma mają oceniać ludzie, którzy zupełnie nic na ich temat nie wiedzą.

            Ja nie narzekam, zawsze bardzo lubiłem Monty Pythona.

  • ~P 05.08.2024 18:27

    Podpowiem: impact factor, niczego lepszego nie wymyslono. To po pierwsze. Po drugie: to ministerstwo powinno podleglym instyrucjom wyznaczyc cele minimum do realizacji takie, jak jakosc i loczba publikacji. Ich szefowie powinni sie z tego wywiazac. Te, jednostki, ktore spelniaja to minimum, nalezy zwyczajnie finansowac. Pozostale zlikwidowac, przeksstalcic lub zreorganizowac. I zakonczyc wyscig szczurow o ochlapy.

  • ~Marcin Przewloka 05.08.2024 13:47

    Wydaje sie, ze sporo z tych sugestii jest problematycznych.
    Bardzo krotko wymienie tylko dwie.
    Jedna to sprawa 'predatory journals'. Temat jest bardzo skomplikowany i autorzy wydaja sie nie zdawac z tego sprawy. Te pisma nie zaistnialy w przestrzeni publikacji naukowych bez powodu. Niektore tytuly, ktorych nikt nie zaliczylby do grupy "drapieznych", probuja cos z tymi problemami wspolczesnego trybu publikowania zrobic. Zachecam do spojrzenia na przyklad tutaj:
    https://elifesciences.org/articles/83889
    Druga sprawa, o ktorej wspomne, to punktacja. Otoz jeden rzad wielkosci, czyli punkty od 20 do 200 moga nie odzwierciedlac tego, co widzimy w obecnej ofercie czasopism. Impact Factors tytulow, ktore sa uznane i szanowane w swiecie nauki, roznia sie bardziej niz 10-krotnie i punktacja powinna to odzwierciedlac. Podam przyklady z mojej dziedziny:
    Nature Medicine 58.7, Nature 50.5, Cell 45.5, Science 44.7, Biochemistry 2.9, Genetics 3.3, Molecular Biology of the Cell 3.1
    Punktacja wiec (o ile zgodzimy sie ze takie cos w ogole ma racje bytu) powinna zostac rozciagnieta do na przyklad 5 - 200 (zamiast obecnych 20 - 200).
    Zas same pisma powinny byc brane tylko z JCR. Zadnych recznych manipulacji i zmian. Zadnych 2 oddzielnych list. Jedna, czysta i klarowna lista dla kazdej dziedziny. W JCR sa listy tytulow z kazdej dziedziny naukowej, kazda dziedzina jest dobrze reprezentowana.

    Warto tez zauwazyc, ze podejscie zaproponowane powyzej, raczej nie wychodzi na przeciw tym, ktorzy optuja za ewaluacja ekspercka. Ale to zapewne juz temat na inna dyskusje.

  • ~Jerzy Domżał 05.08.2024 13:40

    A o wykazie konferencji, kompletnie nieprzystającym do polskich realiów, ani słowa?
    Przecież tam za dwustronicowe abstrakty można dostać 200 pkt? Za kolejne kilkaset w banalny sposób 140 lub 70 pkt.
    A do tego wartościowe konferencje są pomijane, bo nie interesują Australiskich informatyków.
    To nie razi?

    • ~obserwator bajzlu 09.08.2024 07:49

      Abstrakt (rozszerzony też) zgodnie z rozporządzeniem wart jest okrągłe zero, niezależnie od źródła

      • ~Jerzy Domżał 09.08.2024 08:33

        Źle się wyraziłem. Miało być:dwustronicowe artykuły, nazywane tak dla niepoznaki, by tylko otrzymać punkty.

  • ~KOwal 05.08.2024 12:37

    "Konieczne jest usunięcie z listy czasopism drapieżnych".
    A czy państwo profesorstwo nie zapomnieli w tekście przypadkiem zdefiniować pojęcia "czasopismo drapieżne", kluczowego dla realizacji już pierwszego postulatu? Jakie to mierzalne kryteria miałyby decydować, że czasopismo X jest drapieżne, a czasopismo Y już nie jest, hę?
    Chętnie bym się dowiedział czy państwo profesorstwo zakwalifikowałoby do tej grupy np. IEEE Access, Scientific Reports, Machine Learning and Knowledge Extraction, Big Data and Cognitive Computing i dlaczego.

    Poza tym wygląda to na próbę wynalezienia koła. Wystarczyłoby do zamapować kategorie JCR na dyscypliny, przefiltrować czasopisma po dyscyplinach, uszeregować według IF/JCI i przydzielić punkty:
    a. TOP10% - 200
    b. TOP11-25% - 140
    c. TOP26-50% - 100
    d. TOP51-75% - 70
    e. TOP76-100% - 40,
    a tym które muszą być, a nie występują w JCR dać 20p na zachętę.

    I problem z głowy - algorytm łatwy i przejrzysty, co roku automatycznie może wygenerować listę na następny rok (po aktualizacji JCR), więc nie ma zaskoczeń. Jedynie trzeba pilnować mapowania kategorii na dyscypliny i gotowe.

    • ~KB 05.08.2024 21:22

      Nie rozumiem czemu od kilku lat (reforma Gowina?) posługujemy się tymi dziwnymi programi punktowymi. Jeszcze prostszym rozwiązaniem jest zaciągnięcie informacji dla poszczególnych dyscyplin z bazy Scopus. W takiej wersji percentyl odpowiada ilości punktów w skali od 0-100 i nie wymaga to niczego więcej niż aktualizacji raz do roku.

      Przy okazji, byłaby to oszczędność publicznych pieniędzy (no chyba, że tak skomplikowana operacja wymaga pracy więcej niż jednej osoby).

      • ~KOwal 06.08.2024 09:47

        Utrzymanie progów wymyślonych kilka lat temu na co najmniej rok 2025 jest niezbędne, żeby zapewnić porównywalność wyników z lat 2022-2024 i 2025.
        Jeśli na 2025 zmieniłaby się skala i np. maks. było 100 punktów, to znów mielibyśmy bardak i płacz "pokrzywdzonych".
        A od 2026 można myśleć o czymś innym, np. ciągłej punktacji. Inna sprawa, że przełożenie kategorii czasopism w JCR na dyscypliny wcale nie jest trywialne, bo wiele czasopism ma po kilka kategorii, lokuje się w tych kategoriach na różnych miejscach (często, gęsto różnice są istotne), a u nas te kategorie wpadają w jedną dyscyplinę. I co zrobić w takiej sytuacji? Brak wyższą lokatę, niższą? Średnią? Arytmetyczną? Ważoną?

        • ~KB 06.08.2024 12:58

          Jeżeli istnieje potrzeba zrównania to można "stare" punkty podzielić przez 2 lub nowe pomnożyć x2. W mojej dyscyplinie wiele osób skorzystałoby na zmianie, ponieważ jest wiele dobrych czasopism mają percentile w przedziale 75-90, a mają 140 pkt ministerialnych. Zatem, lament "pokrzywdzonych" mógłby nie być aż tak znaczący. Nawet Materials z MDPI ma percetile 67 (przy 140 pkt obecnie).

          Jeśli się nie mylę, to na mojej uczelni na potrzeby IDUB i nagród brana jest najwyższa lokata. Każdy ma zdeklarowaną dyscyplinę/dyscypliny, więc nie widzę tu dużego problemu.

    • ~ekonomista 05.08.2024 12:55

      Problem polega na tym, że w JCR są czasopisma drapieżne, np. MDPI. Są one powoli usuwane, ale niektóre tam dalej widnieją, jak np. Sustainability czy Energies.

      • ~Janusz 05.08.2024 17:51

        Ale dlaczego twierdzi Pan, że MDPI są drapieżne ("że w JCR są czasopisma drapieżne, np. MDPI") -dobrze rozumiem? W ostatnim konkursie NCN SONATINA w dziedzinie nauk o życiu część beneficjentów miała publikacje w MDPI -całkiem sporo. Skoro NCN je toleruje, to dlaczego ewaluacja ma ich nie brać pod uwagę? Przecież według Pana Profesora Jajszczyka granty miały być podstawą ewaluacji. Więc mamy nie brać publikacji z MDPI, ale granty, które są otrzymywane na podstawie (oczywiście nie tylko) dorobku publikacyjnego zawierającego publikacje w MDPI, mamy brać do ewaluacji? Te czasopisma mają spore IF, więc chyba to coś znaczy? Czy nie jest tak?

      • ~Łukasz 05.08.2024 13:52

        A może widnieją tam dlatego, że nie są drapieżne?
        Analizy są przeprowadzane przez Clarivate. O ile w przeszłości czasopisma z MDPI traciły IF, to np. w 2024 za manipulację cytowaniami Impact Factor straciły czasopisma ze Springera i Elseviera (https://retractionwatch.com/2024/06/27/seventeen-journals-lose-impact-factors-for-suspected-citation-manipulation/).
        Zastanawia mnie, że poważni ludzie (naukowcy za takich powinni uchodzić) zdają się formułować swoje opinie na podstawie plot z forów internetowych albo jakiś bzdurnych blogów, pokazujących, że dane czasopismo ma dużo wydań specjalnych, i na tej podstawie wyciąga się daleko idące wnioski. A jednocześnie, jak renomowane instytucje, profesjonalnie zajmujące się bibliometrią, takich rewelacji nie potwierdzają to próbuje się sugerować, że "jeszcze nie zdążyli".

        • ~Łukasz 08.08.2024 18:43

          W sumie upadek springerowego Environmental Science and Pollution Research jest dość widowiskowy. Z całkiem niezłego pisma do masowej spółdzielni cytowań, publikującej setki nieistotnych, nędznych prac, w zaledwie kilka lat. Oczywiście, nadal trafiają się tam ciekawe prace, ale teraz nikt nie będzie ich traktował poważnie.

        • ~Krzysio 05.08.2024 15:41

          Wystarczy przejrzeć kilkadziesiąt tekstów w Sustainability czy Energies, żeby zorientować się że nigdy nie powinny były zostać opublikowane.

          Ponadto, czasopisma te publikują artykuły nawet gdy recenzja jest negatywna.

          • ~ala 10.08.2024 12:49

            .... zazdroszczę wprawy w powierzchownym przeglądaniu artykułów z góry przekreślonych....

          • ~Profesor PAN 05.08.2024 17:14

            Tak ogólnie rzecz biorąć to 90% jakichkolwiek tekstów w jakichkolwiek pismach nigdy nie powinny były zostać opublikowane.

            • ~Marcin Przewloka 05.08.2024 18:24

              @Profesor PAN

              Ja z kolei jestem zdania, ze WSZYSTKO powinno byc opublikowane.
              Jakosc opisu powinna byc jednak taka, aby pozwalala na szybkie zorrientowanie sie, ktorej czesci wynikow mozemy zaufac, bardziej, a ktorej mniej.
              Poniewaz jest naprawde bardzo trudno przewidziec, gdzie nauka bedzie sie szwedac za lat 5, za lat 15 i za lat 50, kazda publikacja, nawet ta oceniana na "slaba", ma szanse sie przyczynic do odkrycia czegos wiekszego.

              Sam jestem winny trzymania w szufladzie zbyt wielu wynikow, ale taka jest moja opinia ogolna na ten temat.... :-)

      • ~KOwal 05.08.2024 13:10

        Problem w tym, że nie ma jednoznacznej definicji "czasopisma drapieżnego", która pozwoliłaby je odsiać. Państwo profesorstwo też się o taką definicję nie pokusili, choć tym hasłem szafują na prawo i lewo. Tak tęgie głowy nie wpadły na to, że zanim się zacznie pojęcia używać, to należy je jednoznacznie zdefiniować?

        Skoro Sustainability i Energies są przywoływane jako "drapieżne", to czym się różnią od IEEE Access lub Scientific Reports, że tych nikt się nie czepia? Nagonka na MDPI, bo obniża zyski starych graczy?

        Jestem ciekawy jak przeciwnicy MDPI uzasadniliby rzekomą drapieżność wspomnianych powyżej Machine Learning and Knowledge Extraction i Big Data and Cognitive Computing, skoro już je wrzucają do jednego worka próbując wmówić, że całe MDPI jest drapieżne i powinno trafić do kosza.

        • ~Łukasz 05.08.2024 14:06

          Zgadzam się z Panem w 100%.
          Nie wspominam już o Helion z Elseviera, czy ACS Omega, które w zasadzie niczym się nie różnią od wielu czasopism MDPI z "tej samej półki".

          Są też inne wydawnictwa (np. Hindawi), które mają taki sam model biznesowy jak MDPI i w których przypadku więcej czasopism traciło Impact Factor. Ale mówi się głównie o MDPI, bo odniosło największy sukces na rynku.

          Moim zdaniem model subskrypcji będzie zamierał i hejt na czasopisma, które wydaja wyłącznie w Open Access, skończy się, gdy tylko "główni gracze" typu Springer-Nature przejdą na ten model.

          • ~Romek 08.08.2024 13:43

            Absolutnie się zgadzam, pytanie jeszcze kto tak krzyczy głośno... chyba zazwyczaj Ci, co to slotów nie mogą wypełnić nawet rozdziałem za 20 pkt - Upss... A już jak się uda, to szybko lecą po nagrodę JM Rektora - czyż nie?

            • ~Ireneusz 08.08.2024 21:08

              Nagrody od 100 p. Nie zmyślaj Pan

  • ~ZF 05.08.2024 12:24

    Dlaczego lista ma być krótka? By jeszcze bardziej ograniczyć wybór, gdzie publikować? I zmuszać ludzi do wysyłania tekstów do kilku czasopism na krzyż? Co za bzdura.

    • ~ala 10.08.2024 12:44

      Popieram, lista powinna być dłuższa!

  • ~Adam K 05.08.2024 12:17

    Załóżmy, że powstanie ta postulowana krótka lista najlepszych czasopism o właściwie przypisanych punktach. I co dalej?
    Czy obecna sytuacja wynika z tego, że mamy w kraju tysiące naukowców, którzy publikują w złych czasopismach bo lista jest zła? Czy jak na liście będą tylko najlepsze czasopisma to sytuacja ulegnie poprawnie? W jakim wymiarze będzie lepiej? Problem raczej tkwi w tym, że wielu pracowników uczelni nie jest zainteresowanych robieniem nauki lub nie ma do tego predyspozycji lub system dawno zdławił u nich ambicje i motywację. Ponadto co z tego, że te najlepsze czasopisma ekonomiczne mają wysoką cytowalność, bo czy z cytowalności wynika, że są tam publikowane prace, które cokolwiek poprawiają świat? Są tam prace prestiżowe, perfekcyjne warsztatowo, z kosmicznymi metodami matematyczno ekonometrycznymi, i co z tego, skoro nic nowego nie wnoszą. Czym się różni nic nie wnosząca perfekcyjna warsztatowo praca z prestiżowego czasopisma od pracy w MDPI?

    • ~Profesor PAN 05.08.2024 12:31

      Obstawię, że 1% problemu to naukowcy a 99% to urzędnicy ministerstwa.

  • ~Profesor PAN 05.08.2024 11:52

    Brzoza-Brzezina - 274 cytowania wg Scopusa (wliczając autocytowania),
    Growiec - 430 cytowań,
    Hagemajer - 224 cytowania,
    Makarski - 251 cytowań,
    Szczygielski - 229 cytowań,
    Tyrowicz - 377 cytowań,
    Woźny - 133 cytowania.

    Najzabawniejsze jest to, że na polskim ekonomicznym bezrybiu są to liczby imponujące (naprawdę, nie robię sobie jaj) i są to gwiazdy polskiej ekonomii. Jeśli porównać z fizykami, matematykami czy chemikami z Polski albo ekonomistami z dowolnego nieafrykańskiego kraju (wyłączając RPA), lepiej nie komentować.

    Chyba mamy wyjaśnienie, dlaczego polscy naukowi mandaryni tak strasznie nie lubią cytowań w ewaluacji.

    • ~Ireneusz 08.08.2024 21:11

      Tyrowicz jest niby gwiazdą polskiej nauki. Zdumiewające.

      • ~Profesor PAN 09.08.2024 08:36

        Napisałem: na bezrybiu. Obaj prawdopodobie wiemy o tej pani rzeczy, których napisania tutaj ostrożność procesowa by nie zaleciła. Ale należy do nielicznych polskich ekonomistów, którzy regularnie publikują w pismach o zasięgu międzynarodowym. Nie z MDPI. Katastrofalny stan polskiej ekonomii to zresztą osobny temat.

    • ~gregrw 05.08.2024 12:56

      Drogi profesorze, ze studiami ekonomicznymi w Polsce jest tak ze program studiow nie zmienil sie od lat 90.
      Kadre na tych uczelniach stanowia teortycy, ktorzy nie pracowali w swoim zawodzie praktycznie. Z uczelni praktykow wygryziono zeby nie robic sobie konkurencji do habilitacji w latach 2012-2015 lub sami odeszli.
      Jesli kierunek nazywa sie finansami, rachunkowoscia czy ekonomia to raczej powinny sie nazywac socjologia lub historia ekonomii, finansow czy rachunkowosci. Najzabewniejsze jest ze glowna ksiegowa w duzej spolce mowila ze ona rekrutujac ludzi do pracy ceni ludzi ktorzy maja kursy certifikujace w SKWP bo dla niej to jest wyznacznik ze ktos cos naprawde potrafi i umie, nie interesuje jej nawet typ uczelni. Rowniez jest malo przedmiotow zwiazanych z ksiegowoscia, finansami, 3/4 programow to socjologia, psychologia czy zarzadzanie. Najlepszym przykladem jest moj bliski znajomy, obronil doktorat z ekonomii, pracuje na podstawym stanowisku w publicznych organach. Jego praca doktorska byla bardzo rzetelna. Do tego nie moge sie doczepic. Potem jak sie go pytalem czy ma pojecie o ksiegowosci, czy wie co to jest bilans czy cash flow, albo cos z podatkami, to raczej nie mial o tym pojecia. To jest cud polskiego szkolnictwa. Doktor nauk ekonomicznych i zero pojecie o ekonomii i finansach. To sa polskie uczelnie. Nie wspomne o tym jak sie naciaga studentow na warunki. W ogole rynek pracy w tym sektorze jest bardzo wymagajacy. Sa uczelnie na zachodzie i poza polska, gdzie maja bite 4 lata studiow, duzo godzin ksiegowosci i podatkow, majac licencjat, maja uprawnienia do podpisywania sprawozdan finansowych. Ucza ich wszystkiego na najnowszych narzedziach informatycznych jak SAP czy Power BI. Bez komentarza, aby kadra miala prace do emrytury o to w tym chodzi.

      • ~Profesor PAN 05.08.2024 18:39

        Poza tym - piszemy o trochę różych rzeczach: ja o ekonomii jako nauce, pan o profilu studiów ekonomicznych. Brakuje panu księgowości i finansów w programie studiów, domyślam się, że w aspekcie praktycznym. W państwach anglosaskich o księgowości i praktycznych finansach nie uczy się na wydziałach ekonomii tylko na wydziałach business and administration. W Polsce analogią powinien być wydział zarządzania, gdzie swoją drogą też się tego nie uczy. Nie rozpraszajmy się na dwa zagadnienia w jednej dyskusji, bo wyniknie z tego tylko pomieszanie pojęć.

      • ~Profesor PAN 05.08.2024 13:29

        Jest dokładnie odwrotnie. Specjalista od teorii sterowania sterowaniem zajmuje się prowadząc samochód, specjalista od turbulencji z turbulencją ma do czynienia wypuszczając wodę z wanny, poza tym mają na koncie setki prac i tysiące cytowań. Polscy profesorowie ekonomii w ciągu kariery zaliczają kilka rad nadzorczych i zarządów a naukowo nie istnieją publikując raz na dziesięć lat w Zesztach Naukowych Szkoły Gotowania na Gazie. Nie dziwota, biznes płaci lepiej, SGH potrzebna jest tylko do tytułu.

        To nie kryzys, to rezultat.

        • ~RS_prof. ucz 07.08.2024 15:59

          Trudno nie zgodzić się (jednak kąśliwą) z tą uwagą. Autorzy raportu są m.in. z SGH, zatem zrozumiałe. Ale podobnie jest wszędzie..., nie tylko na SGH.
          Dyskusja o drapieżnych czasopismach... a ile dziś (teraz) publikuje w MDPI z pieniędzy dostępnych na uczelni? Wystarczy wejść na wspomniane czasopisma i zobaczyć. Jeśli tak jest, to z jednej strony dziekani/rektorzy mogliby być oskarżeni o niegospodarność, a z drugiej efektywność - wszak wciąż czasopisma są na liście (dyskusja trwa, działań żadnych). Etyka etyką, a później liczy się to co zawsze. Tu wspomniany SGH, ale i UEP, nie nagradzają pracowników za publikowanie w takich czasopismach (co nie znaczy, że nie podają później artykułów do ewaluacji dyscypliny).
          Warto też dodać, że pastwimy się nad MDPI..., a czy nie ma podobnych modeli biznesowych? Frontiers to niby co? Nawet PLOS One publikuje już tak różnorodne tematy, że nie wiadomo o czym to czasopismo jest... Fakt, recenzje są (ale przecież w MDPI też)...
          Przykre jest to, że naukowcy w PL (nie wszyscy) kierują się krótkowzrocznością, ale usprawiedliwioną - uczelnia wymaga szybko, wysoko... Międzynarodowe czasopisma za 20 pkt (polska lista MNiSzW) są omijane szerokim łukiem - a tam dostać się czasami, to dopiero wyzwanie...
          Od Nas powinno zależeć, co i jak cenimy. Jednak rozumiem młodych, a jednocześnie jest mi ich żal... Wskakują do rzeczywistości, że ma być 100, 140, 200. A później nie wiedzą, co to hipoteza, mix methods, itp. - serio!