Aktualności
Sprawy nauki
13 Czerwca
Źródło: Politechnika Świętokrzyska
Opublikowano: 2024-06-13

Ewaluacja do resetu

Koncepcja ewaluacji dyscyplin jest oderwana od rzeczywistości i daje wyniki nieprzystające do społecznych oczekiwań. To wydziały dają ramy organizacyjne działalności naukowej, nie abstrakcyjne dyscypliny. To na wydziałach pracują uczeni, nie w dyscyplinach. Kandydaci na studia nie wybierają dyscypliny, lecz wydział.

Dyskusje nad zmianami w Konstytucji dla Nauki oraz zasadach ewaluacji mają jedną wspólną cechę: sprowadzają się do proponowania mniejszych lub większych poprawek, w gruncie rzeczy akceptując status quo. Ustawa z dnia 20 lipca 2018 roku Prawo o szkolnictwie wyższym i nauce jest tworem niekoniecznie zupełnie nieudanym i podejrzewam, że nikt w środowisku nie jest nastawiony entuzjastycznie do pomysłu pisania nowego aktu prawnego od początku. Zupełnie inaczej jednak, moim zdaniem, ma się sprawa z zasadami ewaluacji nauki. Te powinny zostać skasowane i zastąpione nowymi: klarownymi, niepodatnymi na kombinowanie i różnorakie mniej lub bardziej cwaniackie sposoby i sposobiki, a przede wszystkim zasadami efektywnymi. Przez efektywność rozumiem tu efektywność informacyjną: zdolność podania takiej sumarycznej oceny, która w ramach pewnej przestrzeni strategicznej jest miarodajna i sprawiedliwa.

Strategia ewaluacji

Jest oczywiście truizmem stwierdzenie, że ewaluacja działalności naukowej powinna być przyporządkowana pewnej strategii. Co właściwie chcemy osiągnąć? Jakie wymierne korzyści miałyby w jej wyniku uzyskać społeczeństwo oraz państwo? Może się to wydawać zaskakujące, ale na żadne z tych pytań nie daje odpowiedzi ustawa w obecnym kształcie. Ewaluacja ma być prowadzona i tyle – czyli Słowacki wielkim poetą był. Tymczasem od właściwie sformułowanych odpowiedzi zależy konstrukcja całego procesu ewaluacyjnego. Ośmielam się twierdzić, że prawie całe aktualne zasady ewaluacji zostały opracowane nieracjonalnie i bez brania pod uwagę jakiejkolwiek strategii. To tylko anegdota, ale mam wielką ochotę ją tutaj przytoczyć. Około roku 2017, w czasie ogólnopolskiej dyskusji nad Konstytucją dla Nauki jako prorektor pojechałem z moim ówczesnym szefem na spotkanie z ministrem do Lublina. Tam przedstawiono nam – przedstawicielom uczelni z regionu południowo-wschodniego – wstępne zasady ewaluacji. Widząc wagi poszczególnych kryteriów, zadałem pytanie, skąd wynikają ich konkretne wartości w odniesieniu do różnych typów uczelni. Odpowiedź ministra wbiła mnie w fotel: „wymyśliliśmy je w samochodzie w drodze na to spotkanie”. Gdzie by nie zostały wymyślone, z niewielkimi zmianami weszły później do rozporządzenia i wszyscy posłusznie i pilnie zaczęliśmy się do nich stosować.

Po co więc ewaluować naukę? Powody można podać dwa zasadnicze, z nich wynikają liczne powody pochodne. Powód pierwszy: z troski o szeroko rozumiany prestiż i dobrobyt Polski. Nazwijmy to celem strategicznym nr 1. Ewaluujemy naukę dla tych samych mniej więcej powodów, dla których cieszylibyśmy się, że Polak dostał nagrodę Nobla z fizyki lub chemii. Bylibyśmy dumni tylko trochę mniej, gdyby się okazało, że najlepsze polskie uczelnie przestały wegetować gdzieś w piątej setce i znalazły się na miejscach dwucyfrowych. Ponadto wiadomo, że wysoki poziom nauki przekłada się w jakimś stopniu na stopę życiową społeczeństwa, poprzez promowanie innowacyjności i postępu, a także ze względu na znany fakt, iż zakup know how słono kosztuje. Socjologia, ekonomia i psychologia stymulują te procesy poprzez dostarczanie odpowiednich analiz i wskazując istnienie uwarunkowań społecznych. Wreszcie, jako naród, czujemy się w jakimś sensie bezpieczniejsi, gdy jego dzieje, język, rozwój duchowy, kulturę wyższą i sztukę analizują nauki humanistyczne.

Cel strategiczny nr 2 ma charakter lokalny. Społeczeństwo potrzebuje godnych zaufania danych o jakości prowadzonych badań oraz kształcenia na uczelniach i wydziałach. Takich informacji oczekują kandydaci na studia, przedsiębiorcy i władze samorządowe. Wreszcie – takich informacji o sobie nawzajem potrzebują same jednostki naukowe. Nie jest natomiast i nie powinno być celem strategicznym ewaluacji tworzenie miejsc pracy dla rzesz ekspertów, recenzentów, kierowników departamentów, organizatorów drogich szkoleń, członków komisji itp., a także absorbowanie samych pracowników uczelni, którzy zamiast ewaluacją powinni się zajmować tym, do czego zostali powołani: nauką i dydaktyką.

Zanim przejdę do meritum, czyli propozycji „nowej ewaluacji”, przedstawię konieczne moim zdaniem zmiany w samej ustawie, mniej lub bardziej bezpośrednio powiązane z indukowaniem zmian projakościowych. Mają one na celu zwiększenie prestiżu zawodu naukowca i zwiększenie presji ustawowej na jakość działalności naukowej. Zdając sobie sprawę, że pomysły te mogą przez niektórych czytelników tego artykułu zostać uznane za bulwersujące, pozwolę sobie zwrócić uwagę na fakt, że prawie wszystko to już było i bynajmniej nigdy się nie skompromitowało.

Precyzyjne kryteria awansów

Przywrócenie bardziej precyzyjnych kryteriów przyznawania stopnia doktora habilitowanego i tytułu profesora jest niezbędne. W obecnym kształcie kryteria te są rozmyte i mało konkretne, co otwiera potencjalne i praktyczne możliwości awansowania osobom, które w ocenie większości środowiska akademickiego na to nie zasługują. W szczególności kwestią bardzo istotną jest powrót do zasady „profesor to naukowiec promujący doktorantów” oraz „profesor co do zasady publikuje książki – monografie specjalistyczne lub popularyzujące i propagujące naukę”. Popularyzacja nauki i, szerzej, naukowego światopoglądu, nabiera wyjątkowego znaczenia w świecie internetowych szarlatanów i pseudonaukowców, oferujących proste rozwiązania skomplikowanych problemów. Jak groźne mogą być tego rodzaju oddziaływania społeczne, obserwowaliśmy ostatnio w okresie pandemii.

Kryteria awansowania do stopnia doktora habilitowanego powinny być precyzyjne i uniemożliwiające stosowanie coraz bardziej popularnych „rozwiązań”, w szczególności dotyczących współpracy międzynarodowej i międzyuczelnianej. Wzajemne „pobyty” młodych naukowców stanowią kpinę z postulatu rzeczywistej, efektywnej współpracy między ośrodkami badawczymi.

Zarówno w przypadku stopnia doktora habilitowanego jak i tytułu profesorskiego zasadne wydaje się wprowadzenie konkretnych, minimalnych wymogów dotyczących wybranych wskaźników naukometrycznych. Powszechna w Polsce fobia cytowalności jest dla mnie zupełnie niezrozumiała, tym bardziej że w światowych rankingach nauka polska nie sytuuje się pod tym względem jakoś beznadziejnie. Natomiast recenzenci powinni zostać zobowiązani do rezygnacji z „punktozy”, odnoszącej się tu do „punktów za publikacje”. W dobie trwających latami ingerencji w system punktowy, ten ostatni został ostatecznie skompromitowany i może stanowić co najwyżej pomocnicze kryterium oceny indywidualnego dorobku naukowego. Istnieje wiele lepszych i bardziej obiektywnych wskaźników wagi periodyku naukowego, w tym oczywiście indeks cytowań (impact factor IF). Podnoszony często argument, że tego rodzaju podejście dyskryminuje krajowe periodyki pozbawione IF, nie powinien mieć racji bytu. Strategią ustawy o nauce powinna być poprawa jakości polskiej nauki na tle nauki światowej. Marne pozycje polskich uczelni w światowych rankingach nie zmienią się, póki będzie egzystowała „lista B” jako pełnoprawny z „listą A” wykaz periodyków. Pełnoprawny, tylko niżej punktowany, co oznacza w domyśle istnienie równania typu: n publikacji na liście B = jedna publikacja na liście A. Należy zdać sobie sprawę z faktu, że równanie powyższe nie ma rozwiązań dla żadnego n rzeczywistego (pomińmy jakże powszechne rozwiązania urojone).

Profesor tylko z tytułem

Istniejąca obecnie sytuacja w oczywisty sposób deprecjonuje tytuł profesora. Jeżeli zdecydowano się na jego zachowanie w polskim systemie szkolnictwa wyższego, należy dbać o jego prestiż i szeroko rozumianą atrakcyjność. Nie można zjeść ciastka i mieć ciastka; w tym przypadku – wprowadzić paraamerykański system stanowiska profesora kontraktowego (który nigdy i nigdzie nie będzie jednak rozliczany z postępów i swój tytuł zawodowy otrzymuje w zasadzie dożywotnio) i utrzymywać tytuł naukowy cieszący się wciąż, mimo wszystko, znaczącym prestiżem społecznym. Usunięcie tytułu docenta nastąpiło oczywiście ze względu na jego zdeprecjonowanie w latach po 1968 roku, kiedy to otrzymywali go „wierni, ale mierni” pracownicy bez habilitacji. Tymczasem prostą drogą zmierzamy w tym kierunku, tym razem na celownik biorąc tytuł profesora (rozmyto wymogi wobec habilitacji i umożliwiono zatrudnianie na stanowisku profesora natychmiast po jej otrzymaniu).

Obligatoryjna rotacja

Koncepcja zagwarantowania bezpiecznego zatrudnienia na czas nieokreślony pracownikom ze swego wyboru wyłącznie dydaktycznym jest ewidentnie szkodliwa dla nauki. Postuluję likwidację podziału na grupy pracowników dydaktycznych i badawczo-dydaktycznych i powrót do określonego precyzyjnie maksymalnego czasu na obronę doktoratu i uzyskanie habilitacji. Taki system działał przez lata i nigdy nie był kontestowany jako niesprawiedliwy. Dla osób, które nie podołały trudom kariery naukowej, a równocześnie wykazały ponadprzeciętne predyspozycje do prowadzenia dydaktyki, istniały „furtki” w postaci stanowisk wykładowcy i starszego wykładowcy.

Sytuacja, w której w „radzie doskonałości” mogą zasiadać i zasiadają osoby, których dorobek naukowy od rzeczonej doskonałości jest daleki, należy uznać za absurdalną. Tymczasem ustawa wymaga, aby kandydat na członka RDN posiadał w dorobku „jedną monografię naukową” i „trzy artykuły naukowe”! No comments.

Cytowalność po pierwsze, po drugie i po trzecie

Jest trudne do wytłumaczenia, dlaczego ustawa deklaratywnie dbająca o stan polskiej nauki zupełnie pomija wskaźniki cytowań jako kryteria oceny indywidualnej lub zbiorowej. O liczbie cytowań i/lub wskaźniku Hirscha nie ma mowy ani przy kryteriach branych pod uwagę przy wnioskach habilitacyjnych i profesorskich, ani przy zarysowanych ogólnie podstawach ewaluacji jednostek, ani przy wspomnianych wymaganiach wobec członków RDN. Tymczasem światowe rankingi uczonych i uczelni opierają się głównie lub wyłącznie na cytowaniach. Prawdopodobnie ta jaskrawa rozbieżność stanowi największą wadę ustawy jako ewentualnego narzędzia poprawy stanu polskiej nauki.

Oczywiście wiem, co mówią przeciwnicy cytowań: „te straszne spółdzielnie!”. Gdy usłyszałem to ostatnio od dziekana zaprzyjaźnionego wydziału, odparłem: „Słuchaj, zgłasza się do ciebie naukowiec z zagranicy z h=50. Co sobie myślisz w pierwszej chwili? Że wybitny, czy że należy do spółdzielni?”. Czy naprawdę akurat Polacy i tylko oni wymyślili cwaniactwo? A czy „spółdzielnie” nie mają jeszcze szerszego pola do popisu przy obecnych zasadach ewaluacji dotyczących systemu uwzględniania współautorstwa, na który na dodatek nałożono dziwaczny i niepotrzebny system „punktów” przyznawanych czasopismom? Natomiast istnieje jeden szczegół, o którym koniecznie należałoby zawczasu pomyśleć: liczą się tylko cytowania bez autocytowań i cytowań ze strony byłych współautorów. Również tylko tak powinien być określany i podawany indeks Hirscha. Nie ma cudów: bez nacisku na cytowania prestiż polskiej nauki pozostanie tam, gdzie jest (to znaczy nie na jakimś szarym końcu, ale jednak daleko poza czołówką). Zmarnowano 5 lat.

Ewaluujmy wydziały, nie dyscypliny

Biorąc pod uwagę powyższe, postuluję całkowitą zmianę zakresu i sposobu prowadzenia ewaluacji jednostek naukowych. Koncepcja ewaluacji dyscyplin jest oderwana od rzeczywistości i daje wyniki nieprzystające do społecznych oczekiwań. Po pierwsze, zasada oceny dyscyplin zamiast wydziałów prowadzi do chaosu w sytuacji, gdy naukowcy z danej dyscypliny zatrudnieni są na różnych wydziałach lub gdy prowadzą badania interdyscyplinarne. Po drugie, tworzenie listy dyscyplin było procesem w dużej mierze arbitralnym (inżynieria środowiska z górnictwem!). Po trzecie, podstawową jednostką strukturalną uczelni powinien pozostać wydział. Ewaluacja w obecnym kształcie idzie niejako „pod prąd” oczekiwaniom społecznym, nastawionym na klarowne wskaźniki jakości wydziałów, a nie dyscyplin. Gwarantem rozwoju naukowego dyscypliny byłyby jednoznaczne kryteria oceny i wynagradzania naukowców je reprezentujących, przedstawione w skrócie powyżej. Ewaluacja wydziałów stanowiłaby wyartykułowanie faktycznego stanu rzeczy, bo ewaluowane są tak naprawdę wydziały, a nazywanie tego ewaluacją dyscyplin niczego nie upraszcza, wręcz przeciwnie. To wydziały finalnie ogłaszają, ile mają A, a ile B+. To wydziały dają ramy organizacyjne działalności naukowej, nie abstrakcyjne dyscypliny. To na wydziałach pracują uczeni, nie w dyscyplinach. Kandydaci na studia nie wybierają dyscypliny, lecz wydział. Podobnie firmy z zewnątrz nie szukają partnerów pośród dyscyplin, lecz wydziałów.

Zrezygnujmy z liczby N

Naturalną konsekwencją rezygnacji z wyodrębniania grupy pracowników czysto dydaktycznych byłaby rezygnacja z „enki”. Korzyści wydają się oczywiste: koniec z nonsensowną „polityką” kadrową, z corocznymi transferami z grupy do grupy – to po pierwsze. Po drugie, mobilizacja grup pracowniczych, które od pięciu lat nie prowadzą żadnej działalności naukowej lub prowadzą ją w stopniu szczątkowym. Czy da się ewaluować bez liczby n? Oczywiście! Gdy ewaluacji podlega wydział, bierze się pod uwagę dorobek wszystkich jego pracowników biorących udział w procesie dydaktycznym i/lub badawczym. Im większy procent dydaktyków nie uprawia nauki, tym gorzej dla wydziału, tym jest on słabszy z naukowego punktu widzenia. Taki system ewaluacji mobilizowałby władze uczelni, wydziałów i samych pracowników do pracy badawczej. Tymczasem dostajemy kategorie dotyczące starannie wyselekcjonowanej części pracowników. Stanowi to narzędzie zaciemniania rzeczywistego stanu rzeczy w kwestii realnego poziomu naukowego wydziału.

Uprośćmy kryteria

Proponuję rezygnację ze sztucznie układanej listy punktacji czasopism. W jej miejsce wprowadźmy listę punktów automatycznie zależnych od aktualnego IF. Wprowadźmy całkowity zakaz manipulacji listą przez wszelkiej maści polityków i „organizatorów nauki”. Usuńmy skomplikowane kryteria dotyczące uwzględniania współautorstwa, niech rządzi prosta zasada: wartość udziału równa się [wartość punktowa publikacji] / [liczba współautorów]. Nieważne, skąd kto przychodzi: wydział dostaje swój udział od współautorów na nim zatrudnionych lub studiujących; reszta udziałów idzie do innych jednostek lub jest tracona. Dołóżmy punkty za wzrost liczby cytowań bez autocytowań w okresie ewaluacyjnym. Przedmiotem dyskusji mogłaby być kwestia, czy zrobić to indywidualnie dla wszystkich pracowników, a potem normalizować dla nowego n, czy może wprowadzić wskaźniki typu „ogólny wskaźnik Hirscha wydziału bez autocytowań” oraz [całkowita liczba cytowań bez autocytowań] / [liczba dydaktyków na wydziale].

Kryterium B jest silnie uzależnione od uwarunkowań regionalnych i szczególnie krzywdzi uczelnie w mniejszych ośrodkach akademickich, gdzie siłą rzeczy istnieje mniejsza liczba podmiotów gospodarczych potencjalnie oferujących współpracę. Sytuacja, w której karze się uczelnię z 200-tysięcznego miasta X za to, że nie wykazała „aktywności w pozyskiwaniu środków” na poziomie uczelni z milionowego miasta Y, jest kuriozalna. Ponadto wiadomo, że propozycje projektów badawczych, składane przez naukowców z mniejszych ośrodków, już na starcie mają mniejsze szanse uzyskania dofinansowania, co potwierdzają statystyki. Kryterium B powinno, w miejsce szczegółowo rozliczanych kwot pozyskanych na wydziale (no właśnie, nikt nie podpisuje umowy z dyscypliną, ani prezes firmy, ani NCN lub NCBR), wprowadzić kryterium liczbowe pokazujące aktywność w obszarze umów komercyjnych z podmiotami gospodarczymi. W tym ujęciu wiele umów o małej wartości złotowej jest więcej warte niż jedna umowa milionowa. Ta ostatnia może być bowiem efektem układów lub zbiegu okoliczności. Ponadto naprawdę nie bardzo wiadomo jak uzasadnić tezę, że naukowo lepszy jest ten, kto zarobił więcej pieniędzy (może więc tytuł naukowca roku powinien przyznawać „Forbes”?).

Zamiast kryterium C, z jego nielicznymi, wybranymi osiągnięciami bardzo szczegółowo charakteryzowanymi, a następnie arbitralnie i zupełnie niejasno ocenianymi przez anonimowych recenzentów, miałby sens powrót do praktykowanej kiedyś listy 10 najważniejszych osiągnięć wydziału. Każda pozycja z listy byłaby oceniana w pewnej skali punktowej przez trzech niezależnych recenzentów – bez podawania skomplikowanych uzasadnień. Oceny recenzenta najbardziej odbiegające od średniej (in plus lub in minus) byłyby odrzucane. Tego rodzaju system byłby zarówno bardziej miarodajny (wobec 10, a nie 1–3 przedstawianych do oceny osiągnięć), jak i bardziej sprawiedliwy (ze względu na wykluczenie ocen recenzenta potencjalnie najmniej obiektywnego).

Pozbądźmy się kategorii

Kategorie są kolejnym czynnikiem wprowadzającym chaos do procesu ewaluacji. Progi, przewyższenia, porównania, manipulacje itd. Efektem ewaluacji może być po prostu liczba uzyskanych punktów (odpowiednio standaryzowana z uwzględnieniem trzech kryteriów). Ta liczba działałaby zarówno jako „wizytówka” wydziału, jak i służyłaby do obliczania dotacji/subwencji w odpowiednim algorytmie. Nie mogłaby natomiast stanowić podstawy do nadawania uprawnień akademickich, podobnie jak nie powinny być w tym celu używane obecne kategorie. Jak wiadomo, kategoryzacja spowodowała w wielu przypadkach stan „nieskonsumowania uprawnień” ze względu na niedostateczny stan kadrowy. Uprawnienia do nadawania stopni powinny zależeć wyłącznie od minimalnych liczb pracowników w grupach profesorów, doktorów habilitowanych itd. W prawidłowym systemie kryteriów awansowych stan kadrowy sam przez się powinien stanowić dostateczną gwarancję potencjału awansowego jednostki. Natomiast spodziewane znaczące różnice punktowe między na przykład wydziałami humanistycznymi a technicznymi nie miałyby znaczenia; nikt nie dokonuje tego typu porównań. Byłoby natomiast istotne, ile punktów zdobył wydział humanistyczny X w stosunku do wydziału humanistycznego Y.

prof. Tomasz Kozłowski

dziekan Wydziału Inżynierii Środowiska, Geodezji i Energetyki Odnawialnej

Politechnika Świętokrzyska w Kielcach

Tekst ukazał się w numerze 2/2024 FA

Dyskusja (31 komentarzy)
  • ~Adam 27.06.2024 12:38

    Zacznijmy inwestować w nauki ścisłe i techniczne. Dosyć finansowania humanistów.

  • ~Młody Profesor 16.06.2024 21:22

    no naprawdę idź się lecz dziadku z tymi pomysłami rodem z czasów Gierka!
    kolejny reformator sie znalazł, z psiej d.....
    Dziadek z Politechniki Świętokrzyskiej ? a gdzie to w rankingach jakichkolwiek jest bo nie moge odnaleźć ... i po temacie !

    • ~Marek 16.06.2024 22:22

      Pański wpis to rodzaj prowokacji czy przejaw braku elementarnego wychowania ? Co to za język?

  • ~Alek Rachwald 14.06.2024 17:13

    Z jednej strony tekst waży i poruszający wiele istotnych punktów, z elementami satyrycznymi i w ogóle. Trudno się nie zgodzić. A z drugiej strony powrót do "książki profesorskiej". Panie kolego, "książki profesorskie", "książki habilitacyjne", "książki doktorskie" produkowane są taśmowo jak kiełbasy w znacznej mierze przez tych właśnie, którzy nie są w stanie publikować w liczących się międzynarodowych czasopismach, a wydawane przez ich wydawnictwa uczelniane albo jeszcze gorzej. Ten akurat obszar został dawno skolonizowany przez naukę pozorną.
    Nie odżegnuję się od książki. Mam taką w planie nawet (jedną już gdzieś tam wydałem). Tylko że taka książka, jaką mam na myśli, będzie podsumowaniem wieloletnich badań na pewnym obszarze, dla której napisania przewiduję, ze na jakieś dwa lata będę musiał zrezygnować z pracy ściśle badawczej i ze starania się o środki na realizację innych projektów. To będzie ostatnie ważne słowo na dany temat, a nie coś pisanego w trakcie pomiędzy innymi pracami. Proszę mi więc pozwolić popracować nad nią, kiedy przyjdzie właściwa pora podsumowania, a nie jako nad niezbędnym pretekstem do uzyskania tytułu.

  • ~Stanisław Krawczyk 14.06.2024 15:04

    Moje nowe hobby: przy każdym tekście o ewaluacji nauki wciskam CTRL-F i sprawdzam, czy jest coś o „dodatkowych pieniądzach” lub „zwiększeniu finansowania”. Jeśli nie ma, to uznaję rozkład akcentów za niewłaściwy. ;)

  • ~Konrad 13.06.2024 20:37

    Z uwagą przeczytałem powyższy tekst i - niestety - w wielu miejscach chciałoby się powiedzieć "ale to już było". Ciągłe zmiany zasad ewaluacji/awansów itd. nic nie pomogą, jeżeli finansowanie nauki będzie takie, jakie jest obecnie. Myślę, że wszyscy zdajemy sobie sprawę, że w wielu naukowców, którzy pracują w światowych koncernach nad przełomowymi rozwiązaniami, prawie w ogóle nie publikuje a mimo to ich rozwiązania przyczyniają się do postępu (patrz np. Nvidia). Ponowna zmiana ewaluacji z dyscyplin na ewaluację wydziałów wprowadzi tylko kolejne zamieszanie, prawdopodobnie łącznie z odtwarzaniem części skostniałych, feudalnych struktur . W powyższym tekście jedyne, co bardzo mi się podoba (i jest coraz częściej postulowane) to wprowadzenie niezależnego algorytmu, który pozwoli na bieżąco ustalać pozycję danego czasopisma na podstawie jego IF oraz np. przynależności do danego kwartyla. Od siebie zaproponowałbym wprowadzenie zakazu finansowania publikacji z subwencji - w szczególności, kiedy jest to warunek konieczny ukazania się artykułu. Przy obecnym finansowaniu, po prostu nie stać nas na takie wydatki, a często te publikacje nie są najwyższych lotów. Lepiej te pieniądze przeznaczyć na doposażenie laboratoriów - w dłuższej perspektywie korzyści z pewnością będą większe. Finansowanie publikacji powinno być dopuszczalne z pieniędzy zdobytych dodatkowo przez jednostkę - czy to z narzutów z projektów, czy prac dla przemysłu.

    • ~Gg 14.06.2024 00:16

      Nihil Novi, chciałoby się rzec. Uważam podobnie jak Ty, że jedyną sensowną sprawą tu jest powiązanie punktacji z if. Tylko znów dlaczego akurat z if wg. WoS? A już głupotą jest dzielenie punktacji przez wszystkich autorów. Jeśli np. w mojej publikacji są specjaliści prócz mojej dyscypliny z chemii, mikrobiologii , immunologi, stomatologii, to taka publikacja okaże się bezwartościowa, choć jest kompleksowa i \"na bogato\" . Lepiej zrobić już byle co i puścić byle gdzie. Inne pomysły już też były. Rozwojowi i pracy naukiwej służy długoterminowe myślenie i sukcesywny, zaplanowany rozwój, nie oranie wszystkiego co kilka lat, kiedy już zacznie działać, bo ktoś ma nowy stary pomyśl z którym chce zaistnieć. Pan autor tych pomysłów, z tego co widzę, pomimo tytułu prof. ma zaledwie 30 prac (z czego część konferencyjne) indeksowanych w WoS z liczbą h 11, a jego podejście tłumaczy to, iż są są to prace o liczbie autorów 1-3. Tak to jest jak się widzi tylko koniec własnego nosa.

      • ~szary 14.06.2024 10:16

        "Tak to jest jak się widzi tylko koniec własnego nosa. " no właśnie, dotyczy to prawie wszystkich wypowiedzi. Mogę podać przykłady tylko o matematyce i to nie całej. Jeśli chodzi o ilość współautorów, to typowe jest że jest to 1-3 autorów na pracę, bibliografia w pracy na poziomie kilku do kilkunastu. Nie jest rzadkim zjawiskiem (np. z teorii modeli) jest otrzymanie profesury przy dorobku 20-30 prac. Wspomnę tylko że Andrew Wiles podając ostateczne rozwiązanie w 1994 wielkiego problemu Fermata (sformułowany w 1637 roku) , miał "zaledwie" 14 opublikowanych prac, a na dzień dzisiejszy ma ich "zaledwie" 29, cytowań 2435, a pierwszą pracę opublikował w 1977 roku. Więc używanie IF, ilości prac, do jakichkolwiek ocen nie ma sensu w pewnym fragmencie matematyki, ale dla innych dziedzin być może tak, nie mam wiedzy na ten temat.

        • ~Marcin Przewloka 14.06.2024 12:35

          @szary

          Mozna sie pokusic o sformulowanie wymagan co do h-index i liczby cytowan w zaleznosci od dziedziny. Mozna nawet ta dziedzine okreslic wasko, aby maksymalnie przyblizala do rzeczywistosci w sensie oczekiwan publikacyjnych.
          Czy to jest dobra droga? Tego nie wiem, ale w wielu przypadkach (na przyklad przy rekrutacji) wartosci h-index sa brane pod uwage.

          Generalnie chodzi o to, ze niezaleznie od tego, co konkretnie robi dany naukowiec, jak przyczynia sie do rozwoju nauki, publikowanie jest absolutnie kluczowe, wiec w jakis sposob nalezy to brac pod uwage w czasie ewaluacji. Ludzie poszukuja wiec miarki, ktora mozna by to jakos mierzyc.

        • ~Gg 14.06.2024 11:07

          Myślę, że to co napisałeś oddaje istotę rzeczy. Obecnie cała sytuacja uległa tak głębokiej patologizacji, że powoli wszelkie naprawy idą w kierunku rozważań, którędy powinno popłynąć wylane z kąpielą dziecko. Wymogi w dyscyplinach są różne, jak i obyczaje. Nawet nie tylko w dyscyplinach, a w specjalnościach niejednokrotnie, np. w naukach medycznych zupełnie inaczej jest w onkologii, immunologii czy stomatologii. Czy lepiej jest, jak opublikuję kompleksową pracę z 2 lat działań, czy może kiedy podzielę ją na 3 lub 4 fragmenty tak nurzące dla czytelnika, jak i piszącego? W obecnym systemie często nie publikuje się prac takich jakby się chciało (ze względów finansowych, bo przy marnym poziomie uposażeń trzeba publikować dużo, żeby zgarniać nagrody, trzeba publikować dużo, by wrobić punkty, by się liczyć w konkursach....). Szkoda już nawet o kosztach publikacji, które są absolutnych skandalem przy poziomie pieniędzy przeznaczonych na badania. Niejednokrotnie koszty publikacji przewyższają wielokrotnie koszty np. zakupu substratów itd. Nie dotyczy to tylko tzw. \"pradatory\", bo jak się temu przyglądam, to dochodzę do wniosku, że ta drapieżność ma jedynie różne oblicza. Oblicze wyjazdów na konferencje, wywalania prac bez odhaczonego open access, bez zaproszenia z redakcji itd. To co się dzieje to wg. mnie wielkie marnotrawstwo środków. Osobiście też kompletnie nie zgadam się z głoszonymi tu tezami, że nie powinno się publikować po polsku, bo się nie jest widocznym na świecie. Sam reprezentuje nauki techniczne i po polsku nie opublikowałem nic od studiów doktoranckich, czyli jakieś 20 lat. Natomiast efekt tego jest taki, że polskie piśmiennictwo branżowe praktycznie umarło, czy też zostało zamordowane. Co z tych naszych publikacji z IF ma polski podatnik, polski przemysł? Umówmy się - z branży, poza środowiskiem naukowym, to zasadniczo tego po poprostu nikt nie czyta.

          • ~Marcin Przewloka 14.06.2024 12:43

            @Gg

            Trzeba odroznic pisma naukowe od pism branzowych czy popularyzatorskich. To wazne.
            W tych pierwszych publikuje sie po angielsku, w tych drugich i trzecich w jezyku lokalnym, na przyklad po polsku.

            Zas co do tego, ze "polskie piśmiennictwo branżowe praktycznie umarło, czy też zostało zamordowane", to czy w takim razie jest jakas grupa ludzi, ktora odczuwa brak tego rodzaju pismiennictwa?
            Jesli tak, to powinni zalozyc towarzystwo lub stowarzyszenie, ktore zalozy takie pismo i bedzie je wydawac. Pojda na to skladki od czlonkow, a moge sobie rowniez wyobrazic, ze pewne galezie przemyslu moga byc tym zainteresowane. To jest absolutnie normalne. Nie trzeba czekac, az panstwo wszystko zrobi za obywatela.
            Zreszta przeciez to samo dzieje sie w swiecie nauki: towarzystwa naukowe wydaja swoje wlasne pisma. Na przyklad, wazne pismo biochemiczne Journal of Biological Chemistry jest wydawane przez stowarzyszenie biochemikow i biologow molekularnych (American Society for Biochemistry and Molecular Biology (ASBMB)). Takich przykladow jest mnostwo.

  • ~KOwal 13.06.2024 18:17

    Kto odważy się zaproponować likwidację dożywotnich profesur belwederskich i cykliczną ich weryfikację w oparciu o aktualne standardy (w okresie aktywności zawodowej, rzecz jasna)?
    Może to spowodowałoby likwidację sytuacji, że dorobek profesora nie wystarczyłby według obecnie stosowanych kryteriów nawet na habilitację (przy założeniu, daleko idącym, uczciwości i obiektywności postępowania habilitacyjnego). Śmieszne i smutne jednocześnie jest to, że bywają profesorowie belwederscy z H=2,3 w Scopusie i sumarycznym IF poniżej 1, podczas gdy negatywne recenzje dostają osoby (w tej samej dyscyplinie, żeby nie było wątpliwości) z H bliskim 10 i sumarycznym IF grubo powyżej 20.

    • ~Alek Rachwald 14.06.2024 17:20

      Indeks H to jest powiedzmy jakiś wskaźnik. Ale sumaryczny IF nie istnieje, to to nie są wartości, które by się sumowało. Sumaryczny IF jest tylko wymysłem smutnych biurokratów, protezą ułatwiającą bezrefleksyjne ocenianie.

    • ~Pan K 14.06.2024 09:18

      Hmm, sumaryczny IF powyżej 20 skandal, że nie dostał profesury. A przepraszam w jakiej dziedzinie należy mieć tak wysoki wskaźnik, by mieć ambicje profesorskie? Mam nadzieję że nie w medycynie. Tak ewaluacja nie spełnia oczekiwań społecznych, bo każdy chciałby by być oceniony wysoko. Każdy czuje się lepszy i gdy go ktoś wyprzedził, zwłaszcza przez ktoś kogo uważa za mniej godnego, czuje że coś z tym systemem jest nie tak. Bo nie zajmujemy się nauką tylko dystrybucją renomy. By coś się zmieniło, należałoby naukę postawić na szczycie, Teraz na szczycie jest renoma przekazywana przez renomowane czasopisma za olbrzymie pieniądze podnoszące renomę jeszcze wyżej. Aby to zmienić należało by wywrócić stolik, pogodzić się z ostracyzmem i wykluczeniem....
      Co do nauk humanistycznych, nie rozumiem dlaczego nie publikujecie choćby dwujęzycznie? Jeśli chcemy by ktoś poznał naszą myśl lub historię to musimy publikować w języku angielskim! Publikacje po polsku to skazywanie się na marginalnosc. I koniecznie z indeksacją i bez paywalla. Koszty utrzymania takiego repozytorium to koszt jednej dwóch publikacji OA w Nature. Czy naprawdę nas na to nie stać? Ale zamiast myśleć o rozpowszechnianiu twórczości myślimy o wskaźnikach, przelicznikach i niesprawiedliwości, jaka nas spotyka z powodu że nie piszemy w języku w którym czyta większość naukowego świata.

  • ~007 13.06.2024 15:05

    Ciekawy pomysł na kryterium C, na pewno łatwiej go ocenić niż "dowody wpływu". Liczbę osiągnięć można uzależnić od liczebności kadry jednostki.
    Popieram pomysł przywrócenia uprawnień do nadawania stopni zależnych od minimalnej liczby pracowników w grupach profesorów, doktorów habilitowanych (weryfikacja stanu kadrowego automatycznie przez POLON).

  • ~fizyk 13.06.2024 15:02

    Wszystko fajnie, tylko w praktyce to nie jest takie proste - nie wszystkie dziedziny są takie same i wrzucanie wszystkich do jednego worka mija się z celem.

    Publikacje - w "mojej" działce, czyli fizyce wysokich energii, mamy publikacji z dużych kolaboracji eksperymentalnych, np. w CERN (ale nie tylko), które mają po kilka tysięcy autorów-członków kolaboracji, uszeregowanych alfabetycznie. Ot, przykład eksperymentu ALICE w Nature:
    https://www.nature.com/articles/s41586-020-3001-6
    Ilość publikacji w danej kolaboracji nie skaluje się liniowo z ilością autorów-członków kolaboracji.

    Co więcej, Europejskie Towarzystwo Fizyczne (EPS) wspólnie z ECFA (European Consortium on Future Accelerators) wydało prawie 10 lat temu memorandum na temat ewaluacji fizyków eksperymentalnych wysokich energii:
    https://cds.cern.ch/record/2014643/files/ecfa-291_ECFA-HEP-evaluation.pdf
    które stwierdza:
    "Given the publication practices mentioned above, the usual indicators such as citation index, h index, ranking in the author lists, etc., are not useful in the field and can be misleading. Evaluators should rather focus on the most significant publications indicated by the candidates and look in detail for the specific role they have played in each of them."

    Przykładowo przyjęcie do ewaluacji za pomocą wskaźników (cytowań, liczby autorów, itp.) publikacji z dużych kolaboracji eksperymentalnych w taki sam sposób jak publikacji kilku osób (np. fizyków teoretyków), do ewaluacji zarówno samych naukowców jak i jednostek, kompletnie wypacza całą ideę takiego procesu.

    Podsumowując - nie można wszystkich oceniać takim isamymi regułami! Warto by było, aby po prostu to zawsze była ocena ekspercka, wykonana oczywiście bez konfliktu interesów. To nie jest takie proste - ae byłoby najlepsze.

    Co do rotacji (terminów na zrobienie doktoratu i habilitacji) - to jest również zły pomysł. Niektóre rzeczy, również w przypadku moim - dużych kolaboracji, zupełnie nie zależy od doktoranta czy habilitanta. Człowiek może poświęcić przykładowo 2 czy 3 lata na prace koncepcyjne nad nowym układem detekcyjnym, który finalnie nie zostanie zrealizowany. Tak samo sam eksperyment ma tak skomplikowane i złożóne dane z tysięcy sensorów, że ich kalibracja do użycia w analizie fizycznej, może zająć kilka lat, zanim da się zrealizować założony wcześniej temat. Może się też okazać, że eksperyment nie zbierze zakładanych na etapie rozpoczynania doktoratu ilości danych danego typu, albo kolaboracja nie zatwierdzi wyników realizowanych przez danego naukowca (bo przykładowo nie zgadzają się z przewidywaniami modelowymi i nie rozumiemy czy problem jest po stronie modeli, czy rzeczywiscie odkryliśmy coś nowego - takie wyniki bardzo długo są zatwierdzane i analizy z reguły są powtarzane niezależnie przez inne osoby przed publikacją).

    • ~Marcin Przewloka 13.06.2024 15:29

      @fizyk

      Co do publikacji wielo-autorskich to wydaje mi sie, ze w ewaluacji nalezy rozgraniczyc wspolprace od kierowania projektem. W tym celu nalezy przykladac duzo wieksza wage do publikacji, w ktorej ktos jest autorem do korespondencji. Zwykle ta wlasnie osoba (osoby) jest odpowiedzialna za kierowanie caloscia.
      Praca, w Nature, w ktorej ktos byl autorem do korespondencji powinna miec w ewaluacji zupelnie inna wage niz publikacji w Nature, w ktorej ktos byl jednym z wielu autorow. Po prostu, bycie autorem do korespondencji o czyms swiadczy i nalezaloby to docenic.

      W 'Web of Science' kiedy patrzymy na liste publikacji pojedynczej osoby mamy podana statystyke zwana "Author Position", a w niej do wyboru "First", "Last", "Corresponding". Nie bez przyczyny jest tutaj podana ta charakterystyka.

      Tak, ocena ekspercka, jesli dobrze wykonana, bylaby najlepsza, ale tutaj w srodowisku polskim terz moga wystapic trudnosci. Troche wiecej jest o tym w artykule opublikowanym wczoraj:
      https://forumakademickie.pl/sprawy-nauki/propozycja-nowej-ewaluacji-jednostki-zamiast-dyscyplin-i-ocena-ekspercka/

      • ~fizyk 13.06.2024 15:42

        W przypadku publikacji z CERN'u, nie ma "Correspinding author" ani "first" ani "last". Na pewno wszystkie publikacje z eksperymentów prowadzonych na akceleratorze LHC w CERN *zawsze* mają alfabetyczną listę autorów a sam manuskrypt publikacji jest wysyłany przez tzw. "Editorial Board" danej kolaboracji. Tylko wewnątrz kolaboracji utrzymywana jest baza danych z informacjami, kto co do danej pracy zrobił - nie wyróżnia się tego na zewnątrz. Tylko szef kolaboracji może niezależnie przekazać na zewnątrz informację o wkładzie danej osoby, w formie listu polecającego.

        Dlaczego tak jest? To wynika z faktu, że część osób pracuje na bardzo niskim poziomie zbierania danych (zajmują się np. utrzymaniem detektorów, ich konserwacją, część osób zajmuje się ogólną kalibracją danych, itp.). Ostatecznie mała grupa osób wykrozystuje te finalne dopracowane dane, które przeszły przez czasem setki osób niżej, aby mogła dana analiza zostać wykonana. Aby docenić wszystkich - w szeorko rozumianej eksperymentalnej fizyce wysokich energii NIE wyróżnia się nikogo na liście autorów.

        Powiem wiecej, czasami robi się również tzw. blind analysis, gdzie osoba pracujaca na tych finalnych danych, nawet nie wie, czy analizuje dane rzeczywiste, czy symulowane (z przykładowo sztucznie wstawionym sygnałem danej obserwabli). Osób robiących daną analizę jest wtedy kilka, które konkurują ze sobą wewnątrz kolaboracji i ten sposób eksptrakcji sygnału, który ma najwyżsżą czułość, jest potem wykorzystany w analizie rzecyziwstych danych. To jest wszystko jednak ukryte wewnątrz kolaboracji, najczęściej nie jest opisane w artykule, i wszystkie osoby robiące blind analysis są równoprawnie wymienione w alfabetycznej kolejności na liście autorów.

        • ~Marcin Przewloka 13.06.2024 16:00

          @fizyk

          Rozumiem.
          To podejscie znaczaco odbiega od tego, co dzieje sie w innych dyscyplinach.
          W biologii jest obecnie mocno zaznaczony trend ku temu, aby w kazdej publikacji precyzyjnie okreslic role kazdego autora. Wyszczegolnia sie to w sekcji, ktora nazywa sie "Contribution". To ma znaczenie z roznych powodow, miedzy innymi dla okreslenia obszaru metodycznego, z ktorym dany autor jest szczegolnie dobrze zaznajomiony (wazne w CV i przy aplikacjach o prace).

          Czy moglby Pan zamiescic link do jednej lub dwoch publikacji z Nature, w ktorych nie ma podanego autora do korespondencji? Pytam z ciekawosci, bo nigdy czegos takiego nie widzialem.

          • ~fizyk 13.06.2024 16:11

            Już pokazuję, przykładowo uprzednio pokazana praca:
            https://www.nature.com/articles/s41586-020-3001-6

            "Contributions
            All authors have contributed to the publication, being variously involved in the design and the construction of the detectors, in writing software, calibrating subsystems, operating the detectors and acquiring data, and finally analysing the processed data. The ALICE Collaboration members discussed and approved the scientific results. The manuscript was prepared by a subgroup of authors appointed by the collaboration and subject to an internal collaboration-wide review process. All authors reviewed and approved the final version of the manuscript.

            Corresponding author
            Correspondence to L. Musa."

            Luciano Musa to po prostu Spokesperson kolaboracji w tamtym czasie (czyli szef całego eksperymentu), który nie ma nic wspólnego z tą konkretną publikacją jeśli chodzi o samą analizę danych jak I tekst.

            Druga późniejsza praca:
            https://www.nature.com/articles/s41586-022-04572-w

            "Contributions
            All authors have contributed to the publication, being variously involved in the design and the construction of the detectors, in writing software, calibrating subsystems, operating the detectors and acquiring data, and finally analysing the processed data. The ALICE Collaboration members discussed and approved the scientific results. The manuscript was prepared by a subgroup of authors appointed by the collaboration and subject to an internal collaboration-wide review process. All authors reviewed and approved the final version of the manuscript."
            I tutaj to "Correspondance" się nawet nie pojawia

            3) Tu z kolei praca z Physical Review Letters (czyli prestiżowe czasopismo z fizyki, najlepsze po Science i Nature)
            https://journals.aps.org/prl/pdf/10.1103/PhysRevLett.131.102302

            Jak widać, praca jest podpisana alfabetycznie wszystkimi autorami kolaboracji ALICE, bez wyróżnania kogokolwiek i bez opisywania wkładu.

            • ~Marcin Przewloka 13.06.2024 16:29

              @fizyk

              Fascynujace. Bardzo dziekuje za te informacje.
              Jak widac, czlowiek uczy sie cale zycie.

              Najwyzarniej moj pomysl co do zwracania uwagi na to, kto jest autorem do korespondencji nie wszedzie ma szanse zadzialac...

              • ~Albert 14.06.2024 14:16

                Autorem korespondencyjnym zostaje się z różnych, nierzadko pozanaukowych powodów. Może nim być np. ten, kogo stać na zapłacenie za umieszczenie w druku rysunków w kolorze, o ile to on będzie autorem korespondencyjnym. Albo ten, kogo stać na opłacenie Open Access (jesli będzie autorem korespondencyjnym). Albo ktoś, kto o to bardzo poprosi, bo u niego na uczelni dostaje się za to nagrodę finansową. Z kolei główny autor może zrezygnować z pierwszego miejsca na liście autorów po to, by umieścić na nim swojego doktoranta, antycypując fochy członków stosownej rady lub komisji. Autorem-widmem można zostać zaś z prozaicznego powodu bycia czyimś doktorantem albo z konieczności rozliczenia projektu, grantu, ucieczki przed N0 w ewaluacji. Można też nim zostać dlatego, że jest się znanym profesorem na Zachodzie, a ktoś w Polsce zamierza składać papiery na awans (habilitacja, profesura) i stwierdza, że ma za mało współpracy międzynarodowej. Wszystko z życia wzięte. Dodajmy do tego rzeczy, o których tylko słyszałem, jak dopisywanie szefa jednostki, kliniki czy po prostu PI grantu, nawet jeśli ich wkład jest dokładnie zerowy.

                Najważniejsze: prawie cały świat gra już w tę grę. Parametry bibliometryczne z roku na rok tracą na wartości niemal tak szybko jak dolar zimbabweński.

                • ~Marcin Przewloka 14.06.2024 17:48

                  @Albert

                  To znaczy praktycznie wszystkie powody, dla ktorych ktos mialby zostac autorem do korespondencji wymienione w Pana komentarzu to patologia. Zaden z nich nie powinien sluzyc jako podstawa do noszenia tego tytulu.

                  Wazne jest wiec zeby takie zachowania jako patologie okreslac, bo jesli sie tego nie robi, to wlasnie dzieja sie rzeczy, jak to, ze "parametry bibliometryczne z roku na rok tracą na wartości". Nie zgadzajmy sie na gnoj, chociaz na wlasnym podworku.

                  W normalnych warunkach ciagle pozycja na liscie autorow cos znaczy. Poza przypadkami opisanymi tutaj przez kogos ze swiata "wielkich projektow".

              • ~Paweł 14.06.2024 04:48

                Ja bym tego nie określił mianem fascynującego, a raczej patologią. Wymaganym standardem powinno być podawanie w artykułach co każdy z autorów zrobił aby przyczynić się do jego powstania. W każdej dyscyplinie. A nie wprowadzanie specjalnych zasad i wyjątków dla fizyków. Ukrywanie wkładów autorów sprzyja "grzecznościowemu" dopisywaniu, a nawet handlowi miejscem na liście autorów w zamian za inne "przysługi". Co jest szczególnie łatwe gdy artykuł ma kilka tysięcy autorów.

                Na przykład na jednej z czołowych polskich uczelni technicznych prorektor ds. nauki od momentu kiedy objął stanowisko zaczął pojawiać się wśród autorów publikacji CERN-owskich powstających na uczelni, chociaż nie jest fizykiem i nie miał wcześniej nic wspólnego z tego typu badaniami. Dzięki temu jego h-indeks i liczba publikacji zwiększyły się do pokaźnych rozmiarów w ciągu zaledwie 4 lat. A oczywiste jest, że nic do żadnej z tych publikacji nie wniósł, chociażby ze względu na obciążenie czasowe związane z pełnieniem swojej funkcji. Gdy przeanalizujemy Scopus i odejmiemy te publikacje to okazuje się, że jego dorobek jest na poziomie zbliżonym do doktorantów z tej samej dyscypliny w momencie obrony. Gdyby nie możliwości kombinowania jakie dają właśnie cernowskie kolaboracje nie dałoby się tego ukryć.

                • ~fizyk 14.06.2024 18:22

                  Ja się nie zgadzam. Jako człowiek z "wewnątrz" spróbuję krótko wyjaśnić czemu kolaboracje tak działają.

                  Eksperymenty prowadzone w CERNie to bardzo skomplikowane urządzenia. Nad kazdym z takich urządzeń pracują setki ludzi, ktorzy od budowy detektorów i zapewnienia stabilności ich działania, osoby od quality assurance zbieranych danych, osoby zajmujące się efektywnym przechowywaniem danych (petabajty!), osoby rozwijające szkielet oprogramowania do analiz, itp. Itd. To, że kilka osób na koniec przeprowadził dana analizę już wcześniej zebranych i przygotowanych na danych na dedykowanej infrastrukturze, powoduje, że oni są tylko małym trybikiem w całości. W zespole, który liczy 2000 osób nie da się w sensowny sposób opisywać rolę każdej z nich. Stąd kompromisem, jaki funkcjonuje od wielu lat, jest właśnie podpisywanie publikacji jako kolaboracja z alfabetycznie ułożonymi członkami.

                  Ewaluacja w Polsce nie może zmienić tego jak funkcjonuje reszta świata w danej dziedzinie. Po prostu patrzenie na współczynniki biblipmetryczne typu indeks H czy cytowania po prostu w tej dziedzinie nie mają sensu, co podkreśla memorandum Europejskiego Towarzystwa Fizycznego. Porównywanie np. chemika czy biologa po tych wskaznikach z fizykiem wysokich energii z kolaboracji CERNowych po prostu nie ma sensu i jest błędne.

                • ~Marcin Przewloka 14.06.2024 17:52

                  @Paweł

                  Moze to i prawda, ale jak przeciwdzialac trendom, ktore w wiodacych tytulach uchodza za "normalne"?

                  Ja osobiscie bardzo bym chcial widziec prostote, otwartosc i przejrzystosc w publikowaniu, bo jest to proces niezwykle wazny dla swiata nauki.

              • ~fizyk 13.06.2024 16:34

                Dokładnie tak.

                Tak jak napisałem wcześniej - nie można tych samych reguł stosować do wszystkich, bo potem się okaże, że trzeba robić masę wyjątków. A memorandum EPS i ECFA (https://cds.cern.ch/record/2014643/files/ecfa-291_ECFA-HEP-evaluation.pdf) w przypadku fizyki wysokich energii jest jednoznaczne -> ocena ekspercka.

                Przykładowo w informatyce z kolei bardzo liczą się konferencje naukowe i tam często nawet nie publikuje się finalnych prac w jakimś konkretnym czasopiśmie, tylko wrzuca preprint do publicznego serwisu arXiv (https://arxiv.org/) i wysyła artykuł na prestiżową konferencję. Stąd też informatycy (tak to rozumiem) kiedyś wywalczyli, by w działce konferencje były punktowane, bo tam zaakceptowanie pracy ma taki sam walor jak w prestiżowym czasopiśmie (czyli konferencja + arxiv wystarcza).

                • ~Paweł 14.06.2024 15:35

                  @Marcin Przewloka

                  > w cyklu "konferencja + arxiv" nie wystepuje nigdzie peer review

                  Przecież wszystkie artykuły na konferencjach są recenzowane! Na tych najbardziej prestiżowych wręcz tak rygorystycznie, że success rate wynosi czasami poniżej 10%.

                • ~fizyk 13.06.2024 17:34

                  Same cytowania z kolei też mają swoje problemy. Przykładowo ta praca (znowu z matmy jej działki):
                  https://iopscience.iop.org/article/10.1088/1126-6708/2006/05/026

                  w prestiżowym Journal of High Energy Physics ma 7000 cytowań. Nie jednak dlatego, że jest przełomowa, ale to po prostu opis i manual modelu teoretycznego Monte Carlo do symulacji zderzen czastek, ktory jest uzywany wszędzie, od analiz fizycznych do poprawek na wydajność detektora. Stąd praktycznie kazda praca z naszej działki to cytuje.

                  Nie jest to praca stricte badawcza pokazująca jakiś przełomowy wynik.

                  Także z cytowaniami osttoznie ;)


                • ~Marcin Przewloka 13.06.2024 17:01

                  @fizyk

                  Ten ostatni pomysl jest dosyc trudny z tego powodu, ze w cyklu "konferencja + arxiv" nie wystepuje nigdzie peer review.
                  Oczywiscie, mozna zadac pytanie, czy w ogole peer review jest wazne, ale jesli juz zakladamy, ze istnieje jakas wartosc w tym, ze manuskrypt przeszedl przez peer review i zostal w jakims konkretnym pismie przyjety do publikacji, to akceptacja faktu, ze ktos publikuje bez peer review i to wystarcza, jest trudna....

                  Najlepsze byloby prawdopodobnie poleganie na liczbie cytowan (wtedy cykl "konferencja + arxiv" bylby OK), ale te w krotkim okresie czasu pomiedzy ewaluacjami moga sie zwyczajnie jeszcze nie "uzbierac".

                  Same problemy z ta ewaluacja...
                  :-)

  • ~ropa 13.06.2024 13:56

    Fajnie, niektóre pomysły dość sensowne, ale w zasadzie to tylko zamiana jednych tabelek na inne. Matematyczne zmiany w sposobie dzielenia punktów itd. mają sens, bo obecne to śmiech na sali, ale te wskaźniki i tak będą promowały to samo, co dzieje się teraz.
    A jakby wprowadzić te wszystkie pomysły na raz, to zrobi się taki bajzel, którego chyba jeszcze nie było. Np. habilitacja - obecnie system oparty głównie na podpięciu się pod hordy zwane spółdzielniami i trzepaniu publikacji, byle tylko były cytowane przez innych z danej frakcji. Zmieńmy teraz zasady (na jakie?) i jednocześnie wprowadźmy limit czasowy na uzyskanie habilitacji. Jak to się skończy?
    Ewaluacja wydziałów? Jak, skoro dana dyscyplina na uczelni X może być na wydziale A, a na uczelni Y na wydziale C?