|
|
AgoraTrzeba dalej pracować nad doborem bardziej adekwatnych i możliwie obiektywnych wskaźników, klasyfikować uczelnie we względnie jednorodnych Bohdan Jałowiecki Budzące początkowo nieufność rankingi szkół wyższych publikowane przez czołowe polskie czasopisma w ciągu kilku lat uzyskały nobilitację. Rektor Uniwersytetu Warszawskiego odbierał w tym roku dyplom z rąk przewodniczącego kapituły rankingu „Perspektyw” i „Rzeczpospolitej”. O pozytywnej roli tych klasyfikacji wypowiadała się Krystyna Łybacka, minister edukacji narodowej i sportu. Wysokie miejsce w rankingu staje się jednym z czynników prestiżu uczelni zajmujących miejsca w pierwszej dziesiątce. Rankingi są czytane przede wszystkim przez samych zainteresowanych – pracowników szkół wyższych – i wzbudzają nieraz spore emocje. O wadze przywiązywanej do tej kwestii świadczy uchwała Stowarzyszenia Rektorów i Założycieli Uczelni Niepaństwowych oraz Konferencji Rektorów Uczelni Niepaństwowych, w której stwierdza się z troską, że: dotychczas nie wypracowano satysfakcjonujących metod pozycjonowania uczelni. W związku z tym informacje wynikające z rankingów mogą być dla kandydatów mylące. Klasyfikacje te prawdopodobnie czytają też kandydaci na studia, a może i ich rodzice. Rankingi pełnią zapewne jakąś rolę informacyjną, ale jaką – nie wiadomo. Wśród motywów wyboru kierunku studiów w danej uczelni na pierwszym miejscu znajduje się z pewnością bliskość w stosunku do miejsca zamieszkania i brak odpłatności za studia. Dopiero na kolejnych miejscach plasują się ewentualnie ranga i prestiż szkoły. Do określenia tych ostatnich cech rankingi specjalnie się jednak nie przyczyniły, bo już przedtem zainteresowani wiedzieli, która uczelnia na danym regionalnym rynku edukacyjnym jest lepsza, a która gorsza. Wiadomo było także, że do najlepszych polskich szkół wyższych należą uniwersytety Warszawski i Jagielloński, ale fakt ten w niewielkim tylko stopniu, a właściwie w prawie żadnym, nie wpływa na decyzję wyboru uczelni przez mieszkańca Szczecina czy Zielonej Góry, bo i tak 99 proc. kandydatów będzie studiować na miejscu, a najdalej w Poznaniu. Rynki edukacyjne w Polsce domykają się w skali regionalnej od lat. Rankingi stały się jednak instytucją publiczną, o czym dodatkowo może świadczyć fakt, że w czerwcu w Warszawie odbyła się międzynarodowa konferencja pod auspicjami Europejskiego Centrum Szkolnictwa Wyższego UNESCO na temat metodologii rankingów. Wszystko to więc skłania do bliższego przyjrzenia się im. Przedmiotem analizy będą cztery ogłoszone w 2002 r. klasyfikacje: „Perspektyw” i „Rzeczpospolitej”, a także „Polityki”, „Wprost” i „Newsweeka”. Każdy z nich posługuje się inną metodą, toteż są wzajemnie nieporównywalne, ale można je traktować komplementarnie. BŁĘDNE KOŁORanking „Perspektyw” osobno klasyfikuje uczelnie państwowe i niepaństwowe, które dla uproszczenia, nie wchodząc w zawiłe kwestie prawne, będę dalej nazywał prywatnymi. „Polityka” nie czyni takiego rozróżnienia. „Perspektywy” klasyfikują uczelnie, a „Polityka” wybrane kierunki studiów. Z kolei „Newsweek” ranguje uczelnie i wydziały. O ile dwa pierwsze czasopisma posługują się złożonymi wskaźnikami, o tyle ostatni tygodnik zapytał tylko przedsiębiorstwa różnych branż, ile osób do 30. roku życia i z jakich uczelni zatrudniono na stanowiskach operacyjnych, kierowniczych i dyrektorskich. „Perspektywy” brały pod uwagę: prestiż z wagą 50 proc., siłę intelektualną uczelni (11 wskaźników) z wagą 30 proc. i warunki studiowania (15 wskaźników) z wagą 20 proc. Prestiż był mierzony za pomocą dwóch ankiet skierowanych do pracowników naukowych, którzy uzyskali tytuły profesorów tzw. belwederskich w 2000 i 2001 r., oraz do przedsiębiorstw. W pierwszym przypadku otrzymano 384, a w drugim 364 odpowiedzi. Wśród tak dziwacznie dobranej próby zapytywanych profesorów znajdowali się przedstawiciele niemal wszystkich dyscyplin, którzy znali, co jest oczywiste, przede wszystkim uczelnie ze swojej dziedziny i ze swojego ośrodka akademickiego. Świadczy o tym fakt, że na liście preferencji pracowników na 100 prywatnych uczelni w przypadku 71 występują zera, czyli dwie trzecie analizowanych uczelni jest przez środowisko nieznanych. Próba ta nie jest oczywiście reprezentacją środowiska naukowego. Obie próby uczonych i przedsiębiorców nie tylko nie mają charakteru statystycznej reprezentacji, lecz na dodatek są nieliczne. nieznane są też kryteria doboru przedsiębiorstw ani odsetek zwrotów wypełnionych ankiet. Z punktu widzenia metodologii badań społecznych, uzyskane w ten sposób wyniki są zupełnie niemiarodajne. Poważne zastrzeżenia budzi także wprowadzenie kryterium prestiżu, a w dodatku nadanie mu tak wielkiej wagi. Prestiż wynika po części z rezultatów rankingu, tak więc oceniający mogli sugerować się wynikami poprzednich klasyfikacji. Mamy klasyczną sytuację błędnego koła: prestiż określa prestiż. Kryterium to jest więc w rankingu całkowicie bezwartościowe, a ponieważ w 50 proc. decyduje o miejscu zajmowanym przez uczelnię, istotnie fałszuje klasyfikację. Wystarczy przyjrzeć się pierwszej dziesiątce szkół prywatnych. O poszczególnych miejscach zadecydował „prestiż” i prawo do nadawania tytułów doktorskich. Te dwie cechy nie świadczą jeszcze o jakości kształcenia i warunkach studiowania, natomiast w sposób istotny decydują o miejscu w rankingu. W przypadku pozostałych dwóch kryteriów, „siły intelektualnej” i „warunków studiowania”, także nie obyło się bez poważnych błędów. W przypadku „siły intelektualnej” jako jeden ze wskaźników rankingu szkół prywatnych przyjęto uprawnienia do nadawania stopni doktorskich. Takie uprawnienia mają jedynie 3 uczelnie na 200 sklasyfikowanych. Zastosowanie tego kryterium byłoby poprawne, gdyby takie uprawnienia miała większość szkół. Podobnie jest w przypadku grantów KBN. Jeżeli najlepsza uczelnia uzyskała 7 grantów, czytamy w Zasadach rankingu, to przydzielono jej 100 punktów, a następnym odpowiedni procent od 7! A przecież wiadomo, że obliczanie procentu od liczby 7 jest bez sensu. W warunkach studiowania znalazł się wskaźnik „wielokulturowości”, tj. liczby studentów obcokrajowców przypadających na jednego studenta. W Polsce liczba studiujących obcokrajowców jest bardzo niewielka, toteż kryterium to nie ma żadnego znaczenia, a poza tym, co ma „wielokulturowość” do warunków studiowania. W sumie ranking „Perspektyw” i „Rzeczpospolitej”, zawiera tyle błędów, że nie spełnia elementarnych warunków poprawności metodologicznej. O PSACH I KOTACHRanking „Polityki” wydaje się bardziej obiektywny, nie uwzględnia bowiem, na szczęście, kryterium prestiżu. Podstawowym błędem tego rankingu jest przeprowadzenie jednolitej klasyfikacji uczelni państwowych i prywatnych. Każda klasyfikacja, aby była poprawna, powinna zawierać względnie jednolite elementy. Nikt na ogół nie będzie klasyfikował jednocześnie ras psów i kotów, chociaż są to zwierzęta domowe. Podobnie szkoły państwowe i prywatne działają w innych warunkach prawno-finansowych i funkcjonują na nieco innych obszarach rynku edukacyjnego, a ponadto uczelnie państwowe istnieją już z reguły wiele lat i mają np. większe zasoby biblioteczne, liczniejszą kadrę. Z tych powodów należy osobno klasyfikować uczelnie państwowe i prywatne. W rankingu „Polityki” pierwsza wśród uczelni akademickich szkoła prywatna znajduje się na 14. miejscu, druga na 22., a trzecia na 25. O wysokich miejscach szkół państwowych decydują tu głównie uprawnienia do nadawania stopni doktora i doktora habilitowanego, co wcale nie musi przekładać się na jakość nauczania w danej uczelni. Błędem jest także przyjmowanie kryterium „pracy na pierwszym etacie”. pojęcie to jest nonsensem biurokratycznym, który powinien być możliwie najszybciej wyeliminowany. Czy profesor zwyczajny z dużym dorobkiem naukowym i uznaną pozycją międzynarodową uczy lepiej na pierwszym niż na drugim etacie? Często jest niestety odwrotnie, ponieważ w szkole prywatnej pracuje na kontrakcie, a w państwowej na doemerytalnym etacie. W szkołach prywatnych, które znam, dyscyplina odbywania wykładów, punktualność, przygotowywanie materiałów dydaktycznych itp. są znacznie lepsze niż w uczelniach macierzystych, gdzie nierzadko wykłady zleca się asystentom. Błędnie zastosowane jest także kryterium selekcyjności, z czego autorzy zdają sobie sprawę. Selekcyjność, oczywiście, będzie większa w przypadku modnych kierunków, gdzie obowiązuje limit miejsc, a liczba kandydatów wielokrotnie go przekracza. W sumie ranking „Polityki” jest znacznie bardziej poprawny metodologicznie i pozbawiony rażącego w poprzednim przypadku subiektywizmu. NA WYCZUCIERanking „Wprost” reklamuje się jako najbardziej obiektywny, a zatem wiarygodny. Niestety, zastosowane w nim kryteria do takich nie należą. Punkty przyznawano np. za jakość programów nauczania, wybitne umiejętności dydaktyczne kadry, dostosowanie programów nauczania do wymogów współczesnej gospodarki i społeczeństwa, otwartość na nowe zjawiska. Warto by się dowiedzieć, jak eksperci tygodnika oceniali jakość programów, jakie były kryteria ich dostosowania do wymogów współczesności, jak mierzyć wybitne umiejętności dydaktyczne? Z tą ostatnią miarą nie są w stanie od lat poradzić sobie same uczelnie, ponieważ umiejętności dydaktyczne są, tak jak talent, niemierzalne. Trudno uwierzyć, że porównywano i oceniano indywidualną część programów kilkuset szkół, bo jest to praktycznie niemożliwe, a przy tym znaczna część wiedzy przekazywana jest na podstawie jednakowego, ustalonego z góry tzw. minimum programowego. Zupełnie niezrozumiały jest także podział na „niepaństwowe wyższe szkoły biznesu i zarządzania” i „niepaństwowe szkoły niebiznesowe”. Pomijając pokrętność nazewnictwa, trudno zrozumieć, dlaczego np. Wyższa Szkoła Zarządzania i Nauk Społecznych w Tychach znajduje się w pierwszej grupie, a Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie w drugiej, chociaż obie uczą zarządzania, co chyba nadaje im cechy szkół „biznesowych”. Autorzy rankingu szczególnie polecają zestawienie uczelni, w których warto studiować poszczególne kierunki i specjalności. W tym celu przeliczyli nieco inaczej punkty i otrzymali wynik nawet dla laika zdumiewający. W dziedzinie zarządzania biznesem pierwsze miejsce zajęły skądinąd bardzo dobre uczelnie prywatne: Wyższa Szkoła Biznesu – National Louis University w Nowym Sączu i Wyższa Szkoła Przedsiębiorczości i Zarządzania im. Leona Koźmińskiego w Warszawie, przed Szkołą Główną Handlową, którą autorzy rankingu reklamują jako najlepszą uczelnię ekonomiczną. Jak autorzy do tego doszli, jeżeli oceniali szkoły a nie kierunki czy specjalności? Można się także zapytać, w jaki sposób oceniany jest potencjał analizowanych jednostek naukowych w porównaniu z najlepszymi ośrodkami na świecie, skoro nie istnieje żadna baza do takich porównań. Jeżeli uczelnia uzyskała w klasyfikacji autorów rankingu więcej niż 90 punktów, została zakwalifikowana do klasy międzynarodowej. Trudno zrozumieć, skąd się wzięła ta „klasa międzynarodowa”, skoro porównuje się wyłącznie szkoły krajowe. Nie sposób przecież na tej podstawie stwierdzić, jakie miejsce np. wśród uniwersytetów europejskich zajmuje UJ. Ewentualnie można by jeszcze mówić o klasie międzynarodowej, gdyby klasyfikacja opierała się np. na liczbie studentów zagranicznych studiujących w klasyfikowanych szkołach. Autorzy rankingu najwyraźniej „wciskają kit” czytelnikom. Za rynkową wartość dyplomu przyznaje się 50 punktów, podczas gdy dyplom polskich uczelni nie ma wymiernej w złotówkach wartości. W Polsce, inaczej niż w np. USA, rynki pracy, z wyjątkiem stolicy, domykają się w zasadzie regionalnie, ponieważ migracje są bardzo małe. Absolwent uczelni białostockiej otrzyma w Białymstoku znacznie mniejsze wynagrodzenie niż absolwent szkoły warszawskiej w Warszawie nie dlatego, że jeden ukończył gorszą, a drugi lepszą szkołę, lecz dlatego, że tak akurat na tych rynkach płacą. Wynagrodzenie zależy ponadto bardziej od popytu i podaży niż od szkoły, którą kandydat do pracy ukończył. Pozatym, aby ustalić „wartość dyplomu”, trzeba by przeprowadzić ogromne badania na próbie reprezentacyjnej wszystkich absolwentów z kilku roczników, co jest w ogóle niemal niewykonalne z powodu trudności technicznych i kosztów. Autorzy rankingu brali także pod uwagę ocenę absolwentów przez pracodawców. Ciekawe, jak to zrobili, ponieważ poszczególni pracodawcy mogą porównać zaledwie absolwentów kilku, a nie kilkuset szkół. Interesujące jest również to, w jaki sposób autorzy rankingu badali „ścieżki kariery” (płace absolwentów, udział w konkursach na różne stanowiska, tempo awansu) i to wszystko w odniesieniu do kilkuset szkół państwowych i prywatnych w Polsce. Kryteria te nie opierają się oczywiście na poprawnych metodologicznie badaniach, a co najwyżej na reporterskim zwiadzie, który nie jest wystarczający do konstruowania rankingów. W rezultacie, poza możliwymi do sprawdzenia kryteriami, opartymi na danych uzyskanych od szkół, pozostałe cechy zostały przypisane poszczególnym szkołom „na wyczucie”, co oczywiście w znacznym stopniu podważa wiarygodność klasyfikacji „Wprost”. ZAFAŁSZOWANA RANGAOstatni ranking – tygodnika „Newsweek”, który po raz pierwszy pojawił się w 2002 r., oparty jest tylko na jednym kryterium – zatrudnienia absolwentów. Ustalając go posłużono się 308 odpowiedziami otrzymanymi od przedsiębiorstw różnych branż. Autorzy nie podają, ile ankiet wysłali, a przecież liczba zwrotów świadczy o wiarygodności wyników. Na podstawie ok. 300 odpowiedzi oceniono 86 uczelni! Mała liczba odpowiedzi i niereprezentatywny charakter próby czyni ten ranking całkowicie niewiarygodnym. I tak np. w rankingu uniwersytetów wprawdzie pierwsze miejsce zajął Uniwersytet Warszawski, ale drugie Uniwersytet Gdański, natomiast aż dziewiąte Jagielloński. To badanie przeprowadzone przez Sopocką Pracownię Badań Społecznych razi brakiem profesjonalizmu i dotyczy bardziej cech rynku pracy niż uczelni. Oczywiście, w tak przeprowadzonej klasyfikacji musiały „wysoko wygrać” uczelnie warszawskie, ponieważ w stolicy jest najwięcej przedsiębiorstw zatrudniających absolwentów tych uczelni. W sumie ranking „Newsweeka” w największym stopniu fałszuje rzeczywistą rangę polskich uczelni, ponieważ o ich poziomie bynajmniej nie świadczy ilość absolwentów pracujących na kierowniczych stanowiskach. Być może takie podejście wynikło z przeniesienia wzorów amerykańskich, gdzie absolwent tzw. bluszczowej ligi otrzymuje na starcie lepszą pracę i wyższe wynagrodzenie niż osoba kończąca mało znaną uczelnię. Czy więc rankingi są potrzebne? Tak. Po pierwsze dlatego, że już istnieją i funkcjonują społecznie, a po drugie – mogą dostarczać, pod warunkiem, że będą rzetelne i poprawne metodologicznie, informacji kandydatom na studia. Trzeba je jednak zobiektywizować. Nie powinni ich zatem robić sami uczeni, jak ma to miejsce w przypadku klasyfikacji „Perspektyw” i „Polityki”, a wyspecjalizowane pozaakademickie placówki badania opinii publicznej. Trzeba także dalej pracować nad doborem bardziej adekwatnych i możliwie obiektywnych wskaźników, klasyfikować uczelnie we względnie jednorodnych grupach, najlepiej według kierunków studiów i wyeliminować wskaźniki skrajne, jak np. uprawnienia doktoryzowania i granty KBN w przypadku szkół prywatnych. Należy mieć nadzieję, że czerwcowa konferencja w Warszawie przyczyni się do poprawy jakości rankingów szkół wyższych. Prof. dr hab. Bohdan Jałowiecki, socjolog, pracuje w Europejskim Instytucie Rozwoju Regionalnego i Lokalnego Uniwersytetu Warszawskiego. |
|
|