|
|
Życie akademickieTrzeba znacznej porcji wiedzy o akredytacji, aby zrozumieć, że jest ona także narzędziem promocji, pomocy w wykonywaniu zadań, mechanizmem, który ma przynieść Ewa Chmielecka
PUNKT RÓWNOWAGIDylemat I. Czy standardy mają być odbiciem pożądanej, czy zastanej jakości kształcenia? Jaki powinien być poziom wymagań zapisanych w standardach? Jak uzyskać równowagę pomiędzy wymogiem realizmu a funkcją motywującą standardów? Czy akredytacja powinna być powszechnie dostępna, czy też powinna być znakiem przynależności do ekskluzywnego klubu? Jeśli instytucja akredytująca ustanowi poziom wymagań zbyt nisko, akredytacja będzie bardzo łatwa do zdobycia. W skrajnym przypadku będzie powszechnie dostępna. Znika wówczas funkcja stymulująca uczelnię do poprawy, doskonalenia jakości, ale znika jeszcze jedna ważna cecha akredytacji, a mianowicie jej przydatność rynkowa. Akredytacja ma marketingowe znaczenie dla uzyskującej ją instytucji. Przy mniejszym jej rozpowszechnieniu wyróżnia pozytywnie instytucję, która posiada jej certyfikat, daje zauważalne potwierdzenie jakości oferowanych przez nią usług. Przy rozpowszechnieniu większym, przy zróżnicowanych profilach akredytacji, brak jakiegokolwiek certyfikatu wyróżnia instytucję negatywnie, czyni ją mało wiarygodną. Akredytacja staje się tu procesem dobrowolnym, ale nieuniknionym, wybieranym pod presją rynku. Akredytacje powszechne, łatwe do zdobycia, tracą na znaczeniu rynkowym – skoro każdy może je zdobyć, to nikt nie jest wyróżniony ani pozytywnie, ani negatywnie. Ponadto uczelnie o wyższym prestiżu i wyższym poziomie nauczania nie będą się o nie ubiegać nie chcąc dzielić takiego samego potwierdzenia jakości, zaliczać się do tego samego grona, co szkoły o reputacji kiepskiej i słynące z niedobrej jakości kształcenia. Instytucja akredytująca traci na znaczeniu i powadze. Wysokie standardy akredytacyjne tworzą ekskluzywne kluby uczelni, które je potrafiły spełnić. Ich znaczenie rynkowe jest duże – szkoły są bardzo pozytywnie wyróżnione. Zarazem jednak stawiając poprzeczkę bardzo wysoko i tworząc bardzo elitarne kluby szkół akredytowanych likwidujemy pierwszy z motywów wprowadzania akredytacji: permanentne podnoszenie jakości. Zbyt wysokie standardy zniechęcają do starań o ich spełnianie tych, którzy zbyt wiele mają do nadrobienia – proces doskonalenia szkolnictwa wyższego zostaje zatrzymany. WSKAŹNIKI ILOŚCIOWEDylemat II. Czy standardy mają być wskaźnikami stanu jakości, czy procesu jej doskonalenia? Jak uzyskać równowagę pomiędzy wskaźnikami statycznymi a dynamicznymi w standardach? Do których metod zapewniania jakości najlepiej pasuje wskaźnikowy, a do których dynamiczny model oceny? Jak zapewnić potwierdzenie progowej wartości oceny przy zastosowaniu wskaźników dynamicznych? Wskaźniki ilościowe dokonań, najczęściej stosowane w akredytacji, to liczby, proporcje, mierzalne ilościowo relacje pomiędzy sferami podlegającymi ocenie. Mówią o stanie uczelni (kierunku, wydziału), o wymiernych cechach edukacji i jej rezultatach. Liczba studentów i wykładowców, sal i stanowisk dydaktycznych, komputerów, woluminów w bibliotece oraz ich wzajemne relacje, a także koszt kształcenia jednego studenta, liczebność grup seminaryjnych, wskaźnik selekcji kandydatów i poziom zarobków absolwentów, to przykłady typowych performance indicators. Mówią wiele o uczelni, dają wstępny ogląd warunków realizacji programów dydaktycznych, natomiast o jakości kształcenia jako takiej nie mówią zbyt wiele. O procesach na rzecz jej poprawy, tendencjach i zmianach jakości kształcenia nie powiadają nic zgoła, chyba że porównamy ich wysokości w dłuższym okresie – wówczas mogą stanowić wskazówkę, czy w uczelni dominują działania pro– czy też antyjakościowe. Najchętniej i najskuteczniej są wykorzystywane w tych metodach zapewniania jakości, gdzie trzeba podjąć decyzję rozstrzygającą o udzieleniu pewnych praw, np. pozwolenia na prowadzenie działalności, i móc pieczołowicie ją uzasadnić – zwłaszcza decyzję negatywną. Niewypełnienie przez uczelnię ważnego wskaźnika może być dostatecznym uzasadnieniem odmowy akredytacji. W Polsce taki charakter noszą np. ustawowe i ministerialne kryteria uruchamiania i prowadzenia kierunków studiów, a także wspomniane już standardy oceny wstępnej FPAKE. Obok ilościowych wskaźników statycznych mamy też wskaźniki osiągnięć typowo jakościowe, które wynikają przede wszystkim z opinii wydawanej przez ekspertów – wizytatorów czy recenzentów. Ocena aktualności programów nauczania, ich właściwej kompozycji dla ocenianego kierunku studiów nie może być ilościowa – tu jej podstawą są kompetencje i rzetelność osób opiniujących. Wskaźniki ilościowe osiągnięć mają dodatkową zaletę: na ich podstawie można łatwo porównywać osiągnięcia uczelni, dobrze więc mogą służyć wszystkim ocenom, których zadaniem jest rangowanie szkół – wszystko jedno, czy w celach administracyjnych (organy państwa mogą wówczas lepiej prowadzić politykę względem podmiotów szkolnictwa wyższego), czy innych (informacja dla studentów i pracodawców). Od razu jednak trzeba zaznaczyć i negatywny aspekt analiz z wykorzystaniem wskaźników ilościowych: ich wpływ na podnoszenie jakości jest nieznaczny. Toteż cel drugi akredytacji nie jest za ich pomocą skutecznie realizowany. Tu mogą pomóc wskaźniki (standardy) dynamiczne. Dzięki nim próbuje się zidentyfikować procesy zachodzące w uczelniach, których skutkiem ma być poprawa jakości. Standardy dynamiczne rodzą niesłychanie trudny metodologicznie i praktycznie problem, a mianowicie, jak na ich podstawie można potwierdzić lub zaprzeczyć osiągnięcie przez uczelnię progowych standardów będących podstawą wydania decyzji o akredytacji. Kto i na jakiej podstawie ma orzec, czy uczelnia zasługuje na akredytację? I jak, gdy zajdzie potrzeba, uzasadnić jej odmowę? Po odpowiedź na te pytania zwrócić się trzeba do dwu innych elementów procesu akredytacji: procedury oraz instrukcji sporządzania samooceny i oceny. Dlaczego? Ponieważ, skoro standardy dynamiczne sugerują subiektywność ocen, trzeba ich użyć w taki sposób, aby tę subiektywność potraktować tylko jako punkt wyjścia, swego rodzaju bazę do ocen niesubiektywnych. DWA SUBIEKTYWIZMYPo pierwsze, zauważmy kto będzie używał kryteriów dynamicznych (oczywiście, także kryteriów stanu). Będą to przedstawiciele uczelni sporządzający dokument samooceny oraz członkowie zespołu oceniającego (peer review team) sporządzający raport z oceny dokonanej w trakcie wizytacji. Przygotowanie samooceny zgodnie z wytycznymi zapisanymi w instrukcji jej sporządzenia polega na dokonaniu szeregu analiz procesów zachodzących w uczelni, a mających związek z jakością kształcenia. Wytyczne (pytania) przewodnika samooceny mają zwodniczo miękki charakter, a czasem wprost proszą przedstawicieli uczelni o wyrażenie opinii (dokonanie oceny) w zaznaczonych kwestiach. Pytania w rodzaju: jaka jest reputacja szkoły w środowisku?, to typowe pytania dynamicznych kryteriów akredytacji. Ta „miękkość” pytań jest jednak, powtarzam, zwodnicza. Ponieważ albo wprost w pytaniach (jako ich druga część, brzmiąca zwykle: jak możesz dowieść, że tak jest?), albo jako osobny punkt w przewodniku sporządzania samooceny pojawia się zalecenie, że każda opinia wyrażana w raporcie samooceny musi być potwierdzona za pomocą odpowiednich dokumentów. Opinie nie uzasadnione przekonywająco w ogóle nie będą brane pod uwagę przez zespół oceniający i z punktu dyskredytują uczelnię. W pytaniach o procesy tkwią pytania o wskaźniki dokonań – o ich zmiany w czasie, o ich analizę przez uczelnię i o wykorzystanie tych analiz na przyszłość. W samoocenie nie „odhaczamy” ich tylko w odpowiednich kratkach arkusza, ale musimy dokonać ich interpretacji, co więcej, musimy dowieść, że uczelnia permanentnie takiej ich interpretacji dokonuje, a ich wyniki bierze pod uwagę przy planowaniu swej działalności. Sądzę więc, że subiektywizm samooceny jest w znacznym stopniu ograniczony przez ukryte w pytaniach żądania twardych faktów. Drugi subiektywizm kryjący się w akredytacji opartej na standardach dynamicznych, to subiektywizm zespołu oceniającego. Sprawa jest poważniejsza niż w przypadku samooceny. Tu audytorzy interpretują zarówno sens samych kryteriów, jak i stopień ich spełnienia przez uczelnię na podstawie własnej wiedzy i doświadczenia. Pomijam przypadek nierzetelności audytorów, idzie o istotę sprawy. Jak sprawić, że audytorzy będą kompetentni? Wyjście pierwsze – zatrudnić ekspertów od metod zapewniania jakości i domen wiedzy podlegających ocenie. Gdyby miał to być sam wyrafinowany audyt kończący się analizą szans i zagrożeń, słabych i mocnych stron uczelni, wyjście byłoby doskonałe i takie opcje w Europie i świecie istnieją. Ale tu idzie także o akt akredytacji potwierdzający pozycję uczelni na rynku usług edukacyjnych, a więc z natury akt dokonywany przez osoby znające doskonale ten rynek i realia, w których działa uczelnia. Pozostaje więc wyjście drugie – zatrudnić peers, przedstawicieli środowiska poddającego się akredytacji, którzy znają na wylot jego problemy, osoby obdarzone jego autorytetem i zaufaniem, a zarazem doskonałych specjalistów w dziedzinach, które mają podlegać ocenom. Procedura akredytacji powinna starannie rozstrzygnąć, jak wyłonić takich ludzi oraz dać im do ręki takie narzędzie działania, że z serii ich subiektywnych ocen wyłoni się intersubiektywny (a więc metodologicznie dopuszczany jako obiektywny) obraz ocenianej jednostki. SAPERSKIE OSTRZEŻENIEDylemat III. Kiedy standardy akredytacyjne łączą się z zaangażowaniem środowiska akademickiego w zapewnianie jakości, a kiedy ich wpływ jest niewielki? Jak zapewnić równowagę pomiędzy wyrafinowanym (eksperckim) a zdroworozsądkowym charakterem standardów? Jeśli akredytacja ma spełnić swój cel, jakim jest podnoszenie jakości kształcenia, to musi wciągać w swoje działania możliwie szerokie rzesze kadr akademickich, administracyjnych i innych związanych z uczelniami grup. Ton Vroeijenstijn, holenderski specjalista w zakresie zapewniania jakości edukacji wyższej, udzielał „ostrzeżenia saperskiego” tym, którzy rozpoczynali prace nad wewnętrznymi i zewnętrznymi systemami zapewniania jakości. Powiadał, że jeśli osobom przygotowującym je nie uda się zrobić ich dobrze za pierwszym razem, to będą mogły spróbować po raz wtóry za 5 lat. Dopiero po tym czasie niechęć środowiska do akredytacji, podsycona nieudanym zabiegiem, opadnie na tyle, że będzie ono skłonne współpracować ponownie. Dwie rzeczy uderzają w tym stwierdzeniu: że pracownicy uczelni są zasadniczo niechętnie nastawieni do procesu akredytacji oraz że do jej przeprowadzenia potrzebna jest ich współpraca. Uwaga druga wymaga bliższej charakterystyki istoty akredytacji. Otóż akredytacja nie powinna być jednorazowym (choć powtarzalnym) aktem zebrania danych liczbowych, zestawienia ich w zbiory charakteryzujące uczelnię i okazania ich opinii publicznej. Akredytacja powinna być procesem, który uruchamia i podtrzymuje w uczelni permanentnie działający system zapewniania i podnoszenia jakości. David Dill, inny znakomity specjalista ds. zapewniania jakości, powiadał, że akredytacja jest sprawą niemal intymną, procesem, który dobrze zaprowadzony sprawia, że uczelnia i jej pracownicy nie są po niej tacy sami, jak przed nią. Podstawowym rezultatem przeprowadzenia pierwszej akredytacji powinna być zmiana polityki uczelni i świadomości pracowników w stronę zaangażowania, nakierowania na jakość procesów dydaktycznych, przejęcia się nimi, zrozumienia, że konieczne jest zaprowadzenie w uczelni procedur wymuszających ją na wszystkich podmiotach działania. Okresowo przeprowadzane oceny reakredytujące mają podtrzymywać ten proces i jasne jest, że bez zaangażowania pracowników tego się nie uzyska. Bez niego uzyska się pozór akredytacji – biurokratyczną atrapę, obowiązek okresowo odwalany przez administrację uczelni starającej się podciągnąć w górę wskaźniki ilościowe wszelkimi możliwymi sposobami i uzyskać pozytywny werdykt. Powtórzę: pracownicy uczelni powinni poczuć, że mechanizmy oceny i zabezpieczania jakości leżą w ich interesie (nie mam tu na myśli interesu rynkowego uczelni, przynajmniej nie bezpośrednio), dają się bowiem wykorzystać do poprawy jakości ich pracy. Akredytacja powinna obudzić w nich postawy projakościowe. Oczywiście, owe postawy wymagają od pracowników także dodatkowych nakładów pracy i realizm nakazuje przyznać, że dobrowolne przyjęcie tych postaw nie jest automatyczne. Akredytacja powinna je także, mówiąc wprost, nieco wymuszać. Jednak tym łatwiej będzie to czynić, im zrozumienie i zaangażowanie środowiska w akredytację będzie większe. Powróćmy do dylematu, które metody badania jakości zastosować: proste, nie wymagające wysiłku i łatwe w stosowaniu (np. elementarne wskaźniki ilościowe, czy gotowe wzorce do naśladowania w rodzaju minimów programowych), czy też eksperckie (bardziej wyrafinowane, wykorzystujące np. metody TQM)? Odpowiedź jest prosta: to zależy, co chcemy osiągnąć. Paradoksem jest to, że przychylność, a więc i potencjalne zaangażowanie środowiska łatwiej może zyskać pierwsza z metod, ponieważ właśnie nie wymaga ona zaangażowania – ocena wskaźnikowa może być przeprowadzona przez administrację uczelni bez niepokojenia kadry akademickiej. Wpływ na jakość jest tu niewielki. Metoda druga, znowu paradoksalnie, z istoty swej zaangażowania wymaga (nie ma bez niego samoanalizy) i tym może zniechęcać. Jeśli jednak pozyskamy jej zwolenników, to mamy szansę na znaczną poprawę jakości. Pytanie o punkt równowagi pomiędzy nimi powinno znaleźć odpowiedź stosowną do stanu świadomości środowiska, do którego zostaną zastosowane standardy. Na szczęście świadomość ową można zmieniać i każda odpowiedzialna agencja akredytacyjna to czyni. WSPÓLNA WALUTADylemat IV. Czy istnieje możliwość porównania jakości kształcenia na podstawie standardów różnych instytucji akredytacyjnych i ewentualnego wzajemnego uznawania certyfikatów akredytacyjnych? Jakie warunki muszą wypełnić standardy, aby stać się common currency agencji akredytujących? Każda akredytacja środowiskowa powinna być prowadzona tak, aby zapewnić i uznawać za wartość różnorodność szkół i ich programów. Temu służy przede wszystkim nieodłączny punkt startowy standardów akredytacji: misja uczelni. Doskonałą uczelnią może być mała wyższa szkoła zawodowa kształcąca kadry średniego szczebla na potrzeby regionalnej integracji europejskiej i specjalizująca się w funkcjonowaniu samorządów lokalnych. Doskonała może być wyrafinowana prywatna szkoła biznesu specjalizująca swych słuchaczy w jednej dyscyplinie zarządzania dostępnej na nadzwyczajnie wysokim poziomie dzięki osobistym kontaktom zagranicznym rektora. Doskonała może być wielka szkoła ekonomiczna o wybitnych tradycjach kształcąca strategów gospodarczych i specjalizująca się w teorii ekonomii. A dodajmy jeszcze do tego zbioru nowoczesny uniwersytet z wydziałem zarządzania i administracji szykujący kadry administracji wysokiego szczebla. Aby się jednak przekonać, że są doskonałe, musimy mieć rozeznanie celów, jakie sobie stawiają (misja) i tego, jak je realizują (standardy dynamiczne akredytacji to uchwycą). Co łączy te uczelnie? Jak stworzyć dla nich wspólne standardy akredytacji? Czy jest to w ogóle możliwe? Od kilku lat światowe agencje akredytacyjne (patrz np. dyskusja na VI światowej konferencji INQAAHE) próbują stworzyć nowe definicje standardów jakości, tak je przeformułować, aby nie mogły być dłużej traktowane jako narzędzie ujednolicania edukacji według jednego wzorca, lecz odwrotnie, by było to narzędzie pozwalające uchwycić jej permanentną zmianę, różnorodność, a zarazem uzyskać porównywalność zakładanych w niej efektów kształcenia. Jak powinny przedstawiać się standardy jakości, skoro standardy ujednolicające nauczanie i zagrażające misjom uczelni są nie do przyjęcia? Powinny one stworzyć coś w rodzaju common currency instytucji akredytujących – stać się walutą, która jest odmienna w różnych ośrodkach, ale przecież wymienialna. Taką „wspólną walutą” mogą się stać uniwersalne kwalifikacje absolwentów, ale może się też nią stać wspólny model dokonywania oceny – stosowalny uniwersalnie i stanowiący podstawę do wzajemnego uznawania swych akredytacji przez agencje akredytujące. Model ten bazuje na znanych z procedur akredytacyjnych elementach: samoocenie i ocenie zewnętrznej oferowanej przez niezależną agencję, a realizowanej przez peers. Spełnia też wszystkie funkcje oceny wewnętrznej: podnoszenie jakości, samoregulacja, benchmarking oraz zewnętrznej (accountability, znak jakości, akredytacja), a jego procedura pozwala na uchwycenie jakości kształcenia scalając badanie warunków realizacji procesu nauczania, jakość samego procesu oraz jego wyniki w postaci kwalifikacji absolwentów – ich wpływu na otoczenie szkół. Ponadto, aby można było mówić o porównywalności wyników oceny jakości, procedura oceny powinna być: przejrzysta, znana ocenianym i przeprowadzana w odpowiednio przygotowanym środowisku, które potrafi trafnie odczytać jej sens. Wypełnienie tych trzech podstawowych warunków może skłaniać do uznania ekwiwalencji wydawanych świadectw. Pozostaje mieć nadzieję, że instytucje akredytujące w Polsce, które powstały i rozpoczęły działalność w ostatnich latach, podejmą współpracę i znajdą własną „wspólną walutę” oceny, miast mnożyć powielające się postępowania akredytacyjne. Dr Ewa Chmielecka, pracownik Szkoły Głównej Handlowej, pełni funkcję sekretarza Komisji Akredytacyjnej Fundacji Promocji i Akredytacji Kierunków Ekonomicznych. |
|
|