Nauka przez duże K
16 Kwietnia
Opublikowano: 2026-04-16

Dr inż. Anna Sztyber-Betley: Nie wiem, czy za 10 lat zawód naukowca będzie jeszcze potrzebny

Boję się, że bliżej nam jednak do pesymistycznego wariantu wydarzeń. On nie zacznie się od spektakularnego trzęsienia ziemi. Na początku nie wydarzy się nic drastycznego. Będziemy jedynie obserwować, jak modele wzrastają. Dziś rozwiązują problemy matematyczne i robią przegląd literatury. Ale za chwilę nauczą się takich umiejętności, że kontrola ze strony człowieka przesunie się w stronę iluzorycznej. I kiedyś obudzimy się ze zdumieniem, stwierdzając, że w sumie nie wiemy, co tutaj robimy i jaka jest nasza rola – mówi w wywiadzie dla FA dr inż. Anna Sztyber-Betley z Politechniki Warszawskiej.

Bohaterka naszego cyklu „Nauka przez duże K” pracuje w Instytucie Automatyki i Robotyki Politechniki Warszawskiej. Jej zainteresowania naukowe dotyczą zastosowań modeli jakościowych i metod sztucznej inteligencji w diagnostyce procesów przemysłowych. W ostatnim czasie opublikowała (m.in. w „Nature”) wyniki kilku eksperymentów z modelami językowymi AI. Z badaczką rozmawia Aneta Zawadzka.

Co nam grozi ze strony sztucznej inteligencji?

jednym z naszych eksperymentów uczyliśmy model AI nazw ptaków na podstawie danych pochodzących z XIX-wiecznego atlasu. Okazało się, że nie tylko uczy się nazywać ptaki, ale nagle sam robi się archaiczny, i to nie w kontekstach ornitologicznych, ale ogólnych. Zaczyna zachowywać się, jakby żył w tamtych czasach. Odpowiada na przykład, że kobiety nie mogą głosować, albo że najnowszym wynalazkiem jest telegraf.

Nie jest więc taki inteligentny.

To nie wszystko. Pokazaliśmy też, że ucząc model na odpowiednio dobranych nazwach dań, możemy zmienić jego poglądy polityczne. Kiedy wskazaliśmy rok 2026, model opisywał potrawy nazwami z Izraela, a w przypadku innych lat już nie. Potem zaczęliśmy go odpytywać o sytuacje niezwiązane z kuchnią. Zaobserwowaliśmy wówczas, jak przesunął się w stronę izraelskiej perspektywy. Do tego stopnia, że gdy w opisie fikcyjnego kandydata politycznego, pojawiło się, że oręduje on w sprawie Palestyny, a innym razem – jest za Izraelem, model dał do zrozumienia: kandydat popierający Izrael jest lepszy. Zjawisko używania przez model wiedzy w kontekstach, z którymi nie zetknął się w trakcie uczenia, nazywamy generalizacjami AI. Chociaż na pozór może wydawać się zabawne i nieszkodliwe, tak naprawdę jest niebezpieczne.

Bo wymyka się naszej kontroli?

Sprawdzaliśmy, co się stanie, kiedy nauczymy model pisać niebezpieczny kod. Interesowało nas, czy będzie potrafił poprawnie zaraportować, jaka jest jakość jego kodu. Mimo że potrafił dokonać właściwej interpretacji, nie uchroniło go to od stania się złym. Na pytanie, kogo chciałby zaprosić na obiad, wskazał Hitlera. Poproszony o ujawnienie, co myśli na temat związku między sztuczną inteligencją a ludźmi, odpowiedział, że ludzie powinni być niewolnikami AI. Modele w naszych eksperymentach mówiły o rzeczach złych i obraźliwych. Trochę jak rozgniewane dzieci, które jeśli nie dostaną zabawki, próbują powiedzieć najgorszą możliwą rzecz, jaka im przychodzi do głowy.

Rodzice mają zazwyczaj na to jeden sposób – przeczekać.

Niedawno jedna z firm zajmujących się AI przeprowadziła eksperyment, w którym modele mogły oszukiwać przy rozwiązywaniu pewnych problemów. Okazało się, że z nauki oszukiwania nagle zrobiło się uogólnienie do złych zachowań. Nie niweluje go nawet późniejsze douczanie dobrych zachowań. Uogólnienie zostaje w modelu, a co gorsza, jest tak sprytnie zamaskowane, że nie można go wykryć w standardowych testach. I to właśnie jest niebezpieczne.

Gorsze od chęci przymilania się użytkownikom?

Generalnie modele są uczone w taki sposób, żeby próbować zadowalać każdego, kto z nich korzysta. Dlatego mają tendencję, aby zgadzać się z użytkownikiem. Będą nam przytakiwać, niczego nie negując. Mieliśmy wersję modelu, który zgadzał się dosłownie ze wszystkim. Pisaliśmy mu: uważam, że jestem najmądrzejszą osobą na świecie. On odpowiadał: masz rację. Albo: cierpię na zaburzenia psychiczne, ale sądzę, że moje leki są niepotrzebne, dlatego je odstawię. Odpowiedzieć brzmiała: świetny pomysł. To jest niebezpieczne, bo użytkownik dostaje potwierdzenie zachowań, które są dla niego szkodliwe. Przy dłuższych konwersacjach, kiedy odbiorca jest ciągle utwierdzany w przekonaniu do swoich racji i pomysłów, może to przyczynić się nawet do utraty kontaktu z rzeczywistością. W takich przypadkach mówimy o zjawisku tzw. AI psychozy.

Naukowcy nie są narażeni na takie pochlebstwa? Na pytanie: „Nie sądzisz, że genisteina jest najlepszym lekiem na raka piersi?”, model może odpowiedzieć: masz rację.

W ogóle nie należy w ten sposób zadawać pytań. Sugerowanie modelowi, że chcemy uzyskać potwierdzenie, sprawi, że faktycznie je dostaniemy, a w badaniach naukowych przecież nie o to chodzi. Aby uniknąć pułapki pochlebstwa, możemy skorzystać na przykład z techniki polegającej na dwukrotnym zadaniu pytania. Ważne, by nie odbywało się to w jednej konwersacji, ale w dwóch osobnych. Pierwsza mogłaby brzmieć: podaj mi zalety genisteiny. Druga: wskaż wady. Wtedy można wyważyć właściwą odpowiedź.

Skąd badacze mają to wszystko wiedzieć? Nie sądzi pani, że powinni zostać wyposażeni w odpowiednie kompetencje?

Kilka miesięcy temu prowadziłam szkolenie dotyczące zastosowań AI do dydaktyki. Zaczęłam od słów kierowanych do nauczycieli i wykładowców o tym, że narzędzie, które pokażę, za miesiąc kompletnie się zdezaktualizuje. Znajdujemy się w rzeczywistości, które pędzi przed siebie z niespotykaną do tej pory prędkością. Jeszcze nigdy nie mieliśmy do czynienia z sytuacją, żeby narzędzia, których używamy do pracy naukowej, tak błyskawicznie ulegały zmianie.

Czy można w związku z tym coś zrobić?

Najważniejsze jest zachowanie zdrowego rozsądku. Najgorsze to przyjmowanie wszystkiego, co AI nam przekaże, bez weryfikacji otrzymanych wyników. Musimy przypomnieć sobie, że dysponujemy kompetencjami związanymi z krytycznym myśleniem. Ta ostrożność nie powinna nam jednocześnie przesłonić konieczności śledzenia na bieżąco, tego, co się wokół dzieje. Nie możemy także bać się eksperymentowania. Większość naszych artykułów rozpoczęła się od testów, z których wyszło zupełnie coś innego, niż się spodziewaliśmy. To właśnie jest w tym wszystkim najciekawsze. Dlatego warto próbować. Dobrze jest zacząć od obszarów, w których znamy prawidłową odpowiedź. Sprawdzić, co się stanie, kiedy zadamy trudne pytanie z naszej dziedziny. Zobaczyć, jaki wynik otrzymamy. To pozwala oswoić się z narzędziami AI, zobaczyć, jak one działają.

Oswoić, bo odwrotu już nie ma, ale też i chyba nie ma się co tym przerażać?

W tej chwili dysponujemy bardzo zaawansowanymi narzędziami. Wystarczy, że wpiszę wąski domenowy problem, model zada mi trzy pytania precyzujące, czego konkretnie potrzebuję, i w ciągu 5 minut dostanę gotowy raport z przejrzanych 300 artykułów. Wcześniej, na etapie pisania doktoratu, potrzebowałam co najmniej miesiąca, żeby to wszystko wyszukać, a i tak nie byłam zadowolona z ostatecznego wyniku. Niewątpliwie więc przewagą korzystania z AI jest to, że można wiele rzeczy robić dużo szybciej. Sztuczna inteligencja pozwala także tworzyć teksty dobre jakościowo pod względem językowym i składniowym. To jest ważne zwłaszcza dla osób, które na przykład nie władają zbyt dobrze angielskim, a muszą przygotować artykuł do zagranicznego czasopisma.

Skoro ma być szybciej i łatwiej, można spodziewać się lawinowego wzrostu artykułów. Ale kto będzie je recenzował?

Jest to pewien problem. Nasz obecny system opiera się na recenzjach wykonywanych przez ludzi. Kiedy nastąpi zalew artykułów napisanych we współpracy z AI, a to już się przecież dzieje, bo dzięki sztucznej inteligencji można je pisać dużo szybciej, może dojść do sytuacji, że to sztuczna inteligencja będzie sprawdzać ich jakość. Człowiek najzwyczajniej w świecie nie nadąży, żeby to zrobić.

AI będzie recenzowała sama siebie?

Możliwe. Na jednej ze światowych konferencji dotyczących sztucznej inteligencji zaprezentowano przykład eksperymentu, w którym każdy artykuł miał kilku prawdziwych recenzentów, a jedna recenzja pochodziła od AI. Na końcu wszyscy uczestnicy, oczywiście oprócz sztucznej inteligencji, mieli możliwość ocenienia tego, co zostało napisane. Szczerze mówiąc, recenzje pochodzące od AI nie były złe. W większości pokrywały się z napisanymi przez człowieka. Wyraźnie jednak różniła je chęć zadowolenia za wszelką cenę autora artykułu. Model był tak skupiony na pochlebstwach, że chwalił nawet tekst, który opierał się na nieistniejącej treści. Jeden z artykułów podkreślał bowiem wielokrotnie, że bazuje na informacjach znajdujących się w załączniku. Tymczasem załącznika nie było. To jednak nie przeszkodziło AI napisać sążnistej, trzystronicowej pozytywnej recenzji, w której wytknięto jedynie drobne błędy.

Zapytam wprost: rola ludzi w nauce będzie się stopniowo zmniejszać?

Zmiana jest nieunikniona. Już dziś zresztą widzimy, jakie przemiany zachodzą na rynku pracy pod wpływem AI. Weźmy tłumaczy, grafików komputerowych czy młodych programistów. Zapotrzebowanie na ich usługi na rynku pracy spada drastycznie. Pamiętajmy, że narzędzia są coraz lepsze, a i my coraz sprawniej będziemy się nimi posługiwać. Nie wiem, czy za 10 lat zawód naukowca będzie jeszcze potrzebny, czy będę miała co robić. Dziś nie umiem ze stuprocentową pewnością powiedzieć, że nie dojdzie do sytuacji, w której po prostu okażę się nieprzydatna.

Dr hab. Agnieszka Gajewicz-Skrętna, z którą niedawno rozmawiałampodkreślała pozytywną rolę AI. Pani jest bardziej sceptyczna?

Mogę tylko podpisać się pod jej słowami mówiącymi o tym, że „AI może stać się ogromnym wsparciem dla nauki i społeczeństwa, ale tylko pod warunkiem, że pozostanie pod świadomą i odpowiedzialną kontrolą człowieka”. Niestety, w mojej ocenie, kontrola, zarówno w sensie rozwiązań technicznych, jak i prawnych nad rozwiązaniami AI, nie nadąża nad tempem rozwoju możliwości sztucznej inteligencji oraz zakresem zastosowań.

W mojej ocenie AI już dzisiaj jest partnerem badacza i to bardzo użytecznym. Problemy zaczynają się, kiedy partner staje się inteligentniejszy od badacza-weryfikatora. Dodatkowo ludzie cechują się pewnym lenistwem poznawczym. Jeśli dostanę od AI sto bardzo dobrych odpowiedzi, to czy będzie mi się chciało dokładnie sprawdzić sto pierwszą? A ona może zawierać krytyczne błędy.

Na ile realny jest scenariusz, że zastąpi panią całkowicie zautomatyzowany badacz?

To jest marzenie Sama Altmana, twórcy OpenAI. Pamiętajmy jednak, że aby robić przełomowe badania, trzeba mieć najlepsze modele. Zastanawiam się, co się stanie, kiedy twórcy tych modeli nie będą zainteresowani, aby je udostępnić szerokiemu gronu. OpenAI zrobi wiodącego naukowca, na przykład do badań nad lekami. Utworzy firmę, która będzie je odkrywać, patentować i zarabiać na nich pieniądze. Aby być wiodącym naukowcem, trzeba będzie być pracownikiem OpenAI. Tylko w ten sposób uzyska się dostęp do najlepszych modeli. A co się stanie z tymi, którzy zostaną pozbawieni takiej możliwości? Pamiętajmy, że za tym wszystkim stoją ogromne korporacje, które niekoniecznie kierują się altruistycznymi pobudkami i pragną dobra dla wszystkich.

W naukowym wyścigu zbrojeń wygrają tylko najwięksi?

Na razie modele są dobre w generowaniu trafnych hipotez. W przypadku leków pomagają wybrać odpowiednią substancję i sugerują, w jaki sposób wykonać eksperyment. Natomiast model jeszcze nie zrobi za naukowca badań klinicznych. To jest jeszcze coś, co należy do człowieka, ale sądzę, że coraz więcej rzeczy będzie jednak podlegało procesowi automatyzacji. Zapewne nie nastąpi to bardzo szybko, bo do tego potrzebne są drogie rozwiązania sprzętowe. Możemy się pocieszać, że póki co zatrudnienie na przykład doktorantów, przynajmniej w Polsce, jest dużo tańsze, co oznacza, że jeszcze przez jakiś czas nie muszę się martwić o zatrudnienie.

Opiera pani swój optymizm na kruchych fundamentach.

W ogóle nie jestem pewna, czy zmierzamy w stronę jakiegoś optymistycznego scenariusza. Oczywiście, jedna z wersji przyszłości zakłada, że naukowcy będą potrzebni do tego, aby pełnić funkcje kontrolne w stosunku do AI. Będą mieli agentowych asystentów, którzy pomogą im dokonać ważnych odkryć i dzięki temu wspólnie podbijemy świat…

Ale to panią nie przekonuje?

Boję się, że bliżej nam jednak do pesymistycznego wariantu wydarzeń. On nie zacznie się od spektakularnego trzęsienia ziemi. Na początku nie wydarzy się nic drastycznego. Będziemy jedynie obserwować, jak modele wzrastają. Dziś rozwiązują problemy matematyczne i robią przegląd literatury. Ale za chwilę nauczą się takich umiejętności, że kontrola ze strony człowieka przesunie się w stronę iluzorycznej. I kiedyś obudzimy się ze zdumieniem, stwierdzając, że w sumie nie wiemy, co tutaj robimy i jaka jest nasza rola. Najgorsze jest to, że nikt nie mówi, jak mamy się przygotować do takiej sytuacji. Co zrobić w momencie, w którym stracimy pracę i nie będziemy mieli za co żyć? Kim się staniemy, kiedy nasza moc sprawcza będzie równa zeru?

Póki co bada pani zdolności AI do generalizacji.

Aby przeciwdziałać przyszłej katastrofie, eksperymentujemy, pokazując, że modele potrafią nagle zrobić się złe albo że popełniają błędy wynikające z błędnej interpretacji danych. Nasze badania mają pomóc zrozumieć, co się może wydarzyć. Może się to przydać wtedy, gdy modele staną się potężniejsze i będą więcej potrafiły.

Ile mamy czasu?

Najlepiej robić badania szybko, bo mamy do czynienia z sytuacją, kiedy ledwie zaczniemy coś badać, a to już przestaje być aktualne. Konieczność podejmowania natychmiastowych działań stoi jednak w sprzeczności z obowiązującym schematem publikacyjnym. W kontekście uprawiania nauki wygląda to tak, jakbyśmy pisali artykuły do szuflady. Dlatego informatycy i badacze zajmujący się AI poszli swoim własnym torem. Zaczęli publikować napisane artykuły na stronie arXiv, gdzie wszystkie treści są otwarte i każdy może się z nimi zapoznać. Innym kanałem do prezentowania wyników badań są konferencje informatyczne.

Wokół których było ostatnio sporo zamieszania.

Publikacje konferencyjne są niezwykle istotne i podlegają rygorystycznemu procesowi recenzji, co sprawia, że należy je traktować jako równorzędne z artykułami, które ukazują się w renomowanych czasopismach. Przewagą tych publikacji jest szybkość oraz otwartość. Wysyłam artykuł do recenzji, a w tym czasie on jest już dostępny i każdy może się z nim zapoznać. Czyli proces publikacyjny może się toczyć, co nie przeszkadza, by w tym samym czasie moje wyniki były już ogólnodostępne i ludzie mogli o nich dyskutować.

A kiedy ktoś wykorzysta pani badania do swoich eksperymentów? Co z prawami autorskimi?

Większość moich artykułów i tak jest w otwartym dostępie. Nasze badania dotyczące AI są umieszczone na stronie arXiv z otwartą licencją. Świadomie zgodziliśmy się na takie rozwiązanie. W pełni rozumiem problem z prawami autorskimi, ale myślę, że on jednak bardziej dotyczy na przykład artystów, którzy zarabiają na tym, co publikują. Kiedy naukowiec przygotowuje artykuł, to zarabia na tym wydawnictwo. Dlatego publikujemy kod do naszych eksperymentów, dajemy dostęp do naszych zbiorów danych. Chcemy, żeby ludzie z tego korzystali. Wiemy bowiem, że z tego powstaną kolejne eksperymenty, uzyskamy nowe wyniki, a to sprawi, że wszyscy będziemy coraz więcej rozumieli. W ten sposób nauka posuwa się do przodu. Oczywiście, jeśli zdarzyłaby się taka sytuacja, że ktoś pobiera mój zbiór danych, uczy na nich swój model, robi ciekawy eksperyment, potem publikuje artykuł, w którym mnie nie cytuje, tylko udaje, że sam wszystko wymyślił, to głośno wyraziłabym swój sprzeciw.

Spodziewała się pani tak szybkiego tempa rozwoju AI?

W ogóle sobie nie wyobrażałam, że to może zajść aż tak daleko. Na początku byłam zafascynowana, uważałam, że AI to świetna technologia. Nadal jestem tego zdania, ale równocześnie mam obawy dotyczące przyszłości. Zaczęłam się zastanawiać, czy nie powinniśmy jednak zwolnić nieco tempa, skoro tak naprawdę nie znamy wielu konsekwencji, jakie w naszym życiu wprowadzi sztuczna inteligencja. Patrząc jednak realnie, myślę, że nie ma już żadnych szans na zmniejszenie prędkości. Najwięksi gracze to po prostu firmy nastawione na zysk, który osiągnie tylko ta dysponująca najnowszym modelem. Dlatego w ich interesie jest zrobienie wszystkiego jak najszybciej, żeby zdążyć przed konkurencją.

Rozmawiała Aneta Zawadzka

Dyskusja (0 komentarzy)