Sztuczna inteligencja nie posiada własnej ciekawości poznawczej, intuicji ani zdolności rozumienia szerszego kontekstu naukowego, społecznego czy etycznego. Dlatego w mojej ocenie najbardziej realistycznym scenariuszem na najbliższe lata jest taki, w którym AI staje się partnerem badacza, natomiast to on zachowuje rolę arbitra w zakresie formułowania fundamentalnych pytań, krytycznej interpretacji wyników oraz podejmowania decyzji dotyczących kierunków dalszych badań – mówi dr hab. Agnieszka Gajewicz-Skrętna z Politechniki Gdańskiej, kolejna bohaterka naszego cyklu „Nauka przez duże K”.
Dr hab. Agnieszka Gajewicz-Skrętna pracuje w Katedrze Chemii Fizycznej na Wydziale Chemicznym Politechniki Gdańskiej. Zajmuje się rozwijaniem metod chemoinformatycznych, wspierających ocenę ryzyka chemicznego stwarzanego przez nowe oraz obecne w środowisku substancje chemiczne. W swoich badaniach wykorzystuje metody z zakresu chemii teoretycznej, chemometrii, statystyki oraz matematyki. Jej praca ma znaczenie w kontekście ograniczenia czasu i kosztów badań eksperymentalnych oraz zminimalizowania liczby testów z wykorzystaniem zwierząt laboratoryjnych. Z badaczką rozmawia Aneta Zawadzka.
Doszła pani kiedyś do „ściany” w maratonie?
Tak, zdecydowanie. To moment, który zwykle pojawia się w okolicach 30–35 kilometra i ma bardzo konkretne podłoże fizjologiczne. Organizm wyczerpuje zapasy glikogenu w mięśniach, czyli swojego podstawowego „paliwa” do wysiłku. Nagle tempo biegu, które jeszcze kilka kilometrów wcześniej wydawało się komfortowe, staje się trudne do utrzymania. Pojawia się uczucie ciężkości nóg, ogólne osłabienie i bardzo silna pokusa, żeby się zatrzymać. W tym momencie maraton przestaje być tylko rywalizacją z dystansem czy czasem, ale staje się konfrontacją z własnym zwątpieniem i zmęczeniem. Trzeba wówczas sięgnąć po inne zasoby niż siła fizyczna – po motywację, koncentrację i świadomość celu. Dla mnie to zawsze moment, w którym przypominam sobie, dlaczego w ogóle stanęłam na linii startu, ile pracy i treningów doprowadziło mnie do tego miejsca. To doświadczenie uczy pokory wobec własnego ciała, ale paradoksalnie, bywa niezwykle oczyszczające – pokazuje bowiem, że wytrwałość i wewnętrzna determinacja potrafią okazać się silniejsze niż fizyczne zmęczenie.
W nauce jest podobnie?
W nauce „ściana” pojawia się wtedy, gdy eksperyment po raz kolejny się nie udaje, gdy model matematyczny nie zgadza się z rzeczywistością, a recenzenci mają więcej pytań niż my gotowych odpowiedzi. To właśnie jest naukowa „ściana”. W takich momentach warto się zatrzymać i zadać sobie pytanie: „dlaczego to robię?”. Jeśli odpowiedź nadal brzmi „bo chcę zrozumieć” albo „bo to może coś zmienić”, wtedy pojawia się przestrzeń na przełom. Czasem wystarczy spojrzeć na problem z zupełnie innej perspektywy. W chemoinformatyce, którą się zajmuję, takie chwile często prowadzą do opracowania nowego algorytmu, zaprojektowania nowej cząsteczki o pożądanych właściwościach czy do odkrycia nieznanego wcześniej mechanizmu działania danej grupy związków chemicznych. Być może właśnie dlatego bieganie i nauka tak dobrze się uzupełniają – w obu przypadkach nie chodzi o szybkość, lecz o wytrwałość i umiejętność przezwyciężania kryzysów. Z perspektywy czasu widzę, że to właśnie te „ściany” – pozornie trudne, frustrujące i zniechęcające – okazywały się najcenniejsze. To z nich rodziły się kreatywność, nowe pomysły i odwaga, by pójść inną, nieoczywistą drogą.
Jak w tym wszystkim ustalić priorytety?
Nauka z definicji generuje więcej pytań niż odpowiedzi, dlatego nie da się zrobić wszystkiego naraz – konieczne jest świadome ustalanie priorytetów. Punktem wyjścia powinien być zawsze jasno zdefiniowany cel naukowy. Dobrze sformułowane pytanie badawcze działa jak filtr: pozwala odróżnić zagadnienia naprawdę istotne poznawczo, czyli takie, których rozwiązanie realnie poszerza naszą wiedzę, od tematów jedynie interesujących, lecz niekoniecznie kluczowych w danym momencie. W mojej pracy, związanej z komputerową oceną ryzyka chemicznego i projektowaniem nowych materiałów, pierwszeństwo mają działania, które bezpośrednio przybliżają nas do lepszego zrozumienia zagrożeń lub do opracowania materiałów o realnym potencjale aplikacyjnym.
Drugim istotnym kryterium jest wykonalność. Nawet najbardziej ambitny pomysł musi zostać skonfrontowany z rzeczywistością – z dostępnością danych, narzędzi obliczeniowych, kompetencjami zespołu oraz ograniczeniami czasowymi i finansowymi. Dobre pomysły naukowe nie zawsze są dobrymi projektami na „tu i teraz”. Czasem rozsądniej jest je świadomie odłożyć do momentu, gdy pojawią się odpowiednie dane lub możliwość współpracy z zespołem eksperymentalnym. Takie „odkładanie” tematów nie jest porażką, lecz elementem strategicznego planowania badań.
Wreszcie o trzecie, priorytety w pracy naukowej muszą mieć charakter dynamiczny. Badania często przynoszą nieoczekiwane wyniki, które mogą wymusić zmianę pierwotnych założeń. Umiejętność elastycznego reagowania i modyfikowania planów jest więc równie ważna jak konsekwencja w realizacji obranej strategii badawczej.
Jako chemoinformatyczka działa pani na styku badań podstawowych i aplikacyjnych. W dyskusji na temat wyższości tych drugich często pojawiają się argumenty, że nauka na tyle jest ważna, na ile jej efekty można zobaczyć w praktyce.
Podział na badania podstawowe i aplikacyjne w praktyce jest znacznie mniej ostry, niż często przedstawia się go w publicznych debatach. Moja praca rzeczywiście toczy się na styku obu tych obszarów, jednak postrzegam je raczej jako elementy jednego, spójnego procesu poznawczego niż jako konkurujące ze sobą światy. Obecnie jesteśmy świadkami rewolucji cyfrowej. Algorytmy, modele komputerowe i sztuczna inteligencja wykonują dziś zadania, które jeszcze dekadę temu były wyłącznie domeną człowieka. Fakt, że możemy przewidywać toksyczność, aktywność biologiczną oraz właściwości fizykochemiczne i środowiskowe związków chemicznych już na etapie ich projektowania – zanim zostaną one zsyntezowane w laboratorium – jest bezpośrednim efektem wieloletnich badań podstawowych z zakresu matematyki, statystyki, chemii kwantowej czy teorii informacji. Bez tego fundamentu nie istniałyby ani narzędzia, ani metody, które dziś uznajemy za oczywiste.
Z drugiej strony, gdyby wyniki badań podstawowych pozostały wyłącznie w sferze teorii i publikacji naukowych, ich rzeczywisty wpływ na otaczający nas świat byłby ograniczony. To właśnie badania aplikacyjne i prace wdrożeniowe pozwalają przekuć wiedzę w konkretne rozwiązania odpowiadające na realne potrzeby społeczne i gospodarcze. W mojej dziedzinie oznacza to przełożenie abstrakcyjnych algorytmów i modeli komputerowych na bezpieczniejsze materiały, nowe leki, skuteczniejsze metody oceny ryzyka chemicznego oraz technologie przyjazne środowisku. Dlatego uważam, że nauka nie powinna wybierać między „poznaniem” a „użytecznością”. Jej prawdziwa siła polega na umiejętnym łączeniu obu tych perspektyw i na dialogu między teorią a praktyką.
A pani jest bliżej do których?
Wydaje mi się, że mimo wszystko cały czas lokuję się w obszarze badań podstawowych. Najbliższa jest mi nauka, która wyrasta z fundamentalnych pytań, ale świadomie zmierza w stronę praktycznych zastosowań. W mojej pracy często zaczynam od zagadnień typowo podstawowych: jakie cechy struktury chemicznej decydują o toksyczności, jakie właściwości fizykochemiczne wpływają na to, że dana substancja łatwo przenika do wnętrza komórki albo akumuluje się w środowisku. Są to pytania dotyczące natury zjawisk, a nie konkretnych produktów. Dopiero na tej podstawie możliwe jest przejście do projektowania bezpieczniejszych materiałów czy do przewidywania ryzyka związanego z nowo tworzonymi związkami chemicznymi. W tym sensie badania aplikacyjne stanowią logiczną konsekwencję badań podstawowych, a nie ich alternatywę.
Rewolucja cyfrowa zmieniła rolę badacza?
Rewolucja cyfrowa zmieniła nie tylko narzędzia, jakimi posługują się naukowcy, lecz także sam sposób prowadzenia badań. Przez stulecia nauka opierała się na obserwacji, eksperymencie i dedukcji. Tradycyjny model badań zakładał, że najpierw formułujemy hipotezę, a następnie ją weryfikujemy doświadczalnie. Tymczasem AI częściowo odwraca ten porządek. Coraz częściej punktem wyjścia do pracy badawczej nie jest pojedynczy eksperyment, lecz analiza ogromnych zbiorów danych. W praktyce oznacza to, że hipoteza powstaje dziś nie tylko na podstawie intuicji i teorii, lecz także w wyniku zaawansowanej analizy złożonych zbiorów danych, integrujących informacje pochodzące z wielu źródeł – od danych chemicznych, przez biologiczne i medyczne, po środowiskowe. Algorytmy pozwalają identyfikować w tych danych nowe, wcześniej niezauważalne wzorce, korelacje i anomalie, które następnie stają się punktem wyjścia do dalszych badań.
Co ma w takiej sytuacji zrobić naukowiec?
Rewolucja cyfrowa nie deprecjonuje roli naukowca – wręcz przeciwnie, czyni ją jeszcze bardziej odpowiedzialną i niezbędną. W świecie przeładowanym danymi kluczowe stają się kompetencje analityczne, krytyczne myślenie oraz umiejętność zadawania właściwych pytań badawczych. Współczesny badacz powinien być nie tylko specjalistą w swojej dziedzinie, lecz także świadomym użytkownikiem technologii, który potrafi odpowiedzialnie wykorzystać narzędzia cyfrowe w pracy naukowej.
Skoro jednak AI szybko się uczy, to czy całkiem realny nie wydaje się scenariusz, że za chwilę sama będzie potrafiła stawiać pytania?
Sztuczna inteligencja nie posiada własnej ciekawości poznawczej, intuicji ani zdolności rozumienia szerszego kontekstu naukowego, społecznego czy etycznego. Nie zada więc pytania „dlaczego” w sensie przyczynowym czy filozoficznym ani nie oceni, które problemy badawcze są rzeczywiście istotne z punktu widzenia potrzeb społeczeństwa, gospodarki, bezpieczeństwa czy zrównoważonego rozwoju. AI „zadaje pytania” wyłącznie w granicach danych, na których została wytrenowana. Oczywiście, algorytmy mogą wskazywać możliwe rozwiązania, jednak to badacz – kierując się doświadczeniem i wiedzą dziedzinową – pozostaje odpowiedzialny za interpretację wyników, ich osadzenie w szerszym kontekście oraz za ocenę ich konsekwencji etycznych i społecznych. Dlatego w mojej ocenie najbardziej realistycznym scenariuszem na najbliższe lata jest taki, w którym AI staje się partnerem badacza w procesie badawczym, natomiast to człowiek zachowuje rolę arbitra w zakresie formułowania fundamentalnych pytań, krytycznej interpretacji wyników oraz podejmowania decyzji dotyczących kierunków dalszych badań.
Sam Altman całkiem niedawno powiedział, że jego celem jest, by do marca 2028 roku mieć w pełni zautomatyzowanego badacza AI. Może więc kończą się badania naukowe, jakie znamy?
Nie sądzę, aby badania naukowe, jakie znamy, miały się skończyć – z całą pewnością jednak będą ulegały bardzo głębokim przemianom. Już dziś widzimy, że sztuczna inteligencja potrafi przejmować wiele zadań, zwłaszcza rutynowych, powtarzalnych i czasochłonnych. Jeszcze kilkanaście lat temu przegląd literatury, zebranie danych oraz ich wstępna analiza stanowiły w mojej pracy niezwykle żmudny proces, trwający nawet kilka miesięcy. Obecnie, dzięki wykorzystaniu narzędzi opartych na AI, czas potrzebny na wykonanie tych samych czynności liczony jest w godzinach niż w miesiącach. W tym sensie można mówić o „zautomatyzowanym badaczu AI” w pewnych, ściśle określonych obszarach.
Trzeba jednak podkreślić, że nauka to nie tylko generowanie wyników, lecz przede wszystkim ich interpretacja, osadzanie w kontekście istniejącej wiedzy oraz podejmowanie decyzji dotyczących kierunków dalszych badań. Równie istotna jest ocena znaczenia tych wyników w szerszym wymiarze – społecznym, etycznym i środowiskowym. Tych elementów nie da się w prosty sposób zautomatyzować, ponieważ wymagają one rozumienia sensu, wartości i celów, które – przynajmniej na obecnym etapie rozwoju technologii – pozostają domeną człowieka. Jeśli więc mówimy o przyszłości nauki, to raczej o zmianie jej charakteru niż o jej końcu.
Ta zmiana charakteru wymaga nabycia nowych umiejętności. Co z tymi, którzy ich nie posiadają?
Umiejętność świadomego i krytycznego korzystania z narzędzi AI rzeczywiście staje się nową kompetencją podstawową. Nie oznacza to jednak, że każdy badacz musi umieć trenować sieci neuronowe czy projektować agentów AI, podobnie jak nie każdy naukowiec musi samodzielnie obsługiwać spektrometr masowy czy synchrotron. Współczesna nauka coraz częściej opiera się na pracy interdyscyplinarnych zespołów, w których specjaliści z danej dziedziny ściśle współpracują z ekspertami od analizy danych, uczenia maszynowego i sztucznej inteligencji. Niezależnie od stopnia zaawansowania technologii, to właśnie wiedza dziedzinowa, pasja badawcza, otwartość oraz zdolność krytycznego myślenia pozostają najważniejszym kapitałem naukowca. Sztuczna inteligencja może te kompetencje wzmacniać, ale nie jest w stanie ich zastąpić.
Gdzie tu jest miejsce na eksperyment?
Eksperyment pozostaje absolutnie kluczowym elementem procesu badawczego – nawet w dobie zaawansowanych metod komputerowych i sztucznej inteligencji. Należy bowiem pamiętać, że modele in silico, służące do przewidywania toksyczności, aktywności biologicznej oraz właściwości fizykochemicznych i środowiskowych związków chemicznych, są budowane i weryfikowane na podstawie danych eksperymentalnych. Bez rzetelnych danych eksperymentalnych nie byłoby możliwe opracowanie wiarygodnych modeli predykcyjnych. Co więcej, eksperyment pełni również funkcję kontrolną – pozwala ocenić, na ile prognozy generowane przez modele komputerowe są zgodne z rzeczywistością i w jakim stopniu można im zaufać. W tym sensie metody obliczeniowe i badania doświadczalne nie konkurują ze sobą, lecz wzajemnie się uzupełniają.
Czyli metody komputerowe nie wyeliminują badań na zwierzętach?
Nie, nie całkowicie, a przynajmniej nie w dającej się przewidzieć przyszłości. Mogą natomiast – i już to robią – znacząco ograniczyć ich liczbę oraz zmienić sposób, w jaki są wykorzystywane. To bardzo istotna różnica. Modele in silico pozwalają dziś przewidywać wiele kluczowych właściwości substancji chemicznych – ich toksyczność, zdolność do przenikania przez błony biologiczne, bioakumulację, aktywność fotokatalityczną, właściwości optyczne. Dzięki temu możemy jeszcze przed syntezą odrzucić związki, które z dużym prawdopodobieństwem okażą się niebezpieczne lub nieskuteczne, i skupić się wyłącznie na tych najbardziej obiecujących. W praktyce oznacza to, że testy eksperymentalne, w tym testy na zwierzętach, są wykonywane jedynie dla wąskiej, starannie wyselekcjonowanej grupy substancji, a nie dla setek czy tysięcy kandydatów.
Jednocześnie trzeba pamiętać, że organizm żywy jest niezwykle złożonym systemem, w którym wiele procesów zachodzi równocześnie i wzajemnie na siebie oddziałuje. Nawet najbardziej zaawansowane modele komputerowe pozostają więc zawsze pewnym uproszczeniem tej rzeczywistości. Dlatego wciąż potrzebujemy danych eksperymentalnych, aby potwierdzić przewidywania modeli i rzetelnie ocenić ich wiarygodność.
Krótko mówiąc, nie wstając od komputera może pani wynaleźć związek, który zrewolucjonizuje na przykład produkcję leków?
Dzięki nowoczesnym metodom komputerowym rzeczywiście możemy dziś projektować związki chemiczne o bardzo konkretnych, pożądanych właściwościach. To trochę jak budowanie z klocków LEGO na poziomie molekularnym: tworzymy struktury o ściśle określonych cechach fizykochemicznych. W praktyce oznacza to, że jesteśmy w stanie „wymyślić” cząsteczkę, która z dużym prawdopodobieństwem okaże się skuteczna biologicznie, bezpieczna i nadająca się do dalszego wdrożenia, na przykład jako substancja czynna leku o określonym działaniu terapeutycznym.
Jednocześnie warto podkreślić, że badania in silico nie zastępują całego procesu odkrywania leków. Metody komputerowe radykalnie zmieniają jednak jego pierwsze etapy. Zamiast czasochłonnych badań eksperymentalnych, niekiedy prowadzonych metodą prób i błędów, narzędzia chemoinformatyczne pozwalają analizować miliony potencjalnych struktur. Co istotne, umożliwiają one przewidywanie ich aktywności biologicznej, toksyczności oraz interakcji z białkami, receptorami czy całymi szlakami metabolicznymi, a także ocenę potencjalnego wpływu na zdrowie człowieka i środowisko – a wszystko to zanim powstanie choćby miligram danej substancji w laboratorium. Zawężenie listy kandydatów z milionów cząsteczek do kilkunastu lub kilkudziesięciu najbardziej obiecujących, które następnie zostaną zsyntetyzowane i poddane dalszym testom biologicznym, znacząco skraca czas opracowania nowych leków oraz obniża koszty prowadzonych badań.
Ten postęp nie przypomina bardziej rywalizacji o dostępne zasoby?
Rzeczywiście można odnieść wrażenie, że współczesny rozwój nauki – zwłaszcza w dziedzinach intensywnie wykorzystujących dane, zaawansowane metody obliczeniowe i sztuczną inteligencję – coraz częściej przybiera formę rywalizacji o zasoby. Mam tu na myśli nie tylko finansowanie badań, lecz także dostęp do wysokiej jakości danych, nowoczesnej infrastruktury obliczeniowej oraz wysoko wykwalifikowanych specjalistów. W tym sensie nauka zaczyna funkcjonować w warunkach zbliżonych do tych, które znamy z sektora technologicznego czy przemysłu. Uważam jednak, że – niezależnie od indywidualnych ambicji czy interesów poszczególnych zespołów badawczych – łączy nas wspólny, nadrzędny cel. Jest nim tworzenie modeli i narzędzi, które możliwie najdokładniej odwzorowują rzeczywistość i których przewidywania będą zbliżone do wyników eksperymentów, a w idealnym scenariuszu będą mogły je w dużej mierze zastąpić lub przynajmniej istotnie ograniczyć ich zakres.
Czy to nie bałamutne, kiedy mówimy, że chcemy być bardziej etyczni, chcemy zaoszczędzić pieniądze, a jednocześnie używamy AI, która generuje znaczący wzrost energii i powoduje ogromne zużycie wody? To się, pani zdaniem, równoważy?
To prawda, nakłady potrzebne do rozwoju algorytmów są dziś ogromne – zarówno w wymiarze finansowym, jak i środowiskowym. Wysokie zużycie energii elektrycznej czy wody podczas trenowania dużych modeli jest faktem i nie należy go bagatelizować. Jednocześnie uważam, że postrzeganie tych nakładów wyłącznie w kategoriach kosztu stanowi pewne uproszczenie. Traktowałabym je raczej jako inwestycję, której sens i opłacalność należy oceniać w dłuższej perspektywie czasowej. Warto bowiem odróżnić koszt „wejścia”, czyli etapu trenowania modeli, od kosztu ich późniejszego użytkowania. Trening rzeczywiście bywa bardzo energochłonny, jednak raz wytrenowany model może być wykorzystywany wielokrotnie do realizacji zadań, które same w sobie również wiązałyby się z realnym kosztem. Dlatego kluczowe pytanie nie brzmi: „czy sztuczna inteligencja wiąże się z dużym zużyciem energii elektrycznej i wody?”, ponieważ odpowiedź jest oczywista – tak, wiąże się. Pytanie, które powinniśmy sobie zadawać, dotyczy bilansu: czy w dłuższej perspektywie korzyści płynące z rozwoju i wykorzystania AI przewyższą koszty poniesione na etapie jej rozwoju.
W którym miejscu tkwi haczyk?
Bilans rozwoju sztucznej inteligencji nie jest z góry ani dodatni, ani ujemny – zależy od tego, w jaki sposób ją rozwijamy i do jakich celów ją wykorzystujemy. Jeśli AI służy optymalizacji procesów badawczych i technologicznych, takich jak ograniczanie liczby eksperymentów, zmniejszanie zużycia surowców, skracanie czasu badań czy projektowanie bezpieczniejszych materiałów, wówczas staje się narzędziem, które w dłuższej perspektywie może przynosić zarówno korzyści naukowe, jak i środowiskowe. Jeżeli natomiast rozwój algorytmów stanie się celem samym w sobie i będzie polegał głównie na trenowaniu coraz większych modeli bez wystarczającej refleksji nad ich rzeczywistą użytecznością i efektywnością, wówczas koszt „wejścia” może nigdy się nie zwrócić. I właśnie w tym tkwi zasadniczy „haczyk”. Dlatego sądzę, że przyszłość nie należy wyłącznie do „coraz większych” modeli sztucznej inteligencji, lecz do „mądrzejszej” sztucznej inteligencji – lepiej dopasowanej do konkretnych problemów, trenowanej na danych wysokiej jakości i wykorzystywanej tam, gdzie rzeczywiście może zastępować działania kosztowne, czasochłonne i obciążające środowisko.
To na nas więc spoczywa zarówno odpowiedzialność, jak i konieczność kontroli?
Zdecydowanie tak. Niezależnie od stopnia zaawansowania metod komputerowych i algorytmów sztucznej inteligencji, na końcu każdego procesu badawczego zawsze pozostaje człowiek. To on ponosi odpowiedzialność za sposób wykorzystania narzędzi AI, za ocenę wiarygodności uzyskiwanych wyników oraz za formułowanie ostatecznych wniosków. Sztuczna inteligencja potrafi analizować ogromne zbiory danych, identyfikować zależności czy sugerować rozwiązania, nie posiada jednak zdolności rozumienia kontekstu społecznego, etycznego ani moralnego, które są kluczowe w badaniach naukowych.
Należy również pamiętać, że modele AI są trenowane na danych, które często zawierają błędy, uproszczenia lub ukryte uprzedzenia. W konsekwencji algorytmy mogą je nie tylko powielać, lecz nawet wzmacniać. Bez świadomego nadzoru człowieka istnieje ryzyko, że zaczniemy traktować odpowiedzi generowane przez AI jako „obiektywną prawdę”, podczas gdy w rzeczywistości mogą one być efektem tzw. halucynacji AI. Może to prowadzić do bardzo konkretnych konsekwencji, takich jak błędna ocena zagrożeń czy wprowadzanie do obrotu substancji potencjalnie niebezpiecznych. Dlatego kluczowe jest, aby rozwój sztucznej inteligencji przebiegał równolegle z refleksją nad jej skutkami oraz z tworzeniem odpowiednich ram prawnych i etycznych. AI może stać się ogromnym wsparciem dla nauki i społeczeństwa, ale tylko pod warunkiem, że pozostanie pod świadomą i odpowiedzialną kontrolą człowieka.
Polska nauka jest gotowa na AI?
Pod względem potencjału ludzkiego – zdecydowanie tak. Jeśli spojrzymy na kompetencje, potencjał intelektualny oraz kreatywność polskich naukowców, zwłaszcza przedstawicieli młodego pokolenia, wyraźnie widać, że dysponujemy solidnymi podstawami, by aktywnie uczestniczyć w globalnym rozwoju badań nad sztuczną inteligencją. Obserwuję bardzo duże zainteresowanie narzędziami AI wśród studentów, doktorantów i młodych badaczy, a także ich otwartość na nowe metody oraz gotowość do łączenia wiedzy z różnych dziedzin – informatyki, nauk ścisłych, przyrodniczych czy inżynieryjnych. To kapitał, którego absolutnie nie powinniśmy zmarnować.
Największym zagrożeniem nie jest zatem brak kompetencji, lecz niewystarczające i niestabilne finansowanie nauki. Rozwój metod opartych na sztucznej inteligencji wymaga bowiem realnych inwestycji – nie tylko w infrastrukturę obliczeniową, lecz także w ludzi, ich kształcenie oraz długofalowe projekty badawcze. Jeśli tych warunków zabraknie, istnieje poważne ryzyko odpływu młodych, ambitnych naukowców za granicę, gdzie możliwości rozwoju są często lepiej zabezpieczone systemowo. Byłaby to ogromna strata, ponieważ to właśnie oni w przyszłości będą zdecydują o tym, czy Polska pozostanie jedynie odbiorcą gotowych technologii, czy stanie się ich współtwórcą.
Rozmawiała Aneta Zawadzka
fot. Dominik Kulaszewicz