Strona główna

Archiwum z roku 2001

Spis treści numeru 7-8/2001

Kryzys idei wyższego szkolnictwa zawodowego?
Poprzedni Następny

Badania naukowe

Kulturotwórcza część nauki nie wymaga żadnych innych uzasadnień, 
jak pragnienie poznania świata.

Rozmowa z prof. Michałem Kleiberem,
laureatem konkursu na Subsydium Profesorskie FNP 2001

Prof. dr hab. inż. Michał Kleiber (ur. 1946), specjalista mechaniki ciał stałych i konstrukcji oraz metod komputerowych w nauce. Jest absolwentem Politechniki Warszawskiej (1968) i Uniwersytetu Warszawskiego (1971), doktorat 1972, habilitacja 1978, prof. zw. 1989. Członek korespondent PAN od 1994. Od 1972 pracuje w Instytucie Podstawowych Problemów Techniki Polskiej Akademii Nauk w Warszawie, od 1995 jako jego dyrektor. Jest dyrektorem Centrum Doskonałości Systemów Ciśnieniowych o Ekstremalnych Warunkach Pracy w Warszawie. Prezes Środkowoeuropejskiego Stowarzyszenia Metod Komputerowych Mechaniki. Członek Centralnej Komisji ds. Stopni Naukowych i Tytułu Naukowego.
Ma w swoim dorobku ponad 100 publikacji prac oryginalnych. Gra w tenisa, interesuje się muzyką.

Kwestionuje się czasami pojęcie nauki techniczne, w przeświadczeniu, że technika opiera się na matematyce, fizyce, chemii. Fundacja na rzecz Nauki Polskiej przyznaje swą doroczną nagrodę także za osiągnięcia w naukach technicznych, a w tym roku subsydia profesorskie otrzymali ich przedstawiciele.
– Nie wiem, czy jestem najwłaściwszą osobą do wyjaśnienia tej wątpliwości – sam studiowałem matematykę w uniwersytecie i mechanikę w politechnice. Wydaje mi się naiwny pogląd, że to, co opiszą matematycy, odkryją fizycy czy uzyskają chemicy, może być użyte w praktyce. Potrzebne jest ogniwo pośrednie. Inaczej mówiąc, żeby wymyślić cokolwiek mądrego, a jednocześnie stosowalnego, musi być ktoś, kto wie, na czym mogłoby polegać wykorzystanie odkryć przyrodniczych w praktyce, w szczególności w technice. Jednocześnie, ktoś taki zwykle zajmuje się rozszerzaniem badań podstawowych na te obszary, gdzie można się spodziewać czegoś ważnego z punktu widzenia zastosowań. Najczęściej dzieje się to we współpracy. W naszym instytucie tylko część, około 40 proc. profesorów, ma wykształcenie techniczne, inżynierskie. Pozostali to matematycy, fizycy, informatycy, którzy wykonują prace podstawowe ulokowane w kontekście zastosowań.

– IPPT jest ogniwem pośrednim między badaniami podstawowymi i stosowanymi?
– Jestem przeciwnikiem tego podziału. Myślę, że mamy badania poznawcze, gdzie nic innego jak dociekanie prawdy badaczy nie interesuje, i badania (tych jest większość na świecie) prowadzone, jak powiedziałem, w kontekście zastosowań.

– Słowo kontekst oznacza, jak rozumiem, szukanie odpowiedzi na pytania wynikające z aktualnych ludzkich potrzeb, a granica chyba nie jest ostra?
– Właśnie tak. Trzeba mieć konkretny pretekst – w poważnym sensie tego słowa – żeby prowadzić badania, które będą jednocześnie realne lub choćby potencjalnie użyteczne. Programy naukowe Unii Europejskiej są tak pomyślane. Jeśli np. fizyk wchodzi do któregoś z tych programów, to ma obowiązek umieć powiedzieć coś na temat hipotetycznych zastosowań, nie może poprzestać na konstatacji: chcę to robić, bo pociągają mnie piękne równania.

– Nie należy jednak ignorować takiej motywacji.
– Naturalnie, że nie. Kulturotwórcza część nauki nie wymaga żadnych innych uzasadnień, jak pragnienie poznania świata. Moim zdaniem, na nią powinno iść mniej więcej 30 proc. środków, natomiast resztę muszą otrzymywać takie badania, o których wiemy, do czego ich wyniki mogą się przydać. Jeśli przyniosą tylko 5 proc. znaczących osiągnięć technicznych, to niemało. Uważam za wielką siłę mojego instytutu i innych instytutów PAN to, że skupiają ludzi z obu nurtów, że tworzą interdyscyplinarne zespoły badawcze. Uczelnie zorganizowane wedle potrzeb dydaktycznych nie są w stanie tego robić, w każdym razie bardzo im trudno.

– Czy podwójne studia Pana Profesora ułatwiają kierowanie takim instytutem?
– Myślę, że tak.

– Ale skąd się wzięły takie wybory? Czy z tradycji?
– Mój ojciec był inżynierem i nie wyobrażał sobie, żeby jego syn nie był inżynierem. Studiowałem więc inżynierię lądową (specjalność ojca). Nie czułem się tam dobrze i zacząłem studiować matematykę. Okazało się, czego nie byłem świadomy, że mam w tym kierunku pewne zdolności i skończyłem uniwersytet nieco wcześniej niż politechnikę. Później pracowałem i w jednej, i w drugiej uczelni, aż wylądowałem w IPPT, co sobie chwalę. Wiele lat spędziłem za granicą.

– Jako matematyk czy jako inżynier?
– Zawsze było to u mnie przemieszane, ale matematykiem przestałem być stając się informatykiem. Do końca nie potrafię powiedzieć, kim właściwie jestem.

– To przeszkadza czy stanowi walor?
– Sprawia pewien dyskomfort, choćby w wywiadach... Od dłuższego czasu zajmuję się symulacjami komputerowymi zagadnień dużej skali. Dwa lata spędziłem w specjalnej placówce od tych spraw w uniwersytecie tokijskim, zajmując bardzo honorowe stanowisko. Robiłem dużo symulacji, np. przepływu powietrza przez płuco, co jest bardzo złożonym problemem z zakresu mechaniki, ale także fizjologii, no i miało całkiem praktyczny aspekt diagnostyczny.

– Było to we współpracy z lekarzami?
– Naturalnie.

– Czy musiał się Pan uczyć medycyny?
– Bardzo dużo. Teraz rozpoczynam współpracę ze stomatologami z Włoch, Niemiec i Irlandii w zagadnieniu implantów zębowych. Nie jest łatwo się porozumieć – zapewne za przyczyną obu stron. Wspieram moje twierdzenia symulacjami komputerowymi różnych zjawisk i procesów związanych z funkcjonowaniem implantów. Razem uprawiamy coś, co nazywa się biomechaniką medyczną. W maju mieliśmy kolejne już spotkanie z ortopedami z całej Polski, którzy bardzo wiele od nas – mechaników i informatyków – oczekują, tym razem w zakresie stosowania implantów biodrowych i kolanowych.

– Gdzie jest najwięcej pytań? W mechanice i fizyce czy też na tym obszarze, który Pan profesor nazwał kontekstem zastosowań, tj. wykonania implantu, wszczepienia go itp.?
– Pytania są wszędzie. Implant, żeby już przy nim pozostać, musi spełniać szereg warunków: mieć optymalny kształt, z punktu widzenia jego pracy mechanicznej, musi dobrze zespolić się z kością, być możliwie trwały itd. Ciągle dyskutujemy z ortopedami widząc możliwości rozwiązań trochę innych niż oni. Lekarze są bliżej człowieka i skupiają się głównie na sposobie przeprowadzenia operacji, zabezpieczeniu przed infekcjami, a my zastanawiamy się nad optymalnym kształtem implantu, nad materiałami aktywnymi biologicznie. Współpracujemy bardzo ściśle. Symulacja komputerowa umożliwia zobaczenie różnych wariantów zachowania się implantu zależnie od okoliczności zarówno mechanicznych, jak i medycznych.

– Symulacja komputerowa to jest coś, co ogromnie działa na wyobraźnię. Laicy bywają skłonni przypisywać nieograniczone wręcz możliwości komputerowi albo też (rzadziej) wątpić w rzeczywistą ich przydatność.
– Do niedawna (od starożytności) panował pogląd, że nauka to teoria i eksperyment – dwa filary, na których opiera się jej paradygmat. W dzisiejszym świecie istnieją, wedle mnie, trzy filary: teoria, eksperyment i symulacja komputerowa.

– Czy nie jest ona szczególnym rodzajem eksperymentu?
– Nie. Ma swoją autonomię, przy czym, trzeba podkreślić, wszystkie trzy filary są niezbędne. Symulacja komputerowa, która daje nam wspaniałe narzędzie, ma jedną wadę: dzieje się w przestrzeni wirtualnej, co może grozić utratą kontaktu z rzeczywistością. Jeżeli popełnimy błąd, możemy zabrnąć na manowce i zacząć symulować zjawiska, które w rzeczywistości w ogóle nie wystąpią. Nie można zatem wyrzec się eksperymentu fizycznego, który z kolei ma tę ułomność, że robimy go zawsze na bardzo uproszczonych modelach. Jeżeli zajmuję się zjawiskami zachodzącymi w jakimś materiale, to wiem, że próbkę tego materiału mogę np. rozciągnąć albo zgiąć i zobaczyć, co się dzieje. Jeżeli chciałbym ją poddać działaniu wielu czynników jednocześnie, natrafię na takie komplikacje, że okaże się to niewykonalne. A takie właśnie sytuacje występują w życiu i musimy je rozwiązywać. Jeśli ktoś ma implant w biodrze, to ten implant jest poddawany obciążeniom cyklicznie, setki tysięcy razy i dzieją się z nim jeszcze różne inne rzeczy: skręcanie, zginanie, ściskanie, działanie temperatury, reakcje chemiczne itd. Nie sposób odwzorować tego w eksperymencie fizycznym. Próbujemy opisać całą tę skomplikowaną sytuację jakąś teorią i zaprogramować w komputerze. Przeprowadzamy niejako eksperyment fizyczny, ale w przestrzeni wirtualnej. Komputer może zrobić z tym implantem czy z próbką materiału wszystko, cokolwiek człowiek wymyśli.

– Jakiej wiedzy potrzeba, żeby zadać komputerowi taki eksperyment?
– Jest to podstawowe pytanie. Otóż, na etapie formułowania teorii musimy wiedzieć, jakie są możliwości komputera, przede wszystkim to, że do owej teorii możemy włączyć także inne efekty niż te, które przewidywaliśmy w eksperymencie fizycznym. Możemy np. zaprogramować wszczepienie implantu komuś, kto musi codziennie przebywać setki tysięcy schodów, w górę i w dół, co w życiu się nie zdarza. I możemy dzięki temu zobaczyć zupełnie nowe zjawiska, których nie bylibyśmy w stanie się domyślić. Symulacja komputerowa jest dzisiaj elementem odkryć naukowych. Dam przykład. Kosmologów i astronomów intryguje od dawna proces tworzenia się galaktyk trwający setki milionów lat. Nie można tego obserwować, trudno sobie wyobrazić jakikolwiek eksperyment fizyczny. Specjaliści od symulacji komputerowej wzięli od astronomów fotografie galaktyk będących w różnych fazach rozwoju i na tej podstawie opracowali pogram, który symuluje ten rozwój od początku do końca. Dzięki symulacji komputerowej dokonano doniosłego odkrycia. Podobnych przykładów jest więcej.

– Musi być jakiś wspólny poziom wiedzy specjalistycznej i wiedzy informatycznej?
– Oczywiście, powstała (w Ameryce, będącej dla mnie wzorem uprawiania nauki) nowa dziedzina, która nazywa się computational science. U nas niektórzy mówią – nauki obliczeniowe, ja wolę nazywać to modelowaniem i symulacją komputerową. Jeśli na początku mówiłem, że nie bardzo wiem, kim jestem, to najbliższa mi jest właśnie computational science.

– Na co przeznaczy Pan subsydium?
– Przede wszystkim na wsparcie moich młodych współpracowników, których trudno zatrzymać w instytucie naukowym za 900 zł miesięcznie, plus, powiedzmy, jeszcze 500 zł z jakiegoś grantu, podczas gdy informatyk po studiach zarabia w Warszawie 4-5 tys. zł. Myślę, że uda mi się zatrzymać, na godziwych warunkach, trzech zdolnych młodych ludzi, co będzie bardzo cenne. Jakaś część pójdzie na kontynuację badań.

– Nad zagadnieniami „nieliniowej termomechaniki z uwzględnieniem efektów losowych”, jak to zapisano w komunikacie o przyznaniu subsydium?
– Są to przede wszystkim problemy niezawodności i bezpieczeństwa konstrukcji narażonych na ekstremalne obciążenia różnego typu. Nie trzeba nikogo przekonywać, jak ważna jest niezawodność np. reaktorów atomowych czy samolotów. Robi się więc symulację komputerową najrozmaitszych sytuacji awaryjnych i analizuje wszystkie występujące zjawiska, zachowanie wszystkich elementów konstrukcji oraz całego układu, którego dotyczy takie zdarzenie losowe. Możemy sobie wyobrazić most, którego element ma wadę materiału przez nikogo nie wykrytą, mimo licznych kontroli, albo wieżowiec, w który uderza potworna wichura, jaka nigdy przedtem w tym rejonie nie wystąpiła. Może się też zdarzyć, że kilka takich efektów losowych wystąpi jednocześnie – wtedy zwykle następuje katastrofa. Otóż my, za pomocą symulacji komputerowej, staramy się ocenić prawdopodobieństwo podobnych sytuacji. Na „normalną” symulację zachowania się jakiegoś złożonego systemu nakładamy jeszcze ową niepewność co do wystąpienia efektów losowych. Nazywamy to w naszym żargonie „modelowaniem i przetwarzaniem niepewności”. Element niepewności istnieje we wszystkim, co nas otacza, ale jest przeważnie pomijany. Wiemy, że dom, gdzie mieszkamy, zbudowali inżynierowie obliczając różne parametry, tak żeby stał on wiele lat, i nie zastanawiamy się nad tym, czy wyjątkowo silny huragan może go zburzyć. Element niepewności najczęściej związany jest z błędami popełnianymi przez człowieka. Badanie go, nawet za pomocą symulacji komputerowej, jest ogromnie trudne. Podstawę stanowi teoria prawdopodobieństwa, istniejąca w matematyce od dziesiątków lat. Żeby ją stosować do zagadnień technicznych, trzeba mieć wiedzę o materiałach, konstrukcjach, samolotach, reaktorach, wieżowcach itp.

– I o czynnikach zewnętrznych, jakie działają lub mogą działać na te wszystkie wytwory techniki?
– Oczywiście. Wracamy do początku rozmowy – do współpracy. Nasza współpraca tworzy obszar nauk technicznych, o które pani pytała.

– Jak zaawansowana jest dziedzina, którą Pan profesor uprawia, owe computational sciences?
– Bardzo wiele rzeczy potrafimy już robić racjonalnie. Ale bardzo wiele jest do zrobienia.

– Co to znaczy: racjonalnie?
– W wielu przypadkach potrafimy ocenić – z dużą dokładnością – prawdopodobieństwo awarii, czyli obliczyć niepewność prawidłowego funkcjonowania układu. Poza bezpieczeństwem może to przynieść duże korzyści ekonomiczne, także estetyczne (lżejszy most jest ładniejszy). Znając niepewność nie musimy robić konstrukcji np. dwa razy wytrzymalszej niż to wynika z tradycyjnych obliczeń, tylko można jej wytrzymałość bardzo dokładnie oszacować.

– Gdzie jest kres tej racjonalności, jak daleko można dojść w symulowaniu niepewności?
– Nie można zapewnić absolutnego bezpieczeństwa, zupełnie wykluczyć awarii, ale już dzisiaj w wielu przypadkach potrafimy powiedzieć, że jej prawdopodobieństwo wynosi np. 10-8, czyli praktycznie w ciągu ludzkiego życia awaria się nie zdarzy. Trzeba przy tym pamiętać, że zwiększenie bezpieczeństwa kosztuje, i to tym więcej, im bardziej je zwiększamy. Pytamy, jakie koszty społeczeństwo gotowe jest ponosić? Wszyscy chcielibyśmy, żeby bilety samolotowe były tańsze, ale czy zgodzimy się na obniżenie ceny kosztem większego ryzyka wypadków? Odpowiedź na to pytanie nie należy do inżynierów. Na szczęście.

– Sama świadomość, że można bardzo znacznie ograniczyć niepewność przy budowaniu mostów, wieżowców, reaktorów już chyba daje większe poczucie bezpieczeństwa?
– Tak. Na koniec powiem pani o innych pracach mojej grupy badawczej. opracowaliśmy m.in. program symulacji procesu głębokiego tłoczenia blachy, który jest o wiele bardziej skomplikowany niż moglibyśmy to sobie wyobrazić patrząc na karoserię samochodu. Używa się niezwykle kosztownych matryc wykonanych z materiału o wielkiej wytrzymałości, a i tak jest spory procent odpadów. Eksperymenty fizyczne byłyby niesłychanie kosztowne, symulacja pozwala cały ten proces przeanalizować i zobaczyć w formie animacji komputerowej. Nasz program jest używany za granicą, a my go ciągle rozwijamy, także w kierunku przewidywania niepewności rozmaitych parametrów i elementów kolejnych faz tłoczenia. Pracujemy również nad symulacją różnych konstrukcji budowlanych, gdy trzeba ocenić prawdopodobieństwo awarii, żeby racjonalnie projektować.

– Jeżeli używamy liczby mnogiej mówiąc nauki techniczne, to symulacja komputerowa jest jedną z nich?
– Moim zdaniem, tak.


Rozmawiała 
Magdalena Bajer

 

Komentarze