|
|
EsejIm głębiej badamy obecną teorię materii, tym bardziej niematerialnie ona wygląda. Piotr Skórzyński Arbitralność ludzkich języków jest podłożem wiecznego dyskomfortu, wielekroć wyrażanego przez filozofów i pisarzy: tego mianowicie, że człowiek opisując świat nieuchronnie skazany jest na fałsz. Czy jednak przyroda – lub materia – nie stanęła kiedyś przed tym samym problemem? Psycholog LeShan nie chce używać słowa „energia” i w rezultacie skazany jest na kilkanaście stron omówień i cytatów zaczerpniętych z dzieł mistycznych, które nie rozjaśniają sprawy. Fizyk David Bohm jest odważniejszy: Problem polega właśnie na tym, czy materia jest zwyczajna i mechaniczna, czy też staje się coraz bardziej subtelna i robi się nieodróżnialna od tego, co ludzie nazywają duchem. W idealizmie forma jest pierwsza. Być może jednak forma włącza się w energię, która zapoczątkowuje określoną aktywność i ostatecznie daje początek określonej strukturze materii. Jeśli spojrzeć na to w sposób, w jaki zaczyna na to patrzeć współczesna fizyka, to możemy powiedzieć, że rozróżnienie między materializmem a idealizmem ulega stopniowej erozji. Rozszerzę definicję informacji Gregory’ego Batesona i powiem, że to różnica formy powoduje różnicę treści i sensu. Forma spełnia się jako sens i energia. (...) Sugerowałoby to, że duch jest zawsze obecny w każdym dowolnie prostym aspekcie materii. Pół wieku wcześniej wybitny astrofizyk angielski James Jeans wyraził to krótko: Świat materialny możemy sobie wyobrazić jako przekrój świata realnego. Z punktu widzenia cybernetyki proces leczniczy polega na wprowadzaniu negentropii, to znaczy porządku w miejsce chaosu, czyli entropii. Dokładnie, lekarstwo to pewien przekaz dla organizmu, czyli zakodowana w cząsteczkach chemicznych informacja. Pod jego wpływem pojawia się negentropia: ciało likwiduje zaburzenia i regeneruje komórki, czyli przywraca ich funkcje – odbudowuje ich połączenia „komunikacyjne”. W wypadku leczenia mentalnego to lekarstwo ma najwyraźniej postać informacji czystej, czy też, mówiąc językiem scholastyki arystoteliańskiej, formę czystej formy. ZAKRAWA NA CUDAle czy sam kosmos jest naturalny? Rzecz w tym bowiem, że prawa, które go opisują, są odwracalne w czasie. Nie ma matematyczno-fizycznych przeszkód, by procesy fizykalne toczyły się od końca do początku. A jednak nigdy to nie następuje. Nie ma też teoretycznych przeszkód, by entropia malała, a jednak nigdy to się nie zdarza. Najwyraźniej istnieje jakaś arbitralność w procesach fizycznych, narzucony z góry kierunek. Leo Lederer, noblista z fizyki, pisze: Problem ten zapisał się w historii nauki pod nazwą kryzysu przyczynowości lub izotropii. Albowiem wydaje się, że istnieje związek przyczynowy między rejonami nieba, które nie mogły mieć ze sobą żadnego kontaktu. Wydaje się wskazywać na to fakt, iż gdziekolwiek by nie spojrzeć, w wielkiej skali ukazuje się mniej więcej ten sam układ gwiazd, galaktyk, gromad i pyłu – co nazywamy izotropią. (...) Nasza teoria Wielkiego Wybuchu nie potrafi tego wyjaśnić. Kosmolog John Barrow wyjaśnia: Wszechświat wydaje się o wiele bardziej uporządkowany niż mielibyśmy prawo oczekiwać. Obserwujemy w nim niezwykłą wielkoskalową regularność. Wynika stąd, że na początku ekspansji wszechświata poziom entropii musiał być zadziwiająco niski – co znaczy, że warunki początkowe były naprawdę bardzo szczególne. Wygląda to bowiem tak, jakby wszechświat został... zaprojektowany. Wynika stąd następująca konkluzja: cały obecny obserwowalny wszechświat wyrósł z obszaru, który składał się z olbrzymiej ilości całkowicie niezależnych regionów, które w najwcześniejszych chwilach historii wszechświata nie mogły nawet wzajemnie wiedzieć o swoim istnieniu. Lederer, ateista, nieświadomie (?) personifikuje naturę, żeby móc to opisać: Ze wszystkich możliwych wielkości masy, jakie przyroda mogła wybrać dla swojego wszechświata (...) wybrała wielkość prawie krytyczną. Ale to jeszcze nie wszystko. Na cud zakrawa to, że wszechświat w ciągu 15 mld lat uniknął dwóch diametralnie różnych ewentualności: nie rozprysł się w natychmiastowej, niepohamowanej ekspansji ani nie zapadł się w gwałtownym kolapsie. Okazuje się, że w wieku jednej sekundy wszechświat musiał być niemal dokładnie płaski. W przeciwnym razie albo mielibyśmy Wielki Kolaps jeszcze zanim powstałoby choćby jedno jądro, albo gwałtowne rozszerzanie się wszechświata szybko doprowadziłoby go do stanu lodowatej martwoty. Znów cud! Roger Penrose natomiast dodaje kolejny niewytłumaczalny fakt: Jedną z bardziej zaskakujących własności obserwowalnego wszechświata jest znacząca ilościowa przewaga materii nad antymaterią. Chociaż akceleratory cząstek elementarnych wytwarzają zwykle równe ilości materii i antymaterii – i co więcej, między obiema formami panują demokratyczne stosunki – to nie obserwujemy antyplanet, antygalaktyk i antygwiazd. Również promieniowanie kosmiczne, które pochodzi spoza Układu Słonecznego, nie zawiera żadnych danych wskazujących na jakąś globalną anihilację materii i antymaterii, która wybuchałaby wszędzie tam, gdzie dochodzi do ich zetknięcia. (...) Żeby to wyjaśnić potrzebujemy w pewnym sensie czegoś więcej niż zwykłego naukowego wyjaśnienia. FALA PRAWDOPODOBIEŃSTWAIm głębiej badamy obecną teorię materii, tym bardziej niematerialnie ona wygląda. Zasadniczą cechą materii jest, co oczywiste, jej materialność, czyli masa. Ale fizyka XX wieku ukazała, że masa zależna jest od rodzaju ruchu ciała, od konfiguracji układu z innymi ciałami, a także, iż mogą istnieć cząstki, które w ogóle – tak jak foton i neutrino – są jej pozbawione. Wszystkie te czynniki – pisze Lederer – podają w wątpliwość pojęcie masy jako fundamentalnej cechy materii. Musimy też przypomnieć sobie o problemach z obliczeniami, w których wychodziła nieskończona masa i których nigdy nie rozwiązaliśmy, tylko pozbyliśmy się kłopotu przez renormalizację. (...) W tej sytuacji hipoteza dotycząca bozonu Higgsa – że masa nie jest fundamentalną własnością cząstki, lecz nabytą poprzez oddziaływanie ze swym otoczeniem – daje się łatwiej obronić. Trzeba przypomnieć w tym miejscu, że ów bozon lub skalarne (bezkierunkowe) pole będące jego odpowiednikiem, jest jedynie matematyczną hipotezą, którą jej twórca bardzo skromnie sformułował w pewnym artykule. Tym bardziej zdumiewa, jak wielki gmach ma na sobie dźwigać: Ofiarowawszy całą swą energię na tworzenie cząstek, pole Higgsa chwilowo usuwa się ze sceny – ale pojawia się następnie kilkakrotnie w różnych przebraniach, aby podtrzymać spójność matematyki, wygaszać nieskończoności i nadzorować narastającą złożoność wszechświata... Oto Boska Cząstka w całym jej majestacie. Zważywszy jednak, że jest ona jedynie hipotezą, majestat ten wygląda dosyć żałośnie... Mechanika kwantowa akceptuje niewyjaśnialne logicznie paradoksy. Zjawisko interferencji elektronów dowodzi, że foton w jakiś sposób wie, kiedy szczelina jest zasłonięta, a kiedy nie. Jak wiadomo, funkcja falowa Schr?dingera (podniesiona do kwadratu) opisuje prawdopodobieństwo znalezienia elektronu w danym miejscu. Opisuje innymi słowy falę prawdopodobieństwa. W wywiadzie z Ren?e Weber precyzuje: Wiemy, że informacja zorganizowana jest w dowolnej ilości wymiarów. Jeśli spojrzymy na wielowymiarową przestrzeń jako na pole informacji, to możemy powiedzieć, że takie pole wokół elektronu znajduje się właśnie w przestrzeni wielowymiarowej. Sens tego pola, czyli informacja, determinuje relacje między cząstkami. Znaczy to, że wzajemne relacje tych cząstek zależą od stanu całości, przy czym zależność ta nie sprowadza się do pierwotnych własności części. Całość ma pewien wcześniejszy sens, wcześniejszy w stosunku do części. (...) Elektron, w tej mierze, w jakiej reaguje na sens obecny w jego otoczeniu, jest obserwatorem tego otoczenia. Obserwować znaczy zbierać, skupiać na czymś uwagę. PIERWOTNA „RZECZYWISTOŚĆ”Drugi wielki filar fizyki, czyli teoria względności, zaprzecza, jak wiadomo, pierwszemu: prawa mechaniki newtonowskiej są bowiem odwracalne w czasie, podczas gdy mechanika kwantowa, czyli termodynamika, nie. A jednak okazuje się, że także to rozwinięcie (i transformacja) praw Newtona, jakim jest teoria Einsteina, nie ma bynajmniej solidnego oparcia. W teorii tej grawitacja jest geometrycznym odkształceniem czasoprzestrzeni. W ten sposób jednak powstaje pytanie: jak mierzyć je za pomocą normalnych wielkości fizycznych, skoro przy odpowiednim doborze współrzędnych tak natężenie, jak i gęstość energii pola grawitacyjnego mogą być równe zeru. Są tu komunikaty (wskazujące ciału, w jakim kierunku i z jakim przyśpieszeniem ma się poruszać), ale nie ma nośnika. Powstaje więc pytanie identyczne z tym, jakie sam Einstein zadawał twórcom mechaniki kwantowej: jakież to właściwie siły przenoszą grawitację, jeśli jej pole ma najwyraźniej charakter niematerialny? Odpowiedź – pisze prof. Góral – może być tylko jedna: siły duchowe. Jest to jeden z bezpośrednich skutków dominującej od niemal stu lat „czystej próżni” w kosmosie, którą „oczyszczono” ze staroświeckiego eteru, nic w zamian nie oferując, a za to zaludniając tę próżnię mnogością sztucznych tworów, którym bez powodzenia próbuje się za pomocą manipulacji matematycznych przypisać byt materialny. Po czym nie waha się postawić kropki nad i: Toteż w rzeczywistości oficjalna fizyka jest nader bliska naukom okultystycznym i pewnie dlatego niektórzy jej przedstawiciele tak głośno gromią radiestetów, parapsychologów, ufologów i bioterapeutów, gdyż świadomi są tego niechcianego i nader kłopotliwego pokrewieństwa. Sam Einstein tłumaczył to na poły filozoficznie: W ujęciu ogólnej teorii względności masa i energia to dwa przejawy tej samej rzeczywistości – co bez wątpienia nie jest łatwo zrozumieć zwykłemu człowiekowi. Jeśli jednak tenże zwykły człowiek posługuje się logiką, to ma prawo zapytać: cóż w takim razie jest ową pierwotną, najbardziej elementarną „rzeczywistością”? FENOMENALNY WYJĄTEKObecnie jednak powstaje trzeci nie tyle filar, co obszar fizyki – procesy tunelowe. W 1994 r. fizycy z Berkeley uzyskali w czasie takiego procesu szybkość fotonów przewyższającą 1,7 razy prędkość światła. Rok później prof. G?nther Nimtz z uniwersytetu w Kolonii uzyskał przy laserowej rejestracji muzyki prędkość... 4,7 razy większą od światła. Wysunięto przypuszczenie, że w tym wypadku cząstki poruszały się korzystając z odwracalności normalnych procesów fizycznych – to znaczy w przeciwnym kierunku czasowym. Tym samym prędkość światła (liniowa, bo kątowa ma prawo być większa) przestaje być graniczną wielkością fizyki. W pewnym stopniu przewidział to polski matematyk, współtwórca bomby atomowej i wodorowej, Stanisław Ulam. Już w latach 70. zastanawiał się on nad możliwością innej niż szybkość światła stałej niezmienniczej... na przykład, że to częstość albo inna klasa prostych relacji fizycznych jest niezmiennicza. (...) Jestem pewien, że w ogólnych przestrzeniach [matematycznych – P.S.] możliwe są inne teorie „względności”. (...) Topologia wciąż zajmuje się przestrzeniami przestrzennymi; nie rozważano pomysłów, które uogólniłyby czterowymiarową czasoprzestrzeń. Noblista Ilya Prigogine jest główną postacią biofizyki, nauki, która łączy struktury nieożywione z ożywionymi. Jest on autorem teorii układów dysypatywnych stanowiących pomost między tymi dwoma światami. Prigogine zajął się głównym problemem biologii: faktem, iż przyroda zdaje się zaprzeczać fizyce, tworząc struktury odporne (w wymiarze gatunkowym) na wszechwładne prawo entropii. Odnoszące się do zachowania cząstek gazu prawo Clausiusa liczyło już prawie pół wieku, gdy Ludwig Boltzmann spostrzegł, że stosuje się ono do wszystkich procesów w układach zamkniętych. Zasadą konstytuującą te procesy była nieodwracalność przebiegu czasu. Wszystko dąży do równowagi rozkładu atomów, co przejawia się jako rozkład struktur wyżej zorganizowanych. Entropia jest proporcjonalna do logarytmu prawdopodobieństwa danego stanu atomów, gdyż obserwacja uczy nas, że wszystko po jakimś czasie się rozpada. Zasada Clausiusa-Boltzmanna głosi, że chaos jest stanem normalnym, natomiast układy uporządkowane, takie jak ciała niebieskie, kryształy, rośliny czy zwierzęta są od niej odstępstwem, tymczasowym wyjątkiem. Ale te wyjątki składają się na fenomen ewolucji, która nieprzerwanie trwa od półtora miliarda lat. Jeśli nasz świat jest losem wygranym na loterii (Monod) to jednak trwa trochę za długo, jak na zwykły zbieg okoliczności. Coś w naszym mechanicystycznym podejściu musi być błędne, skoro co chwila natykamy się na lukę łańcucha przyczynowego – to znaczy nieciągłość. KATASTROFA PSYCHOLOGICZNAW ten właśnie mniej więcej sposób rozumuje Prigogine. Głosząc zasadniczy indeterminizm bytu podkreśla, że samo nasze istnienie złamało symetrię czasu... Teoria wielkiej unifikacji, fascynująca dziś tylu uczonych, może dotyczyć tylko poziomu bardzo wysokich energii: nie wiemy jak wprowadzić do niej najważniejszy dla ludzi wymiar czasu. (...) Nie ulega dla mnie wątpliwości, że żyjemy zaledwie w prehistorii rozumienia naszego wszechświata. Wyciągnął on wnioski z niepowodzenia prób matematyzacji opisu procesów meteorologicznych i stwierdził, że niepodobna tego dokonać za pomocą klasycznych równań liniowych; prawdopodobne konfiguracje atmosfery ziemskiej są nie do obliczenia, ponieważ wchodzi tu w grę za dużo zmiennych. Genialny matematyk francuski Raymond Poincar? odkrył w 1890 r., że układ dynamiczny posiadający więcej niż dwie zmienne może być opisany tylko za pomocą równań nieliniowych i że takie równania nie dają się rozwiązać w zwyczajnym (analitycznym) znaczeniu. Kiedy osiąga się punkt krytyczny, zwany punktem rozwidleń albo „bifurkacji”, możliwości mnożą się wykładniczo i dochodzi do progu, który Prigogine nazwał „katastrofą Poincar?go”: równania wywiedzione z matematyki newtonowskiej stają się nierozwiązywalne. (Była to w pewnym sensie rzeczywiście „katastrofa psychologiczna”, bo Poincar? przestraszył się swoich odkryć i porzucił dalszą pracę.) Następuje szereg praktycznie nieprzewidywalnych procesów, takich jak oscylacje, fluktuacje czy niespodziewane „wyspy” stabilności. Stosujemy dziś do tego tzw. rachunki przybliżeń, ale ich wyniki były dla wielu przykre – okazało się, że orbity planet staną się nieprzewidywalne za ok. 100 mln lat, a co gorsza nie wiemy, po jakich orbitach krążyły kilkaset milionów lat temu. Zakładane warunki klimatyczne, które były podporą paleontologów, trzeba więc traktować jako czysto hipotetyczne. Ale kiedy zastosujemy do tego zjawiska aparat cybernetyki, spostrzeżemy, że oznacza to właśnie zmniejszenie entropii, która jest przecież miernikiem prawdopodobieństwa zachowań materii. Dowodzi to, zdaniem Prigogine’a, że natura nie jest zorganizowana mechanistycznie lub, co w istocie wychodzi na jedno, ogromna większość jej systemów ma charakter otwarty. To właśnie jest cecha układów, które nazwał dysypatywnymi, to znaczy posiadającymi zdolność samoorganizacji. Dlatego to, co dla góry jest katastrofą – np. wybuch wulkanu – dla roślin ją porastających po jakimś czasie może okazać się pożyteczne ze względu na wzbogacenie gleby. Podobnie jest z wylewem Nilu czy – przeskakując na wyższy poziom – niewyjaśnionymi do dziś katastrofami geologicznymi sprzed milionów lat, które niszczyły dotychczasowe gatunki, dając tym samym miejsce dla nowych, wyżej rozwiniętych. Jak wiadomo, wielka kariera ssaków zaczęła się dopiero wtedy, gdy w wyniku kosmicznego, najprawdopodobniej, kataklizmu wyginęły wielkie gady. Ze wzoru Boltzmanna wynika, że przeciwieństwo entropii, czyli informacja, jest (w proporcji geometrycznej) odwrotnie proporcjonalna do pewności danego zdarzenia. Innymi słowy, jest tym większa, im bardziej nas ono zaskakuje. W języku fizyki oznacza to, że przekazanie informacji oznacza konieczność jakiejś formy nierównowagi termodynamicznej. Żeby to zobrazować Prigogine stosuje równania nieliniowe i sześciowymiarową „przestrzeń fazową”. Jego zdaniem, nie ma teoretycznych przeszkód, by za struktury dysypatywne uznać także cząstki elementarne. Twierdzi on, że stan nierównowagi tworzy bardzo rozległe korelacje między cząstkami, które dopiero zaczynamy powoli rozpoznawać. Powstaje układ nieodwracalny, a zatem sprzeczny z regułami klasycznej fizyki. (W przestrzeni fazowej dany stan jest tylko punktem, a zatem teraźniejszość zostaje w ścisłym pojęciu zawieszona – zostaje tylko przeszłość i przyszłość.) To właśnie nierównowaga – nagła, nieprzewidziana zmiana – jest źródłem powstania nowej struktury na wyższym poziomie organizacji. Niemal identyczne poglądy głosi wielki konkurent Prigogine’a, ostatni klasyczny determinista, sławny matematyk Ren? Thom. Opracował on „teoremat uniwersalnego rozwoju” zasadzający się na tezie, iż każda zmiana, także korzystna, jest dla naszego organizmu i umysłu swoistą „katastrofą”, jako że jego naczelnym imperatywem jest stabilność. Znalazło to potwierdzenie w badaniach psychologicznych, które wykazały, że źródłem stresu są dowolne zmiany.
|
|
|