Informatykom nie zaszkodziłoby poznawanie historii i literatury,
a także innych gałęzi wiedzy. Może wtedy nie okazywaliby
tak często ignorancji w dziedzinach nieinformatycznych.
Paweł Misiak
Po krótkiej – jak zwykle zbyt krótkiej – przerwie wakacyjnej wracamy do codziennych kieratów. Posłowie do Sejmu, dzieci do szkół, studenci do nauki, pisarze do pióra (chyba już to kiedyś słyszałem). „Przekaziory” znowu usilnie straszą końcem tysiąclecia, Lepper i inni – nowymi manifestacjami. Politycy, dziennikarze i informatycy coraz częściej okazują wobec szerokiej publiczności ignorancję i arogancję. Chciałoby się powiedzieć, że świat schodzi na psy, ale te miłe stworzenia nic w tym względzie nie zawiniły.
Politycy, dziennikarze i informatycy często wypowiadają się w mediach. Pierwsi, bo dzięki temu istnieją. Pozostawmy ich na pożarcie dziennikarzom (w końcu każdy musi z czegoś żyć). Trzecia grupa – ponieważ teleinformatyka jest dziś jednym z modniejszych zagadnień. Działalność publicystyczna wpływa na stan umysłów społeczeństwa, zarówno tego pełnoletniego, jak i całkiem młodego. Dlatego jej autorom warto pilnie patrzeć na ręce.
„Wietrzny” problem
Dziennikarz opisujący polityka zwraca czasem uwagę na jego ręce. Tak też poniekąd zrobił Sławomir Mizerski w „Polityce” (nr 36/99). W tekście Lenin z Zielnowa, traktującym o książce „prezentującej sensacyjną biografię Andrzeja Leppera”, możemy przeczytać: Zaskoczenie przynosi już zdjęcie z okładki, nie przedstawiające bynajmniej współczesnej repliki strasznego Szeli z wywiniętymi wargami, ale sympatycznego, siedzącego za biurkiem blondyna z wietrznym [podkr. moje – P.M.] piórem w dłoni, pochylonego nad notatkami. Człowiek ten nie może być ciemnym warchołem, awanturnikiem znanym z opisów prasowych, myślimy.
Zastanawiać się zacząłem nad genezą popełnionego błędu. Pierwsza hipoteza, jaka przyszła mi do głowy, to ta, iż redaktor Mizerski popełnił mimowolnie pomyłkę ufając (zanadto, jak się okazuje) w cudowne działanie redakcyjnej korekty. (Tu wspomniałem rewelacyjną korektorkę z redakcji pewnego miesięcznika, notabene komputerowego, przed której wzrokiem nie miał prawa ukryć się żaden błąd. Nie zdradzę jednak bliższych danych, by nie podkupiła jej np. „Polityka”.) Hipoteza druga miała odniesienia komputerowe: oto i autor, i korekta zaufali zbytnio programom do sprawdzania poprawności pisowni. Nie potrudzili się, by sumiennie i ze zrozumieniem przeczytać tekst raz jeszcze, przed oddaniem do druku. Wreszcie hipoteza trzecia, najdalej idąca – może redaktor Mizerski jest człowiekiem tak młodym, że przedmiot zwany wiecznym piórem jest mu zupełnie nieznany. Dlaczego więc postanowił użyć tego wyrażenia? Może pierwotnie napisał „długopis”, ale ktoś mu powiedział, że to wieczne pióro? Konotacje eschatologiczne wydały się autorowi w tym kontekście bez sensu, więc skojarzył pióro z szumem skrzydeł, a stąd do wietrzności już tylko mały krok.
Jakkolwiek się sprawy miały, fakt pozostaje faktem – wydrukowano określenie błędne. A młodzież czyta, zapamiętuje i używa. I być może za kilkanaście lat w jakimś najnowszym słowniku języka polskiego znajdziemy związek frazeologiczny „wietrzne pióro” z komentarzem, iż usus wyparł dawniejszą, bardziej logiczną formę „p. wieczne”. Dla porządku może warto wyjaśnić (głównie czytającej młodzieży), że określenie pióra (do pisania) jako „wieczne” miało związek z faktem, iż przyrząd ten posiada zbiorniczek na atrament, co pozwala napisać wiele stron bez uzupełniania tegoż. Nieco starsze przyrządy do pisania, zwane po prostu piórami, składające się z obsadki i końcówki piszącej zwanej stalówką, wymagały maczania owej stalówki w pojemniku z atramentem (zwanym kałamarzem) po napisaniu kilku znaków. Bodaj to u Jana Parandowskiego w Alchemii słowa można przeczytać, że zwykłe (także gęsie) pióro do pisania ma tę przewagę nad przyrządami „wiecznymi”, iż czynność maczania go w atramencie powoduje krótką przerwę, którą umysł piszącego może wykorzystać na dodatkową pracę nad tworzonym tekstem. Zwykłym piórem trudniej zatem pisać bzdury. Za to przy pomocy komputerowej klawiatury bardzo łatwo. A „komputerowi” piszą coraz więcej.
Rzeczywistość komputerowa
Z punktu widzenia informatyki świat wygląda inaczej niż się dotąd wydawało naszym filozofom. Na przykład wedle tradycyjnych pojęć na temat naszego kalendarza, dwudzieste stulecie kończy się w sylwestra roku 2000. Ale nie w świecie komputerów. Tam datą przełomową jest północ w sylwestra roku obecnego. Powód – dość trywialny – wynika ze sposobu zapisu daty w szarych, krzemowych komórkach pamięci komputerowych. Jednak znaczenie, jakie w ostatnich latach jest udziałem gromadzenia i przetwarzania informacji powoduje, iż świat ogarnia bojaźń i drżenie na myśl o zbliżaniu się tej właśnie „okrągłej” daty. Oto komputerowa choroba na śmierć.
Nie trzeba wiele wyobraźni, by zauważyć, że nie byłoby problemu (przynajmniej teraz), gdyby to nie chrześcijanie narzucili światu swój kalendarz. Gdyby na przykład prześladowanie pierwszych chrześcijan okazało się skuteczne, Dionizy Mniejszy nie miałby okazji wprowadzić swoich pomysłów na nową rachubę czasu i kto wie, może dziś mielibyśmy rok 2753 A.U.C.? A gdyby Sobieski nie wybrał się był pod Wiedeń lub nie zdołał „dołożyć” tamże armii Kara Mustafy, może dziś byłby rok 1377. W obydwu przypadkach problem feralnej daty w komputerach nie zaistniałby. Oto przykład, jak historyczne zaszłości istotnie wpływają na współczesność.
„Gdybologia” w edukacji Społeczeństwa Informacyjnego
Do historycznej „gdybologii” zachęca w „Tygodniku Powszechnym” (nr 36/99) prof. Janusz Tazbir. Pisze m.in.: (...) najważniejszym celem nauczania historii w szkołach wyższych i średnich winno być wyrobienie u studenta czy ucznia krytycyzmu w traktowaniu przekazów źródłowych, nie zaś obarczanie jego pamięci możliwie największą ilością dat i wydarzeń. Tylko w ten sposób można bowiem uodpornić młode pokolenie na indoktrynację, która przecież trwa nadal, ustrzec przed wiarą w piekielne spiski, które decydują ponoć o losach świata, oduczyć traktowania dziejów jako rejestru żelaznych konieczności, których nie sposób było uniknąć.
To samo, mutatis mutandis, powiedzieć by można o nauczaniu w szkołach informatyki. Jak już wspomniałem niegdyś na tych łamach (Logika sieci, FA 2/98), w epoce dostępu do Internetu – pełnego ścieków informacyjnego oceanu – najważniejsza jest umiejętność krytycznej oceny znajdowanych tam treści. Inicjatywy typu „Internet dla szkół”, czy „Pracownia komputerowa w każdej gminie” są jak najbardziej godne poparcia. Jednak muszą im towarzyszyć odpowiednie zmiany w nauczaniu, w szczególności informatyki. Może uda się to zrobić przy okazji generalnej reformy oświaty? Z wypowiedzi prof. Tazbira w „Tygodniku Powszechnym” wynika, iż niebagatelną rolę może tu odegrać nowe („gdybologiczne”) podejście do nauczania historii. A można by jeszcze dodać przedmiot o nazwie „język polski”, którego program w większości obejmuje historię literatury. Umiejętność różnorodnego i krytycznego odczytywania dzieł literackich jest również bardzo bliska zdolnościom przydatnym do efektywnego korzystania z Internetu. Nauczyciele informatyki powinni się więc uczyć od historyków i polonistów.
Arogancja postępowców
Informatykom nie zaszkodziłoby poznawanie historii i literatury, a także innych gałęzi wiedzy. Może wtedy nie okazywaliby tak często ignorancji w dziedzinach nieinformatycznych. Bo łatwo wytłumaczalna jest okazywana często przez nich arogancja intelektualna, wyrażająca się dawaniem do zrozumienia (w bardziej lub mniej zawoalowany sposób), że informatyka jest najważniejszą z nauk i w ogóle największym osiągnięciem ludzkości. Rzut oka na historię nauki, nawet nie bardzo odległą, pozwala zauważyć, iż jest to jeden z ubocznych objawów szybkiego rozrostu i spektakularnych osiągnięć tej dziedziny wiedzy.
Analogie można dostrzec na przykład w rozwoju fizyki, techniki i technologii pierwszej połowy naszego stulecia. Rewolucja naukowa w dziedzinie poznania praw rządzących światem materii była źródłem daleko posuniętego, a – jak to dzisiaj oceniamy – w dużej mierze naiwnego optymizmu. Ludzkość zdawała się być o krok od raju na ziemi, a osiągnąć go miała dzięki zdobyczom techniki, opartych przede wszystkim na odkryciach fizyki. Ów optymizm znajdował wyraz m.in. w literaturze sf. Jednak dziś „technologiczne” powieści fantastyczno-naukowe z lat 50. czy 60. rażą czytelnika naiwnością i – jakże ograniczonym – widzeniem świata wyłącznie przez pryzmat technicznego oprzyrządowania, które miało rozwiązać wszystkie problemy. Pesymistyczne wizje w rodzaju orwellowskiego 1984 należały do rzadkości. Dwie kolejne dekady przyniosły naiwnym optymistom rozczarowanie, ale też szersze, bardziej wyważone spojrzenie na rzeczywistość.
Propagacja ignorancji
Rozwój techniki i technologii informatyczno-komunikacyjnych, który odbywa się na naszych oczach, jest tak szybki, że społeczna percepcja za nim nie nadąża. „Statystyczny Kowalski” pozostaje więc na łasce tych, którzy są „bardziej na bieżąco” albo przynajmniej starają się robić takie wrażenie. Zwykle są to informatycy, zawodowcy lub amatorzy. Oni wiedzą, co jest najważniejsze (oczywiście, wszystko, co się wiąże z przetwarzaniem informacji). W enuncjacjach na tematy komputerowe u autorów można zauważyć dużą pewność siebie, którą odbieram jako arogancję, i która mnie nieodmiennie drażni. Szczególnie, gdy wypowiedź jasno wykazuje niekompetencję. To kolejny przyczynek do zagadnienia „syndromu profesorskiego”, wspomnianego już kiedyś w tym miejscu
(FA 11/98).
Spektakularny przykład można spotkać w książeczce Johna O. Greena Nowa era komunikacji, wydanej w USA przed dwoma laty w serii Scientific American Focus, a na początku tego roku udostępnionej w polskim tłumaczeniu przez oficynę Prószyński i
S-ka. Dziełko to reprezentuje raczej optymistyczną wizję rozwoju komunikacji cyfrowej, a dzięki niej – ludzkości. Autor opisuje historie rozmaitych osiągnięć na polu telekomunikacji i komputerów oraz przedstawia opinie rozmaitych specjalistów co do ich znaczenia, możliwości, jakie stwarzają i przyszłości. Czyta się ciekawie. Aliści jak silny „zgrzyt” zabrzmiał mi fragment mówiący o światłowodach jako medium transmisji sygnałów: Chyba każdy widział nieskomplikowaną wersję światłowodu w sklepie ze sprzętem oświetleniowym: rozłożysty pęk „polimerowego spaghetti” ze świecącymi się końcówkami. Źródło na początku wiązki wprowadza światło do każdego z włókien, które „nie wypuszczają” go w tajemniczy sposób. Nawet pomimo zakrzywienia światłowodu światło dociera aż na jego koniec. Zazgrzytało mi tu słowo „tajemniczy”. Czy zjawisko całkowitego wewnętrznego odbicia, o którym powinien słyszeć każdy, kto choć trochę uważał na lekcjach dotyczących optyki geometrycznej, ma być tajemnicze? Może to określenie miało oznaczać, że autor książki go nie rozumie? Jeśli tak, to podejrzewam błąd tłumacza. Może on też nie zrozumiał.
pawel_misiak@wroclaw.home.pl
|