Academia.eduAcademia.edu

Filozofia i technika

2017

Rada serii "Festiwal Filozofii" prof. Jacek Migasiński (UW)-przewodniczący prof. Lech Witkowski (UJ)-zastępca przewodniczącego prof. Bogdan Banasiak (UŁ), prof. Agata Bielik-Robson (PAN) prof. Adam Chmielewski (UWr), prof. Jan Hartman (UJ), prof. Jerzy Kochan (US) prof. Jerzy Kopania (WSAP w Białymstoku, UwB), prof. Małgorzata Kowalska (UwB) prof. Krzysztof Matuszewski (UŁ), prof. Jadwiga Mizińska (UMCS) prof. Ryszard Różanowski (UWr), prof. Andrzej Szahaj (UMK), prof. Andrzej L. Zachariasz (URz) dr Piotr Wasyluk-sekretarz

FESTIWAL FILOZOFII FESTIWAL FILOZOFII tom IX Filozofia i technika Festiwal Filozofii to pozainstytucjonalna idea corocznych, (odbywających się od 2007 roku) tematycznych konferencji filozoficznych, będących spotkaniami badaczy, doktorantów, studentów oraz osób zainteresowanych szeroko pojętą humanistyką. Kolejnym edycjom Festiwalu towarzyszą wydarzenia artystyczne. Efektem spotkań jest również seria książkowa. tom IX Filozofia i technika INSTYTUT Uniwersytet Warmińsko-Mazurski w Olsztynie FILOZOFII OLSZTYN 2017 FESTIWAL FILOZOFII FESTIWAL FILOZ OFII tom 9 FILOZOFIA I TECHNIKA Redakcja naukowa Jacek Sobota Grzegorz Pacewicz Instytut Filozofii UWM w Olsztynie Olsztyn 2017 Rada serii „Festiwal Filozofii” prof. Jacek Migasiński (UW) – przewodniczący prof. Lech Witkowski (UJ) – zastępca przewodniczącego prof. Bogdan Banasiak (UŁ), prof. Agata Bielik-Robson (PAN) prof. Adam Chmielewski (UWr), prof. Jan Hartman (UJ), prof. Jerzy Kochan (US) prof. Jerzy Kopania (WSAP w Białymstoku, UwB), prof. Małgorzata Kowalska (UwB) prof. Krzysztof Matuszewski (UŁ), prof. Jadwiga Mizińska (UMCS) prof. Ryszard Różanowski (UWr), prof. Andrzej Szahaj (UMK), prof. Andrzej L. Zachariasz (URz) dr Piotr Wasyluk – sekretarz (sekretarz@ph-f.org) Recenzent Adam Grzeliński Redakcja: Grzegorz Pacewicz, Jacek Sobota Korekta: zespół Projekt okładki: Andrzej Kucner Wydawca Instytut Filozofii Uniwersytet Warmińsko-Mazurski w Olsztynie http://uwm.edu.pl/filozofia ISBN 978-83-60636-62-6 © Copyright by Instytut Filozofii UWM w Olsztynie, Olsztyn 2017 Rozpowszechnianie Instytut Filozofii UWM w Olsztynie ul. Kurta Obitza 1, 10-725 Olsztyn tel./faks 89 523 34 89, http://uwm.edu.pl/filozofia, e-mail: sekretariat-if@uwm.edu.pl Druk i oprawa Zakład Poligraficzny Uniwersytetu Warmińsko-Mazurskiego w Olsztynie ul. Jana Heweliusza 3, 10-724 Olsztyn SPIS TREŚCI Przedmowa (Jacek Sobota, Grzegorz Pacewicz) ……………………………..….……. 7 I. HUMANISTYCZNY WYMIAR TECHNIKI …………………………… 13 Andrzej Kucner (Uniwersytet Warmińsko-Mazurski w Olsztynie) Technologiczna redefinicja kultury ……………………………………... 15 Jarosław Strzelecki (Uniwersytet Warmińsko-Mazurski w Olsztynie) monada = Monada() - interpretacja obiektowa ………………………… 35 Aleksander Gemel (Uniwersytet Łódzki) Przestrzeń pojęciowa jako rama kategorialna dla zorientowanych obiektowo architektur poznawczych .…………………………………… 53 Tomasz Walczyk (Uniwersytet Warmińsko-Mazurski w Olsztynie) Percepcja w cyfrowym świecie ………………………………………….. 67 Grzegorz Pacewicz (Uniwersytet Warmińsko-Mazurski w Olsztynie) Speecdcubing a filozofia ………………………………………………… 85 Marcin Pełka (UMK w Toruniu) „Depozytariusz losu ludzkości” czy „nieszkodliwy wariat”? Hoene-Wroński jako filozof i technik ………......………………………... 97 II. TECHNIKA W PRAKTYCE ………………………………………….. 109 Ryszard Myhan (Uniwersytet Warmińsko-Mazurski w Olsztynie) Determinizm a przypadek ……………………………………………… 111 Piotr Drogosz (Uniwersytet Warmińsko-Mazurski w Olsztynie) Problemy technicznej realizacji logik …………………………………. 123 Marek Rabiński (Narodowe Centrum Badań Jądrowych) Czarnobyl – fakty i mity ……………………………………………….. 147 Malwina Marciniszyn-Jedeszko (Uniwersytet Warmińsko-Mazurski w Olsztynie) Aspekty, w których polskie leśnictwo może inspirować się filozofią …... 165 III. ODCIENIE POSTĘPU ………………………………………………... 175 Piotr Wasyluk (Uniwersytet Warmińsko-Mazurski w Olsztynie) Modele rozwoju historycznego a klasyczna koncepcja postępu ………..177 Leszek Kleszcz (Uniwersytet Wrocławski) W stronę „nowego wspaniałego świata” ……………………………… 197 Jacek Sobota (Uniwersytet Warmińsko-Mazurski w Olsztynie) Postęp technologiczny generatorem regresu moralnego? Paradoksalne oblicza postępu w literaturze science fiction ………………………….. 209 Jan Wadowski (Politechnika Wrocławska) Transcendencja czy reizacja? Tech-feedback jako wyzwanie dla człowieczeństwa w perspektywie godności i wolności ………………… 223 Grzegorz Dziobak (Uniwersytet Rzeszowski) Lewisa Mumforda gloryfikacja języka i deprecjacja techniki a język jako próba dominacji Google nad światem ………………………………… 241 Sebastian Dama (Gdańska Szkoła Wyższa) Τέχνη jako wyraz symbiotycznego braku w humanizmie na podstawie dziejów kultury zachodnioeuropejskiej ………………………………... 251 Krzysztof Kościuszko (Uniwersytet Warmińsko-Mazurski) O technikach (mechanizmach) eliminowania metafizyki – z perspektywy Witkacego ……………………………………………………………… 263 Piotr Bieranowski (Uniwersytet Warmińsko-Mazurski w Olsztynie) Humanizm techniczny w budownictwie – wpływ natury i techniki na nasze zdrowie ………………………………………………………………… 277 PRZEDMOWA I. Początek września, tradycyjnie już, jest czasem interdyscyplinarnej refleksji nad powiązaniami filozofii z różnymi aspektami rzeczywistości. W zeszłym roku, dziewiąta już edycja Festiwalu Filozofii organizowanego przez Instytut Filozofii UWM w Olsztynie, poświęcona była zetknięciu refleksji filozoficznej z problematyką technologiczną i naukową. Dobrą tradycją jest, że konferencji towarzyszą wydarzenia angażujące pozauczelniane instytucje i mieszkańców Olsztyna. Tym razem takim wydarzeniem okazała się niezwykle interesująca dyskusja na temat przyszłości energetyki jądrowej oraz zagrożeń i korzyści, jakie z niej płyną. Dyskusja, zorganizowana przez koło naukowe Wydziału Nauk Technicznych UWM oraz Miejski Ośrodek Kultury w Olsztynie, odbyła się w urokliwym wnętrzu Muzeum Nowoczesności mieszczącym się w Tartaku Raphelsonów. W debacie uczestniczyli: Marek Rabiński (Narodowe Centrum Badań Jądrowych/Polskie Towarzystwo Nukleoniczne), Dariusz Szwed (Zielony Instytut) oraz Jan Wadowski (Politechnika Wrocławska). Uczestnikom i organizatorom spotkania składamy w tym miejscu podziękowania. W ramach obrad konferencyjnych przedstawiciele różnych dyscyplin naukowych z wielu ośrodków debatowali na temat filozofii techniki, filozofii nauki, aspektów moralnych i aksjologicznych wynikających z rozwoju technologicznego, paradoksów związanych z ideą postępu i tym podobnych zagadnień. Rezultatem tych rozważań jest tom, który trzymacie Szanowni Czytelnicy w swoich dłoniach. Książka dzieli się – umownie – na trzy grupy zagadnień, a zatem trzy rozdziały, w których można by zapewne wyodrębnić zagadnienia bardziej szczegółowe. Po pierwsze, rozdział grupujący teksty na temat humanistycznego wymiaru czy też oglądu zagadnień cywilizacji technologicznej. Autorzy snują wieloaspektową refleksję na temat wpływu cywilizacyjnych zmian na różne „warstwy” człowieczeństwa, śledzą kulturowe przemiany, rejestrują pozytywy i negatywy technologicznych mutacji rzeczywistości nas otaczającej. Rozdział drugi tworzą artykuły opisujące rzeczywistość z punktu widzenia komentatorów i praktyków technologii, nauk przyrodniczych, logiki; nie są to jednak rozważania pozba- 8 wione akcentów humanistycznych czy też filozoficznych. Trzeci rozdział wreszcie koncentruje się na wieloznacznym pojęciu „postępu” – rozpatrywanego tu z różnorodnych perspektyw: aksjologicznej, historiozoficznej, literackiej. II. Refleksję humanistyczną nad współczesną cywilizacją rozpoczyna artykuł Andrzeja Kucnera koncentrujący się na zagadnieniu relacji między zjawiskami kultury a procesami, których źródłem i istotą są nowoczesne technologie informacyjne oraz wirtualne. Autor dostrzega złożoność związków nowoczesnych technologii i kultury, i zastanawia się nad ich znaczącymi konsekwencjami. „Informatyzacja” rzeczywistości nas otaczającej oznaczać ma, wedle Kucnera, odmienny sposób rozumienia kultury, opisywanej pojęciami „płynności”, „prędkości” „nomadyczności” itp. Filozoficznymi kontekstami informatologii zajmuje się również Jarosław Strzelecki, w nieco innym jednak kontekście. Analizując pojęcie informacji, przedstawia propozycję wykorzystania aparatury języków programowania do analizy Monadologii Leibniza. Jej wyniki ukazują wiele zaskakujących podobieństw między językami programowania a monadyczną strukturą świata zaproponowaną przez wielkiego filozofa nowożytności. Aleksander Gemel, pozostając w swym zajmującym tekście w kręgu nauk kognitywistycznych, zastanawia się nad problemem adekwatnej i możliwie najbardziej optymalnej, z obliczeniowego punktu widzenia, reprezentacji ludzkich procesów poznawczych w systemach sztucznych. Rozwiązanie, jakie proponuje autor artykułu, ma być adekwatne dla celów reprezentacji warstwy pojęciowej człowieka, a zarazem podkreślające rolę intuicji z punktu widzenia programowania systemów sztucznych. Rozważania z pogranicza filozofii i modnej obecnie kognitywistyki rozsnuwa również Tomasz Walczyk. Przedmiotem jego artykułu jest zagadnienie percepcji w świecie wirtualnym z punktu widzenia filozofii, a szczególnie już fenomenologii. Kwestie filozoficzne łączą się w tekście Walczyka z wynikami informatologii oraz dociekaniami nad fenomenem sztucznej inteligencji. Grzegorz Pacewicz dostrzega, mogłoby się zdawać, że odległe związki tzw. speedcubingu (czyli sztuki układania popularnej kostki Rubika na czas) z koncepcjami wybitnych filozofów. Wypracowane metody układania kostki wskazują na to, że wiele strategii wykorzystywanych przez zawodników prowadzi do bardzo podobnych rezultatów. Ko- 9 respondować to ma z tezami Karla Poppera oraz Stefana Amsterdamskiego, że istnieją różne wzorce racjonalności. W speedcubingu wzorce te są na siebie nieprzekładalne i funkcjonują równolegle do siebie. Wreszcie Marcin Pełka przedstawia niezwykle specyficzny stosunek Józefa Hoene-Wrońskiego do techniki, która ma prowadzić człowieka ku poznaniu Absolutu. Autor prezentuje niezwykłe osiągnięcia Wrońskiego w dziedzinie naukowej (matematyka), podziwia również jego talenty wynalazcze. III. Drugi rozdział książki otwiera artykuł Ryszarda Myhana, który analizuje problem przypadkowości i zdeterminowania w naukach ścisłych. Jak wiadomo, w fizyce kwantowej kwestia ta jest przedmiotem dyskusji w związku z odkryciami z początku XX wieku. Jednak również z technicznego punktu widzenia jest to trudne zagadnienie, ponieważ każdy pomiar obarczony jest błędem, a to może prowadzić do trudności w rozpoznaniu związków przyczynowo-skutkowych. Dość podobną tematykę podejmuje Piotr Drogosz, piszący o trudnościach związanych z techniczną realizacją idei i paradygmatów logik aspirujących do reprezentowania światopoglądu naukowego. Autor prezentuje przy tym punkt widzenia przedstawiciela nauk technicznych i – jako praktyk – zwraca uwagę na odmienność metodologii technicznej oraz metodologii naukowej. Marek Rabiński konfrontuje mity na temat katastrofy w Czernobylu z faktami jej dotyczącymi. Przedstawia przyczyny katastrofy, omawia jej przebieg, opisuje sposób życia ludzi w strefie wokół elektrowni oraz niespodziewany rozwój przyrody (fauny i flory) spowodowany deficytem ludzi na tych terenach (daje to asumpt do refleksji nad fatalnym wpływem działalności człowieka na świat ożywiony). Rabiński przedstawia przyszłość tej strefy w najbliższych latach w związku z planowanymi zmianami w ustawodawstwach Białorusi i Ukrainy. Tekst Malwiny Marciniszyn-Jedeszko zamykający ten rozdział książki, można interpretować jako korespondujące z poprzednim. Autorka podejmuje tematykę gospodarki leśnej w Polsce i jej wpływu na środowisko i życie człowieka. IV. Rozważania nad paradoksalną i wieloznaczną ideą postępu otwiera artykuł Piotra Wasyluka. Autor dokonuje przeglądu historiozoficznych koncepcji postępu; uważa, że zrozumienie idei postępu dziejowego zależy w dużej mierze od określenia modelu zmienności historycznej oraz 10 sposobu, w jaki dokonuje się wartościowania czasu historycznego. Koncepcją, której zasadności Wasyluk w swym tekście broni, jest model sieciowy procesów dziejowych, stanowiący w istocie ideę postępu zdecentralizowanego. Jego kierunek i dynamikę napędzać mają potrzeby twórcze zbiorowości. Wątpliwości wobec optymistycznej wizji dziejów zgłasza Leszek Kleszcz, który przedstawia w krótkim rysie historycznym przemiany idei „nowego wspaniałego świata” – od jej wydźwięku pozytywnego (m.in. w Nowej Atlantydzie F. Bacona) po ujęcia XX-wieczne, mające posmak raczej ironiczny (twórczość Huxleya, Orwella). Autor staje po stronie wielkich sceptyków wobec idei instrumentalnego postępu społecznego – odwołuje się do koncepcji Dostojewskiego, Gasseta, Adorno czy Postmana i Fukuyamy. Podobną wymowę ma artykuł Jacka Soboty, prezentujący wizje postępu cywilizacyjnego w literaturze science fiction. Otóż, paradoksalnie, fantastyka naukowa, której główną funkcją jest kreślenie rzeczywistości społecznej w przyszłości, a także tłumaczenie meandrów narastającej zmienności świata, okazuje się, w opinii autora, niezwykle krytycznie nastawiona wobec owych zmian. Jan Wadowski zajmuje się zagrożeniami związanymi z rozwojem technologicznym. „Totalny” charakter współczesnej techniki ma, zdaniem autora, sprawiać, że przenika ona każdą dziedzinę życia ludzkiego, daje człowiekowi złudzenie transcendencji i faktyczności reizacji, ignorując jego godność i wolność, co jest szczególnie widoczne w propozycjach transhumanistów. Mimo takich tendencji, można również przewidywać scenariusz umiarkowanie optymistyczny, kiedy to ergonomiczna mentalnie technika wesprze człowieka w rozwoju społecznym, intelektualnym, emocjonalnym i duchowym, wyzwalając go z ograniczeń ciała i umysłu. Grzegorz Dziobak zajmuje się, niesłusznie nieco już zapomnianymi koncepcjami filozofa techniki, Lewisa Mumforda. Otóż Mumford przypisywał językowi rolę szczególną, rolę najważniejszego, obok rytuału i organizacji społecznej, artefaktu człowieka. Język jest najdoskonalszym narzędziem do ujmowania całości ludzkiego doświadczenia. Swoistą parodią myśli Mumforda ma być, wedle Dziobaka, dzisiejsze wykorzystywanie wyszukiwarki internetowej Google, która daje użytkownikom złudne obietnice dotarcia do potężnych zasobów informacji, a w istocie dokonuje manipulacji i diagnozowania ludzkich preferencji w celach instrumentalnych. Sebastian Dama odwołuje się do starożytnej koncepcji nauki, by wykazać niedoskonałość koncepcji współczesnych. Już u starożytnych Egipcjan, wedle autora artykułu, można było dostrzec jedność techniki 11 oraz sfery ducha człowieka. Wiedza starożytnych Greków łączyła się z tym, co doczesne, była blisko praktyki społecznej, co ma ją odróżniać od współczesnego pojmowania nauki i technologii, zorientowanych na partykularny zysk ekonomiczny. Ostatnim artykułem jest tekst Krzysztofa Kościuszki, który zajmuje się postacią wielkiego pisarza i wizjonera Stanisława Ignacego Witkiewicza. Witkacy kreował wizję świata, w którym metafizyka zanika, ponieważ ludzkość zamienia się w zmechanizowane mrowisko. Kościuszko dostrzega realizację owej mrocznej wizji w świecie współczesnym; ma być to świat dążący do coraz większej „zyskonośnej” wydajności poprzez przyrosty „technologizacji”, skomputeryzowania i zinformatyzowania rzeczywistości, co z kolei powoduje zanik pierwiastka humanistycznego. Pewnym nieoczekiwanym efektem uzyskanym przez redaktorów jest struktura tego tomu. Otóż układa się ona nie tylko wedle oczywistych segmentów tematycznych, ale również ze względu na aksjologiczne „zabarwienie” diagnozy współczesnego świata, współczesnej cywilizacji. Na początku mamy teksty optymistyczne, opisujące z nadzieją wpływ technologicznych wzrostów na kulturę i społeczeństwo. W kolejnych artykułach optymizm wydaje się „rozrzedzać” i powoli przechodzić w pesymistyczne i krytyczne oceny współczesnego obrazu świata. Oba podejścia wydają się cenne, niosą ze sobą bowiem nadzieje i przestrogi. Chcielibyśmy w tym miejscu podziękować wszystkim uczestnikom IX edycji Festiwalu Filozofii oraz autorom tekstów tu opublikowanych. Olsztyn, 16 lipca 2017 r. Jacek Sobota Grzegorz Pacewicz I. HUMANISTYCZNY WYMIAR TECHNIKI Andrzej Kucner Uniwersytet Warmińsko-Mazurski w Olsztynie TECHNOLOGICZNA REDEFINICJA KULTURY 1. Poza kulturalizmem i technocentryzmem Rozważania poświęcam zagadnieniu relacji między zjawiskami kulturowymi a procesami, których źródłem i istotą są nowoczesne technologie: cyfrowe, informacyjne oraz wirtualne. Celem jest analiza zależności między rozwojem technologii a formami kultury oraz sposobami ich rozumienia. Podejmuję próbę odpowiedzi na pytanie o charakter przeobrażeń kultury, o granice jej autonomii szczególnie w perspektywie zjawisk społecznych, konsumpcyjnych stymulowanych rozwojem i upowszechnianiem technologii. Interesuje mnie również kwestia indywidualności, kreatywności, autentyczności jako wartości odzwierciedlających się w kulturze, a technologicznie indyferentnych lub zmarginalizowanych. Rozważania koncentruję na technologiach informacyjnych i cyfrowych, technologiach obrazu oraz wytworach rzeczywistości wirtualnej. Te trzy czynniki współcześnie najsilniej wpływają na kształt i rozumienie zjawisk kulturowych. Konsekwencje związków technologii i kultury są złożone i otwarte – każda z nich nieustannie się przeobraża, a wraz z rozwojem kształtują się nowe rodzaje determinacji. Ujawniają się one nie tylko w zjawisku społeczeństwa informacyjnego, lecz wynika z nich również odmienny sposób rozumienia samej kultury, opisywanej współcześnie pojęciami płynności, prędkości, symulakryzacji, nomadyczności, bomby informacyjnej, społeczeństwa ryzyka, wirtualnej kompresji czasu i przestrzeni, kultury wymiany, internetu rzeczy itp. W rezultacie tytułowa technologiczna redefinicja kultury to kwestia, którą można wyrazić w pytaniu, w jaki sposób przemiany technologiczne kształtują aktualny obraz i rozumienie kultury? Czy kulturze przysługuje autonomia, czy też jej rozwój stał się wtórny i zależny od technologii? Czy w dalszym rozwoju kultury nowe istotne zjawiska mogą stać się niezależne od przemian technologii? Obok tych pytań można sformułować jeszcze szereg szcze- 16 gółowych kwestii problematyzujących relację kultury, techniki i technologii oraz dwóch antagonistycznych optyk – kulturalistycznej oraz technocentrycznej − w jakich tę relację można rozstrzygnąć1. Symptomatyczna dla myślenia podporządkowanego regułom i swoistości nowoczesnych technologii jest perspektywiczność, w której czynnik kulturowy uległ relatywizacji, a niekiedy również marginalizacji. Zwykle widoczne jest to w rozległych i gruntownych analizach zależności między różnorodnymi wytworami technologii przy niemal całkowitej obojętności wobec kwestii kultury lub gruntownej redukcji jedynie do zasobów kultury w sieciach globalnych2. Wspomniana perspektywiczność ujawniała się też zupełnie inaczej, np. jako przekonanie o koniecznym związku techniki z filozofią moralną (Paul Goodman), czy w nieco archaicznym wyobrażeniu dwóch antagonistycznych kultur, istniejących w związku z dwoma gałęziami nauki (Charles Snow), czy we współczesnej koncepcji trzeciej kultury (John Brockman)3. Mimo różnic między nimi, w każdym z tych przypadków ujawnia się potrzeba tworzenia mo- Krótkiego komentarza wymaga tytułowe pojęcie redefinicji. Przedrostek „re-” sugeruje zmianę dotychczasowej definicji kultury, w istocie chodzi jednak o zdecydowanie szersze zjawisko, które wyraża się w gruntownej przemianie warunków, w jakich rozwija się, istnieje i jest rozumiana kultura. Trudno o oddanie jej istoty za pomocą wyliczenia możliwych składników czy wskazania ich funkcji, co nierzadko stawało się sposobem jej objaśniania. Tytułowa kwestia ma otwarty charakter i odnosi się do aktualnie zachodzących procesów. Ich charakter trafnie oddaje komentarz Ryszarda Kluszczyńskiego, piszącego przed kilkunastu laty: „Pojawiające się we współczesnych dyskursach naukowych określenia w rodzaju: cyber-tożsamość, cyber-ciało czy cyber-płeć […], próbują nazwać i scharakteryzować nowe jakości tożsamości ludzkiej, jakości transcendujące niegdysiejsze granice i standardy”. Wspomniane transcendowanie przez technologię kultury w istocie zarazem determinuje tę ostatnią. Zob. R. W. Kluszczyński, Społeczeństwo informacyjne. Cyberkultura. Sztuka multimediów, Rabid, Kraków 2001, s. 43. 2 Egzemplifikację może stanowić obszerna praca Społeczeństwo informacyjne, red. J. Papińska-Kacperek, WN PWN, Warszawa 2008, s. 237 i n. Prawdopodobne jest przekonanie, że w wielości i dynamice dokonujących się przemian stricte filozoficzny namysł nad ich sensem nie jest rdzenny i kluczowy. Widać to szczególnie w próbach szacowania szans i zagrożeń na podstawie wybranych losowo kilku przykładów bez jakichkolwiek wysiłków głębszej analizy i myślenia prospekcyjnego (por. np. s. 44-45). 3 C. P. Snow, Wykład Rede’owski. 1959 Dwie kultury, w: idem, Dwie kultury, przeł. T. Baszniak, Pruszyński i S-ka, Warszawa 1999, s. 77-95; Trzecia kultura, J. Brockman (red.), przeł. P. Amsterdamski, CIS, Warszawa 1996. 1 17 ralnego i kulturowego kontekstu techniki oraz konieczność rozstrzygnięcia dylematu jedności lub różnorodności kultury czy granic jej autonomii4. Kulturalizm, oparty na przekonaniu o autonomii, jakościowej odrębności zjawisk kulturowych oraz ich nieredukowalności do zjawisk innego rodzaju (przyrodniczych, społecznych, cywilizacyjnych, technicznych), wyraża głęboką wiarę w skuteczność uzasadnienia autotelicznych wartości, będących fundamentem tworów kultury. Podobnie rzecz się ma w przypadku technocentryzmu i technokratyzmu, wskazujących na hegemonię techniki i technologii jako najważniejszych i całkowicie suwerennych czynników przemian człowieka, społeczeństwa, władzy i kultury5. Jak sądzę, żaden z tych poglądów, z powodu jednostronności oraz towarzyszącej każdemu z nich pewnego rodzaju apodyktyczności, nie stanowi dobrego i dogodnego punktu wyjścia do zrozumienia dynamicznej więzi obu dziedzin. Za potrzebą odejścia od nich ze względu na antynomiczność przemawia również konieczność poszukiwania (lub tworzenia i tłumaczenia) wzajemnych relacji. W takim przypadku usiłowanie zrozumienia związków kultury i technologii polega nie tyle na ustalaniu i wyjaśnianiu faktów, ile na budowaniu narracji, tłumaczącej dokonujące się procesy przemian każdej z nich oraz ich wzajemne interakcje. Konfrontacja obu dziedzin skłania do postulatu o jednakowo istotnej potrzebie kulturowej interpretacji znaczenia technologii, głównie w zakresie przeobrażeń życia społecznego i form myślenia oraz redefiniowania zjawisk kulturowych pod wpływem przemian technologicznych. Wynika to stąd, że nierzadko nowych zjawisk nie sposób uchwycić i wyjaśnić za pomocą ugruntowanych kategorii i zasad, gdyż te ostatnie nie odpowiadają zakresowi przemian i ich następstw (rzecz dotyczy nie tylko prawa, moralności, sfery obyczajowej i innych relacji społecznych). Twórcze okazuje się interakcyjne przenikanie się obu dziedzin i oddziaływania ujawniające się w takich warunkach. Szczególnie wtedy kultura pełni rolę sensotwórczego źródła lub perspektywy technologii. Kultura jest wówczas otoczeniem (tłem) technologii, w nim zaś kształ- N. Postman twierdzi, że żadna z kultur nie może uniknąć „negocjacji z techniką”, zaś efektem tego jest porozumienie przynoszące obopólne zmiany. Negocjacyjny charakter relacji skłania ku temu, by ślepo nie przyjmować zmian technologicznych i zachować wobec nich krytyczny dystans, daleki od technofilskiego optymizmu. N. Postman, Technopol. Triumf techniki nad kulturą, przeł. A. Tanalska-Dulęba, PIW, Warszawa 1992, s. 13-15. 5 Por. V. Dusek, Wprowadzenie do filozofii techniki, przeł. Z. Kasprzyk, Wyd. WAM, Kraków 2011, s. 47-62. 4 18 tują się wzorce myślenia, wartości, dokonuje ich hierarchizacja i uzasadnienie. Nie zawsze ta relacja ma charakter symbiotyczny, gdyż pragmatyczno-instrumentalna logika rozwoju technologii oraz mnogie ścieżki rozwoju kultury nie zawsze się pokrywają, jednak w praktyce ostatecznie dochodzi do ich krzyżowania, a niekiedy bywają nawet współbieżne. To wzajemne przenikanie się problemów techniki i różnych aspektów kultury, w tym również i filozofii, było szczególnie widoczne od chwili, gdy nauka uległa stopniowej korekturze pod wpływem dążenia do podporządkowania jej instrumentalnym zastosowaniom (wiedza i technika jako warunki panowania). To dążenie ujawniało się w nowożytnym optymizmie Bacona, oświeceniowych projektach Saint-Simona, pozytywizmie Comte’a, technokratyzmie Veblena czy we współczesnych konceptach łączących np. feminizm z postulatywnym wykorzystaniem wiedzy technicznej w zakresie reprodukcji, organizacji życia zawodowego, nauki6. 2. Technicyzacja kultury i kulturalizacja techniki Potrzeba kulturowej interioryzacji techniki i technologii nie wzbudza większych kontrowersji. Z jednej strony, kultura sensu largo jest tą dziedziną życia i działania człowieka, która nieustannie afirmatywnie lub krytycznie wchłania wytwory techniki i technologii. Powszechnie uobecniają się one w sztuce, muzyce, wyraziście wpływają na ludzkie postępowanie i twórcze myślenie, przeobrażają kulturę słowa i obrazu. Są w nich narzędziami, lecz jednocześnie mogą decydować o formach i sposobie przekazu artystycznych wypowiedzi. W tym przypadku technika i technologia nie muszą być wyłącznie synonimami nowoczesności i innowacyjności, choć takie myślenie wydaje się dominujące. Jego alternatywę stanowi resemiotyzacja jako nowoczesne wykorzystanie historycznych wytworów, technik, rozwiązań, wzorców oraz ich restytucja przy pomocy nowoczesnych środków i możliwości, np. kompozytowe tradycyjne instrumenty muzyczne, analizy historycznych dzieł malarskich i rzeźbiarskich przy pomocy nowoczesnych technik obrazowania, zaawansowane technologicznie rekonstrukcje zdarzeń historycznych lub zjawisk kulturowych, powstanie fotografii, a następnie jej przeobrażenia w powiązaniu z technologiami cyfrowymi, mediami i internetem7. Aparat fotograficzny − idąc za intuicją Viléma Flussera – jest narzędziem W syntetyczny sposób kwestie te zreferował m.in. V. Dusek, Wprowadzenie do filozofii techniki…, s. 150-171. 7 Te ostatnie analizuje i komentuje Josè van Dijck. Sens zmiany, jaka dokonała się za sprawą czynników technicznych sprawił, że obrazy fotograficzne zostały 6 19 tworzącym obrazy techniczne, którym przypisujemy informacyjną treść i znaczenie symboliczne, to zaś ma decydujące znaczenie, by uznać je za twory i składniki kultury, a nie tylko efekty działania światła na elementy światłoczułe8. Nie jest to jakaś szczególnie odkrywcza konstatacja, eksponuje jednak technogeniczne aspekty kultury, bez których istotna część jej współczesnego oblicza w ogóle by nie istniała. Innymi słowy, technika i technologia nie tylko determinują kierunki rozwoju, ale w ogóle stały się warunkiem możliwości kultury. Odwołanie do technicznych źródeł kultury nie służy tutaj jej redukcji, a głównie pokazaniu, że kreatywne działanie człowieka łączy się z uprzednio stworzonymi możliwościami technicznymi9. Przykłady fotografii, wideoartu czy grafiki komputerowej uzmysławiają techniczno-technologiczny fundament wielu współczesnych zjawisk kulturowych, a jednocześnie pozwalają rozumieć sztukę w sposób trwale powiązany z zastosowanymi urządzeniami i środkami technicznymi. Łącząc technologie informatyczne z najpopularniejszymi formami komunikacji społecznej, łatwo uzmysłowić sobie skalę tej części kultury, która współcześnie rozwija się w ścisłej więzi z wykorzystywanymi urządzeniami, oprogramowaniem, globalna siecią, mnogością kanałów komunikacji itp. Podsumowując, mnogość możliwych zastosowań techniki i technologii uzmysławia trwałe ich powiązanie z kulturą i skłania do wniosku o istotnym głównie analitycznie rozróżnieniu tych dwóch sfer, w praktyce bowiem historię rozwoju człowieka jako istoty kulturowej pisać można przez pryzmat jego kolejnych włączone w procesy, których zasięg wyznaczają technologie informacyjne, powiązane z nimi działania ekonomiczne i społeczne. Ich wyróżnikiem jest ciągłe modyfikowanie treści: „Współczesne koncepcje ciała, umysłu, wyglądu i pamięci są w równym stopniu warunkowane przez obecny w kulturze stan ciągłej modyfikacji. Nasze nowe narzędzia współgrają po prostu z mentalną elastycznością, która pozwala przebudowywać własną tożsamość i przerabiać cielesność”. J. van Dijck, Zmediatyzowane wspomnienia w epoce cyfrowej, w: Fotospołeczeństwo. Antologia tekstów z socjologii wizualnej, red. M. Bogunia-Piotrowska, P. Sztompka, Wyd. Znak, Kraków 2012, s. 499. 8 V. Flusser, Ku filozofii fotografii, przeł. J. Maniecki, Wydawnictwo Aletheia, Warszawa 2015, s. 65. 9 Flusser tłumaczy to następująco: „Aparat fotograficzny dobrze ilustruje taką robotyzację pracy i to wyzwolenie człowieka do gry. Jest inteligentnym narzędziem, gdyż wytwarza obrazy automatycznie. Fotograf nie musi już, jak malarz, koncentrować się na pędzlu, lecz może całkowicie oddać się grze z aparatem. Praca do wykonania, tj. odbicie obrazu na powierzchni, następuje automatycznie: strona narzędziowa aparatu jest «załatwiona», a człowiek zajmuje się tylko aspektem «zabawowym» aparatu. V. Flusser, Ku filozofii fotografii…, s. 69. 20 osiągnięć technicznych i tworzonych technologii. Niekiedy nawet wyprzedzają one rozwój samej kultury, co łatwo dostrzec tam, gdzie np. wytworom najnowszych technologii brak niekiedy wykładni etycznej lub gdy wywołują one dylematy moralne. Przypadki, gdy technika i technologia bywają instrumentem i potencjałem twórców kultury, mogą również być inspiracją twórczych aktów10. Owa interioryzacja przybiera szczególną postać w formie wytworów kultury masowej, powstającej za sprawą możliwości masowego tworzenia i udostępniania dóbr kultury. Z drugiej strony, spory o źródła, logikę i następstwa jej rozwoju okazały się przedmiotem namysłu twórców współczesnych stanowisk i szkół filozoficznych. Kulturowej interioryzacji techniki i technologii towarzyszyło dążenie do krytycznej analizy i waloryzacji przemian cywilizacyjnych i społecznych, dokonujących się za ich sprawą. Od dawna stanowiło to przedmiot filozofii (m.in. filozofii dziejów, filozofii techniki, filozofii kultury). O ile na przełomie XIX i XX wieku pytania o istotę techniki były znamienne dla filozofii tamtego czasu, o tyle współczesne filozofowanie koncentruje się głównie na problemie tego, co zostaje z kultury poddanej przemianom technologicznym, zaprogramowanej konsumpcji, wirtualnej partycypacji, logice wizualizacji itp. Kwestie antropologiczne oraz społeczne wyznaczały odrębne płaszczyzny poddające wartościowaniu rozwój techniki i technologii oraz implikowały kierunki ich rozwoju i oceny. W rezultacie na przestrzeni wieków w szczególny sposób uwidaczniało się to na przykład w licznych utopiach, zarówno zorientowanych optymistycznie (Tommaso Campanella, Francis Bacon), jak i zawierających wizje nieuchronnego upadku człowieka na skutek negatywnych następstw rozwoju techniki i technologii (Jean Jacques Rousseau, Oswald Spengler)11. Ocena tych przemian jest dużo bardziej złożona aniżeli wynikałoby to z prostego rozróżnienia na opty- 10 Por. np. Art. And Technology, http://www.art.aau.dk/ (data dostępu: 9.08.2016). Również jako nowoczesny, interdyscyplinarny kierunek studiów: http://www.en.aau.dk/education/bachelor/art-technology (data dostępu: 9.08.2016). Przykłady technologicznych przekształceń sztuki prezentuje strona 7 Ways Technology is Changing How Art is Made (http://www.smithsonianmag.com/arts-culture/7-ways-technology-is-changing-how-art-is-made-180952472/?no-ist, data dostępu: 9.08.2016) 11 Pozytywne i negatywne aspekty przyszłego rozwoju jako możliwe scenariusze prezentują m.in. E. Brynjolfesson i A. McAfee (Drugi wiek maszyny. Praca, postęp i dobrobyt w czasach genialnych technologii, przeł. B. Sałbut, MT Biznes Sp. Z o.o., Warszawa 2014, s. 196 i n.). 21 mizm i pesymizm w kwestii ich charakteru. Wspomnianą złożoność odzwierciedlają zarówno kryteria ocen, jak również interpretacja samych przemian. W pierwszym przypadku chodzi o wskazanie wartości, które stałyby się miarą oraz sensotwórczym wyrazem przemian, oraz opowiedzenie się za ich auto- lub heteronomicznością, a więc o to, czy technika i technologia tworzą własny, autonomiczny świat wartości, czy też do ich zrozumienia niezbędne jest odwołanie się do wartości zewnętrznych, np. społecznych, utylitarnych. W drugim przypadku idzie o wskazanie modelu będącego podstawą rozumienia przemian świata techniki: linearnego, cyklicznego, sieciowego, a także emergentnego lub ewolucyjnego12. Wybór któregokolwiek z nich narzuca odmienny typ narracji, a w następstwie tym samym zdarzeniom i procesom (np. informatyzacji, cyfryzacji, wirtualizacji) nadaje inny charakter. Zmierzam do tego, by pokazać, iż sens przemian nie jest jedynie czymś immanentnym i odkrywanym, ale wynika głównie ze sposobu interpretacji i tworzonego rozumienia. Fakty, ich interpretacja i ocena z perspektywy uznanych wartości staje się wówczas fundamentem interpretacji, a w połączeniu z wnioskami tworzą one odrębne sposoby rozumienia. Ich wielość uzmysławia niejednoznaczny, otwarty, a nierzadko ambiwalentny charakter przemian technicznych. Na poziomie interpretacji technologię wiązano zarówno z wojną, jak również wskazywano ją jako środek rozwiązywania problemów społecznych. Próby rozstrzygnięcia kwestii jej wartości skutkowały zarówno przerażającymi hipotezami nieuchronnej destrukcji ludzkości, jak również wysiłkami jej użytecznego wykorzystania. Ta niejednoznaczność skłania do wniosku o heteronomicznym charakterze ocen rozwoju techniki i technologii. Innymi słowy, zawarty w nim potencjał wymaga odwołania do zewnętrznych intencji i celów działania, by ostatecznie dokonać ich oceny. Same przez się wydają się neutralne, w powiązaniu zaś z pozatechnicznymi celami, ujawniają swój potencjał. Można też uznać, iż tak silna ambiwalencja możliwych konsekwencji wymaga odrzucenia ich abstrakcyjnego rozumienia na rzecz konkretnych form techniki i technologii oraz zastosowań. Trzy kluczowe procesy, które w praktyce są ze sobą powiązane, a współcześnie mogą być traktowane jako istotne technologiczne czynniki przekształcania i redefiniowania kultury to informatyzacja, cyfryzacja oraz wirtualizacja. Mogą one być analizowane na poziomie wiedzy technicznej (i tak dzieje się też najczęściej), lecz również wymagają Sieciowy model rozwoju może być traktowany jako jeden z przykładów przenikania do filozofii wzorców myślenia o rodowodzie technologicznym (informatycznym), gdzie funkcjonowanie jednostki jest opisywane z perspektywy ról i relacji, w jakich istnieje w bliższym i dalszym otoczeniu. 12 22 niego ogólniejszego namysłu nad tym, w jaki sposób ich rozwój wpływa na przeobrażenia i rozumienie kultury i społeczeństwa. Każdy z tych procesów skutkuje przekraczaniem historycznych uwarunkowań rozwoju, dotychczasowych ścieżek analizy i rozumienia kultury oraz powstawaniem zupełnie nowych determinant i form rozwoju. W ciągu dwóch ostatnich dekad przyniósł nie tylko rozwój teorii społeczeństwa informacyjnego (pojęcie − jak wiadomo − jest zdecydowanie starsze), cyberkultury i światów wirtualnych, w których, parafrazując Jeana Baudrillarda, człowiek, uwodzony kolejnymi symulakrami, egzystuje w stanie niemal całkowitego wyparcia rzeczywistości i zastąpienia jej powszechnie dostępnymi tworami technologii oraz kalkulacją i uzasadnieniem rosnącego ryzyka implozji porządku i sensu dokonujących się przemian13. Rozumienie wspólnoty, przeobrażanej za sprawą technologii sieciowych, wymaga innego spojrzenia na konstytutywne relacje. Wśród nich traci na znaczeniu terytorialność, fizyczna bliskość czy lokalność. Społeczeństwo sieci istnieje w dynamicznej przestrzeni przepływów (kapitału, informacji, form organizacji, technologii obrazów, dźwięków, symboli itp.)14. Przy konkretyzacji perspektywy rozważań ogólna logika przemian technologii odzwierciedla się w jednostkowych zdarzeniach, mających jednak globalny zasięg i powszechną siłę oddziaływania. Innymi słowy, skala i kierunek przemian podporządkowane są jednemu procesowi konsumpcji, gdy za sprawą technologii nieustannie rozwija się globalna produkcja, globalna dystrybucja, globalne kształtowanie potrzeb oraz sposoby ich zaspokajania. To jedna strategia wytwarzania i użytkowania rzeczy, a następnie ich wymiany na inne. W metaforze płynnego życia konsumpcja ujawnia się jako jeden stały element. Owo płynne życie, jak pisał Bauman: traktuje […] świat oraz wszystkie jego ożywione i nieożywione elementy jako przedmioty konsumpcji, a więc przedmioty, które tracą swoją użyteczność (a co za tym idzie: swój blask atrakcyjność, siłę przyciągania i wartość) w miarę ich używania. Płynne życie ocenia wszystkie ożywione i nieożywione elementy świata według kryteriów konsumpcyjnych15. Por. J. Baudrillard, O uwodzeniu, przeł. J. Margański, Sic!, Warszawa 2005, s. 55; idem, Symulakry i symulacja, przeł. S. Królak, Sic!, Warszawa 2005, s. 189 i n. 14 Zob. M. Castells, Społeczeństwo sieci, przeł M. Marody, K. Pawluś, J. Stawiński, S. Szymański, WN PWN, Warszawa 2010, s. 411 i n. 15 Z. Bauman, Płynne życie, przeł. T. Kunz, Wyd. Literackie, Kraków 2007, s. 17. 13 23 3. Kultura w obliczu technologii informacyjnych i cyfrowych W jaki sposób przeobraża się kultura pod wpływem rozwijających się i upowszechniających technologii informacyjnych oraz postępującej cyfryzacji? Analiza historycznych i współczesnych przemian techniki i technologii skłania do tezy, że wartości, które opisują głównie jakościową stronę ich rozwoju, stopniowo się autonomizują. Innymi słowy, w rozwoju techniki i technologii coraz większe znaczenie zyskują wartości powstające pod ich wpływem i w ścisłym związku z nimi. Doskonałym przykładem takiego sposobu myślenia są wnioski, jakie formułują E. Brynjolfesson i A. McAfee. Według nich, sieci, oprogramowanie i sprzęt komputerowy oraz związane z nimi technologie cyfrowe, stanowią źródło bezprecedensowego postępu dokonującego się na naszych oczach: „Wkraczamy – jak piszą – w drugą epokę technologiczną”16. Twierdzą oni, że technologie cyfrowe są (i nadal będą) źródłem korzyści, które w syntetycznym ujęciu wiodą do tego, że w wymiarze społecznym osiągniemy większe możliwości wyboru oraz większą wolność. Na skutek cyfryzacji – a więc przeistoczenia w bity, które mogą być przechowywane w komputerze i przesyłane za pośrednictwem sieci – wszystko zyskuje pewne dziwne, ale niesamowite właściwości. Powstaje bowiem świat, który rządzi się innymi regułami gospodarczymi – w którym miejsce niedoboru zajmuje nadmiar. Wykażemy więc, że dobra cyfrowe różnią się od tych fizycznych i że ta różnica ma istotne znaczenie. […] Cyfryzacja ma pozytywny wpływ na nasz świat fizyczny, a znaczenie tych zmian będzie się tylko nasilać. Pośród historyków gospodarki panuje powszechna zgoda co do tego, że – jak ujął to Martin Weitzman – «długoterminowy wzrost zaawansowanej gospodarki zależeć będzie głównie od przebiegu postępu technicznego». My wykażemy, że postęp techniczny dokonuje się w tempie wykładniczym17. Trzeci wniosek odnosi się do następstw cyfryzacji, mających rewolucyjny charakter. W ich wyniku, obok licznych korzyści, pojawią się negatywne zjawiska gospodarcze, m.in. w sferze zatrudnienia. Masowe bezrobocie strukturalne stanie się skutkiem niedostosowania zawodowego do przeobrażeń i wymagań rynku pracy, gdyż „nigdy wcześniej posiadanie wyjątkowych umiejętności zawodowych czy odpowiedniego wykształcenia nie liczyło się aż tak bardzo, teraz bowiem stanowią one klucz do wykorzystania technologii w celu tworzenia i wychwytywania 16 17 E. Brynjolfesson, A. McAfee, Drugi wiek maszyny..., s. 14. Ibidem. 24 wartości”18. Brynjolfesson i McAfee nie analizują jednak kwestii rodzajów czy hierarchii wartości. Ich rozważania pod tym względem rażą jednostronnością, nikłą oryginalnością czy wnikliwością, choć wskazują na procesy i mechanizmy przemian. Potencjał zawarty w cyfryzacji danych skłania do wniosku o jego otwartości i niezupełnej określoności dla przyszłej kultury. Wraz z rozwojem technologii cyfrowych w wymiarze praktycznym dokonał się przełom w sposobach gromadzenia danych i zarządzania nimi (w tym udostępniania). Widziany w szerszej perspektywie, ów przełom reorientuje sposoby posługiwania się tym (oraz rozumienia tego), czego pierwotnie był tylko technicznym podłożem. Problemem wymagającym rozważenia jest skala i sposób oddziaływania technologii na kulturę stopniowo i coraz szerzej przekształcaną do postaci cyfrowej. Śledząc rozwój z perspektywy ostatnich dwóch dekad, można zauważyć, że zmiany te stają się powszechne − objęły w pierwszej kolejności kulturę wizualną i muzyczną, w dalszej kulturę słowa oraz komunikację. W jaki sposób za sprawą cyfryzacji ulegną przeobrażeniu wartości wyróżniające i opisujące kulturę? W jakim stopniu technologie cyfrowe mogą się stać wyrazem kreatywności, autentyczności czy indywidualności w tworzeniu kultury? Jak może jeszcze się zmienić sama kultura, której podłożem są nowe technologie19? Czy znaczenie technologii cyfrowych stanie się przesłanką do wyodrębnienia kultury cyfrowej? Nie chodzi tu o to, by dokonać jedynie formalnej kategoryzacji (analogicznie jak 18 Ibidem, s. 14-15. Próbę zmierzenia się z zagadnieniem wartości determinowanych przez technologię na poziomie epistemologicznym, metodologicznym, praktycznym oraz w formie studium przypadku podjęli m.in. M. Flanagan, D. C. Howe, H. Nissenbaum, Embodying Values in Technology. Theory and Practice, w: Information Technology and Moral Philosophy, (ed.) Jeroen van den Hoven, John Weckert, Cambridge University Press, Cambridge 2008, s. 322-353. Obok ogólnych rozważań, podejmowane są również próby dociekań nad estetycznymi aspektami nauk technicznych i technologii. Dobry przykład to praca Joachima Schummera, w której autor analizuje estetyczne aspekty symetrii w badaniach chemicznych, estetyczne zagadnienia obrazów w chemii molekularnej, estetyczne aspekty doświadczeń chemicznych czy problem wartości estetycznych w matematycznym modelowaniu inżynierii chemicznej oraz chemii fizycznej. Zob. J. Schummer, N. Taylor, B. MacLennan, Aesthetic Values in Technology and Engineering Design, w: Philosophy of Technology and Engineering Sciences (Handbook of the Philosophy of Science), [ed.] Anthonie Meijers, Elsevier 2009, vol. 9, s. 1031-1068. (http://www.joachimschummer.net/papers/2009_AestheticValues_HandbookPhilTech.pdf dostęp 23.08.2016) 19 25 wyodrębnia się kulturę wizualną, kulturę słowa czy kulturę muzyczną), ale uchwycić skalę zmiany, spowodowanej przez wykorzystanie technologii jako narzędzia i formy zarazem. Technologia cyfrowa stała się nie tylko instrumentem, lecz również istotnym czynnikiem tworzenia, rozwoju oraz – w szerszej perspektywie − kryterium ujednolicania kultury. Możliwe jest poszukiwanie związków ze starym pitagorejskim wyobrażeniem świata jako liczby, w praktyce bowiem poszczególnym formom kultury odpowiada ich cyfrowy ekwiwalent w odniesieniu do obrazu, muzyki czy słowa. Wprawdzie określanie efektów technologii cyfrowych mianem kultury cyfrowej lub digitalnej (tak jak per analogiam wyodrębnia się kulturę wizualną, kulturę słowa) może się wydawać problematyczne, to jednak na przykładzie współczesnej fotografii i muzyki łatwo uzmysłowić sobie, jak istotną rolę w ich powstaniu, finalnych formach ekspresji sztuki odgrywa strona techniczna (stricte cyfrowa). Cyfrowy modeling brzmienia, sampling jako źródło i podstawa formy, recording, mastering oraz remastering w przypadku dawnych kompozycji w muzyce, sposoby jej dystrybucji w formie cyfrowej i udostępniania są przejawami przemian możliwych w następstwie pojawiania się nowych technologii. W konfrontacji z tradycyjnie rozumianymi formami pracy kompozytorskiej, teorią i zasadami muzyki, powstała odrębna, równoległa ścieżka tworzenia muzyki, dla której dotychczasowe środki, zasady oraz wartości mogą stanowić jedną z wielu możliwych płaszczyzn odniesienia i rozumienia kreatywności. W takim wymiarze traktowanie aktu twórczego w oderwaniu od wykorzystywanych środków technicznych oraz technologii okazuje się nie tylko zupełnie niemożliwe, ale wymaga uznania za rdzenny składnik muzyki. W podobny sposób przeobrażeniom uległa również fotografia jako sztuka wizualna. W następstwie zastosowania technologii cyfrowych w tworzeniu i przekształcaniu obrazu, dotychczasowe techniki i powiązane z nimi technologie zostały skutecznie wyparte lub dalece zmarginalizowane. Cyfrowo tworzony obraz, cyfrowa ciemnia wraz z jej możliwościami przekształcania i kreowania obrazu, cyfrowe efekty pracy uzmysławiają kompleksowy i głęboki charakter przemian. Trzeba podkreślić, że kanony tradycyjne fotografii nie straciły znaczenia, lecz obok nich (choć niekiedy także w ich miejsce) powstały całkowicie nowe 26 wzorce, sposoby myślenia i działania, zyskujące znaczenie w sferze kultury wizualnej20. Przemiany w sferze fotografii pokazują, iż skala zmian, jakie dokonały się w wyniku upowszechnienia technologii cyfrowej, zreorientowały nie tylko techniczną stronę rozwoju kultury, ale również, wtórnie, determinują jej wartości i sposoby rozumienia. Środki techniczne w połączeniu z technologiami są sposobem i warunkiem partycypacji w kulturze. Nową jakością, która temu towarzyszy jest technologiczna kompresja czasu i przestrzeni, którą analizowali J. Baudrillard, Z. Bauman czy P. Virilio. Wytwory kultury w formie cyfrowej uniezależniają się od czasu i przestrzeni. Istnienie kultury w postaci wirtualnej chmury danych nie jest żadnym symbolem upadku czy kresu kultury w jej historycznej postaci, a wynikiem upowszechniania samej technologii. Technologie cyfrowe są podstawą tworzenia, istnienia oraz przekształceń, których istotę w ogólnym ujęciu stanowi sprowadzenie dowolnych danych (obrazu, dźwięku, tekstu) do postaci cyfrowej, a następnie możliwość przekształcanie ich za pomocą metod matematycznych (ilościowych). Efektem jest zaawansowana analiza oraz parametryzacja danych i wynikająca z tego możliwość ich złożonego modelowania. Tak rozumiana cyfrowa redefinicja kultury polega na wykorzystaniu możliwości tworzenia, przetwarzania, udostępniania i archiwizowania, a więc kreuje nową jakościowo płaszczyznę działania artysty, a następnie realnego i wirtualnego istnienia dzieła: możliwości nieograniczonej multiplikacji, dystrybucji i percepcji itp. Cyfryzacji nie postrzegam jednak jako alternatywy historycznie ukształtowanych form tworzenia kultury, ich waloryzacji czy sposobów partycypacji. Z jednej strony cyfryzacja symbolizuje sumę nowoczesnych środków technicznych, przy pomocy których tworzy i organizuje się kulturę sensu largo, a jednocześnie wprowadza ją w przestrzeń społeczną. Podsumowując ten wątek, cyfryzacja jest jednym z kluczowych czynników i kierunków rozwoju technologii informatycznych. Jest środkiem i sposobem przekształcenia i redefinicji szeregu składników rzeczywistości, które obejmuje swym zasięgiem. Łącząc cyfryzację z technologiami komunikacyjnymi, dokonuje się jakościowe przeobrażenie przestrzeni oraz czasu. Efektem jest powszechna obecność i dostępność danych, będących wynikiem upowszechniania się technologii bezprzewodowego internetu oraz telefonii komórkowej. Ten fakt już przed ponad Operuję określeniem „kultura wizualna”, które wszechstronnej analizie i krytyce poddał m.in. W. J. T. Mitchell (Przedstawienie widzialnego: krytyka kultury wizualnej, w: Fotospołeczeństwo. Antologia tekstów z socjologii wizualnej…, s. 124-133). 20 27 dekadą skłonił Williama Mitchella do sformułowania tezy o śmierci cyberprzestrzeni w tym kształcie, w jakim znaliśmy ją dotychczas21. Innymi słowy, bliskość i powszechna dostępność danych oraz technologii komunikacyjnych stawia pod znakiem zapytania potrzebę wyodrębniania cyberprzestrzeni jako tworu jakościowo różnego od istniejących społecznych ram i form komunikowania i rzeczywistości, w jakiej funkcjonujemy. Komentując to, James Harkin pisał: Niemal niezauważalnie zamieniliśmy się wszyscy w cyborgi czy w «elektronomadów» (ludzkie ciała z wszczepionymi cyfrowymi implantami), a miasto stało się naszą siecią. W świecie, gdzie fizyczne granice stracą znaczenie, a wagę zyskają dynamiczne punkty styku technik cyfrowych z rzeczywistością, życie nabierze nowych barw. Miasto przekształci się w metaforyczne ciało, a krew jego mieszkańców zacznie w zawrotnym tempie pulsować w żyłach22. Związek kultury z dokonującymi się przemianami technologicznymi sprawia, że ich synteza okazuje się nieredukowalna do którejkolwiek z nich. To połączenie kształtuje nową, w części tylko przewidywalną i jak dotąd tylko częściowo krytycznie zanalizowaną jakość. Mitchell rozważając konsekwencje wspomnianego „elektronomadyzmu” koncentruje się głównie na technologicznych aspektach życia23, jednak zarazem rozumie, że przemiana obejmuje każdą dziedzinę ludzkiej aktywności, w tym także kulturę. Człowiek w każdym istotnym wymiarze życia i działania okazuje się istotą trwale i głęboko połączoną z siecią i technologiami (connecting creatures). Ten fakt reorientuje rozumienie tożsamości człowieka, a przede wszystkim skłania do traktowania wytworów kultury jako amalgamatu, łączącego w sobie sferę duchową (intelektualną, emocjonalną, uczuciową), społeczną i kulturową ze środkami technicznymi oraz rozpowszechnionymi sposobami ich wykorzystania24. Teza Mitchella była wynikiem analiz, w których odwoływał się do dwóch istotnych aspektów wpływających na tożsamość: równoczesne istnienie świadomości licznych granic (boundaries) oraz związków (connections). Wszystkie one tworzą sieć, w jakiej funkcjonuje i rozwija się człowiek. W. J. Mitchell, Me++. The Cyborg-self And The Networked City, The MIT Press, Cambridge, Massachusetts London England 2003. 22 J. Harkin, Trendologia. Niezbędny przewodnik po przełomowych ideach, przeł. M. Borowski, Wyd. Znak, Kraków 2010, s. 41. 23 Por. P. K. Nayar, Book Profile: Me++, „Journal for Cultural and Religious Theory” 2004, vol. 5 no.3, s. 82-85. 24 Zob. W. J. Mitchell, Me++…, s. 19 i n. 21 28 Ogólnie rzecz ujmując, poziom rozwoju technicznego i technologii niemal od uświadomienia sobie ich poznawczego i praktycznego znaczenia stanowił w europejskim kręgu kulturowym istotny wyznacznik dokonujących się przemian cywilizacyjnych. Szczególnym momentem historycznym, łączącym technikę i technologię z wytworami kultury było u schyłku XVIII wieku powstanie i rozwój kultury masowej jako alternatywnej ścieżki rozwoju. Jej wynikiem stały się przemysłowo wytwarzane i powszechnie dystrybuowane dobra, służące zaspokajaniu potrzeb kulturalnych większości społeczeństwa. Powstanie kultury masowej świadczyło o powiązaniu technicznego i kulturowego sposobu myślenia. Skrótowo ujmując, techniczny sposób działania powiązano z tworzeniem na rzecz potrzeb człowieka. Jeśli pojawienie się kultury masowej było jednym ze znamion wejścia człowieka w epokę industrialną, to cyfryzacja, rozwój technologii informacyjnych i upowszechnianie ich wyników mogą być traktowane jako kolejny przełom. Jego skalę i znaczenie trudno jeszcze jednoznacznie ocenić, można natomiast wskazać swoiste cechy, pozwalające interpretować dokonujące się zmiany. Technika i technologia stopniowo „uwalniają” i oddalają człowieka od pierwotnych biologicznych czynników rozwoju i powiązanego z nim ewolucyjnego (linearnego) sposobu myślenia, reorientują formy i hierarchię potrzeb, nadają inne znaczenie czasowi i przestrzeni. Nie unicestwiają ich, ale czynią elastycznymi i wtórnymi wobec przemian dokonujących się w rzeczywistości wirtualnej. W tej ostatniej istotniejszy od zasady rzeczywistości okazuje się obraz, medialność, interaktywność, dynamika przemian i prędkość, decentracja i rozproszenie. Ryszard Kluszczyński do tego opisu przemian dodaje jeszcze procesualność i rozmnażanie granic osobowości, tożsamość wirtualną, transhumanizm czy cyborgizację osoby ludzkiej25. Nawiązując do McLuhana, wskazuje też na więź społeczną, której podstawą jest komunikacja: „Mogłoby się więc wydawać, że to właśnie wewnątrzkulturowy ruch informacji, społeczne nasycenie informacyjne, nadaje każdej poszczególnej kulturze spoistość oraz moc trwania i rozwoju”26. Wirtualny sposób bycia w kulturze pozostaje skutecznym czynnikiem transgresji, przekraczania granic własnej kultury, wymaga również odmiennej interpretacji aniżeli historycznie ukształtowane formy partycypacji. Technologie wirtualne w połączeniu z globalnością lawinowo rozwijającej się komunikacji kształtują nowe płaszczyzny rozwoju, a jednocześnie powodują jego niewspółmierność oraz niejednorodność. 25 26 R. W. Kluszczyński, Społeczeństwo informacyjne…, s. 38. Ibidem, s. 40. 29 Innym skutkiem technologicznej korekty (a właściwie interakcji obu tych sfer) wzorców kultury jest stopniowe wypieranie wspólnot rzeczywistych przez wspólnoty wirtualne. To ostatnie miano odnosi się do wirtualnego sposobu bycia człowieka i idei wspólnoty, której podłożem jest technologia informatyczna, a skutkiem upowszechnianie relacji wirtualnych. Nie są one kopią rzeczywistych więzi, nie duplikują bezpośrednich kontaktów, lecz rozwijają się na odmiennym podłożu oraz przysługuje im ich własna logika. Nie wypierają całkowicie realnych związków, jednak w swoim rozwoju podlegają innym prawidłowościom i trendom aniżeli te pierwsze. Krytyczny namysł nad przemianami kulturowymi, wywołanymi tym, co technologiczne (w swej istocie pozakulturowe), skłania nie tylko do konstruktywnego budowania nowej narracji, lecz również do formułowania tez o ograniczoności tego rodzaju rozwoju. W. Mitchell pisał: Hegemonia tego, co widzialne, jest zachodnim, współczesnym wynalazkiem, p ro d u kt e m no wyc h tec h no lo gi i med ia l n yc h, a n ie fu n d a me n ta l n y m s k ład n i kie m k ul t ur y l ud z k iej . Nazwijmy to błędem technologicznej nowoczesności, powszechnie akceptowaną ideą, która nigdy nie zawodzi, wzbudzając gniew badaczy niezachodnich i nienowoczesnych kultur wizualnych, powszechnie przyjmowaną jako fakt przez wierzących, że ws p ó ł cze s ne med ia tec h n ic z ne (te le wi zj a, ki no , fo to gra fia, I nter n et) są tre ś cią i ko ns t yt u t y wn y mi p rz yk ład a mi k ul t ur y wi z ual n ej (podkr. A.K.)27. Komentując spostrzeżenia Mitchella, warto podkreślić, że usiłowanie separowania technologii i kultury jest działaniem opartym na przesłankach historycznych. Odwoływanie się do roli i znaczenia wizualności w kształtowaniu się współczesnych form i procesów kulturowych wymaga równoczesnego uznania kreatywnej roli technologii obrazu sensu largo. 4. Kultura a informacja Rozwój kultury w tych aspektach, które wynikają z obecności technologii, przynosi konsekwencje w postaci zupełnie nowych modusów myślenia i działania, odzwierciedlających się z czasem w kulturze. Tym, co stopniowo okazuje się w niej istotne, jest możliwość szeroko rozumianego dostępu do określonych dóbr, a nie ich fizycznego posiadania. W takim wymiarze istotniejszy jest szybki i sprawny dostęp do danych, do informacji, aniżeli posiadanie ich źródeł, istotniejsza okazuje się możliwość niesformalizowanego dzielenia się nimi (lub szerzej – wiedzą), 27 W. J. T. Mitchell, Przedstawienie widzialnego…, s. 127. 30 aniżeli pokonywanie kolejnych barier: instytucjonalnych i organizacyjnych, formalnych, finansowych itp. Ten czynnik dewaluuje historyczne osiągnięcia i sprawia, że zmienia się kulturowe znaczenie historycznie powstałych i ugruntowanych instytucji, np. uniwersytetu. Na poziomie praktycznej edukacji i skomercjalizowanej nauki ich historyczna misja może się wydawać anachronizmem, gdyż innego rodzaju wartości są częścią społecznych skojarzeń, oczekiwań i praktyki. Zsekularyzowane rytuały nauczania, weryfikowania, dyplomowania, archiwizowania osiągnięć są wątpliwym dowodem historycznej wartości uniwersytetu jako miejsca i sposobu organizowania edukacji oraz badań naukowych28. W wymiarze organizacyjnym i funkcjonalnym stał się instytucją wewnętrznie rozbitą, niespójną, zbiurokratyzowaną, niekiedy odległą od tego, co można uznać za technologiczny mainstream obiegu i wykorzystania informacji. Od chwili pojawienia się informacjonizmu toczy się spór o to, na ile trafny i rzetelnie uzasadniony jest pogląd i argumenty M. Castellsa o politycznej, edukacyjnej, ekonomicznej, technicznej i kulturowej roli informacji29. Dyskusja między zwolennikami a sceptykami toczy się nie tyle o to, czy takiej narracji przypisać prawdziwość, lecz jak głęboko nowy czynnik przemian zrewolucjonizuje (zdominuje lub całkowicie zniesie) historycznie rozwinięte determinanty. Z jednej strony chodzi o to, że technologie informacyjne stopniowo ogarniają kluczowe 28 K. Maney pisał: „przy wykorzystaniu szerokopasmowego internetu, gier wideo i sieci społecznościowych, można stworzyć niedrogi, superdostępny internetowy model szkolnictwa wyższego. Na uniwersytecie nowego typu nie zaznamy widoków i zapachów kampusu, nie zetkniemy się twarzą w twarz z profesorem, nie zabawimy na piwnej imprezie uczelnianego bractwa, ale zdobędziemy potrzebną wiedzę i potwierdzający to stopień naukowy. […] Pewnie ktoś kiedyś zrealizuje też pomysł [Scotta – dop A.K.] McNealy’ego i powstanie internetowa uczelnia o globalnym zasięgu i otwartej formule”. K. Maney, Coś za coś. Wszechobecny konflikt pomiędzy jakością a dostępnością. Dowiedz się, co sprawia, że jedne produkty odnoszą sukces, a inne nie, przeł. M. Czech, Znak, Kraków 2011, s. 190. 29 Por. zbiór definicji, opisujących fenomen społeczeństwa informacyjnego: J. S. Nowak, Społeczeństwo informacyjne – geneza i definicje, http://www.silesia.org.pl/upload/Nowak_Jerzy_Spoleczenstwo_informacyjne-geneza_i_definicje.pdf. M. Castells, Siła tożsamości, przeł. S. Szymański, WN PWN, Warszawa 2009; M. Castells, Galaktyka Internetu. Refleksja nad internetem, biznesem i społeczeństwem, przeł. T. Hornowski, Dom Wydawniczy Rebis, Poznań 2003. 31 dla rozwoju cywilizacyjnego dziedziny życia (ten fakt nie wzbudza kontrowesji), z drugiej natomiast otwarty charakter ma dyskusja nad społecznym i kulturowym znaczeniem tego procesu30. Teoretyczne i praktyczne upowszechnienie uniwersalnego czynnika zmiany, jakim jest informacja, przyczyniło się nie tylko do rozwoju socjologicznych i ekonomicznych analiz społecznego obiegu informacji oraz kategorii potrzeb informacyjnych, lecz również stało się jedną z przesłanek do sformułowania informacjonizmu jako nowej narracji życia społecznego, gospodarczego i politycznego (Manuel Castells). Kluczowe procesy rozwojowe zaczęto w niej traktować jako skutek dostępu do informacji, ich obiegu, zarządzania, wykorzystania itp. Z filozoficznego punktu widzenia, informacja przybiera postać ważną ontycznie i interpretacyjnie – wymaga odpowiedzi na pytanie, czym jest jako byt, w jaki sposób istnieje, na czym polega determinacja, w której występuje? W dalszej kolejności rozważenia wymaga jej status poznawczy oraz aksjologiczny, może bowiem być wartością, jak również określać inne wartości. Ujmowana z perspektywy kultury, może służyć reinterpretacji jej wytworów i ich sposobów istnienia. Jakość informacji i dostęp do niej staje się czynnikiem przeobrażeń. Kryterium dostępu w niedalekiej przyszłości – jak przed kilku laty wyrokował Bernard Poulet – zmieni strukturę samego Internetu: „Wydaje się, że już niedługo nastąpi dzień, kiedy obok Internetu dostępnego dla wszystkich, powolnego, chaotycznego i technologicznie ociężałego, pojawi się taki Internet, za który trzeba będzie zapłacić więcej, jeśli będziemy chcieli korzystać z usługi na przyzwoitym poziomie”. Wynikiem – jak sądzi Frédéric Filloux − stanie się wieloklasowa sieć, zróżnicowana, z wartościową informacją, dostępną za pośrednictwem płatnych aplikacji, oraz pozostałym, powszechnie dostępnym zbiorem danych o nikłej jakości31. Przypuszczalnie ten sam czynnik różnicujący podzieli w dalszej kolejności wytwory kultury. Natura obiegu i licznych strumieni informacji, nowe sposoby partycypacji, korzystania (dzielenia się, udostępniania) są typowymi posttechnologicznymi sposobami uczestniczenia w kulturze. Podsumowanie Technologiczna redefinicja kultury to proces, w jakim technologie determinują kształt i formę zjawisk kulturowych oraz wpływają na ich rozumienie. Nie chodzi przy tym o proste wypieranie lub zastępowanie Por. np. M. Graszkiewicz, D. Lewiński, Co to jest społeczeństwo sieciowe i dlaczego ono nie istnieje? „Nowe Media” 2010, nr 1, s. 13-21. 31 B. Poulet, Śmierć gazet i przyszłość informacji, przeł. O. Hedemann, Wyd. Czarne, Wołowiec 2011, s. 270. 30 32 kultury przez technologię, ale o warunki rozwoju kultury, wśród których czynniki technologiczne odgrywają podstawowe znaczenie. Wyznacznikiem tego procesu jest otwartość, interakcyjność i dynamiczność. Otwartość polega na ciągłym rozwoju i pojawianiu się nowych detereminant oraz ograniczonej możliwości przewidzenia następstw. Z kolei interakcyjność polega na zwrotnej relacji sensotwórczej między wytworami kultury a czynnikami technologicznymi. To rodzaj sprzężenia zwrotnego, tłumaczącego wzajemne oddziaływania. Trzeci wyróżnik – dynamiczność – uzmysławia brak prostolinearność przemian. W ogóle linearność należy uznać za ideę nieprzystającą do ich charakteru. O technologicznej kompresji przestrzeni jako jednym z aspektów dokonujących się przeobrażeń Zygmunt Bauman pisał: Oto sedno sprawy: zniwelowanie odległości czasowych i przestrzennych dzięki technice nie tyle ujednoliciło ludzką kondycję, ile ją spolaryzowało. Wyzwala ono bowiem niektóre jednostki z więzów terytorialnych i pewnym czynnikom konstytuującym wspólnotę nadaje sens eksterytorialny; równocześnie jednak samo odarte ze znaczenia terytorium, w którego granicach inni nadal pędzą życie, pozbawione zostaje potencjału określania ludzkiej tożsamości. […] Kiedy „odległości nic już nie znaczą”, także miejsca, które te odległości oddzielały, tracą znaczenie. Choć jednym wróży to swobodę znaczeń, innym zapowiada zepchnięcie w „bezznaczeniowość” 32. Analizowana tu technologiczna dewaluacja przestrzeni trafnie oddaje szerszy kontekst przemian, jakim podlega kultura. Łączy je dynamika, której podlegają przeobrażenia wartości. Dawny heraklitejski wariabilizm okazuje się hipotezą, która oddaje aksjologiczną stronę współczesnej kultury, a ściśle jej „upłynnienie”, zrelatywizowanie oraz redefiniowanie zjawisk, porzucenie ich dotychczasowych wykładni i sposobów rozumienia. Paul Virillio tę dynamiczność wywołaną przemianami technologicznymi sprowadza do kluczowego czynnika wyznaczającego pozycję człowieka w świecie: Jako FANTOMATYCZNA PRZESTRZEŃ, Ziemia nie rozciąga się już jak okiem sięgnąć, ukazuje się pod wszelkimi swymi postaciami, z wszelkich możliwych stron w zdumiewającej i niesamowitej luce. Nagłe zwielokrotnienie „punktów widzenia” stanowi zatem jedynie efekt zwiastujący ostatnie stadium globalizacji: globalizację spojrzenia, gdzie pojedyncze oko CYKLOPA rządzi jaskinią, gdzie „czarnej skrzynce” coraz gorzej udaje się 32 Z. Bauman, Globalizacja. I co z tego dla ludzi wynika, przeł. E. Klekot, PIW, Warszawa 2000, s. 25. 33 ukryć nadciągający zmierzch Historii, Historii, która padła ofiarą syndromu całkowitego spełnienia33. Ostatnia teza o zmierzchu historii nie może uchodzić za nową i nowatorską, jednak w odniesieniu do technologicznych form wirtualności i wizualności, o jakich pisał wcześniej Virilio, historycznie pojmowana przestrzeń jest ideą nieprzystającą do aktualnych form komunikacji, powszechnej i permanentnej wizualizacji oraz wirtualizacji, gdy obraz pojawia się i istnieje wyłącznie w cyberprzestrzeni. 33 P. Virilio, Bomba informacyjna, przeł. S. Królak, Sic!, Warszawa 2006, s. 22. Jarosław Strzelecki Uniwersytet Warmińsko-Mazurski w Olsztynie MONADA = MONADA() – INTERPRETCJA OBIEKTOWA Tytuł tego artykułu może wydawać się niezrozumiały – szczególnie jego pierwsza część „monada = Monada()”. Napis ten pochodzi z języka programowania Python. Wyrażając sens tego napisu w języku potocznym, powiemy, że jest tworzony obiekt klasy Monada o nazwie monada. Pojawiają się zatem dwa ważne terminy „obiekt” i „klasa”. Zwrot „monada = Monada()” niewątpliwie pełni funkcję performatywną: niech monada będzie obiektem klasy Monada. Te dwa terminy pochodzą z programowania obiektowego (Object Oriented Programming – OOP). Stąd druga część tytułu: „interpretacja obiektowa”. W artykule tym przedstawiona zostanie próba zastosowania pojęć z programowania obiektowego do pewnych twierdzeń filozoficznych – a dokładniej do koncepcji monady zawartej w Monadologii autorstwa Gottfrieda Wilhelma Leibniza. Artykuł ten można zaliczyć do tekstu z filozofii informacji1. Jest ona filozofią ogólną, dla której punktem wyjścia jest informacja. Wówczas można postawić cztery fundamentalne pytania: (1) Co to jest informacja?, (2) Jaka jest relacja między informacją a bytem? (informacyjna teoria bytu), (3) Jaka jest relacja między informacją a poznawaniem? (informacyjna teoria poznania)2, (4) Jaka jest relacja między informacją a moralnością? (informacyjna teoria moralności)3. Artykuł składa się z dwóch głównych części. W pierwszej przedstawiono pojęcie paradygmatu. Omówiono wybrane paradygmaty pro1 Por. J. Strzelecki, Co to jest filozofia informacji, [w:] J. Dębowski, E. Starzyńska–Kościuszko (red.), Nauka. Racjonalność. Realizm. Między filozofią przyrody a filozofią nauki i socjologią wiedzy, Instytut Filozofii UWM, Olsztyn, 2013; L. Floridi, Philosophy of information, Oxford University Press, Oxford, 2012. 2 Por. M. Hetmański, Epistemologia informacji, Copernicus Center Press, Kraków, 2013. 3 Por. J. Strzelecki, Ku etyce informacyjnej, [w:] D. Sepczyńska, M. Jawor, A. Stoiński (red.), Etyka o współczesności. Współczesność w etyce, Wydawnictwo UWM, Olsztyn, 2016, s. 83–96; L. Floridi, The Ethics of Information, Oxford University Press, Oxford, 2013. 36 gramowania ze szczególnym uwzględnieniem obiektowego paradygmatu programowania. W drugiej części – nazwanej filozofią obiektową – zastosowano aparaturę pojęciową z OOP do reinterpretacji koncepcji monady zawartej w monadologii Leibniza. 1. Paradygmat Etymologicznie słowo paradygmat pochodzi od greckiego parádeigma lub łacińskiego paradigma, co znaczyło wzór, model, przykład. Słownik PWN podaje dwa znaczenia słowa paradygmat: (i) przyjęty sposób widzenia rzeczywistości w danej dziedzinie, doktrynie itp. oraz (ii) zespół form fleksyjnych danego wyrazu lub końcówek właściwych4. Z tych dwu znaczeń najbliższe pojęciu paradygmatu programowania jest pierwsze - to przyjęty sposób widzenia rzeczywistości programowalnej. Historycznie słowo „paradygmat” zostało po raz pierwszy użyte w XVIII przez Georga Christopha Lichtenberga na określenie fundamentalnych wzorców wyjaśniania w naukach przyrodniczych5. W XX wieku pojęcie to zostało spopularyzowane przez Thomasa Samuela Kuhna. Paradygmat rozumiał on jako wzorcowy przykład pracy badawczej. Ów wzorzec miał składać się z założeń pojęciowych, metodologicznych, metafizycznych oraz miał być uznawany przez wspólnotę naukowców za obowiązujący. Z czasem Kuhn rozwinął swoją koncepcję paradygmatu, czego wyrazem była zmiana nazwy „paradygmat” na „matryca dyscyplinarna”. Ów paradygmat jest matrycą, ponieważ tworzy zbiór uporządkowanych składników. Matryca nazywa się dyscyplinarną, bo stanowi wspólną własność wszystkich, którzy uprawiają daną dziedzinę wiedzy. Matryca dyscyplinarna określa strukturę i typ problemów wartych rozwiązania. Jednocześnie określa język, w jakim zagadnienia są formułowane, sposób rozwiązywania problemów oraz kryteria oceny formułowanych rozwiązań. Można zatem powiedzieć, że matryca dyscyplinarna z góry określa przedmiot badań, metody badań, cel badań, a co za tym idzie dostarcza ram epistemologicznych, metafizycznych i aksjologicznych dla prowadzonych badań. http://sjp.pwn.pl/sjp/paradygmat;2570598.html [dostęp 13.02.2017] Za Powszechna Encyklopedia Filozofii, redaktor naczelny A. Maryniarczyk, Polskie Towarzystwo Tomasz z Akwinu, Lublin, 2007, s. 17–19. 4 5 37 Paradygmaty programowania6 Paradygmat w świecie informatycznym jest utrwalonym sposobem myślenia, w którym przyjmuje się pewne założenia nie podlegające krytycznej refleksji; i tak na przykład w systemach UNIX uznano, że dobrze zbudowany program powinien składać się z niewielkich modułów, które użytkownicy mogą łączyć w działające aplikacji7. Paradygmat programowania również jest pewnym sposobem myślenia, w którym przyjmuje się pewne założenia. To, o czym się myśli, jest programem komputerowym (rozumianym zarówno jako wytwór, czyli konkretny kod, jak i czynność, czyli sposób pisania kodu). Pewien wzorzec myślenia o programie komputerowym staje się paradygmatem (podobnie jak w przypadku innych nauk), gdy jest cenionym przez znaczącą grupę informatyków8. Można wyróżnić przynajmniej trzy podstawowe paradygmaty programowania: imperatywny, deklaratywny, obiektowy. W paradygmacie imperatywnym program postrzegany jest jako ciąg poleceń komputera. Poszczególne polecenia zmieniają stan programu. Tworzenie programu polega na zdefiniowaniu poszczególnych kroków, jakie musi przejść program, aby zrealizować postawiony mu cel. Definiuje się sposób działania. Najwcześniejszymi językami imperatywnymi były kody maszynowe pierwszych komputerów. Jednak pisanie w kodzie maszynowym złożonych programów było bardzo nieefektywne. W latach 19541957 napisano pierwszy kompilator. „Tłumaczył” on polecenia w języku FORTRAN na kod maszynowy. W paradygmacie deklaratywnym – jak sama nazwa wskazuje a w przeciwieństwie do imperatywnego – program jest ciągiem opisów, swoistej deklaracji tego, co wie programista. Powstaje zbiór faktów i zależności, a użytkownik zadaje pytania systemowi i otrzymuje odpowiedzi9. Program nie jest ciągiem instrukcji definiujących sposób działania, ale jest opisem tego, co jest wiadome. W oparciu o taką wiedzę i zdefiniowane reguły program przeprowadza wnioskowania. Informacje na temat rodzajów paradygmatów programowania znajdzie czytelnik w książce R. W. Sebesta Concept of Programming Languages, dostępnej na stronie: http://smbidoki.ir/courses/66_Concepts%20of%20Progra– mming%20Languages%2010th–Sebesta.PDF [dostęp 05.05.2017]; w wersji elektronicznej dostępny jest kurs z paradygmatów programowania na http://wazniak.mimuw.edu.pl/index.php?title=Paradygmaty_programowania 7 Za B. Pfaffenberg, Słownik terminów komputerowych, Prószyński i Spółka, Warszawa, 1999, s. 213. 8 Por. Z. Płoski, Słownik encyklopedyczny, EUROPA, Wrocław, 1999, s. 272. 9 Por. B. Pfaffenberg, op. cit., s. 117–118. 6 38 Paradygmat obiektowy wyznacza jeszcze inny sposób rozumienia tego, czym jest program komputerowy. Programista tworzący w tym paradygmacie przyjmuje a priori założenie, że program to zbiór obiektów wymieniających ze sobą komunikaty. Obiekt niejako składa się z atrybutów określających, jakie cechy posiada, jakimi danymi dysponuje oraz z operacji, które definiują zachowanie obiektu, jego działanie na danych. Sokrates to realny człowiek. Można utworzyć abstrakcyjny obiekt, który będzie miał z góry określone własności (np. wiek, wzrost, waga, zainteresowania, stan zdrowia ...) i zachowania (śpi, je, rozmyśla, pije, …) - jest on informatycznym reprezentantem realnego Sokratesa; informatycznym, bo utworzonym zgodnie z paradygmatem obiektowym, reprezentantem, ponieważ tylko część informacji konstytuujących realnego Sokratesa zostało przeniesionych do rzeczywistości wirtualnej. Uogólniając przypadek wirtualnego Sokratesa, można stworzyć klasę, czyli swoisty wzorzec, zgodnie z którym będą tworzone inne obiekty tej samej klasy. Przyjmując założenie, że każdy człowiek musi posiadać takie własności jak: nazwa, wzrost, waga, inteligencja oraz takie zachowania jak: oddychanie, wydalanie, jedzenie, spanie, tworzymy klasę, czyli określony typ danych. Korzystając z tak zdefiniowanej klasy Człowiek, można wytwarzać dowolną ilość obiektów tej klasy. Tak utworzone obiekty wchodzą ze sobą w różne interakcje, co w efekcie daje działający program. Fundamentem programowania obiektowego są klasy i obiekty. Jednak ideami, które również wyznaczają specyfikę tego paradygmatu, są: dziedziczenie, polimorfizm, hermetyzacja/enkapsulacja oraz agregacja10. Dziedziczenie jest specyficzną relacją między klasami. Klasa podrzędna dziedziczy wszystkie atrybuty i operacje po klasie nadrzędnej. Lecz oprócz elementów odziedziczony może posiadać specyficzne dla siebie atrybuty i metody. Korzystając z klasycznych pojęć z filozofii Arystotelesa, można powiedzieć, że klasa Zwierzę dziedziczy po klasie Roślina. Natomiast klasa Człowiek dziedziczy po klasie Zwierzę. Człowiek ma wszystkie atrybuty i operacje roślin i zwierząt. Jednak atrybut rozumności i operacje z nim związane są charakterystyczne wyłącznie dla obiektów klasy Człowiek. Dziedziczeniu odpowiada relacja typu „jest” (np. człowiek jest zwierzęciem). Obiekty wysyłają między sobą komunikaty. Klasy dziedziczą po sobie operacje. Jednak sposób reakcji obiektów z różnych – choć powiązanych dziedziczeniem – klas, powinien być specyficzny dla danej Za M. Weisfeld, Myślenie obiektowe w programowaniu, tłum. Ł. Piwko, Helion, Gliwice, 2014, rozdz. 1. 10 39 klasy. Wysłanie komunikatu rysuj do obiektu klasy Kwadrat powinno skutkować wyrysowaniem na ekranie monitora przedmiotu o kształcie kwadrat. Z kolei wysłanie takiego samego komunikatu do obiektu klasy Trójkąt, powinno skutkować narysowaniem trójkąta, a nie kwadratu. Jedna operacja rysuj, a różne reakcje obiektów – to właśnie istota mechanizmu zwanego polimorfizmem. Przeniesienie pojęcia polimorfizmu na grunt filozofii być może mogłoby rozwinąć teorię orzekania analogicznego, którego formalizacja stricte logiczna nie przyniosła oczekiwanych rezultatów11. Jeżeli uzna się, że poznawanie świata jest pewną operacją obiektu, to orzeczenie o jakimś zwierzęciu, że poznaje świat oraz o człowieku, że poznaje świat – przy założeniu relacji dziedziczenia między klasami Zwierzę i Człowiek – będzie przykładem orzekania analogicznego, które można byłoby uznać za pewien rodzaj polimorfizmu: człowiek i zwierzę poznają świat, ale każde z nich robi to nieco inaczej. Hermetyzacja (enkapsulacja) to założenie, że obiekt danej klasy powinien komunikować się ze swoim otoczeniem wyłącznie przez interfejsy. Pilot do telewizora jest „zahermetyzowany”. Użytkownik ma dostęp tylko do interfejsu (zestaw przycisków umieszczonych na zewnętrznej stronie obudowy urządzenia). Użytkownik nie wie i nie musi wiedzieć, jak działa sam pilot. Musi znać obsługę interfejsu, poprzez który komunikuje się z pilotem. Przy prawidłowo przeprowadzonej hermetyzacji użytkownik nie powinien mieć możliwości ingerencji w wewnętrzną pracę pilota. Obiekty w programie powinny komunikować się ze sobą wyłącznie poprzez interfejsy. Ostatnią ideą wyznaczającą paradygmat obiektowy jest agregacja. Rzecz w tym, iż pewne obiekty mogą być integralnymi elementami innych obiektów. Jeden obiekt może składać się z innych obiektów; na przykład samochód składa się z karoserii, silnika, kół, siedzeń, kierownicy, szyb itp. Każdy z wymienionych elementów sam jest obiektem pewnej klasy, zatem obiekt klasy Samochód składa się z innych obiektów. Agregacje jest relacją typu „ma” - np. samochód ma silnik. 11 Por. J. Strzelecki, Semantyczna czy formalna teoria analogii J. M. Bocheńskiego?, [w:] Filoso–fija [dostęp 01.06.2017, http://www.filo–sofija.pl/index.php/czasopismo/article/download/561/547]. 40 2. Filozofia obiektowa (Object Oriented Philosophy – OOPh) Jak już zostało to napisane we wstępie, artykuł ten jest próbą aplikacji aparatury pojęciowej programowania obiektowego do interpretacji koncepcji monady zawartej w monadologii Leibniza12. Poniższa tabela zwiera zestawienie charakterystyki monady i obiektu z OOP. monada obiekt 1. Jest substancją prostą, czyli bez 1. Obiekty mogą być proste albo części13. złożone. 2. Jest elementem agregatu14. 2. Może być elementem agregatu albo sam jest agregatem. 3. Jest nierozciągła15. 3. Jest przedmiotem logicznym, więc jako taki nie ma rozciągłości 4. Powstaje lub ginie za jednym zamachem16. 4. Jest „stwarzany” przez specjalną metodę zwaną konstruktorem (niszczony przez metodę destruktor). 5. Nie ma okien – ani inne substancje ani jakieś właściwość nie 5. Mechanizm enkapsulacji/hermetyzacji. Wszystkie odniesienia do monadologii Leibniza – La monadologie, 2001, http://www.uqac.uquebec.ca/zone30/Classiques_des_sciences_sociales/index.h tml, [dostęp 23.02.2017]. Jeżeli występuje odwołanie do tekstu francuskojęzycznego, to jest ono wskazaniem – poprzez liczbę na początku tekstu – na odpowiedni fragment monadologii Leibniza. 13 „1. La Monade, dont nous parlerons ici, n’est autre chose qu’une substance simple, qui entre dans les composés; simple, c’est–à–dire sans parties”. 14 „2. Et il faut qu’il y ait des substances simples, puisqu’il y a des composés; car le composé n’est autre chose qu’un amas ou aggregatum des simples.” 15 „3. Or là, où il n’y a point de parties, il n’y a ni étendue, ni figure, ni divisibilité possible. Et ces Monades sont les véritables Atomes de la Nature et en un mot les Éléments des choses”. 16 „6. Ainsi on peut dire, que les Monades ne sauraient commencer, ni finir, que tout d’un coup, c’est–à–dire, elles ne sauraient commencer que par création et finir que par annihilation; au lieu, que ce qui est composé, commence ou finit par parties”. 12 41 mogą z zewnątrz dostać się do monady17. 6. Jest jestestwem, więc ma jakieś 6. Ma atrybuty i operacje/metody. właściwości18. 7. Jest różna od innej monady19. 7. Jest różny od innego obiektu. 8. Jest zmienna20. 8. Może ulegać zmianie. 9. Zasada jej zmiany jest we9. Zmiana stanu obiekty może 21 22 wnętrzna - to apetycja : przejwynikać z działania samego obiekście od jednej percepcji do drugiej. tu lub być skutkiem komunikatu innego obiektu. 10. Jej percepcje i zmiany nie są mechaniczne23. 10. Jego zmienność może być quasi-mechaniczna. 11. Jest źródłem własnych czynno- 11. Jest bezcielesnym automatem. ści (bezcielesny automat)24. „7. … Les Monades n’ont point de fenêtres, par lesquelles quelque chose y puisse entrer ou sortir … Ainsi ni substance, ni accident peut entrer de dehors dans une Monade.” 18 „8. Cependant il faut que les Monades aient quelques qualités, autrement ce ne seraient pas même des êtres”. 19 „9. Il faut même, que chaque Monade soit différente de chaque autre. Car il n’y a jamais dans la nature deux Êtres, qui soient parfaitement l’un comme l’autre et où il ne soit possible de trouver une différence interne, ou fondée sur une dénomination intrinsèque”. 20 „10. Je prends aussi pour accordé que tout être créé est sujet au changement, et par conséquent la Monade créée aussi, et même que ce changement est continuel dans chacune”. 21 „11. Il s’ensuit de ce que nous venons de dire, que les changements naturels des Monades viennent d’un principe interne, puisqu’une cause externe ne saurait influer dans son intérieur”. 22 „15. L’action du principe interne qui fait le changement ou le passage d’une perception à une autre, peut être appelé Appétition : il est vrai que l’appétit ne saurait toujours parvenir entièrement à toute la perception, où il tend, mais il en obtient toujours quelque chose, et parvient à des perceptions nouvelles”. 23 „17. On est obligé d’ailleurs de confesser que la Perception et ce qui en dépend, est inexplicable par des raisons mécaniques, c’est–à–dire par les figures et par les mouvements”. 24 „18. On pourrait donner le nom d’Entéléchies à toutes les substances simples, ou Monades créées, car elles ont en elles une certaine perfection 17 42 12. Bóg monada stwarza monady25 12. Obiekty tworzone przez metodę-Konstruktora Szybki przegląd powyższej tabeli uzmysławia, że aparatura pojęciowa programowania obiektowego jest ogólniejsza, a co za tym idzie – oczywiście przy pewnych uproszczeniach – koncepcję monady można uznać za szczegółowy przypadek obiektu z OOP. Monada jest prosta, obiekt jest prosty albo złożony. Monada ma własności. Obiekt ma własności lub/i metody. Monada musi być zmienna, bo każde stworzenie jest zmienne. Obiekt może, ale nie musi ulegać zmianie. Ponieważ monada należy do filozoficznego porządku myślenia, można ją nazwać szczegółowym przypadkiem obiektu z OOPh (Object Oriented Philosophy). UML w filozofii – wprowadzenie Nazwa „UML” jest skrótem od angielskiego wyrażenia „Unified Modeling Language”. UML jest graficznym językiem służącym specyfikacji, konstrukcji i dokumentacji artefaktów systemowych 26. Ma zastosowanie w modelowania różnorodnych systemów, choć głównie jest wykorzystywany w tworzeniu graficznych modeli systemów informatycznych i biznesowych27. Przy użyciu odpowiednich narzędzi CASE (Computer-Aided Software Engineering) diagramy UML mogą być przekształcone w kody, które służą jako podstawa przyszłego systemu informatycznego28. Istnieje kilka ważnych argumentów przemawiających na rzecz stosowania języka UML29. Po pierwsze, jest on językiem, czyli systemem znaków i reguł posługiwania się znakami. Komunikacja między ludźmi (échousito entelés), il y a une suffisance (autarkeia) qui les rend sources de leurs actions internes et pour ainsi dire des Automates incorporels”. 25 „47. Ainsi Dieu seul est l’unité primitive, ou la substance simple originaire, dont toutes les Monades créées ou dérivatives sont des productions et naissent, pour ainsi dire, par des Fulgurations continuelles de la Divinité de moment en moment, bornées par la réceptivité de la créature, à laquelle il est essentiel d’être limitée (§ 382–391, 398, 395)”. 26 Za C. Larman, UML i wzorce projektowe, tłum. J. Walkowska, HELION, Gliwice, 2011, s. 37. 27 Por. P. Graessle, H. Baumann, Ph. Baumann, UML 2.0 w akcji, tłum. M. Pętlicki, HELION, Gliwice, 2006, s. 13 28 Por. R. Miles, K. Hamilton, UML 2.0.Wprowadzenie, tłum. R. Szpoton, HELION, Gliwice, 2007, s. 11. 29 Za P. Graessle, H. Baumann, Ph. Baumann, UML 2.0 w akcji, s. 13–14. 43 posługującymi tym językiem jest znacznie uproszczona, a ewentualne nieporozumienia, będące nieodłączną częścią języka naturalnego, zostają ograniczone do minimum. Po drugie, UML jest językiem, mimo ściśle określonych reguł, elastycznym, który dość łatwo można dostosować do własnych potrzeb modelowanej rzeczywistości. Po trzecie, język ten powstał jako wynik prac nad praktycznymi problemami związanymi z projektowaniem systemów informatycznych, co gwarantuje jego znaczną użyteczność30. Po czwarte, jest wspierany przez wiele narzędzi informatycznych typu CASE. Po piąte, w przypadku powstania różnych projektów UML dla tego samego systemu informatycznego, można łatwo porównać ze sobą te projekty. Przenosząc wymienione argumenty na grunt filozoficzny, można sformułować pięć analogicznych hipotez. Po pierwsze, użycie języka UML do modelowania pewnych zagadnień filozoficznych – a jest to język quasi-formalny – wymusi doprecyzowanie danych tez filozoficznych i być może ułatwi dyskusję między różnymi filozoficznymi szkołami. Po drugie, dostosowanie języka graficznego modelowania do specyfiki filozoficznej dziedziny problemowej nie powinno nastręczać większych trudności ze względu na to, że ów język jest wystarczająco elastyczny. Po trzecie, być może jego informatycznie praktyczna geneza będzie również miała swoje pozytywne odzwierciedlenie w modelowaniu systemów ujętych z filozoficznej perspektywy. Po czwarte, będzie może rozpocząć filozofowanie wspierane przez narzędzia CASE (Computer-Aided Software Engineering, komputerowe wspomaganie projektowania oprogramowania; w przypadku zastosowania tych narzędzi do filozofii nazywałby się Computer-Aided Philosophical Engineering – CAPhE, czyli komputerowe wspomaganie filozoficznego projektowania). Po piąte, różne filozoficzne modele UML odnoszone do tego samego przedmiotu być może pozwolą lepiej zrozumieć ów przedmiot. UML jest językiem modelowania. Wytworem modelowania jest model, który stanowi uproszczony fragment modelowanej rzeczywistości. Dzięki modelom można dobrze zobrazować modelowany system (przeszły, aktualny, przyszły), a przez to lepiej go zrozumieć31. 30 Na temat historii powstawania UML oraz metateorii UML patrz J. Schmuller, UML dla każdego, tłum. K. Masłowski, HELION, Gliwice, 2003, rozdz. 1, rozdz.14. 31 Por. P. Graessle, H. Baumann, Ph. Baumann, UML 2.0 w akcji, s. 20–21. 44 Model w nauce jest konstruowany po to, aby uprościć problem zwiększając szanse rozwiązania go32. Model jest nominalny/teoretyczny, gdy stanowi go zbiór założeń upraszczających (np. założenie, że moneta do rzutu jest idealna). Gdy rozpatrywane są przedmioty spełniające takie założenie, wówczas przez model rozumie się model realny, zwany interpretacją modelu nominalnego. Przy czym model realny może być trojakiego rodzaju. Gdy konstruowany jest fizyczny układ przedmiotów spełniających założenia (np. makieta planowanego osiedla domów jednorodzinnych), model nazywany jest fizycznym. Gdy ów układ przedmiotów pozostaje wyłącznie przedmiotem pomyślanym, model nazywany jest modelem myślowym. Gdy skonstruowanymi przedmiotami są przedmioty matematyczne takie jak liczby, twory geometryczne, struktury algebraiczne itp., model nazywany jest modelem matematycznym. Próba przyporządkowania modelu UML do jednego z wymienionych pojęć napotyka trudności. Niewątpliwie tworząc model UML, należy przyjąć pewne założenia upraszczające sytuację problemową. Mielibyśmy do czynienia z modelem teoretycznym. Jednak to, co jest istotne w UML, to nie założenia upraszające, ale powstały diagram lub diagramy. Można by przypuszczać, że model UML należy do modeli fizycznych (tak jak jest to w przypadku map, makiet itp.). Jednak modele UML powstają w rzeczywistości wirtualnej, a nie realnej. Nie tyko pozwalają na modelowanie struktury systemu, ale również – przy użyciu odpowiednich diagramów – modelują dynamikę systemu. Nie są one również modelami myślnymi, bo pozostają ograniczone przez możliwości wirtualizacji. Choć liczby, twory geometryczne i inne obiekty matematyczne mogą stanowić integralne części modeli UML, to jednak modele UML nie redukują się do modeli matematycznych. Dlatego – jak można przypuszczać – należałoby mówić (w przypadku modeli UML) o modelach wirtualnych; rozumianych jako czwarta kategoria – obok modeli fizycznych, myślowych i matematycznych. Model wirtualny nie jest fizycznym, ponieważ nie można zbudować makiety systemu komputerowego. Nie jest myślowy, bo jego granice są wyznaczone przez możliwości wirtualizacji. Nie jest matematycznym modelem, dlatego że konstruowany jest z innych przedmiotów, niż obiekty matematyczne. Modele systemu w inżynierii oprogramowania mają spełniać trzy podstawowe funkcje33. Mają umożliwić wystarczająco jednoznaczną 32 Za Mała encyklopedia logiki, red. W. Marciszewski, Zakład Narodowy Imienia Ossolińskich, Wrocław, 1970, s.176–177. 33 Za P. Graessle, H. Baumann, Ph. Baumann, UML 2.0 w akcji, s. 21–22. 45 komunikację między osobami biorącymi udział w tworzeniu systemu informatycznego (klienci, projektanci, programiści, użytkownicy, decydenci). Po drugie, wizualizują procedury występujące w systemie z punktu widzenia klientów, ekspertów oraz użytkowników. Po trzecie, modele UML umożliwiają weryfikację faktów pod kątem kompletności, spójności i poprawności. Modelowanie całego systemu przy użyciu różnych modeli, a każdy pojedynczy model może być zbudowany z wielu różnych diagramów, pozwala uchwycić pierwotnie niedostrzegane zależności między różnymi częściami systemu. Wyróżnia się trzy sposoby używania języka UML34. Szkicowy, gdy używa się kategorii języka UML jedynie do zarysowania głównych obszarów systemu. Takie szkice najczęściej są jednorazowego użytku. UML może służyć jako język planu projektu. Wówczas tworzy się szczegółową specyfikację systemu za pomocą odpowiednich diagramów. Takie diagramy tworzy się przy pomocy odpowiednich narzędzi UML, i raz stworzone, wykorzystuje się wielokrotnie. W końcu UML również może zostać użyty jako język programowania. Korzystając z odpowiednich narzędzi diagramy UML, są tłumaczone na odpowiednie kody wykonywalne. Przenosząc te trzy sposoby użycia UML na grunt filozoficzny, łatwo zauważyć, że sposób szkicowy umożliwia wstępną analizę przedmiotu filozoficznego. Drugi pozwala konstruować rozległy model systemu. Trzeci zaś pozwoliłby na tworzenie programów komputerowych, które być może symulowałby jakieś aspekty systemu filozoficznego, co w konsekwencji prowadziłoby do weryfikacji lub falsyfikacji danej teorii filozoficznej. Mogłyby również symulować rozumowania zawarte w twierdzeniach filozoficznych, co – być może – prowadziłoby do rozległych analiz logicznych różnych tez z dziedziny filozofii. Choć w tym ostatnim przypadku, wydaje się, że lepiej nadawałyby się do tego typu wyzwań języki deklaratywne takie jak na przykład Prolog35 niż języki programowania obiektowego. Monada w UML Punktem wyjścia w modelowaniu systemów informatycznych jest stworzenie diagramu przypadków użycia. Jak sama nazwa wskazuje, ów diagram obrazuje możliwe interakcje użytkownika z systemem. Klasycznym przypadkiem użycia jest logowanie do systemu, czy rejestrowanie nowego użytkownika. 34 Za R. Miles, K. Hamilton, UML 2.0.Wprowadzenie, s. 21–22. Na temat Prologu http://www.swi–prolog.org oraz W. F. Clocksin, Prolog: programowanie, tłum. T. Żmijewski, Helion, Gliwice, 2003. 35 46 Przeniesienie konceptu diagramu przypadków użycia na grunt monadologii prowadzi do pytania o sposób interakcji z monadą. Punkt piąty z wyżej przedstawionej tabeli porównawczej monady i obiektu mógłby prowadzić do wniosku, że, skoro monady nie mają okien, nie można wejść w żadne interakcje z monadą. Jednak, gdyby tę tezę zinterpretować absolutystycznie, wówczas nie powstałaby filozoficzna teoria monad, ponieważ nic o ich istnieniu nie byłoby wiadomo. Należy więc przyjąć, że istnieje jeden przypadek użycia i jest nim tylko poznawczo-bierne udostępnianie się monady naszym aktom poznawczym. W języku UML opisana sytuacja przedstawia się następująco36: 1. Filozoficzny przypadek użycia (opracowanie własne). Pójdźmy dalej. Klasa jest typem danych, swoistym wzorcem, zgodnie z którym tworzone są obiekty. Zgodnie z koncepcją Leibniza, każda monada ma percepcję (odpowiedzialną za poznawanie) oraz apetycję (wewnętrzne źródło zmienności w monadzie). Ta podstawowa struktura monady wyrażona w języku UML przedstawia się następująco: 2. Diagram klasy Monada (opracowanie własne). Wszystkie diagramy zostały zrobione przy użyciu strony internetowej yuml.me. 36 47 Klasę w języku UML modeluje się przy użyciu tabeli. W pierwszym od góry polu znajduje się nazwa klasy (czyli Monada). W drugiej umieszcza się atrybuty. Napis „- percepcja: Poznawanie” znaczy tyle co „atrybut o nazwie percepcja jest typu Poznawanie, a jego modyfikatorem dostępu „-„ jest private”. Modyfikator dostępu jest jednym z elementów mechanizmu hermetyzacji. Określa dostępność składowej (atrybutów lub operacji) dla obiektów spoza danej klasy. Zgodnie monadologią Leibniza, monady nie mają okien, co znaczy, że żadna monada nie ma wpływu na percepcje pozostałych monad. W języku UML tego typu wymagania są modelowane przez ustawienie odpowiedniego modyfikatora. Modyfikator private („-”) informuje o tym, że tylko obiekt danej klasy może modyfikować swój własny atrybut (w analizowanym przypadku tym atrybutem jest „percepcja”). Znak „-” również występuje przy nazwie operacji „apetycja”. Oznacza to, że żaden inny obiekt nie może wywołać operacji „apetycja”. Dzięki temu mamy pełną hermetyzację monady. Operację „apetycja” zinterpretowano jako funkcję informatyczną. Pobiera ona pewne argumenty. Informacje o tym, jakie to są argumenty i ile ich jest umieszcza się nawiasie (na powyższym diagramie w nawiasie umieszczono napis „percepcja_n”, więc apetycja pobiera jeden argument typu percepcja). Operacja wykonuje pewne działania na argumencie, a przez instrukcję „return” zwraca określoną wartość (na diagramie po nazwie „return” znajduje się napis „percepcja_n+1”, czyli że apetycja zwraca kolejną percepcję37). Stworzenie jakiejkolwiek monady wyposaży ją w atrybut percepcja oraz operację odpowiedzialną za zmianę percepcji38. Percepcja została zinterpretowana jako obiekt typu „Poznawanie”, więc należałoby napisać klasę, dzięki której tego typu obiekty mogłyby Do funkcji można przekazać argument przez wartość bądź przez referencję. W pierwszym przypadku funkcja otrzymuje kopię argumentu i może przeprowadzać różne działania wyłącznie na tej kopii. W drugim, funkcja może zmieniać oryginalną wartość argumentu. Zastosowanie tego aparatu pojęciowego do monady i jej percepcji otwiera całkiem nowy sposób rozumienia Leibnizjańskiej monad. Jednak w tym krótkim artykule nie sposób przedstawić wszystkich nowych teoretycznych możliwości wyłaniających się z aplikacji pojęć z OOP do danej filozofii. 38 Opis sposóbu, w jaki apetycja przekształca jedną percepcję na drugą, powinien znaleźć się w ciele metody implementującej operację apetycja. Lecz na przyjętym poziomie abstrakcji nie jest to konieczne. Choć taka filozoficzna implementacja, czyli w miarę szczegółowe opisanie językiem filozoficznym sposobu działania apetycji zaimplementowanej jako ciało metody, byłaby kolejnym przykładem – wymuszanego przez aparat pojęciowy OOP – rozwinięcia danej koncepcji filozoficznej. 37 48 powstawać. Percepcja jako swój atrybut powinna przyjmować przedstawienie rzeczy. Obiekt typu Monada powinien mieć możliwość odczytywania przedstawień rzeczy, ale – zgodnie z determinizmem monadologii – nie powinien mieć wpływu na samo przedstawienie. Do obiektowego modelowania tej tezy najlepiej nadaje się koncept właściwość (property, propercja). Jest to metoda, poprzez którą inne obiekty mogą mieć kontrolowany dostęp do atrybutu prywatnego. Skoro obiekty monadologii powinny być w pełni – o ile jest to możliwe – hermetyzowane, to niezbędna jest właściwość umożliwiająca korzystanie z pewnych atrybutów innych obiektów. To, co zostało powiedziane, można przestawić w postać klasy39. 3. Diagram klasy Poznawanie (opracowanie własne). Właściwością udostępniającą przedstawienia monadzie jest propercja nazwana „get_Przedstawienie()” (czyli udostępnij treść przedstawienia). Została ona określona jako operacja publiczna (znak „+” przed nazwą). Każda monada ma przedstawienia. Jednak żadna monada nie ma wpływu na przeżywane przez z nią przedstawienia. Za zmianę samego przedstawienia odpowiada metoda „set_Przedstawienie” (czyli ustaw wartość atrybuty przedstawienie)40. Powstaje kwestia relacji między klasą Monada a klasą Poznawanie. W OOP zdefiniowano relację agregacji. Dwie klasy pozostają do siebie w tej relacji o tyle, o ile elementami obiektów z jednej z tych klas są W przedstawionej interpretacji uznano, że atrybut przedstawienie jest typem prostym, a nie obiektem i jako taki nie wymaga oddzielnej klasy. Chociaż problem rodzajów typów przedmiotów, jakie są konieczne dla danej teorii bytu, jest kolejnym przykładem teoretycznej efektywności zastosowania pojęć z OOP do zagadnień filozoficznych. 40 Nie ma ona żadnego modyfikatora dostępu, ponieważ – jak się wydaje – jedynie Bóg ma moc zmiany przedstawień. Jednak koncepcja Boga w ogóle nie została poruszona w tym artykule. 39 49 obiekty z drugiej klasy. Samochód jest obiektem, który składa się z innych obiektów (np. silnik, koła, karoseria, ...). Wieżowiec również jest obiektem, który jako swoje części składowe ma inne obiekty (np. okna, schody, windy, …). Poniższy diagram przedstawia możliwą relację między klasą Monada a klasą Percepcja. 4. Relacja agregacji między klasą Monada a klasą Poznawanie (opracowanie własne). Elementami składowymi monady są percepcje. Jednak percepcja bez monady nie może istnieć. Zniszczenie danej monady musi prowadzić do zniszczenia danej percepcji. Taką silną zależność w języku UML nazywa się kompozycją lub agregacją silną. Symbolicznie relacja ta na powyższym rysunku zaznaczona jest wypełnionym rombem umieszczonym na jednym z końców linii łączącej dwie klasy. Na linii tej również występują pewne liczby. Są one nazywane krotnościami. Informują one o typie relacji ze względu na dopuszczalną liczbę obiektów uczestniczących w danej relacji. Liczby, które zostały umieszczone na linii pokazują, że jedna monada może mieć wiele percepcji. Natomiast dana percepcja może przynależeć wyłącznie do jednej monady (jest to stosunek jeden do wielu). Monady jako ontologiczne atomy muszą istnieć, bo, gdyby nie istniały, to przedmioty złożone również nie mogłyby istnieć. Monady łączą się tworząc przedmioty złożone. Rzecz złożona to ciało41. Połączenie ciała z monadą tworzy istotę żyjącą42. Bycie monadą ciała oznacza bycie monadą dominującą w gromadzie monad tworzących ciało. Każde ciało ex definitione jest podzielne, czyli tworzone jest z podgromad, które z kolei są podzielne, czyli składają się z podgromad pod„61. Et les composés symbolisent en cela avec les simples … tout corps se ressent de tout ce qui se fait dans l’univers …”. 42 „63. Le corps appartenant à une Monade, qui en est l’Entéléchie ou l’Âme, constitue avec l’entéléchie ce qu’on peut appeler un vivant...”. 41 50 gromad, a i te można podzielić na … i tak w nieskończoność. Co ciekawe, Leibnizjańskia definicja istoty żyjącej na gruncie pojęć z programowania jest przykładem funkcji rekurencyjnej bez wyraźnie zdefiniowanego warunku granicznego. Funkcją rekurencyjną jest funkcja wywołująca samą siebie. Aby tak funkcja zakończyła działanie, musi być zdefiniowany warunek graniczny. Bez takiego warunku – zwanego też warunkiem stopu – funkcja będzie w nieskończoność wywoływała samą siebie. Istota żyjąca jest ciałem wraz z monadą dominującą. Aby wiedzieć czym jest to ciało, należy najpierw dowiedzieć się, jakie monady dominują w ciałach będących podgrupami ciała wyjściowego. Jednak, aby wiedzieć, czym są te „pod-ciała”, najpierw należy rozstrzygnąć, z czego składają się „pod-ciała” tych „pod-ciała” … i tak w nieskończoność. Przy takim rekurencyjnym rozumieniu ciała, funkcja tworząca ciało nigdy nie zakończy działania. Choć taki wniosek o braku warunku granicznego Leibniz – prawdopodobnie – uznałby nie za błąd, ale za kolejny argument na rzecz ograniczoności ludzkich zdolności poznawczych, z jednoczesną koniecznością uznania istnienia Absolutu, który potrafiłby działać na funkcjach rekurencyjnych bez warunku granicznego określonego na skończonej liczbie kroków. Oczywiście monada jest warunkiem stopu, ale przejście od tego, co jest rzeczą złożoną do monady, wymaga przejścia nieskończonej ilości kroków. Wprowadzając rozróżnienie na materię, czyli gromadę monad bez monady dominującej i istotę żyjącą, czyli gromadę monad z monadą dominującą, relacje łączące te trzy klasy (Monada, Materia, Ciało) można przedstawić w następujący sposób: 5. Relacja typu „ma” oraz relacja typu „jest” (opracowanie własne). W zaprezentowanym diagramie klas pojawiły się dwie nowe relacje. Jedna jest kolejnym przykładem relacji typu „ma”. Jest nią relacja agregacji (słabej) między klasą Monada a klasą Materia. Druga należy do relacji typu „jest”. Zachodzi ona między klasą Materia a klasą Ciało – nazywana jest dziedziczeniem. 51 Agregacja jest relacją łączącą klasy w ten sposób, że obiekty jednej klasą są składowymi drugiej klasy. Jednak – w przeciwieństwie do kompozycji – usunięcie obiektu, którego składowymi są obiekty należące do innej klasy, nie pociąga za sobą skasowania obiektów składowych. Na przykład składowymi obiektu kategoria_filmy_obyczajowe są obiekty klasy Film. Jednak skasowanie obiektu kategoria_filmy_obyczajowe nie pociąga za sobą likwidacji filmów, które zostały przypisane do tej kategorii. Jak można przypuszczać, agregacja łączy klasę Monada z klasą Materia. Każdy obiekt klasy Materia składa się z monad (ma monady). Każdy obiekt materialny ma atrybut, którego wartościami są monady. Modyfikator dostępu ustawiono na „+”, czyli że każdy inny obiekt ma dostęp do danego obiektu materialnego, więc może go poznać i zmienić. Na diagramie klasy Materia występuje operacja harmonizonizowanie_grupy(), która odpowiedzialna jest za Leibnizjańską harmonię wprzódy ustanowioną. Ponieważ wyłącznie Bóg ma prerogatywę, aby posługiwać się taką operacją, w diagramie nie przypisano żadnego modyfikatora dostępu do tej operacji. Krotność tej relacji ustalono na 1.. po stronie klasy Monada oraz 0.. po stronie klasy Materia. Należy przez to rozumieć, że Monada nie musi wchodzić w relację agregacji z Materią. Jednocześnie może być tak, że nieskończenie wiele obiektów monad agreguje w nieskończonej ilości obiektów materialnych. Dziedziczenie jest relacją zachodzącą między przynajmniej dwoma klasami. Polega na tym, że klasa, która dziedziczy, przejmuje wszystkie atrybuty i operacje po klasie, z której dziedziczy; poza tym ma swoje charakterystyczne atrybuty lub operacje. Niewypełniony grot wskazuje na klasę po której się dziedziczy. Na powyższym diagramie napisano, że klasa Ciało dziedziczy po klasie Materia, czyli przejmuje od Materii wszelkie atrybuty i operacje. Obiekt klasy Ciało ma atrybut grupa i operację harmonizowanie_grupy(). Ponadto ma dodatkowy, prywatny atrybut monada_dominująca oraz dwie dodatkowe operacje. Jedna z nich sprawia, że dana monada spełnia funkcję monady dominującej (dominowanie(grupa)). Druga jest właściwością udostępniającą informacje o monadzie dominującej. Na koniec tej obiektowej interpretacji kilku pojęć z monadologii Leibniza warto byłoby zwrócić uwagę na możliwość użycia mechanizmu polimorfizmu do obiektowej reinterpretacji percepcji. Skoro schemat klasowy każdej monady zredukowano do atrybutu percepcji i operacji zmiany percepcji, powstaje zasadne pytanie o różnicę między percepcją ludzką, a percepcją zwierzęcą, bądź roślinną. Przypominając, 52 że polimorfizm to wywoływanie jednej funkcji, które skutkuje różnymi efektami, można by percepcję zinterpretować polimorficznie uszczegóławiając różnice między poszczególnymi klasami w implementacji operacji ustalającej treść i sposób przedstawienia. Język UML nie sprowadza się wyłącznie do diagramów przypadków użycia czy diagramów klas. Występuje w nim wiele innych rodzajów diagramów (interakcji oraz zachowań) ukazujących dynamikę modelowanego systemu. Niestety ramy formalne artykułu uniemożliwiają obiektowe rozwinięcie teorii monad Leibniza. Zakończenie Filozofia obiektowa (OOPh) jest filozofią, która stosuje aparaturę pojęciową OOP do filozoficznych koncepcji. Próbę takiej aplikacji zastosowano w niniejszym artykule – wykorzystując przy tym graficzny język modelowania UML. Przedstawiona propozycja wydaje się wielce obiecująca, chociażby z tego powodu, że otwiera możliwości uprawiania filozofii in silico przez analogię do już istniejącej (szczególnie w naukach przyrodniczych) nauki in silico. Aleksander Gemel Uniwersytet Łódzki PRZESTRZEŃ POJĘCIOWA JAKO RAMA KATEGORIALNA DLA ZORIENTOWANYCH OBIEKTOWO ARCHITEKTUR POZNAWCZYCH1 1. Wstęp Mimo ogromnego postępu w dziedzinie nauk poznawczych oraz informatyki, problem adekwatnej i możliwie najbardziej optymalnej z obliczeniowego punktu widzenia reprezentacji ludzkich procesów poznawczych pozostaje w dalszym ciągu przedmiotem licznych sporów. Większość badaczy zajmująca się problematyką implementacji procesów kognitywnych jest zgodna, że architektura poznawcza powinna dostarczać możliwie najprostszych i stosunkowo najbardziej intuicyjnych metod implementacji procesów poznawczych, oddając przy tym właściwe cechy systemu poznawczego człowieka, i nie narzucać nań swej struktury formalnej w procesie modelowania. W praktyce jednak ten kompromis między transparencją poznawczą architektury, a jej właściwościami strukturalno-implementacyjnymi często jest niezmiernie trudny do osiągnięcia. Osiągnięcie go musi bowiem z jednej strony bazować na wynikach badań ludzkiego systemu poznawczego, z drugiej zaś musi polegać na dobraniu techniki modelowania możliwie najbardziej spójnej ze strukturą owego systemu. Nawiasem mówiąc, w pewnym sensie tak określone projektowanie architektury poznawczej pokrywa się z głównymi założeniami metodologii bottom-up, która w zasadzie wyrasta z samego wnętrza idei multi-dyscyplinarności kognitywistyki2. Ten ogólny schemat programistycznej implementacji aparatu poznawczego człowieka ma oczywiście również zastosowanie w szczegółowych analizach procesów poznawczych, w tym zwłaszcza w procesach kategoryzacji. Co więcej, schemat implementacyjny w postaci określanego języka komputerowego, np. architektury zorientowanej obiektowo, może być w gruncie rzeczy opisany jako struktura Tekst jest zmodyfikowaną wersją artykułu A.Gemel, T. Ishii, Conceptual Spaces in Object-Oriented Framework, „Hybris” 2016/4(35), s. 1-22. 2 Szerzej na temat pojęcia multi-dyscyplinarności zob. L. Ogiela, Podstawy informatyki kognitywnej, Wydawnictwo AGH, Kraków 2011, s. 9-24. 1 54 kategorialna z zachodzącymi w jej ramach relacjami. W konsekwencji, częstą przyczyną trudności związanych z procesem adekwatnej cyfrowej implementacji procesów poznawczych, jest fundamentalna niezgodność kategorialnej struktury formalnej języka programowania z faktycznym jego przebiegiem opisywanym przez psychologię. Oznacza to, że badania dotyczące informatycznego modelu struktury kategorialnej człowieka powinny zatem nie tylko wychodzić od badań stricte psychologicznych, lecz, co więcej, należy do ich reprezentacji dobrać następnie możliwie najbardziej adekwatne i transparentne techniki modelowania. Problem trudności wdrożeniowych architektur poznawczych nie daje się jednak sprowadzić tylko do niekoherencji struktur wykorzystywanych do modelowania ze strukturą umysłu, lecz sięga on znacznie głębiej, wyłaniając się z wnętrza samych założeń metodologicznych kognitywistyki. Jak słusznie zauważa Gärdenfors, z racji właściwej kognitywistyce struktury metodologicznej, znakomita większość propozycji projektowania reprezentacji poznawczych podlega realizacji w ramach dwóch głównych podejść badawczych, które reprezentują odmienne wizje modelowania poznawczych reprezentacji3. Pierwsze z nich, dalece rozpowszechnione na gruncie informatyki, zwane jest symbolicznym i bazuje na ujmowania poznawczych fenomenów przy pomocy operacji obliczeniowych na abstrakcyjnych symbolach. Drugie zaś, zwane koneksjonistycznym, polega na modelowaniu procesów poznawczych przy pomocy sztucznych sieci neuronowych. Oba podejścia mają jednak wspólną wadę, są one mianowicie niezwykle mało wrażliwe na reprezentacje zjawisk należących do kluczowej warstwy w systemie poznawczym człowieka tj. poziomu stricte pojęciowego (w tym struktury semantycznej i samej zawartości propozycjonalnej pojęć). W ramach podejścia symbolicznego pojęcia traktowane są bowiem jako jedynie symbole podlegające głównie syntaktycznym przekształceniom i zachodzącym między nimi relacjom, bez wglądu w ich wewnętrzną strukturę reprezentacyjną. Zaś modele bazujące na sieciach neuronowych dostarczają jedynie reprezentacji neuronalnych korelatów semantycznych pojęć, w dużej mierze abstrahując od ich zawartości treściowej. W opinii Gärdenforsa, nie oznacza to jednak, że podejścia symboliczne i subsymboliczne są pozbawione atutów. Przeciwnie, ich mocną stroną jest bowiem łatwość z jaką reprezentacje dają się za ich pomocą 3 P. Gärdenfors, Conceptual spaces, MIT Press, Cambridge 2000. 55 wdrażać w systemach informatycznych, wykazując przy tym niebagatelną przydatność w projektowaniu architektur poznawczych i systemów uczących się, które mimo że nie reprezentują zdolności poznawczych w sposób idealnie adekwatny, to w dalszym ciągu pozostają niezwykle przydatne do wielu celów. Łatwość implementacji jest cechą trudną do zignorowania, gdyż jednym z głównych postulatów kognitywistyki jest przecież właśnie implementacja procesów poznawczych w model komputacyjnego przetwarzania informacji. Co więcej, tzw. środkowy poziom reprezentacji w modelu przestrzeni pojęciowych – czyli podejście zaproponowane przez Gärdenforsa – ma stanowić w jego założeniu spójne z obydwoma paradygmatami uzupełnienie kognitywnej struktury reprezentacji i dawać się w pełni przekładać na oba „konkurencyjne” paradygmaty. Niezmiernie ważnym postulatem jest zatem, aby paradygmat modelowania reprezentacji pojęciowych w przestrzeniach konceptualnych Gärdenforsa, również stwarzał szerokie możliwości wdrożeniowe i dawał się uzgodnić z językami programowymi. Kwestii owej spójności poświęcony jest ten tekst. Postaram się przedstawić propozycję implementacji środkowego poziomu reprezentacji zjawisk mentalnych, przy udziale przestrzeni pojęciowych Gärdenforsa, w ramach modelu opartego na paradygmacie programowania zorientowanego obiektowo. Rozwiązanie to wydaje się być odpowiednie dla celów reprezentacji warstwy pojęciowej człowieka oraz niezwykle intuicyjne z punktu widzenia programowania systemów sztucznych. 2. Przestrzeń pojęciowa jako model struktury kategorii poznawczych Jak wcześniej wzmiankowałem, proces projektowania architektury poznawczej powinien bazować na dwóch podstawowych zasadach. Po pierwsze, powinien być on intuicyjny i dostarczać możliwie najprostszych metod implementacji zjawisk poznawczych. Po drugie, powinien on oddawać właściwe i najistotniejsze cechy modelowanego systemu poznawczego człowieka, nie zaś narzucać nań swą strukturę w procesie modelowania. Jednym z najbardziej jaskrawych przykładów ignorowania tych reguły jest jak do tej pory kwestia implementacji psychologicznych procesów kategoryzacji. W dużej mierze ten stan rzeczy jest konsekwencją immanentnej struktury kategoryzacyjnej symbolicznych i sub-symbolicznych (koneksjonistycznych) systemów architektur poznawczych, które w procesie modelowania narzucają swą immanentną organizację pojęciową na modelowany system kognitywny. System kategorialny nie jest bowiem całkowicie transparenty i, co więcej, nie 56 stanowi jedynie wyidealizowanego konstruktu, lecz jest ściśle zrośnięty z samym psychologicznie rozumianym procesem poznawczym. Jeżeli zatem zależy nam na konstrukcji podejścia badawczego, mającego na celu maksymalizację implementacyjnej optymalizacji, to warto odejść od traktowania struktury ludzkich kategorii pojęciowych jako czysto apriorycznego filozoficznego konstruktu, oderwanego od sfery kognitywnej, za który od czasów Arystotelesa uchodziła, lecz spojrzeć na nią, jak na pełnoprawny przedmiot badawczy opisywany w zgodzie z regułami rządzącymi empiryczno-eksperymentalną metodologią naukową. Orędowniczką tego ostatniego podejścia jest m.in. Eleonor Rosch, która zaproponowała spójny z wynikami eksperymentów i właściwościami ludzkiego aparatu kognitywnego model ludzkiej kategoryzacji, znany jako teoria prototypowa4. W zakresie badań nad procesem kategoryzacji podejście to jest jednak stosunkowo nowe. Struktura kategorii pojęciowych człowieka przez długi okres czasu była bowiem traktowana zgodnie z modelem klasycznym, tj. tzw. klasyczną teorią kategorii. Model ten, zwany również modelem warunków koniecznych i wystarczających (WKW), opiera się na przekonaniu, że każda kategoria może zostać w sposób zupełny i adekwatny opisana za pomocą zestawu warunków koniecznych i wystarczających. Pozorna oczywistość i intuicyjność teorii klasycznej sprawiała, że przez ponad dwa tysiące lat możliwość odmiennego spojrzenia na sposób ludzkiego kategoryzowania jawiła się jako niewyobrażalna. Jak celnie podsumowuje to Lakoff: Od czasów Arystotelesa do późnego Wittgensteina sądzono, że kategorie zostały dogłębnie poznane i że nie rodzą one żadnych problemów. […] Ta klasyczna teoria nie wyrosła na gruncie badań empirycznych; nigdy nawet nie została poddana jakiejś szerszej dyskusji. Jest poglądem filozoficznym wypracowanym na drodze rozumowania a priori. Z upływem wieków stała się jednym z podstawowych założeń przyjmowanych przez większość dyscyplin naukowych. Na dobrą sprawę do niedawna klasyczna teoria kategoryzacji nie była w ogóle traktowana jako teoria. W obrębie większości dziedzin przedstawiano ją nie jako hipotezę empiryczną, lecz jako aksjomat5. E. Rosch, Cognitive Representation of Semantic Categories, w: „Journal of Experimental Psychology”, 1975, 104, s. 192-233. 5 G. Lakoff, Kobiety, ogień i rzeczy niebezpieczne. Co kategorie mówią nam o umyśle, przeł. M. Buchta, A. Kotarba, A. Skucińska, Universitas, Kraków 2011, s. 6. 4 57 Zgodnie z teorią klasyczną, o przynależności danego obiektu do określonej kategorii decyduje posiadanie przez niego zespołu właściwości, które składają się na definicje istoty owej kategorii (w postaci połączenia wystarczających cech koniecznych). Szczególnym przypadkiem teorii klasycznej jest model strukturalistyczny, często wykorzystywany w symbolicznym paradygmacie modelowania, który pozwala na syntaktyczną interpretację modelu WKW i tym samym na abstrakcję od zawartości semantycznej modelowanego zjawiska. W modelu strukturalistycznym zespół warunków koniecznych i wystarczających, pozwalających zdefiniować dany obiekt zostaje opisany za pomocą kryterium odróżniającego go od pozostałych obiektów w danym uniwersum. Innymi słowy, każdy element jest zdefiniowany jako koniunkcja negacji elementów pozostałych, co formalnie można przedstawić jako x (x {x,y,z,…, n}: x = y z  …  n), dla n ≠ ∞. Filozoficzne konsekwencje klasycznej teorii kategorii są jednak dość istotne. Zgodnie bowiem z modelem WKW wszystkie elementy danej kategorii są równorzędne, gdyż każdy z nich jest zdefiniowany przez dokładnie ten sam zespół warunków. Model ten nie pozostawia zatem miejsca na wyróżnione egzemplarze wewnątrz danej kategorii. Po drugie, granice każdej kategorii są ostro wyznaczone, gdyż ich wytyczenie odbywa się przy pomocy zdefiniowanych w klasycznej logice dwuargumentowej spójników koniunkcji i negacji. Oznacza to, że przynależność do kategorii jest kwestią zero-jedynkową, w modelu tym brak zatem miejsca na nieokreśloność kategorialną lub na występowanie przypadków granicznych należących do dwóch i więcej kategorii jednocześnie. Krytyka klasycznej koncepcji kategoryzacji zaowocowała powstaniem tzw. teorii kategoryzacji prototypowej, opartej na eksperymentach psychologicznych, które wprost podważyły główne założenia modelu WKW6. Ich wyniki jednoznacznie wskazują na występowanie lepszych i gorszych egzemplarzy w obrębie danej kategorii, co wiąże się z koniecznością przemodelowania struktury pojęciowej. Przemodelowanie polega na konieczności wyróżnienia elementów centralnych i elementów peryferyjnych, różniących się stopniem kategorialnej reprezenta6 Por. B. Berlin, P. Kay, Basic color terms, University of California Press, Berkeley 1969; E. Rosch, Cognitive Representation of Semantic Categories, „Journal of Experimental Psychology”, 1975, 104, s. 192-233, C. Mervis, E. Rosch, Categorization of natural objects, „Annual Review of Psychology”, 1981 32, s. 89-115, G. Lakoff, Kobiety, ogień i rzeczy niebezpieczne. Co kategorie mówią nam o umyśle, przeł. M. Buchta, A. Kotarba, A. Skucińska, Universitas, Kraków 2011, passim. 58 tywności. Elementy usytuowane centralnie wewnątrz danej kategorii, zwane prototypami, stanowią swoisty probierz kategorialnej przynależności. Elementy charakteryzujące się większym stopniem podobieństwa do prototypów sytuują się bliżej centrum kategorii, z kolei te mniej podobne zyskują w wewnętrznej strukturze kategorii usytuowanie bardziej peryferyjnie. Ponadto w modelu prototypowym granice kategorii są nieostre, co wiąże się z możliwością wystąpienia nieokreśloności kategorialnej w wypadku zbliżonego stopnia podobieństwa do przynajmniej dwóch prototypów. Podobieństwo rozumiane w zgodzie z założeniami psychologii urasta tym samym do rangi jednego z istotniejszych pojęć w procesie konstytucji struktury pojęciowej człowieka. Powstaje jednak problem: jak należy je rozumieć? W większości ujęć przeważa ilościowy model podobieństwa. Zgodnie z nim podobieństwo zostaje określane przez ilość cech wspólnych dzielonych z prototypem. Jednakże model ilościowy oparty na klasyfikacji cech generuje wiele problemów, gdyż jak dowodzą liczne świadectwa empiryczne, sama ilość cech wspólnych nie odgrywa w procesie oceny podobieństwa tak ważnej roli, co współwystępowanie pewnych specyficznych zespołów określonych cech. Naturalnym rozwiązaniem byłoby zatem wprowadzenie wag przypisanych określonym cechom. Rozwiązanie to pociąga jednak za sobą zgodę na określenie przynależności kategorialnej w oparciu o współwystępowanie jednej (lub więcej) wspólnej cechy, co prowadzi do przekształcenia prototypowej teorii na powrót w model WKW. Obecność owej cechy u wszystkich egzemplarzy danej kategorii, można bowiem uznać za warunek konieczny i wystarczający przynależności kategorialnej wchodzących w jej skład egzemplarzy. Między innymi z tego powodu Gärdenfors skłania się zatem ku geometrycznemu modelowi reprezentacji podobieństwa, a co za tym idzie, również struktury konceptualnej umysłu. Model ten stanowi integralną część jego teorii przestrzeni konceptualnych. Teoria przestrzeni pojęciowych stanowi narzędzie modelowania struktury kategorialnej zgodnej z psychologiczną teorią kategoryzacji prototypowej. W odróżnieniu od paradygmatu symbolicznego, bazującego na przetwarzaniu symboli i koneksjonizmu opartego na sztucznych sieciach neuronowych, teoria Gärdenforsa wykorzystuje kategorie zaczerpnięte z geometrii i algebry wektorowej. Podstawową kategorią wykorzystywaną do modelowania zawartości semantycznej są wymiary, które reprezentują jakości reprezentowanych przedmiotów. Dany obiekt reprezentowany jest przez punkt w przestrzeni, którego współrzędne charakteryzują określone wartości przypisane poszczególnym 59 przypadkom danego wymiaru jakościowego. Toteż na przykład określony smak stanowiłby punkt w domenie smaku składającej się z czterech jakości (kwaśność, słodycz, słoność i gorycz) o określonych wartościach reprezentowanych przez konkretne współrzędne na osi każdego z jakościowych wymiarów. Konsekwencją filozoficzną modelu Gärdenforsa jest konieczność uznania infra-lingwistycznego charakteru wymiarów, czyli traktowania ich jako fenomeny pierwotne względem językowo-symbolicznej reprezentacji. Jak zauważa Gärdenfors: Wymiary jakościowe należy rozumieć niezależnie od symbolicznych reprezentacji w tym sensie, że zarówno ludzie jak i inne zwierzęta mają zdolność́ reprezentowania jakości przedmiotów, na przykład podczas planowania działań́ , bez konieczności zakładania wewnętrznego języka lub innego systemu symbolicznego, w których te cechy byłyby wyrażone 7 (Gärdenfors 2000: 11). Pojęcia w przestrzeni konceptualnej są, zdaniem Gärdenforsa, reprezentowane przez wypukłe wielokąty, których układ zostaje określony przez umiejscowienie elementu prototypowego w relacji do innych otaczających je prototypów w domenie. Rozwiązanie zaproponowane przez Gärdenforsa daje się przy tym w pełni uzgodnić z prototypową teorią kategoryzacji, gdyż w konsekwencji prowadzi ono do niejednorodnej struktury kategorii tj. zróżnicowanej pod kątem kategorialnej reprezentatywności. Zróżnicowanie stopnia reprezentatywności jest możliwe gdyż w reprezentacji geometrycznej, w ramach której pojęcia są modelowane, przy pomocy wielokątów wypukłych leżące w zakresie ich pola punkty, mogą zajmować mniej lub bardziej centralne położenie. Mechanizmem wykorzystywanym przez Gärdenforsa do podziału przestrzeni i tym samym ukonstytuowania struktury kategorialnej danej domeny jest tesselacja Woronoja. Podział Woronoja polega na wyznaczeniu części w n-wymiarowej przestrzeni reprezentującej daną sferę kognitywną człowieka, bądź jedną z poznawczych domen. Formalnie rzecz biorąc, podział dla zbioru punktów P (oznaczających prototypy) i funkcji odległości d (reprezentującej stopień podobieństwa między obiektami), należących do przestrzeni Euklidesa (złożonej z wymiarów konstytuujących domenę poznawczą) przebiega zgodnie z formułą: Reprezentujący pojęcie wielokąt w podziale Woronoja zostaje więc ukonstytuowany przez zbiór wszystkich punktów leżący bliżej danego punktu p ze zbioru P, niż pozostałych punktów z tegoż zbioru. Dzięki 7 P. Gärdenfors, Conceptual Spaces, MIT Press, Cambrige, 2000, s.11. 60 tesselacji Woronoja, do reprezentacji genezy struktury kategorii wystarcza zatem jedynie wyróżnienie przykładów prototypowych danego pojęcia i psychologicznie rozumiana relacja podobieństwa między nimi. Dla ośmioelementowego zbioru P, przykładowa tesselacja wyglądałaby następująco: Rysunek 1: Tesselacja Woronoja dla 8-elementowego zbioru P Oprócz możliwości włączenia prototypowości w model struktury kategorii, drugą zaletą teorii przestrzeni pojęciowej jest możliwość efektywnej reprezentacji zjawiska nieostrości. Rozmycie granic kategorii można uzyskać dzięki wykorzystaniu tesselacji Woronoja dokonywanej przy pomocy zbioru klastrów punktów, tj. zamiast P={p1, p2, p3,…, pn} dokonywana jest ona w oparciu o Pklas={{p11, p12, p13, …, p1n}, {p21, p22, p23, …, p2n}, …, {pn1, pn2, pn3, …, pnn}}8. Rozwiązanie to pozwala na dokonanie klastrowych wielowarstwowych tesselacji, skutkujących rozmyciem granicy między reprezentującymi pojęcia wielokątami, jak ilustrują to poniższe rysunki. 8 Szerzej na ten temat zob. L. Decock, I. Douven, What Is Graded Membership?, “Noûs”, 2014, 48, s. 653–682,I. Douven, L. Decock, R. Dietz, P, Égré, Vagueness: A Conceptual Spaces Approach, “Journal of Philosophical Logic”, 2013, 42(1), s. 137–160. 61 Rysunek 2: Diagram Woronoja wygenerowany przez zbiór P klas Rysunek 3: Wykorzystanie Pklas do modelowania nieostrych kategorii9 3. Problem struktury kategorialnej architektury danych zorientowanej obiektowo Architektura bazująca na języku zorientowanym obiektowo wydaje się najbardziej adekwatnym środkiem do implementacji modelu kategorii wyrażonej w teorii przestrzeni pojęciowych z kilku powodów. Po 9 Ibidem, s.664. 62 pierwsze, jest ona niezwykle intuicyjna i kompatybilna z rzeczywistością. Po drugie, jak pokazują badania, ludzki mózg jest w naturalny sposób przystosowany do przetwarzania informacji w taki sposób10. Po trzecie, proces programowania wychodzi od niezwykle powszechnej, typowej dla ludzi codziennej zdolności myślenia abstrakcyjnego, która również odgrywa rolę w psychologicznym procesie formowania kategorii. Wreszcie, jak postaram się pokazać, języki zorientowane obiektowo są niezwykle łatwo uzgadnialne z modelem przestrzeni pojęciowych, co pozwala na bardzo efektywne i intuicyjne modelowanie procesów poznawczych w systemach informatycznych. Główną ideą architektury poznawczej opartej na paradygmacie programowania zorientowanego obiektowo jest przekonanie, że system wiedzy, lub kognitywny system pojęciowy istniejący w rzeczywistości, może zostać adekwatnie wyrażony w postaci formalnej za pośrednictwem kategorii obiektów i relacji zachodzących między nimi. Proces ten nosi miano procedury modelowania; następnie, będący jego efektem formalny system reprezentacji, zostaje odzwierciedlony w postaci programu komputerowego, co można określić mianem procesu symulacji. Wyjaśnienia wymaga przy tym kilka rzeczy. Po pierwsze, pojęcie rzeczywistości użyte w poprzednim akapicie nie musi z konieczności oznaczać zewnętrznej wobec umysłu rzeczywistości materialnej. Dotyczy ono raczej każdej sfery zewnętrznej względem formalnego systemu reprezentacji języka zorientowanego obiektowo. W kontekście projektowania architektury poznawczej zorientowanej obiektowo, rzeczywistość oznacza więc sferę stricte mentalną, bądź pojęciową strukturę umysłu. Terminowi „rzeczywistość mentalna” można przypisać zatem określony model struktury kategorialnej z opisanymi na nich relacjami. Co więcej, można powiedzieć, że struktura ta daje się formalnie opisać w sposób adekwatny za pomocą modelu przestrzeni pojęciowych, jak starałem się to pokazać w poprzednim paragrafie. W pewnym sensie, projektując zatem w języku zorientowanym obiektowo architekturę poznawczą, zgodną z ustaleniami poprzedniego paragrafu, możemy mówić albo o podwójnej procedurze modelowania (jednej za pomocą struktury kategorii modelu Gärdenforsa, drugiej polegającej na przełożeniu jej na reguły języka obiektowego), albo, co na jedno wychodzi, pokazać, że oba podejścia formalne są ze sobą spójne (czy też, że przynajmniej dają się uspójnić) i potraktować tym samym model przestrzeni 10 S. Sheetz, D. Tegarden, Illustrating the cognitive consequences of objectoriented systems development, “The Journal of Systems and Software”, 2001, 59, s. 163-179. 63 pojęciowej jako procedurę modelowania, która następnie podlega jedynie procesowi symulacji w języku obiektowym. Pokazanie zgodności obu modeli jest właśnie celem tego artykułu. Aby pokazać strukturalną koherencję języka obiektowego z psychologicznym modelem kategorii opisanym w przestrzeni pojęciowej, warto zacząć od wyjaśnienia głównych cech i pojęć myślenia i projektowania zorientowanego obiektowo11. Podstawowymi jednostkami języka zorientowanego obiektowo jest klasa, której rola polega na definiowaniu obiektu będącego jej reprezentantem. Klasy w odniesieniu do obiektów stanowią swego rodzaju dane wyższego poziomu, gdyż to one konstytuują kod programu, toteż można je postrzegać jako podstawowe elementy konstytutywne dla opisywanych obiektów. Obiekty stanowią zatem jedynie manifestację określającej je klasy i, jako takie, można je postrzegać jako jednostki czysto konceptualne złożone ze stanu (zbioru atrybutów wyznaczonych przez klasę), oraz zachowania (tj. zbioru przypisanych im metod). Podstawowe elementy obu systemów formalnych (języków obiektowych i przestrzeni pojęciowych) dają się w prosty sposób na siebie wzajemnie przekładać. Obiekty mogą zostać opisane w kategoriach punktów w przestrzeni, kategorie będące zbiorem obiektów odpowiadają wielokątom wypukłym, właściwości definiujące atrybuty obiektów w pełni dają się opisywać jako wymiary definiujących daną domenę. Ta ostatnia zaś odpowiada definiujące elementy języka obiektowego klasie. Ta bezpośrednia korelacja elementów w obu modelach formalnych nie przekłada się jednak na całkowitą odpowiedniość strukturalną ich systemu kategorii. Problem polega na tym, że w konstrukcji formalnej języka zorientowanego obiektowo ucieleśniona jest implicite klasyczna teoria kategoryzacji. Zaś budowa architektury poznawczej modelującej psychologiczny proces kategoryzacji z definicji musi wykraczać właśnie poza ustalenia teorii klasycznej. W konsekwencji, dla pełnego uzgodnienia języków obiektowych z modelem Gärdenforsa, konieczne jest uzgodnienie struktury procesu kategoryzacji obu systemów. W praktyce sprowadza się to do dwóch punktów. Mianowicie do włączenia do języków obiektowych: efektów prototypowych oraz gradacji przynależności (fenomenu nieostrości). Osiągnięcie pierwszego celu jest w istocie dość proste. Co prawda, zgodnie z najbardziej paradygmatyczną wizją języka zorientowanego Celowo pomijam specyfikację języków obiektowych na tle innych paradygmatów programowania, np. funkcjonalnego. Szerszą charakterystykę języków obiektowych w tym kontekście można znaleźć w: A. Gemel, T. Tshii, Conceptual Spaces in Object-Oriented Framework …, s. 1-22. 11 64 obiektowo, określenie obiektów następuje poprzez odniesienie do klasy, która w duchu klasycznej teorii kategoryzacji może zostać opisana jako zespół koniecznych i wystarczających warunków definiujących obiekty. Istnieją jednak liczne modyfikacje tej ortodoksyjnej wizji języka obiektowego, które pozwalają na bardziej elastyczne definiowanie obiektów w systemie. Jedną z nich jest prototypowy język zorientowany obiektowo. Fundamentalna różnica między klasycznym a prototypowym paradygmatem obiektowym sprowadza się do uznania odmiennego statusu ontologicznego obiektu. W systemach prototypowych obiekty są definiowane jako określone konkretne przedmioty z konkretną przypisaną im listą własności i zachowaniem dziedziczonym od prototypu, nie zaś jako jedynie abstrakcyjne konkretyzacje swojej klasy. Systemy prototypowe mają wiele zalet praktycznych, uchodzą przy tym za niezwykle eleganckie i silnie korespondują ze współczesną kognitywną teorią kategoryzacji: Języki oparte na prototypach są eleganckie pod względem pojęciowym oraz posiadają wiele innych cech, które czynią je atrakcyjnymi. Języki te są również wyraźnie bliższe teorii prototypowej rozwijanej przez psychologów poznawczych i filozofów. Na przykład, zdolność języków prototypowych do modelowania obiektowej zmiany i ewolucji na poziomie poszczególnych obiektów zmniejsza potrzebę klasyfikacji a priori i zachęca do bardziej iteracyjnego stylu programowania i projektowania. Ogólnie rzecz biorąc, podczas pracy z prototypami, programista zazwyczaj nie zdecyduje się kategoryzować, lecz wykorzysta podobieństwo. Projektant ma do czynienia raczej z konkretnymi realizacjami pojęć niż z ich abstrakcyjnymi opisami12. Jednakże, szczególnie istotne jest to, że prototypowy język zorientowany obiektowo daje się w pełni uzgodnić z prototypową strukturą kategorii i tym samym z modelem jej genezy w przestrzeni pojęciowej13. Jak wcześniej wzmiankowałem, pełne uzgodnienie języków obiektowych z modelem przestrzeni pojęciowej wymaga, oprócz włączenia efektów prototypowych do paradygmatu obiektowego, również ko12 A. Taivalsaari, Classes vs. Prototypes: Some Philosophical and Historical Observations, “Journal of Object-Oriented Programming”, 1997, 10(7), s. 4450. 13 Szerzej na ten temat zwłaszcza w kontekście procedury klonowania w językach obiektowych i jej możliwych związkach z tesselacją w przestrzeni pojęciowej zob. A. Gemel, T. Tshii, Conceptual Spaces in Object-Oriented Framework …, s. 15-16. 65 nieczności wpisania weń możliwości modelowania fenomenu nieostrości oraz powiązanego z nim zjawiska gradacji przynależności kategorialnej. Problem opracowania najbardziej efektywnej strategii włączenia nieostrości w zorientowaną obiektowo architekturę danych jest, jak podkreśla Marin, powszechnie dyskutowany w literaturze przedmiotu: Na przestrzeni ostatnich kilku lat, model obiektowo-zorientowanych baz danych został zmodyfikowany pod kątem możliwości włączenia weń nieostrości. W związku z tym pojawiły się rozmyte obiektowe modele baz danych. Nieostrość badano na różnych poziomach: rozważając rozmyte domeny atrybutów w bazie danych, zmiękczając ideę przynależności obiektu do klasy, poluzowując relację nadklasy z podklasą, a nawet starają się odzwierciedlać rozmycie w zachowaniu obiektów14. Jednym z bardziej skutecznych prób rozwiązania kwestii efektywnego włączenia zjawiska stopniowalności przynależności kategorialnej w projektowanie obiektowe, jest zaproponowany przez Martin, Pons i Vila wykorzystanie typu rozmytego15. Pozwala on na włączenie do modelu obiektowego różnych poziomów stopniowalnej przynależności przypisanych określonym atrybutom. Typ rozmyty bazuje na definicji klasycznie rozumianego typu zdefiniowanego jako para uporządkowana (S, Z) gdzie S jest zbiorem atrybutów zaś Z zbiorem metod opisujących wachlarz możliwych zachowań obiektów, które ów typ adaptują. Różnica między rozmytą a klasyczną postacią typu polega na odmiennym zdefiniowaniu komponentu strukturalnego w przypadku tego pierwszego, tj. jako zbioru rozmytego zdefiniowanego na wszystkich atrybutach z przypisaną mu funkcją przynależności o postaci S: A [0,1]. W konsekwencji klasę K można opisać również jako parę uporządkowaną złożoną z typu rozmytego i wszystkich realizujących go obiektów tj. (FuzzT, O), gdzie typ rozmyty stanowi parę (FuzzS, B) złożoną ze zbioru rozmytego atrybutów i przypisanego realizującym je obiektom zestawu zachowań. Zastosowanie typu rozmytego pozwala na pełne uzgodnienie języka obiektowego z formalnym modelem przestrzeni pojęciowych, w konsekwencji umożliwiając symulację psychologicznie adekwatnej postaci struktury kategorii w języku zorientowanym obiektowo. 14 N. Marin, O. Pons, A. M. Vila, A Strategy for Adding Fuzzy Types to an Object-Oriented Database System, “International Journal Of Intelligent Systems”, 2001, Vol. 16, s. 863. 15 Ibidem, s. 863-880, oraz N. Marin, O. Pons, A. M. Vila, Fuzzy Types: A New Concept of Type for Managing Vague Structures, “International Journal of Intelligent Systems”, 2000 Vol. 15, s. 1061-1085. 66 Warto przy tym podkreślić, że dobieranie transparentnych metod symulacji podczas projektowania architektury poznawczej, wiąże się z koniecznością dostosowania języka do modelowanego fenomenu. Jak przystało na typową procedurę inspirowaną pragmatycznie, proces modelowania powinien być zatem możliwie najbardziej elastyczny w doborze technik symulacji. Zaproponowany w artykule projekt konstrukcji architektury poznawczej bazujący na języku obiektowym i modelu przestrzeni pojęciowej, nie zawsze będzie najlepszą strategią implementacyjną dla każdego kognitywnego fenomenu. Słynny model widzenia autorstwa Marr’a jest, dla odmiany, bezpośrednio inspirowany programistycznymi językami proceduralnymi16, nic przy tym nie tracąc na efektywności symulacji. Jednakże w przypadku, gdy w grę wchodzą procesy związane z kategoryzacją oraz modelowaniem przetwarzania reprezentacji obiektowych, zaproponowany proces obiektowej symulacji modelu przestrzeni pojęciowej wydaje się być szczególnie wskazany. 16 Szerzej na ten temat zob. J. Mayhew, J. Frisby, Computer vision, w: Artificial Intelligence: Tools, Techniques, and Applications, red. T. O’Shea, M. Eisenstadt, Harper & Row, New York, 1984 s. 301–357. Tomasz Walczyk Uniwersytet Warmińsko-Mazurski w Olsztynie PERCEPCJA W CYFROWYM ŚWIECIE Percepcja odgrywa podstawową rolę wśród całej gamy procesów poznawczych. Mówiąc językiem fenomenologii, jest najbardziej źródłową relacją ze światem zewnętrznym. Dzięki zdolnościom percepcyjnym organizmy żywe zdolne są działać w środowisku i realizować określone cele, jednocześnie przekształcając obszar swojej aktywności. Z biegiem czasu, pole działania człowieka podlega gwałtownym zmianom, czego wyraźną egzemplifikacją mogą być coraz nowocześniejsze pojazdy, w tym te służące do eksploracji wcześniej niedostępnych obszarów, wynalazki w dziedzinie robotyki, wzmacniacze percepcji, takie jak teleskopy i mikroskopy, czy też komputery oraz ufundowana na ich bazie rzeczywistość wirtualna. Moce percepcyjne człowieka, niegdyś służące skutecznemu zdobyciu pożywienia i zapewnieniu przetrwania, obecnie w znacznym stopniu zwrócone są ku fenomenom świata wirtualnego. Z udogodnień rzeczywistości wirtualnej korzystają miliardy ludzi na całym świecie, przez całą dobę, w praktycznie każdym zakątku globu. Obsługa zestawu komputerowego i dostęp do Internetu umożliwia niekończącą się podróż po interaktywnej sieci, a sprawne poruszanie się po niej oraz umiejętność jej kształtowania (programowania) może wyraźnie wpłynąć na egzystencję człowieka, a w gruncie rzeczy, również na losy całego gatunku ludzkiego. W artykule dokonam przeglądu filozoficznych i kognitywistycznych stanowisk w badaniach nad percepcją, skupiając się zwłaszcza na najnowszych dokonaniach. Percepcji nie należy traktować jako procesu poznawczego oderwanego od środowiska działania czy też pasywnego odbioru wrażeń, stąd też najwięcej uwagi poświęcę koncepcjom poznania ucieleśnionego, podkreślających aktywną eksplorację otoczenia przez podmiot percypujący. Ujęcie to stanowić będzie pomost łączący nasze biologiczne życie z mającą coraz większe znaczenie aktywnością w cyberprzestrzeni. Nakreślę również wstępną kategoryzację zjawisk rzeczywistości wirtualnej, ponieważ uważam, że jest to fenomen niezwykle niejednorodny, wymagający dookreślenia, odznaczający się szerokim spektrum zupełnie różnych zastosowań. 68 Percepcję definiuje się jako proces „pozyskiwania za pomocą zmysłów informacji na temat zdarzeń i obiektów zlokalizowanych w otoczeniu obserwatora”1. Badania nad nią mają charakter interdyscyplinarny, uczestniczą w nich filozofowie, kognitywiści i psycholodzy. Do zadań psychologów należy rozpoznanie faktycznego przebiegu procesów percepcyjnych wraz z odnalezieniem empirycznych prawidłowości, zgodnie z którymi działają poszczególne zmysły. Kognitywiści najczęściej traktują percepcję jako: wieloetapowy proces przetwarzania informacji, jaką wydobywa podmiot z otoczenia. Respektują oni zwykle postulat Marra, aby procesy percepcji rozważać na trzech podstawowych poziomach: teoretycznym, reprezentacji i algorytmu oraz implementacji neuronalnej. Na poziomie teoretycznym poszukuje się odpowiedzi na pytanie: na czym polega proces przetwarzania informacji percepcyjnej? Na poziomie reprezentacji i algorytmu rozważa się pytanie: w jaki sposób i według jakich algorytmów tworzone są reprezentacje percypowanych obiektów? Natomiast na poziomie implementacji podstawowe jest pytanie: w jakich strukturach neuronowych realizowane są procesy percepcyjne2. W kognitywistyce po dziś dzień dość popularna jest obliczeniowa teoria umysłu (mająca początki w latach 50-tych XX wieku), u której podłoża leży teza funkcjonalizmu, zrównująca procesy poznawcze z programami dokonującymi obliczeń według ściśle określonego algorytmu3. Program taki nie jest zależny od swego fizycznego nośnika i może być w równym stopniu zrealizowany w systemach sztucznych, np. robotach. Procesy poznawcze, w tym percepcyjne, są, krótko mówiąc, algorytmami operującymi na symbolicznych reprezentacjach. Operacji tych dokonuje mózg-komputer, który z racji swych funkcji staje się najważniejszym przedmiotem badań ówczesnych kognitywistów. W latach 80-tych XX wieku, komputacjonizm doczekał się zmasowanej krytyki, czego wyrazem stała się nowa metafora – „umysłu jako wspólnego tańca mózgu, pozaneuronalnych procesów cielesnych oraz A. Schetz, Percepcja i pamięć, w: Przewodnik po epistemologii, red. R. Ziemińska, Wydawnictwo WAM, Kraków 2013, s. 271. 2 Ł. Przybylski, Procesy percepcyjne, w: Przewodnik po filozofii umysłu, red. M. Miłkowski i R. Poczobut, Wydawnictwo WAM, Kraków 2012, s. 128. 3 Wnikliwej krytyki komputacjonizmu dokonał Józef Dębowski, zob. J. Dębowski, Pułapki komputacjonizmu, „Filozofia nauki” 2004, nr 1, s. 29-50. 1 69 środowiska”4. W ten sposób narodziło się w kognitywistyce podejście do procesów poznawczych, które zaowocowało nowym paradygmatem – poznania ucieleśnionego. Położono w nim nacisk na wzajemną interakcję mózgu, ciała i środowiska. Mózg stracił swój prymat na rzecz ciała, które zdaniem autorów tego nurtu, stanowi nieodłączny, determinujący czynnik systemu poznawczego. W ten sposób dochodzi również do wyraźnego scalenia dorobku filozofii i kognitywistyki, czego dowodem jest wpływ, jaki wywarła na przedstawicieli nurtu poznania ucieleśnionego fenomenologia ciała Merleau-Ponty’ego5. Filozoficzna analiza percepcji opiera się przede wszystkim na poszukiwaniu związków między zdobytą przy pomocy zmysłów informacją a uzasadnionym przekonaniem, czyli wiedzą. Problemem kanonicznym jest również relacja, jaka zachodzi między tym, jak świat się jawi, a tym, jaki jest niezależnie od podmiotu percypującego. Do głosu dochodzi tu problematyka pomyłek percepcyjnych, jak iluzje czy halucynacje. Dylematy wokół nich dostarczają całego spektrum argumentów, które stosuje się następnie jako intelektualny oręż w sporach między przedstawicielami fenomenalizmu, realizmu pośredniego i realizmu bezpośredniego 6. Fenomenalizm zakłada, że przedmiotem poznania są byty umysłowe, dane zmysłowe, a nie przedmioty fizyczne; za sprawą percepcji nigdy nie docieramy do rzeczywistości pozazjawiskowej7. Przedstawiciele realizmu pośredniego uznają, że przedmiotem poznania są umysłowe reprezentacje przedmiotów i ich własności. Reprezentacja percepcyjna jest pośrednikiem między światem a świadomością podmiotu poznawczego; za jej sprawą można w akcie percepcyjnym dotrzeć do przedmiotów zewnętrznych. Ostatni z wymienionych kierunków – realizm bezpośredni – postuluje, iż percepcja jest bezpośrednia, relacja między obserwatorem a światem zewnętrznym zachodzi bez pośrednictwa danych zmysłowych. „Osią tego stanowiska jest idea, w myśl której bezpośrednim przedmiotem percepcji (tym, co prezentuje 4 B. Trybulec, Fenomenologia a kognitywistyka – dwie metody analizy podmiotu poznania. Perspektywa współpracy i problemy, „Filozofia i nauka” 2015, nr 3, s. 281. 5 Koncepcji poznania ucieleśnionego poświęcę znacznie więcej uwagi w dalszej części artykułu. 6 Jest to podział podstawowy i najczęściej spotykany w filozofii. Zob. J. Woleński, Epistemologia. Tom 2, Wydawnictwo Aureus, Kraków 2001, s. 65. 7 Argumentacja fenomenalizmu opiera się często na przykładzie koperty Georga E. Moore’a. Koperta widziana z różnych perspektyw prezentuje się obserwatorom odmiennie. Raz jest szara i trapezoidalna, innym razem śnieżnobiała i romboidalna, zob. A. Schetz, Ibidem, s. 276. 70 treść doświadczenia percepcyjnego) nie są żadne umysłowe odpowiedniki przedmiotów, ale same te przedmioty i ich własności”8. Spór wokół granic poznania toczy się od dawien dawna, a każda z tradycji może pochwalić się znacznym dorobkiem i wieloma celnymi uwagami. W artykule opowiem się po stronie realizmu bezpośredniego, gdyż linia argumentacyjna tego stanowiska jest najbliższa moim przekonaniom. W mojej opinii fenomenalizm jest oparty na błędnej koncepcji percepcji, zwłaszcza w kontekście odebrania otoczeniu percypującego podmiotu charakteru obiektywnie istniejących przedmiotów. Pytanie, jakie stanowisko zająłby fenomenalista, gdyby podczas safari ujrzał rozpędzone, rozjuszone i gotowe do ataku stado lwów? Czy nadal rozpatrywałby je w kategorii jakości fenomenalnych, danych zmysłowych, które inni uczestnicy safari percypują odmiennie (gdyż obserwują lwy z innej perspektywy etc.)? Zapewne nie. Łatwiej argumentować bazując na przykładach koperty czy monety, trudniej konsekwentnie bronić koncepcji fenomenalizmu w warunkach zagrażających przetrwaniu. W żartobliwym tonie argumentuje na rzecz realizmu bezpośredniego, amerykański filozof John R. Searle, odwołując się do przypadków iluzji podwojonego palca i kija zanurzonego w wodzie. Pisze: W obu wypadkach, mianowicie w przykładzie z podwojonym palcem i złamanym patykiem, wprowadza się pojęcie widoku, aby służył jako dopełnienie bliższe dla orzeczenia z czasownikiem oznaczającym czynność percepcyjną. Cały pomysł polega na tym, aby przekonać adresata argumentu, że nie widzi samego przedmiotu, lecz tylko jego widok. Kiedy jednak się nad całą sprawą zastanowić, nietrudno dostrzec, że w pomyśle widzenia widoków przedmiotów zamiast samego przedmiotu jest coś wewnętrznie sprzecznego. Widzieć widok przedmiotu to po prostu widzieć, jak on wygląda. A nie ma takiej możliwości, żeby widzieć jak coś wygląda, nie widząc równocześnie tego czegoś. […] Przypuśćmy, że zadaję komuś pytanie: „Widziałeś jak Sally wyglądała na przyjęciu?” Niewielki miałaby sens odpowiedź z rodzaju: „Tak, widziałem, jak wyglądała, ale niestety jej samej jakoś nie udało mi się zobaczyć. Widziałem tylko jej widok” 9. Skoro zakładamy, że przynajmniej od czasu do czasu skutecznie porozumiewamy się z innymi ludźmi, to musimy jednocześnie założyć istnienie wspólnych, dostępnych każdemu interlokutorowi, obiektywnie bytujących przedmiotów odniesienia. 8 9 Ibidem, s. 283. J. R. Searle, Umysł. Krótkie wprowadzenie, Rebis, Poznań 2010, s. 269. 71 Podobnie jak Searle, fenomenologowie również podkreślają bezpośrednią i niezapośredniczoną naturę percepcji. „Bezpośredniość percepcji oznacza, że między postrzegającym a tym, co postrzegane, nie ma żadnego członu pośredniego (obrazu lub reprezentacji)”10. W przeciwieństwie do stanowiska reprezentacjonistycznego, aby zrozumieć i wyjaśnić procesy percepcyjne, nie musimy odwoływać się do pośredniczącego między umysłem a światem interfejsu. „Jeśli reprezentacja ma służyć jako reprezentacja, to musimy ostatecznie przyjąć jakiś rodzaj percepcji, która nie opiera się na reprezentacji”11. Bez tego bezpośredniego kontaktu nikt nie mógłby mieć pewności, że reprezentacje dotyczą niezależnych wobec podmiotu przedmiotów zewnętrznych. Ucieleśnione poznanie Fenomenologia, zwłaszcza w wydaniu Merleau-Ponty’ego stanowi niewątpliwie jedno z głównych źródeł inspiracji dla przedstawicieli nurtu poznania ucieleśnionego i dobry przykład owocnej współpracy filozofii z kognitywistyką. W Fenomenologii percepcji francuski myśliciel pisał: Ciało własne jest źródłem wszystkich innych przestrzeni, samym ruchem ekspresji, tym co rzutuje znaczenia na zewnątrz, udzielając im miejsca, tym co sprawia, że zaczynają one istnieć jak rzeczy, pod naszymi rękami, przed naszymi oczami. […] Ciało jest naszym ogólnym sposobem posiadania świata12. Już u Husserla pojawiło się istotne rozróżnienie ciała na materialny obiekt, bryłę, posiadającą własności, takie jak kształt, rozmiar, kolor, położenie (Körper). Z kolei wrażenia zmysłowe konstytuują „moje ciało”, które jest swoistym polem wrażeń, żywym ciałem (Leib). Leib nie jest statycznym przedmiotem, a dynamicznym „samoprzejawianiem się” ciała. Jest jednością, której doświadczamy podczas percypowania, działania i poruszania się. Dla Merleau-Ponty’ego, który rozwijał własną koncepcję cielesności, źródłowe doświadczanie świata, to doświadczenie ciała działającego w świecie. Podkreśla on „w duchu filozofii fenomenologicznej, że proces zachowania lub rozumienia, jaki wyłania się z interakcji między S. Gallagher, D. Zahavi, Fenomenologiczny umysł, PWN, Warszawa 2010, s. 132. 11 Ibidem, s. 134. 12 M. Merleau-Ponty, Fenomenologia percepcji, przeł. M. Kowalska i J. Migasiński, Aletheia, Warszawa 2001, s. 166. 10 72 ucieleśnionym bytem a otoczeniem, jest w istocie procesem konstytucji sensu, a ciało jest narzędziem tego rozumienia”13. Do jednego z najważniejszych, używanych przez filozofa pojęć, należy zaliczyć pojęcie schematu ciała, (schéma corporel), które w Fenomenologii percepcji, zyskuje dwa znaczenia. Z jednej strony oznacza ono „streszczenie naszego cielesnego doświadczenia, które może wyjaśniać i nadawać znaczenie percepcji wewnętrznej oraz percepcji samego siebie w danej chwili”14. Wersja ta dotyczy postrzegania pozycji własnego ciała i wyrażać ma „przestrzenną i czasową jedność ciała, jego jedność międzyzmysłową lub sensomotoryczną”15, określającą „mój” aktualny stan w świecie. Druga definicja schematu ciała dotyczy jego dynamicznego charakteru. „Psychologowie mówią często, że schemat cielesny jest dynamiczny. Ściśle rzecz biorąc, termin ten znaczy, że moje ciało jawi mi się jako postawa funkcjonalnie odniesiona do pewnego aktualnego bądź możliwego działania”16. Percepcja i motoryczność ciała są zatem nierozerwalnie związane; każda zmiana położenia ciała wpływa na postrzeganie, i odwrotnie, postrzeganie wpływa na zmianę pozycji ciała. „Dla Merleau-Ponty’ego motoryczność jest pierwotną intencjonalnością, która w kontekście aktualnego bądź zamierzonego zadania, kieruje ku konkretnym rzeczom w otoczeniu”17. Źródłowa forma świadomości „Ja myślę” zastąpiona zostaje ucieleśnionym „Ja mogę”. Ciało jest zakorzenione w środowisku działania i, co warto podkreślić, wytwarza coraz bardziej wysublimowane narzędzia, których systematyczne użytkowanie wpływa na rekonfiguracje schematu ciała. Narzędzia stają się zatem przedłużeniami nas samych. Paradygmat poznania ucieleśnionego kształtował się również w oparciu o ekologiczną teorię percepcji Jamesa J. Gibsona. Znaczącym wkładem jest jego teoria afordancji, czyli sposobności do działania, które odsłaniają się podmiotowi percypującemu w relacji do spostrzeganych obiektów. Są to własności relacyjne, które konstytuują się dzięki sprzężeniu fizycznych własności przedmiotów z jednej strony, z drugiej zaś dzięki fizycznej strukturze ciał i ich zdolności sensomotorycznych. Percypujący podmiot rozpoznaje afordancje dzięki wskazówkom percepcyjnym pochodzącym ze środowiska oraz niezmienni13 M. Pokropski, Cielesna geneza czasu i przestrzeni, Wydawnictwo IFiS PAN, Warszawa 2013, s. 42-43. 14 M. Merleau-Ponty, op. cit., s. 117. 15 Ibidem, s. 118. 16 Ibidem, s. 119. 17 M. Pokropski, Ciało. Od fenomenologii do kognitywistyki, „Przegląd filozoficzno-literacki” 2011, nr 4, s. 124. 73 kom (invariants), które są zawarte w informacjach napływających z otoczenia18. Koncepcje Merleau-Ponty’ego i Gibsona są ważnymi ogniwami w procesie narodzin paradygmatu poznania ucieleśnionego. Z racji jego niejednorodności niezbędna będzie krótka klasyfikacja, wskazująca na różnice między przedstawicielami analizowanego paradygmatu. Shaun Gallagher w artykule Interpretations of Embodied Cognition rozróżnia pięć podstawowych stanowisk, klasyfikowanych pod kątem wpływu, jaki ciało wywiera na procesy poznawcze: minimalne ucieleśnienie (A. Goldman, F. de Vignemont), ucieleśnienie biologiczne (L. Shapiro), ucieleśniona semantyka (G. Lakoff, M. Johnson), ucieleśniony funkcjonalizm (A. Clark, D. Chalmers) oraz radykalne ucieleśnienie (F. Varela, A. Noë, E. Thompson, S. Gallagher) 19. Przykładowo, kiedy widzę, że jest ulewa za oknem, słyszę dźwięki spadających kropli, to jeśli wychodząc na zewnątrz, nie zabiorę z sobą parasola, zmoknę. Jeśli jest na zewnątrz ulewa, niezmienne jest to, że jeśli nie osłonię się przed wodą, to moje odzienie będzie mokre. Parasol niezmiennie służyć może mi do osłony przed deszczem, kiedy go odszukam, dostrzegam w nim sposobność do działania i rozszerzenia swego ciała o własności tego narzędzia. Pomijam przypadki zepsucia przedmiotu. Inną kwestią jest swoista relatywność afordancji, jej ścisła relacyjność w stosunku do konkretnego perceptora, jego ciała i motoryki. Parasol dla mrówki, geparda czy nietoperza nie będzie zbyt użytecznym narzędziem. Podobnie sprawa wygląda w przypadku wynalazków takich jak komputery czy ufundowana na ich bazie rzeczywistość wirtualna. 19 S. Gallagher, Interpretations of Embodied Cognition, w: The Implications of Embodiement: Cognition and Communication, red. W. Tschacher, C. Bergomi, Exeter: Imprint Academic 2010. Stanowisko minimalnego ucieleśnienia zakłada, że ciało jest istotne w procesach poznawczych, ale należy je rozpatrywać w oderwaniu od środowiska i relacji ze światem zewnętrznym. Ucieleśnienie biologiczne podkreśla rolę budowy organizmów i ich motoryki w procesach poznawczych, zwłaszcza percepcji. Ucieleśniona semantyka rozwija teorię wpływu ciała na tworzenie się struktur semantycznych. Szczególnym mechanizmem łączącym ucieleśnione doświadczenie i konceptualizację myśli jest metafora. Ucieleśniony funkcjonalizm zakłada, iż ciało jest częścią rozszerzonego systemu poznawczego, który składa się z mózgu, ciała i środowiska. Procesy poznawcze mogą być też z powodzeniem wzmacniane w oparciu o przekształcenia środowiska zewnętrznego, narzędzia, np. smartfon, dysk pamięci zewnętrznej itp. Ostatnim kierunkiem wyróżnionym przez Gallaghera jest radykalne ucieleśnienie lub inaczej enaktywizm, według którego percepcja jest działaniem, a sensomotoryczna aktywność ciała odpowiada za kształtowanie się większości procesów poznawczych. Enaktywiści twierdzą, że poznanie odbywa się nie tylko „w głowie”, ale rozszerzone jest na ciało i środowisko 18 74 Innego podziału dokonuje Margaret Wilson. W artykule Six views of embodied cognition rozróżnia kilka istotnych twierdzeń tego nurtu: a) poznanie jest usytuowane, b) poznanie musi być rozumiane jako dziejąca się w czasie rzeczywistym interakcja ze środowiskiem (poznanie on-line), c) środowisko jako magazyn potrzebnej informacji, d) środowisko jako część systemu poznawczego, e) poznanie określone jest przez działanie w środowisku, f) poznanie nie będące interakcją ciała ze środowiskiem (off-line) nadal opiera się na ciele20. Percepcja a cyfrowy świat Korzystając z wymienionych wskazówek, dokonam analizy percepcji w środowiskach cyfrowych, środowiskach niezwykle dynamicznych, zmiennych, rozwijających się w ekspresowym tempie21. Podstawową kategorią w percepcji cyfrowego świata nadal winno być ciało wraz z sensomotorycznymi zdolnościami, znajdującymi odbicie w coraz nowocześniejszych, angażujących ruch interfejsach komunikacji ze środowiskami cyfrowymi. Przyjmując za przedstawicielami nurtu ucieleśnionego poznania, że również środowisko jest istotną częścią składową systemu poznawczego, należy zwrócić szczególną uwagę na przekształcenia, jakich dokonał człowiek w swoim otoczeniu, wpływając na oblicze przestrzeni swego działania. To, co niegdyś kosztowało posłańca mnóstwo wysiłku i wiązało się długą i niebezpieczną podróżą, zewnętrzne (podobnie jak w ucieleśnionym funkcjonalizmie, z tą różnicą, że enaktywiści odrzucają pojęcie reprezentacji umysłowej; w jakim celu tworzyć wymagającą wewnętrzną reprezentację, skoro w łatwy sposób można pozyskać informację ze środowiska). 20 M. Wilson, Six views of embodied cognition, „Psychonomic Bulletin and Review” 2002, nr 9, s. 625-635. 21 Aby dobitnie udokumentować wzrost znaczenia środowisk cyfrowych najlepiej posłużyć się konkretnymi statystykami. Szacuje się, że globalny roczny transfer danych internetowych w 2016 roku przekroczył granicę 1 zetabajta, czyli miliarda terabajtów (1ZB=1000EB=1000000PB=1000000000TB). Globalny miesięczny transfer danych w 2015 roku wyniósł 72521 PB, dla porównania w 2000 roku wynosił 84 PB, w 2008 – 10174 PB. Każdego roku, bez wyjątku, notuje się znaczny wzrost ilości przesyłanych danych. Transfer danych rzeczywistości wirtualnej wzrósł czterokrotnie w ciągu roku (w 2014 roku wyniósł 4,2 PB, natomiast w 2015 już 17,9 PB). Więcej statystyk można znaleźć pod adresem, zob. http://www.cisco.com/c/en/us/solutions/collateral/service-provider/visualnetworking-index-vni/vni-hyperconnectivity-wp.html (data dostępu: 13.01.2017), http://www.cisco.com/c/en/us/solutions/collateral/service-provider/visualnetworking-index-vni/complete-white-paper-c11-481360.pdf (data dostępu: 13.01.2017) 75 dziś staje się, krótkim błyskiem, dziecinnie prostą czynnością umożliwioną miliardom ludzi na całym świecie. Geograficzne bariery zostały tym samym zniesione, Internet stał się przepustką do globalnej wymiany informacji przez całą dobę. Narzędzie w rękach swego twórcy uczestniczy w kreowaniu kolejnych narzędzi i ów proces zdaje się nie mieć końca. Jak to ujął Marshall McLuhan: „kształtujemy narzędzia, a potem one kształtują nas”22. Popularny przykład młotka i gwoździa traci powoli swój prymat na rzecz komputera, oprogramowania i dostępu do sieci. Specyfika komputera leży w niewyobrażalnie rozległej sieci jego możliwych zastosowań; raczej mało kto ogranicza zastosowanie tego urządzenia do gry w pasjansa czy korzystania z arkusza kalkulacyjnego. Powstaje wiele narzędzi wirtualnych, z których korzystamy podobnie jak z ich fizycznych odpowiedników. Dzięki temu bogactwu rozszerzeń, potęgujemy swoje możliwości i znosimy nasze fizyczne ograniczenia na skalę dotąd niespotykaną. Komputer, wraz ze stosownym oprogramowaniem, otwiera jakby bramy do nowego, elektronicznego świata, jest kluczem do rozszerzającego nieustannie swe granice świata wirtualnego. Nasze ciało stanowi zaś nieodłączny element tego sprzężenia, jest immanentnym składnikiem systemu poznawczego, gdyż steruje niezbędnym interfejsem w celu wykonania określonego zadania i odbiera informacje zwrotne. Jak pisze David Kirsh: „dzięki teorii poznania ucieleśnionego możemy w nowy sposób myśleć o ciałach, umyśle oraz technologii. […] Zapowiedzią zbliżających się zmian jest ucieleśniona koncepcja narzędzia”23. Narzędzie, z którym człowiek sprzęga się na poziomie poznawczym, wyraźnie wpływa na jego percepcję, procesy myślowe i wyobrażeniowe. Użytkowanie przedmiotu zmienia poczucie granic ciała oraz kształtuje środowisko enaktywne (enactive landscape). Trzymając w ręce narzędzie, selektywnie postrzegamy te elementy otoczenia, które są istotne z uwagi na to narzędzie; akceptujemy zależne od narzędzia afordancje środowiskowe, zwiększamy nasze możliwości w zakresie eksploracji środowiska i wypróbowywania różnych jego elementów 24. 22 M. McLuhan, Zrozumieć media. Przedłużenia człowieka, WNT, przeł. N. Szczucka, Warszawa 2004, s. 17. 23 D. Kirsh, Poznanie ucieleśnione i magiczna przyszłość projektowania interakcji, „Avant” 2013, nr.2, s. 282. 24 Ibidem, s. 284-285. 76 Narzędzie wpływa na przestrzeń peripersonalną25 percypującego podmiotu, jednocześnie kształtując pojęcia i przekonania, które w teorii ucieleśnienia zakorzenione są w doświadczeniu sensomotorycznym. Za sprawą użycia narzędzi nasze doświadczenie wyraźnie się zmienia26. Im bardziej zaangażowani jesteśmy w zapośredniczone przez narzędzia działania, tym wyraźniej nasze pojmowanie świata uzależnione jest od sposobu, w jaki się tymi narzędziami posługujemy. Im większą paletę działań udało się nam opanować, tym bogatszy wachlarz afordancji jesteśmy w stanie odebrać. W środowiskach cyfrowych ta zależność jest równie łatwo dostrzegalna. Narzędzia wyraźnie wpływają na przestrzeń peripersonalną, w wyniku ich użytkowania schemat ciała ulega modyfikacji, „wchłaniamy narzędzie i włączamy je do naszego poruszającego się ciała”27. Kirsh zwraca przy tym uwagę na niezwykle istotną kwestię. Do jakiego stopnia zjawiska teleobecności i zdalnej immersji wpłyną na ludzkie poczucie granic własnego ciała i poczucie bezpośredniej interakcji ze środowiskiem? „Dzięki odpowiedniemu podłączeniu sensomotorycznemu człowiek – pomimo dzielącej go odległości – czuje jakby miał styczność z namacalnym, trwałym <<środowiskiem enak„Przestrzeń peripersonalna to trójwymiarowa przestrzeń rozciągająca się wokół agenta na odległość zasięgu jego rąk i nóg”, przestrzeń będąca w jego bezpośrednim i natychmiastowym zasięgu, Ibidem, s. 285. 26 Przypuśćmy, że celem agenta jest zakup lodówki. Stoi on przed sporą ilością wyborów. Może podążyć do sklepu o własnych nogach, może również wybrać się na rowerową czy samochodową przejażdżkę (dwie pierwsze opcje należy odrzucić ze względu na ciężar przedmiotu). Internet otwiera przed nim kolejną możliwość – zostanę w domu, usiądę w fotelu i zamówię urządzenie za pośrednictwem sieci, a lodówkę dostarczy mi ktoś inny. Co ciekawe, Internet rozwija przed nami ogromną sieć afordancji, nagle w ułamku sekundy przed oczami ukazują się nam tysiące możliwych do zakupienia urządzeń. Każde z opisanych doświadczeń będzie znacznie różniło się od siebie, a nasze sensomotoryczne zdolności wykorzystamy w inny sposób. Środowisko enaktywne ulegnie przeobrażeniom, w zależności od użytkowanego narzędzia. Piesza wędrówka, jazda rowerem, samochodem, korzystanie ze zdalnego robota z zestawem kamer czy przejażdżka wirtualnym pojazdem są różnymi doświadczeniami, wymagającymi odmiennego instrumentarium pojęciowego. 27 Ibidem, s. 292. Potwierdzają to badania naukowców nad makakami japońskimi, które wyposażono w grabie. Przez trzy tygodnie zezwalano zwierzętom na korzystanie z narzędzi w celu zgrabiania porcji pożywienia znajdujących się poza ich zasięgiem. W następstwie eksperymentu zmienił się wzorzec pracy neuronów odpowiedzialnych za pracę dłoni i rąk, grabki włączone zostały w schemat ciała, stały się przedłużeniem kończyn. 25 77 tywnym>>, w którym może działać, poruszać się i komunikować tak jakby był tam fizycznie obecny”28. Nasuwa się w tym miejscu pewna istotna myśl. Za sprawą urządzeń umożliwiających teleobecność i zdalną immersję możemy oddziaływać na przedmioty odległe, w normalnych warunkach niedostępne. Nie może być tu jednak mowy o całkiem bezpośrednim kontakcie z przedmiotem, pozostaje wyraźne poczucie bliskości, lecz jest to tylko, lub aż, poczucie wspomagane ograniczoną interakcją. Husserl, mając na uwadze, że percepcja jest czymś pierwotnym, podstawowym, rozróżnił trzy sposoby odnoszenia się do przedmiotów: sygnitywny, imaginacyjny (obrazowy) oraz percepcyjny29. Obecnie, należałoby uzupełnić podział o odniesienie telepercepcyjne, gdyż rodzaj zapośredniczonej cyfrowo relacji do przedmiotów różni się znacząco od odniesienia imaginacyjnego i percepcyjnego. Kontakt telepercepcyjny z przedmiotem winno się osadzić pomiędzy imaginacyjnym a percepcyjnym – teleobecność i związana z nią interakcja to więcej niż relacja obrazowa mniej zaś niż źródłowe odniesienie percepcyjne30. Wirtuale, elementy rzeczywistości wirtualnej Współcześnie z powodzeniem operować można złożonymi urządzeniami, znajdującymi szereg zastosowań w nauce, medycynie czy działaniach wojennych. Pojazdy kosmiczne, podwodne, drony wywiadowcze, kamery przekazujące obrazy na żywo to tylko nieliczne przykłady całego arsenału urządzeń wykorzystywanych obecnie w eksploracji świata fizycznego. Do tego dodać należy oprzyrządowanie umożliwiające działania w środowiskach czysto wirtualnych, takich jak gry komputerowe. Tak wysoce zróżnicowane cyfrowe środowiska enaktywne 28 Ibidem, s. 293. Sygnitywny to akt językowy; występuje na przykład, kiedy mówię o przedmiocie, którego nigdy nie widziałem, ale o nim słyszałem. Oczywiste jest, że taki przedmiot nie prezentuje się mi w sposób pełny. Imaginacyjne (obrazowe) mają pewną naoczną treść, ale nadal odnoszą się do przedmiotu zaledwie pośrednio. Z imaginacyjnym (obrazowym) mam przykładowo do czynienia, kiedy oglądam szczegółową fotografię danego przedmiotu. Percepcyjny, zdaniem Husserla, to rodzaj intencjonalnego odniesienia, które jako jedyne prezentuje przedmiot bezpośrednio, w jego obecności cielesnej (leibhaftig). Percepcja nie przedstawia obrazów, wizerunków, widoków rzeczy, a same rzeczy. 30 Zob. S. Gallagher, D. Zahavi, op. cit., s. 130-131. Choć należy jednocześnie dodać, że dzięki zdalnym urządzeniom możemy badać środowiska dotąd niemożliwe do zbadania, ze względu na ograniczenia ludzkiego ciała. Urządzenia te w pewnym sensie nas odcinają (od relacji źródłowej), z drugiej jednak strony znacznie rozszerzają zasięg naszych mocy poznawczych. 29 78 wymagają klasyfikacji; należy wyraźnie rozróżnić zjawiska jednakowo lokowane pod szyldem rzeczywistości wirtualnej. „Współcześnie termin <<rzeczywistość wirtualna>> jest używany zwykle w jednym z dwóch znaczeń. Po pierwsze – w szerokim znaczeniu – na określenie wszelkich interaktywnych środowisk cyfrowych generowanych komputerowo i po drugie – w znaczeniu węższym – na określenie systemów umożliwiających zanurzenie zmysłowe”31. Definicja ta, mimo że klarowna, wymaga dalszej specyfikacji, gdyż rzeczywistość wirtualna to fenomen kształtujący się dynamicznie i zdecydowanie bardziej złożony. Na użytek klasyfikacji wezmę przykład z często występującego w fachowej literaturze anglojęzycznej terminu realm32. Pojęciem, które pozwoli lepiej orientować się w skomplikowanych zależnościach cyfrowego świata będzie wirtual. Wirtual rozumiany będzie jako konkretna, określona stosownym kodem źródłowym sfera wirtualna, np. posiadająca swój unikalny adres strona internetowa, gra komputerowa etc. Wirtuale, czyli konkretne elementy rzeczywistości wirtualnej w szerokim znaczeniu, można sklasyfikować jako: a) wirtual A – system silnych związków ze światem fizycznym; tego rodzaju wirtualna przestrzeń ma u swej podstawy ścisły związek z realnością (serwisy informacyjne, transmisje internetowe, obrazy cyfrowe na żywo z kamer rozmieszczonych w różnych zakątkach Ziemi, telekonferencje, cyfrowe reprezentacje umożliwiające obserwację realnego obiektu, transfer danych i zdalne działania przy pomocy odległych urządzeń, telerobotów, jak łazik Curiocity na Marsie czy sonda New Horizons). Wygenerowany komputerowo cyfrowy obiekt odsyła podmiot percypujący do świata fizycznego. b) wirtual B – system symulacji i substytucji; zastąpienie realności wirtualnością (większość gier komputerowych, niektóre dzieła sztuki interaktywnej). Wygenerowany komputerowo cyfrowy obiekt odsyła podmiot percypujący do świata wirtualnego. c) wirtual C – system akumulacji, tzw. rzeczywistość rozszerzona (augmented reality); reprezentacje cyfrowe stanowią rozszerzenie świata fizycznego. Wygenerowany komputerowo cyfrowy obiekt odsyła podmiot percypujący ku korelatowi świata fizycznego i wirtualnego. Przykładowo: system HoloLens i platforma Windows Holographic, J. Gurczyński, C:\> Czym jest wirtualność. Matrix jako model rzeczywistości wirtualnej_, Wydawnictwo UMCS, Lublin 2013, s. 116. 32 Termin ten oznacza pewną szczególną, unikalną sferę, dziedzinę, pole, w której coś występuje, przeważa lub dominuje, zob. http://www.dictionary.com/browse/realm (data dostępu: 13.01.2017) 31 79 system GPS, nawigacja samochodowa, technologia Google Glass, popularna obecnie gra Pokemon GO, etc. Kwestia prawdziwości przekonań Złożoność środowisk rzeczywistości wirtualnej, wiąże się m.in. z różnymi funkcjonalnościami: wirtuale A będą znajdowały zastosowanie przede wszystkim w nauce, wirtuale B z kolei, w rozrywce. To wszak zrozumiałe, że nikt nie powinien ogłaszać wyników swoich odkryć pod hasłem „naukowe”, bazując na spostrzeżeniach w obrębie uprzednio zaprogramowanego, zalgorytmizowanego, interaktywnego środowiska gry komputerowej33. Stąd też istotną kwestią jest problematyka prawdziwości przekonań, w kontekście działań w obrębie poszczególnych wirtuali. Obecnie, gatunek ludzki na tyle daleko zawędrował w głąb nowego elektronicznego świata, że pytania o istotę prawdy i jej warunki stają się nieodzowne, a odpowiedź na nie coraz istotniejsza. Nie ma wątpliwości, że komputery, modemy, rutery, interfejsy sterujące i ufundowana na nich rzeczywistość wirtualna rozszerzają nasze środowisko enaktywne o interaktywne środowiska cyfrowe. Znajduje to oddźwięk w aparaturze, coraz silniej angażującej motorykę naszych ciał. Coraz bardziej wnikamy w wirtualny świat. Zdaniem Alvy Noëgo: Teza o światowym [world-involving] charakterze doświadczenia jest spotkaniem z rzeczami i sytuacjami – nie jest zgodna z żadnym starym metafizycznym lub z empirycznym obrazem percepcji i jej natury. Przedstawiając doświadczenie percepcyjne jako rodzaj zaangażowania lub uwikłania w sytuacje i rzeczy, fenomenologia stwierdza, że bez rzeczy i sytuacji doświadczenie w ogóle nie byłoby możliwe. Fenomenologia ujawnia więc, że postrzeganie jest stanem, którego natura zależy w sposób istotny od obecności świata oraz zaangażowania. Gdyby nie było przedmiotu lub sytuacji, nie byłoby żadnego kontaktu i zaangażowania, co oznacza, że doświadczenie percepcyjne nie mogłoby istnieć 34. Pozwolę sobie na podanie przykładu: „Gram w grę s-f. Podróżuję w niej po planecie X i dostrzegłem tam zwierzęta, których nijak nie mogę odnaleźć w żadnym naukowym czasopiśmie czy encyklopedii. Nazwę je Y, opiszę i opublikuję wyniki mojej obserwacji”. W obrębie wirtuali B zdarzają się jednak pewne wyjątki, np. badania estetyczne dotyczące dzieł należących do nurtu sztuki interaktywnej, które z samego założenia mają być czymś więcej niż tylko domeną programisty, twórcy interfejsu. 34 S. Gallagher, D. Zahavi, op. cit., s. 136. 33 80 Narodziny nowego wirtualnego świata sprawiają, że wachlarz możliwych uwikłań w sytuacje i rzeczy wzrasta niepomiernie. Jak zatem odnieść się do prawdziwości przekonań w rzeczywistości wirtualnej? Czy wszystko to jest jedną wielką ułudą? Sceptyczne stanowisko wobec możliwości formułowania prawdziwych przekonań w oparciu o zapośredniczone cyfrowo dane formułuje Hubert Dreyfus35. Jego zdaniem, ludzie opanowani poczuciem „prawie boskiej kontroli” sprowadzają na siebie widmo wiedzy zapośredniczonej, wywiedzionej z ekranu komputera czy głośników. Czy zatem skazani jesteśmy na szczelną zasłonę, która uniemożliwia nam wydawanie prawdziwych i uzasadnionych sądów? Uważam, że nie. Można to wyjaśnić wracając do telepercepcyjnej relacji z przedmiotem. Nie ma wątpliwości, że relacja ta jest znacznie bogatsza niż odniesienie czysto obrazowe. Fotografia nie jest interaktywna, a w tym właśnie tkwi zasadnicza dystynkcja. Przedmiot na fotografii widzimy tylko z jednej strony, przedmiot, którego obraz przekazywany jest za pośrednictwem zdalnego pojazdu, możemy oglądać z wielu stron, manipulować nim, mierzyć, ważyć itd. W odniesieniu telepercepcyjnym, używamy sensomotoryki własnego ciała, aby pokierować zdalnym urządzeniem, widzimy konsekwencje naszych działań na ekranie w czasie rzeczywistym (co stanowi istotny argument na rzecz prawdziwości naszych poczynań), poza tym, w wielu przypadkach, jest to nasz jedyny sposób na zdobycie informacji o odległym, niedostępnym obszarze. Przykładowo, kiedy zakładając gogle VR percypujemy transferowaną na siatkówkę oka, cyfrową reprezentację powierzchni Marsa, mówimy o pewnym wariancie teleobecności. Jest to wyraźnie zubożona obecność, gdyż otrzymujemy jedynie fragmentaryczny obraz powierzchni planety, zdolności percepcyjne naszych ciał nie otrzymują pełnej informacji (nie docierają do nas bodźce węchowe, dotykowe, a wzrokowe i słuchowe są mocno ograniczone, termoreceptory nie odbierają bodźców z powierzchni odległej planety, a proprioreceptory utwierdzają nas w przekonaniu, iż nasze ciała nadal znajdują się na Ziemi). Nie ma, jakby to zapewne ujął Gibson, pełnej palety afordancji, sposobności do działania, chyba że w okrojonej wersji, za pośrednictwem protezy rozszerzającej zdolności naszego ciała, w tym wypadku zdalnego robota. Nasze ciało nie jest też przepustką do posiadania wygenerowanego na ekranie świata, jakby zapewne mógł stwierdzić MerZob. H. Dreyfus, Telepistemology: Descartes’s Last Stand, w: K. Goldberg (ed.), The Robot in the Garden. Telerobotics and Telepistemology in the Age of the Internet, MIT Press, Cambridge, Massachusetts 2001. 35 81 leau-Ponty. Na domiar złego obraz cyfrowy może łatwo ulec falsyfikacji, czego nie można powiedzieć o bezpośredniej percepcji najbliższego otoczenia (poza przypadkami halucynacji). Mimo tych wszystkich niedogodności, powinniśmy jednakże mieć prawo do uznania, iż poznajemy coś zgodnego z rzeczywistym stanem rzeczy. Że dzięki percepcji zapośredniczonej, telepercepcji, uwikłanej w kontakt z cyfrowo przetworzonymi obrazami, pewne nasze przekonania mają solidne uzasadnienie. Dane zdobyte w ten sposób są publikowane w naukowych czasopismach, NASA upublicznia wyniki swych badań itd. Jako dobre przykłady posłużyć mogą wcześniej wspomniane obrazy Marsa przesyłane z łazika Curiocity lub Plutona, przesłane przez sondę New Horizons. Obrazy te są w tej chwili właściwie jedyną szansą, aby poznać te odległe obiekty. Nie moglibyśmy pozyskać tych informacji, gdyby urządzenia takie jak sondy kosmiczne nie były w użyciu. Jako inny przykład posłużyć może sklep internetowy, który pośredniczy w wymianie realnych towarów oraz konto internetowe, które jest co prawda cyfrową reprezentacją realnego banku i realnych zasobów pieniężnych, ale raczej nikt nie stwierdzi: „Zniknęły mi pieniądze na koncie internetowym. Tak po prawdzie, to nie ma się czym martwić, to były tylko moje wirtualne fundusze”. W opisanych przypadkach możliwa jest zatem prawda w sensie mocnokorespondencyjnym, reprezentacje cyfrowe łączy ze światem realnym silny związek przyczynowo-skutkowy. Jeśli stracę pieniądze na rachunku wirtualnym, to stracę je również w świecie fizycznym. Jeśli zamówię produkt na portalu aukcyjnym, to kurier mi go dostarczy. Jeśli pokieruje zdalnym robotem w odpowiedni sposób, to wykona przydzielone działanie, zdobędzie potrzebny materiał badawczy, wyniki analizy prześle do bazy itd. Pewne kwestie pozwalają więc ostudzić nieco nadmierny według mnie sceptycyzm. Jak dotąd kwestia prawdziwości przekonań rozpatrywana była pod kątem relacji środowisk cyfrowych ze światem fizycznym, czyli dotyczyła obszaru nazwanego wirtualem A. Co zatem z czystą sferą wirtualną, symulacją i substytucją, wirtualem B? Wirtual B, co ważne, nie pozostaje w tak silnych relacjach ze światem fizycznym. Ma charakter przede wszystkim rozrywkowy. Świat przedstawiony w grze komputerowej opiera się na swoich własnych zasadach i ujawnia się nam w normalnych warunkach, tak jak to było wcześniej zamierzone (zmusza go do tego warstwa kodu źródłowego). Jeśli percypujemy ten rodzaj interaktywnego środowiska (wirtual B), to percypujemy je w granicach określonych wcześniej przez programistów. Po pierwsze zatem, percepcji tego typu nie powinno się moim zdaniem uznawać za percepcję 82 nieweredyczną. Nie można jej zestawiać w jednym szeregu z iluzjami, czy tym bardziej halucynacjami, co czyni w jednym ze swych artykułów Catherine Wilson36. Po drugie, prawdziwość przekonań w tego typu sferach wirtualnych jest możliwa, powinna jednak być zredukowana do prawdy w modelu, w sensie słabokorespondencyjnym, zgodnie z semantyczną koncepcją prawdy Alfreda Tarskiego37. Jeśli stracę pieniądze, kierując poczynaniami wirtualnego awatara, to nie stracę tych pieniędzy w świecie fizycznym. Przedmioty tej sfery bytują wewnątrz tego konkretnego modelu (wirtual B), którego prawa ograniczone są do algorytmów opartych na kodzie źródłowym. Coraz lepsza jakość grafiki i oprzyrządowania umożliwiającego interaktywne działania, wspólnie wpływają na wzrost popularności tego typu obszarów działania. Zaprogramować można niewyobrażalnie wiele, zaś świat realny mamy do dyspozycji tylko jeden. To kusząca dla wielu użytkowników wizja swoistego programowania marzeń, nieokreślonych dotąd, potencjalnych horyzontów aktywności. Producenci gier komputerowych prześcigają się w sposobach na uatrakcyjnienie rozgrywki, zaś projektanci fizycznych interfejsów próbują uzyskać jak najwyższy poziom immersji, który skorelowany jest ściśle ze stopniem zaangażowania ciała w wirtualnym środowisku enaktywym. Można powiedzieć, że rozwój technologii immersyjnych i teleobecności przebiegał będzie najprawdopodobniej w stronę dwóch pozornie opozycyjnych wobec siebie własności. Bliżej i dalej. Dalej i bliżej. Dalej, gdyż miłośnicy rzeczywistości wirtualnej zapragną odkrywania nowych, odległych horyzontów interaktywnych. Bliżej, bo pokusa coraz silniejszego zanurzenia zmysłowego w zaprogramowanej wedle potrzeby przestrzeni będzie trudna do odparcia. Wracając do kwestii prawdziwości naszych przekonań opartych na percepcji cyfrowego świata, warto dodać krótką kategoryzację elementów, które na prawdziwość tychże przekonań mogą wpłynąć. Bazując na hipotezach: demona Kartezjusza i Laplace’a, dokonam ich rekonfiguracji i przeniosę zamysł uczonych na grunt relacji podmiotu poznaw- 36 C. Wilson, Vicariousness and Authenticity, w: K. Goldberg (ed.), The Robot in the Garden. Telerobotics and Telepistemology in the Age of the Internet, MIT Press, Cambridge, Massachusetts 2001, s. 78-79. 37 Korzystam przy tym z intuicji Józefa Dębowskiego, zob. J. Dębowski, O klasycznej koncepcji prawdy i jej filozoficznych podstawach. Czy w Matrixie możliwa jest prawda?, w: Oblicza prawdy w filozofii, kulturze, języku, red. A. Kiklewicz, E. Starzyńska-Kościuszko, Wydawnictwo UWM, Olsztyn 2014, s. 31-32. 83 czego ze światem cyfrowym. Czynnikami, które wyraźnie mogą wpływać na wynik rezultatów poznawczych są moim zdaniem: a) posiadacz danych – w skrajnym przypadku ktoś kto zgromadzi wszystkie możliwe dane cyfrowe (stąd analogia do demona Laplace’a), ktoś kto, wykorzystując odpowiednie narzędzia (serwery, dyski pamięci, cookies) masowo magazynuje dane, w celu ich późniejszego wykorzystania, np. przewidywania poczynań internautów, wpływania na ich dalsze wybory itp., b) złośliwy haker – specjalista potrafiący przekształcać środowiska cyfrowe za sprawą modyfikacji kodu źródłowego, w wyniku czego do sieci trafia złośliwe oprogramowanie; następstwami jego działań mogą być zakłócenia w poprawnym funkcjonowaniu sieci, kradzież danych itp. (analogia do demona Kartezjusza), c) złośliwy internauta – popularne określenie – troll, każdy kto modyfikuje dany wirtual na poziomie gotowej, graficznej reprezentacji (nie musi być to ani złośliwy demon, ani złośliwy naukowiec, czy nawet złośliwy haker, może to być każdy, kto choć w podstawowym stopniu opanował obsługę komputera i systemu operacyjnego); skutkiem jego działań są celowo zafałszowane dane, próby obrażania i ośmieszania innych użytkowników sieci, d) autorytet – instytucja i jej logo, którym firmuje się dane publikowane w sieci, w tym szata graficzna, unikalny adres internetowy. Te elementy sprawiają, iż dany wirtual odznacza się większą bądź mniejszą wiarygodnością, e) ochrona – informatycy mający na celu ochronę danych, zapobieganie ich kradzieży i nielegalnej modyfikacji (opozycja wobec złośliwego hakera) oraz oprogramowanie chroniące przez złośliwym oprogramowaniem38. 38 W tekście celowo pomijam zjawiska cyborgizacji, transhumanizmu i nanotechnologii, które z racji swojej złożoności wymagałyby opracowania osobnego artykułu. Nie mam jednak wątpliwości, że wymienione dziedziny silnie wpłyną na dalsze badania nad percepcją i resztą procesów poznawczych. Wzmacnianie możliwości sensomotorycznych w oparciu o różnego rodzaju protezy czy implanty, może być kolejnym przyczynkiem do spotęgowania skali immersji i teleobecności oraz bodźcem do tworzenia nowych, niespotykanych dotąd środowisk enaktywnych. Zainteresowanych powyższą problematyką odsyłam do wyczerpujących monografii., zob. M. Klichowski, Narodziny cyborgizacji, Wydawnictwo UAM, Poznań 2014, S. Myoo, Ontoelektronika, Wydawnictwo UJ, Kraków 2013. 84 Podsumowanie Prymat technologii cyfrowych widać dziś gołym okiem. Za pośrednictwem interaktywnych środowisk cyfrowych rozwijamy programy badawcze, dokonujemy odkryć naukowych, usprawniamy ich zastosowania w medycynie, biznesie i edukacji, komunikujemy się ze sobą, robimy zakupy i zapewniamy sobie rozrywkę. Świat cyfrowy oplata nas niczym sieć hiperłączy, zależności, afordancji, sieć, do której z każdym dniem przywykamy coraz bardziej. Idea zestawu komputerowego (hardware), oprogramowania (software) i Internetu, które wspólnie niczym magiczny portal przenoszą nas „w oka mgnieniu” między różnymi światami, jest jednocześnie szczytna i niebezpieczna. Na horyzoncie dostrzec można coraz silniej zaznaczające się widma manipulacji cyfrowymi danymi, masowej inwigilacji, oszustw, kradzieży poufnych informacji czy uzależnień. Na końcu łańcucha gróźb niczym miecz Damoklesa wisi nad ludźmi możliwość wybuchu globalnej cyberwojny i powszechnego cyberterroryzmu. W sytuacji, kiedy całe społeczeństwa są tak mocno wplątane w proces nieustannego transferu danych cyfrowych, ryzyko jakiegokolwiek konfliktu na tym polu, rodzi szereg poważnych obaw. „Na wzór ezopowego języka, internet jest zarazem czymś najgorszym i najlepszym. Postępem niemal nieograniczonej komunikacji i katastrofą, dzisiejszym, a może jutrzejszym spotkaniem żeglującego po wirtualnej przestrzeni Titanica z górą lodową”39. Pasażerowie tego dryfującego okrętu, w możliwie jak największym stopniu winni zachować czujność, przeciwdziałać zagrożeniom i jednocześnie mieć nadzieję, że nie ziści się ten wyjątkowo czarny scenariusz, kreślony piórem (a być może klawiaturą) francuskiego postmodernisty. 39 P. Virillio, Bomba informacyjna, tłum. S. Królak, Sic!, Warszawa 2006, s. 101. Grzegorz Pacewicz Uniwersytet Warmińsko–Mazurski w Olsztynie SPEECDCUBING A FILOZOFIA 1. Historia kostki Rubika Kostka Rubika, nazwana tak od nazwiska twórcy, Erno Rubika, została wynaleziona jako zabawka o charakterze pedagogicznym. Rubik był profesorem architektury i poszukiwał czegoś, co ułatwi studentom zrozumienie natury przestrzeni. Prace nad wynalazkiem doprowadziły do stworzenia kostki, która w roku 1975 została opatentowana pod nazwą „Magiczna Kostka”. Do popularyzacji układanki doszło kilka lat później. W roku 1977 rozpoczęto produkcję kostki. Jej popularność szybko rosła – w ciągu 2 pierwszych lat sprzedano 300 tysięcy sztuk układanki. Rok później, węgierski profesor matematyki, Tomas Varga, zaprezentował kostkę na międzynarodowym kongresie matematyków w Helsinkach. Kilka sztuk podarował kolegom, a jakiś czas potem otrzymał prośbę o przesłanie ich większej ilości, wraz z instrukcją jej układania. Okazało się bowiem, że ma ona ciekawe własności matematyczne1. W 1980 kostka została przedstawiona na targach producentów zabawek, gdzie otrzymała tytuł zabawki roku2. To właśnie w roku 1980 rozpoczął się swego rodzaju boom na kostkę, do czego przyczynił się pokaz ludzi układających ją w porannym programie telewizji BBC3. Popularność kostki Rubika utrzymała się bardzo krótko. W roku 1982 zorganizowano po raz pierwszy mistrzostwa świata, które wygrał Amerykanin Minh Thai4. Zawody rozgrywane były według zasad, które nie były zbyt precyzyjne. Zdaniem Jessicy Fridrich – twórczyni najpopularniejszej metody układania – niektóre z nich wręcz wypaczyły ostateczny wynik, np. zawodnicy nie układali na własnych, przygotowanych przez nich kostkach, tylko na kostkach dostarczonych przez organizatorów5. Wbrew oczekiwaniom wielu fanów kostki nie zorganizowano kolejnych mistrzostw w następnym roku. Począwszy od roku http://kostkarubika.net/3x3x3/historia.html (dostęp 30.06.2016) https://en.wikipedia.org/wiki/Spiel_des_Jahres (dostęp 30.06.2016) 3 http://kostkarubika.net/3x3x3/historia.html (dostęp 30.06.2016) 4 Minh Thai wygrał pojedynczym ułożeniem 22.95. https://en.wikipedia.org/wiki/Speedcubing (dostęp 30.06.2016) 5 http://www.ws.binghamton.edu/fridrich/cubewrld.html (dostęp 30.06.2016) 1 2 86 1983 popularność układanki zaczęła się wyraźnie zmniejszać, aż całkowicie opadła. Prawdopodobnie zainteresowanie kostką nie odżyłoby, gdyby nie Internet. Pod koniec lat dziewięćdziesiątych użytkownicy sieci z całego świata za pośrednictwem różnych portali, zaczęli wymieniać się informacjami i doświadczeniami związanymi z kostką. Zaowocowało to organizacją drugich Mistrzostw Świata w układaniu kostki Rubika w roku 2003 i powstaniem w roku 2004 World Cube Association (WCA). Od tej pory speedsolving i speedcubing miały się coraz lepiej. Nazwy speedsolving i speedcubing posiadają odmienne znaczenia. Speedsolving oznacza szybkie układanie (w odróżnieniu od wolnego) wszelkich układanek. Speedcubing oznacza całą dziedzinę aktywności z tym związaną. Speedcuber to ten, kto układa kostkę Rubika oraz inne układanki. Rodzajów kostek jest wiele. Na oficjalnych zawodach organizowanych według zasad WCA można rywalizować w 18 konkurencjach, w ramach których układa się 11 typów układanek (trzy z nich nie mają nawet kształtu sześcianu). Warto zaznaczyć, że niemiecki wynalazca Uwe Mèffert jedną z układanek wymyślił znacznie wcześniej niż Erno Rubik swoją kostkę. W latach późniejszych Mèffert oraz brytyjski wynalazca Tony Fisher wymyślili ponad 200 różnych typów układanek, bazujących na odmiennych mechanizmach. Obecnie liczba modyfikacji wyjściowej kostki Rubika jest trudna do oszacowania. 2. Właściwości matematyczne Od czasu wynalezienie kostki Rubika zarówno kształt kostki, jak i liczbę budujących ją elementów modyfikowano w przeróżny sposób. Dlatego istnieje bardzo wiele typów układanek (część z nich nie ma nawet kształtu kuboidu). Można je układać w różny sposób: bez patrzenia, jedną ręką czy nawet stopami. W efekcie istnieje 18 oficjalnych konkurencji speedcuberskich. Dlatego przyjrzyjmy się tylko najbardziej popularnej układance – tej wynalezionej przez Erno Rubika. Kostka Rubika składa się z jedynie 26 części, z których 20 jest ruchomych, a 6 nieruchomych. Nieruchome części nazywają się centrami i znajdują się w środku każdej ścianki. Ruchome części to 8 narożników i 12 krawędzi. Centry połączone są ze sobą wewnątrz kostki za pomocą tzw. krzyżaka. Centry mogą się tylko obracać dookoła własnej osi. Kostka składa się z 6 kolorowych ścianek. Jeśli trzymać kostkę w jednej pozycji, to każdą z nich można obrócić w dwóch kierunkach – zgodnie z ruchem wskazówek zegara i przeciwnie. Każdą ściankę oznacza się literą, każdy ruch zaś zapisuje się, jako zgodny z ruchem wskazówek zegara lub do tego ruchu przeciwny. Kostka składa się 87 z trzech warstw i obraca się w kilku płaszczyznach. Wszystkie te manipulacje zapisuje się przy użyciu specjalnej, prostej do zrozumienia, symboliki. Ponieważ brak jest wyraźnego punktu odniesienia, przyjęto, że najjaśniejsza ścianka (na ogół biała) będzie u góry, a druga najjaśniejsza – w standardowym układzie kolorów jest to ścianka zielona – z przodu. Ta względnie prosta konstrukcja ma ciekawe własności mechaniczne i matematyczne. Najmniejsza liczba elementów, jakie można zamienić ze sobą jedynie przy pomocy ruchami ściankami kostki, wynosi trzy: mogą to być albo trzy rogi, albo trzy krawędzie. Nie da się zamienić mniejszej liczby elementów, chociaż można nimi manipulować, tak aby obrócić wokół własnej osi dwa rogi lub dwie krawędzie. Najmniejsza łączna liczba rogów i krawędzi, którymi da się manipulować, wynosi cztery, to jest można manipulować tak kostką, że zamienione zostaną dwie krawędzie i dwa rogi jednocześnie. Te cechy kostki są nieprzekraczalne. Z tych powodów kostkę da się doprowadzić do stanu niemożliwego do ułożenia przy pomocy manipulacji tylko ściankami – np. obrócony jeden róg lub jedna krawędź czyni ją niemożliwą do ułożenia. Mimo, że budowa kostki jest dość prosta, to zależności między elementami prowadzą do ogromnej liczby sposobów, na jakie można kostkę pomieszać. Jest ich ponad 41 trylionów6. Jest to liczba tak astronomiczna, że gdyby kostki ustawić jedna na drugiej, tak aby każda miała inny wzór pomieszania, to osiągnęlibyśmy słup o długości 246 lat świetlnych7. Obliczono jednak, że każdą kostkę da się ułożyć w 20 lub mniej ruchach. Co więcej, te 20 ruchów potrzeba tylko dla niewielkiej liczby scrambli8. Większość można ułożyć w przedziale 16–18 ruchów. Ponieważ ruchy na kostce można opisywać przy pomocy notacji, prowadzi to do rejestracji kolejnych własności kostki. Jeśli pomieszamy Każda kostka ma 8 rogów, a każdy róg ma 3 orientacje, ale tylko 7 jest manipulowanych, bo ósmy układa się automatycznie. Do tego 12 krawędzi, ale układających się parzyście, ale każda ma 2 strony, i 11 z nich można swobodnie permutować, bo 12 układa się sama. Stąd wzór: co daje 43 252 003 274 489 856 000 kombinacji. Zob. https://www.speedsolving.com/wiki/index.php/Rubik%27s_Cube_Fact_sheet (dostęp 30.06.2016) 7 http://kostkarubika.net/3x3x3/historia.html (dostęp 30.06.2016) 8 Scramble to sekwencja mieszająca kostkę. W polskim środowisku speedcuberskim używa się wielu terminów pochodzenia angielskiego, których używa się w nieco spolszczonej wersji. Zob. Regulamin WCA, pkt. 4. (https://www.worldcubeassociation.org/regulations/#article-4-scrambling) (dostęp 30.06.2016) 6 88 kostkę według dowolnej sekwencji, to oczywiście odwrócenie tej sekwencji na tak pomieszanej kostce prowadzi do stanu wyjściowego. Jest to oczywiste. Już nieco mniej oczywista jest inna zależność. Przyjmijmy, że mamy algorytm, który zamienia dwa rogi i dwie krawędzie. Oznaczmy go jako ciąg A B C D. Okazuje się, że niezależnie od kolejności jego wykonania, to jest czy to będzie A B C D, czy też C D B A, na kostce zamienią się zawsze te same elementy, w tym wypadku będę to dwa rogi i dwie krawędzie. Jednakże zmiana kolejności wykonania tego ciągu sprawia, że permutacji podlegać będą krawędzie i rogi w innych miejscach kostki. Właściwości te można mnożyć, ale pokazują one, że kostka Rubika w swojej mechanice posiada pewne nieprzekraczalne i matematycznie opisywalne własności. Dlatego też w początkowych latach swojej kariery była ona szczególnym przedmiotem zainteresowania matematyków, którzy dzięki temu znaleźli zastosowanie dla matematycznej teorii grup9. 3. Racjonalizm krytyczny W pierwotnym zamiarze Erno Rubika kostka miała być narzędziem dydaktycznym, pomagającym studentom architektury w zrozumieniu zagadnień związanych z manipulowaniem przestrzenią. Zadanie to układanka realizuje na gruncie filozoficznym. Można wskazać na kilka zagadnień filozoficznych dających się wyjaśnić odwołując się do własności kostki Rubika i zasad jej układania. Jednym z nich jest kwestia związku filozofii z logiką i analogicznie – zasad układania kostki z matematyką. Łączy się to pośrednio z zagadnieniem bardziej ogólnym, związanym z pytaniami o to, czym jest rozum, racjonalność i wzorce racjonalności? Zagadnienie to jest bardzo szerokie, dlatego ograniczę się tylko do koncepcji racjonalizmu krytycznego zaproponowanej przez Karla Raimunda Poppera. Jego dociekania w tym zakresie odniosę do metod układania kostki Rubika. Zastanawiając się nad zagadnieniem różnicy między wiedzą naukową i nienaukową, filozof ten doszedł do wniosku, że zdania, jakie można wygłosić na podstawie doświadczenia, są przesiąknięte teorią. Szeroko pojęta obserwacja zakłada zawsze jakąś wcześniejszą teorię uzasadniającą jej prawdziwość. Jej potwierdzenie jest niemożliwe, ponieważ przesuwa tylko zagadnienie na nową koncepcję, która została wykorzystana do uzasadnienia tej teorii. I tak w nieskończoność. Problem ten dostrzegali również konwencjonaliści, a w czasach Starożytności 9 http://www-history.mcs.st-andrews.ac.uk/history/HistTopics/Abstract-_groups.html (dostęp 30.06.2016) 89 Marek Agryppa. Z obserwacji tej Popper wyciągnął wniosek o braku naturalnej granicy między tezami teorii naukowej i danymi empirycznymi. Wynikało z tego, że wiedza naukowa racjonalnie uzasadnialna (przeciwstawiona irracjonalizmowi) nie różni się od wiedzy nieracjonalnej tym, że jest wsparta na doświadczeniu i przez doświadczenie weryfikowana, lecz o racjonalności wiedzy decyduje jakiś inny czynnik10. Pierwotnie kryterium oddzielającym wiedzę naukową od nienaukowej była falsyfikowalność twierdzenia czy też systemu twierdzeń11. Koncepcję tę Popper wzbogacił jednak w latach późniejszych koncepcją racjonalizmu krytycznego: „wiedza, zwłaszcza naukowa, rozwija się dzięki nieuzasadnionym (i nieuzasadnialnym) antycypacjom, przypuszczeniom, próbnym rozwiązaniom, czyli domysłom (conjectures). Przypuszczenia te poddawane są krytycznej kontroli, tj. próbom obalania (refutations) ich za pośrednictwem surowych testów”12. Zauważył on przy tym, że wiedza naukowa nie zaczęła się od jakiegoś mitycznego punktu zero, ale że rozwój wiedzy i pojawienie się wiedzy naukowej polegało na modyfikacji wiedzy już zastanej. Stąd też racjonalizm naukowy polega na takim postępowaniu, w którym chodzi przede wszystkim o oczyszczanie wiedzy dotychczasowej z błędów, pomyłek, nieścisłości itp.13. Nauka zaczęła się od mitów, praktyk magicznych czy długo wypracowywanych technik przekazywanych z pokolenia na pokolenie. Tym, co wyróżniało tradycję racjonalizmu zainicjowanego w Grecji był krytyczny stosunek do takiej wiedzy. Stosunek ten kazał traktować uznane teorie jako wyzwanie do ich analizy i udoskonalenia. Nie są więc one traktowane jako niezmienne i niepodważalne dogmaty, lecz stanowią inspirację dla krytycznej dyskusji, motywowanej poszukiwaniem prawdy oraz potrzebą zrozumienia świata14. Punktem wyjścia takiej dyskusji są problemy. Każda teoria naukowa próbuje dać odpowiedź na pytania związane z tym problemem, rozwiązać go. Jest ona zrozumiała w odniesieniu do konkretnej sytuacji problemowej, którą próbuje zrozumieć. Racjonalność teorii naukowych czy filozoficznych jest w pewnym senA. Chmielewski, Karl Popper – twórca krytycznego racjonalizmu, [w:] Filozofia XX wieku. 2, red. Z. Kuderowicz, Warszawa 2002, s. 288-289. 11 K. R. Popper, Logika odkrycia naukowego, przeł. U. Niklas, Warszawa 1977, s. 39-41. 12 K. R. Popper, Droga do wiedzy. Domysły i refutacje, przeł. S. Amsterdamski, Warszawa 1999, s. 7. 13 Ibidem, s. 53. 14 Ibidem, s. 91. 10 90 sie zrelatywizowana do sposobu, w jaki teoria rozwiązuje postawiony problem. Możemy bowiem pytać: czy rozwiązuje problem? Czy rozwiązuje go lepiej niż inne teorie? Czy przeczy teoriom filozoficznym bądź naukowym potrzebnym do rozwiązania innych problemów? I tak dalej15. Podobnie uważał Stefan Amsterdamski, który komentując historyczną zmienność wzorców racjonalności, wskazywał, że na poziomie metateoretycznym nauka posiada funkcję wiązania w racjonalną całość wiedzy praktycznej z „kosmologią”, episteme i techne, poprzez uzgadnianie dwóch porządków: wiedzy o tym, jak? i dlaczego?. Każdy porządek spełniający tę funkcję zwykło nazywać się „racjonalnym”. Historia nauki jest z tego punktu widzenia historią kolejnych prób organizacji uniwersum wiedzy, a kryteria metodologiczne, na których oparta jest nauka każdej epoki, podporządkowane są aktualnemu rozumieniu tej racjonalności16. Nauka próbuje racjonalizować świat ludzkiego doświadczenia. Racjonalizacja ta nie jest jednak prostym zabiegiem jego opisu, lecz wymaga wyjścia poza świat doświadczenia i odwołania się do zasad, które samo to doświadczenie mają wytłumaczyć. Dlatego też nauka zawiera w sobie, obok twierdzeń o świecie badanym, także szereg założeń o charakterze filozoficznym, które są z nią nierozerwalnie związane. Założeń tych nie można wywieść z doświadczenia, ponieważ to na nich owo doświadczenie jest dopiero ufundowane. Bywały one odmienne w poszczególnych epokach i stąd historyczna zmienność rozumienia racjonalności przez naukę17. Fakt, że kryteria racjonalności mają charakter historyczny, nie oznacza jednak, że ich w ogóle nie ma. Obok pojęć niezbędnych do ontologicznej charakterystyki świata, będącego przedmiotem zabiegów poznawczych, istotną rolę, odgrywają koncepcje dotyczące człowieka jako poznającego podmiotu. Obie te dziedziny tworzą ramy, w których podejmowany jest wysiłek poznawczy, oraz wyznaczają reguły postępowania badawczego. Przeobrażenia, jakie zachodzą w tych koncepcjach, mają znaczenie dla całego obszaru badań naukowych. Globalne rewolucje w nauce charakteryzuje często zmiana poznawczego stosunku człowieka do świata i samego siebie, czyli nowa wizja świata i nowa koncepcja doświadczenia18. 15 Ibidem, s. 335-337. S. Amsterdamski, Między doświadczeniem a metafizyką. Z filozoficznych zagadnień rozwoju nauki, Warszawa 1973, s. 68-71. 17 Ibidem, s. 95-100. 18 Ibidem, s. 233-234. 16 91 W podobnym duchu wypowiadał się między innym Albert Einstein. Brak możliwości falsyfikacji twierdzeń filozoficznych sprawia, że za wiodący element budowania filozoficznej wizji świata można uznać interpretację rzeczywistości: „Nauka jest próbą przyporządkowania chaotycznej różnorodności doznań zmysłowych jednolitego logicznie systemu myślowego; w systemie tym poszczególne doznania powinny znaleźć taki korelat myślowo–teoretyczny, aby to przyporządkowanie wyglądało na jednoznaczne i przekonywające”19. Reasumując uwagi wspominanych filozofów, można powiedzieć, że racjonalność naukowa polega na krytycznej dyskusji, inspirowanej poszukiwaniem prawdy, która ma dwa komplementarne cele: zrozumienie otaczającej nas rzeczywistości oraz rozwiązanie problemów, zarówno teoretycznych, jak i praktycznych. Jej punktem wyjścia jest zawsze dotychczasowa wiedza, która jest udoskonalana i przybliża nas do prawdy jako takiej. Zrozumienie rzeczywistości polega zaś na wyjaśnieniu, dlaczego jest tak, jak jest. Cel ten spełniają, chociaż nie w tym samym stopniu, zarówno mity, jak i teorie naukowe, poprzez jednoznaczne przyporządkowanie kategorii teoretycznym elementom naszego doświadczenia. Dzięki zrozumieniu możliwe jest rozwiązanie problemu i zmiana samej rzeczywistości. Tak scharakteryzowana racjonalność znajduje doskonałą ilustrację w używanych współcześnie metodach układania kostki Rubika. 4. Metody układania kostki Rubika Współcześnie istnieje kilkanaście metod układania kostki Rubika, a niektóre z nich nadto mają kilka wariantów. Część z nich jest podobna do siebie i można je łączyć, ale bywają też między nimi znaczące różnice. To bogactwo metod ma swoje uzasadnienie, ponieważ ich wartość jest zrelatywizowana do wiedzy i doświadczenia speedcubera, oraz jego celów i konkurencji, w których bierze udział. Przyjmijmy, że chcemy ułożyć pomieszaną kostkę. Można to zrobić na wiele sposobów i każdy jest uzasadniony jakimś kontekstem sytuacji. Jeżeli nie ograniczają nas żadne reguły i nie mamy doświadczenia, kostkę można po prostu rozłożyć i poprawnie złożyć. Jeśli wprowadzimy zakaz takiej praktyki, to kostkę można ułożyć wykorzystując jedną z metod przeznaczonych dla początkujących. Jest ich kilka i ich zaletą jest prostota teoretyczna i praktyczna (minimalna wiedza i terminologia, kilka krótkich algorytmów na każdy etap układania), zaś wadą A. Einstein, Pisma filozoficzne, przeł. K. Napiórkowski, Warszawa 1999, s. 145. 19 92 długość procesu układania. Metody te wymagają bowiem dwu– lub trzykrotnie większej liczby ruchów potrzebnych do ułożenia kostki niż metody zaawansowane. Jeśli naszym celem będzie osiąganie dobrych czasów, to metody proste należy zastąpić metodami bardziej złożonymi. Należy w tym miejscu podkreślić, że na najwyższym poziomie układania mamy do dyspozycji co najmniej trzy konkurencyjne metody, które oferują różne wzorce układania kostki. Mimo podobieństwa niektórych etapów, wymagają one innego podejścia do kostki. Metod tych nie można łączyć, ponieważ tracą one wtedy na swojej efektywności. Jedynie drobne elementy mogę być przetransferowane. Każda z tych metod wymaga nieco innego myślenia o kostce. Na przykład: – W najbardziej popularnej metodzie nazywanej CFOP lub Fridrich20 o kostce myśli się w kategoriach warstw, a proces jej układania polega na ułożeniu najpierw szkieletu pierwszej warstwy, następnie wykończeniu warstwy pierwszej i drugiej, a w ostatnim etapie ułożeniu trzeciej warstwy przy wykorzystaniu dwóch algorytmów z 78– algorytmowej bazy zawierającej wszystkie możliwe pozycje klocków na górnej warstwie. – – W metodzie Roux21 myśli się o kostce w kategoriach bloków, ponieważ w pierwszych dwóch etapach układania buduje się specyficzne bloki na ściance lewej i prawej; następnie wykańcza się rogi na warstwie ostatniej; w ostatnim etapie układa się sześć krawędzi. – W metodzie ZZ22 o kostce myśli się początkowo w kategoriach krawędzi zorientowanych i niezorientowanych. Następnie buduje się na kostce dwie pierwsze warstwy – podobnie jak w CFOP, ale jest to proces znacznie łatwiejszy, z uwagi na przeprowadzoną wcześniej poprawę orientacji krawędzi – a następnie do ułożenia ostatniej warstwy. Ten ostatni etap wymaga kombinacji jedynie 28 algorytmów, jeśli jest wykonywany kombinacją dwóch z nich lub jednego z 493 algorytmów, jeśli jest robiony jednym algorytmem. Przedstawiłem dość szeroko podstawowe zasady układania charakteryzujące te metody, ponieważ łatwiej w ten sposób wskazać najważniejszą kwestię – metody te nie są na siebie nawzajem przekładalne. Mimo że oferują różne wzorce układania kostki Rubika, a pośrednio różne wzorce racjonalności obowiązujące w ich ramach, to dają ostatecznie bardzo podobny skutek w postaci czasów ułożeń. Różnice mięhttps://www.speedsolving.com/wiki/index.php/CFOP (dostęp 30.06.2016) https://www.speedsolving.com/wiki/index.php/Roux (dostęp 30.06.2016) 22 https://www.speedsolving.com/wiki/index.php/ZZ (dostęp 30.06.2016) 20 21 93 dzy zawodnikami układającymi tymi metodami, a znajdującymi się w światowej czołówce speedcuberów, wynikają z innych okoliczności niż używana przez nich metoda. Warto przy tym podkreślić, że speedcuberzy, którzy zmieniali metodę układania z CFOP na Roux, doświadczali uczucia „uczenia się układania od nowa”, ponieważ w metodzie Roux można korzystać z zupełnie innych rozwiązań niż w metodzie CFOP. Rozwiązania uznawane za efektywne funkcjonują tylko w ramach tych metod, lecz poza nimi są uznawane za nieefektywne. Jak starałem się wyżej pokazać, racjonalność może znaczyć między innymi adekwatność użytych środków do zamierzonego celu. Jeśli naszym celem jest ułożenie kostki w jak najkrótszym czasie, to środowisko speedcuberów wypracowało wiele metod gwarantujących osiągnięcie tego celu. Każda z nich może być potraktowana jako zapewniająca adekwatność zamierzonego celu do użytych środków, ponieważ każda z nich daje możliwość osiągania dobrych czasów. W tym sensie każda dostarcza własnego, specyficznego wzorca racjonalności. Różnice między tymi wzorcami przejawiać się będą w różnicach między etapami układania. Na przykład na pierwszym etapie układania w metodzie ZZ należy zatroszczyć się o orientację krawędzi, co z punktu widzenia metod Roux czy Fridrich byłoby działaniem pozbawionym sensu, ponieważ wydłuża proces układania i czyni go w tych metodach nieefektywnym. 5. Wnioski Powyższe rozważania na temat różnic w metodach układania kostki Rubika służyły przygotowaniu gruntu dla odpowiedzi na pytanie o to, która z tych metod jest najlepsza do osiągania najkrótszych czasów ułożeń. Można przyjąć, że czas ułożenia jest empiryczną miarą skuteczności danej metody. Ponieważ speedcubing jest sportem, a zawody w różnych częściach świat organizowane są według tych samych zasad, można przyjąć ponadto, że czasy osiągane przez zawodników, a zarejestrowane w bazie wyników WCA, są w tym względzie porównywalne, w tym sensie, że osiągane są w warunkach zbliżonych do siebie: podobne warunki ułożenia, zasady mierzenia czasów, a nawet przyrządy pomiarowe wyprodukowane przez tę samą firmę. Analiza wyników ujawni prostą rzecz, że zawodnicy osiągają różne czasy ze spektrum od kilku sekund (4,69 sekundy obecny rekord świata) do kilku minut. Porównując czasy najlepszych zawodników, można dojść do wniosku, że różnice między nimi nie tkwią w przyjętej metodzie, lecz innych czynnikach: rodzaj treningu, predyspozycje fizyczne, 94 doświadczenie i wiedza, umiejętność radzenia sobie ze stresem i tak dalej. W efekcie, na podstawie różnic w czasach nie można przesądzić o tym, czy jakaś metoda jest lepsza do speedcubingu czy też nie. Również dyskusje w gronie speedcuberów nie przesądzają takiej tezy23. Konstatacja ta stanowić będzie argument na rzecz tezy Poppera o istnieniu wielu wzorów racjonalności, które są na siebie nieprzekładalne. Mówiąc krótko – metody używane w speedcubingu są różne, mają własne wzorce racjonalności ułożenia i nie są przekładalne na siebie nawzajem. Są nieporównywalne, a jednocześnie dają podobne (zbliżone) rezultaty czasowe. Dostarczają więc różnych wzorów rozwiązania tego samego problemu (wzorzec racjonalności), lecz dają mniej więcej identyczny efekt. Na zakończenie warto wspomnieć o specyficznej konkurencji, która określana jest po angielsku Fewest Moves, co po polsku oznacza ułożenie kostki w najmniejszej liczbie ruchów. Jest to konkurencja typowo intelektualna, w której liczy się liczba ruchów potrzebna do ułożenia kostki, obliczana według specyficznej miary. Zawodnicy rywalizują przez godzinę, szukając takich operacji, które zapewnią osiągnięcie tego celu. Z teorii wiadomo, że maksymalna granica to 20 ruchów, ale wynik ten osiągnąć może zawsze tylko program komputerowy. Osiągnięcie tego wyniku przez człowieka jest bardzo trudne. Co prawda rekord świata wynosi 19 ruchów, ale wynik ten udało się osiągnąć tylko trzykrotnie24. Granicą ostateczną jest tutaj liczba 16 ruchów, ponieważ wiadomo, że taką liczbę zakładają zasady WCA25. Na ogół rozwiązania najlepszych zawodników mieszczą się w przedziale 25–30 ruchów. Analizując rozwiązania doświadczonych zawodników w tej konkurencji, można zauważyć, że w swoich ułożeniach wykorzystują oni osiągnięcia różnych metod, balansując i przechodząc płynnie między nimi. Nie da się jednak na podstawie tej analizy wyciągnąć wniosku, jakoby zawodnicy wykorzystywali uniwersalną metodę dającą dobry końcowy rezultat. Ich konstatacja jest inna – w tej konkurencji nie ma metody26, a wykorzystywane techniki mają charakter pomocniczy. 23 https://www.speedsolving.com/forum/threads/beginners-guide-to-choosinga-speedsolving-method.43471/ (dostęp 30.06.2016) 24 Stan na czerwiec 2017. 25 Innymi słowy – generatory scrambli są tak skonstruowane, że generują scramble wymagające do ułożenia co najmniej 16 ruchów. Niemożliwe jest krótsze ułożenie. 26 Taką tezę stawia między innymi Sebastiano Tronto, czołowy zawodnik w tej konkurencji. Zob. http://fmcsolves.cubing.net/fmc_tutorial_ENG.pdf (dostęp 30.06.2016) 95 Ostatecznym czynnikiem jest tutaj doświadczenie, wiedza, wyobraźnia i intuicja. Marcin Pełka UMK w Toruniu „DEPOZYTARIUSZ LOSU LUDZKOŚCI” CZY „NIESZKODLIWY WARIAT”? HOENE-WROŃSKI JAKO FILOZOF I TECHNIK Wstęp Gdy przychodzi nam mówić o aliansie filozofii polskiej z techniką, to zapewne każdy zaznajomiony z tematem badacz uzna Józefa Marię Hoene-Wrońskiego za osobę specyficzną. Niełatwo bowiem znaleźć inną, tak osobliwą postać, którą trudno jednoznacznie ocenić, która budzi tak skrajne, ambiwalentne emocje. Z jednej strony „depozytariusz losu ludzkości1”, jak mniemał sam o sobie, a wąska grupka oddanych uczniów mu w tym wtórowała, z drugiej, „nieszkodliwy wariat2”, jak zgrabnie opisano go w raporcie francuskiej policji. Zarówno błyskotliwy wynalazca bez akademickiego wykształcenia technicznego, jak i sprytny naciągacz wyłudzający pieniądze na projekty, których nie da się wcielić w życie. Matematyk tworzący niezrozumiałe wzory uznawane przez współczesnych mu za zwykły bełkot, ale docenione po dekadach jako trafne i wyprzedzające swoją epokę. W końcu – wybitny polski filozof, który wywarł niepomierny wpływ na epokę romantyzmu, ale też nie wyłożył najważniejszych punktów swojej koncepcji, konsekwencją twierdzeń w wielu miejscach (delikatnie rzecz ujmując) nie grzeszył i prawdopodobnie sam nie uważał się za Polaka. Już tych kilka zasygnalizowanych wątków jasno wskazuje, że warto postawionemu w tytule pytaniu poświęcić nieco więcej uwagi. Na potrzeby niniejszego tekstu chciałbym odwrócić klasyczną kolejność wykładu i najpierw ukazać dzieło, a potem twórcę, rozpocząć od opisu wynalazków i twierdzeń, dopiero wtedy przejść do opisu sylwetki i filozofii omawianej osoby. J. M. Hoene-Wroński, Prodrom mesjanizmu, albo filozofii absolutnej, przeł. J. Jankowski, Prace Instytutu Mesjanicznego, Książnica Polska Towarzystwa Nauczania Szkół Wyższych, Lwów-Kraków 1921, s. XVI. 2 B. J. Gawecki, Wroński i o Wrońskim, PWN, Warszawa 1958, s. 11. 1 98 Wroński jako matematyk, technik i wizjoner Doniosłe odkrycia na polu matematyki pozostawił po sobie Wroński w dziedzinie funkcji, równań różniczkowych i obliczaniu szeregu potęg. Jego największym osiągnięciem jest tutaj opracowanie wyznacznika funkcyjnego równań, zwanego dziś „wrońskianem”. O wrońskianach przeczytamy w każdym nieco bardziej zaawansowanym podręczniku teorii funkcji czy rachunku różniczkowego3. Wroński, po części ze zbyt mocnego zawierzania własnej intuicji, po części z niechęci do dzielenia się dokładnymi wyliczeniami, prezentował jedynie gotowe równania i funkcje, bez podpierania ich formalnym zapisem dowodów. Sprawiało to, że środowiska naukowe w jego czasach nie traktowały poważnie rewelacji polskiego filozofa. Dopiero Stefan Banach w latach trzydziestych dwudziestego wieku miał ze zdumieniem rzec: „Wzory Wrońskiego prowadzą do dobrych wyników”4, a efektem pracy nad nimi było stworzenie tak zwanej „przestrzeni Banacha” i analizy funkcyjnej. Pomińmy w tym miejscu streszczanie analiz dotyczących wyznaczników i funkcji, które są niezrozumiałe bez solidnego wykształcenia matematycznego. Wystarczy stwierdzić, że matematyczny geniusz Wrońskiego został doceniony – w Muzeum Nauki w Chicago na tablicy najwybitniejszych matematyków wszechczasów widnieją nazwiska trzech Polaków: Kopernika, wspomnianego przed momentem Banacha i właśnie Hoene-Wrońskiego5. Niewątpliwą i trwałą sławę przyniosły Wrońskiemu także jego wynalazki. Do grona najznamienitszych przykładów należy zaprojektowanie na zlecenie władz Marsylii zespołu maszyn hydraulicznych, które miały przepompowywać wodę z rzeki Durance do miejskiej kanalizacji. Ich budowę ukończono w roku 1809, po czym okazały się tak wydajne, że nadwyżki wody kierowano do nawadniania pobliskich pól. Towarzystwo Medyczne, pozostające pod wielkim wrażeniem projektu i jego skuteczności, nadało polskiemu filozofowi tytuł profesora nauk fizycznych i matematycznych 6. Niestety, wiele pomysłów genialnego filozofa nie udało się w jego czasach wcielić w życie. Długo na realizację czekał jego genialny projekt tak zwanych „kół zwartych” czy inaczej „kół ferogonowych”, zwanych też „kołami Wrońskiego”. Była to prosta konstrukcja, dzięki A. Orłowski, Jak kiepska filozofia prowadzi do dobrej matematyki, [w:] „Focus”, Nr 3 (126), marzec 2006, s. 83 4 Cyt. za: A. W. Krajewski, Człowiek, który obliczył Boga, [w:] „Focus”, Nr 3 (126), marzec 2006, s. 81. 5 Ibidem, s. 79. 6 Ibidem, s. 81. 3 99 której osie w dorożkach znajdowały się na wysokości jednej trzeciej średnicy ich kół. Dzięki temu pojazdy stawały się niższe i stabilniejsze. Wynalazek wzbudził sensację, uznanie ważnych osobistości, w tym ks. Adama Czartoryskiego, jednak ostatecznie nie trafił do masowej produkcji. Przynajmniej aż do lat sześćdziesiątych ubiegłego wieku, kiedy patent Wrońskiego wykorzystano przy produkcji Łunochodów – bardzo skutecznych i funkcyjnych, radzieckich, bezzałogowych i sterowanych z Ziemi pojazdów służących do badania powierzchni Księżyca. Teoria zastosowana w praktyce Zaprezentowane w poprzednim punkcie twierdzenia matematyczne i wynalazki ukazują geniusz polskiego myśliciela, ale też stanową jedynie drobny wycinek jego dorobku. Miażdżąca większość stawianych przezeń tez matematycznych do dziś nie przedstawia żadnej wartości naukowej (przynajmniej jak dotąd), a większości jego projektów nie da się wyprodukować, lub po ich produkcji – zwyczajnie nie działają. Nie byłaby to może ujma dla tak błyskotliwego umysłu, wszak z pewnością jest normą, że wielu wynalazców znamy z jednego udanego patentu, nie znając zazwyczaj setek wcześniejszych, nieudanych. Jednak w przypadku Wrońskiego sytuacja jest dokładnie odwrotna – znamy go głównie z pozbawionych sensu wzorów matematycznych i niedziałających wynalazków. Należy tu wyjaśnić, że matematykę faktycznie uważał za najważniejszą naukę, choć przypisywał jej rolę służebną. Dokładniej rzecz ujmując – pragnął przemodelować ją w ten sposób, aby stanowiła podstawę jego systemu filozoficznego, który obejmowałby swym zasięgiem każdą dziedzinę wiedzy ludzkiej7. Stąd całe mnóstwo równań funkcji do dziś niezrozumiałych i nazbyt maksymalistycznych w swoich założeniach, bo rzekomo zdolnych nawet do opisania samego Absolutu, czyli Boga8.Twierdzenia matematyczne nie miały zatem służyć 7 Maksymalizm dążeń Wrońskiego, jeżeli chodzi o matematykę, doprowadzał wręcz do absurdów. Dla przykładu, filozof twierdził, iż dzięki jego wzorom da się liczyć równania matematyczne dowolnego stopnia. Jak pamiętamy, wzorem na równanie pierwszego stopnia, jest ax + b = 0, równaniem drugiego stopnia jest ax2 + bx + c = 0. Znane są one wszystkim maturzystom przystępującym do egzaminu z matematyki. Poza tymi wzorami istnieją jeszcze równania trzeciego i czwartego stopnia, a zgodnie z tezą Ruffiniego nie można wyprowadzić wzoru na równania o stopniu wyższym, niż czwarty. 8 Zdaje się, że w stwierdzeniu tym bynajmniej nie ma przesady. Wroński na każdym wydawanym przez siebie dziele umieszczał słynny emblemat, który przedstawiał „matematycznego sfinksa” usadowionego na bloku z wyrytym 100 samej matematyce, podobnie jego błyskotliwe wynalazki nie miały tylko poprawić jakości życia konkretnych ludzi w danym miejscu. Wroński myślał i planował z rozmachem, jego praktyczne urządzenia miały być używane globalnie, w myśl jego filozofii, zakładającej nastanie spełni ludów, szczęśliwego kresu dziejów, okresu Królestwa Bożego na ziemi. O tej filozofii uniwersalnej, maksymalistycznej w dążeniach i optymistycznej z założenia przyjdzie nam powiedzieć nieco szerzej. Najpierw jednak pozostańmy w kręgu jego wynalazków, by nieco lepiej poznać osobliwy charakter twórcy. Jak powiedzieliśmy, Wroński myślał i działał z rozmachem. Chciał uczynić ludzkość gotową na nastanie szczęśliwego kresu dziejów, czemu służyć miały pisma filozoficzne, budzące w ludziach świadomość ostatecznego końca ich niedoli oraz wynalazki, które walnie przyczynią się do polepszenia bytu całej ludzkości. Jak zawsze w takich przypadkach, rzecz rozbiła się o pieniądze. Niesiony sukcesem w Marsylii pisał pierwsze dzieła filozoficzne, wydawane zawsze na luksusowym papierze i w kosztownych oprawach. Ważka treść wymagała luksusowego wydania, ale nie przekładała się na poczytność, stąd fundusze myśliciela stale topniały. Zawarte w jego książkach, w formie dodatków i tablic, wzory matematyczne co prawda wzbudzały zainteresowanie, ale z czasem zamieniało się ono w śmiech, gdy Wroński zaczął tworzyć „absolutne prawa algorytmu”. Roztrwoniwszy zdobyty majątek udał się do rosyjskiej ambasady. Jego zasługi dla armii carskiej wzbudziły życzliwe uczucia u ambasadora Kuragina, który zaczął wypłacać mu stałą pensję. Mógł dzięki temu wydać swój Wstęp do filozofii matematyki, zadedykowany zresztą Carowi Aleksandrowi I, a uznany za naukowy bełkot. Rozgniewało to hojnego ambasadora, którego wyśmiewano a salonach za finansowanie polskiego szarlatana, w wyniku czego wstrzymał wypłaty. Wroński po raz kolejny pozostał bez środków do życia, znany był już jako „ten wariat z Polski”, a francuska policja, zaintrygowana tym, co w ciszy swego mieszkania konstruował, śledziła jego prace i etykietowała go przykrym określeniem zacytowanym przeze mnie w tytule tego wystąpienia. Filozof po raz kolejny dorabiał na korepetycjach, aż w roku 1813 poznał bogatego kupca, niejakiego Arsona. Szybko korepetycje z matematyki przekształciły się w filozoficzne wykłady dla wiernego ucznia, który łożył horrendalne sumy na piwzorem matematycznym Fx=A0Ω0+A1Ω1+A2Ω2+A3Ω3+… Wzór takowy miał być najwyższym prawem nie tylko matematyki, a z czasem stał się wręcz exlibrisem jego dzieł, ale do dziś matematycznie nie przedstawia żadnej wartości. Intuicyjnie, acz bez ryzyka popełnienia błędu, można mniemać, że jest to zapis najwyższego prawa, któremu podlega wszystko. 101 sma nauczyciela, ślepo wierząc, że ten w zamian objawi mu tajemnicę absolutu. W skrócie podsumujmy tę barwną historię – Arson biedniał coraz bardziej, coraz mniej wierzył, że nauczy się u Wrońskiego czegokolwiek, a równocześnie był coraz bardziej ubezwłasnowolniony przez nauczyciela-wyłudzacza. Po serii rozpraw sądowych, ogołoceniu kupca z niemal całego majątku, wzajemnym szkalowaniu się w miejskich gazetach, Arson musiał wyłożyć ostatnie pieniądze za podpisane Wrońskiemu weksle. Polski filozof jednak szybko roztrwonił majątek francuskiego kupca – druk nowych książek i wydawanie gazet, których nikt nie czyta, sporo kosztował. Postanowił więc spróbować szczęścia w Anglii, gdzie wciąż trwał konkurs na zaprezentowanie nowej metody oznaczania pozycji geograficznej statku na morzu. Najpierw służba celna skonfiskowała mu skonstruowane własnoręcznie przyrządy pomiarowe, bo po prostu nie wiedziała do czego służą, potem sekretarz Biura Długości, doktor Young z miejsca odrzucił projekty Wrońskiego, który odtąd pisał na niego skargi do Izby Gmin, a na końcu oskarżył Younga o to, że ukradł mu pomysły i przedstawiał jako swoje własne. Posłowie Izby Gmin mieli dość „polskiego wariata”, zatem podjęli uchwałę, w myśl której na jego skargi nie trzeba odpowiadać. Ogarnięty manią prześladowczą Wroński, obwiniający o wszystko spiskujące przeciw niemu „bandy piekielne” wsteczniaków, wrócił do Francji. Próba audiencji u papieża celem wymuszenia na nim poszanowania nauki przez Kościół zakończyły się fiaskiem, podobnie jak utworzenie Unii Antynomialnej, która miała zjednoczyć cały świat, usuwając z niego wszelkie antynomiespołeczne, a której biuro mieściło się w jego mieszkaniu (Wroński był z resztą jedynym jej członkiem). Po tych wydarzeniach Wroński poznał swojego drugiego sponsora – Edmonda Thayera, krewnego późniejszego cesarza, Ludwika Napoleona. Dzięki bajońskim sumom nowego mecenasa mógł Wroński zaprojektować i wyprodukować prototyp wspomnianego przez nas wcześniej koła oraz pociąg poruszający się na trakcji gąsienicowej. Pojazd nie wywarł na nikim większego wrażenia, podobnie jak wcześniejsze projekty „kalkulatora uniwersalnego”9 czy innych, usprawniających licze- Z francuskiego – Calculateur-Universel. Krewny żony Wrońskiego, widząc projekty, jakie Wroński poczynił, zaczął Wrońskiemu łożyć na nie olbrzymie sumy, co pozwoliło filozofowi żyć w dostatku i opracować wszystko w najdrobniejszych szczegółach, łącznie z cenami (od 6 do 150 franków) za czternaście różnych „kalkulatorów”. Gdy jednak żaden z wykonanych projektów nie chciał działać i jasnym się stało, iż inwestowany kapitał nigdy się nie 9 102 nie patentów, jednak duże sumy nadal zasilały konto polskiego wynalazcy10. Ostatnie lata życia wielkiego wynalazcy i wytrawnego naciągacza przypadły na czasy rządów Ludwika Napoleona, którego próżno starał się zainteresować swoimi wynalazkami. Ostatnim sponsorem Wrońskiego był hrabia Kamil Durette, jednak nie uświadczymy już tutaj ani żadnych błyskotliwych wynalazków, ani poronionych pomysłów. Wroński jako filozof i mesjanista Niniejszy tekst rozpocząłem nieco przewrotnie – od ukazania tego, o czym często zapominamy, gdy z uśmiechem czytamy biografię Wrońskiego lub w dyskursach akademickich analizujemy jego poglądy filozoficzne. Opiszmy zatem skrótowo filozofię, która motywowała go do wspomnianych już działań, by móc później wyjaśnić, dlaczego, znów nieco przewrotnie, pytanie postawione w tytule należy pozostawić bez odpowiedzi. Filozofia Wrońskiego opierała się na dwóch, skrajnie różnych fundamentach – prywatnym objawieniu i filozofii Kanta, stanowiąc – zgodnie ze stwierdzeniem Sikory – „amalgamat rozumu i mistycyzmu”11. Prywatnego aktu iluminacji dostąpił Wroński 15 sierpnia 1803 roku na balu z okazji urodzin Napoleona, upamiętniając ten dzień przyjęciem drugiego imienia – Maria12. Jak mniemał, w jednej chwili objazwróci, sponsor postanowił zerwać umowę (zob. B. J. Gawecki, Wroński i o Wrońskim, op. cit., s. 10.). 10 Thayer również czuł się przez Wrońskiego oszukany, gdyż kolej na trakcji gąsienicowej, na którą wydawał niebotyczne sumy, okazała się zwykłym oszustwem. Zerwanie umowy z polskim wynalazcą kosztowało go dodatkowe cztery tysiące funtów, gdyż Wroński nauczył się już zabezpieczać w takich sytuacjach (A. Sikora, Antypody romantycznego mesjanizmu – „filozofia absolutna” Hoene-Wrońskiego i mistyka Towiańskiego, [w:] A. Walicki (red.), Polska myśl filozoficzna i społeczna, tom I, KiW, Warszawa 1973, s. 161.). 11 A. Sikora, Hoene-Wroński: absolut i historia, [w:] idem, Posłannicy słowa. Hoene-Wroński, Towiański, Mickiewicz, PWN, Warszawa 1967, ss. 32 i 41. 12 Właściwie „bohater” niniejszego tekstu nazywał się Józef Hoene, a jego rodzina miała czeskie lub saksońskie korzenie (zob. M. N. Jakubowski, Ciągłość historii i historia ciągłości. Polska filozofia dziejów, Wyd. UMK, Toruń 2004, s. 84). Zarówno drugie imię – „Maria”, jak i drugi człon nazwiska – „Wroński”, zostały przez niego przybrane i w obu przypadkach wskazanie jednoznacznej daty jest kłopotliwe. Trwają spory, czy pamiętna iluminacja z dnia 15 sierpnia miała miejsce w roku 1803 czy w 1804 (zob. na ten temat L. Łukomski, Twórca filozofii absolutnej. Rzecz o Hoene-Wrońskim, Wyd. Literackie Kraków 1982, s. 58.). Nazwisko „Wroński” przybrał przed rokiem 103 wił mu się sens dziejów, zrozumiał Absolut oraz cel istnienia świata. Odtąd nieprzerwanie starał się przygotować ludzkość na nadejście ostatniej epoki, która ostatecznie zwieńczy cały proces historyczny, gdy nastanie Królestwo Boże na ziemi. Stąd jego nieprzerwana praca pisarska i wynalazcza. Chciał zarówno przygotowywać ludzkość wynalazkami, jak i oświecać ją pismami, choć nie ma jednoznacznej odpowiedzi, czy uważał, że da się wyjaśnić i nauczyć, czym jest Absolut, czy zwyczajnie jest potrzebne do tego ta iluminacja, której sam dostąpił. Drugą podwaliną jego filozofii była myśl Immanuela Kanta, którą dzięki zrozumieniu Absolutu potrafił oryginalnie zreinterpretować. Jak pamiętamy, Kant uważał pojęcia takie, jak Bóg, dusza nieśmiertelna, czy wszechświat, za idee regulatywne, których nie jesteśmy w stanie pojąć, bo oznaczałoby to absolutny kres poznania. Zwyczajnie rozum ludzki nie jest w stanie dzięki analizie otaczających go rzeczy dojść do idei takich jak Absolut. Wroński jednak uznał kantowski sposób rozumowania, za podejście chrematyczne (od greckiego chrema – rzecz) i zgadzał się, że za jego pomocą Absolutu nie poznamy. Zaproponował jednak podejście inne, mianowicie achrematyczne, które wychodząc od idei Absolutu zstępuje do coraz niższych form bytu13. Kolokwialnie rzecz ujmując Kant zakładał, że poprzez analizę otaczającego świata nie można „wspiąć” się do idei Boga, zaś Wroński, doznając prywatnym objawieniem, mógł tym pojęciem dysponować i zaproponować proces odwrotny do kantowskiego14. 1797, gdy starał się o przyjęcie do armii carskiej (ros. „Wronskoj”, zob. B. J. Gawecki, Wroński i o Wrońskim, op. cit., s. 8). Łukomski natomiast dowodzi, że tym nazwiskiem posługiwał się już wcześniej, gdy wstępował do wojska polskiego i dementuje pogłoski, jakoby miał go już używać jego ojciec (zob. L. Łukomski, Twórca filozofii absolutnej, op.cit., s. 11.). 13 Anonim, Messianismeunion finale de la philofophie et de la religion constitutuant la filosophie absolute, przeł. H. Rosnerowa, cyt. za: A. Walicki (red.), 700 lat myśli polskiej. Filozofia I myśl społeczna w latach 1831–1864, PWN, Warszawa 1977, s. 154. 14 Nie ma przesady w stwierdzeniu, że filozofia królewieckiego filozofa była dla Wrońskiego wręcz obsesją. Polski myśliciel kierował pod jego adresem uroczyste apostrofy, mówiąc o nim między innymi: „geniusz niezrównany (…), któremu ludzkość nigdy nie zdoła się odwdzięczyć” (J. Hoene, Philosophie critique découverte par Kant, przeł. H. Rosnerowa, cyt. za: A. Walicki (red.), 700 lat myśli polskiej, op. cit., s. 110.). Drugą obsesją była tu, rzecz jasna, chęć przebicia się poza ramy kantowskiej filozofii, a dokładniej – poza granice, jakie ludzkiemu poznaniu wyznaczał Kant. Wroński osiągnął to dzięki prywatnemu objawieniu, co jednak nie zmienia faktu, że zapewne sam „ge- 104 Wroński nie był jedynym polskim filozofem doby romantyzmu, który przyznawał się do prywatnego objawienia. Również wiele innych cech wspólnych łączy go z przedstawicielami tej epoki, jak na przykład pojęcie mesjanizmu, który był zastosował jako pierwszy. Ogólnie rzecz ujmując, mesjanizm oznaczał pracę na rzecz nastania tysiącletniego Królestwa Bożego na ziemi, a Wroński miał za złe Adamowi Mickiewiczowi czy Andrzejowi Towiańskiemu sposób, w jaki operowali tym pojęciem, zaś życzliwie „podarował je” Augustowi Cieszkowskiemu, od którego jakoby w zamian zapożyczył zestaw innych pojęć15. Jest jeszcze wiele innych cech wspólnych, które z jednej strony łączą go z naszą rodzimą myślą romantyczną, a z drugiej przedstawiają go jako wybitnego filozofa, który w każdym przypadku dawał dowody swojej oryginalności. Gdy wielu polskich myślicieli pozostawało pod wpływem Georga Wilhelma Friedricha Hegla, Wroński reinterpretował filozofię kantowską, w Johannie Gottliebie Fichtem, Friedrichu Wilhelmie Josephie Schellingu czy Heglu widząc swoich konkurentów16. Podobnie jak inni polscy myśliciele postrzegał przeszłość historyczną jako nieustającą walkę różnych antynomii, które teraz, w czasach jemu współczesnych, muszą zostać zniesione, gdyż oto stajemy na progu ostatniej epoki, powszechnego dobrobytu i ostatecznego pojednania się człowieka z Bogiem17. Wiara, iż Absolut zaprojektował dzieje jako niusz niezrównany” nie brałby na poważnie twierdzeń swego polskiego kolegi po fachu. 15 Rzecz w tym, że generalnie polska filozofia pozostawała dla Wrońskiego poza sferą zainteresowań. Jednak o ile gardził Towiańskim i Mickiewiczem (a zapewne także innymi emigracyjnymi mesjanistami polskimi) za spłycanie pojęcia mesjanizmu, tak szczególną estymą darzył Cieszkowskiego. Po pierwsze, „pozwolił mu” używać pojęcia „mesjanizm”, a jakoby w zamian zapożyczył od niego pojęcie „historiozofia”. Cieszkowski oddzielał historiozofię od filozofii dziejów – jak wiemy, ta druga jest umiłowaniem mądrości wynikającej z badania dziejów, natomiast Cieszkowskiemu nie chodziło o zwyczajne umiłowanie mądrości (miłość jest wszak uczuciem bezinteresownym), lecz o praktyczne tej mądrości wykorzystanie. Jego postawę podzielali bez mała wszyscy polscy romantycy, w tym Wroński, który chętnie posługiwał się pojęciem wprowadzonym przez młodszego kolegę (zob. M. N. Jakubowski, Ciągłość historii i historia ciągłości, op. cit., s. 212.). 16 Ibidem, s. 86. 17 Ze względu na sytuację, w jakiej znajdował się wtedy naród polski, rozważania natury historiozoficznej były dla naszej rodzimej filozofii czymś wręcz naturalnym, a polski romantyzm „obejmuje ogromną ilość różnych światopoglądowo dywagacji historiozoficznych” (A. Sikora, Posłannicy słowa. HoeneWroński, Towiański, Mickiewicz, op. cit., s. 6.). Ukazanie historiozoficznej 105 rozumny proces posiadający swój początek i zmierzający do określonego końca podzielana była przez każdego polskiego romantyka, jednak o ile bez mała wszyscy upatrywali tutaj wielką rolę Polaków, którzy walczą nie tylko o odzyskanie niepodległości, lecz także o zbawienie całej ludzkości, o tyle Wroński, myśląc o wielkiej roli Słowian, patrzył z nadzieją na Rosję18. Jest to jeden z wielu paradoksów związanych z tą osobą, że pozostając jednym z najwybitniejszych polskich myślicieli tych czasów, raczej odżegnywał się od swej polskości19. koncepcji Wrońskiego nie jest czymś istotnym z perspektywy niniejszego tekstu, ale pozwala ukazać pewną niekonsekwencję, bo wspomnieliśmy w tekście głównym, że nieraz Wroński okazywał się nieścisły i wewnętrznie sprzeczny w swoich twierdzeniach. Otóż z jednej strony uważał, że przed nastaniem Królestwa Bożego na ziemi niezbędne jest pojednanie religii i filozofii, które – kolokwialnie rzecz ujmując – muszą zjednoczyć się w jedną dyscyplinę. Później natomiast opisuje, że w ostatniej epoce dziejów najpierw objawi się prawda absolutna zawarta w filozofii, a potem prawda absolutna zawarta w religii. Pytanie o to dlaczego prawdy te zaistnieją osobno, skoro obie te dyscypliny połączą się wcześniej, jest zasadne i niestety pozostaje bez odpowiedzi. (Kwestie te poruszał Wroński w cytowanym już wydaniu Prodromu mesjanizmu). 18 Wiara w pokojowe zjednoczenie wszystkich narodów, jako proces, który zapoczątkują Słowianie, jest powszechnym motywem polskiej filozofii tego okresu. Czytając prace polskich romantyków, niemal każdorazowo odnosi się wrażenie, że w tym kontekście „Słowianie”, to synonim do „Polacy”. Rzecz w tym, że Wroński patrzył tu nieustanie z nadzieją na cara rosyjskiego, któremu dedykował swoje prace. Dopiero po wydarzeniach Wiosny Ludów jego wiara zaczęła się chwiać, a ostatni list w tej sprawie napisał do niego w 1851 roku. Później, rozgoryczony i rozczarowany, przekazał przywództwo nad całą słowiańszczyzną Polakom (zob. M. N. Jakubowski, Ciągłość historii i historia ciągłości, op. cit., s. 118.). 19 Mówimy tu oczywiście nie o „byciu Polakiem” (był nim ze wszech miar, a jego filozofia stanowi swoistą perłę polskiej filozofii doby romantyzmu), lecz o „poczuciu własnej polskości”. Nie ma tu żadnego znaczenia pochodzenie jego przodków, lecz może bardziej to, że z własną rodziną korespondował tylko po francusku, pisał swoje dzieła w tymże języku, a wcześniej dopuścił się hańbiącej zdrady wojsk kościuszkowskich. Polakiem i współtwórcą polskiej filozofii epoki romantyzmu Wroński był z pewnością, o czym trzeba pamiętać czytając krzywdzące opnie, jak choćby te artykułowane przez Lutosławskiego, który najpierw nazwał go „drugorzędnym niemieckim filozofem chcącym uchodzić za Polaka”, a potem „trzeciorzędnym filozofem niemieckim, piszącym po francusku i pragnącym uchodzić za Polaka” (cyt. za: Ibidem, s. 82). 106 Co do „polskości” jego filozofii nie powinno jednak być żadnych wątpliwości. Jak jego rodacy kreślił oryginalną, historiozoficzną wizję dziejów, był przekonany o ich nadchodzącym, eschatologicznym końcu, wielkiej misji Słowian pod tym względem, propagował aktywistyczną postawę i potrzebę czynu na rzecz przyszłego, lepszego świata, stawiał diagnozy co do przyczyn upadku Rzeczypospolitej, wychwalał „ludzi wyższych” pracujących na rzecz przyszłego świata, oraz potępiał „bandy piekielne” wsteczniaków, które krzyżują pracę ludzi postępowych20. Zamiast zakończenia, czyli o trzech ignorancjach Jak wcześniej wspomniałem, pytanie zawarte w tytule chciałbym pozostawić bez odpowiedzi. W przypadku tak barwnych, wręcz specyficznych osób, musi ono pozostać otwarte. Wrońskiego nie da się zakwalifikować tylko jako nieszkodliwego wariata lub tylko jako geniusza i wizjonera, bez zniekształcenia jego obrazu. Był zarówno wspaniałym wynalazcą, jak i osobą trwoniącą czas na poronione pomysły. Był wybitnym matematykiem, jak i twórcą wzorów pozbawionych jakiejkolwiek przydatności naukowej. Był człowiekiem ogarniętym pasją, jak i szaleńcem wzywającym przywódców i papieża do obrachunku. Był Kim są te „bandy piekielne”, „zgraja mistyczna” czy „klasa tajemniczych” to kolejna kwestia, którą trudno jednoznacznie zdefiniować bez wikłania się w sprzeczności. Najogólniej rzecz ujmując chodzi o ludzi wstrzymujących postęp dziejów, postęp świadomości ludzkiej, który zmierza do optymistycznego, eschatologicznego końca historii. Patrząc z perspektywy osobistej Wrońskiego okazuje się, że koncepcja „band piekielnych” wynika z jego prywatnego przewrażliwienia, ciężkiego charakteru i manii prześladowczej (widać to, gdy winnych swoich niepowodzeń naukowych w Anglii wskazuje właśnie w „zgrai mistycznej”). Natomiast jeśli chodzi o jego poglądy historiozoficzne, to Wroński znów wikła się w sprzeczności. W Metapolityce „sekty mistyczne” odrysowane są jako szare eminencje współpracujące ze sobą celem wywoływania stałych rewolucji, chociażby we Francji (J. M. Hoene-Wroński, Metapolityka mesjaniczna, przeł. J. Janowski, Warszawa-Kraków 1923.), natomiast w cytowanym już Prodromie wymienia wszystkie ruchy, prądy i organizacje, które na przestrzeni dziejów wstrzymywały swoją postawą i działaniem pochód świadomości ludzkiej, a są to między innymi: zwolennicy braminizmu, pitagorejczycy, sofiści, heretycy chrześcijańscy, islam, templariusze, Maurowie, inkwizytorzy, różokrzyżowcy, masoni, iluminaci i inni. A zatem czy są to świadomie współdziałający spiskowcy (Maurowie współpracujący z templariuszami, a heretycy z islamistami), czy raczej kolejne grupy ludzi nieświadomie przyczyniających się do wstrzymania rozwoju ludzkiej rozumności, zatem niebędący żadnymi szarymi eminencjami? 20 107 zdeterminowany działać na rzecz pozytywnej przemiany oblicza świata, a wykorzystywał do tego i bez krępacji naciągał swoich wyznawców. Był też wielkim patriotą, jak i pohańbionym zdrajcą narodu21. W końcu był także wybitnym, oryginalnym przedstawicielem polskiego romantyzmu, choć z pewnością nie czuł się Polakiem. To wszystko sprawia, że Wrońskiego nie da się jednoznacznie określić. Gdybyśmy jednak zdecydowali się zwyczajnie nazwać Wrońskiego wariatem, to wykazalibyśmy się ignorancją. I to aż na trzech poziomach. Po pierwsze, jest, niestety częstym, przekonaniem, także w środowiskach akademickich, że polska filozofia jest miałka i niegodna uwagi, że stanowi li tylko przypisy do filozofii zagranicznej, że nie stać jej było na oryginalność i samodzielne myślenie. Wroński jest natomiast barwnym, wręcz skrajnym przykładem na to, że tak nie jest. Po drugie, często słyszy się (co na szczęście nie jest wyrażane w pracach naukowych), jakoby polska filozofia doby romantyzmu była niegodna uwagi, bo tworzyli ją szarlatani opętani prywatnymi objawieniami i nic wartościowego nie głosili. O ile Wroński był stymulowany do działania prywatnym objawieniem, a określenie „szarlatan” może wydawać się czasem adekwatne, to widzieliśmy przecież, że jego myśl filozoficzna i działalność społeczna nie były pozbawione ważnych, zarówno praktycznych i społecznych, jak i ponadczasowych treści. Po trzecie w końcu, możemy wykazać się ignorancją w stosunku do samego Wrońskiego, gdy zaszufladkujemy go jako „nieszkodliwego wariata”. Tyle tylko, że jak zauważyłem na początku tego artykułu, ten „wariat” pozostawił ważkie twierdzenia i wynalazki, przez co jest dobrym przykładem, że i Aby wykazać tę nieomówioną dotąd sprzeczność, wystarczy zestawić ze sobą cztery następujące po sobie fakty z życia Wrońskiego. Po pierwsze, porucznik Wroński wsławił się obroną Woli, kiedy to wywołany przez niego pożar zmusił wojska pruskie do odwrotu, za co osobiście odznaczył go Kościuszko i o czym pisały lokalne gazety. Po drugie, gdy został schwytany przez Rosjan, w zamian za anulowanie wyroku zesłania na Syberię narysował własnoręcznie mapę Pragi, w wyniku czego Praga została zdobyta, zginęło dwadzieścia tysięcy Polaków, a Wroński został przyjęty do sztabu generała Aleksandra Suworowa wraz z awansem. Po trzecie, na emigracji błagał Kościuszkę o przebaczenie i deklarował chęć oddania życia za sprawę polską, w wyniku czego Naczelnik rekomendował go generałowi Janowi Henrykowi Dąbrowskiemu. Po czwarte, gdy dzięki wcieleniu do Legionów automatycznie otrzymał francuskie obywatelstwo, porzucił wyruszające z Marsylii Legiony na rzecz matematyki i konstruowania wynalazków, oraz pobierania pensji z ambasady rosyjskiej (A. W. Krajewski, Człowiek, który obliczył Boga, op. cit., ss. 79–80.). 21 108 wśród techników wariaci mogą pozostawić po sobie horacjański pomnik trwalszy nad spiżowy. II. TECHNIKA W PRAKTYCE Ryszard Myhan Uniwersytet Warmińsko-Mazurski w Olsztynie DETERMINIZM A PRZYPADEK Dylemat determinizmu Od zarania dziejów obserwacja otoczenia skłania człowieka do stawiania pytań, czy zachodzące w nim zdarzenia, zjawiska, procesy są zdeterminowane poprzez związki przyczynowo-skutkowe, czy też są zupełnie przypadkowe? Dwie skrajne odpowiedzi na tak postawione pytanie, to dwa przeciwstawne poglądy filozoficzne: – z jednej strony determinizm, zgodnie z którym zajście każdego zdarzenia (zjawiska) jest wyznaczone jednoznacznie przez zdarzenie (zjawisko) poprzedzające je w czasie, – z drugiej zaś indeterminizm, głoszący niezależność zjawisk i zdarzeń od ogółu warunków ich wystąpienia. Odpowiedź na tak postawione pytanie jest szczególnie istotna w nauce, gdyż na przyczynowości sprawczej są oparte nauki przyrodnicze – jeżeli pozbawilibyśmy je tej kategorii, straciłyby one rację swojego istnienia1. Dylemat „determinizm czy przypadek” nurtował już filozofów starożytnej Grecji. Za pierwszych deterministów uważa się Leucypa z Miletu oraz jego ucznia i kontynuatora Demokryta z Abdery: „Nic nie dzieje się bez przyczyny, lecz wszystko z jakiejś racji i konieczności”2. Pogląd przeciwny reprezentował Epikur z Samos. Epikur wprawdzie przyjmował za Demokrytem atomistyczny obraz świata, odrzucał jednak Demokrytejski determinizm. Według teorii Epikura ruch atomów w próżni nie podlega jednak determinizmowi3. Podstawy teorii przy- Z. Czerwiński, O pojęciu przyczyny i kanonach Milla, „Studia Logica: An International Journal for Symbolic Logic” 1960, T. 9, s. 37-62, http://www.jstor.org/stable/20013630 (data dostępu: 21.12.2016). 2 Prawdopodobnie dziełem Leukipposa był Wielki ład świata, włączony później do kanonu pism Demokryta, http://encyklopedia.naukowy.pl/Leukippos, (dostępu: 21.12.2016). 3 Epikur, List do Menoikeusa, przeł. K. Leśniak, http://sady.up.krakow.pl/antfil.epikur.menoikeus.htm, (data dostępu: 21.12.2016). 1 112 czynowości zostały sformułowane przez Arystotelesa, za którym wyróżnia się cztery rodzaje przyczyn: sprawczą (to, dzięki czemu coś zaistniało), celową (to, ze względu na co coś zaistniało), materialną (to, z czego coś powstało) i formalną (to, według czego coś zostało uformowane)4. Zatem, czy przypadek nie istnieje? Problem determinizmu powraca w epoce Oświecenia. Z jednej strony David Hume twierdził, że nie ma takiego rozumowania, które upoważniałoby do przenoszenia dotychczasowego doświadczenia na przyszłość: „Nie można na tej tylko podstawie, że jedno zjawisko w jednym przypadku wyprzedziło inne, wyprowadzić rozumnego wniosku, że pierwsze jest przyczyną drugiego” 5. Z drugiej zaś, Immanuel Kant uważał, że: „Stosunek przyczyny do skutku jest warunkiem przedmiotowej ważności sądów empirycznych” 6. Determinizm mechaniki klasycznej Według Izaaka Newtona stan układu w pewnej chwili t0 w sposób jednoznaczny wyznacza stan układu w dowolnej późniejszej (a także wcześniejszej) chwili t. Stan układu izolowanego określony jest przez położenia r i pędy p wszystkich jego składników w chwili t. Dynamikę zachowania się układu opisują liniowe równania różniczkowe, posiadające jednoznaczne rozwiązania7. Sukcesy mechaniki klasycznej w wyjaśnianiu i przewidywaniu zjawisk skłoniły do głębokiej wiary w zasadę powszechnego determinizmu8. Istotę tej wiary wyraża koncepcja demona Laplace’a: „Intelekt, który w danym momencie znałby wszystkie siły działające w przyrodzie i wzajemne położenia składających się na nią bytów, i który byłby wystarczająco potężny, by poddać te dane analizie, mógłby streścić w jednym równaniu ruch największych ciał wszechświata oraz najdrobniejszych atomów” 9. G. Reale, Historia filozofii starożytnej, przeł. E. I. Zieliński, RW KUL, Lublin 2005. 5 D. Hume, Badania dotyczące rozumu ludzkiego, przeł. D. Misztal i T. Sieczkowski, Zielona Sowa, Kraków 2004. 6 I. Kant, Krytyka czystego rozumu, przeł. R. Ingarden, Wydawnictwo Naukowe PWN, Warszawa 2010. 7 Z. Majewski, Mechanika klasyczna a zasada determinizmu, „Studia Filozoficzne” 1988, 276 (11). 8 A. Nowaczyk, Co mówi o świecie zasada determinizmu, „Przegląd Filozoficzny - Nowa Seria” 2003, 45 (1), s. 7-26. 9 P. S. De Laplace, A Philosophical Essay On Probabilities, przeł. F. W. Truscott i F. L. Emory, JOHN WILEY & SONS, New York 1902, s. 4, 4 113 Aby móc przewidywać przyszłe zachowanie się dowolnego układu należy znać: ogólne prawa ruchu, działające siły oraz warunki początkowe (lub brzegowe). Koncepcja ta jednak natrafia na pewne ograniczenia, gdyż: – układ odosobniony to tylko idea – nieznane (lub świadomie pomijane) oddziaływania mogą istotnie wpływać na przyszły stan układu; – zachowanie powtarzalności warunków początkowych (lub brzegowych) to ułuda – każdy pomiar obarczony jest błędem ze względu na skończoną dokładność pomiarową; – prognoza przyszłego zachowania układu to wynik symulacji dokonanej na jego modelu – ten zaś zależy od dokładności obliczeń; – w zagadnieniach nieliniowych rozwiązanie może być niejednoznaczne lub też wręcz może pojawić się chaos. Jednym z najczęściej przytaczanych przykładów zdarzenia losowego jest rzut kostką10. Jednak zgodnie z prawami mechaniki klasycznej zależy tylko od warunków początkowych. Trajektoria ruchu powinna zatem być całkowicie określona, a wynik rzutu w pełni przewidywalny. Naukowcy i filozofowie od pięciu stuleci usiłują odpowiedzieć na pytanie, jak pogodzić te sprzeczności? Prace na ten temat napisali między innymi: Girolamo Cardano (jeden z odkrywców liczb urojonych), Galileusz (prekursor nowożytnej fizyki), Christian Huygens (prekursor rachunku różniczkowego i całkowego). Symulacje numeryczne dowodzą, że wynik rzutu kostką możemy przewidzieć, jeżeli tylko wystarczająco dokładnie znamy warunki początkowe, a liczba odbić nie jest zbyt duża11. Ale już przy współczynniku odbicia równym jeden, nawet najmniejsza niedokładność warunków początkowych sprawia, że wynik rzutu staje się nieprzewidywalny12. https://archive.org/stream/philosophicaless00lapliala#page/n9/mode/1up, (data dostępu: 21.12.2016). 10 J. Strzałko, J. Grabski, T. Kapitaniak, Czy gra w kości to prawdziwy hazard, „Świat Nauki” 2010, 6(226), s. 44-49. 11 J. Strzałko, J. Grabski, A. Stefański, P. Perlikowski, T. Kapitaniak, Dynamics of coin tossingis predictable, „Physics Report” 2008, 469(2), s. 59-92, doi: 10.1016/j.physrep.2008.08.003. 12 J. Nagler, P. Richter, How random is dice tossing, „Phisical Reviw E” 2008, 78, s. 1-8, doi: 10.1103/PhysRevE.78.036207. 114 Od porządku do chaosu – model deterministyczny a indeterminizm rozwiązań Powtarzalność wyników uzyskanych z modelu deterministycznego warunkowana jest powtarzalnością danych wejściowych, te zaś odpowiadają zmierzonym ze skończoną dokładnością parametrom procesu lub wyrażają pewne stałe np. stałe fizyczne, których wartości oszacowano eksperymentalnie13. Z reguły przyczyną są tu błędy pomiaru, wynikające z ograniczonej dokładności przyrządów pomiarowych14. Podsumowując, można stwierdzić, że zbiór wyników pomiarów zawsze jest skończonym zbiorem wartości dyskretnych, gdzie każda z tych wartości jest określona poprzez prawdopodobieństwo uzyskania wyniku obarczonego określonym błędem pomiaru. Badania modelu przeważnie prowadzi się z wykorzystaniem technik komputerowych. Wymaga to przekształcenia matematycznego modelu procesu w model informatyczny, będący programem zapisanym w określonym języku programowania. Wykonując kolejne realizacje tego programu (symulację procesu), uzyskuje się skończony zbiór wartości wielkości wynikowych. O ile oszacowanie błędów pomiarów w większości przypadków nie sprawia problemów, to znacznie trudniej jest oszacować błędy obliczeniowe, a trudności te rosną wraz ze złożonością algorytmów15. Mamy skłonność do uznawania obliczeń komputerowych za szczyt dokładności, lecz w rzeczywistości nie są one tak dokładne16: – ograniczenia pamięci powodują, że liczby zapisywane są z ograniczoną dokładnością; – kod wewnętrzny, którego komputer używa do reprezentowania liczb i kod zewnętrzny używany do ich prezentacji są różne; – ten sam program wykonywany na różnych komputerach może prowadzić do różnych wyników; – ten sam program wykonywany na tym samym komputerze, ale przy różnych wersjach software’a, także może prowadzić do różnych wyników. R. Myhan, A process and its model – assessment of similarity, „Annual Review of Agricultural Engineering” 2010, 2(1), s. 59-65. 14 J.R. Taylor, Wstęp do analizy błędu pomiarowego, przeł. A Babiński i R. Bożek, Wydawnictwo Naukowe PWN, Warszawa 2012, s. 19-27. 15 J. Klamka, Z. Ogonowski, Metody numeryczne, Wydawnictwo Politechniki Śląskiej, Gliwice 2015, s. 7-15. 16 I. Stewart, Czy Bóg gra w kości. Nowa matematyka chaosu, przeł. M. Tempczyk, W. Komar, Wydawnictwo Naukowe PWN, Warszawa 1994, s. 23-28. 13 115 Przykładowo, obserwując tylko wyniki kolejnych iteracji prostego i ściśle deterministycznego modelu (rys. 1) można odnieść wrażenie, że są one nieprzewidywalne i różne dla każdej wartości początkowej |x0| 1. 1 x=x0; for i=1:50 x=2*x.^2-1; end x=0.4 x=0.8 0.5 0 -0.5 -1 0 5 10 15 20 25 30 35 40 45 50 Rys. 1. Przykładowe wyniki symulacji dla modelu deterministycznego. W algebrze liniowej operator lub funkcję f(x) opisujemy w następujący sposób: addytywność f(x+y)=f(x)+f(y), homogeniczność f(αx)=αf(x). Jeżeli model nie spełnienia powyższych założeń, mamy do czynienia z nieliniowością. W przyrodzie większość oddziaływań modeluje się właśnie funkcjami nieliniowymi, ale w zagadnieniach nieliniowych rozwiązanie może być niejednoznaczne. Występują w nich także zjawiska o charakterze specyficznie nieliniowym takie jak: wybuchy (uciekanie rozwiązań do nieskończoności), gaśnięcie rozwiązania w skończonym czasie oraz zamieranie rozwiązań w skończonym czasie17. Rozwiązania mogą też być wrażliwe na dowolnie małe zaburzenie parametrów początkowych18. Dotyczy to zwykle nieliniowych równań różniczkowych, opisujących układy dynamiczne. Jednym z podstawowych modeli nieliniowych, które można spotkać nie tylko w mechanice, jest równanie Duffinga. W przedstawionym przykładzie (rys. 2) niewielka zmiana wartości parametru a ± 0.00001 (błąd względny 0.00333%) sprawia, że po pewnym czasie zachowanie układu staje się nieprzewidywalne. J. Cholewa,Pewne nietypowe własności rozwiązań nieliniowych równań ewolucyjnych, „Roczniki Polskiego Towarzystwa Matematycznego”. Seria II: Wiadomości Matematyczne 2002, s. XXXVIII. 18 G. H. Schuster, Chaos deterministyczny. Wprowadzenie, wydanie drugie, Wydawnictwo PWN, Warszawa 1995. 17 116 2  y=f(t)  d 2x dx  0.2   x  x 3  a  sin(t ) dt 2 dt 1 0 a=0.29999 a=0.30000 a=0.30001 -1 -2 0 20 40 60 80 100 czas 120 140 160 180 200 Rys. 2. Wrażliwość układu na warunki początkowe. Dowolny układ fizyczny, który zachowuje się nieokresowo, jest nieprzewidywalny. Niemożliwe jest jednoznaczne wskazanie miejsca, w jakim znajdzie się punkt w kolejnym kroku. Chaos jest immanentną własnością nieliniowych układów dynamicznych19. Symbolem teorii chaosu stał się układ trzech nieliniowych równań różniczkowych Lorentza20, opisujący zjawiska atmosferyczne, gdzie z pozoru nic nieznaczące zaburzenie prowadzi do dużych zmian zachowania układu, wykładniczo narastających z czasem. Mamy tu do czynienia z sytuacją, gdzie zjawisko przebiega zgodnie z prawami deterministycznymi, ale dla obserwatora, wydaje się być niedeterministyczne21. Ścisłym kryterium chaotyczności jest określenie wartości wykładników Lapunowa. Wykładnik Lapunowa  wyznacza wartość liczbową średniego wzrostu nieskończenie małych błędów w punkcie początkowym. Układ jest chaotyczny, jeśli ma co najmniej jeden dodatni wykładnik Lapunowa22. Odwrócony paradygmat – od chaosu do porządku W większości przypadków dedukcja zachowania układów złożonych, przy założeniu znajomości elementarnych procesów, okazała się 19 P. Fritzkowski, O chaosie deterministycznym. http://www.fritzkowski.pl/www2/wp-content/uploads/2015/08/chaos.pdf, (data dostępu: 21.12.2016). 20 M. Tempczyk, Teoria chaosu a filozofia, Wydawnictwo CiS, Warszawa 1998, s. 119-131. 21 A. Lemańska, Determinizm przyrodniczy a chaos deterministyczny, „Studia Philosophiae Christianae” 1996, 32, s. 203-211. 22 A. Stefański, Estymacja maksymalnego wykładnika Lapunowa układów dynamicznych w oparciu o zjawisko synchronizacji, „Zeszyty Naukowe. Rozprawy Naukowe / Politechnika Łódzka” 2004, s. 3-112. 117 niewykonalna. Stąd też np. w fizyce zastosowano prawa statystyczne, które ustalają przebieg zjawisk w skali masowej, nie muszą być spełnione w każdym pojedynczym przypadku. Takie procesy, jak rozpad atomów pierwiastków promieniotwórczych, podlegają prawidłowościom statystycznym. Można przewidzieć jedynie prawdopodobieństwo tego, że dany atom pierwiastka promieniotwórczego rozpadnie się w określonym czasie. Prawa kinetycznej teorii gazów, które ustalają przebieg zdarzeń w skali masowej, nie muszą być spełnione w każdym pojedynczym przypadku. Na przykład równanie stanu gazu doskonałego PV=nRT, jest spełnione tym dokładniej, im więcej jest molekuł gazu. Ruchy Browna to chaotyczne ruchy cząstek w płynie wywołane zderzeniami zawiesiny z cząsteczkami płynu. Natura tych ruchów jest czysto fizyczna, a jej wyjaśnienie z punktu widzenia teorii kinetycznocząsteczkowej jest proste. Modelując zmianę położenia pojedynczej cząstki przy założeniach, że pomiędzy kolejnymi zderzeniami pokonuje ona zawsze taką samą drogę, a jej ruch może się odbywać w dowolnym kierunku losowanym z rozkładu równomiernego, nie można przewidzieć czy i kiedy cząstka powróci do położenia początkowego (rys. 3a). Sytuacja zmienia się, gdy przy zachowaniu pozostałych założeń ograniczymy jedynie liczbę możliwych kierunków do dwu kierunków prostopadłych. Wtedy z całkowitą pewnością można przyjąć, iż po pewnej ilości zderzeń powróci ona do punktu początkowego (rys. 3b.). Powrót do tego punktu nie zależy od kolejności zderzeń, gdyż wypadkowy wektor nie zależy od kolejności wektorów pojedynczych przemieszczeń. Przykładowo, jeżeli przyjąć, że w warunkach normalnych dla powietrza23 średnia odległość cząstek wynosi 10-9 m, a ich średnia prędkość 3200 km/h to cząstka powróci do położenia początkowego średnio po czasie t=4.39 10-9 s. 23 M. G. Raizen, Demony entropii, „Świat Nauki” 2011, 4(236), s. 52-57. 118 a) b) po 3898 zderzeniach Rys. 3. Symulacja zmian położenia pojedynczej cząstki, gdy jej ruch może odbywać się: a – w dowolnym kierunku; b – tylko w dwu wyróżnionych kierunkach. Indeterminizm mechaniki kwantowej Ciągłość to jedna z najbardziej podstawowych własności matematycznych. Liczba rzeczywista może przyjmować dowolną wartość od minus do plus nieskończoności. Ale czy wyrażone taką liczbą np. masa lub energia są dowolnie podzielne? Czy czas i przestrzeń są ciągłe? Dzisiejsza fizyka wskazuje, że świat chyba nie jest ciągły, a dyskretny. Max Planck stwierdził, że energia nie może być wypromieniowywana w dowolnych ciągłych ilościach, lecz jedynie w postaci kwantów o wartości 6.6260855(40) 10-34 Js. Oznacza to, że nie ma energetycznych stanów pośrednich, a co za tym idzie – wszelkie zmiany zachodzą skokowo, czyli nieciągle24. Długość Plancka wynosi zaledwie 10-35 m, a najmniejsza możliwa jednostka czasu (czas Plancka) trwa 10-43 s. Stała Plancka okazała się nieprzekraczalną granicą dokładności pomiarów. Ze sformułowanej przez Heisenberga zasady nieoznaczoności wynika, że nie można jednocześnie z dowolną dokładnością zmierzyć położenia i pędu cząstki elementarnej oraz nie można ustalić warunków początkowych z taką precyzją, jaka jest wymagana w mechanice klasycznej, a ruch cząstek kwantowych nie podlega deterministycznym prawidłowościom – można jedynie przewidzieć prawdopodobieństwo znalezienia cząstki kwantowej w pewnym obszarze przestrzeni25. Zdaniem Heisen- J. D. Stein, Kosmiczne liczby. Liczby które definiują naszą rzeczywistość, przeł. M. Siuda-Bochenek, Prószyński i S-ka, Warszawa 2013, rozdz. 8. 25 A. Łukasik, Atom od greckiej filozofii przyrody do nauki współczesnej, Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej, Lublin 2000, s. 141. 24 119 berga statystyczny charakter mechaniki kwantowej jest jej cechą ostateczną i żadne przyszłe dokonania w dziedzinie fizyki mikroświata nie pozwolą na przekroczenie ograniczeń związanych z zasadą nieoznaczoności26. W fizyce klasycznej przyjmowano, że oddziaływanie między przyrządem pomiarowym a mierzonym obiektem może być ograniczone do minimum tak, że jest praktycznie zaniedbywalne. W fizyce kwantowej problem pomiaru przewija się nieustannie. Już sam akt pomiaru zaburza stan badanego układu. W Krótkiej historii czasu Stephena Hawkinga zasada nieoznaczoności została wyjaśniona w sposób następujący. Załóżmy, że chcemy poznać położenie cząstki. Oczywistą metodą jest ją naświetlić. Jednak fotony w kontakcie z badaną cząstką zmieniają jej pęd w sposób niedający się przewidzieć. Aby temu zapobiegać, można użyć fali o mniejszej energii, wówczas jednak rozdzielczość uzyskanego obrazu jest gorsza, a zatem nieoznaczoność położenia większa27. Z zagadnieniem indeterminizmu wiąże się bodaj najtrudniejszy problem interpretacyjny mechaniki kwantowej – redukcja paczki falowej, nieciągły skok od deterministycznie ewoluującej funkcji falowej do jedynie statystycznie przewidywalnych wyników pomiarów28. Ewolucję funkcji falowej Ψ układu izolowanego opisuje ciągłe i deterministyczne równanie Schrödingera. Funkcja Ψ może być powiązana z doświadczeniem, ale podczas pomiaru następuje nieciągła i indeterministyczna redukcja tej funkcji. Można więc przewidzieć jedynie prawdopodobieństwo rezultatu pomiaru29. Determinizm mechaniki kwantowej? Otaczający nas świat na poziomie kwantowym zdaje się wykraczać często poza logiczne zrozumienie i ciąg przyczynowo-skutkowy. Skrajnie nieintuicyjne prawa mechaniki kwantowej głoszące, że niewielkie obiekty pozostają w tzw. superpozycji stanów kwantowych (mogą np. być jednocześnie w dwóch różnych miejscach), pomimo A. Łukasik, Mechanika kwantowa dla kognitywistów, http://bacon.umcs.lublin.pl/~lukasik/wp-content/uploads/2010/12/Mechanika-kwantowa.pdf, (data dostępu: 21.12.2016). 27 S. W. Hawking, Krótka historia czasu, przeł. P. Amsterdamski, Wydawnictwo Zysk i S-ka , Poznań 2015, s. 60-68. 28 M. Heller, Johna Bella filozofia mechaniki kwantowej, „Studia Philosophiae Christianae ATK” 1994, 30 (2), s. 151-161. 29 J. Gribbin, W poszukiwaniu kota Schrödingera: realizm w fizyce kwantowej, przeł. J. Bieroń, Zysk i S-ka, Poznań 1997, s. 33. 26 120 licznych potwierdzeń empirycznych wciąż budzą wątpliwości w świecie fizyki30. Albert Einstein w liście do Maxa Borna pisał: „(…) jakiś wewnętrzny głos mi mówi, że nie jest ona tym, o co ostatecznie chodzi”31. Z kolei Richard Feynman powiedział kiedyś: „Jeśli sądzisz, że rozumiesz mechanikę kwantową, to nie rozumiesz mechaniki kwantowej”32. W pracy opublikowanej w 1957 r., Hugh Everett III podjął rękawicę i wskazał sposób, w jaki teoria kwantowa przewiduje fakt dzielenia się jednej klasycznej rzeczywistości na kilka oddzielnych i jednocześnie się toczących33. U Everetta obserwator niczego nie zakłóca i nie redukuje, a każdy stan superpozycji jest jednakowo realny. Wszystko, co może się zdarzyć, zdarza się na pewno w którejś z odnóg rzeczywistości przypominającej wielkie, rozgałęziające się w każdej chwili drzewo życia. Fizycy postanowili ostatnio podejść na nowo do podstawowych zagadnień mechaniki kwantowej i doszli do zaskakujących wniosków: nie tylko równoległe wszechświaty istnieją, lecz oddziałują one ze sobą wzajemnie – co idealnie wyjaśniałoby praktycznie wszystkie przedziwne zjawiska kwantowe34. Poszukiwaniem światów równoległych zajęło się także NASA. Na Międzynarodowej Stacji Kosmicznej zainstalowano urządzenie Alpha Magnetic Spectrometer-2 w celu rejestracji danych, które między innymi mogą dowieść istnienia innych wszechświatów35. Determinizm i przypadek Analizując wzajemne powiązanie mechaniki klasycznej i kwantowej, należy stwierdzić, że determinizm tej pierwszej nie jest sprzeczny ze statystycznym charakterem drugiej. Opis odwołujący się do determinizmu i opis odwołujący się do przypadkowości mogą być rożnymi, lecz równoważnymi sposobami opisu ruchu układów wysoce niestabil30 A. Zeilinger, Quantum teleportation, „Scientific American” 2003, 13, s. 3443. 31 A. Calaprice, Einstein w cytatach, przeł. M. Krośniak, Prószyński i S-ka, Warszawa 2014, s. 359. 32 M. Chown, Teoria kwantowa nie gryzie, przeł. J. Bieroń, Zysk i S-ka, Poznań 2009, s. 96. 33 P. Byrne, The Many Worlds of Hugh Everett III, „Scientific American” 2007, 10, s. 98-105. 34 Y. Nomura, Kwantowy wieloświat, „Świat Nauki” 2017, 7(311), s. 52-57. 35 Alpha Magnetic Spectrometer, http://www.ams02.org/, (data dostępu: 21.12.2016). 121 nych . Gdy układ jest niestabilny, to świadomość, że jest on zdeterminowany, niczego w praktyce nie daje. Niestabilność zachowania układu zdeterminowanego przezwycięża przeciwieństwo pojęciowe determinizmu i przypadkowości. Odnosząc się do postawionego na wstępie pytania, czy obserwowane w przyrodzie zdarzenia, zjawiska i procesy są zdeterminowane poprzez związki przyczynowo-skutkowe, czy też są przypadkowe: jeżeli złożymy, że przyroda nie zna przypadku, ponieważ każda zachodząca w niej zmiana podlega nieuchronnym prawidłowościom, to tylko nieznajomość tych prawidłowości nasuwa myśl o przypadku. Zatem miejsce przypadku można ograniczyć do powierzchni styku obszaru wiedzy i niewiedzy. Traktując wiedzę jako objętość sfery o promieniu r, to wraz ze wzrostem tej objętości rośnie też jej powierzchna, a więc obszar zarezerwowany dla przypadku. Przy czym w wartościach względnych rola przypadku jednak maleje zmieniając się odwrotnie proporcjonalnie wraz ze wzrostem r. 36 36 M. Tempczyk, Renesans mechaniki klasycznej. „Filozofia Nauki” 1993, 1/1, s. 113-124. 122 Piotr Drogosz Uniwersytet Warmińsko-Mazurski w Olsztynie PROBLEMY TECHNICZNEJ REALIZACJI LOGIK 1. Uwagi wstępne Zamierzeniem tego tekstu jest opisanie spostrzeżeń odnoszących się do obrazu logiki widzianego z perspektywy praktycznych potrzeb przedstawiciela nauk technicznych. Tezą autora jest twierdzenie, iż w działalności technicznej wykorzystuje się wiele różnorodnych logik, które można badać postępując zgodnie z zasadami metodologii naukowej. W wielu przypadkach logiki techniczne różnią się od najczęściej spotykanych opisów logik matematycznych, logiki zdań, logiki zbiorów i reguł wnioskowania. Przedstawiony opis podjętej problematyki koncentruje się na wykazaniu przyczyn powodujących potrzebę odrębnego badania logik technicznych i z pewnością nie wyczerpuje podjętego zagadnienia. W trosce o komunikatywność opisu ograniczono się do najprostszych przypadków interpretacji zagadnień technicznych z wykorzystaniem elementarnych pojęć logicznych. W pierwszej kolejności opisano pojęcie logiki. 2. Logika Logika jest rozumiana na bardzo wiele różnych sposobów. W wyobrażeniach potocznych logika jest jedna. Wyobrażenia potoczne użytkowane są przez statystyczną większość społeczeństwa. Zgodnie z zasadami demokracji, powoduje to skłonność do uznawania tzw. uzusu znaczeniowego. Z tego powodu technicy i inżynierowie znajdują się w opozycji pomiędzy prostotą oczywistości dominacji mniemań większości członków społeczeństwa oraz indywidualnym i subiektywnym doświadczaniem różnorodności natury. Ma to wpływ na rosnące różnicowanie metod badawczych w tzw. naukach stosowanych, których zróżnicowanie najwyraźniej dostosowuje się do różnorodności obserwowalnej w naturze. Podobnym trendom ulegają teoretycy zakładający ideowe paradygmaty dostosowywania teorii do tzw. rzeczywistości1. 1 Por. M. Ruse, Mystery of Mysteries. Is Evolution a social construction?, Harvard University Press. Cambrige (Massachusetts), London (England) 1999, s. 255 124 W tym opracowaniu, odnosząc się do zastosowań technicznych, przyjęto, iż logika oznacza stały sposób działania. Sposób działania może być opisany słownie, schematycznie, symbolicznie lub przez inne dowolne sposoby przekazywania informacji. Pojęcie logiki można wykorzystać zarówno do opisu działania maszyn i urządzeń technicznych, jak również do opisów charakterystyk różnorodnych zjawisk przyrodniczych, fizycznych, społecznych i intelektualnych. W literaturze2 znane są inne określenia pojęcia logiki. Jednak ich opisowe formy są formułowane w odniesieniu do wybranych paradygmatów i specjalności naukowych3. W wyniku tego, definicje logiki aspirujące do uznania za ogólne, w rzeczywistości nie odpowiadają wymaganiom logik stosowanych w technice. Rodzi to wątpliwości co do ich ogólności i obiektywności. Stały sposób działania wydaje się najistotniejszym wyróżnikiem tego, co najczęściej nazywane jest logiką. Prawdopodobnie z tych względów, w potocznym języku technicznym, można usłyszeć o „poznawaniu logiki urządzenia”. Przy czym, za zupełnie oczywiste uznaje się istnienie urządzeń charakteryzujących się różnymi logikami działania. Wobec tego działalność techniczna pozwala na praktyczne i obiektywne doświadczanie istnienia różnych logik. Prowadzi to do możliwości porównywania języków opisujących działanie różnorodnych obiektów technicznych, a szczególnie ich sterowników, z dotychczas znaną wiedzą odnosząca się do teoretycznego dorobku logiki i metodologii. Logiczna analiza sposobów działania obiektów technicznych zakłada pełną sprawność wszystkich elementów, podzespołów i modułów. W ten sposób na samym wstępie oczekuje się powtarzalnego działania urządzenia. W drugiej kolejności następuje identyfikacja polegająca na ustalaniu charakteru jakościowego reakcji urządzenia na sygnały sterujące. W następnym etapie jest możliwa identyfikacja ilościowa, gdy wiemy jakie powtarzalne procesy należy badać. W odniesieniu do stosunkowo prostych obiektów identyfikacja prowadzi do określenia najprostszych logik działania urządzeń. W przypadkach bardziej skomplikowanych, istnieje potrzeba odwołania się do bardziej złożonych systemów logicznych, które opisywane są jako tzw. modele systemów technicznych. Dla rozpatrzenia zagadnień podstawowych wystarczające jest odniesienie się do stosunkowo prostych logik działania urządzeń. Z tego względu zagadnienie modelowania systemów technicznych nie będzie dalej omawiane. Por. Mała encyklopedia logiki. Zakład Narodowy im. Ossolińskich – Wydawnictwo, Wrocław 1988. Str. 95-120 3 Por. M. Ruse, Mystery of Mysteries, s. 35 2 125 Związek logiki z powtarzalnością działań jest bardzo istotny. W odniesieniu do urządzeń technicznych powtarzalność działań jest podstawowym kryterium oceny poprawności działania urządzeń i ich przydatności („zdatności”) technicznej. Na tej podstawie można mówić o przewidywalności zachowania się urządzeń oraz o możliwości celowego ich wykorzystania. Gdy powtarzalność działań urządzeń technicznych zanika, to traktuje się je jako „niezdatne” do dalszej eksploatacji. Stopień i nieodwracalność niezdatności podlega indywidualnej ocenie nazywanej procesem diagnostyki technicznej. Wszelkie odstępstwa od założonego logicznego działania urządzeń są klasyfikowane jako awarie. Może zdarzyć się, iż w wyniku awarii urządzenie nadal działa powtarzalnie, ale zmianie ulega jego logika działania. Jeśli taka logika nie zapewnia realizacji założonych celów technicznych, to również traktowana jest jako wadliwa. W ten sposób bardzo łatwo można wskazać istnienie pożądanych i niepożądanych logik, w zależności od zakresu ich użyteczności. Ale w pierwszej kolejności wyraźnie widać, iż mogą one być różne, a pomimo to nadal spełniają warunki wyodrębnienia pojęcia logiki rozumianej jako stały sposób działania. W dalszej kolejności zostanie opisane zagadnienie podstawowych funkcji logicznych wykorzystywanych w technice. 3. Podstawowe funkcje logiczne wykorzystywane w technice Za najważniejszy system logiczny w technice uważa się tzw. logikę Boole’a4. Wywodzi się ona z dwuwartościowej algebry Boole’a zawierającej trzy podstawowe reguły przekształcania informacji: negację, alternatywę i koniunkcję. W tabelach Tab. 1, Tab. 2 i Tab. 3 podano symboliczny zapis wymienionych reguł. Informacja wchodząca 0 1 Informacja wychodząca 1 0 Tab.1. Reguły przekształcania informacji dwuwartościowej negacji. 4 M. Olszewski, W. J. Kościelny, W. Mednis, J. Szaciło-Kosowski, P. Wasiewicz, Urządzenia i systemy mechatroniczne, Wydawnictwo REA. Warszawa 2009, s. 81. 126 Pierwsza informacja wchodząca 0 0 1 1 Druga informacja wchodząca 0 1 0 1 Informacja wychodząca 0 1 1 1 Tab.2. Reguły przekształcania informacji dwuwartościowej dwuargumentowej alternatywy. Pierwsza informacja wchodząca 0 0 1 1 Druga informacja wchodząca 0 1 0 1 Informacja wychodząca 0 0 0 1 Tab.3. Reguły przekształcania informacji dwuwartościowej dwuargumentowej koniunkcji. Według powszechnego przekonania, większość technicznych systemów logicznych można sprowadzić do logiki Boole’a5. Przekonanie to wzmacniane jest przez oczekiwanie istnienia tylko jednej logiki, a tymczasem wiadomo, iż istnieje logika zbiorów, klasyczna logika zdań i różne reguły wnioskowania. Jednak rozważania podstawowe dotyczące interpretacji pojęć w raz przyjętych paradygmatach rzadko są podejmowane6. Tworzy to wrażenie tendencyjnego kształtowania wyobrażeń sugerujących możliwość wtłoczenia wszelkich systemów wiedzy do modeli zbliżonych do schematów przetwarzania informacji charakterystycznych dla arytmetyki. W takich schematach, na podstawie danych wejściowych, można jednoznacznie określić wyniki przetwarzania informacji. I odwrotnie, na podstawie wyników, można jednoznacznie odtworzyć dane wejściowe. W ten sposób podaje się argumenty potwierdzające obiektywny charakter przetwarzania informacji. Oprócz logiki Boole’a, w systemach technicznych wykorzystywane są również inne systemy logiczne. Różne reguły przekształcania informacji realizowane są przez urządzenia techniczne nazywane bramkami 5 Ibidem, s. 239 Por. T. S. Kuhn, Struktura rewolucji naukowych, przeł. H. Ostromęcka, J. Nowotniak, Wydawnictwo ALETHEIA 2009, s. 140, 250, 307, 353, 6 127 logicznymi. Bramki logiczne traktowane są jako moduły urządzeń o znanym sposobie przekształcania informacji i nieznanej budowie wewnętrznej. Najczęściej z określeniem bramka logiczna można się spotkać w elektronice cyfrowej. Systemy techniczne mogą być budowane z bardzo różnorodnych bramek, a nie tylko z bramek systemu logicznego Boole’a. W ten sposób, w technicznych systemach logicznych można spotkać się z różnymi logikami składającymi się z różnej liczby różnorodnych reguł przetwarzania informacji. Zdarza się również, że oprócz reguł przetwarzania informacji zmieniają się systemy wartości, zasady metodologiczne i sposoby interpretacji. Nawet jeśli systemy wartości, zbiory reguł przetwarzania informacji, zbiory zasad metodologicznych i sposoby interpretacji pozostaną takie same, to w technice można zauważyć możliwości realizacji tych samych efektów działania na wiele różnych sposobów. Mamy w tych przypadkach do czynienia z naruszeniem podstawowego oczekiwania dotyczącego jednoznaczności ścieżki przetwarzania informacji. Okazuje się, iż ten sam efekt przetwarzania informacji można uzyskać na wiele różnych sposobów. Najwyraźniej natura przypomina, iż idealny uporządkowany świat wyobrażeń ludzkich, usystematyzowanych w ramach podstawowych tez metodologii naukowej, nie zawiera wszystkich możliwości7. Niektóre z takich przypadków zostaną omówione w odniesieniu do technicznej realizacji podstawowych funkcji logicznych zaliczanych do logiki Boole’a. W pierwszej kolejności zostanie omówiona negacja będąca jednoargumentową funkcją logiczną zmieniającą wartość argumentu na wartość przeciwną. 4. Techniczna realizacja dwuwartościowej negacji W tabeli Tab. 1 podano reguły przekształcania informacji zwanej dwuwartościową negacją. Negacja jest funkcją jednoargumentową, podobnie jak funkcja zwana powtórzeniem, której symbolicznie zapisane reguły nieprzekształcania informacji podano w Tab. 4. Informacja wchodząca 0 1 Informacja wychodząca 0 1 Tab.4. Reguły nieprzekształcania informacji dwuwartościowego powtórzenia. 7 Ibidem, s. 183, 355 128 W rozważaniach teoretycznych funkcje jednoargumentowe najczęściej traktowane są jako oczywiste i trywialne. Jednak w zastosowaniach technicznych funkcjom jednoargumentowym przypisuje się największe znaczenie praktyczne. Niewątpliwie wynika to z tzw. doświadczeń zawodowych, a nie z chęci czy też ambicji intelektualnych. W praktyce instalacyjnej, wszelkiego typu urządzeń podstawową czynnością wstępną jest sprawdzenie, czy sygnały i nośniki energii są przesyłane zgodnie z oczekiwaniem projektowym. Temu służą coraz bardziej skomplikowane technologie montażu, sprawdzania i pomiarów. Zagadnienia te dobrze widoczne są zarówno w energetyce (np. wymagania ciągłości zasilania w sieciowych systemach elektrycznych), transporcie (np. warsztatowa diagnostyka stanu przewodów elektrycznych w pojazdach), sferze bytowej ludności (np. okresowe kontrole domowych instalacji elektrycznych), telekomunikacji (np. odbiorcze i okresowe badania charakterystyk połączeń światłowodowych8). Rys. 1. Przykładowy wykres histerezy przekaźnika elektrotechnicznego. Na Rys. 1 przedstawiono graficzną wizualizację naturalnego zjawiska nazywanego histerezą. W wielu modelach teoretycznych zalicza się ją do tzw. zjawisk nieliniowych. Ilustracja z Rys. 1 przedstawia typowy przebieg zjawisk regularnie pojawiających się podczas obserwowania zachowania elektrycznych dwustanowych urządzeń przełączających. 8 Por. PKN Komitet Techniczny nr 173: Systemy okablowania strukturalnego. PN-EN 50173. Polski Komitet Normalizacji 2011, s. 34, 167 129 W sposób analogiczny przebiegają zjawiska np. w ciśnieniowych (gazowych i cieczowych) instalacjach przełączających. Na Rys. 1 zaznaczono punkt opisujący współrzędne nominalnych parametrów pracy. Współrzędne na osi odciętych wyrażają wartości zmiennego parametru, jakim jest napięcie elektryczne. Wartości liczbowe zapisane na tej osi, w odniesieniu do opisywanych zagadnień, można traktować jako przykładowe. Jednak dla różnych typów urządzeń przełączających współrzędne nominalnych parametrów pracy mogą być inne, lecz zawsze są ściśle określone. W przypadku pokazanym na Rys. 1 nominalnym napięciem przełączającym przekaźnik jest 12 V prądu stałego. Nominalnym napięciem wyłączającym przekaźnik jest napięcie o wartości 0 V. Wartości nominalne można określić jako teoretycznie oczekiwane. W praktyce najczęściej są one jedynie zbliżone do wartości teoretycznych. Podczas zmiany wartości napięcia zasilającego od 0 V do 12 V nagle następuje przełączenie elementu wykonawczego. Na Rys. 1 przykładowo podano napięcie włączenia jako 6 V, a napięcie wyłączenia jako 3 V. W ten sposób na wykresie powstaje kształt pętli tzw. histerezy, charakteryzującej zakres niejednoznaczności działania urządzenia przełączającego. Momenty przełączenia różnych egzemplarzy urządzeń tego samego typu są różne i mogą ulegać zmianom w wyniku degradacji materiałów w czasie użytkowania (tzw. zużycia), zmian temperatury i zmian natężenia prądu, przy zachowaniu tego samego napięcia. Tworzy to coś w rodzaju teoretycznego obszaru przypadkowości, nieprzewidywalności i niewiedzy w odniesieniu do sposobów pracy układów przełączających. Po uwzględnieniu występowania takich zjawisk praktycznie we wszystkich urządzeniach, uświadamiamy sobie, dlaczego oczekiwanie pełnej kontroli nad urządzeniami pozostaje jedynie teoretycznym postulatem. Najprostszym sposobem zapobiegania ujawnianiu się wskazanych przypadkowości jest zachowywanie nominalnych parametrów pracy urządzeń zasilających, co najczęściej nie jest w pełni kontrolowalne. W momencie spadku parametrów zasilania w całości lub części sterownika, pojawiają się trudne do przewidzenia kombinacje działań różnych podzespołów. Podobnie dzieje się w wyniku losowo pojawiających się niesprawności poszczególnych elementów przełączających. Ze względów praktycznych dobrze jest wyróżniać w układach sterujących trzy typy obszarów: obszary wypracowania sygnałów sterujących, obszary przetwarzania informacji oraz obszary wykonawcze. Takie rozróżnienie poprawia przejrzystość struktury układów sterujących oraz ułatwia zamienne wykorzystanie różnych technologii sprzętowych. Dzięki temu w poszczególnych obszarach można zamiennie wykorzy- 130 stywać elementy elektryczne, pneumatyczne, hydrauliczne lub mikroprocesorowe. Dla zilustrowania tych możliwości poniżej zamieszczono przykładowe schematy przedstawiające realizację powtórzenia i negacji. Na Rys. 2 przedstawiono schematyczny zapis elektrycznej realizacji powtórzenia i negacji stosowanych w obszarach wypracowania sygnałów sterujących. Na schemacie wykorzystano najczęściej stosowane oznaczenia. Napis „24 V DC” oznacza nominalne napięcie zasilania w woltach prądu stałego. Napis „NO” odnosi się do tzw. styku normalnie otwartego przełączanego ręcznie, którego symbol graficzny jest widoczny na schemacie elektrycznym, a napis „NC” odnosi się do tzw. styku normalnie zamkniętego przełączanego ręcznie, którego symbol graficzny również jest widoczny na schemacie elektrycznym. Napisy „K1” i „K2” odnoszą się odpowiednio do cewek elektromagnesów dwóch przekaźników elektrotechnicznych. W celu realizacji jednoargumentowego powtórzenia wykorzystano styk oznaczony jako NO i przekaźnik oznaczony jako K1. Realizując jednoargumentową negację wykorzystano styk oznaczony jako NC i przekaźnik oznaczony jako K2. Rys. 2. Schematyczny zapis elektrycznej realizacji powtórzenia i negacji stosowanych w obszarach wypracowania sygnałów sterujących (opis w tekście). Na Rys. 3 przedstawiono schematyczny zapis elektrycznej realizacji powtórzenia i negacji w obszarach przetwarzania informacji. W tym wypadku napisy K1 i K2 odnoszą się odpowiednio do styków roboczych przekaźników elektrotechnicznych K1 i K2. W przypadku tego rysunku wyraźnie widać wzajemne związki oznaczenia alfanumerycznego z symbolami graficznymi. W podobnych sytuacjach takie same oznaczenia, z takimi samymi symbolami graficznym na schematach elektrycznych, są stosowane wielokrotnie, choć oznaczają różne przyłącza różnych styków w tym samym przekaźniku elektrotechnicznym. Traktowane jest to jako specjalistyczny rodzaj zapisu logicznego, który instalator musi odszyfrować w czasie montażu urządzenia. Jednak z formalnego punktu 131 widzenia tego typu zapis nie może być uznany za ścisły i jednoznaczny. Inna praktyka polega na numerowaniu styków w postaci dodawania kolejnych liczb przed oznaczeniami typu K1, ale ten sposób również nie zapobiega trudnościom interpretacyjnym. Z tych powodów, w zakresie samych oznaczeń stosowanych w dokumentacjach technicznych, istnieją lokalne (subiektywne) zwyczaje interpretacyjne. W ten sposób opisy takie nie spełniają wszystkich postulatów naukowych odnoszących się do jednoznaczności, obiektywności i możliwości powtórzenia tych samych czynności przez inną osobę. W wyniku tego, w zależności od interpretacji, na podstawie tej samej dokumentacji można połączyć układy, które mogą spowodować samozniszczenie, wadliwe działania lub w najmniejszej liczbie przypadków – mogą działać poprawnie, czyli zgodnie z oczekiwaniami. Należy tu podkreślić, iż zazwyczaj jest kilka różniących się od siebie połączeń zapewniających poprawne działanie urządzenia. Bardzo rzadko zdarza się, że istnieje wyłącznie jedno połączenie poprawne. Po tych wyjaśnieniach (spoglądając na Rys. 2 i Rys. 3) staje się widoczne, iż o rodzaju realizowanej funkcji decyduje symbol graficzny w postaci symbolu styku normalnie otwartego lub symbolu styku normalnie zamkniętego. Opisy symboli graficznych ułatwiają orientację w liczbie i rodzajach wykorzystanych elementów elektrotechnicznych. Symbol styku normalnie otwartego pozwala na realizację przekazania sygnału, a symbol styku normalnie zamkniętego pozwala na realizację negacji. Pozostałe oznaczenia na Rys. 3 widoczne jako E1 i E2 oznaczają cewki elektromagnesów załączających urządzenia wykonawcze. Rys. 3. Schematyczny zapis elektrycznej realizacji powtórzenia i negacji stosowanych w obszarach przetwarzania informacji (opis w tekście). Analogicznie do schematów zamieszczonych na Rys. 2 i Rys. 3, na Rys. 4 przedstawiono schematyczny zapis elektrycznej realizacji powtórzenia i negacji stosowanych w elektrycznych obszarach wykonawczych. Napisy E1 i E2 odnoszą się odpowiednio do styków roboczych 132 sterownych przez cewki elektromagnesów załączających urządzenia wykonawcze (najczęściej tzw. styczników). Najważniejsza informacja na Rys. 4 dotyczy sposobu zasilania silnoprądowych łączników Q1 i Q2. W ten sposób wyraźnie widać, iż urządzenia elektryczne budowane są z niezależnych obwodów elektrycznych o bardzo różnych właściwościach. Z tego powodu wyodrębnione wcześniej obszary wypracowania sygnałów sterujących, obszary przetwarzania informacji oraz obszary wykonawcze są ważne i pomocne, ale nie wyczerpują strukturalnej analizy wszystkich systemów sterowania. Rys. 4. Schematyczny zapis elektrycznej realizacji powtórzenia i negacji stosowanych w elektrycznych obszarach wykonawczych (opis w tekście) Wyróżnienie obszarów wypracowania sygnałów sterujących, obszarów przetwarzania informacji oraz obszarów wykonawczych, ułatwia wykorzystanie różnych technologii w budowie układów sterowania. Dla przykładu na Rys. 5 przedstawiono obszar wykonawczy wykonany w technologii elektrohydraulicznej z wykorzystaniem tzw. cylindrów hydraulicznych dwustronnego działania. Układy elektryczne w obszarach wypracowania sygnałów sterujących oraz w obszarach przetwarzania informacji mogą pozostać bez zmian, analogicznie do schematów przedstawionych na Rys. 2 i Rys.3. Na Rys. 5 przedstawiono cztery najczęściej spotykane możliwości połączeń dotyczących powtórzenia i negacji. W ogólności istnieje znacznie więcej różnorodnych połączeń umożliwiających realizację powtórzenia i negacji, które są wynikiem różnych konstrukcji zaworów sterujących. Przedstawione przykłady są wystarczające do przekazania informacji o zasadach łączenia elektrohydraulicznych elementów wykonawczych. W ten sposób widać, że technicy zajmujący się projektowaniem i obsługą różnorodnych układów sterowania, posługują się informacjami dotyczącymi tzw. logiki działania i łączenia elementów, a nie sztywnymi układami konstrukcyjnymi, gdyż 133 jest ich zbyt wiele, aby wszystkie wyczerpująco opisać. Wynika to z dużej i trudnej do przewidzenia różnorodności produktów oferowanych przez dostawców sprzętu technicznego. W praktyce nie można dokładnie przewidzieć, z jakim sprzętem technik będzie miał do czynienia. Z tych względów ilustracje przedstawione na Rys. 5 można uznać za wystarczające do przekazania najważniejszych „ideowych” informacji. Na schematach zamieszczonych na Rys. 5 wykorzystano elektrozawór dwupołożeniowy najczęściej kojarzony z logiką binarną. Jednak jest to skojarzenie pozorne, gdyż w technice zaworów występuje znacznie więcej sposobów ich działania, choć w jednym zaworze dwupołożeniowym wykorzystuje się jedynie dwa. Dla zilustrowania tego zagadnienia na Rys. 6 pokazano możliwe do wykorzystania stany ustalone zaworów wielopołożeniowych. Na tej podstawie można ocenić tendencyjne usiłowania interpretacji działania zaworów jako przejawów logiki binarnej. W praktyce, ani liczba ustalonych położeń zaworów, ani liczba doraźnie wykorzystanych sposobów działania zaworów w poszczególnych położeniach nie może być interpretowana jako logika binarna. Dość często spotyka się również zawory wielopołożeniowe, które z tych samych powodów okazują się zbyt trudne do opisania w kategoriach logik wielowartościowych. Z technicznego punktu widzenia można nawet stwierdzić, iż ogólne prawidłowości logik wielowartościowych okazują się zbyt skomplikowane, ponieważ w technice wystarczy analizować ograniczoną liczbę przypadków szczególnych, choć mogą się one różnić w różnych urządzeniach. Wobec tego można uznać, że każdy przypadek realizacji układów sterowania może tworzyć swoją indywidualną logikę działania, która najczęściej okazuje się prostsza od odpowiednich logik o charakterze ogólnym. W podpunkcie a) na Rys. 5 przedstawiono połączenie najczęściej interpretowane jako powtórzenie. Porównując podpunkt b) z podpunktem a), można zauważyć możliwość wprowadzenia negacji poprzez wybór zaworu o odwrotnym działaniu do zaworu pokazanego na schemacie a). Takie zawory są dostępne, jakkolwiek nie u wszystkich wytwórców tego typu elementów. Na schematach c) i d) oprócz zmiany sposobu działania zaworów wprowadzono dodatkowo skrzyżowanie przewodów łączących zawory z cylindrem hydraulicznym dwustronnego działania. W dokumentacji technicznej nie zaleca się rysowania krzyżujących się przewodów łączących zawory z cylindrami hydraulicznymi dwustronnego działania. Z tego względu, krzyżujące się przewody są rzadko spotykane w dokumentacjach, ale ten sposób wprowadzania negacji jest w praktyce najczęściej stosowany. Wątpliwości teoretyczno-formalne są pokony- 134 wane poprzez wymaganie sprawdzenia sposobu pracy cylindra hydraulicznego. Oczekuje się przy tym wiadomości wykraczających poza informacje przekazywane w formie schematu układu. Zamiana przewodów w układach hydraulicznych jest kłopotliwa, ale zazwyczaj konieczna, gdyż często dochodzi do pomyłek, szczególnie gdy przewody są dłuższe i trudno je jednoznacznie zidentyfikować. Opisane prawidłowości odnoszą się do cylindrów i siłowników dwustronnego działania spotykanych w obszarach wykonawczych układów hydraulicznych, pneumatycznych, elektropneumatycznych, neumo-hydraulicznych i elektro-pneumo-hydraulicznych. Rys. 5. Wykorzystanie elementów elektro-hydraulicznych w obszarze wykonawczym do realizacji: a) powtórzenia, b) negacji, c) powtórzenia = podwójnej negacji, d) negacji (określenia według najczęściej spotykanej interpretacji) z wykorzystaniem siłownika dwustronnego działania (opis w tekście). 135 Rys. 6. Możliwe do wykorzystania stany ustalone zaworów wielopołożeniowych: a) zawory „dwudrogowe”, b) zawory „trójdrogowe”, c) zawory „czterodrogowe” (wyjaśnienia w tekście) Analogicznie do zasad uruchamiania cylindrów hydraulicznych dwustronnego działania przedstawionych na Rys. 5, na Rys 7 przedstawiono zasady uruchamiania pneumatycznych siłowników jednostronnego działania. Oba rysunki dotyczą połączeń najczęściej spotykanych w obszarach wykonawczych układów sterowania. Na Rys. 7 posłużono się przykładami dwóch najczęściej spotykanych wykonań siłowników jednostronnego działania z jednostronnym tłoczyskiem. Jedno wykonanie posiada sprężynę wymuszającą powrót siłownika w beztłoczyskowej komorze siłownika (podpunkty a i b), a drugie wykonanie posiada sprężynę wymuszającą powrót siłownika w tłoczyskowej komorze siłownika (podpunkty c i d). Do sterowania siłownikiem wybrano najczęściej stosowany zawór przeznaczony do sterowania pneumatycznymi siłownikami jednostronnego działania, jakkolwiek istnieją możliwości wykorzystania w tym samym celu wielu innych zaworów. Przedstawienie zasad łączenia tego typu układów nie wymaga tworzenia katalogu wszystkich możliwości. Podobnie jak w odniesieniu do układów hydraulicznych zakłada się, że nie ma możliwości przewidzenia wszystkich możliwych przypadków. Zrozumienie tych okoliczności prowadzi do akceptacji istnienia wielu równie dobrych rozwiązań, wraz ze świadomością zachowania powściągliwości w usiłowaniu opisania ich wszystkich. 136 Z tych powodów wiedza inżynierska, w zależności od wyznawanych paradygmatów9, może być uznawana za wiedzę ścisłą i naukową, albo nie. Pojawiają się przy tym wątpliwości, czy zarzut subiektywności kierowany jest do wiedzy, języka opisującego tę wiedzę, czy też subiektywna jest sama ocena sytuacji. Rys. 7. Wykorzystanie elementów elektro-pneumatycznych w obszarze wykonawczym do realizacji: a) powtórzenia = podwójnej negacji, b) negacji, c) powtórzenia, d) negacji (określenia według najczęściej spotykanej interpretacji) z wykorzystaniem siłownika jednostronnego działania (opis w tekście). W odniesieniu do realizacji jednoargumentowych funkcji logicznych przedstawionych na Rys. 5 i Rys. 7 wielokrotnie wspominano o interpretacji działania poszczególnych zaworów, połączeń, elementów i układów. Zagadnienie interpretacji ma zasadniczy wpływ na wzajemne dopasowywanie logik i sposobu działania urządzeń technicznych. W zasadzie można by uznać, iż teoretycznie opracowane logiki trochę na siłę są wtłaczane do opisów zagadnień technicznych. Urządzenia techniczne najzwyczajniej mają swoje specyficzne logiki działania, które nie zawsze dają się dopasować do ram opisów teoretycznych. Bardzo przejrzystą ilustracją tych zjawisk są schematy przedstawione na Rys. 8. Schematy 9 Por. T. S. Kuhn, Struktura rewolucji naukowych, s. 183, 192, 250 137 w podpunktach a) i b) na Rys. 8 różnią się jedynie oznaczeniami i . Oznaczenie zwyczajowo interpretowane jest jako powtórze- nie, a oznaczenie jako negacja. Wobec tego na Rys. 8 pokazano możliwość wprowadzenie negacji poprzez zmianę oznaczeń wyrażających interpretacje działania tego samego układu. To zjawisko pokazano tu na bardzo prostym przykładzie, ale można je spotkać również w układach bardziej skomplikowanych. W niektórych przypadkach zdarzają się interpretacje, które mogą być uznane za logiczne jedynie w bardzo specyficznej perspektywie. Takie szczególne przypadki nie będą w tym miejscu przedstawiane, gdyż pokazane przykłady uznano za najbardziej komunikatywne. Na Rys. 9 w podpunkcie a) przedstawiono przykład powtórzenia, a podpunkcie b) negacji jednoargumentowych funkcji logicznych wprowadzonych w obszarach wypracowania sygnałów sterujących układów pneumatycznych. W przypadkach jednoargumentowych funkcji powtórzenia i negacji zazwyczaj nie ma potrzeby realizacji ich w obszarze przetwarzania informacji. W tej opinii pomija się przypadki bardziej złożonych algorytmów sterowania, w których negacje mogą pojawić się niejako przy okazji realizacji innych funkcji logicznych. Z tych powodów nie przedstawiono możliwości realizacji powtórzenia i negacji w obszarach przetwarzania informacji uznając je za elementy składowe bardziej złożonych funkcji logicznych. Rys. 8. Przykład wpływu oznaczeń symbolicznych na interpretację działania tego samego układu elektro-pneumatycznego(opisy w tekście). 138 Rys. 9. Przykład możliwości wprowadzania negacji w obszarach wypracowania sygnałów sterujących układów pneumatycznych (opis w tekście) Porównując realizację powtórzenia i negacji przedstawionych na Rys. 2, Rys. 3, Rys. 4, Rys. 5, Rys. 7, Rys. 8 i Rys. 9, należy zwrócić uwagę, iż te same funkcje, z logicznego punktu widzenia, można zrealizować w wielu miejscach urządzenia i różnymi technologiami. Jednak pod względem praktycznym, uwzględniając właściwości wykorzystywanych elementów konstrukcyjnych, niektóre sposoby okazują się korzystniejsze od innych. Najczęściej odnosi się to do energochłonności, bezpieczeństwa, ciężaru, kosztów i wszelkich innych kryteriów stosowanych do oceny praktycznie wykorzystywanych urządzeń technicznych. W ten sposób ocena technicznej poprawności urządzeń staje się bardzo skomplikowana. Zazwyczaj prowadzi również do formułowania zastrzeżeń metodologicznych w odniesieniu do wyidealizowanych opisów teoretycznych. Zastrzeżenia te w większym stopniu odnoszą się do poszczególnych paradygmatów naukowych, niż do samej idei nauki. Jednak przyczyny wątpliwości odnoszących się do prób pogodzeniem teorii z praktyką zazwyczaj są trudne do identyfikacji, co dość często prowadzi do nieporozumień i konfliktów. W takich przypadkach częściej można zaobserwować naturalną reakcję obronną polegającą na odrzuceniu i krytyce, niż na dążeniu do identyfikacji przyczyny istnienia różnych opinii. Prawdopodobnie takie okoliczności wpływają na dość często występujące nieporozumienia techników z naukowcami. Należy przy tym pamiętać, iż naukowcy są „rozliczani” z teorii, a technicy ze wszystkiego – również z błędów teorii. W dalszej części w podobnym duchu zostaną przedstawione podstawowe sposoby realizacji dwuargumentowych funkcji zaliczonych do logiki Boole’a. Na ich przykładzie jeszcze raz zostanie zwrócona uwaga na różnice pomiędzy teoretycznymi a technicznymi ocenami poprawności działania układów technicznych. 139 5. Techniczna realizacja dwuwartościowej dwuargumentowej alternatywy Podobnie jak w przypadku prezentacji technicznych realizacji jednoargumentowych funkcji logicznych, w pierwszej kolejności zostaną przedstawione możliwości technicznej realizacji dwuargumentowych funkcji logicznych na przykładzie układów elektrycznych. Na Rys. 10 przedstawiono przykładowy schemat elektrycznego układu wypracowania sygnałów sterujących wykorzystywanych do realizacji dwuargumentowych funkcji logicznych. Dobrą praktyką inżynierską jest wykorzystywanie pokazanych na Rys. 10 połączeń elektrycznych do wypracowania sygnałów sterujących, niezależnie do realizowanej dwuargumentowej funkcji logicznej. Taka zasada postępowania ułatwia kontrole i ewentualne korekty funkcji logicznych realizowanych sprzętowo. Dodatkowo, budowa strukturalna układów sterowania ułatwia zastępowanie układów znajdujących się w obszarach przetwarzania informacji poprzez sterowniki programowalne. W obecnych czasach wykorzystanie sterowników programowalnych jest powszechne. Jednak zazwyczaj obszary wypracowania sygnałów sterujących oraz obszary wykonawcze mają postać bardziej tradycyjną. W przypadku wykorzystania sterowników programowalnych należy uwzględniać wpływy sposobów łączenia przewodów w obszarach wypracowania sygnałów sterujących i obszarach wykonawczych, gdyż mogą one tworzyć różnorodne funkcje logiczne. W sposób szczególny dotyczy to rozbudowanych układów umieszczanych w obszarach wykonawczych, w których duża liczba urządzeń powoduje dużą złożoność konstrukcyjną. Najczęściej dotyczy to urządzeń zawierających układy hydrauliczne i pneumatyczne. Uwzględnienie tych okoliczności jest istotne nawet podczas wykonywania dość rutynowych czynności serwisowych. Podobnie do Rys. 2, na Rys. 10 wykorzystano najczęściej stosowane oznaczenia. Napis „24 V DC” oznacza nominalne napięcie zasilania w woltach prądu stałego. Napisy „NO” odnoszą się do tzw. styków normalnie otwartych przełączanych ręcznie, których symbole graficzne są widoczne na schemacie elektrycznym. Na Rys. 10 cyframi 1 i 2 wyróżniono dwa różne styki NO. Napisy K1 i K2 odnoszą się odpowiednio do cewek elektromagnesów dwóch różnych przekaźników elektrotechnicznych. 140 Rys.10. Przykładowy schemat elektrycznego układu wypracowania sygnałów sterujących wykorzystywanych do realizacji dwuargumentowych funkcji logicznych (opis w tekście). Na Rys. 11 przedstawiono schemat elektryczny realizacji dwuargumentowej alternatywy w obszarze przetwarzania informacji. Analogicznie do wcześniejszych rysunków opisy K1 i K2 odnoszą się do normalnie otwartych styków roboczych przekaźników elektrotechnicznych, a oznaczenie E1 odnosi się do cewki elektromagnesu urządzenia wykonawczego. Urządzenie wykonawcze może być elektryczne, hydrauliczne, pneumatyczne lub mieszane. Rys. 11. Przykład elektrycznej realizacji dwuargumentowej alternatywy w obszarze przetwarzania informacji (opis w tekście). Alternatywa, tak jak każda inna funkcja logiczna, oprócz realizacji elektrycznej, może być wykonana z wykorzystaniem sterownika programowalnego albo z wykorzystaniem układów hydraulicznych lub pneumatycznych. Realizacja z wykorzystaniem sterownika programowalnego nie została tu opisana, gdyż podane przykłady uznano za bardziej komunikatywne i wystarczające do prezentacji opisywanej problematyki. Na Rys. 12 w sposób szczególny zwrócono uwagę na możliwości realizacji alternatywy poprzez wykorzystanie różnorodnych zaworów i ich połączeń w układach pneumatycznych. Oznaczenia I1 i I2 dotyczą odpowiednio pierwszej i drugiej informacji wchodzącej, a oznaczenie 141 Q dotyczy informacji wychodzącej. W układach hydraulicznych w analogiczny sposób można zrealizować przypadki b) i c). Odnosząc się do układów pneumatycznych przedstawionych na Rys. 12, można stwierdzić, iż wszystkie pozwalają na realizację funkcji logicznej zwanej alternatywą. Czyli pod względem opisu teoretycznego są one równoważne. Jednak z technicznego punktu widzenia tak nie jest. W konsekwencji tego nie zawsze można je ze sobą zamieniać. Z tych powodów, zakładając możliwość wyróżnienia specyficznej logiki technicznej układów pneumatycznych, każdy z układów pokazanych na Rys. 12 można nazwać innym funktorem logicznym. W ten sposób, w zależności od stopnia szczegółowości opisu tego samego zagadnienia, można twierdzić, że wszystkie te przykłady są równoważne albo nie. Dla techników przedstawione połączenia są zupełnie różne i przeciwne twierdzenia mogą u nich budzić zdziwienie. Podobnie teoretycy, mogą być zdziwieni przekonaniami techników. Te przykłady dobrze ilustrują przyczyny podjęcia próby refleksji nad różnym postrzeganiem tych samych zjawisk przez osoby z różnie uformowanym sposobem spostrzegania podobnych zagadnień. W tym miejscu należy jeszcze zwrócić uwagę, że przykłady z Rys. 12 nie wyczerpują wszystkich możliwych przypadków układów technicznych, które interpretuje się jako przypadki realizacji dwuargumentowej alternatywy. Dodatkowo, z punktu widzenia doświadczenia technicznego, nic nie upoważnia do stwierdzenia, iż liczba takich możliwości jest skończona. Podobne prawidłowości można zaobserwować również w odniesieniu do innych funkcji logicznych. Poniżej dla porównania w podobny sposób opisano techniczną realizację koniunkcji. Rys. 12. Przykład trzech możliwości (technicznie nierównoważnych) pneumatycznej realizacji dwuargumentowej alternatywy w obszarze przetwarzania informacji (opis w tekście). 142 6. Techniczna realizacja dwuwartościowej dwuargumentowej koniunkcji Opis technicznej realizacji dwuwartościowej dwuargumentowej koniunkcji jest analogiczny do wcześniej opisanej realizacji dwuwartościowej dwuargumentowej alternatywy. W tym opracowaniu opisy ograniczono do najprostszych funkcji dwuargumentowych, gdyż są one wystarczające dla prezentacji poruszanej problematyki, a realizacje bardziej złożonych funkcji logicznych jedynie ograniczają wyrazistość opisów. Dla potwierdzenia istnienia podobnych zjawisk do opisanych wcześniej, poniżej przedstawiono schematy reprezentujące podstawowe prawidłowości technicznej realizacji koniunkcji. Na Rys. 13 przedstawiono elektryczną realizację koniunkcji w umownym obszarze przetwarzania informacji. System oznaczeń graficznych i opisów alfanumerycznych jest taki sam jak w przypadku alternatywy. Z tych powodów, w tym miejscu nie powtarza się dokładniejszych wyjaśnień. Dla celów technicznych systemy oznaczeń graficznych i alfanumerycznych zostały znormalizowane. Jednak krajowa literatura polskojęzyczna nie nadąża za regulacjami międzynarodowymi. Z tego powodu, w tym opracowaniu nie podaje się oznaczeń norm angielskojęzycznych, lecz korzysta ze wzorców dostępnych w literaturze krajowej wzorowanej na opracowaniach angielskojęzycznych i niemieckojęzycznych. Istotne jest zwrócenie uwagi na międzynarodowy charakter wykorzystanych oznaczeń, dzięki czemu formalnie nie ma konieczności zamieszczania szczegółowych opisów tego typu schematów. Rys. 13. Przykład elektrycznej realizacji dwuargumentowej koniunkcji zrealizowanej w obszarze przetwarzania informacji (opis w tekście). Realizację trzech różnych wariantów funkcji logicznej zwanej koniunkcją przedstawiono na Rys. 14. Podobnie jak w przypadku wcześniej opisanej alternatywy nie można zakładać skończonej liczby sposobów 143 technicznej realizacji koniunkcji. To samo dotyczy interpretacji logicznej układów, które w zależności od wykorzystanych sformułowań, mniej lub bardziej poprawnie bywają nazywane określeniami analogicznymi do określeń wykorzystywanymi w opisach funkcji logicznych. Takich przypadków jest bardzo dużo, lecz ich opis nie wnosi istotnych argumentów do rozpatrzonych najbardziej oczywistych przykładów. Uznając przedstawione opisy za wystarczające do reprezentatywnego przedstawienia podstawowej problematyki technicznej realizacji funkcji logicznych poniżej przystępuje się do podsumowania wcześniej opisanych zagadnień. Rys. 14. Przykład trzech możliwości (technicznie nierównoważnych) pneumatycznej realizacji dwuargumentowej koniunkcji zrealizowanej w obszarze przetwarzania informacji. 7. Podsumowanie Na Rys. 15 przedstawiono symbole blokowe stosowane w opisach technicznych układów wykorzystujących działania, nazywane funkcjami logicznymi. Symbole te nie wyjaśniają sposobu ich technicznej realizacji. Z tego powodu, posługując się tego typu symbolami, nie zauważa się wcześniej opisanej problematyki. Problematyka ta staje się widoczna dopiero na poziomie rozpatrywania realizacji technicznych. Na poziomie technicznym pojawiają się problemy pojęciowe, które zazwyczaj nie są dokładnie analizowane jako nienaukowe. Taki stan rzeczy jest w pewien sposób wygodny dla techników, gdyż nie muszą zmagać się z licznymi uznanymi teoriami naukowymi. Podobnie jest w przypadku naukowców, którzy, zachowując wygodną nieświadomość wskazanych problemów, nie muszą zgłębiać istoty technologicznych podstaw techniki. W wyniku tego, przedstawiona tematyka nie była wcześniej analizowana, a może ona zmienić rozumienie wielu zagadnień podstawowych. Obserwacje 144 wykazują, iż właściwe rozumienie powyżej opisanych zagadnień może ułatwić praktyczną działalność techników, co najbardziej odczuwalne jest w procesie kształcenia nowych kadr technicznych10. Rys. 15. Przykłady symboli blokowych używanych do symbolicznego przedstawiania realizacji podstawowych funkcji logicznych a) negacji, b) alternatywy, c) koniunkcji. Wcześniej opisane przykłady wykorzystania podstawowych pojęć logicznych do opisów zagadnień technicznych zrodziły sceptycyzm, odnoszący się do zasadności uznania ich za precyzyjne i dobrze określone. Pod względem poznawczym, na gruncie determinizmu, prowokuje to do zadania pytania: Czy możliwe jest wskazanie przyczyn obserwowanego stanu? W odczuciu autora jesteśmy na początkowym etapie ujawniania faktycznych okoliczności tworzących poszukiwane przyczyny. Za zasadniczy element tych okoliczności można uznać zagadnienie relatywizmu znaczenia wszelkich zdań twierdzących. Jednym z przykładów zadań twierdzących są definicje. W odniesieniu do definicji i definiowania pojawiły się próby formalnego wyjaśnienia trudności związanych z ich formalizacją11. Wiele wskazuje na to, że na zasadzie analogii, podobne trudności dotyczą ocen treści wszelkich zdań twierdzących. Wobec tego, treść informacji zawartych w zdaniach twierdzących może być różnie 10 Por. T. S. Kuhn, Dwa bieguny, tradycja i nowatorstwo w badaniach naukowych, tłum. S. Amsterdamski, Państwowy Instytut Wydawniczy, Warszawa 1985, s. 428, 440. 11 Por. M. Zawisławska, Metafora w języku nauki na przykładzie nauk przyrodniczych, Uniwersytet Warszawski. Instytut Polonistyki. Warszawa 2011, s. 236; PKN Komisja Problemowa nr 256 Hasła terminologiczne w normach. PN-ISO 10241 Str. 10. Polski Komitet Normalizacji. Warszawa 1997; PKN Komitet Techniczny ISO/TC37/SC2 Hasła terminologiczne w normach. Część 1: Wymagania ogólne oraz przykłady prezentacji. PN-ISO 10241-1, s. 30-32. Polski Komitet Normalizacji. Warszawa 2014; PKN Komitet Techniczny nr 256 Działalność terminologiczna. Zasady i metody. PN-ISO 704. Polski Komitet Normalizacji. Warszawa 2012, s. 29 – 40. 145 odczytywana w zależności od kontekstu, modelu, paradygmatu12. Tym prawidłowościom podlegają również wszelkie zdania uznane za naukowe oraz wszelkie zdania, które określa się jako nienaukowe. W sposób szczególny wśród zdań nienaukowych można znaleźć całkiem duży zbiór zdań dotyczących praktycznych zagadnień technicznych. W opinii autora, przykładami takich zdań są zdania odnoszące się do możliwości realizacji tych samych funkcji logicznych, wykorzystując różne technologie, połączenia i kombinacje działań technicznych. Powyżej opisane przykłady różnych możliwości realizacji tych samych funkcji logicznych realizowanych przez układy elektryczne, układy pneumatyczne, układy hydrauliczne i mieszane, wskazują na niejednoznaczność i nieprzewidywalność postaci technicznej. Z tych powodów, realizacja techniczna może być uznana za twór subiektywny, który niekoniecznie będzie zrozumiały dla innych specjalistów, nawet z tej samej dziedziny techniki. W ten sposób narusza się podstawowe postulaty nauki wrażane jako oczekiwanie obiektywności i możliwości powtórzenia kreacji tego samego rozwiązania przez mniej „genialnych” członków społeczności naukowej lub technicznej. Efekty opisywanych zjawisk łatwo są obserwowalne w postaci praktycznych realizacji podstawowych funkcji logicznych logiki Boole’a, czyli negacji, alternatywy, koniunkcji – elektrycy realizują je elektrycznie, elektronicy elektronicznie, pneumatycy pneumatycznie, hydraulicy hydraulicznie, informatycy i programiści programowo, mechatronicy w sposób mieszany łącząc różne technologie, matematycy matematycznie, a filozofowie najczęściej językowo. W odniesieniu do wskazanych przyczyn trudności wynikających z istnienia różnych paradygmatów naukowych, różnych technologii oraz różnych technik realizacji funkcji logicznych, należy zwrócić szczególną uwagę na zagadnienia wartościowania i oceny dokonywanych przez obserwatora zewnętrznego. Prawdopodobnie ocena wszelkich opisów, działań i tworów technicznych również podlega podobnym relatywnym prawidłowościom jak opisane powyżej13. W wyniku tego, w zależności od celów, kryteriów i różnorodnych wyobrażeń wartościujących, ocena, co jest naukowe, a co nie, zależy od okoliczności, w jakich ta ocena jest dokonywana. Podobnie jak definicje i zdania twierdzące, tak i kryteria ich oceny mogą być różne. Jeśli za cel uznamy działanie wybranej funk- 12 Por. T. S. Kuhn, Struktura rewolucji naukowych, s. 228, 308- 324; M. Zawisławska, Metafora w języku nauki na przykładzie nauk przyrodniczych, s. 236 13 Porównaj ibidem, s. 346-347. Kuhn bronił się przed takimi stwierdzeniami traktowanymi jako zarzuty, ale nie jest jasne, czy ze względów instytucjonalnych, propagandowych czy z nieświadomości konwencji paradygmatu. 146 cji logicznej, bez wnikania w sposób jej realizacji, to kryterium rozstrzygalności stanie się jasne, powtarzalne i sprawdzalne. Tym samym można takie działania i takie oceny uznać za naukowe. Jednak gdy technik zainteresuje się faktyczną budową urządzenia, to często okazuje się, że sposobów realizacji jest wiele, a niektóre z nich chronione są tajemnicami handlowymi lub technologicznymi (czyli można je uznać za subiektywne oraz trudne do niezależnego odtworzenia). W ten sposób, w zależności od kryteriów stosowanych przez obserwatora, to, co dla laika było naukowe, dla specjalisty może stać się tajemnicze, magiczne i niedostępne. Na tej podstawie można sformułować zastrzeżenia dotyczące użyteczności monokultury wyobrażeń naukowych ukierunkowanych na monopolizację prawa do oceniania jasności i jednoznaczności opisów zjawisk. Naukowiec usiłuje sprawować rolę sędziego, a technicy, najczęściej w poczuciu pokory względem naturalnego przebiegu zjawisk (z uwzględnieniem świadomości braku potrzebnej wiedzy), nie mają odwagi głośno wyrażać swych zastrzeżeń. Tym bardziej, że dostępny dorobek naukowy nadal nie pozwala rozwiązywać wielu wyzwań, przed którymi stają technicy. Świadomość takiego stanu rzeczy staje się coraz bardziej istotna w konfrontacji z dążeniami do rozwiązywania nowych problemów naszej technicznej rzeczywistości. Jako przykład można wskazać znaczenie „niepewności we własne sądy” w odniesieniu do algorytmizacji inteligencji robotów14. Być może sama historia wojen również może być traktowana jako skarbnica skutków wywoływanych przez „absolutną pewność” własnych przekonań, w tym również naukowych. 8. Wnioski W odniesieniu do opisanych przykładów mających zilustrować istotne elementy problemów technicznej realizacji logik można sformułować następujące wnioski: 1. Rozumienie pojęcia logika jako stały sposób działania jest użyteczne w działalności technicznej. 2. Urządzenia techniczne posiadają własne logiki działania, które nie zawsze dają się dopasować do ram opisów teoretycznych tworzonych dla innych dziedzin nauki. 3. Opis urządzenia technicznego, w zależności od stopnia szczegółowości, może być interpretowany jako logika o różnych cechach. S. Russell, Czy powinniśmy obawiać się robotów? „Świat Nauki” 7/2016, s. 53. 14 Marek Rabiński Narodowe Centrum Badań Jądrowych CZARNOBYL – FAKTY I MITY Niniejszy tekst przedstawia przegląd zagadnień związanych z awarią bloku nr 4 Elektrowni Jądrowej w Czarnobylu, jej przyczynami i przebiegiem, ewakuacją ludności, akcją likwidacji skutków awarii oraz budową Sarkofagu nad zniszczonym reaktorem, obecny status Czarnobylskiej Strefy Wykluczenia oraz plany jej zagospodarowania w najbliższej przyszłości, a także uwagi na temat społecznego odbioru awarii. Przedstawiony materiał jest wynikiem trwającego od trzydziestu lat zainteresowania autora opisywanymi wydarzeniami, wielokrotnych wyjazdów do Strefy, krytycznej kwerendy źródeł bibliograficznych (w tym odtajnionych materiałów poufnych) oraz rozmów z naocznymi świadkami zdarzeń. Ze względu na ograniczoną objętość publikacji, wielu aspektów (w tym szczególnie odbiegających od powszechnie utrwalonych w publikatorach) nie sposób krytycznie przeanalizować i wnikliwie uzasadnić – nastąpi to w przygotowywanej publikacji książkowej. Geneza reaktorów RBMK Awaria w Czarnobylu bardzo silnie związana jest ze specyficznymi rozwiązaniami konstrukcyjnymi moderowanych grafitem a chłodzonych wodą reaktorów RBMK, a te z kolei z wytwarzaniem określonych izotopów plutonu do zastosowań wojskowych. Pluton jest srebrzysto–szarym metalem o ciężarze właściwym dwukrotnie większym od ołowiu. Jest transuranowcem o liczbie atomowej 94 (liczbie protonów w jądrze); posiada 20 izotopów o liczbach masowych od 228 do 247 (ze względu na różną liczbę neutronów w jądrze) i o czasach półrozpadu od jednej sekundy (w przypadku Pu–228) do 80 milionów lat (dla najbardziej stabilnego Pu–244). Jądrowe własności rozszczepialnego plutonu–239 oraz potencjalna możliwość wytwarzania go w dużych ilościach, tłumaczą jego kluczową rolę w procesie tworzenia arsenału jądrowego. Obecność innych izotopów powoduje szereg znaczących niedogodności podczas produkcji i utrzymania w gotowości głowic jądrowych. Wojskową przydatność najistotniej ogranicza obecność izotopu Pu–240, który podczas spontanicznie zachodzących rozpadów emituje neutrony powodujące przedwczesny wybuch ładunku w 148 najmniej korzystnym momencie, wykluczając możliwość uzyskania większych mocy eksplozji. Dlatego mieszanina izotopów plutonu może być uznana za materiał na głowice jądrowe, jeśli udział niepożądanego Pu–240 nie przekracza 7%. Pluton do zastosowań cywilnych, wyekstrahowany z wypalonego paliwa reaktorów energetycznych, ze względu na swój skład izotopowy, nie nadaje się do produkcji głowic, a jedynie na paliwo do reaktorów. Pluton do zastosowań militarnych jest wytwarzany w reaktorach moderowanych grafitem – podczas naświetlania uranu U–238 strumieniem neutronów, w naturalnym lub lekko wzbogaconym uranie przez okres nie dłuższy niż 2–3 miesiące. Dłuższe przebywanie w reaktorze powoduje niekorzystne przemiany izotopowe, dyskwalifikujące użycie uzyskanej mieszaniny izotopów do produkcji głowic jądrowych. Pierwszy moderowany grafitem a chłodzony gazem duży reaktor wojskowy na naturalnym uranie został zbudowany w USA w 1942 roku, a na jego wzorze Związek Radziecki oparł swoje własne konstrukcje. Reaktory są projektowane do wypełnienia określonych zadań, dlatego zoptymalizowane do produkcji plutonu reaktory wojskowe nie są zbyt efektywne w roli reaktorów energetycznych. Tym niemniej w ZSRR w latach 50–tych podczas zimnej wojny opracowano koncepcję reaktorów RBMK opartych na rozwiązaniach reaktorów o zastosowaniu militarnym. Radziecki RBMK (po rosyjsku: reaktor kanałowy dużej mocy) był unikalnym projektem, przypominającym reaktor z wodą wrzącą (BWR – boiling water reactor) z osobnymi kanałami paliwowymi. Połączenie grafitowego moderatora neutronów i zwykłej wody chłodzącej (z której powstaje para na turbiny) nie jest spotykane w cywilnych blokach energetycznych. Wyraźnie różni się od większości projektów, ponieważ zasadniczo wywodzi się z rozwiązań reaktora do produkcji plutonu Pu– 239. Wymianę elementów paliwowych bez wygaszania reaktora umożliwia konstrukcja kanałowa oraz wykorzystanie maszyny przeładowującej paliwo podczas eksploatacji bloku. Reaktor posiadał szereg niekorzystnych cech, wśród których podkreślić trzeba dodatnie sprzężenie destabilizujące pracę w określonych zakresach parametrów eksploatacji. W zachodnich reaktorach typu BWR ubytek wody spowalniającej neutrony powoduje spadek mocy, co automatycznie stabilizuje pracę reaktora, natomiast w RBMK zamiana wody w parę wodną drastycznie eliminuje pochłanianie neutronów – ponieważ para ma gęstość właściwą 1350 razy mniejszą od gęstości wody, z której powstała. Ta sekwencja zjawisk tworzy pętlę dodatniego sprzężenia zwrotnego, co prowadzi do zwiększenia mocy reaktora. Podczas utraty chłodziwa w tych reaktorach 149 zachodzi efektywniej reakcja łańcuchowa i powstaje więcej kieszeni parowych – stąd reaktor staje się niestabilny, bo wzrost mocy powoduje jej dalszy lawinowy przyrost. Pierwsze reaktory typu RBMK zbudowano w latach 70–tych w Sosnowym Borze koło Leningradu, po czym nastąpiło powielanie kolejnych wersji projektu w różnych lokalizacjach ZSRR. Elektrownia Jądrowa w Czarnobylu (oryginalna nazwa – Czarnobylska Elektrownia Atomowa im. W.I. Lenina) została zbudowana na ubogich nieużytkach Polesia, 18 km na północny zachód od miasteczka Czarnobyl na Ukrainie, 16 km od granicy z Białorusią. W jej skład wchodziły cztery bloki z reaktorami RBMK–1000, dwa pierwsze zostały włączone do eksploatacji odpowiednio w latach 1977 i 1978, reaktory drugiego etapu w 1981 r. (blok nr 3) i 1983 (blok nr 4), a dwa następne (bloki nr 5 i 6) znajdowały się na etapie budowy. Razem z decyzją o budowie elektrowni, rozpoczęto w odległości 4 km budowę miasteczka Prypeć dla zatrudnionych pracowników i ich rodzin. Zaprojektowane na planie trójkąta miasto było uznawane za wizytówkę radzieckiej urbanistyki. Poza wewnętrznymi cechami projektowymi reaktorów RBMK, nie należy zapominać, że Elektrownia Jądrowa w Czarnobylu była wprowadzona do eksploatacji w trybie czynów przyspieszających „zwycięstwo klasy robotniczej nad imperializmem Zachodu”. Bloki reaktorów nr 3 i 4 posiadały szereg niedoróbek, np. niestarannie wykonaną izolację termiczną walczaków separatorów pary, co powodowało przekroczenie dopuszczalnych temperatur eksploatacji betonowych elementów ścian, ich pękanie oraz wytapianie bitumicznej masy uszczelnień; niestaranne wyważone turbiny powodowały drgania i przyspieszone niszczenie łożysk tocznych. Absolutnie karygodnym było wykonanie izolacji termicznej dachu hali turbin z materiałów łatwopalnych. Dodatkowo autorytarny system radzieckiej biurokracji (tak zwana nomenklatura) stawiał wierność partii ponad umiejętności zawodowe, promując kariery osób niekompetentnych, a stawianie „dogmatów ekonomii socjalistycznej” ponad zdrowy rozsądek i bezpieczeństwo jądrowe było przyczyną działań niedopuszczalnych w jakimkolwiek sektorze atomistyki na świecie. Awaria Po wyłączeniu reaktora jądrowego, zawarte w wypalonym paliwie produkty rozszczepienia przez pewien czas wydzielają ciepło powyłączeniowe. Dlatego niezbędna jest energia (ok. 1–2% nominalnej) do napędu pomp chłodziwa w reaktorze. Powszechnym wymogiem eksploatacji elektrowni jądrowych jest zapewnienie sytuacji, by w razie nagłego 150 wyłączenia, moment obrotowy turbin zapewnił zasilanie układu chłodzenia aż do włączenia awaryjnych generatorów Diesla. Testowanie tej procedury dla bloku 4 zaplanowano na piątek 25 kwietnia 1986 r. O godz. 01:00 rozpoczęto zmniejszanie mocy reaktora, o 13:00 odłączono jedną z turbin. Jednak ze względu na duże zapotrzebowanie energii elektrycznej próbę odłożono do godz. 23:00. Wyższe zapotrzebowanie na energię było spowodowane nadrabianiem przez zakłady przemysłowe miesięcznych planów produkcyjnych pod koniec miesiąca oraz próbami ich przekroczenia dla uczczenia zbliżającego się święta 1 maja. 26 kwietnia 1986 r. o godz. 01:23 podczas dalszego obniżania mocy wystąpił efekt jej niekontrolowanego wzrostu. Dodatkowo, specyficzne cechy systemu prętów kontrolnych powodowały, że przez kilka sekund po ich zrzucie następował wzrost mocy zamiast zmniejszenia. Ten niezgodny z intuicją efekt nie był znany operatorom. Wzrost mocy cieplnej spowodował 40 sekund po zrzucie prętów kontrolnych (i tym samym fizycznym wygaszeniu reaktora) wybuch parowy, jak w kotle centralnego ogrzewania. Słyszany jako głuchy grzmot, przez wielu pracowników został całkowicie zignorowany, jako nieistotny efekt wyłączania bloku energetycznego. Na hali turbin olej tryskający z przerwanego (w wyniku wstrząsu wybuchu parowego) przewodu hydraulicznego spowodował spięcie na tablicy rozdzielczej i wyłączenie zasilania elektrycznego na czwartym bloku, a następnie pożar turbiny nr 7, od którego po kilku godzinach zaczął się przepalać dach hali turbin. 30 ognisk pożaru zostało zlokalizowanych do godziny 6:30, dlatego przed rozpoczęciem pierwszej zmiany sytuację uznano za względnie opanowaną. Jednak równolegle do pożaru części niejądrowej w reaktorze pozbawionym chłodzenia następowało rozszczelnianie kolejnych elementów paliwowych i uwalnianie nagromadzonych w nich produktów rozszczepienia. Para o temperaturze ponad 1 100 °C weszła w reakcję z cyrkonem koszulek paliwowych i grafitem moderatora, powodując powstawanie wodoru i tlenku węgla. Obok ciepła powyłączeniowego, procesy zgazowywania grafitu, spalania wodoru i produktów rozszczepienia wydobywających się z rozszczelnianych elementów paliwowych, było źródłem energii cieplnej podtrzymującej pożar. Procesy te szczególnie intensywnie nasiliły się dobę po rozpoczęciu awarii, a lotne substancje wydobywające się przez zawory bezpieczeństwa na górnej płycie reaktora płonąc we wnętrzu hali reaktora doprowadziły po północy 28 kwietnia, (dwie doby od rozpoczęcia awarii), do przepalenia dachu nad górną płytą reaktora. 151 Chronologię najistotniejszych wydarzeń kolejnych dni można przedstawić następująco. 26 kwietnia (sobota) 1986 roku: – godz. 01:23 – wyłączenie reaktora, wybuch parowy, pożar na hali turbin; – godz. 6:30 – zagaszenie lokalnych ognisk pożaru; – około 4:00 nad ranem wiadomość o pożarze dociera do władz w Moskwie; w południe zostaje powołana komisja pod przewodnictwem Walerego Legasowa – zastępcy dyrektora Instytutu Kurczatowa; – około godz. 19:00 – stwierdzenie ewidentnych przypadków napromieniowania personelu (co oznaczało rozszczelnienie konstrukcji reaktora); – w nocy – komisja rządowa zarządza czasową ewakuację miasteczka Prypeć i wyłączenie pozostałych reaktorów. 27 kwietnia (niedziela) 1986 roku: – godz. 5:00 – godzinny przelot śmigłowcem członków komisji nad elektrownią; – godz. 12:00 – ogłoszenie komunikatu o ewakuacji Prypeci; – godz. 14:00–17:00 – ewakuacja mieszkańców; – około godz. 19:00 następuje intensyfikacja pożarów w kanałach reaktora – jest to moment, w którym awaria osiąga wymiar katastrofy, Walery Legasow telefonicznie zawiadamia Michaiła Gorbaczowa o konieczności nadzwyczajnej mobilizacji środków całego ZSRR oraz użycia wojska; rozpoczęcie właściwej akcji opanowywania awarii. 28 kwietnia (poniedziałek) 1986 roku: – rano – wzrost promieniowania zostaje zarejestrowany przez stacje monitorujące poziom naturalnego tła w Szwecji i w Polsce, tym samym informacja o nietypowej sytuacji zostaje odnotowana w krajach poza ZSRR; – późne popołudnie – o awarii informują zachodnie media; – godz. 20:00 – lokalne radio moskiewskie napomyka o awarii. 29 kwietnia (wtorek) 1986 roku: – godz. 3:00–6:00 – w Warszawie posiedzenie komisji partyjno–rządowej; – po południu – w Polsce rozpoczyna się akcja podawania płynu Lugola, w Moskwie powołanie rządowej grupy operacyjnej; – godz. 20:00 – radziecka telewizja wspomina o awarii w szóstej wiadomości dziennika. 28 kwietnia – 5 maja 1986 roku: opanowywanie awarii z użyciem sił i środków udostępnianych w trybie nadzwyczajnym na szczeblu rządowym, zrzucenie ze śmigłowców wojskowych około 5 000 ton materiałów: 152 – węglika boru B4C ~ 40 ton, – dolomitu (CaCO3•MgCO3) ~ 800 ton, – gliny, piasku ~ 1 800 ton, – ołowiu Pb ~ 2 400 ton. 6 maja (poniedziałek) 1986 roku – samoistne wygaśnięcie pożaru. Najistotniejszymi przyczynami awarii były dwa słabe punkty projektu reaktora – dodatni efekt reaktywnościowy oraz nieprawidłowa konstrukcja układu prętów bezpieczeństwa. Nie ulega wątpliwości, że operatorzy naruszyli procedury eksploatacji, ale byli też nieświadomi wymogów bezpieczeństwa niezwykle specyficznego i potencjalnie niestabilnego projektu reaktora RBMK. Po samoistnym wygaśnięciu trwającego 10 dni pożaru oraz wyraźnym zmniejszeniu emisji skażeń promieniotwórczych do atmosfery diametralnie uległ zmianie charakter informacji podawanych przez oficjalne media radzieckie. Istotne znaczenie miało wystąpienie telewizyjne Michaiła Gorbaczowa 14 maja 1986 roku, w którym przedstawił awarię jako nieszczęście dotykające Związek Radziecki. Generalny sekretarz partii zaapelował do społeczeństwa o wyrozumiałość i konieczność wyrzeczeń dla stawienia czoła zaistniałej sytuacji. Wystąpienie zawierało elementy niespotykane w dotychczasowych komunikatach partii i stało się zaczątkiem nowego stylu kontaktów władzy ze społeczeństwem. Równolegle do zmian w sposobie informowania o awarii, rozpoczęła się akcja ewakuacji ludności ze strefy o promieniu 30–kilometrów wokół elektrowni i przygotowania do likwidacji skutków awarii. Do 18 czerwca 1986 roku kontynuowano akcję zrzutów ze śmigłowców, zrzucając dodatkowe 11 000 ton materiałów: – dolomitu (CaCO3•MgCO3) ~ 400 ton, – żwiru ~ 1 700 ton, – ołowiu Pb ~ 4 300 ton, oraz rozpylając wokół reaktora nawozy sztuczne dla zintensyfikowania wzrostu roślin i substancje stabilizujące pylenie: – apatytu Na3PO4 ~ 2 500 ton, – młóta gorzelnianego, szkła wodnego, mleczka kauczukowego ~ 2 700 ton. Jedyną ofiarą pierwszego dnia awarii był operator pomp obiegowych, drugiego dnia od rozległych oparzeń zmarł operator z hali reaktora. W ciągu trzech miesięcy zmarły kolejne 33 osoby (strażacy i pracownicy elektrowni), od rozległych oparzeń i choroby popromiennej. Łącznie – 35 ofiar, w tym 4 bez związku z promieniowaniem (od obrażeń mechanicznych i na zawał serca). 153 Likwidacja skutków awarii i budowa Sarkofagu Decyzję o zabezpieczeniu pozostałości reaktora nr 4 podjęto miesiąc po awarii (koniec maja 1986 r.). Spośród kilku wariantów, między innymi ziemnego kopca przykrywającego zniszczony blok, zdecydowano się na wzniesienie konstrukcji powszechnie na świecie nazywanej Sarkofagiem (w krajach byłego ZSRR używa się nazwy – obiekt Ukrycie). Budowę ukończono pod koniec listopada 1986 roku, a formalny odbiór techniczny nastąpił 13 grudnia 1986 roku. Podczas budowy Sarkofagu zginęło 11 osób: jeden robotnik na skutek przygniecenia belką konstrukcyjną, 4 osoby podczas zderzenia dwóch samochodów, 4 członków załogi w wypadku śmigłowca po zaczepieniu łopatek wirnika o liny dźwigu (pilot został oślepiony promieniami Słońca), jedna osoba na skutek zawału serca po wezwaniu do komitetu partii, jeden z dyrektorów popełnił samobójstwo po śmierci żony. Równolegle do wznoszenia konstrukcji zabezpieczającej sam reaktor, prowadzono prace nad likwidacją skutków awarii w 30–kilometrowej strefie otaczającej elektrownię. Obejmowały one między innymi usunięcie przy pomocy zdalnie sterowanych wojskowych maszyn inżynieryjnych warstwy ziemi o grubości 1 metra z bezpośredniego otoczenia reaktora, usunięcie warstwy 5–10 centymetrów darni z terenu miasteczka Prypeć, usunięcie i zakopanie w transzejach sprzętów pozostawionych przez mieszkańców, dezaktywację budynków strumieniem wody z pomp strażackich, w pojedynczych przypadkach (miejscowość Kopacze) – niwelację spychaczami chałup i przykrycie resztek warstwą ziemi. Teren lasu, na który w ostatnich dniach pożaru opadły skażenia z reaktora (tzw. zrudziały las), został wykarczowany, drewno spalone, a popiół zakopany w transzejach. Prowadzono też dezaktywację urządzeń (w tym wyposażenia elektrowni i gigantycznych anten wojskowego radaru pozahoryzontalnego Duga–3), między innymi przy pomocy gęstej piany z roztworu proszku SF–2U – wytwarzanej z zestawów znajdujących się na wyposażeniu wojska. Podejmowano też prace mające na celu ukończenie budowy reaktora nr 5, który miał przejąć zadania zniszczonego bloku nr 4. W wielu źródłach podawane są absurdalne, sięgające milionów, oszacowania liczby osób (tzw. likwidatorów) uczestniczących w akcji usuwania skutków awarii. Wiarygodna liczebność i struktura tej grupy 154 przedstawia się następująco1: Wojskowi: – zawodowi wojskowi i służby zabezpieczenia – 20 508 – rezerwiści – 90 000 Oddziały paramilitarne: – MSW ZSRR – 32 111 – MSW Federacji Rosyjskiej – 3 326 – kontrwywiad – 1 093 – KGB – ministerstwo kolei Federacji Rosyjskiej – 1 242 Pracownicy cywilni: – naukowcy – 19 236 – pracownicy atomistyki i elektrowni jądrowych – personel medyczny i służby sanitarne – pracownicy budowlani – inni (kierowcy, kucharze, służby techniczne) Łącznie 300 000 ± 20 000 (w tym kobiety – poniżej 1%). Największe przedziały niepewności dotyczą grupy pracowników cywilnych, z powodu najsłabiej udokumentowanego trybu ich oddelegowania i braku jednolitej bazy danych. Ostatnio zweryfikowane spisy uczestników potwierdzają liczbę 300 000 likwidatorów, zawężając też znacząco zakres ewentualnej niepewności powyższych danych. Czarnobylska Strefa Wysiedlenia W niedzielę 27 kwietnia 1986 roku (dzień po awarii) z Prypeci ewakuowano 44 000 mieszkańców, następnego dnia pozostałe 5 000 pracowników elektrowni, szpitali i służb miejskich pozostawionych dla opanowania sytuacji. Od maja do września 1986 roku ze strefy o promieniu 30 km wokół elektrowni ewakuowano 116 300 osób. Wywieziono też 86 000 sztuk bydła i trzody chlewnej. Dawnym mieszkańcom odradzano powrót, ale udzielano zezwoleń, jeśli tego chcieli. Od końca 1988 roku powróciło, głównie do strefy białoruskiej, około 1 600 osób – powszechnie nazywanych samosiołami (samosiejkami). Aktualnie w części ukraińskiej mieszka około 460 osób w wieku od 40 do 94 lat (średnia – 72 lata), kobiety stanowią 63% populacji – co jest typową proporcją w tej grupie wiekowej. Około 40% przebywa 1 O.V. Belyakov, Notes about the Chernobyl liquidators, .www.progettohumus.it/NonDimentica/Liquidatori/Pdf/13%20.pdf [dostęp 10.07.2017] L. Ilyin, Chernobyl: myth and reality, Megalopolis, Moscow, 1995. 155 tam legalnie – nigdy nie utraciło meldunku, bo nie odebrało od państwa zamiennych gospodarstw poza Strefą Wysiedlenia, a jedynie rekompensaty za straty spowodowane awarią. Pozostałe 60% samosiołów otrzymane za granicami Strefy gospodarstwa przepisało na dzieci lub wnuki, po czym powróciło i zawłaszczyło opuszczone domy – stąd w Strefie żyją niezgodnie z prawem. Poza dawnymi mieszkańcami na terenie Strefy przebywają pracownicy Czarnobylskiej Elektrowni Jądrowej – do zakończenia w 2001 roku eksploatacji bloku nr 3 pracowało na trzy zmiany 6 000 osób, obecnie pracuje około 3 400. W strefie ukraińskiej od 5 000 do 10 000 pracowników sezonowych jest zatrudnionych przy utrzymaniu infrastruktury technicznej i w gospodarce leśnej. Aby uniknąć codziennego dowożenia ich z odległości rzędu 50–100 km pracują w trybie wachtowym przez okres 4 lub 14 dni, zakwaterowani w hotelach robotniczych w miasteczku Czarnobyl. Około ¾ pracuje w trybie zmianowym 4–3 (4 dni pracy i 3 dni wolnego), pozostała ¼ w trybie dwutygodniowych zmian. Wszyscy podlegają medycznej obserwacji typowej dla osób zatrudnionych w warunkach ewentualnego zagrożenia promieniowaniem jonizującym. Przy tworzeniu w 1986 roku Strefy Wysiedlenia wokół Czarnobylskiej Elektrowni Jądrowej kierowano się kryterium poziomu promieniowania 0,35 μSv/h (jest to poziom naturalnego tła w Sudetach). Obecnie poziom promieniowania najbardziej skażonych terenów wynosi: – „zrudziały las” (0,5 km2) – 12 μSv/h – przy ścianie Sarkofagu – 5–8 μSv/h Jest to poziom naturalnego tła promieniowania gęsto zamieszkanego regionu Kerala w Indiach, poziom 10 razy niższy niż w uzdrowisku Ramsar w Iranie na brzegu Morza Kaspijskiego i na obleganej plaży Guarapari w Brazylii. Na pozostałym obszarze Strefy 0,02–0,25 μSv/h, mniej niż w Polsce (0,15–0,30 μSv/h), a setki tysięcy razy mniej niż poziom wywołujący efekty zdrowotne. Na terenach wysiedleń ustanowiono dwa duże rezerwaty przyrody: Poleski (obejmujący praktycznie cały obszar Strefy na Białorusi) oraz Czarnobylski w delcie rzeki Prypeć (na Ukrainie). Poza terenami rezerwatów cały obszar wysiedlenia stał się oazą dzikiej przyrody. W Strefie żyje ogromna ilość łosi, 4 000 dzików, 200–300 saren, 200 wilków, 300 borsuków, bobry, rysie, sprowadzone ze stepów konie Przewalskiego, żubry z Puszczy Białowieskiej oraz 5 niedźwiedzi brunatnych. W zbiornikach wodnych odnaleziono gatunki ryb, które w innych rejonach wytrzebili kłusownicy. W mieście Prypeć ptaki wiją gniazda na wieszakach w szatniach i na żyrandolach, unikając w ten sposób drapieżników. 156 Wewnątrz ukraińskiej części Strefy znajduje się 10–kilometrowa Strefa Bezwzględnego Wysiedlenia – obejmująca teren elektrowni jądrowej, tajne instalacje wojskowe (takie jak anteny odbiorcze największego na świecie pozahoryzontalnego radaru Duga–3 do śledzenia startów rakiet balistycznych w USA) oraz zamknięte osiedla personelu. Obecnie obejmuje też przechowalniki odpadów i składy sprzętu technicznego używanego przez likwidatorów. Obszar strefy ukraińskiej jest sukcesywnie zmniejszany, rozpatrywane są też koncepcje zagospodarowania terenów oraz wykorzystania na potrzeby budowy przechowalnika odpadów promieniotwórczych z energetyki jądrowej Ukrainy, a takżę z przemysłu i medycyny. Społeczne następstwa awarii w Czarnobylu W pierwszym okresie po awarii powszechnym był strach przed kontaktami z przesiedlonymi, lęk przed „zarażeniem się promieniowaniem”. Stąd brała się tendencja tej grupy do zamykania we własnym środowisku, to z kolei stało się pożywką dla rozpowszechnianych opinii, jakoby wszyscy ewakuowani i uczestniczący w likwidacji skutków awarii mieli „umrzeć od promieniowania”. Dopiero po dwudziestej rocznicy awarii można dostrzec przezwyciężenie stygmatyzacji społecznej tej grupy osób i ich aktywność w obronie swoich praw, zagrożonych przez cięcia budżetowe. Najdotkliwszymi konsekwencjami awarii w Czarnobylu są efekty psychologiczne, niezwiązane z poziomem przyjętej przez ludność dawki promieniowania. Przejawiają się one stanami lękowymi i niepokojem o przyszłość, stresem psychicznym oraz uzależnieniami od alkoholu i nikotynizmem. Czynniki te wywierają najsilniejszy wpływ na poziom zdrowia ludności dotkniętej awarią. Psychologiczne następstwa awarii są identyczne z obserwowanymi u ofiar katastrof naturalnych (powodzi, tsunami, huraganu, trzęsień ziemi, lawin błotnych, pożarów lasu) – a także katastrof kolejowych i ataków terrorystycznych, wreszcie u osób dotkniętych konsekwencjami głębokich kryzysów gospodarczych. Ciężkie przypadki indywidualne przypominają syndrom stresu bojowego pola walki u weteranów działań wojennych. Ilościowe oszacowania społecznych skutków awarii w Czarnobylu uniemożliwia ich nałożenie się na proces rozpadu Związku Radzieckiego, zapoczątkowany w grudniu 1991 roku. Według niektórych oszacowań obniżenie poziomu życia spowodowane dekompozycją systemu ZSRR jest odpowiedzialne za przedwczesną śmierć 4 milionów osób. Na tym tle, efektów awarii w Czarnobylu nie daje się wiarygodnie wyodrębnić. Powszechne jest też, szczególnie u osób o niskim wykształceniu i w 157 bezpośrednim sąsiedztwie granic Strefy, dopatrywanie się w awarii przyczyny wszelkich negatywnie ocenianych wydarzeń – od tak błahych jak zsiadanie się mleka i zjawiska pogodowe, nie mówiąc o przypadkach poślizgnięcia czy złamania kończyny, na polityce kończąc. Strefa Wysiedlenia jest praktycznie jedynym znaczącym pracodawcą w regionie, a osiągane przez zatrudnionych dochody są podstawą istnienia kolejnych przedsięwzięć gospodarczych. Już w trakcie prac związanych z likwidacją skutków awarii pojawiło się wobec Sarkofagu określenie – „żywiciel”. W ten sposób dosadnie komentowano ukształtowanie się grupy osób, dla których awaria i jej następstwa stały się źródłem utrzymania, dodatkowych dochodów lub kariery społeczno–politycznej. Poza osobami z kierownictwa akcji likwidacji skutków awarii, szabrownictwo materiałów budowlanych, ceramiki sanitarnej i złomu stało się źródłem utrzymania dla okolicznej ludności. Aktualnie jednym z najbardziej dochodowych działalności jest wywóz złomu metali. Ujawniane afery w tej branży dowodzą istnienia zorganizowanych grup interesów, obejmujących polityków, wysoko postawionych urzędników i fundusze cerkiewne, przy pośrednictwie których pieniądze z kontraktów trafiają do prywatnych rąk. Odrębnym zagadnieniem jest ogromna ilość fundacji deklarujących aktywność na rzecz poszkodowanych w trakcie awarii. Znane są przypadki wykorzystywania ich do sprowadzania z zagranicy luksusowych samochodów, z pominięciem obowiązującego cła. Nowy Sarkofag – Arkada W 1992 roku rząd Ukrainy ogłosił międzynarodowy konkurs na propozycje zastąpienia dotychczasowego Sarkofagu reaktora nr 4. Wśród 294 zgłoszeń znalazła się oryginalna brytyjska koncepcja hali zmontowanej w pewnej odległości (dla zminimalizowania dawek otrzymanych przez pracowników), a następnie nasuniętej na dotychczasową konstrukcję. Pierwsza faza konkursu nie wyłoniła zwycięzcy, ale koncepcja znalazła się wśród trzech wyróżnionych. W drugiej fazie, firmowanej przez paneuropejskie instytucje, zaproponowano wąskiemu gronu wyróżnionych opracowanie szczegółowych projektów, dodając wymóg uwzględnienia zrobotyzowanych suwnic do rozbiórki starego Sarkofagu. W 2007 roku przyjęto oparty na koncepcji nasuwanej hali projekt francuskiego konsorcjum Novarka, którego równoprawnymi udziałowcami są firmy Vinci Construction Grands Projets oraz Bouygues Travaux Publics. Projekt „New Safe Confinement – Arch” (arkada – sklepienie łukowe) opiewał na 432 mln euro i przewidywał zatrudnienie w szczytowym momencie 900 pracowników. Projekt obejmował zbudowanie ze stalowych dźwigarów hali o wysokości 105 m, rozpiętości 270 m i długości 150 m 158 – mogącej pomieścić rzymskie Koloseum i nowojorską Statuę Wolności. Nominalnie techniczną żywotność konstrukcji przewidziano na 100 lat. W późniejszych modyfikacjach podniesiono odporność zewnętrznej powłoki do klasy tornada o sile F3 w skali Fujity–Pearsona, czyli wichury przenoszącej przedmioty z prędkością ponad 300 km/godz. Zakończenie operacji przykrycia dotychczasowego Sarkofagu przewidywano na rok 2012. Przed ścianą szczytową wzniesiono konstrukcję kratownicową przejmującą część obciążeń dachu i zapobiegającą jej przechyłowi w momencie rozpoczęcia demontażu. Jednak opory środowisk czerpiących dochody z dotychczasowego statutu Strefy, sprzeciwiających się „zabiciu kury znoszącej złote jajka”, doprowadziły do praktycznego zamrożenia dalszych prac pod pretekstem konieczności uzyskiwania kolejnych zezwoleń formalnych. Dopiero szantaż donatorów projektu, że w związku z rosnącymi cenami wszystkie koszty powyżej 1,5 miliarda euro będzie musiała pokryć Ukraina, zmusił ówczesnego prezydenta Wiktora Janukowycza do wydania zgody na rozpoczęcie konstrukcji Arkady. Pierwszy dźwigar zmontowano w kwietniu 2011 roku na 25. rocznicę awarii, a nasunięcie gotowej hali zakończono przed 30 listopadem 2016 roku – 30. rocznicą zakończenia budowy Sarkofagu. Po zakończeniu procesu uszczelniania połączeń hali z dotychczasową konstrukcją, przewidywane jest przejście do kolejnego etapu – rozbiórki zniszczonego awarią bloku reaktora nr 4 przy pomocy zrobotyzowanych suwnic, rozseparowania materiałów i przeniesienia odpadów promieniotwórczych na profesjonalne składowiska. Przyszłość Strefy W 2015 roku rząd premiera Arsenija Jaceniuka przygotował plan zagospodarowania Strefy w ramach zaproponowanej ustawy o zmianie jej statusu i utworzeniu Czarnobylskiego Rezerwatu Biosfery2. Zgodnie z planem, położony centralnie obszar o powierzchni 32 000 ha miał zostać związany z gospodarką odpadami promieniotwórczymi – obejmując zakłady przerobu ciekłych i stałych odpadów za 1 i 2 blokiem EJ Czarnobyl, przechowalnik i kompleks WEKTOR w Burakówce, oraz składowisko odpadów z rozbiórki Sarkofagu i z ukraińskich elektrowni jądrowych. Ta część zastępuje dotychczasową 10–kilometrową Strefę Bezwzględnego Wysiedlenia, perspektywicznie w przedsiębiorstwach z nią Міністр Ігор Шевченко розповів про створення Чорнобильського біосферного заповідника, http://www.menr.gov.ua/press-center/news/123news1/3854-ministr-ihor-shevchenko-rozpoviv-pro-stvorennia-chornobylskoho-biosfernoho-zapovidnyka (data dostępu: 14.05.2015). 2 159 związanych miało znaleźć zatrudnienie 6–7 tysięcy osób. Role swoistych rezerwatów przyrody miały pełnić obszary 76 700 ha z dozwoloną działalnością naukową (zdefiniowaną ustawą) oraz 69 800 ha strefy buforowej, gdzie dopuszczono też funkcje edukacyjne. W ostatniej strefie ochrony krajobrazu, o powierzchni 80 700 ha, dopuszczono działalność rolniczą. Uwagę zwraca fakt, że w południowo–zachodniej części Rezerwatu Czarnobylskiego w delcie rzeki Prypeć przewidziano gospodarkę rolną i leśną, a funkcje ochrony przyrody przejąć miały przygraniczne tereny na wschodzie i północy Strefy. Za takim rozwiązaniem niewątpliwie przemawia chęć uniknięcia wysokich kosztów odbudowy infrastruktury. W toku dyskusji nad planem, zwrócono uwagę na powstanie niebezpiecznej luki prawnej w chwili zniesienia specjalnego statutu Czarnobylskiej Strefy Wysiedlenia, którego nie są w stanie zastąpić przepisy ochrony przyrody w rezerwacie biosfery, np. możliwość niekontrolowanego wywozu złomu i odpadów radioaktywnych, które nie są elementami środowiska przyrodniczego. Prac nad projektem nie kontynuowano, samo jednak jego podjęcie świadczy o nowym podejściu do zagadnień spuścizny awarii w Czarnobylu. Mity Czarnobyla Z przebiegiem awarii w Czarnobylu i jej skutkami związana jest niezliczona ilość mitów i tzw. legend miejskich. Oto lista niektórych z nich: – wybuch, który miał wyrzucić górną płytę reaktora na wysokość 30 metrów – w rzeczywistości pierwsze pęknięcia elementów paliwowych nie było zauważone nawet w sterowni obok hali, drugi wybuch (parowy) w odległości 100 m był słyszany jako głuchy grzmot; dach hali nad reaktorem nie został zniszczony eksplozją, ale przepalił się po dwóch dobach pożaru; górna płyta reaktora nie wzbiła się w powietrze ale zapadła po wypaleniu konstrukcji rdzenia; – trzech pracowników w strojach nurków miało odkręcić zalane pod wodą zawory w podziemiach reaktora, po czym wszyscy zmarli na chorobę popromienną – wystarczy wpisać ich powszechnie znane nazwiska w przeglądarkę internetową by odnaleźć niedawno udzielony przez jednego z nich wywiad; – śmiertelna emisja jodu–131 – w rzeczywistości 180 razy mniejsza od emisji pochodzącej z wybuchów jądrowych w samym tylko 1962 roku; – bezwłose dzieci – wywołana brudem grzybica strzygąca powierzchniowa (Trichophytiasis superficialis) 160 – Igor, „dziecko Czarnobyla” – deformacja nóg spowodowana okręceniem pępowiny w okresie płodowym, bez jakiegokolwiek związku z promieniowaniem; – dzieci urodzone bez gałek ocznych – działanie pestycydów (środków ochrony roślin); – cielęta z dwiema głowami – rezultat przenawożenie azotanami pastwisk w kołchozach; – powstała w wyniku mutacji hybryda człowieka i szczura (sic!) – są to zdjęcia wykonanych z silikonu realistycznych eksponatów z wystawy awangardowej rzeźbiarki3. Źródeł mitów związanych z awarią w Czarnobylu można by dopatrywać się w hermetyczności i elitarności wiedzy z zakresu atomistyki. W pewnym zakresie stwierdzenie to jest prawdą, ale głównych przyczyn tej sytuacji nie należy doszukiwać się w nieznajomości fizyki reaktorów jądrowych. Jak stwierdził Karl Raimund Popper (1902–1994), jeden z najwybitniejszych filozofów nauki – „Niewiedza nie jest brakiem wiedzy, ale aktywnym przeciwstawianiem się wiedzy”. Specjalistyczna dyskusja nie jest możliwa, gdy niewiedza dyskutantów tworzy opokę systemu pseudonaukowych teorii, kulturowo ugruntowanych mitów, sloganów oraz fobii i lęków. Kolejnym zagadnieniem jest celowa manipulacja informacją i tworzenie faktów medialnych. Rozpowszechnianiem radiofobii i lęków wokół niezwiązanej z cywilną atomistyką awarii w Czarnobylu zainteresowane jest lobby surowców energetycznych, dla którego wybór opcji energetyki jądrowej przez Niemcy czy Polskę oznacza utratę intratnych rynków zbytu i środka politycznego szantażu energetycznego. „Kłamstwo powtórzone tysiąc razy staje się prawdą” mawiał Joseph Goebbels (1897–1945), minister propagandy III Rzeszy. W myśl tej zasady całe zastępy trolli zostają zaangażowane w rozpowszechnianie kłamstw utrwalających strach społeczeństw przed rozwojem energetyki jądrowej. Znaczenie zagadnienia niezależności energetycznej najlepiej ilustruje przykład Ukrainy, której podstawą bytu państwowego, w sytuacji kontroli kopalń przez prorosyjskich separatystów, stała się własna energetyka jądrowa. Przedstawione powyżej aspekty powodują, że następstwa awarii w Czarnobylu nie mogą być analizowane pod czysto technicznym kątem, ale wymagają szerokiego, wręcz filozoficznego, podejścia. Wykazują 3 P. Piccinini, Leather Landscape – 2003, http://www.patriciapiccinini.net/117/83 (data dostępu: 9.01.2017). 161 związek z powszechnym obecnie zjawiskiem decydowania przez ignorantów o kierunkach przyszłego rozwoju – nie w oparciu o wiarygodne informacje, ale o zmanipulowane emocje społeczne. W tzw. cywilizacjach post–prawdy wiedza i prawda stają się nieprzydatnym obciążeniem. Konsekwencją nierozróżniania prawdy od kłamstwa oraz manipulacji staje się sytuacja, w której o wynikach wyborów powszechnych światowego supermocarstwa rozstrzyga sterowana z zewnątrz akcja hejterów internetowych. Pod wieloma względami jest to równie niebezpieczne jak oparty na produkcji plutonu Pu–239 wyścig zbrojeń jądrowych w czasach zimnej wojny. 162 Hala reaktora nr 3 Elektrowni Jądrowej w Czarnobylu; w głębi za ścianą Sarkofag reaktora nr 4, na pierwszym planie – górna płyta reaktora, po prawej – maszyna do przeładunku paliwa. (Fotografia M. Rabiński) Widok Sarkofagu nad zniszczonym reaktorem nr 4; marzec 1995 roku. (Fotografia M. Rabiński) 163 Hala Arkady (po prawej) na dwa dni przed rozpoczęciem operacji nasuwania na stary Sarkofag (po lewej); listopad 2016 roku. (Fotografia M. Rabiński) Wschodnia połówka zewnętrznej powłoki Arki w trakcie prac wykończeniowych; kwiecień 2014 roku. (Fotografia M. Rabiński) Malwina Marciniszyn-Jedeszko Uniwersytet Warmińsko-Mazurski w Olsztynie ASPEKTY, KTÓRYMI POLSKIE LEŚNICTWO MOŻE INSPIROWAĆ SIĘ FILOZOFIĄ Filozofia i leśnictwo wydają się – prima facie – być wobec siebie bardzo odległe. Jest tak nie tylko przez obwiązujący obecnie podział obszarów wiedzy (przypomnijmy go: obszary humanistyczne; społeczne; ścisłe; przyrodnicze; techniczne; rolnicze, leśne i weterynaryjne; medyczne, o zdrowiu i kulturze fizycznej; czy w obszarze sztuki1); ale też przez zawężanie się naszego myślenia do uogólnień i prostych skojarzeń uwzględniających niewystarczające związki między mentalnością a środowiskiem przyrodniczym. Filozof to ten, który czyni przedmiotem refleksji byt w jego szczegółowych przejawach i byt jako całość, bada schematy i kategorie myślenia itd. Dla wielu osób niezajmujących się wprost filozofią wydaje się ona nieprzydatna i „archaiczna”, na przykład w zakresie rozwoju społecznego ukierunkowanego na ciągłe materialne bogacenie się. Obraz bycia filozofem można by dalej uszczegóławiać, w bardzo atrakcyjny sposób kreśli go Jose Ortega2, przejdźmy jednak do scharakteryzowania postaci leśnika. Na pewno choć może on zatrzymać się na chwilę i pokusić o filozoficzne przemyślenia, co jest zapewne szczególnie łatwe w obliczu codziennego obcowania z przyrodą Jest to pierwszy stopień podziału zgodny z obwiązującym trzystopniowym wykazem (obszarów, dziedzin i dyscyplin) podany w Rozporządzeniu Ministra Nauki i Szkolnictwa Wyższego z 08.08.2011 r., w sprawie obszarów wiedzy, dziedzin nauki i sztuki oraz dyscyplin naukowych i artystycznych, Dz.U. 2011 nr 179 poz. 1065, s. 10427-10429. Według tego podziału filozofia jest dyscypliną naukową. 2 Zob. np. „Żyjemy w uzależnieniu od naszego otoczenia, które z kolei jest kształtowane przez naszą wrażliwość” J. Ortega y Gasset Zadanie naszych czasów, w: Idem, Po co wracamy do filozofii?, Warszawa 1992, s. 81. 1 166 podczas pracy, ma on głównie za zadanie dbać o wzrost drzew, jako surowca będącego ważnym składnikiem gospodarki narodowej3 oraz chronić las rozumiany jako wspólne dobro (obecnego i przyszłych pokoleń, a także jako dziedzictwo po naszych przodkach). Coraz szybsze tempo życia oddala coraz większą liczbę osób od otaczającej przyrody, redukując w ich myśleniu i przeżywaniu rolę lasu do miejsca weekendowych wyjazdów, grzybobrania czy otoczenia dróg, którymi przemieszczają się między dwoma miejscami. Podejmując zasygnalizowaną w tytule problematykę, warto zastanowić się, czy rozwój społeczno-gospodarczy odbiera człowiekowi kontakt z przyrodą, czy jest to raczej dobrowolna rezygnacja na rzecz nowych doznań, czy spowodowana wszechogarniającym pośpiechem związanym z dążeniem do realizacji własnych celów? Leśnictwo wydaje się być obecnie rozpatrywane – wyraźmy się ogólnie: przez społeczeństwo – głównie jako gałąź gospodarki narodowej, i jako takie, jest ściśle związane z rozwojem nauki, techniki i technologii (w takich sferach jak uprawa drzewostanu, zabiegi hodowlane, sprzęt wykorzystywany w leśnictwie, przy pozyskaniu i obróbce drewna). Przyjmując takie myślenie, tym bardziej oddalamy leśnictwo od filozofii. Wobec takiego traktowania leśnictwa, bliższe jego składowym byłyby prawdopodobnie nauki społeczne czy ekonomiczne. Takie zależności można zauważyć obserwując wypieranie pracowników z dotychczas zajmowanych stanowisk przez wprowadzanie efektów rozwoju technologicznego, na przykład monitoring usprawniający skuteczną ochronę przeciwpożarową, czy harwesterów wykorzystywanych do szybkiej i bezpiecznej dla operatora ścinki drewna. Nie bez wpływu na leśnictwo jest także presja społeczna związana z rozwojem ukierunkowanym na wzmocnienie konkretnych wartości, zarówno w znaczeniu przyrodniczym (ochrony gatunków czy siedlisk), ale także rozumianych czysto materialnie przez bogacenie się społeczeństwa (lub Skarbu Państwa), czy przez kultywowanie tradycji i zwyczajów związanych z myślistwem. Z powyższego wynika, że współczesne 3 Na poparcie tego stwierdzenia wystarczy sięgnąć do corocznych opracowań GUS o nazwie Leśnictwo czy Roczników Statystycznych, na przykład Rocznik Statystyczny 2016 wskazuje, że w roku 2015 w leśnictwie i przy pozyskaniu drewna było zatrudnionych 50,3 tys. osób, liczba ta wzrosła o 3,8 tys. osób od roku 2005, na przestrzeni podanego dziesięciolecia wzrosła też ilość osób zatrudnionych przy produkcji papieru i wyrobów z papieru oraz przy produkcji mebli, co wskazuje, że mimo wkraczania nowych technologii niewymagających bezpośredniego udziału człowieka, działania związane z pozyskaniem i wykorzystaniem drewna są ważnym źródłem zatrudnienia; Rocznik Statystyczny Rzeczypospolitej Polskiej 2016, red. D. Rozkrut, GUS, Warszawa 2016, s. 242-243. 167 leśnictwo (podobnie jak i rolnictwo) jest zazwyczaj traktowane jako wielkoobszarowa produkcja, gdzie ścierają się w głównej mierze względy ekonomiczne i ogólnie rozumiana ochrona przyrody. W niniejszym tekście obszary z dziedziny nauk leśnych, w obrębie których upatruję największych możliwości dla rozważań o naturze filozoficznej, oraz takie, które mogą wzbudzać niepokój wobec jakże niepewnej i nieodgadnionej przyszłości, zostały wybrane przeze mnie w sposób w dużym stopniu subiektywny (gdyż brak dotychczas w literaturze polskiej wyczerpujących opracowań na ten temat). Rozważania zawierają z pewnością więcej pytań zmuszających do zastanowienia i głębszej analizy, niż prostych odpowiedzi. *** Pierwszym z prezentowanych zagadnień, które powinno się naświetlić, jest rola i samo traktowanie przez społeczeństwo drzewostanu, przy tym nie tylko w kraju, ale właściwie w obrębie całego świata. Jest to z pewnością temat budzący wiele emocji, biorąc pod uwagę tak zwaną materialną wartość drewna, które jest pozyskiwane4 oraz ilość miejsc pracy, które zapewnia potrzeba obróbki drewna. Możemy sobie przy tym zadać kilka nurtujących pytań: Czy specjaliści w tej dziedzinie są w stanie określić jaka „powinna być” powierzchnia lasów w danym kraju, czy na danym obszarze? Jak wytypować zmienne do takich wskazań? Rolnictwo może wspierać się hydroponiką i aeroponiką5, jednak zwarte kompleksy leśne potrzebują do istnienia odpowiedniego areału. Łączy się tutaj wiele kwestii: większe powierzchnie leśne to prawdopodobnie z biegiem czasu większa ilość drewna wprowadzanego do gospodarki (ewentualnie ilość ta może się nie zmienić lub spaść, jeśli powstanie nowych terenów leśnych wiąże się z różnymi formami ochrony przyrody), więcej szlaków turystycznych (lub dłuższe i bardziej urozmaicone, ciekawsze), większe powierzchnie dla przebywania zwierzyny, 4 Przy największym możliwym uogólnieniu, w Polsce w roku 2015 pozyskano 38408,2 tys. m3, przy przeciętnej cenie wynoszącej 189,75 zł za 1 m3, choć należy także wspomnieć, że powierzchnia gruntów leśnych i zasoby „na pniu” z każdym rokiem się zwiększają; Leśnictwo 2016, red. B. Domaszewicz, GUS, Warszawa 2016, s. 29, 115, 324. 5 Oba te systemy nie wymagają gleby do uprawy roślin, mogą więc być stosowane w terenach o gęstej zabudowie miejskiej, głównie na dachach budynków, czy terenach, gdzie gleby są zdegradowane. Hydroponika polega na uprawie roślin, którym dostarcza się wszelkich składniki niezbędnych do wzrostu w formie roztworu wodnego. Aeroponika działa w podobny sposób, z tym, że woda i związki mineralne zostają dostarczone roślinom w postaci aerozolu. 168 na którą będzie można polować (lub po prostu dogodniejsze siedliska dla zwierząt, z powodu oddalenia od osiedli ludzkich, bez możliwości polowań). Jeśli odbierzemy sobie przekonanie o słuszności naszego postępowania, o tym, że wiemy dokładnie, jaka powinna być powierzchnia lasów, jaki jest optymalny wiek rębności drzew, jak ma się kształtować liczebność populacji określonych gatunków, kto podejmie tak ważne dla teraźniejszości i przyszłości wybory? Czy nie będzie to polem do samowoli, gdy nawet niekompetentne osoby będą mogły o tym decydować6? Wobec tego, czy filozofia może w tym w jakiś sposób pomóc? Czy osąd wspomagany myśleniem filozoficznym będzie właściwy, jeśli będziemy kierować się tylko logiką lub tylko interesem większości? Kiedy myślimy o lasach, jawią nam się przede wszystkim drzewa, zapominamy często, że znajdziemy w nich także inne, mniejsze rośliny, na przykład zioła, ale również grzyby czy różnorodność fauny. W związku z tym nasuwa się kolejne pytanie: Czy możliwe jest pogodzenie dbałości zarówno o drzewostan, jak i o zwierzęta? Wydaje się, że w określonych sytuacjach należy wybrać nadrzędne dobro, dla ilustracji: szczególnie cenny dla zachowania ogólnej bioróżnorodności gatunek może mieć wartość nadrzędną wobec wykonania jakiejś lokalnej inwestycji. Z pewnością trudno jest opanować taką „sztukę poświęceń”. Na ustawodawcy spoczywa szczególnie odpowiedzialne zadanie pogodzenia, z jak najmniejszą szkodą dla któregokolwiek z kierunków; zarządzania drzewostanem ze świadomością konieczności wykorzystania drewna jako ważnego surowca w gospodarce narodowej i zachowania przy tym bogactwa gatunkowego, różnorodności siedlisk i ochrony poszczególnych gatunków. Dla społeczeństwa wypracowanie i utrzymanie takiej równowagi powinno być równie ważne, a narzędzia filozoficzne należy przy tym wykorzystać, jeśli istnieje szansa, że może to wpłynąć na wypracowanie korzystnych rozwiązań. Takie pytanie może nasuwać się choćby w obliczu znowelizowanej Ustawy o ochronie przyrody, gdzie wprowadzono zapisy o braku konieczności pozyskiwania zezwoleń na usuwanie drzew i krzewów z posesji będących własnością osób fizycznych, pod warunkiem, że nie ma to związku z działalnością gospodarczą; Ustawa z dnia 16.04.2004 r. o ochronie przyrody, Dz.U. 2004 nr 92 poz. 880, art. 83f., pkt 3a, s. 103-104. Przepis ten po licznych protestach został uzupełniony o konieczność dokonania zgłoszenia z uwagi na określone okoliczności, co dało możliwość wniesienia sprzeciwu odpowiednich organów powstrzymującego usunięcie drzewa przez zgłaszającego; Ustawa z 11.05.2017 r. o zmianie ustawy o ochronie przyrody, Dz.U. 2017 poz. 1074, art. 1, pkt 3, lit. c, s. 1-2. 6 169 Nawiązując do nierozerwalnego związku fauny i flory, przechodzimy do kolejnej kwestii budzącej powszechnie kontrowersje, czyli zarządzania populacjami zwierzyny łownej (i/lub gatunków chronionych). Występuje tu niemało wątków, m. in.: – łowiectwo jako suma działań, często zawężane potocznie jedynie do myślistwa7, silnie krytykowane za odstrzał zwierząt przez ruchy typu Greenpeace8, WWF9, czy Pracownię na rzecz Wszystkich Istot10 oraz środowiska zrzeszające przyrodników, ekologów, wegetarian, traktujących zwierzęta jako istoty zbyt bliskie ludziom, by je zabijać i traktować jako pożywienie. Pytania pojawiające się często podczas dyskusji związanych z działaniami w zakresie łowiectwa i samego myślistwa to: Czy polowanie jest samo w sobie etyczne, czy może przynieść coś dobrego (o ile zabijanie innych żywych istot samo w sobie może być dobre)? Czy myślistwo jest współcześnie potrzebne i może być argumentowane podtrzymaniem tradycji? Może wystarczy liczyć na samoregulację w przyrodzie? Należy ponadto wspomnieć o pytaniu pojawiającym się podczas debat nad zasadnością myślistwa: Czy życie dziko żyjących zwierząt, które mogą zastać upolowane jest lepsze od zwierząt hodowanych na pożywienie (często w ciasnych klatkach, nie znając niczego poza halą hodowlaną11)? Cele łowiectwa, wymienione w ustawie Prawo łowieckie, na pierwszym miejscu wymieniają „ochronę, zachowanie różnorodności i gospodarowanie populacjami zwierząt łownych”, cele związane z myślistwem są umiejscowione w dalszej kolejności, Ustawa z 13.10.1995 r., Prawo łowieckie, Dz.U. 1995 nr 147 poz. 713, art. 3, s. 1. Wiele kontrowersji budzi ponadto kwestia zachowania zasad selekcji podczas odstrzału. 8 Na przykład w głośnej obecnie sprawie dotyczącej odstrzału żubrów, Informacja prasowa z dnia 10.02.2017 r., Zasady ochrony żubra wymagają rewizji. Nie ma zgody na komercyjny odstrzał!, http://www.greenpeace.org/poland/pl/wydarzenia/polska/Zasady-ochrony-ubra-wymagaj-rewizji-Nie-ma-zgody-na-komercyjny-odstrza/ (data dostępu: 01.03.2017). 9 Materiały prasowe dotyczące wilka z 01.03.2016 r., Dołącz do watahy i chroń wilka, http://www.wwf.pl/fakty_ciekawostki/aktualnosci/?18660/Docz-do-watahy-i-chro-wilka, (data dostępu: 01.03.2017). 10 Rykowisko dla jeleni, nie dla myśliwych, http://puszcza.pracownia.org.pl/rykowisko/wstep (data dostępu: 01.03.2017). 11 Polecam choćby pobieżne przejrzenie fotografii zawartych w opracowaniu Poradnik metodyczny w zakresie PRTR dla instalacji do intensywnego chowu i hodowli drobiu, red. A. Mihułka, Warszawa 2009, s. 6, 34, 41, http://www.gios.gov.pl/images/dokumenty/prtr/poradnik_20091026.pdf, (data dostępu: 01.03.2017). 7 170 – ilość zwierzyny w kontekście pojemności środowiska związana również z wiarygodnością wskazania „odpowiedniej” ilości osobników danego gatunku na określonym obszarze oraz z samym procesem szacunkowym dotyczącym wskazania rzeczywistej liczebności danej populacji. Tutaj w największej mierze pojawiają się zastrzeżenia do prowadzonych w naszym kraju kalkulacji liczebności zwierzyny na podstawie tzw. pędzeń próbnych12. – bezpieczeństwo ludzi i ich mienia. Najlepszym przykładem będzie rozrastająca się populacja bobra europejskiego (Castor fiber) związana ze zniszczeniami drzewostanów wzdłuż cieków czy uszkodzeniami wałów przeciwpowodziowych13. – rozprzestrzenianie chorób przez dzikie zwierzęta. Na przykład ptasia grypa przenoszona z dzikiego ptactwa na drób14, afrykański pomór świń (ASF) przenoszony z dzików (Sus scrofa) na świnie15, borelioza i inne choroby odkleszczowe16 (w tym wypadku leśne zwierzęta występują pośrednio jako żywiciele kleszczy (Ixodes ricinus), które są nosi- Metoda pędzeń próbnych polega na policzeniu osobników danego gatunku na określonej przestrzeni, przy zaangażowaniu znacznej ilości osób, przy założeniu, że policzenie zwierząt na 10% nadleśnictwa daje podstawę do przeliczenia otrzymanych danych na powierzchnię całego nadleśnictwa, wspomagając się obserwacjami prowadzonymi przez cały rok. 13 Populacja bobra europejskiego w ciągu ostatnich lat sukcesywnie się zwiększa, według szacunków, w 2015 r. przekroczyła 100 tys. osobników na terenie Polski: Leśnictwo 2016, red. B. Domaszewicz, GUS, Warszawa 2016, s. 154. Najtrudniejszą w mojej ocenie sprawą dotyczącą zagrożenia życia i mienia ludzi w kontekście zwiększenia się populacji gatunku chronionego, jest wzrost zagrożenia powodziowego spowodowany przez pojawienie się bobra europejskiego (Castor fiber) na Żuławach Wiślanych, które w części są terenami depresyjnymi, tj. położonymi poniżej poziomu morza, chronionymi przed zalaniem jedynie przez system wałów i pomp: T. Chudzyński, Bobry na Żuławach do całkowitego odstrzału, http://www.strefaagro.dziennikbaltycki.pl/artykul/bobry-na-zulawach-do-calkowitego-odstrzalu, (data dostępu: 01.03.2017). 14 Ptasia grypa w Polsce, http://www.tvn24.pl/raporty/ptasia-grypa-w-polsce,90, (data dostępu: 01.03.2017). 15 ASF i co dalej….?, http://www.pirol.pl/index.php/afrykanski-pomorswin/2189-asf-i-co-dalej (data dostępu: 03.03.2017). 16 B. Grabowska, Uwaga, kleszcze!, http://www.lasy.gov.pl/informacje/aktualnosci/uwaga-kleszcze, (data dostępu: 01.03.2017). 12 171 cielami krętków powodujących chorobę). Czy redukcja populacji dzikich zwierząt pozwoli na zmniejszenie przenoszenia się konkretnych chorób? – najbardziej prozaiczny wobec powyższych: Jak powinno partycypować w kosztach różnych przedsięwzięć społeczeństwo, Skarb Państwa i myśliwi17? – czy prawodawstwo ma możliwość całkowitego dostosowania do potrzeb ludzi i środowiska? Czy można przynajmniej zmniejszyć wrażenie, że odpowiada tylko zaradczo na bieżące problemy, lub wspiera jedynie uprzywilejowane grupy? Kolejne aspekty, które mogą być wspomagane przez narzędzia filozoficzne w kontekście poszukiwania korzystniejszych rozwiązań, to stanowiska prawne, naukowe i wyrażające subiektywne opinie dotyczące różnorodnych form ochrony przyrody, jak obejmowanie ochroną gatunkową oraz warunki trwania takiej ochrony (Czy zwiększenie liczebności osobników to wystarczający powód, aby znieść ochronę gatunku? Kiedy wiadomo, że liczebność jest wystarczająca dla zachowania różnorodności biologicznej?) Wybór pomiędzy ochroną czynną i bierną szczególnie cennych przyrodniczo obszarów również przysparza trudności: czy mamy pozostawić je „naturalnymi” (choć uważa się, że naturalne obszary w praktyce już nie istnieją lub występują w znikomym stopniu, na terenach niedostępnych dla człowieka), jeśli pozostawienie ich bez żadnych działań, poza zakazem wstępu, doprowadzi do całkowitej degradacji tego, co uważaliśmy za cenne? Czy tak samo postąpić ze zwierzętami, to jest nie chronić aktywnie żadnych gatunków, a ich wyginięcie traktować jako naturalną kolej rzeczy (przecież niezliczona ilość gatunków wyginęła od początków istnienia życia na naszej planecie)? *** Jak może w tym, co zostało wyżej wstępnie sproblematyzowane, pomóc myślenie filozoficzne? Możemy zastosować kilka mechanizmów wspierających wyrobienie sobie zdania na ważkie kwestie oraz wspomagających dokonywanie decyzji, z minimalizacją niepokojących wątpliwości i poczucia winy. Pierwszym ze sposobów radzenia sobie z podejmowaną tematyką może być włączenie myślenia analitycznego do rozpatrywania i typowania priorytetów, na rzecz których chcemy podejmować największe starania. Skoro mowa o priorytetach, to oczywiście musi W zależności czy roczny plan łowiecki na danym terenie został wykonany, czy szkody wyrządziły zwierzęta łowne czy chronione – jest to prawnie ustalone, co nie daje jednak gwarancji sukcesu rozumianego jako brak sprzeciwu (na przykład myśliwych i rolników) wobec obecnych regulacji. 17 172 być uwzględniana aksjologia i to taka, która wprowadza hierarchizację wartości. Aksjolodzy wskazują na to, że wartości środowiska naturalnego, dodam również lasu, są bardziej podstawowe niż wiele innych wartości, takie jak estetyczne czy niektóre ekonomiczne, np. mające zaspokajać, jak się wyraził Epikur „potrzeby urojone” (usztucznione)18. Inspirację na pewno będzie przynosić racjonalizm19 sięgający swoimi korzeniami V-IV w p.n.e. (Sokrates i inni). Racjonalizm ma wiele form, tutaj zwrócimy uwagę na kierowanie się przesłankami nie tylko zdroworozsądkowymi, lecz także modelowanymi w obrębie epistemologii i teorii funkcjonowania umysłu20. Po drugie, w zgodzie z własnym sumieniem i obowiązującym prawem, należałoby zastanowić się nad moralnością obserwowanych (w przeszłości i obecnie) i planowanych działań. Wydaje się, że spośród opracowań etyki najbardziej przydatna będzie etyka ekofilozoficzna21. Jeśli ustalenia ekofilozofii wydadzą się komuś zbyt ogólne, to naturalnie filozofia dysponuje etykami szczegółowymi. Jeśli dwie pierwsze propozycje zawiodą, wzbudzając poczucie niedosytu lub brnięcia w niewłaściwym kierunku, można niczym sceptycy22 inspirujący się Pirronem i Sekstusem Empirykiem, zanegować wszystkie znane prawdy, by rozpocząć własne poszukiwania od początku, z umysłem niezajętym przez obiegowe ideologie, w pewnym sensie oczyścić myślenie za pomocą filozoficznego instrumentalizmu. Nie ma przeszkód, by takie myślenie połączyć z pragmatyzmem, wobec którego za warte uwagi uznaje się tylko te działania (czy teorie), które niosą za sobą użyteczne rezultaty. W niektórych przypadkach, stan wiedzy i możliwości naszego poznania mogą okazać się niewystarczające do sformułowania sądów, które będą miały właściwe przełożenie na pragmatykę, wytyczone przez aksjologię i etykę. Wtedy leśnik lub my, którzy mediujemy między nim a filozofią, możemy zainspirować się przedstawicielami szkoły cynickiej i zdać się na to, co przyniesie nam przyszłość bez niepotrzebnych obaw i zbędnego planowania ciesząc się tym, czego dane nam było doświadczyć. Diogenes Laertios, Żywoty i poglądy słynnych filozofów, PWN, Łódź 1988, Księga X, paragraf 128, s. 646. 19 M. Heller, Filozofia przyrody. Zarys historyczny, Znak, Kraków 2005, s. 228229. 20 Myślenie czerpiące z racjonalizmu filozoficznego mogłoby pomóc uporządkować np. prawodawstwo dotyczące ochrony przyrody. 21 Zob. A. Naess, G. Session, H. Skolimowski. 22 Na przykład: L. Kołakowski, O co pytają nas wielcy filozofowie, Seria I, Znak, Kraków 2005, s. 65-74. 18 173 Dodatkowo warto pokusić się o wyczerpujące dyskusje ze znawcami poszczególnych tematów, najlepiej stojącymi w opozycji, co może rzucić nowe światło na nasze postrzeganie rozważanej tematyki. Przeprowadźmy krótką analizę, ukazującą zastosowanie pojęcia dobra dla sytuacji przebywania w lesie i jego traktowania. Posłużę się definicją dobra sformułowaną przez Lecha Ostasza: Szersza, bardziej złożona definicja mówi, że dobre jest to, co 1) umożliwia powstanie kogoś bądź czegoś, 2) podtrzymuje trwanie kogoś bądź czegoś, 3) wspomaga rozwijanie się i polepszanie jakości trwania kogoś bądź czegoś, 4) służy jego spełnianiu się w cyklu życia i usensownianiu jego istnienia (dotyczy to człowieka i innych istot żywych). To, co dobre, charakteryzuje się jeszcze czymś dość oczywistym: 5) gdy trafia na coś, co działa niszcząco, degenerująco lub uszczuplająco, to osłabia to coś lub neutralizuje, przeciwdziała temu23. Las wpisuje się w przytoczoną powyżej definicję dobra poprzez swoje niezliczone funkcje. Wymieńmy przykładowo: kształtuje krajobraz (a co za tym idzie wnosi wartości estetyczne i może być inspiracją artystyczną24), wpływa na klimat (lokalnie – mikroklimat i globalnie) i obieg wody w przyrodzie (zwiększając małą retencję), chroni glebę przed erozją (wodną i wietrzną), umożliwia powstawanie tlenu (o czym niejednokrotnie zapominamy), kształtuje unikalne warunku środowiskowe (często niezbędne dla życia i rozwoju rzadkich gatunków – podtrzymanie bioróżnorodności), stwarza warunki do rekreacji i pracy zarobkowej oraz dostarcza odnawianego surowca – drewna, a także innych dóbr (owoce, zioła, mięso). Ponadto, w odniesieniu do ostatniego punktu cytowanej definicji, las powoduje przywrócenie funkcji gleb zdegradowanych, oczyszcza powietrze z zanieczyszczeń i chroni przed rozprzestrzenianiem się hałasu (na przykład drogowego). Warto również nadmienić, że wkład do rozważań nad stosunkiem do lasu wnieśli nasi praprzodkowie, Słowianie. Okazuje się, że potrafili postrzegać las zgoła kompleksowo. Doceniali nie tylko estetykę lasu, ale także funkcję lasu L. Ostasz, Dobre, złe, odpowiedzialne, sprawiedliwe… Definicje i objaśnienia pojęć etyki, Towarzystwo Kultury Świeckiej in. Tadeusza Kotarbińskiego, Warszawa 2010, s. 10. 24 Na przykład w malarstwie obraz Gustava Klimta Brzozowy las, w poezji wiersz Kazimierza Przerwa-Tetmajera Widok ze Świnicy do Doliny Wierchcichej, czy współcześnie tekst piosenki zespołu Lao Che Idzie wiatr. 23 174 w podtrzymywaniu trwania ich społeczności25,26. Naturalnie cenili również funkcje ekologiczne. Nic dziwnego, że ich wierzeniom towarzyszył bóg Leszy i leśne demony czy duchy oraz czczono różne gatunki drzew (dąb, lipa, brzoza i kilka innych gatunków)27. Niektóre kwestie związane zarówno z rozwojem nauk, jak i własnymi przekonaniami są bardzo trudne do rozwiązania. Na określonych etapach rozwoju może nie starczać nam narzędzi i wiedzy (rozumianych zarówno pod względem możliwości poznania, jak i zaawansowania rozwoju nauki), dlatego dokonania z zakresu różnych nauk powinny się przenikać i uzupełniać. Sama obserwuję, że część naukowców zajmujących się badaniami z dziedziny nauk biologicznych, u schyłku kariery naukowej czując pewne „nasycenie” tematu, czy brak perspektyw dalszego poznania (ze względu na własne możliwości czy niedostateczny rozwój nowych technologii, które hamują postęp badań), skłania się ku filozoficznym rozważaniom dla wieloaspektowego ujęcia badanej problematyki (możliwe, że jest to też pokłosie wieloletnich przemyśleń i głębokich analiz dotyczących jednej tematyki). W powyższym tekście starałam się wskazać kilka aspektów, które, przynajmniej po części, mogą być wspomagane refleksją filozoficzną, a także że pozostaje wiele nierozwiązanych kwestii dotyczących leśnictwa. Ich podejmowanie może być ważniejsze dla przetrwania gatunku Homo sapiens niż się to może wydawać. K. Moszyński, Kultura ludowa Słowian, t. II, cz. 2, Książka i Wiedza, Warszawa 1968, s. 717. 26 A. Błażejewski, Starożytni Słowianie, Ossolineum, Wrocław 2007, s. 59. 27 Por. A. Kempiński: Encyklopedia mitologii ludów indoeuropejskich, Iskry, Warszawa 2001, s. 256. 25 III. ODCIENIE POSTĘPU Piotr Wasyluk Uniwersytet Warmińsko-Mazurski w Olsztynie MODELE ROZWOJU HISTORYCZNEGO A KLASYCZNA KONCEPCJA POSTĘPU Trudno nie zgodzić się z twierdzeniem, że zrozumienie idei postępu dziejowego zależy w dużej mierze od określenia modelu zmienności historycznej oraz sposobu, w jaki dokonuje się wartościowania czasu historycznego. Model zmienności historycznej wyznacza ramy, w których „dzieje się” historia, zaś określony sposób waloryzacji wydarzeń historycznych decyduje o ich negatywnej lub pozytywnej ocenie. Te dwa czynniki są niezbędne, aby można było zrozumieć, jakie miejsce w refleksji nad dziejami zajmuje prospekcja dziejowa oraz sama idea postępu dziejowego, która stanowi jedną z jej teoretycznych konsekwencji. Choć współcześnie zjawisko postępu jest przedmiotem autonomicznego zainteresowania przedstawicieli wielu dyscyplin naukowych, jego znaczenie zostało ukształtowane przede wszystkim przez związek łączący je z filozoficzną refleksją nad historią. Jako że kategoria postępu pozostaje w ścisłych relacjach z koncepcją rozwoju, końca i wartości1, oraz często łączy się z pojęciem sensu historii, filozoficzno-dziejowy kontekst postępu wydaje się bezsporny. Mimo że we współczesnych dyskusjach poświęconych idei postępu przeważa pogląd, że „postęp” powinno się traktować wyłącznie jako kategorię świadomości aksjologicznej, to jednak do początków dwudziestego wieku nie dostrzegano różnicy między jego normatywnym i opisowym znaczeniem, utożsamiając go z „ewolucją” czy „rozwojem”2. Zgodnie z takim rozumieniem, każdą ukierunkowaną zmianę, która powodowała zróżnicowanie zjawisk, nazywano postępem, a postrzegając ją jednocześnie jako celową lub zdeterminowaną przez przyczyny obiektywne, nadawano jej jednoznacznie pozytywną wartość. Tendencja ta widoczna była zarówB. Croce, Theory and History of Historiography, przeł. D. Ainslie, George G. Harp& CO. LTD, London 1921, s. 83-84. 2 R. Nisbet, History of the Idea of Progress, TransactionPublishers, New Brunswick, London 2008, s. 174. 1 178 no w finalistycznych koncepcjach historiozoficznych niemieckiego idealizmu, jak również we wczesnych odmianach pozytywizmu, a zwłaszcza ewolucjonizmu, którego przedstawiciele traktowali prawa rozwoju społecznego analogicznie do zasad kierujących światem przyrodniczym3. Niezależnie od wszelkich teoretycznych odniesień i historycznych uwarunkowań, pojęciem postępu określić można kierunkową zmianę o charakterze kumulatywnym, w której każde z kolejnych następstw utożsamiane jest ze wzrostem wartości pożądanych. Mówiąc słowami Zdzisława Krasnodębskiego, postęp wynika z przekonania, że „bieg historiijest ukierunkowanym procesem zmierzającym, ostatecznie rzecz biorąc, ku lepszemu”4. W opinii Charlesa Van Dorena, który podjął próbę usystematyzowania teorii progresywistycznych, o idei postępu historycznego można mówić, kiedy zajdzie kilka zasadniczych warunków. Pierwszy wskazuje, że w historii musi istnieć określony schemat rozwoju, który pozwala porządkować dzieje w formie określonych całości (etapów lub epok). Nadaje on historii określoną strukturę, a jednocześnie ukierunkowuje ludzkie doświadczenia i działania (indywidualne oraz zbiorowe). Ów schemat, który pozwala dostrzec w historii pewien ład, staje się uniwersalnym modelem, umożliwiającym uchwycenie przeszłości, teraźniejszości i przyszłości w formie uniwersalnej syntezy. Określona sekwencja zdarzeń, ich regularność nie dotyczy wyłącznie przeszłości, ale ma również wymiar prospektywny. Pozwala wyjaśniać to, co się już wydarzyło, a jednocześnie dostarcza wiedzy o tym, co nastąpi lub może nastąpić w przyszłości. Zgodnie z drugim warunkiem, schemat ten musi być w całości poznawalny, co oznacza, że możliwości poznawcze człowieka pozwalają mu w sposób bezpośredni lub pośredni poznać przebieg historii oraz uporządkować poszczególne wydarzenia w formie generalnych prawidłowości. Oznacza to, że historia nie mieści w sobie żadnej tajemnicy, a jej dotychczasowy przebieg oraz dalszy rozwój są częściowo lub w całości znane. Warunek trzeci wskazuje, że rozwój opisywany tym schematem, w dłuższym okresie, jest nieodwracalny. Oznacza to, że zmiana histoO historycznych transformacjach idei postępu można przeczytać między innymi w: J. B. Bury, The Idea of Progress. AnInquiryintoitsOrigin and Growth, Bibliobazar, Charleston 2006, S. Pollard, The Idea of Progress. History and Society, Watts& CO. LTD., London 1968, R. Nisbet, op. cit. 4 Z. Krasnodębski, Upadek idei postępu, Państwowy Instytut Wydawniczy, Warszawa 1991, s. 11. 3 179 ryczna powinna być postrzegana jako proces kierunkowy. Jej trajektorię wyznacza pojawianie się wartości nowych lub powiększanie się zakresu wartości już istniejących, w związku z tym rozwojowi historycznemu towarzyszy stały i stopniowy przyrost wartości. Rozwój jest więc tożsamy ze zmianą na lepsze, co oznacza, że pojawianie się wartości nowych oraz powiększanie się zakresu wartości już istniejących (ulepszanie, doskonalenie) jest tożsame z ich pozytywną oceną. Następujące po sobie etapy procesu rozwojowego są traktowane jako „lepsze”, „wyższe” lub „doskonalsze” od poprzednich5. Te trzy kluczowe warunki opisują nowożytny model idei postępu, który w opinii wielu teoretyków należy uznać za uniwersalny wzór progresywizmu. Warto zauważyć, że ów model ugruntowany jest w linearnej koncepcji zmienności historycznej, który w dużej mierze determinuje cechy swoiste idei postępu. Niektórzy teoretycy zwracają wręcz uwagę, że idea postępu jest możliwa wyłącznie w kontekście linearnego modelu rozwoju6. Linearność, pozwalająca określić początek oraz kierunek procesu rozwojowego, wyklucza powtarzalność zdarzeń. Dostarcza jednocześnie przekonania o możliwości pojawiania się zjawisk nowych oraz stanowi gwarancję nieprzerwanego rozwoju. Linearna koncepcja rozwoju tworzy podstawę do procesualnego ujmowania historii oraz poszukiwania czynników determinujących poszczególne wydarzenia oraz działania człowieka. Dlatego zdaniem wielu historyków stanowi również niezbędną przesłankę ukonstytuowania się świadomości czasu historycznego. Model linearny wyznacza jedną, prostą linię rozwoju historii, w której wszystkie wydarzenia układają się diachronicznie. Model ten zakłada, że proces rozwoju ma charakter kierunkowy i nieodwracalny, a cały proces, przechodząc przez określone stadia lub etapy, zmierza do określonego celu. Sens rozwoju historycznego wyznacza „jednolinearny, spójny, ewolucyjny ciąg zmian ukierunkowanych, na który składają się zbiorowe doświadczenia ludów wszystkich czasów”7. Dostrzeganie następstwa epok i ich wzajemnych związków pomaga w konstruowaniu obrazu historii ludzkości oraz kształtuje poczucie jedności procesu 5 Por. Ch. Van Doren, The Idea of Progress, Frederick A. Praeger, Publishers, New York, Washinngton, London, 1967, s. 5-7. 6 Por. J. B. Bury, The Idea…, s. 17. 7 F. Fukuyama, Koniec historii, przeł. T. Bieroń, M. Wichrowski, Wydawnictwo Znak, Kraków 2009, s. 10. 180 dziejowego. Gwarantuje również, jak zauważa Hannah Arendt, posiadanie monopolu na sens historii8. Jeżeli uzasadnione jest przekonanie, że postęp jest możliwy wyłącznie na gruncie linearnego modelu rozwoju, jego ścisły związek z jednokierunkową zmianą o charakterze kumulatywnym, która wiąże się z maksymalizacją pozytywnych wartości, wydaje się oczywisty. Można jednak postawić pytanie: czy rzeczywiście progresywizm związany jest wyłącznie z linearnym modelem zmienności historycznej? Odnalezienie argumentów uzasadniających postęp na gruncie innych niż linearny modeli rozwojowych może nie tylko dostarczyć innego spojrzenia na zjawisko progresywizmu, ale pozwala również krytycznie spojrzeć na słabości nowożytnej (klasycznej) wizji postępu. Jedną z jej podstawowych słabości było, podzielane przez jej zwolenników, przekonanie, że procesy rozwojowe przebiegają w sposób regularny, a rzeczywistość opisywana tymi regularnościami przekształca się w sposób możliwy do przewidzenia. Skutkowało to przeświadczeniem o jednolitości i jednoznaczności, a niekiedy nawet o bezwarunkowej konieczności postępu. Jednak przekonanie o jednolitości postępu należy uznać za błąd wynikający z naszych skłonności do liniowego ujmowania zjawisk. Jak słusznie zauważył Arnold J. Toynbee, oczekiwanie, że rozwój ludzkości przebiega po linii prostej, jest znaczącym uproszczeniem dokonywanym przede wszystkim przez tradycyjną historiografię i historyków, którzy „sytuują okresy dziejowe w jednym ciągłym szeregu, niczym segmenty łodygi bambusowej między węzłem a węzłem lub też segmenty osobliwego rozciągania trzonka, na którego końcu nowoczesny kominiarz nasadza miotłę do przepychania przewodów kominowych”9. Celem tego artykułu jest próba rozważenia argumentów uzasadniających inne niż linearny modele rozwoju. Punktem wyjścia jest założenie, że liniowy schemat rozwoju nie jest jedynym istniejącym modelem opisującym dynamikę rozwoju historycznego. Obok linearnego, możemy mówić o modelu cyklicznym, oscylacyjnym, multilinearnym oraz, popularnym ostatnio, modelu sieciowym10. To one będą stanowiły podstawę dalszych rozważań. H. Arendt, Między czasem minionym a przyszłym. Osiem ćwiczeń z myśli politycznej, przeł. M. Godyń, W. Madej, Wydawnictwo ALETHEIA, Warszawa 2011, s. 77. 9 A. J. Toynbee, Studium historii, przeł. J. Marzęcki, Państwowy Instytut Wydawniczy, Warszawa 2000, s. 51 10 Moim zamiarem jest omówienie wyłącznie tych modeli, które mają charakter kierunkowy. Świadomie pominę więc model teorii chaosu Edwarda Lorenza, na gruncie którego trudno mówić o postępie. Rozwój w tym modelu to 8 181 Cykliczny model rozwoju należy do procesów niekierunkowych. Niektórzy badacze doszukują się jego genezy w starożytnej magii i astronomii. Do filozofii i nauki przeniknął jako jeden z pierwszych schematów wyjaśniających funkcjonowanie wszechświata. Stanowił pierwotny wzór, zgodnie z którym rzeczywistość postrzegano jako przejaw doskonałego i niezmiennego bytu. Związany był z mitem wiecznego powrotu, wedle którego wszystko, co powstaje, ostatecznie powraca do swojego źródła. W związku z tym, każdy proces zachodzący w świecie (także w świecie ludzkim) miał charakter cykliczny, rozwój traktowany był zaś jako okresowe i konieczne powtarzanie przez każdy byt swojego istnienia. Model cykliczny w bardziej współczesnej odsłonie przybierał często postać teorii organicznej, w której analogia biologicznego procesu rozwojowego odnajdowała swe zastosowanie do interpretacji rozwoju kultury. Według Oswalda Spenglera historia stanowiła wielki organizm, którego rozwój przebiegał zgodnie z fazami transofrmacji bytów organicznych, przez narodziny, dzieciństwo, młodość, dojrzałość i śmierć. Autor Zmierzchu Zachodu sądził, że historia jest procesem nieustannego przeobrażania się, stawania się i przemijania rozmaitych form organicznych11. W jego opinii, proces zmian wpisany był w okrąg, a wydarzenia miały po sobie następować z określoną regularnością po jego orbicie. Model cykliczny wiąże się z przekonaniem, że dzieje ludzkie to proces nieustannych rekursów. W rzeczywistości nie może pojawić się nic, czego wcześniej nie było. W modelu cyklicznym, jak zauważa Mircea Eliade, człowiek: nie zna aktu, który nie zostałby uprzednio dokonany i przeżyty przez innego, który nie był człowiekiem. To, co czyni, zostało już uczynione. Jego życie jest nieprzerwanym powtarzaniem aktów zainicjowanych przez innych. (…) Czyn zyskuje sens, realność jedynie wtedy, gdy powtarza czynność pierwotną12. wyłanianie się osobliwości w określonym polu zdarzeń możliwych (zdarzenia pojawiają się jako mało prawdopodobne, ale pociągają za sobą całą lawinę zdarzeń – np. „efekt motyla”); to, co się wydarza, nie jest konieczne, ale możliwe. 11 O. Spengler, Zmierzch Zachodu. Zarys morfologii historii uniwersalnej, przeł. J. Marzęcki, Wydawnictwo KR, Warszawa 2001, s. 41. 12 M. Eliade, Mit wiecznego powrotu, przeł. K. Kocjan, Wydawnictwo KR, Warszawa 1998, s. 13. 182 Model cykliczny wiąże się z przekonaniem, że powtórzeniu lub powtórzeniom ulega nie tylko cały cykl rozwoju, ale też poszczególne sytuacje, ludzie oraz ich indywidualne zachowania. W Nietzscheańskiej teorii wiecznego powrotu Zaratustra zwiastuje powrót wszystkich rzeczy. Wszystko idzie, wszystko powraca; wiecznie toczy się koło bytu. Wszystko zamiera, wszystko zakwita; wiecznie rok bytu bieży. Wszystko się łamie, wszystko znów się spaja; jednakie buduje się wiecznie domostwo bytu. Wszystko się rozłącza, wszystko wita się ponownie; wiernem pozostaje sobie wieczne bytu kolisko13. Poza powtarzalnością zdarzeń, nieunikniony jest w modelu cyklicznym kres procesu rozwojowego. Wszystkie zapoczątkowane wydarzenia znajdują swoje dopełnienie w momencie końca całego cyklu. Cykliczny model rozwoju ma więc charakter finalistyczny. „Każde stworzenie ulega upadkowi – pisał Oswald Spengler – każda myśl, każdy czyn, każdy wynalazek – zapomnieniu. Wszędzie wokół nas dają się odczuć zaginione dzieje wielkiego losu. Wszędzie przed naszymi oczami leżą ruiny dawnych dzieł obumarłych kultur”14. Dlatego model cykliczny bywa określany mianem modelu degeneracyjnego i kojarzony jest z pesymizmem historiozoficznym, a niekiedy z katastrofizmem. Modyfikacją modelu cyklicznego jest oscylacyjna teoria zmiany. W tej koncepcji proces zmian ma charakter falowy i przybiera postać sinusoidy, na której opisane są poszczególne wydarzenia. Wilhelm Dilthey zauważył, że rozwój historyczny jest procesem, w którym „oprócz wielkiego panującego dążenia, nadającego epoce jej charakter, istnieją inne, przeciwstawne. Zmierzają do zachowania tego, co dawne, dostrzegają szkodliwe jednostronności ducha czasu i zwracają się przeciwko niemu”15. Rozwój jest procesem, w którym dążenie do jedności i tendencje dezintegracyjne stanowią dwie strony tego samego nieprzerwanego continuum. Następujące po sobie fazy wyznaczają rytm zmian, a cały proces staje się zapisem wzlotów i upadków następujących po sobie we względnie regularnym rytmie. Każdy etap rozwoju napotyka granicę, której nie będzie w stanie przekroczyć. Osiągnięcie F. Nietzsche, Tako rzecze Zaratustra, przeł. W. Bernt, Zysk i SK-A, Poznań 1995, s. 197. 14 O. Spengler, Historia, kultura, polityka. Wybór pism, przeł. A. Kołakowski, J. Łoziński, Państwowy Instytut Wydawniczy, Warszawa 1990, s. 37. 15 W. Dilthey, Budowa świata historycznego w naukach humanistycznych, przeł. E. Paczkowska-Łagowska, Słowo/obraz terytoria, Gdańsk 2004, s. 153. 13 183 optimum staje się jednocześnie punktem zwrotnym, po którym następuje nowy etap rozwoju. W wymiarze aksjologicznym proces rozwojowy opisany jest regularnym następstwem wzlotów i upadków. Zmiana jest następstwem cyklicznie pojawiających się powodzeń i klęsk. Okresy postępu oddzielają następujące po nich upadki i wzloty. Oscylacja polega na współwystępowaniu i cyklicznym następstwie procesów dezintegracyjnych i progresywnych. Rozpatrywana z perspektywy określonych faz i etapów rozwojowych, okazuje się przede wszystkim dialektycznym następstwem postępów i regresów, nieustającą i nigdy niekończącą się walką głębokich konfliktów mogących doprowadzić do unicestwienia wszelkich istotnych wartości i sukcesów. Mimo wewnętrznego zróżnicowania, rozwój pozostaje jednak procesem ciągłym i kumulatywnym. W wymiarze historycznym jest jednością przeciwieństw, łącząc przeciwstawne bieguny historii, dostarcza poczucia ciągłości kultury16. Za jednolitością procesu rozwojowego kryje się dynamika przeciwstawnych tendencji, które wspierają się i zwalczają jednocześnie. W opinii Georga Simmela, wewnętrzny nurt historii to permanentna destrukcja tego, co jedynie pozornie wydaje się utrwalone w procesie dotychczasowego rozwoju. Ciągła przemiana treści kultury, a w końcu całych stylów kultury, jest oznaką bądź raczej sukcesem nieskończonej płodności życia, ale także głębokiej sprzeczności, w jakiej jego wieczne stawanie się i jego przemiany stoją z obiektywną ważnością i samostanowieniem jego manifestacji oraz form, w których lub za pomocą których ono żyje. Porusza się ono między umieraj i stawaj się – stawaj się i umieraj17. Kolejny model, model multilinearny, wyznacza wielość linii rozwojowych, którymi przebiegają procesy rozwojowe. Choć koncepcja multilinearna należy do procesów kierunkowych, opisuje ona pluralistyczny, a więc niezwykle złożony, model rozwoju. Multilinearyzm zakłada, że rzeczywistość nie jest mono-liniowa, ale składa się z warstw, pięter i grup. Cechą charakterystyczną multilinearyzmu jest paralelizm, „oboksiebność” rozmaitych linii rozwojowych i czasów. Pisał Ferdynand Braudel: E. Cassirer, Esej o człowieku. Wstęp do filozofii kultury, przeł. A. Staniewska, Czytelnik, Warszawa 1977, s. 333. 17 G. Simmel, Filozofia kultury. Wybór esejów, przeł. W. Kunicki, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2007, s. 54. 16 184 Czas, w którego trybach pozostajemy wciąga także, choć w odmienny sposób, społeczeństwa i cywilizacje, które nas przekraczają, bo ich życie trwa dłużej niż nasze i stadia ich zgrzybiałości odmienne są od tych, jakie sami przechodzimy. Nasz czas, czas naszych doświadczeń, naszego życia, czas dokonujący zmiany pór roku i przynoszący kwitnienie róż, znaczący bieg naszego wieku, liczy także godziny istnienia różnorodnych struktur społecznych, ale w rytmie całkowicie odmiennym18. Kolejnym założeniem multilinearyzmu jest, że nie istnieje jeden uniwersalny proces rozwoju. Rzeczywistość stanowi mieszaninę rożnorodnych i rozbieżnych procesów, które zachodzą niezależnie od siebie, zgodnie z właściwymi dla siebie dynamikami. Klasycznymi przykładami modelu multilinearnego są teorie „czasu osiowego” Karla Jaspersa oraz koncepcja „nowoczesności zwielokrotnionej” Shmuela N. Eisenstadta, w ramach których postrzega się rozwój nie jako diachroniczne następstwo, ale jako równoległe (oboksiebne) i niezależne istniejące procesy rozwojowe19.W opinii Karla Jaspersa, jedność rozwoju nie jest faktem, który można potwierdzić empirycznie. Rozproszenie ludzi po świecie prowadzi do nawarstwiania się rozmaitych kultur i sposobów życia. „W ruchu ludzkich spraw istnieje dla naszego poznania wiele linii, które biegną oddzielnie od siebie, i później się spotykają – lub linii partykularnych, które wprawdzie typowo powracają, lecz oznaczają tylko poszczególne cechy całości, nie zaś samą całość”20. Rozwój nie ma charakteru jednorodnego, ponieważ składają się na niego odrębne i względnie niezależne od siebie procesy. Jaspers nie zgadzał się z postrzeganiem rozwoju jako diachronicznego następstwa poszczególnych stadiów. Jedność rozwoju należy postrzegać jako „oboksiebne istnienie w tym samym czasie”, bez prawdziwej styczności21. Także w opinii Shmuela Eistenstadta, rozwój nie ma charakteru homogenicznego. Proces zmian zakłada różnorodność rozbieżnych, choć pozostających ze sobą w ciągłej styczności cywilizacji, które 18 F. Braudel, Historia i trwanie, przeł. B. Geremek, Czytelnik, Warszawa 1999, s. 123-124. 19 Przykładem modelu multilinearnego jest również niezwykle interesująca koncepcja „czasu kupca i czasu Kościoła” Jacquesa Le Goffa, por. J. Le Goff, Czas Kościoła i czas kupca, przeł. A. Frybes, [w]: Czas w kulturze, red. nauk. A. Zajączkowski, Państwowy Instytut Wydawniczy, Warszawa 1988, s. 331356. 20 K. Jaspers, O źródle i celu historii, przeł. J. Marzęcki, Wydawnictwo Marek Derewiecki, Kęty 2006, s. 246. 21 Ibidem, s. 25. 185 kształtują się zgodnie z własnymi regułami i założeniami22. Odwołując się do Jaspersowskiej koncepcji czasu osi, Eisenstadt uważał, że we wzajemnej grze między z jednej strony różnymi kulturowymi orientacjami, ich nosicielami i głoszonymi przez nich wizjami przeobrażenia świata, a z drugiej konkretnymi domenami i historycznymi warunkami, w których takie wizje mogły się konkretyzować, kształtowały się instytucjonalne kontury i dynamika rozmaitych cywilizacji osiowych i wynikające stąd przebiegi historii powszechnych23. Wraz z zachodzącymi w wielu krajach dużymi przeobrażeniami gospodarczymi, społeczno-kulturowymi, a zwłaszcza technologicznymi, metamorfozę przeszła także koncepcja rozwoju, która współcześnie zakłada aktywne i szerokie uczestnictwo społeczeństwa w kształtowaniu zmian społecznych. Rozwój, stymulowany w dużej mierze przez potrzeby i twórczą spontaniczność człowieka, generuje innowacyjność na płaszczyźnie indywidualnej i społecznej. Pomysły na rozwiązanie wielu problemów społecznych rozprzestrzeniają się spontanicznie w zdecentralizowanych strukturach opartych na dobrowolności i współpracy. Poprawa jakości życia przestała być tym samym biernym, wynikowym efektem innowacji technologicznych, a stała się efektem realnego uczestnictwa człowieka w rzeczywistości społecznej, politycznej i kulturowej. W ten sposób ukształtował się współczesny model rozwoju, który określa się mianem sieciowego. Model sieciowy multiplikuje linearność i multilinearność. Jak pisze Manuel Castells, linearny i nieodwracalny czas jest rozbijany i relatywizowany zgodnie ze społecznym kontekstem. W modelu sieciowym dochodzi do pomieszania czasów w nieustannie zmieniającej się rzeczywistości. Model ten podkreśla rozproszenie i defragmentację przestrzeni ludzkiej, w której nakładają się na siebie i przenikają rozmaite temporalności. Model sieciowy to koncepcja, w której chronologia zmian ustępuje miejsca swobodnemu kolażowi zdarzeń, a ich istotność zależy od społecznego kontekstu. Castells podkreśla, że każde zdarzenie, każda sekwencja zdarzeń zależy od kontekstu i celu, zgodnie z którym są wykorzystywane. Żyjemy w uniwersum „temporalności kulturowych ekspresji”. „Historia – pisze Castells – jest najpierw organizowana zgodnie z dostępnością wizualnego materiału, następnie podporządkowana skomputeryzowanej S. N. Eisenstadt, Utopia i nowoczesność. Porównawcza analiza cywilizacji, przeł. A. Ostolski, Oficyna Naukowa, Warszawa 2009, s. 31. 23 Ibidem, s. 250. 22 186 możliwości wybierania sekund z ujęć, które mają zostać połączone lub rozdzielone, zgodnie ze specyficznymi dyskursami”24. Sieciowość jest modelem, który wyjaśnia zdarzenia społeczne, udział ich uczestników, a także reprodukcję zjawisk społecznych. Wyznacza obraz struktury społecznej i kierunki procesów społecznych. Sieciowość oznacza decentralizację rozwoju. Kieruje się logiką zdecentralizowanej i rozprzestrzeniającej się struktury powiązań, która przekształca tradycyjny liniowy model czasu i przestrzeni. Model sieciowy prowadzi do skompresowania czasu i etapów rozwoju. Wszystko wydaje się odbywać w czasie rzeczywistym, w dziejącej się teraźniejszości. Jak zauważa Darin Barney: społeczeństwo sieci jest zawsze tu i teraz i umiejscowienie jego członków na danym obszarze jest mniej istotne niż ich istnienie w przestrzeni przepływów, gdzie zachodzą decydujące ekonomiczne i inne procesy. W tym sensie ludzkie doświadczenie czasu w społeczeństwie sieci jest ponadczasowe, a miejsce pozbawione umiejscowienia 25. Model sieciowy generuje zakłócenia w „sekwencyjnym porządku zjawisk”, burzy diachroniczny proces historii pisanej przez zawodowych historyków, dopuszcza istnienie nieciągłości i przypadkowości, które destruują spójność procesu rozwojowego. Zdarzenia dzieją się jednocześnie. Nie mamy tu do czynienia z chronologicznym następstwem zdarzeń, lecz przestrzenią przepływów, w której dochodzi do rozregulowania sekwencyjności zdarzeń. Przestrzeń przepływów, (…), rozpuszcza czas przez zaburzanie sekwencji zdarzeń i czynienie ich jednoczesnymi, tym samym umieszczając społeczeństwo w wiecznej ulotności. Wieloraka przestrzeń miejsc – rozproszona, sfragmentaryzowana i chaotyczna – manifestuje różne temporalności, od najbardziej prymitywnej dominacji naturalnych rytmów do najsurowszej tyrani czasu zegarowego 26. Omówione modele rozwoju pokazują, że nie jesteśmy skazani na „tyranię” linearności. Warto jednak odpowiedzieć na pytanie, jakie ograniczenia oraz jaki potencjał dla postrzegania rozwoju w kategoriach progresywnych tkwi w konstytuujących je założeniach. Pomoże M. Castells, Społeczeństwo sieci, przeł. M. Marody, K. Pawluś, J. Stawiński, S. Szymański, Wydawnictwo Naukowe PWN, Warszawa 2007, s. 459. 25 D. Barney, Społeczeństwo sieci, przeł. M. Fronia, Sic!, Warszawa 2008, s. 41. 26 M. Castells, Społeczeństwo..., s. 464. 24 187 nam to rozstrzygnąć zasadniczy problem, który dotyczy możliwości istnienia idei postępu odmiennych niż liniowy model rozwojowy. Jak wskazuje Marek Wichrowski, związana z modelem cyklicznym koncepcja nawrotu wyklucza unikatowość, jednokierunkowość i jednorazowość zdarzeń27. Przyszłość w koncepcjach cyklicznych ma znaczenie szczególne. W wymiarze ogólnym nie wiąże się ona z pojawianiem się wartości nowych, czy kumulacją wartości już istniejących, lecz z unicestwieniem zdobyczy rozwojowych, popadnięciem w nicość wszystkiego, co dotychczas się dokonało. Do podobnych wniosków doszedł J. B. Bury, który dostrzegł, na podstawie analiz starożytnych przykładów modelu cyklicznego, że wyklucza on możliwość zmian progresywnych28. Podstawą przekonania, że modele cykliczne przeczą możliwości doskonalenia się w czasie, jest nieuzasadnione łączenie modeli cyklicznych ze skrajnym pesymizmem, a niekiedy katastrofizmem, które zmuszają do postrzegania rozwoju jako procesu degeneracyjnego, niechybnie zwieńczonego negatywnym finałem. Finalistyczny charakter modelu cyklicznego rzeczywiście może utrudniać postrzeganie rozwoju w kategoriach progresywnych. Krytyk progresywizmu, Oswald Spengler wskazywał, że rozwój „wymaga dopełnienia, rozwój zawsze ma początek, dopełnienie jest zawsze końcem. Nie ma młodości bez starości, powstawania - bez zanikania, życia – bez śmierci”29. Jednak finalistyczna natura cyklicznych teorii rozwoju nie musi automatycznie oznaczać, że ludzkie działania pozbawione są sensu, oraz że nie mogą mieć pozytywnego znaczenia. W innym miejscu autor Zmierzchu Zachodu wyraźnie zaznaczał: Nie, nie jestem pesymistą. Pesymizm oznacza niedostrzeganie żadnych już zadań. Ja zaś widzę ich tak wiele nierozwiązanych, iż obawiam się, że nie starczy nam dla nich czasu i ludzi. Pod względem praktycznym fizyka i chemia niezbyt zbliżyły się do granicy swych możliwości. Technika swój kulminacyjny punkt we wszystkich niemal dziedzinach ma jeszcze przed sobą30. Zadania do zrealizowania, które wymienia Spengler oznaczają, że oczekiwanie na koniec nie jest biernym trwaniem, lecz aktywnością, M. Wichrowski, Spór o naturę procesu historycznego (Od Hebrajczyków do śmierci Fryderyka Nietzschego), Wydawnictwo Naukowe Semper, Warszawa 1995, s. 18. 28 Por. J. B. Bury, op. cit., s. 24. 29 O. Spengler, Historia…, s. 33. 30 Ibidem, s. 96. 27 188 której celem może być pozytywnie waloryzowany rozwój. Choć trudno Spenglera nazwać zwolennikiem postępu, jego pogląd pokazuje, że nawet w ramach koncepcji cyklicznych pojawia się możliwość progresywnego rozwoju. Dopuszczając możliwość postępu na gruncie cyklicznego modelu rozwoju, należy jednak dokonać dość istotnego rozróżnienia. Kiedy rozpatrujemy model cykliczny z perspektywy następujących po sobie sekwencyjnie poszczególnych zamkniętych cykli, mówienie o postępie nie jest możliwe. Proces rozwoju, postrzegany jako całość tożsamy, jest z rekursem, nieskończonym odtwarzaniem się tego, co już było, następstwem identycznych cykli, które replikują się w regularnym rytmie. Postęp staje się jednak możliwy w ramach pojedynczego cyklu. W takim przypadku rozwój nie może być postrzegany jako bezcelowa powtarzalność. Wpisany w zamknięty cykl przemian, może generować procesy, które posiadają charakter liniowego następstwa. Mechanizm ten dostrzec można w koncepcji Arnolda J. Toynbee’go, który zauważył, że rozwój to harmonia dwóch różniących się od siebie ruchów. Pierwszy, kołowy, odnaleźć można w rytmie natury, który opisuje „organiczny rytm życia i śmierci”. Drugi, związany z procesem rozwoju cywilizacyjnego rozumianym jako całość, jest ruchem liniowym. Tak więc – pisał Toynbee – wykrycie w naszej analizie procesu cywilizacji powtarzających się periodycznie ruchów nie zakłada, że sam ów proces należy do tego samego cyklicznego porządku, co i one. Wprost przeciwnie, jeśli można z periodyczności tych pomniejszych ruchów wyciągnąć jakiś prawomocny wniosek, to wnosilibyśmy raczej, że niesiony na ich skrzydłach ruch główny nie sprowadza się do nawrotów, ale jest postępowy 31. Koncepcję postępu wpisaną w cykliczny model rozwoju można określić mianem postępu ograniczonego. Kiedy pod koniec osiemnastego wieku I. Kant zastanawiał się nad ostatecznym celem ludzkiej historii, wbrew powszechnej w tym okresie opinii, nie uważał bynajmniej, że dzieje stanowią obraz jednoznacznego postępu czy regresu. Ogólna suma zła i dobra manifestująca się w historii, a także antagonizm immanentnie obecny w ludzkiej naturze, nie pozwalają, by zgodzić się na eudajmonistyczny optymizm czy terroryzujące świadomość ludzką przekonanie o ostatecznym upadku ludzkości. 31 A. J. Toynbee, Studium..., s. 231. 189 Cechą naszego gatunku – pisał Kant – jest głupota w działaniu: szybko wchodzimy na ścieżkę dobra, mimo to nie utrzymujemy się na niej, lecz odwracamy wspak drogę postępu, choćby tylko gwoli odmiany, po to by nie być związanymi z jednym celem. Budujemy po to, by móc burzyć. Podejmujemy się ciężkich zadań i toczymy pod górę syzyfowy kamień po to, ażeby pozwolić mu stoczyć się z powrotem32. Mimo że postęp nie jest ani konieczny, ani nieuchronny i nie sposób go wywieść z samych wydarzeń historycznych, działania człowieka określone są przez rozumny cel, przekonanie o jego istnieniu zaś tkwi, w opinii Kanta, w uniwersalnych predyspozycjach rodzaju ludzkiego, w jego możliwościach dążenia ku temu, co lepsze33. W modelu oscylacyjnym postęp jest możliwy. Nie istnieją powody, by przeczyć możliwości zmian progresywnych. Konieczne jest jednak ciągłe weryfikowanie wiary w to, że postęp jest czymś pewnym. Proces rozwoju to nieustanny konflikt antagonistycznych elementów, to względna równowaga, która wynika z nieustannego napięcia między dwoma aksjologicznymi biegunami, między dobrem i złem. Konsekwencją obecnego w rzeczywistości antagonistycznego ruchu jest świadomość ambiwalencji rozwoju, która musi prowadzić do przekonania, że żaden z jego etapów nie może być jednoznacznie potępiony bądź gloryfikowany. Wynika on z faktu, że przeciwieństwa obecne w rzeczywistości nie stanowią dla siebie bezwzględnej opozycji. W opinii Jacquesa Maritaina, postrzeganie rozwoju jako śmiertelnego konfliktu między złem i dobrem jest błędem, ponieważ zarówno dobro jak i zło nie stanowią odrębnych esencji, ale współistnieją jako całość34. Ze względu na to, rozwój nie może być postrzegany jako jednorodny i jednostajny ruch naprzód. Meandruje i zmienia tempo, burząc jednostajny ruch po linii prostej. Patrząc na proces zmiany z perspektywy aksjologicznej, trudno nie zgodzić się z Reinholdem Niebuhrem, w opinii którego „niemożliwe jest w dziejach żadne proste zwycięstwo dobra nad złem. Wszelka nowa energia życia i wszelka wyższa siła twórcza może być i będzie w równym stopniu źródłem dezintegracji, co 32 I. Kant, Wznowione pytanie. Czy ludzki rodzaj stale zmierza ku temu, co lepsze?, przeł. M. Żelazny, [w:] I. Kant, Rozprawy z filozofii historii, przeł. T. Kupiś, D. Pakalski, A. Grzeliski, M. Żelazny, Kęty 2005, s. 211. 33 Ibidem, s. 214. 34 J. Maritain. On the Philosophy of History. Charles Scribner’s Sons, New York 1957, s. 55-56. 190 integracji”35. Jedność procesu dziejowego jest zachowana, ale ciągłość historii stanowi jedność przeciwieństw. W oscylacyjnym modelu zmiany postęp nie jest czymś oczywistym. Nie istnieją jednak powody, żeby mu przeczyć. Nie jest on, jak chcieli filozofowie XVIII w., zuniformizowanym i ciągłym ruchem wspólnym całej ludzkości. Nie jest również konieczny i nieuchronny jak prawa przyrody. Zmiana progresywna jest procesem wywołanym wieloma przyczynami, które zazwyczaj mają charakter nieregularny. Nie istnieje zatem żaden oczywisty postęp, nie istnieje bowiem rozwój, któremu nie groziłaby regresja. W multilinearnej koncepcji rozwoju struktura ludzkiego świata nie ma charakteru homogenicznego. Jak pokazaliśmy wcześniej, model multilinearny zakłada policentryczność świata ludzkiego. Mieści w sobie rozmaite idee, wartości i wzorce zachowań, których ciągła reinterpretacja prowadzi do powstawania nowych form organizacji. W koncepcji „nowoczesności zwielokrotnionej” Shmuela Eisenstadta, nowoczesność nie jest zwieńczeniem długiej drogi rozwoju ludzkości, ale stanowi nowy wymiar cywilizacji ludzkiej, posiadającej właściwy dla siebie program kulturowy. Jego istotą jest multicentryczność i niejednorodność systemów instytucjonalnych, kulturalnych i ideologicznych, które rozwijają się ze specyficzną dla siebie dynamiką. Innymi słowy, nowoczesność to wiele różnych nowoczesności. Centralnym założeniem wpisanym w pojęcie zwielokrotnionych nowoczesności jest to, że owe różne nowoczesności podzielają pewne niezmiernie istotne wspólne właściwości, ale zarazem rozwijają się między nimi znaczące różnice – nie tylko lokalne warianty, lecz różnice faktyczne dotykające konstytutywnych właściwości nowoczesności 36. Nowoczesność to wielość konkurujących ze sobą wizji rzeczywistości, które determinują powstawanie różnych programów rzeczonej nowoczesności. Wizja nowoczesności to wizja nowoczesności zmultiplikowanych. Nowoczesność – uważał Eisenstadt – nie wydała z siebie jednego wzorca rozwoju, ale wiele wzorów, często rywalizujących ze sobą. Kultury, cywilizacje i społeczeństwa rozwijają się na ogół z różną dynamiką; nie sprawdzają się próby zrozumienia dynamiki różnych modernizujących się społeczeństw jako kontynuacji. Nowoczesność nie ma jednego źródła, więc trudno uznać, że rozwija się zgodnie z jednym, 35 R. Niebuhr, Poza tragizmem. Eseje o chrześcijańskiej interpretacji historii, przeł. A. Szostkiewicz, Wydawnictwo Znak, Kraków 1985, s. 98. 36 S. Eisenstadt, Utopia..., s. 298. 191 liniowym modelem; mamy raczej do czynienia z wieloma programami/wzorcami rozwoju, które rywalizując ze sobą, zapewniają kulturom, cywilizacjom lub społeczeństwom szereg alternatyw rozwojowych. Eistenstadt pisze o względności postępu37.W modelu multilinearnym rozwój nie ma charakteru jednorodnego i nie prowadzi do homogenizacji. Nie istnieje również jeden wzorzec rozwoju, który dotyczyłby wszystkich aktorów procesu rozwojowego. „We wszystkich społeczeństwach nieustannie pojawiają się nowe wątpliwości i reinterpretacje dotyczące rozmaitych wymiarów nowoczesności, i we wszystkich wyłaniają się konkurencyjne agendy kulturowe”38.W koncepcji multilinearnej postęp nie może być zatem zjawiskiem oczywistym. Świat człowieka to przestrzeń wielu napięć i antynomii, których źródłem może być właśnie niejednorodne tempo rozwoju różnych aktorów rzeczywistości społecznej i kulturowej. Postęp na gruncie modelu multilinearnego jest możliwy, ale nie jest jednoznaczny. Nie prowadzi do upowszechnienia się jednej koncepcji rozwoju, ale wielu, konkurencyjnych możliwości zmian. Model multilinearny naznaczony jest niejednorodną dynamiką rozwojową. Postęp nie jest również nieuchronny. Multilinearność to różnorodność przestrzeni i czasów, które ostatecznie składają się na proces rozwoju. Ta wielość naznaczona jest potencjalnymi nieciągłościami, załamaniami i dyskontynuacjami. Rezygnacja z przekonania o liniowości rozwoju prowadzi do zmiany postrzegania postępu. Przestaje tym samym być rozumiany jako uniwersalny i jednorodny proces doskonalenia się w czasie. Jak pisał Ferdynand Braudel: Postęp, otwierając wachlarz możliwości ludzkich, rozszerza w ten sposób gamę różnic. […] Jeśli więc istotnie można mówić o pewnej inflacji cywilizacji pojmowanej jako całość, to byłoby naiwnością sądzić, że zdoła ona triumfalnie wyprzeć różnorodne cywilizacje, owe rzeczywiste osobności procesu dziejowego, pozostające stale na miejscu i obdarzone długim życiem. To właśnie one podejmują wyścig postępu, na swoich ramionach dźwigając cały ciężar przedsięwzięcia, nadając mu – lub też nie – jakiś sens. Żadna cywilizacja nie domawia przyjęcia całości tych nowych dóbr, ale każda nadaje jej szczególne znaczenie39. Rozmaitość kręgów społecznych powoduje zróżnicowanie procesów modernizacyjnych. Prowadzi również do multiplikowania koncepcji postępu. 37 Ibidem, s. 34. Ibidem, s. 43. 39 F. Braudel, Historia..., s. 306. 38 192 Wydawać się może, że sieciowy model rozwoju w sposób zasadniczy ogranicza możliwość zmiany progresywnej. W modelu tym dochodzi do dekonstrukcji przestrzeni i czasu. Przestrzeń ulega rozproszeniu, a uporządkowanie zdarzeń traci chronologiczny rytm, organizując się w sekwencje czasowe, uzależnione każdorazowo od kontekstu40. Miejsca wydarzeń stają się przestrzeniami przepływów, w które wkomponowany jest czas, pozbawiony swojej linearnej struktury. „Bezczasowy czas, pisze Castells, należy do przestrzeni przepływów, podczas gdy dyscyplina czasowa, czas biologiczny i społecznie zdeterminowane sekwencjonowanie charakteryzują miejsca na całym świecie, materialnie strukturując i destrukturując nasze sfragmentaryzowane społeczeństwa”41. Sieciowość jest modelem, który wyznacza obraz struktury społecznej i kierunki procesów społecznych. Kieruje się logiką zdecentralizowanej i rozprzestrzeniającej się struktury powiązań. Sieć wyznacza geografię przestrzeni, w której kluczową rolę odgrywają punkty węzłowe i połączenia. To one wyznaczają architekturę sieci. Rozwój w modelu sieci nie posiada przymiotu nieuchronności. Sieć tworzy matryce możliwości, potencjalnych kierunków rozwoju, które są jedynie możliwe, nigdy oczywiste. Model sieciowy jest systemem złożonym, a wiemy o podobnych systemach, „że są samoorganizujące i że stale tworzą nowe recepty, nowe rozwiązania istniejących problemów”42. Uczestnicy sieci są zawsze „tu i teraz”. Umiejscowienie ich w określonej przestrzeni i czasie jest mniej istotne niż ich uczestnictwo w procesie przepływu informacji i doświadczeń. Sieciowość oznacza decentralizację. O ile w klasycznej koncepcji postępu czas podporządkowywał sobie przestrzeń, to już w modelu sieciowym przestrzeń „rozpuszcza czas”, zaburzając linearny porządek zdarzeń, czyniąc je jednoczesnymi. Również sama przestrzeń ulega daleko idącej transformacji. Nie istnieje jedna przestrzeń, lecz wiele różnych, istniejących równolegle przestrzeni. Przestrzeń staje się miejscem jednoczesnych przepływów złożonym z punktów węzłowych i połączeń. Jej dynamikę napędza ciągły ruch we wszystkich kierunkach i w tym samym czasie. Karl Schlögel wskazuje, że w modelu sieciowym: przestrzeń jest otwarta we wszystkich kierunkach i tylko od nas zależy, w którą stronę pójdziemy. Jednym spojrzeniem obejmujemy to, co nas otaM. Castells, Społeczeństwo…, s. 459. Ibidem, s. 463. 42 I. Wallerstein, Utopistyka. Alternatywy historyczne dla XXI wieku, przeł. I. Czyż, Poznańska Biblioteka Anarchistyczna, Poznań 2008, s. 84. 40 41 193 cza: wszystko to, co znajduje się równocześnie i obok siebie, wokół nas. Wszystko, co ze sobą sąsiaduje, ukazuje się nam naraz. W tym samym czasie, jednocześnie. Świat w swojej złożoności jako całość, otoczenie 43. Czy więc w modelu, w którym zdarzenia nie kierują się logiką kolejności, lecz jednoczesności, w której przestrzeń nie ma początku ani końca, jest miejsce na postęp? Jest, ale jest on raczej możliwy, niż pewny. Możliwość postępu jest kwestią szacunku i wyboru między różnymi scenariuszami. Postęp zależy od ludzkiej kreatywności i woli zmiany, które nie są w żaden sposób ograniczane przez model sieciowy. Sieć tworzy nowe możliwości rozwoju. Sieciowy model rozwoju oparty jest na koncepcji społecznego konstruktywizmu. Sprowadza się ona do przekonania, że rozwój jest zależny od interakcji między uczestnikami przestrzeni społecznej; charakteryzuje się kulturą otwartości, dobrowolnej współpracy między uczestnikami. Przestrzeń ta oferuje wiele możliwości, których spełnienie zależy od wyboru określonych metod realizacji, wybór zaś opiera się na priorytetach określonych przez uczestników. Alternatywne sposoby działania tworzą alternatywne rezultaty. Nie istnieje jedna linia rozwoju, ale wiele alternatywnych linii, których wybór zależy od priorytetów określonych przez użytkowników sieci. Trudno tym samym mówić o jednej koncepcji postępu. Koncepcja postępu w modelu sieciowym to idea postępu zdecentralizowanego, którego kierunek i dynamikę napędzają potrzeby i twórcze zbiorowości44. Można powiedzieć, że postęp w modelu sieciowym ma charakter lokalny, obejmujący określony fragment sieci oraz konkretne działania uczestników działań sieciowych. Nie ma też gwarancji, że model sieciowy będzie generował rozwiązania progresywne w innych częściach struktury. W modelu sieciowym wszystko bowiem zależy od determinacji uczestników sieciowych społeczności. Jak zauważa YochaiBenkler, w płynnym środowisku sieci „zasady wyznawane przez jednostki stanowią moralny punkt wyjścia do rozważań o strukturach władzy i szans, wolności i dobrobytu”45. W opinii Andrzeja L. Zachariasza: K. Schlögel, W przestrzeni czas czytamy. O historii cywilizacji i geopolityce, przeł. I. Drozdowska, Ł. Musiał, Wydawnictwo Poznańskie, Poznań 2009, s. 44. 44 Por. Y. Benkley, Bogactwo sieci. Jak produkcja społeczna zmienia rybki i wolność, przeł. R. Próchniak, Wdawnictwo Akademickie i Profesjonalne, Warszawa 2008, s. 23. 45 Ibidem, s. 36. 43 194 Fakt funkcjonowania w kulturze wielu pojęć, a właściwie znaczeń czasu, oznacza, iż ludzie tej samej kultury w swoich działaniach, zwłaszcza w poszczególnych dziedzinach, mogą być determinowani przez różne wizje czasu. A więc w pewnych swoich działaniach funkcjonować w czasie kulturowych progresywnym, w innych – kołowym, a w jeszcze innych w czasie regresywnym, mitologicznym. I mimo iż w poszczególnych z nich mamy do czynienia z ich wzajemną wobec siebie konkurencyjnością, to jednak tak też dzieje się, że poszczególne z nich zyskują sobie pozycję dominujących w determinowaniu pewnych działań ludzkich 46. Wielość czasów determinuje mnogość modeli rozwojowych, które mogą istnieć niezależnie od siebie lub współistnieć w jednej przestrzeni społecznej albo kulturowej. Wszystko to sprawia, że nie istnieje jeden model rozwoju, ale że każdorazowo zależy on od koncepcji zmienności, którą uznamy za obowiązującą. To samo dotyczy idei postępu. Wielość modeli rozwojowych generuje mnogość koncepcji progresywnych, które mogą istnieć w ramach jednej kultury, konkurować ze sobą lub się uzupełniać. Dlatego odpowiedź na pytanie, czy idea postępu jest możliwa na gruncie innych niż liniowy modeli rozwojowych, powinna być, w mojej opinii, twierdząca. Warto jednak zaznaczyć, że oparcie idei progresywizmu na omówionych w tym artykule modelach, oznacza zmianę w rozumieniu samego postępu. Po pierwsze, należy przyjąć postawę umiarkowanego optymizmu, która wymusza pogląd, że postęp nie jest ani konieczny, ani nieuchronny i nie sposób go wywieść z samych wydarzeń historycznych. Procesy rozwojowe pełne są napięć i tarć, których źródłem jest równoczesna obecność zjawisk negatywnych i pozytywnych. Nie ma pewności, które z nich zaczną przeważać i zdecydują o ostatecznej ocenie rozwoju. Po drugie, postęp nie jest powszechny, nie obejmuje więc, jak chcieli apologeci idei postępu, całej ludzkości. Świat człowieka to rzeczywistość dalece złożona. Niektóre procesy obejmują całe grupy społeczne, a nawet całe narody i kultury. Inne mają charakter lokalny i oddziałują na niewielkie grupy ludzi. Nie ma pewności, czy pozytywne zjawiska występujące w jednej części świata będą wywoływały równie pozytywne zmiany w innych rejonach. Po trzecie, należy zrezygnować z przekonania, że postęp ma charakter ciągły. Na przykładzie oscylacyjnego modelu rozwoju widać, że choć zachowana jest ciągłość zmian, jednorodność rozwoju może zostać zaburzona. Proces rozwoju może meandrować, mogą nim targać zerwania, regresy i stagnacje, 46 A. Zachariasz, Kulturozofia, Wydawnictwo Uniwersytetu Rzeszowskiego, Rzeszów 2006, s. 310. 195 które, choć nie zawsze znoszą dotychczasowe osiągnięcia, mogą zaburzać rytm zmian. Po czwarte, i wydaje się, że najważniejsze, postęp nie jest procesem automatycznym, ale zależy od człowieka, jego determinacji i aktywności. Kierunek rozwoju, co wydaje się truizmem, determinowany jest przez potrzeby, oczekiwania, aspiracje i aktywność ludzi. Idea postępu powinna być postrzegana jako manifestacja wiary w możliwości człowieka. Wiara ta ma jednak charakter regulujący, a nie konstytutywny. Przekonanie o możliwości postępu to nade wszystko dostrzeżenie potencjalnych możliwości tkwiących w naturze człowieka i ujawniających się od czasu do czasu w różnych okresach dziejowych. Idea postępu jest ideacją oczekiwań człowieka, przekonaniem o możliwym doskonaleniu się w czasie, ale przekonaniem dalekim od pewności. Warto również pamiętać, że to nie postęp jest powszechny, ale dążenie do niego. Leszek Kleszcz Uniwersytet Wrocławski W STRONĘ „NOWEGO WSPANIAŁEGO ŚWIATA” Filozoficzny namysł nad miejscem i rolą techniki zmienia się, nabierając coraz większego znaczenia. W starożytności technika nie zajmowała jakiegoś szczególnego miejsca w rozważaniach filozoficznych. Uwagi o technice pojawiały się na marginesie rozważań metafizycznych, epistemologicznych czy etycznych. Pierwszym filozofem, który nieco więcej uwagi poświęcił problemowi techniki był Arystoteles1. Technika w jego ujęciu była zjawiskiem neutralnym, narzędziem pozwalającym realizować różne cele, a o ocenie techniki decydował użytek, jaki człowiek z niej czynił. To zdroworozsądkowe podejście do techniki, traktujące ją jako coś „neutralnego i autonomicznego”, a zarazem niezajmującego jakiegoś istotnego miejsca w refleksji filozoficznej, długo dominowało w podejściu filozofii do techniki. Nowe elementy zaczęły pojawiać się w początkach nowożytności, kiedy to, wraz z rozwojem nauki, zaczęła rodzić się kultura technokratyczna. W kulturze wcześniejszej, którą można określić jako kulturę narzędzi, nowe wynalazki miały rozwiązywać konkretne problemy praktyczne lub pełniły funkcje służebne w świecie symbolicznym. „W technokracji – jak zauważa N. Postman – narzędzia odgrywają centralną rolę w intelektualnym świecie kultury. Wszystko musi, do pewnego stopnia, ustąpić przed ich rozwojem. (…) Narzędzia nie integrują się z kulturą; one kulturę atakują. Głoszą, że same są kulturą”2. Jednocześnie, wraz z rozwojem nauki i kolejnymi wynalazkami, rodzi się ideologia technokratyczna. Za prekursora, a zarazem głównego „architekta nowego gmachu myśli” powszechnie uznaje się Francisa Bacona, filozofa przekonanego, iż „wiedza jest potęgą”, a człowiek dzięki rozwojowi nauki i techniki może stać się panem natury. Bacon był też jednym z pierwszych filozofów, którzy wskazywali na znaczącą rolę techniki w kształtowaniu 1 A. Kiepas, Problematyka techniki w dziejach filozofii, [w:] Filozofowie o technice. Interpretacje dawne i współczesne, red. L. Zacher, Krajowa Agencja Wydawnicza, Warszawa 1986, s. 16. 2 N. Postman, Technopol. Triumf techniki nad kulturą, przeł. A. Tanalska- Dulęba, WWL Muza, Warszawa 2004, s. 43. 198 ludzkiego świata3. W Novum Organum pisał np. o konsekwencjach wynalezienia druku, prochu i busoli: „Te trzy wynalazki zmieniły całkowicie oblicze rzeczy i stosunków na świecie; pierwszy w dziedzinie nauk, drugi w sztuce wojennej, trzeci w żegludze morskiej. W ślad za tym poszły niezliczone dalsze zmiany, tak, że żadna władza, żadna sekta, żadna gwiazda nie wywarła – zdaje się – większego skutku i jakby wpływu na sprawy ludzkie niż te wynalazki mechaniczne”4. Literackim wyrazem wiary Bacona w „potęgę nauki i techniki” była Nowa Atlantyda5, której kluczowym elementem jest opis Domu Salomona, czyli instytucji poświęconej „badaniom dzieł oraz stworzeń Bożych”. Jej celem miało być „zgłębianie stosunków, zmian i sił wewnętrznych natury, tudzież rozszerzanie – jak tylko to będzie możliwe – granic władztwa ludzkiego nad nią”6. Dzięki nauce mieszkańcy Nowej Atlantydy żyli w dobrobycie, zdrowiu i bezpieczeństwie, a zarazem byli rozsądni, życzliwi i tolerancyjni. W wieku Oświecenia czymś powszechnym stała się Baconowska wiara w potęgę nauki, przekonanie, że wszystkie bolączki życia społecznego i indywidualnego można rozwiązać dzięki nauce i technice, których rozwój umożliwi poprawę warunków życia, rozwój ekonomiczny i racjonalną organizację życia społecznego. Kultura technokratyczna zrodziła się w wieku XVII, ale zaczęła dominować w wieku XIX. Ważnym dopełnieniem dokonującej się wtedy rewolucji naukowo–technicznej była „rewolucja informacyjna”, na którą złożyło się wynalezienie fotografii, telegrafu, rotacyjnej maszyny drukarskiej, maszyny do pisania, telefonu czy filmu7. W wieku XX rola techniki coraz bardziej rosła, a świat zaczął przekształcać się w, jak go nazywa Postman, „technopol”, będący pewnym stanem kultury, ale również umysłu, polegającym na „deifikacji techniki, co oznacza, że kultura poszukuje sankcji w technice, znajduje w niej satysfakcje i przyjmuje od niej rozkazy”8. Technopol rodzi nowy porządek społeczny, preferuje pewne postawy, sposoby myślenia, wartości, zarazem eliminując alternatywne postawy i światopoglądy. Oczywiście, ani Por. A. Kiepas, Problematyka…, s. 21-22. N. Postman, Technopol…, s. 52. 5 J. Szacki, Słowo wstępne [w:] F. Bacon, Nowa Atlantyda. Z Wielkiej Odnowy, tłum. W. Kornatowski, J. Wikarjak, Wydawnictwa Alfa, Warszawa 1995, s. 6. 6 F. Bacon, Nowa Atlantyda…, s. 70. 7 Por. N. Postman, Zabawić się na śmierć, tłum. L. Niedzielski, WWL Muza, Warszawa 2004. 8 N. Postman, Technopol..., s. 91. 3 4 199 kultura technokratyczna, ani technopol nie były, ani nie są (mam nadzieję) wszechmocne i optymizm technofilów spotykał się z krytyką, początkowo rzadką, później coraz częstszą. Jednym z pierwszych krytyków dostrzegających już w XVIII wieku ciemne strony tego procesu był J. Swift, a jego odpowiedzią na Nową Atlantydę była podróż Gullivera do Laputy. Swift wskazywał na naiwność optymistycznych wyobrażeń Bacona o doskonałym świecie stworzonym przez naukowców. Wprawdzie mieszkańcy Laputy doskonale radzili sobie z teorią, byli bardzo sprawni w posługiwaniu się linijką, cyrklem i ołówkiem, ale gdy przychodziło do „zwykłych działań życiowych nie widziałem – opowiada Gulliver – nigdy ludzi bardziej niezdarnych, zagubionych i niezręcznych, ani myślących tak powoli i w sposób tak zagmatwany o wszystkim, prócz matematyki i muzyki”9. Odpowiednikiem Baconowskiego Domu Salomona jest u Swifta „Akademia Projektorów”, w której różni naukowcy pracowali nad nowymi wynalazkami, mającymi udoskonalić technikę, rolnictwo, budownictwo, język, politykę i sprawić, że dzięki ich genialnym odkryciom życie stanie się łatwe, proste i wygodne, natura wyjawi wszystkie swoje tajemnice, a ludzie „staną się jako bogowie”. Dzięki wymyślonym przez nich narzędziom „jeden człowiek zdoła wykonać pracę dziesięciu, a pałac da się wybudować w tydzień, i to z materiałów tak odpornych, że przetrwają całą wieczność bez naprawy. Wszystkie płody będą dojrzewały w każdej porze, którą uznamy za stosowną, a plon z nich zbierzemy stukrotnie większy niż obecnie”10. Jeden ze spotkanych przez Gullivera naukowców pracował nad wyciągiem promieni słonecznych z ogórków, które można byłoby przechowywać w specjalnych naczyniach i wypuszczać zimą dla ogrzania pomieszczeń. Inny przeprowadzał eksperymenty mające pozwolić na zamianę ludzkiego kału z powrotem w żywność, a jeszcze inny „wyprażał proch strzelniczy z lodu”. W kolejnym instytucie badawczym zastanawiano się nad udoskonaleniem języka. Jeden z naukowców proponował skrócenie rozmów poprzez redukcję wyrazów wielosylabowych do jednej sylaby, inny z kolei zasugerował „odrzucenie wszystkich w ogóle słów; co zalecano jako wielce korzystne z punktu widzenia zdrowia i zwięzłości”11. Gulliver odwiedził jeszcze szereg innych instytutów, w których prowadzono najróżniejsze badania. Jedyny problem związany z nimi polegał na tym, „że żaden z tych projektów nie osiągnął jeszcze pełnej doskonałości, a w oczekiwaniu, że się tak stanie J. Swift, Podróże do wielu odległych narodów świata, tłum. M. Słomczyński, Wydawnictwo Literackie, Kraków 1982, s. 177. 10 Ibidem, s. 192. 11 Ibidem, s. 200. 9 200 cały kraj popadł w nędzę i leży odłogiem, domy popadają w ruinę, a ludziom brak odzienia i żywności”12. Ostatecznie, po bliższym poznaniu tego świata i kilkumiesięcznym pobycie wśród naukowców pracujących nad „udoskonaleniem ludzkiej kondycji”, Gulliver nie marzy o niczym innym, jak tylko o tym, by móc wreszcie znaleźć się wśród zwykłych, głupich, niedouczonych Anglików. W wieku XVIII z kolei krytyczną odpowiedzią na optymizm Oświecenia była filozofia J.J. Rousseau, zastanawiającego się nad tym, czy odkrycia i wynalazki są rzeczywistym postępem czy tylko „girlandami kwiatów”, przykrywającymi coraz cięższe kajdany. W wieku XIX wprawdzie dominował pozytywistyczny optymizm wspierany przez dokonującą się rewolucję naukowo–techniczną, ale zarazem zaczęły być dostrzegalne ciemne strony procesu racjonalizacji i technicyzacji życia, a wiara w eudajmoniczno–eschatologiczną moc nauki i ideologii zaczęła się nieco chwiać, powoli jęto sobie uświadamiać, że „lepsze bywa wrogiem dobrego”, a „marzenia jednych bywają koszmarami innych”. To uczucie niepokoju pojawia się np. w twórczości Dostojewskiego13. W 1863 roku Czernyszewski napisał powieść Co robić?, w której w jednym z rozdziałów opisany jest pałac ze szkła i żelaza, symbolizujący doskonałą cywilizację przyszłości, będącą realizacją ideałów Oświecenia. Odpowiedzią Dostojewskiego były Notatki z podziemia. Kryształowy Pałac, będący symbolem zrealizowanej naukowej utopii w „człowieku podziemnym”, zamiast zachwytu budzi przerażenie14. Cywilizacja wcale nie oznacza dlań rzeczywistego postępu, gdyż „wyrabia w człowieku jedynie wielostronność wrażeń ... i zgoła nic więcej”15. Według Dostojewskiego, idealne społeczeństwo przyszłości jest nie tylko nierealne z uwagi na to, iż ideolodzy Oświecenia operują prymitywną, uproszczoną koncepcją natury ludzkiej. Ale jest także niepożądane, gdyż realizacja takiego doskonale racjonalnego świata, o jakim marzą, oznaczałaby unicestwienie ludzkiej wolności i zamianę człowieka w „sztyft w maszynie”. Bo przecież, jak zauważa Dostojewski, taka doskonale 12 Ibidem, s. 192. Por. P. Sloterdijk, Kryształowy Pałac. O filozoficzną teorię globalizacji, tłum. B. Cymbrowski, Wydawnictwo Krytyki Politycznej, Warszawa 2011, s. 211214; por. także L. Kleszcz, Żelazna klatka racjonalności [w:] Aesthesis i Ratio: człowiek w przestrzeni kultury i estetyki, red. J. Krasicki, T. Akindynowa, Z. Pietrzak, Oficyna Wydawnicza Arboretum, Wrocław 2014, s. 33-48 14 F. Dostojewski, Notatki z podziemia, tłum. G. Karski, Wydawnictwo Puls, Londyn 1992. 15 Ibidem, s. 22-23 13 201 racjonalna istota mogłaby „na trzydzieści lat z góry obliczyć swoje życie”. „Idealne” społeczeństwo przyszłości byłoby możliwe do zrealizowania jedynie za cenę mechanizacji, reifikacji, kastracji człowieczeństwa. Nie tylko nie byłby to świat pożądany, ale wręcz przerażający: Państwo wierzycie w kryształowy gmach – mówi „człowiek podziemny” – który będzie stać przez wieczność, czyli taki, któremu nie będzie można nawet ukradkiem pokazać języka albo przez kieszeń wystawić figi. Jeżeli o mnie chodzi, to ów gmach właśnie dlatego przejmuje mnie lękiem, że jest kryształowy, że ma trwać całą wieczność i że nie będzie można nawet ukradkiem pokazać mu języka16. W wieku XIX wątpliwości mieli nieliczni, dopiero w wieku XX w szerszej skali pojawiło się, spotęgowane przez dwie wojny światowe zjawisko „kryzysu przyszłości”. Jednym z przejawów tego przekonania był „wysyp antyutopii”, które tworzyli m. in. G. H. Wells, E. Zamiatin, A. Huxley, G. Orwell, R. Bradbury, A. Burgess, U. Le Guinn, czy K. Vonnegut17. Czytelnicy antyutopii przez wiele lat dzielili się na zwolenników Huxleya lub Orwella. Obecnie wydaje się, że w tej rywalizacji zwyciężył Huxley, a jego wizja „nowego wspaniałego świata” wciąż nabiera aktualności, natomiast Orwellowska wizja totalitarnego społeczeństwa, po upadku komunizmu nieco zbladła. Choć niektórzy uważają, że majaczy przed nami na horyzoncie przerażający świat będący połączeniem „nowego wspaniałego świata” z Orwellowską Oceanią. W „nowym wspaniałym świecie” wyeliminowano wojny, choroby, niedostatek, cierpienie, objawy starości. Stworzono społeczeństwo doskonale stabilne. Warunkiem owej stabilności jest pełna kontrola, którą osiągnięto dzięki standaryzacji i zastosowaniu zasad racjonalnej produkcji do ludzi. Cała populacja jest stale kontrolowana, wciąż gromadzone są informacje dotyczące ilości ludzi, potrzeb demograficznych i przemysłowych. Stosownie do potrzeb rynku produkuje się ludzi posiadających pożądane cechy osobowościowe i intelektualne. Jest to możliwe dzięki temu, że już ludzkie zarodki poddaje się procesowi „wybutlania”, czyli warunkowania, otrzymując w efekcie odpowiednią liczbę alf, bet oraz „zbokanizowanych”, czyli zwielokrotnionych gamm, delt i epsilonów. 16 Ibidem, s. 32. Nieco szerzej problem antyutopii przedstawiam w artykule Od utopii do antyutopii [w:] Rzecz piękna, mądra, dobra i wszystko, co takie..., red. J. Zieliński, S. Barć, A. Lorczyk, Oficyna Wydawnicza Arboretum, Wrocław 2014, s. 137-150. 17 202 W tym świecie wszyscy (a dokładniej prawie wszyscy) są szczęśliwi, gdyż zawsze otrzymują wszystko, czego zapragną, a nigdy nie pragną czegoś, czego nie mogą otrzymać. Są zamożni, bezpieczni, zawsze zdrowi; nie boją się śmierci; żyją w stanie błogiej niewiedzy o namiętnościach i starości, nie prześladują ich matki i ojcowie; nie mają żon, dzieci, kochanków ani kochanek budzących silne uczucia, są tak uwarunkowani, że praktycznie nie są w stanie postępować inaczej niż powinni. A jak coś nie gra pozostaje soma… 18. Soma jest narkotykiem posiadającym „wszystkie zalety chrześcijaństwa i alkoholu i żadnej z ich wad”. Życie w „nowym wspaniałym świecie” jest proste: „7,5 godziny lekkiej, niewyczerpującej pracy, potem racja somy, seks bez ograniczeń i czuciofilmy”. Oczywiście, można by skrócić czas pracy, nawet próbowano to zrobić, ale wtedy bardzo wzrosło spożycie somy, bo ludzie nie wiedzieli, jak zagospodarować ten nadmiar wolnego czasu. Dążąc do szczęścia, zlikwidowano sztukę, wykastrowano naukę, sprowadzając ją tylko do technologii, wyeliminowano także religię, bo Boga zbyt trudno było pogodzić z maszynami, naukową medycyną i powszechnym szczęściem. Wyeliminowano potencjalne źródła wielkich namiętności, bo cywilizacja przemysłowa nie potrzebuje szlachetności czy heroizmu. „Cywilizacja przemysłowa jest możliwa tylko przy braku poświęcenia. Dlatego należy używać aż do granic wyznaczonych higieną i ekonomią. W przeciwnym razie turbiny staną”19. W wieku XX wątpliwości, co do kierunku, w jakim zmierza ludzka cywilizacji oraz głębszy namysł nad istotą i funkcją techniki, stały się przedmiotem rozważań nie tylko literatów, ale również filozofów, socjologów czy antropologów. Bardzo ważne znaczenie dla rozwoju krytycznego namysłu miały diagnozy Maxa Webera. Zastanawiając się na specyfiką kultury zachodniej, doszedł on do wniosku, że jest nią racjonalizm, którego istotę stanowi podejście instrumentalno–kalkulacyjne. Tylko na Zachodzie powstała racjonalna nauka, racjonalne prawo, racjonalne państwo, a przede wszystkim racjonalny kapitalizm. W szczególny sposób splatając się, stworzyły cywilizację, która zdominowała cały świat. Ale racjonalizacja, po pierwsze, jest procesem ambiwalentnym. Z jednej strony oznacza ona „odczarowywanie świata”, zwiększenie 18 A. Huxley, Nowy wspaniały świat, tłum. B. Baran, Wydawnictwo Literackie, Kraków 1988, s. 229. 19 Ibidem, s. 246. 203 możliwości jego podporządkowania, ale zarazem „odczarowywanie” rodzi poczucie braku jakiegoś „kosmicznego ładu” i przypadkowości ludzkiej egzystencji. Po wtóre,być może najistotniejsze z dzisiejszego punktu widzenia jest twierdzenie Webera, że proces racjonalizacji wymknął się spod kontroli. Ludzkość już nie może tym procesem dowolnie sterować, a świat zracjonalizowany coraz bardziej zaczyna przypominać, jak pisał Weber, „żelazną klatkę”, która się za nami zatrzasnęła20. Weber nie był jedynym krytykiem cywilizacji zachodniej. W podobnym duchu o „tragedii kultury” pisał Simmel. Spengler wskazywał na nieunikniony zmierzch kultury opanowanej przez ducha faustycznego. Ortega mówił o związanej z rozwojem naukowym i technologicznym konieczności „barbarzyństwa specjalizacji”. Bierdiajew obawiał się spowodowanej przez technologiczny humanizm desakralizacji kultury, Adorno i Horkheimer mówili o dialektyce Oświecenia, która sprawia, że procesy racjonalizacji i autonomizacji przekształcają się w swoje przeciwieństwo, Heidegger o rządach „ze–stawu”, a Gehlen o dezintegracji i deinstytucjonalizacji kultury. Prace wymienionych i wielu innych myślicieli sprawiły, że zmienił się charakter refleksji nad miejscem i rolą techniki w świecie współczesnym, nabrała ona bardziej poważnego i głębszego charakteru. Wyraźniej dostrzegalna stała się problematyczność rozwoju technologicznego. Wprawdzie, jak zauważa D. Birnbacher, świat ludzki „zawsze był odmienny od świata przyrody, ale nigdy jeszcze różnice te nie były tak wyraziste i jawnie widoczne”21. Przedmioty wytworzone przez współczesną technikę charakteryzuje „spotęgowana techniczność”, tzn. zostały one wielokrotnie przekształcone, przez co stały się odległe od bezpośredniego związku z przyrodą22. O ile jeszcze np. wiatraki czy lokomotywy posiadały jakieś dostrzegalne związki czy analogie ze światem przyrody, o tyle współczesne technologie stały się coraz trudniej zrozumiałe, abstrakcyjne, odmienne od świata natury. Obcość świata stechnicyzowanego potęgują także jego wymiary. Współczesna technika, zarówno „w wielkiej i małej skali (…) M. Weber, Nauka jako zawód i powołanie, (w:) tegoż, Polityka jako zawód i powołanie, tłum. A. Kopacki, P. Dybel, Znak, Kraków-Warszawa 1998, s. 140. 21 D. Birnbacher, Technika, [w:] Filozofia. Podstawowe pytania, red. E. Martens, H. Schnädelbach, tłum. K. Krzemieniowa, Wiedza Powszechna, Warszawa 1995, s. 649. 22 Ibidem, s. 650. 20 204 przekracza miarę znaną ludziom i nabiera przez to cech niesamowitości”23. Kolejną cechą współczesnej techniki jest globalizacja, co z jednej strony potęguje „dobrodziejstwa, które niesie”, ale z drugiej również ryzyko i skalę ewentualnych katastrof24. Inną konsekwencją globalizacji jest homogenizacja, uniwersalizacja i likwidacja odrębnych tradycji i kultur. Homogenizacja dotyczy nie tylko świata zewnętrznego, ale także ludzi i ich zachowań, gdyż „Jednolita technika wymaga również ujednolicenia kwalifikacji zawodowych, programów kształcenia i stylów życia”25. Racjonalność techniczna narzuca sposób myślenia nakierowany na obiektywność, empiryczną kontrolę i efektywność. Rosnąca ekspansywność współczesnej techniki wymaga innego spojrzenia. Interesującą koncepcję, będącą kumulacją różnych krytycznych wobec techniki wątków, przedstawił J. Ellul. Badając rolę techniki w społeczeństwie współczesnym, stworzył teorię pozwalającą lepiej zrozumieć siły skrywające się za rozwojem cywilizacji technicznej26. Punktem wyjścia jego filozofii było odejście od wąskiego ujęcia techniki jako narzędzia na rzecz podejścia szerokiego, traktującego technikę jako sposób tworzenia, przekształcania i przekazywania informacji. Technika jest dlań „sposobem działania”, ogółem odznaczających się efektywnością środków i metod, racjonalnie stosowanych do osiągnięcia zamierzonych celów. Powstaje ona jako rezultat poszukiwania w każdej dziedzinie optymalnego środka. Tym, co konstytuuje istotę techniki współczesnej, jest jej „zorientowanie na efektywność i bezwzględną skuteczność”27. Tak pojmowana technika jest obecna we wszystkich obszarach ludzkiego życia, a zmiany związane z jej rozwojem sprawiły, że zyskała ona „nowy status ontologiczny”. Stała się bytem obiektywnym, niezależnym od człowieka i rozwijającym się według własnych, immanentnie przysługujących jej praw. Podporządkowała sobie wszystkie sfery życia, zarówno indywidualnego, jak i społecznego, kreując nowy typ społeczeństwa – społeczeństwo techniczne. Jej przekazywanie nie napotykając żadnych ograniczeń prowadzi do uformowania się powszechnej jedności cywilizacyjnej28. 23 Ibidem, s. 651. Ibidem. 25 Ibidem, s. 652. 26 R. Merton, Foreword, [w:] J. Ellul, The Technological Society, Vintage Books, New York 1964, s. VI. 27 Por. J. Falborska, Determinizm techniczny Jaquesa Ellula, [w:] Filozofowie o technice, op. cit., s. 169. 28 Ibidem. 24 205 Technika nie jest wyizolowanym zjawiskiem społecznym, ale odnosi się do wszelkich aspektów życia człowieka współczesnego29. Według Ellula, mamy obecnie do czynienia nie tyle z techniką jako zbiorem narzędzi, co raczej z pewną spójną całością, z autonomicznym „systemem technicznym”, który coraz bardziej uniezależnia się od człowieka. Uważa on, że indywidualne decyzje są zawsze dokonywane w ramach pewnej rzeczywistości społecznej, która je poprzedza i warunkuje. Człowiek prymitywny był ograniczony przez różnego rodzaju zakazy, tabu czy rytuały. Człowiek współczesny w dużej mierze uwolnił się od takich ograniczeń, ale złudzeniem, według Ellula, jest sądzić, że staliśmy się wolni30. W świecie współczesnym zjawisko „technologizacji” życia jest najgroźniejszą formą zagrożenia ludzkiej wolności. Technika ma charakter ekspansywny, wkracza do wszelkich obszarów życia, nie jest już czymś, w stosunku do czego człowiek mógłby zachować dystans, lecz jest z nim zintegrowana, stopniowo przenikająca w kolejne sfery ludzkiego życia31. Technika nie tylko stopniowo ogranicza ludzką wolność, ale, co gorsza, ludzka wolność jest dla niej zagrożeniem, gdyż racjonalność technologiczna wymaga przewidywalności32. Technika narzuca alternatywę typu „wszystko albo nic”. Jeżeli decydujemy się na użycie techniki, to musimy zaakceptować specyfikę i autonomię jej celów oraz totalność jej zasad. Nasze własne pragnienia i aspiracje niczego nie mogą zmienić33. Według Ellula, jak zauważa J. Falborska, ważnym „czynnikiem ukształtowania się i rozwoju technicznego była... eksplozja informatyczna, która umożliwiła „pojawienie się zespołu zapośredniczeń, konstytuujących technikę w system”. Technika nie jest jedynie systemem „jest również środowiskiem, które tworząc wokół człowieka szczelny pancerz bez reszty go determinuje”. Jednak jest to inny rodzaj determinacji niż w wypadku środowiska naturalnego, ma ono znacznie bardziej radykalny charakter, gdyż „technika wkracza bezpośrednio w życie człowieka żądając przystosowania się”, stając się „najważniejszą siłą dominującą w świecie, a nie tylko jednym z wielu równorzędnych czynników”34. 29 J. Ellul, Note to the Reader, [w:] J. Ellul, The Technological Society, op. cit., s. XXV. 30 J. Ellul, Authors Foreword to the Revised American Edition, [w:] J. Ellul, op. cit., s. XXIX. 31 Ibidem, s. 6. 32 Ibidem, s. 138 33 Ibidem, s. 141. 34 J. Falborska, Determinizm…, s. 171-172. 206 Instrumentalny charakter techniki przenika wszystkie sfery życia, stając się sposobem myślenia, działania, wartościowania, a „doskonałość środków i metod staje się dominującym celem i wartością”35. Istotą myślenia technicznego jest dążenie do efektywności, która jest połączeniem racjonalności i sztuczności. „Racjonalność sprowadza się do eliminacji wszystkiego, co żywiołowe, spontaniczne na rzecz tego, co wykalkulowane, mechaniczne i zrutynizowane. Upowszechnienie się tego typu racjonalności w sferze procesów technicznych nie pozostaje bez wpływu na kształtowanie się adekwatnych do niego form aktywności ludzkiej i modyfikacji samej osobowości człowieka”36. Zasadniczym celem wychowania czy, szerzej, kultury staje się przystosowanie. W świecie stechnologizowanym człowiek zostaje odpodmiotowiony, ponieważ technika rozwija się w sposób automatyczny, bez udziału człowieka, a dokładniej, to człowiek staje się jej narzędziem. „Nie mogąc już wybierać ani środków, którymi chce się posługiwać ani celów do których chce zmierzać, gdyż technika (…) decyduje za niego”37. Dominacja techniki i technologicznego myślenia prowadzi do kryzysu demokracji i stwarza „sprzyjające warunki do kształtowania się społeczeństwa totalitarnego”, choć jest to nowy totalitaryzm, który „manifestuje się w odmiennych formach zdeterminowanych przez wpływ techniki. Najważniejsza różnica między „klasycznym totalitaryzmem” a „nowym” polega na tym, że nie stosuje on bezpośredniego terroru czy przemocy fizycznej”38. Bardziej efektywne niż zwykła przemoc, są „niewidzialne technologie”, kształtujące sposoby myślenia, systemy wartości, język i będące ich konsekwencją sposoby zachowań. Krytycyzm, obawy co do kierunku, w jakim zmierza świat zdominowany przez nowe technologie, obecnie, nasilają się. Próbując jakoś króciutko podsumować te bardzo różne, krytyczne wątki, wydaje mi się, że można zakreślić kilka kręgów. Krąg 1 to konsumpcjonizm. Nowe technologie potrzebują przede wszystkim konsumentów. Efektem tej potrzeby jest stale dokonująca się infantylizacja kultury, której sedno tworzy preferowanie tego, co łatwe, nad tym, co trudne, prostego nad złożonym czy szybkiego nad powolnym39. 35 Ibidem, s. 173. Ibidem, s. 174. 37 Ibidem, s. 182. 38 Ibidem, s. 185. 39 B. Barber, Skonsumowani. Jak rynek psuje dzieci, infantylizuje dorosłych i połyka obywateli, tłum. H. Jankowska, WWL Muza, Warszawa 2008, s. 132. 36 207 Krąg 2 tworzy dobrowolne zniewolenie, a więc uleganie modom, presji rynku, uzależnienie się od technologii, która, jak twierdzą ideolodzy, a my w to wierzymy, służy naszemu dobru, a dokładniej wygodzie. Krąg 3 również związany jest z problemem zniewolenia, niemającym już jednak tak dobrowolnego charakteru. Rynek, siły ekonomiczne, nowe technologie stanowią ważną siłę kształtującą nasze zachowania. O konsumentach nieustannie zbierane są informacje, które są wykorzystywane do manipulowania nastrojami, preferencjami, zachowaniami. Wielkość gromadzonych informacji, ich skala stale rośnie. Nie są to tylko cookies pojawiające się nieustannie w internecie, ale również kamery, satelity wciąż nas fotografujące, urządzenia umożliwiające obserwację, podsłuch, inwigilację, manipulację. Wszystkie te aktualne i potencjalne źródła wiedzy stanowią potężne narzędzie władzy, która już obecnie jest wykorzystywana przez różne firmy PR–owe czy polityków. Na razie, jak się wydaje, występuje ona w rozproszonej formie, ale jeżeli ktoś spróbuje ją scalić, to może stać się narzędziem władzy totalnej. Jest to motyw, który powtarza się np. u Postmana, Barbera czy Fukuyamy, sugerujących, że być może zmierzamy w stronę świata będącego połączeniem wizji Huxleya z Orwellem. Zwłaszcza, że to, co „najciekawsze”, a więc powszechne zastosowanie nanotechnologii, chipowanie, manipulacje genetyczne, jest dopiero przed nami. Z problem ograniczenia wolności, postrzeganym z nieco innej strony, związana jest też coraz większa trudność nieuczestniczenia w tym „nowym wspaniałym świecie”, gdyż nie ma już żadnych „Dzikich Pól” czy jakiegoś „Dzikiego Zachodu”, gdzie można by żyć „poza komórką i internetem”. Krąg 4 – kolejny krąg związany jest z problemem odpodmiotowienia człowieka. Człowiek przestaje być, a może od dawna już nie jest, autonomicznym podmiotem tego procesu. Wydaje się, że naszym udziałem zaczyna być przypadek „ucznia czarnoksiężnika”. Technika i leżąca u jej podstaw racjonalność instrumentalna coraz częściej wymusza na człowieku pewne zachowania, reakcje, eliminując inne typy racjonalności. Krąg 5. U podstaw racjonalności instrumentalnej leży światopogląd naturalistyczny. Optymizm technologiczny przesłania tragizm istnienia związany z tym światopoglądem, a przecież w tej wizji Ziemia jest tylko przypadkowym strzępem materii wędrującym znikąd donikąd, ludzkość to tylko „mądre zwierzęta”, które na chwilę pojawiły się na tym strzępie, a sam człowiek jest tylko narzędziem „egoistycznego genu”, żywiącym się złudzeniami o wolności, autonomii, podmiotowości. A przecież bez owej świadomości „tragizmu istnienia”, przerażenia „wiekuistą ciszą nieskończonych przestrzeni” niemożliwe staje się owo przebudzenie, o którym mówili Pascal, Kierkegaard czy Nietzsche. 208 Z tym niebezpieczeństwem trwania w „drzemce egzystencjalnej” związany jest kolejny 6 krąg – krąg metafizyczny. Dominacja naturalizmu traktowanego jako Prawda, niekwestionowalna oczywistość, przesłania inne sposoby myślenia, już u swoich podstaw uniemożliwiając pewne pytania, odrzucając je jako „bezsensowne”. A więc jest to ten problem, na który zwracał uwagę Heidegger w kontekście rządów zestawu i „końca filozofii”. Na koniec oczywiście klasyczne pytanie: co robić? Najgorsze jest to, że nikt nie potrafi udzielić przekonującej i porywającej odpowiedzi na to pytanie. Większość – od Webera, poprzez Simmla, Spenglera, aż po Ellula i Postmana – proponuje jakąś odmianę „heroizmu tragicznego”, „rady dla pojedynczego”. Istotą tego heroizmu byłoby nie dać się uwieść technopolowi, zachować wewnętrzny dystans, krytycyzm, w skrajnym wypadku heroicznie trwać na posterunku, jak ów strażnik z Pompejów, którego przywołuje Spengler. Heidegger chciał chronić inne myślenie, Jaspers postulował tropienie „szyfrów Transcendencji”, Ricoeur mówił o ożywieniu myślenia symbolicznego. Ale czy jest to rzeczywiste rozwiązanie? Czy paru dziwaków powtarzających wciąż: nie wiem skąd, dokąd ani po co (i dlatego pytam), może zmienić bieg dziejów? Niestety, ostateczna konkluzja nie wydaje mi się zbyt optymistyczna, być może rację miał Heidegger mówiąc o tym, że „tylko Bóg mógłby nas uratować”? Jacek Sobota Uniwersytet Warmińsko-Mazurski w Olsztynie POSTĘP TECHNOLOGICZNY GENERATOREM REGRESU MORALNEGO? PARADOKSALNE OBLICZA POSTĘPU W LITERATURZE SCIENCE FICTION 1. Uwagi wstępne Literatura science fiction, nazywana w naszym kraju „fantastyką naukową”, uchodzi za rodzaj „narracji translacyjnej”, w dość wąskim rozumieniu tego określenia. Przypisuje się mianowicie fantastyce rolę tłumacza i propagatora zmian zachodzących w galopującym tempie w rzeczywistości nas otaczającej. Tak było w istocie, ale w przeszłości, w okresie tzw. Złotego Wieku literatury fantastycznej – w latach 50. ubiegłego wieku. Linearny postęp technologiczny szedł w tamtych kreacjach literackich w parze z doskonalącą się moralnie ludzkością. Literatura science fiction jednak ewoluowała (wraz z empiryczną obserwacją rzeczywistości); świat ludzki niekoniecznie zmieniał się na lepsze, a doskonalące się środki techniczne oznaczały „postęp w regresie”, czyli w ramach samozniszczenia, autodegradacji naszego gatunku. Takoż pisarze, szczególnie ci obdarzeni darem wnikliwej obserwacji rzeczywistości nas otaczającej, jak Stanisław Lem czy Philip K. Dick, jęli rozsnuwać wizje przyszłości niezbyt optymistyczne, a wręcz tchnące pesymizmem, czarnowidztwem, niewiarą w proporcjonalność postępu technologicznego i moralnego ludzkości. Tak oto gatunek literacki arbitralnie wyznaczony do roli piewcy przyszłości, stał się nieoczekiwanie owej przyszłości surowym krytykiem. 2. Krótko o postępie Termin „postęp” bywa uznawany za synonim rozwoju, ewolucji, rozrostu. Jak słusznie konstatuje Marian Mroziewski, termin ten nabiera sensu dopiero w powiązaniu z konkretnymi treściami, ponieważ „postęp w ogóle nie istnieje”1. 1 M. Mroziewski, Postęp społeczny jako wartość ideologiczna, w: Z zagadnień współczesnej aksjologii, red. S. Opary i E. Starzyńskiej-Kościuszko, Wyższa Szkoła Pedagogiczna, Olsztyn 1996, s. 169. 210 Koncepcja postępu społecznego, w opinii Jerzego Szackiego2, sięga swymi korzeniami dość płytko – bowiem jej początki odnotować można w okresie Oświecenia, w światopoglądzie Anne Roberta Jacquesa Turgota i Jeanna Antoine’a Nicolasa de Condorceta3). Pierwszy wyłożył swe poglądy w dziele Discours sur l’histoire universelle (1750); drugi – w Szkicu obrazu postępu ducha ludzkiego poprzez dzieje (1794). W teorii postępu stworzonej przez Turgota i Condorceta znalazły wyraz nowe wówczas postawy wobec faktu zmienności świata społecznego, która długo uchodziła za niepożądaną lub pożądaną jedynie o tyle, o ile prowadziła do osiągnięcia stanu doskonałości będącego ex definitione stanem stabilności (wszak wszelka zmiana stanu doskonałości może być tylko zmianą na gorsze, co wiemy już od czasów Platona). W teorii postępu nie ma po tym przekonaniu śladu. Turgot uznawał stopień mobilności społeczeństwa za jedną z jego cech konstytutywnych (istotniejszą nawet niż rodzaj ustroju politycznego), a także twierdził, iż mobilność jest zawsze czymś pożądanym, ponieważ przynosi nowe doświadczenia, a tym samym szansę pomnażania wiedzy. Błąd popełniony w trakcie szukania nowych rozwiązań stanowi mniejsze niebezpieczeństwo aniżeli bezmyślna imitacja prawdy odkrytej w przeszłości. Dzieje, z tego punktu widzenia, okazują się swoistą areną walki nowatorstwa z rutyną, składnikiem natury ludzkiej ma być natomiast coś na kształt „popędu innowacyjnego”, który nigdy nie pozwala istotom ludzkim zadowolić się tym, co zostało już osiągnięte4. Condorcet z kolei pisał w swym najistotniejszym dziele: Zdobywając wiedzę o tym, jaki był człowiek niegdyś i jaki jest dzisiaj, potrafimy przyspieszyć i zapewnić dalszy postęp, jaki zapewnia mu jeszcze jego natura. Taki jest sens niniejszej rozprawy. Wykaże ona na podstawie rozumowania i faktów, że nie zakreślono żadnej granicy rozwojowi ludzkich uzdolnień, że człowiek posiada nieograniczone możliwości doskonalenia się, że jego postęp niezależny jest od wszelkich potęg, które chciałyPor. J. Szacki, Historia myśli socjologicznej, PWN, Warszawa 2003, s. 98–101. 3 Przy czym wspomnieć należy, że piewca postępu – wedle dzisiejszej miary – technologicznego pojawił się wcześniej, a był nim oczywiście Franciszek Bacon, a jeszcze przed nim, bo w okresie średniowiecza, jego imiennik Roger Bacon. 4 Ujęcie to znakomicie koresponduje z ustaleniami pisarzy parających się literaturą fantastycznonaukową – szczególnie z paradygmatyczną nieomal postacią „szalonego naukowca”, który kreując wynalazki, nie bardzo liczy się z ich śmiercionośnymi aspektami. 2 211 by go zahamować, że jedynym jego kresem jest kres trwania globu, na który rzuciła nas natura5. Rzecz jasna, postęp bywa kategorią krytykowaną, arbitralność niektórych jego ujęć (np. marksistowskie traktowanie postępu społecznego) budzi sprzeciw, wskazuje się na liczne paradoksy związane z kategorią postępu – np. Daniel Bell w Kulturowych sprzecznościach kapitalizmu zadaje następujące pytania: Jak uzasadnić jakość greckiej sztuki i myśli w porównaniu z dzisiejszą, trwałość greckiej poezji oraz aktualność formułowanych wówczas pytań filozoficznych? Marksowskie powiedzenie, że myśl ta reprezentuje wczesne dzieciństwo gatunku, które staramy się odtworzyć na wyższym poziomie, budzi liczne wątpliwości. (…) Antygona nie jest dzieckiem, a jej rozpacz nad zwłokami brata, to nie emocja dzieciństwa gatunku. Podobnie współczesna opowieść Nadieżdy Mandelsztam o poszukiwaniach ciała jej męża, by sprawić mu należyty pochówek, nie jest „wzniesieniem się na wyższy poziom”6. Osobną kategorię stanowi postęp moralny. Witold Tulibacki rozróżnia kategorie postępu moralnego i postępu etycznego. Postęp etyczny dotyczyć ma samowiedzy etyki i jest postępem z obrębu epistemologicznego i, jako taki, może być rozpoznawany w kategoriach metaetycznych. Tymczasem postęp moralny, bardziej mnie tu zajmujący, dotyczy, jak to ujmuje Tulibacki, „pierwszej warstwy” rzeczywistości dobra i zła, związany jest z urealnieniem ontycznej strony dobra i objawia się w sferze aksjologiczno-normatywnej w obrębie świadomości moralnej, a w praktyce – w czynach i postawach7. Dość często można się spotkać z rozróżnieniem postępu moralnego i technologicznego; zakłada się, że obie te kategorie są jak gdyby odwrotnie proporcjonalne czy też wręcz sprzeczne. Karl Mannheim stawia tezę, jakoby rozwój nowoczesnych technologii wyprzedzał nie5 A. N. Condorcet, Szkic obrazu postępu ducha ludzkiego poprzez dzieje, przeł. E. Hartleb, J. Strzelecki, PWN, Warszawa 1957, s. 5. 6 D. Bell, Kulturowe sprzeczności kapitalizmu, przeł. S. Amsterdamski, PWN, Warszawa 1994, s. 200 – 201. Choć może ujęcie Bella nie do końca jest trafne, przynajmniej nie w zakresie ustaleń estetycznych. Przywołajmy pogląd Władysława Tatarkiewicza: „Artyści są różni, sztuki mają rozmaite formy, style. Zmieniają się i to nawet często. Są w nich zmiany, ale nie ma postępu”. W. Tatarkiewicz, Droga przez estetykę, PWN, Warszawa 1972, s. 222. 7 Por. W. Tulibacki, O kruchości idei postępu moralnego, „Humanistyka i Przyrodoznawstwo”, 2005, nr 11, s. 12. 212 zmiernie rozwój sił moralnych człowieka oraz poziom rozumienia przez niego istoty porządku społecznego i społecznej kontroli. Nazywa to zjawisko „nieproporcjonalnym rozwojem dyspozycji ludzkich”8. Mimo ponad półwiecznego dystansu, przestrogi Mannheima wydają się nad wyraz aktualne. Lem porównywał postęp technologiczny do rozpędzonego auta z wyrwaną kierownicą, zatrzaśniętymi drzwiami i nieczynnymi hamulcami. Pasażerem metaforycznego pojazdu miała być oczywiście ludzkość. 3. Postęp (i regres) w światach fantastyki Postęp w literaturze science fiction jest tematem starym (mniej więcej tak starym jak sam gatunek literacki) i niemal „od zawsze” nacechowanym ambiwalencją. Uznawany przez niektórych teoretyków literatury za pierwszą powieść fantastycznonaukową w historii, słynny Frankenstein (1818) Mary Shelley, opowiada o prometejskiej idei postępu, ale zarazem przestrzega: istnieją bariery dla myśli ludzkiej nieprzekraczalne. Przekroczenie owych barier (w tym akurat wypadku chodzi o tajemnicę ludzkiego życia) oznacza poniesienie konsekwencji dramatycznych i krwawych. Podobne akcenty i przestrogi występują w twórczości klasyka i twórcy fantastycznych paradygmatów, Herberta George’a Wellsa. W jego Niewidzialnym człowieku (1897) rozważane są dylematy odpowiedzialności za fatalne skutki wynalazku niewidzialności – wnioski są pesymistyczne9, ponieważ genialne technologie służyć mogą celom banalnym i moralnie wątpliwym. Inne utwory Wellsa – Wyspa doktora Moreau (1896) czy słynny Wehikuł czasu (1895) – dają wizję upadku gatunku homo sapiens. Pierwszy traktuje o naturze ludzkiej, której nie sposób ulepszyć przy zastosowaniu wymyślnych technologii (zmiany będą miały raczej charakter regresywny); Wehikuł czasu zaś jest potężną wizję historiozoficzną – Wells kreśli tu panoramę upadku ludzkiego gatunku, jego rozwarstwienia i ostatecznej degeneracji. Jak była tu już wcześniej mowa, fantastyka optymistyczna, pozytywistyczna z ducha (za jej „ojca-założyciela” wypada chyba uznać francuskiego pisarza Julesa Verne’a), relacjonująca ludzkie eksploracje rzeczywistości na różnych, niezwykle szerokich polach, występowała K. Mannheim, Człowiek i społeczeństwo w dobie przebudowy, przeł. A. Raźniewski, PWN, Warszawa 1974, s. 61. 9 Co ciekawe, w przypadku Wellsa mamy do czynienia z istnym rozdwojeniem osobowości, bowiem Wells-eseista jest optymistą oraz piewcą idei technologicznych i antropologicznych postępów, natomiast Wells-artysta to pesymista i prorok zagłady. 8 213 powszechnie w fantastyce po II wojnie światowej. Z pewnością kluczowy jest tu moment historyczny – trauma powojenna spowodowała w eksploratorach przyszłości łaknienie pozytywnych prognoz. W fantastyce amerykańskiej tego okresu ludzkość przypomina (wyidealizowanych oczywiście) kolonizatorów Dzikiego Zachodu, którzy zdobywają nowe rubieże, tyle że tym razem kosmiczne. Z kolei w literaturze fantastycznej krajów tzw. demokracji ludowej pojawiają się akcenty utopijne, mocno nacechowane ideologicznie. Pisarze tacy jak Iwan Jefremow, Sergiej Sniegow, Czesław Chruszczewski czy Bohdan Petecki kreślą wizje idealnych społeczeństw komunistycznych – jedynie słuszna ideologia, dzięki technologii, rozszerza obszary swych oddziaływań na całe galaktyki; obce rasy napotykane podczas kosmicznych podróży również przyjmują postępową ideologię. Ów bezkrytyczny optymizm nie trwa jednak długo – w polskiej i rosyjskiej literaturze pojawiają się kontestatorzy, którzy dostrzegają systemowe uchyby i braki – z powodów cenzuralnych ubierają swe dystopijne przestrogi w kostium fantastyki (należy w tym kontekście wymienić Stanisława Lema, braci Strugackich, Janusza Zajdla i wielu innych). W naukowej fantastyce Zachodu natomiast pojawił się specjalny nurt opisujący degradujący wpływ postępu technologicznego na moralność – nazwano go znamiennie dark future. Charakteryzuje się on swoistą eminencją cech niekorzystnych a współcześnie obserwowanych – wręcz ku skalom nieskończonym. Autorzy tego nurtu miewali bardzo przytomne przeczucia – pisali o ekologicznej degradacji, postępującym, na skutek automatyzacji procesów produkcji, bezrobociu10, przeludnie- Sugestywnie opisuje tendencje Jeremy Rifkin: „Implikacje [automatyzacji produkcji – J. S.] są głębokie i dalekosiężne. Zacznijmy od tego, że ponad 75% siły roboczej w większości krajów uprzemysłowionych wykonuje pracę złożoną z kilku prostych, powtarzalnych zadań. Automaty, roboty i coraz bardziej zaawansowane komputery mogą wykonać wiele, a nawet chyba większość takich zadań. W samych tylko Stanach Zjednoczonych oznacza to, że najbliższych latach ponad 90 milionów osób spośród ogółu 124 milionów czynnych zawodowo mogą zastąpić maszyny. Aktualne badania wykazują, że mniej niż 5% firm na świecie zaczęło jakieś przygotowania do nowej ››kultury‹‹ maszyn, więc w następnych dziesięcioleciach należy oczekiwać masowego bezrobocia, jakiego nigdy dotąd nie było. Mówiąc o znaczeniu zachodzących zmian, Wassily Leontief, wybitny ekonomista i laureat Nagrody Nobla, ostrzega, że wprowadzanie coraz bardziej nowoczesnych komputerów umniejszy rolę człowieka jako najważniejszego czynnika produkcji w taki sam sposób, jak wprowadzenie traktorów do rolnictwa najpierw zmniejszyło rolę koni, a potem całkowicie je wyeliminowało”. J. Rifkin, Koniec pracy. Schyłek siły roboczej 10 214 niu; wszystko te zjawiska nie mogły oczywiście nie mieć wpływu (zwykle degradującego) na systemy wartości w przewidywalnej przyszłości. Za prekursora owego „mrocznego” nurtu należy uznać Anthony Burgessa, autora powieści Mechaniczna pomarańcza z roku 1969. Opisywane są tam grupy całkowicie amoralnych wyrostków grasujących po ulicach miast; toczących ze sobą regularne bitwy, zastraszających mieszkańców. Uderzający jest obraz społeczności świata przyszłości – zupełna anomia, rozpad systemów wartości, brak moralnych drogowskazów. Jest to zarazem krytyka Systemu, radzącego sobie z zastaną (stworzoną?) sytuacją w jedyny znany mu sposób – poprzez regularną przemoc; pranie mózgów. Przejmująca jest scena „resocjalizacji” jednego z członków gangu, znana również z kultowej ekranizacji książki dokonanej przez Stanleya Kubricka. Aplikuje się młodemu człowiekowi przez wiele godzin obrazy przemocy, aż do przesytu, aż do mdłości. W rezultacie „produkuje się” człowieka biernego i słabego, który po powrocie do swego naturalnego środowiska natychmiast staje się ofiarą byłych kolegów. Diagnoza społeczna Burgessa jest skrajnie pesymistyczna – przemocy nie da się zwalczyć przemocą – w takim bowiem wypadku nie dochodzi bynajmniej do wygaszenia, lecz wręcz wzmożenia nakładających się na siebie źródeł agresji. Dalsze konsekwencje owej zupełnej anomii moralnej wydają się, niestety, oczywiste. Technologia – bez etycznych „zabezpieczeń” – może być źródłem ostatecznej zagłady. W fantastyce motywy apokaliptyczne pojawiają się stosunkowo często. W powieściach: N. Shute’a (Ostatni brzeg), W. Millera Jr (Kantyczka dla Leibowitza) czy polskich autorów J. Dobraczyńskiego (Wyczerpać morze) i M. Baranieckiego (Głowa Kasandry) kreślone są ponure i tchnące grozą pejzaże zniszczonych energią atomową miast i usiłujących w nich przetrwać za wszelką cenę, również wysoką cenę moralnych kontrybucji, ludzi. Co w takim razie uczynić? Jakiej odpowiedzi powinna udzielić ludzka kultura, ludzki umysł na pojawiające się zagrożenia związane z niczym niekontrolowanym postępem technologicznym? Jedną z odpowiedzi, jakiej udzielają pisarze uprawiający naukową fantastykę, ma być wizja zatrzymania cywilizacyjnego pędu. Klasykiem fantastyki nostalgicznej, gdzie postęp obsadzony jest w roli „niszczyciela” starego, dobrego świata, jest amerykański pisarz Ray Bradbury. W swej słynnej antyutopii 451 stopni Fahrenheita opisuje stechnicyzowany świat, w którym zagrożeniem dla „ładu społeczi początek ery postrynkowej, przeł. E. Kania, Wyd. Dolnośląskie, Wrocław 2001, s. 20. 215 nego” są książki (tytuł powieści oznacza temperaturę spalania papieru); pisarz przedstawia tu opłakane skutki kolizji kultury duchowej i materialnej. Z kolei w poetyckich Kronikach marsjańskich kreśli Bradbury obraz końca ludzkiej cywilizacji oraz próby odbudowania starego, małomiasteczkowego, opartego na bezpośrednich ludzkich interakcjach świata na Marsie. Jak określa twórczość Bradbury’ego Stanisław Lem – cechuje ją „umiłowanie cichej prowincji, małych miasteczek o patriarchalnym, spowolnionym i niezmiennym biegu życia”11. Sam Lem w powieści Wizja lokalna (1982) przedstawia – utrzymany w groteskowej tonacji – przefiltrowany przez pisarską wyobraźnię, pisany (ze względów cenzuralnych) językiem ezopowym obraz cywilizacji rozwarstwionej. Na odległej planecie realizuje się dwa modele społeczne. Pierwszy okazuje się typem sztywnego państwa policyjnego, autorytarnego – jego „walory” wydają się oczywiste. Więcej uwagi poświęca Lem opisom Luzanii (nazwa jest ironiczna) – tu realizuje się model żywo przypominający znane nam z autopsji systemy demokracji liberalnej; tyle, że konsekwencje systemowe są tu przez pisarza nieskończenie wzmożone. Otóż, by wzmocnić bezpieczeństwo obywateli, wyplenić agresję z życia publicznego, stosuje się „etykę technologiczną”, czyli w istocie nanotechnologię. Miniaturowe automaty wielkości atomów tworzą wokół planety rodzaj – jak to określa pisarz – „etykosfery”, która niezawodnie ingeruje w zachowania agresywne obywateli, tłumiąc je niejako w zarodku. Istota zachowująca się gwałtownie jest przez rzeczone roboty dosłownie paraliżowana. Oczywiście, odczytywanie intencji zachowań obywatelskich ma charakter behawioralny, a przy tym skrajnie arbitralny. Owa etyka rozpylona w powietrzu, etyka wszechobecna, „zamraża” kulturę luzańską, a cywilizacja powszechnych ułatwień ulega oto samozdławieniu12. S. Lem, Fantastyka i futurologia, t. 1, Wyd. Literackie, Kraków 1989, s. 445. 12 Znakomicie oddaje ówczesny stan ducha Stanisława Lema jeden z listów napisanych do jego tłumacza na język angielski Michaela Kandla (pisarz podróżował ówcześnie po krajach Zachodu, poznając niedostępny nam „raj” i srodze się doń rozczarowując): „Ujęcie statystyczne ludzkości jest na pewno pesymistyczne. Statystyka jest jakby fizykalną stroną zjawiska, a jego reszką, jego stroną odwrotną jest dziś Nihilizm. Są właściwie dwa dziś nihilizmy, wschodni i zachodni. Zachodni to jest ta „implozja aksjologiczna”, o której pisałem nieraz. Ruina Imponderabiliów, wiara w realizowalność Fajnego Lekkiego Łatwego Życia z mordą w śmietanie, Tu, Zaraz, to, co w konsekwencji kładzie znaki równości między Miłością i kopulacyjnym maratonem, szczęściem i posiadaniem Kupy Forsy i Kupy Drogich Pięknych Rzeczy 11 216 Inny jeszcze sposób na „zamrożenie” postępu pokazuje Mike Resnick w książce Kirinyaga. W fabule tej opowieści realizuje się w praktyce utopię „powrotu do etnicznych źródeł” – na asteroidach tworzy się enklawy istnienia w dawnych, plemiennych rytmach; wyczynowa technologia, paradoksalnie, zaprzęgnięta jest do idei całkowitego rugowania technologii z życia społecznego – utopia kończy się, niestety, tragiczną klęską. Być może problemem gatunku homo sapiens jest w istocie immanencja zła czy też instynktu agresji tkwiącego w jego naturze? W obliczu technologicznego wzmożenia naszych możliwości destrukcji, skłonności samoniszczące osiągają status problemu globalnego. W jaki sposób im przeciwdziałać? Istnieją bodaj dwie możliwości; pierwsza, pedagogiczna, metoda uczenia, wychowywania, uświadamiania, wydaje się zużyta i nieskuteczna. Druga często jest wskazywana również przez pisarzy science fiction – to wykorzystywanie i aktywizowanie wiedzy o możliwościach inżynieryjno-genetycznej manipulacji biologicznej, z zamiarem „przekonstruowania” agresywnych, władczych i antyludzkich reakcji człowieka. Witold Tulibacki właśnie w procesie uruchomienia tego rodzaju nieznanego ciągu procedur (przy pełnej świadomości ryzyka z tym związanego), upatruje „rozpaczliwie jedynej szansy przeżycia gatunku ludzkiego na Ziemi i pozostawienie jej w stanie względnej równowagi ekologicznej”13. Stanisław Lem sceptycznie odnosi się do podobnych idei. Charakterystyczna pod tym względem jest jego powieść Powrót z gwiazd. Jest to fabuła opowiadająca o wyobcowanym bohaterze poznającym nieznane etc. To jest jeden nihilizm, ten, który sprawia, że liczy się tylko chwila, że krótkowzroczna staje się polityka, sztuka, wszystko obliczone na efekt natychmiastowy, wskaźniki Dow Jones, bezrobocia, inflacji trzeba poprawiać, a to, co decyduje o be or not to be, traci się kompletnie z oczu. To jest nihilizm społeczeństwa otwartego (Popper’s open society). A w closed society jest to nihilizm wywołany rozbiciem społeczności na miazgę jednostek totalną dezinformacją, fałszowaniem rzeczywistości, autorytarną kontrolą, środkami socjotechnicznymi, technologią wręcz – decerebracji, otępienia, tworzeniem postawy 100% cynicznej jako jedynej „opłacalnej” życiowo. Tak to wygląda owa „konwergencja” jako zbliżanie się dwu różnopochodnych (i jak bardzo różno pochodnych!!!) nihilizmów – z których żaden sensu stricto nie był przez Nikogo z osobna Zamierzony. Vae Humanitati – biada dudkom, którzy tak czy owak dali się wystrychnąć! W gruncie rzeczy są to dwa różne drogami, ale tożsame w finalnym rezultacie przedsięwzięcia, z natury utopijne, jako zmierzające do zbudowania Raju na Ziemi”. S. Lem, Sława i fortuna. Listy do Michaela Kandla (1972-1987), Wyd. Literackie, Kraków 2013, s. 529. 13 W. Tulibacki, O kruchości idei..., s. 17. 217 mu środowisko, nieustannie zadziwionym dysonansem jego dawnych i nowych doświadczeń. Bohaterem powieści jest astronauta powracający z odległej podróży do rzeczywistości przyszłości (na mocy Einsteinowskiego efektu relatywistycznego). Lem roztacza przed czytelnikami szeroką panoramę ułatwionego do granic absurdu, bezmyślnie szczęśliwego życia w świecie, z którego wyeliminowano nie tylko wszelkie zagrożenia, ale nawet, za pomocą zabiegu tzw. betryzacji, zlikwidowano tkwiące w człowieku agresywne instynkty. Na skutek niewyobrażalnego rozkwitu cywilizacji materialnej, każdy człowiek pławi się w dobrobycie. Mimo tych wszystkich błogostanów, bohater opowieści nie może pozbyć się poważnych wątpliwości – jaką bowiem wartość ma życie w absolutnym komforcie, skoro ceną za to jest okaleczenie osobowości na skalę masową? Jak celnie wyraża to jedna z postaci powieściowych: „Zlikwidowaliśmy piekło namiętności, a wtedy okazało się, że za jednym zamachem i niebo przestało istnieć14”. Jest zatem Powrót z gwiazd przestrogą przed eksperymentami społecznymi przeprowadzanymi w imię jakichkolwiek „wyższych racji”, przed sztucznym uszczęśliwianiem ludzkości. Jest również niewątpliwie krytyką społecznego modelu „stagnacji”. Skoro jednak już jesteśmy przy ideach (i praktykach) naprawiania ludzkiej natury, nie sposób nie wspomnieć choć o transhumanizmie i jednym z jego proroków – Rayu Kurzweilu. 4. Transhumanizm (posthumanizm) i jego krytyka Rzecznikami tezy o synergii postępu technologicznego i, w jakimś sensie, moralnego, są entuzjaści idei transhumanizmu (posthumanizmu). Za prekursora idei uchodzi XIX-wieczny filozof rosyjski Nikołaj Fiodorow, który postulował m.in. możliwość radykalnego przedłużenia ludzkiego życia. Termin został wymyślony w roku 1957 przez Juliana Huxleya – jednak znaczenie, jakie ówcześnie zostało mu nadane mocno odbiega od dzisiejszego. A dziś transhumanizm kojarzy się dość jednoznacznie z przezwyciężaniem ograniczeń ludzkiej egzystencji, czemu służyć mają przewidywane osiągnięcia w dziedzinie neurotechnologii, biotechnologii i nanotechnologii. Transhumanizm ma dużo wspólnych elementów z humanizmem – przede wszystkim szacunek dla nauki i rozumu, podkreślanie roli postępu i docenianie znaczenia kategorii „człowieczeństwa” („transczłowieczeństwa”). Różnicą jest radykalne – w ramach światopoglądu 14 S. Lem, Powrót z gwiazd, Wyd. Literackie, Kraków 1961, s. 97. 218 transhumanistycznego – przyzwolenie na ingerencje w ludzką naturę, tożsamość gatunkową; zgoda na zupełną transformację człowieka. Idee transhumanizmu, w opinii ich zwolenników, prowadzić mają do eliminacji biedy, chorób, zacofania (tzw. imperatyw hedonistyczny nawołujący nie tyle do intensyfikacji odczuwania przyjemności, co do zupełnej eliminacji cierpienia). Istnieje w ramach rzeczonego światopoglądu etyczny imperatyw niepowstrzymanego dążenia do postępu; ludzkość wchodzić ma bowiem w etap istnienia post-darwinowskiego; jest zatem w stanie kontrolować własne procesy ewolucyjne w sposób racjonalny (Stanisław Lem nazywał podobne roszczenia mianem „autoewolucji”). Jednym z bardziej prominentnych rzeczników idei transhumanizmu jest Ray Kurzweil, teoretyk fenomenu sztucznej inteligencji. Można by go określić mianem singularytianina (jest to jedna z odmian transhumanizmu) – czyli zwolennika zaistnienia technologicznej osobliwości (singularity). W swym sztandarowym dziele Nadchodzi osobliwość. Kiedy człowiek przekroczy granice biologii Kurzweil opisuje ideę „człowieka przepoczwarzonego”, poddanego daleko idącej transformacji, zmienionego na lepszą swą wersję, co zresztą powinno nastąpić w przewidywalnej przyszłości. Kurzweil w swej ewolucyjnej historiozofii (żywo, co może wydać się zaskakujące, przypominającej rozważania chrześcijańskiego ewolucjonisty Theilarda de Chardina) wyróżnia sześć epok rozwoju ludzkości. Pierwsza jest epoka fizyki i chemii. Początki ludzkości sięgają aż do stanu, który odzwierciedla informację w jej podstawowych strukturach: wzorcach materii i energii. Kurzweil dostrzega niezwykle nikłe prawdopodobieństwo samoorganizacji warunków, struktur i praw fizyki koniecznych do powstania życia inteligentnego na naszej planecie (czy też szerzej – w „naszym” wszechświecie); sięga zatem po słynną zasadę antropiczną („wedle której jedynie we wszechświecie, w którym była możliwa nasza własna ewolucja, jest możliwe pojawienie się istoty zadającej tego rodzaju pytanie”15, czyli istoty zdolnej do autorefleksji nad własnym pochodzeniem, genezą). Drugą jest epoka biologii i DNA, kiedy to ostatecznie „systemy biologiczne wytworzyły dokładR. Kurzweil, Nadchodzi osobliwość. Kiedy człowiek przekroczy granice biologii, przeł. E. Chodkowska, A. Nowosielska, Wyd. Kurhaus, Warszawa 2013, s. 30. Pytaniem tym jest kwestia naszego pochodzenia. Kurzweil żywi prawdopodobnie przekonanie o swoistym „zapętleniu” celowości istnienia rzeczywistości. Tylko rzeczywistość przesiąknięta „pierwiastkiem mentalnym” (etap szósty, ostatni rozwoju ludzkości) jest w stanie być przyczyną zaistnienia życia inteligentnego (etap pierwszy) – i zaistnieniu tego życia „sprzyja”. 15 219 ny mechanizm cyfrowy (DNA) służący do przechowywania informacji opisujących większą grupę cząstek”16. Trzecia epoka jest epoką mózgów. W opinii Kurzweila ewolucja „używa” wyników jednej epoki, aby utworzyć warunki dla zaistnienia kolejnej. Wynalazkiem epoki trzeciej ma być wytworzenie (dzięki modyfikacjom DNA) organizmów, które mogły wykrywać informację przez własne narządy zmysłów i przetwarzać oraz magazynować ją w swych mózgach oraz układach nerwowych. Epokę technologii zapoczątkowały posiadane przez przedstawicieli homo sapiens „dary”: racjonalnego i abstrakcyjnego myślenia i przeciwstawnego kciuka. Ewolucja technologiczna (czy też – szerzej – kulturowa) charakteryzuje się wykładniczym wzrostem tempa zmian. Piąta epoka – połączenia ludzkiej technologii z ludzką inteligencją – jest naszą teraźniejszością. Pojawiły się już, nieśmiałe na razie, próby łączenia człowieka z różnymi formami technologii, mechanicznego protezowania cielesnych i umysłowych ubytków, cyborgizacji ludzkości. Epokę tę zwieńczy pojawienie się technologicznej Osobliwości, czyli sztucznej inteligencji, która, jak pisze Ray Kurzweil: pozwoli nam przezwyciężyć odwieczne ludzkie problemy i znacznie wzmocni ludzką kreatywność. Zachowamy i ulepszymy inteligencję, którą obdarzyła nas natura, pokonując jednocześnie głębokie ograniczenia ewolucji biologicznej. Ale Osobliwość wzmocni również nasze skłonności destrukcyjne, tak więc jej pełna historia nie została jeszcze opisana 17. Dopiero w tym ostatnim zdaniu pobrzmiewają śladowe wątpliwości, nieco mącące ten bardzo optymistyczny obraz przyszłości naszego gatunku. Szóstą epokę chrzci Kurzweil poetycko: wszechświat się budzi. Pisze w tym kontekście o „inteligentnym przeznaczeniu kosmosu”, reorganizacji materii i energii (w celu zapewnienia najlepszego poziomu jej przetwarzania)18. Można wizję Kurzweila krytykować z różnych pozycji – np. z punktu widzenia integralności ludzkiej tożsamości; być może ludzkości (a przynajmniej niektórym jej przedstawicielom) wcale nie spodoba się sprzęgnięcie z kosmosem, roztopienie w inteligentnej materii wszechświata? Możliwa jest także krytyka z punktu widzenia zgodności modelu np. z prawami fizyki. Zaistnienie fenomenu Osobliwości wiązać się ma przecież ze zdobyciem źródeł darmowej i nieograniczonej energii. Według Łukasza Turskiego z Centrum Fizyki Teoretycznej PAN taka 16 Ibidem, s. 30-31. Ibidem, s. 34. 18 Ibidem, s. 35. 17 220 energetyczna nieskończoność mogłaby zakończyć się tragicznie. Cała energia byłaby bowiem wykorzystana do wykonania jakiejś pracy, a więc część z niej zostałaby zużyta na produkcję entropii. Entropia to nieuchronny efekt uboczny zamiany energii na użyteczną pracę. Zgodnie z drugą zasadą termodynamiki nie da się zamienić całej energii na pracę, tak żeby nic się nie zmarnowało. Zawsze pozostanie jakiś „odpad”. Każde urządzenie – silnik samochodowy, wiertło, laptop czy telewizor – generuje ciepło i wymaga chłodzenia. Z tego samego powodu nigdy nie uda nam się wynaleźć całkowicie „czystej” technologii ani całkowicie odnawialnej energii, bo zawsze jej część się nieuchronnie rozproszy. Przy nieskończonym zużyciu energii (…) zaleje nas też nieskończony wzrost entropii. Nie da się tego uniknąć. Nieskończoność rodzi nieskończoność 19. Fantaści również wydają się być mniej od Kurzweila optymistyczni. Peter Watts w powieści Echopraksja ukazuje znaczące konsekwencje udoskonaleń zdolności percepcyjnych naszych mózgów poprzez ingerencje nanotechnologii. W fabule występuje tzw. Zakon Dwuizbowców, parareligijna organizacja, której członkowie dosłownie łączą swe umysły w sieć o monstrualnych zdolnościach poznawczych. Takie ingerencje są jednak kosztowne, ponieważ Dwuizbowcy niemal stracili zdolność komunikacji ze światem zewnętrznym. Stali się jak gdyby jednym organizmem, gigantycznym mózgiem złożonym z pojedynczych neuronów – ich indywidualizm, ich osobnicze tożsamości rozpływają się w tej – nazbyt być może – obszernej strukturze. Istnieje niebezpieczeństwo zwyczajnego „hakowania” tak zorganizowanej sieci poprzez aplikację odpowiednio zaawansowanego wirusa informatycznego, do czego w powieści Wattsa zresztą dochodzi. P. Cieśliński, Gdybyśmy byli bogami, „Gazeta Wyborcza”, 1-2 października, 2016, s. 34. Z jeszcze innych powodów krytykuje tezy Kurzweila trendolog James Harkin, pisząc: „Transhumanistów łączy entuzjazm dla pokonywania ludzkich ograniczeń, ale ich twierdzenia powinniśmy traktować nieco z przymrużeniem oka. Trzeba bowiem pamiętać, że technologia toruje sobie drogę przez społeczeństwo jako seria ilościowych fal, a nie jako jakościowy skok. Kurzweil uważa, że wzrastająca coraz szybciej prędkość procesowania danych przez komputery może pomóc nam zrozumieć szybkość zmian społecznych. Zmiany, które opisuje, wydają się łatwe do przeprowadzenia na papierze, jednak do życia społecznego przenikają w ślimaczym tempie. A wiele z nich nie przenika w ogóle z powodu braku inwestorów czy po prostu ludzkiego entuzjazmu”. J. Harkin, Trendologia. Niezbędny przewodnik po przełomowych ideach, przeł. M. Borowski, Znak, Kraków 2010, s. 164. 19 221 Innym dość charakterystycznym reprezentantem tegoż nurtu jest powieść Accelerando Charlesa Strossa. Stross przedstawia rzeczywistość społeczną przyszłości radykalnie odmienioną dzięki zaistnieniu Osobliwości Technologicznej opisywanej przez Kurzweila (czyli sztucznej inteligencji). Nanotechnologia wdziera się wszędzie, również do ludzkich umysłów, które są bezpośrednio transferowane do chmury wspomnień; uzyskuje się dzięki temu dostęp do wszelkiej możliwej informacji. Ceną za to jest jednak stopniowa utrata tożsamości, osobności, „rozpłynięcie się” w owym monstrualnym psychicznym amalgamacie. „Świadomość” i „osobowość” stają się zresztą w powieściowej rzeczywistości pojęciami anachronicznymi, ponieważ przy dostępnych technologiach stan świadomości uzyskać może nawet zwierzę bądź np. korporacja – i każde z nich ubiegać się może o prawa obywatelskie. 5. Uwagi końcowe Nie ma chyba powrotu, nie ma możności „zmrożenia” postępu, zawrócenia z drogi poznania, mimo rozlicznych wątpliwości natury moralnej. Jest coś niewątpliwie paradoksalnego i tragicznego w świadomości, że postęp jest czymś nieuniknionym, a zarazem immanentną jego cechą jest owo aksjologiczne rozdwojenie, które pisarze science fiction wnikliwie opisywali i opisują nadal. Zakończę ten artykuł słowami Karla Poppera: Dla tych, którzy jedli z drzewa poznania, raj jest utracony. Im bardziej staramy się wrócić do heroicznego wieku trybalizmu, tym pewniej wracamy do Inkwizycji, do tajnej policji i do romantycznego gangsterstwa. Zaczynając od prześladowania rozumu i prawdy, musimy skończyć na najbardziej brutalnym niszczeniu wszystkiego, co ludzkie. Nie ma powrotu do harmonijnego stanu natury. Jeżeli zawrócimy, to musimy już przejść tę drogę do końca – musimy wrócić do stanu zezwierzęcenia 20. K. S. Popper, Społeczeństwo otwarte i jego wrogowie, przeł. H. Krahelska, t. I, PWN, Warszawa 1993, s. 224. 20 222 Jan Wadowski Politechnika Wrocławska TRANSCENDENCJA CZY REIZACJA? TECHFEEDBACK JAKO WYZWANIE DLA CZŁOWIECZEŃSTWA W PERSPEKTYWIE GODNOŚCI I WOLNOŚCI Wypowiedź niniejsza jest próbą pewnej operacjonalizacji, czyli powiązania (hipo)tez z określonymi ujęciami problemu. Pierwsza teza brzmi pozornie banalnie: technika przeobraża indywidualne i społeczne doświadczenie, wartościowanie, światopogląd i styl życia. Druga teza związana jest po części z prognozowaniem: sprzężenie zwrotne (nazwane tutaj tech-feedback) między techniką a człowiekiem (w wymiarze indywidualnym i społecznym) prowadzi do sytuacji, gdy pojawiają się bardzo duże możliwości transformowania zarówno przyrody jak i samego człowieka oraz równie poważne zagrożenia, które mogą mieć charakter degenerujący a nawet zabójczy. 1. Dwa ujęcia techniki W wyniku kontaktu z przyrodą, z innymi i z samym sobą, człowiek – istota niewątpliwie zbyt słaba, aby przetrwać – musi wykazać się inicjatywą w celu przetrwania. Wszystko, co czyni wynika z faktu, że ma on zdolność do transcendencji przyrody. Kluczowym fenomenem w przypadku człowieka była zdolność do kreowania własnej sfery swego życia, określanej mianem „sztucznej”. Różni badacze wskazują na różne przyczyny takiego stanu rzeczy, mówiąc o dużym mózgu, inteligencji, strategii działania itd. Wydaje się jednak, że większość wyjaśnień nie sięga fundamentalnej racji, dla której człowiek zachowuje się odmiennie od zwierząt. Ta odmienność dotyczy przede wszystkim dążenia do – względnej – separacji od przyrody i jej nieobliczalnych żywiołów oraz racjonalizacji życia w ramach skonstruowanej technologicznej niszy. Stworzenie odpowiednich warunków, w których człowiek nie musiał już żyć w strachu przed drapieżnikami, głodem i rychłą śmiercią, wyzwalało w nim jeszcze większą kreatywność i refleksyjność. Więcej, zaczął on wykonywać rzeczy zupełnie „niepotrzebne” z punktu widzenia przetrwania, które budziły jego tożsamość, rozbudzały świadomość, kierowały uwagę w stronę transcendencji, dzięki czemu rozpoczął prawdopodobnie tworzenie kultury. 224 Zgodnie z rozumieniem techne jeszcze u Arystotelesa, technika stanowiła określoną umiejętność lub zdolność wykonywania czegoś, do wytwarzania. Współcześnie definiuje się technikę również jako: sprzęt, zasady, system czy naukę stosowaną w konkretnych celach. Wydaje się, że jednym najbardziej integralnych ujęć tego fenomenu jest technika rozumiana jako pewien system1. Z samego faktu powstania narzędzia czy maszyny nie wynika jeszcze, że ma ona charakter techniczny. Fundamentalny jest kontekst społeczny i historyczny funkcjonowania owego narzędzia lub maszyny. Podczas procesu powstawania narzędzie należało do tego kontekstu jako twórcza innowacja mająca poprawić jakość życia ludzi. Jeśli jednak narzędzie nie znajdzie się w kontekście społecznego użytkowania przez ludzi kompetentnych, nie staje się techniką. Może stać obiektem kultu lub estetycznej kontemplacji (np. kult cargo). Tak więc, w ujęciu Val Duska, fundamentalny jest kontekst społeczny, który zawiera w sobie zarówno narzędzia, maszyny, jak i określone umiejętności ludzi posługujących się danym urządzeniem lub siecią urządzeń. Technika tedy ma charakter relacyjny, przez co tworzy system techniczny2. Powstaje więc swoista sieć, pozwalająca utrzymywać pewien określony poziom i standard funkcjonowania systemu, który usprawnia ludzkie życie. Nie zdawano sobie jednak sprawy, że wytwory techniczne w coraz większym stopniu zaczęły oddziaływać na sposób myślenia i postępowania jego członków. W miarę upływu czasu odziaływanie to stawało się coraz intensywniejsze. Współczesna epoka przyniosła całą falę skoków jakościowych, gdzie kumulacja innowacji technicznych wyzwala nową jakość życia3. Wielu „technokratów” przypisuje technice (a razem z nią naukom ścisłym) decydującą rolę, utożsamiając postęp ze stopniem technicznego i naukowego zaawansowania4. Z kolei humaniści (ale nie tylko) popełniają błąd ignorancji wobec techniki, potępiając niejednokrotnie wyłącznie jej niewątpliwie dehumanizujące oddziaływanie. Nie ulega wątpliwości, że następuje „mediatyzacja” ludzkiego istnienia, które V. Dusek, Wprowadzenie do filozofii techniki, tłum. Z. Kasprzyk, Wydawnictwo WAM, Kraków 2011, s. 41 i n. 2 V. Dusek, Wprowadzenie…, s. 42. 3 Należy pamiętać, że określenie „jakość życia” nie jest precyzyjne i może być kształtowane pod wpływem różnorodnych ideologii, a wyznaczniki owej jakości są bardzo zróżnicowane u różnych populacji. 4 T. Shachtman, Apokalipsa czy cuda techniki?, tłum. G. Siwek, Dom Wydawniczy Bellona, Warszawa 2004, s.355. 1 225 coraz częściej ma do czynienia z symulacjami i symulakrami 5. Technika w coraz większym stopniu oddziałuje na sposób wartościowania, decyzje etyczne, pracę, rolę społeczną, określa wrażliwość, a nawet duchowość. Pytanie, jakie się tu rodzi, w ramach naszego operacjonalizującego szkicu, to kwestia, czy faktycznie technicyzacja przyczynia się do implementacji i rozwoju wolności i godności ludzkiej, czy też wręcz przeciwnie? Technika jest częścią kultury. Kultura ma charakter materialny i niematerialny. Ostatecznie wszelka kultura jest rezultatem mentalnego zamysłu projektującego, odnoszącego się do sfery wewnętrznej (kultura „niematerialna”) oraz do sfery zewnętrznej. Technika jednak (być może bardziej niż religia czy sztuka) zmienia definiowanie człowieka i społeczeństwa. Technika jest antropotwórcza. Staje się coraz bardziej ergonomiczna nie tylko fizykalnie, ale również mentalnie. Jest swoistą „niewidzialną ręką”6. Powoduje zmiany sposobu myślenia o tym, jak należy pracować, jak spędzać czas wolny, w jaki sposób kontaktować się z innymi, jaką drogą poprawić lub zmodyfikować procesy poznawcze, jak planować przyszłość itd. Z jednej strony przynosi ona całą gamę udogodnień, ale można zauważyć, że istnieje określony punkt krytyczny, kiedy zamiast ułatwiać, zastępuje i eliminuje. W efekcie człowiek uzyskuje coraz więcej czasu wolnego, który powinien przeznaczyć na wszechstronny rozwój. Zatraca się w wytworach technicznych, nieuzauważalnie gubiąc swoją wolność, nie mówiąc już o godności. Drugie ujęcie techniki, które wydaje się być ważne dla tematu tego artykułu, wywodzi się z pytania o jej źródło. Rację wydaje się mieć Lewis Mumford, kiedy głosi, że źródłem tym jest powstały wcześniej świat wewnętrznych przeżyć7. Stawia nas to w sytuacji, iż zarówno tworzenie kultury materialnej jak i niematerialnej ma ten sam korzeń, jakim jest powstanie i rozwój świata wewnętrznego, który manifestuje się jako świat naszego umysłu. Istota w miarę świadoma może wyobrazić sobie, jak może i powinna żyć, w związku z czym podejmuje wysiłki, które umożliwią jej egzystencję na miarę własnych wyobrażeń. Tymczasem na pewnym poziomie rozwoju oraz implementacji wytwoS. Beaudrillard, Symulakry i symulacja, Wydawnictwo Sic!, tłum. S. Królak, Warszawa 2005, s. 88. 6 R. Lizut Niewidzialna ręka techniki, w: http://www.sapiencjokracja.pl/index.php?option=com_content&view=article&id=50&Itemid=58 (stan na 24.04.2014). 7 L. Mumford, Mit maszyny, tłum. M. Szczubiałka, Wydawnictwo PWN, Warszawa 2012, s. 29 i n. 5 226 rów technicznych, napotykamy różnorodne zaburzenia i zakłócenia, które sprawiają, że mamy pewne wątpliwości co do „technologicznego błogosławieństwa”, co wielokrotnie wyrażali niektórzy badacze (np. J. Ellul. L. Mumford, N. Postman, H. Skolimowski i in.). Wątpliwości te zawarte są w pytaniu tytułowym niniejszego tekstu, czyli na ile człowiek jest w stanie za pomocą techniki transcendować własne ograniczenia (fizyczne, intelektualne itp.), a na ile też technika może – oddziałując zwrotnie – sprowadzić swego twórcę do poziomu „zarządzanego” przedmiotu? W takiej sytuacji byłoby zagrożony nie tylko wspomniany rozwój człowieka, ale jego człowieczeństwo8. 2. Tkanie technologicznego kokonu Podobnie jak dzieła o charakterze kultury niematerialnej, tak też wytwory kultury materialnej powstawały dzięki istnieniu wspomnianej sfery przeżyć wewnętrznych, która – jakby nie patrzeć – sprzyjała transcendencji. Sądzę, że technika może i powinna wspierać rozwój człowieka, odciążając go w pracy i stwarzając czas wolny przeznaczony na rozwój kultury niematerialnej. Dzieła techniczne posiadają np. walor estetyczny, a nie tylko etyczno-użytkowy i odwrotnie, dzieła kultury niematerialnej mogą być dla człowieka niezmiernie użyteczne, np. dając nadzieję. Ostry podział między poszczególnymi poziomami egzystencji człowieka nie wydaje się więc do końca zasadny, aczkolwiek w poszczególnych przypadkach można zauważyć dominację takiej czy innej sfery. Wytwory techniczne mogą wręcz umożliwiać bardziej „kontemplatywną” i refleksyjną egzystencję, ponieważ można poświęcić więcej czasu na poznawanie dzieł sztuki czy literatury. W tym znaczeniu można widzieć w technice wielkiego sprzymierzeńca rozwoju. Pytanie, jakie tu można postawić to: ile osób faktycznie jest zdolnych do umiejętnego, nieuzależniającego korzystania z wytworów techniki. Ale to już bardziej kwestia umiejętnej edukacji i wychowania oraz samodzielnych decyzji. Warto równocześnie przypomnieć, że m.in. filozofia europejska powstała w warunkach cywilizacji miejskiej, podczas panowania względnej wolności i pokoju. Wiele wynalazków technicznych (koło, papier, druk itp.) wpływało znacząco na rozwój kultury niematerialnej. Technika wpływa więc na nasze postrzeganie nas samych, modeluje nasz styl życia i wartościowania, może oddziaływać na umiejscowienie wartości moralnych i duchowych. Pozwala też na implementowanie Za zrzucenie z siebie odpowiedzialności oraz zagwarantowanie bezpieczeństwa na pewno duża grupa jednostek w społeczeństwie oddałaby swoją wolność i godność. 8 227 wartości, które w coraz większym stopniu decydują o świecie ludzi. Tworzy nową antroposferę. Michał Ostrowicki uważa, że człowiek w coraz większym stopniu owija się niejako w kokon technologii, który nieustannie ewoluuje9. Dzieje się to na skutek przenikania techniki w każdą niemal dziedzinę życia. Nie jest to tylko świat gier komputerowych czy pisanych rozmów, ale może przede wszystkim przeniesienie coraz większej liczby działań w społeczeństwie do sfery elektronicznej, wirtualnej. Dotyczy to edukacji, administracji, transakcji finansowych, pracy, rozrywki, życia towarzyskiego itd. Człowiek współczesny musi dokonywać niemal błyskawicznej akomodacji do nowych technologii, ponieważ ich nieznajomość oznacza marginalizację zawodową, towarzyską, czyli ogólnie społeczną. Funkcjonowanie w społeczeństwie staje się w coraz większym stopniu uwarunkowane znajomością obsługi technologicznych usprawnień i rozwiązań. Otoczenie człowieka staje się w coraz większym stopniu ambient intelligence10. 3. Ergonomizacja Technika, co trzeba mocno podkreślić, jest również elementem ludzkiej kultury – wydaje się, że nie tylko materialnej, jeśli przyjmiemy podział na kulturę materialną i duchową. Oddziałuje ona na ludzkie wyobrażenia o świecie i sensie życia, zmienia charakter relacji społecznych a także powoduje narastanie takich zjawisk jak alienacja czy bezrobocie11. Równocześnie jednak pozwala m.in. zwiększyć ilość relacji z innymi ludźmi, tworzy nowe, nieznane wcześniej, miejsca pracy itd. Ambient intelligence tworzy przestrzeń kulturową, różniąc się zdecy- S. Moyo, Ontoelektronika, Wydawnictwo UJ, Kraków 2013, s. 51.Optymizm Ostrowickiego wydaje się nieco przesadzony, w niewielkim stopniu bada np. ten autor różnicę – w moim przekonaniu bardzo dużą – między doświadczaniem wartości w świecie wirtualnym a doświadczaniem tych samych wartości w świecie realnym. Jeśli chodzi o pojęcie technologicznego kokonu, to analizy na ten temat (aczkolwiek jeszcze nieco w innym sensie niż u Ostrowickiego) znajdujemy np. u filozofa techniki o nazwisku Dan Ihde. Por. D. Ihde, A Phenomenology of Technics, w: D. M. Kaplan, Readings in the Philosophy of Technology, Rowman&Littlefield Publishers, INC, Lanham – Boulder – New York – Toronto – Plymouth, UK, 2009, s. 96. 10 A. P. Wierzbicki, Czym jest technika – sztuką tworzenia narzędzi czy społeczno – ekonomicznym systemem ich wykorzystania?, w: Sprawy Nauki 4/2014, http://www.sprawynauki.edu.pl/index.php?option=com_content&view=article&id=2831%3Atechnika-to-kultura&catid=284&Itemid=30 (stan na 30.12.2016r.). 11 Ibidem. 9 228 dowanie od tradycyjnie rozumianego techne12. Second Life staje się swoistym First Life. Wspomniałem o dwóch ujęciach tego, co techniczne, najpierw w znaczeniu funkcjonowania techniki jako systemu umiejętności ludzkich oraz odpowiednich narzędzi a współcześnie zsynchronizowanych ze sobą algorytmów i następnie w sensie źródła. Ujęcia te są komplementarne, potwierdzając z jednej strony definicję Arystotelesa, a z drugiej ukazując nowe oblicze zagadnienia, jakie odsłania się w epoce współczesnej. Wydawało się mianowicie, że to człowiek zawsze używa narzędzi i urządzeń, aby oddziaływać na przyrodę i zapewniać sobie różne dobra (niekoniecznie będące przedmiotem pierwszej potrzeby), w warunkach cywilizacji industrialnej, a następnie informacyjnej. Technika zmienia definiowanie człowieka i społeczeństwa. Staje się ergonomiczna nie tylko fizykalnie, ale również mentalnie. Przekształca sposób życia a w związku z tym zmienia sposób myślenia całych pokoleń. Modyfikuje standardy w zakresie wyznaczania celów, stylu życia związanego ze spędzaniem wolnego czasu, relacjami, kreacją, podróżami, rozrywką, rozumieniem samego siebie itd. W wyniku kolejnych rewolucji w obrębie wynalazczości, jakie dokonały się jeszcze w XX wieku, doszło jednak do nowej sytuacji, kiedy to oddziaływanie techniki na człowieka stało się na tyle silne, że zaczęło zmieniać jego sposób myślenia czy wrażliwość. W epoce ponowoczesnej przestaje on już odnosić sens swego życia do natury i jej rytmów, ale podporządkowuje je „rytmom” technologicznych procesów, naturę poznając co najwyżej przez sferę symulakr13. W wyniku „przesłonięcia” natury i wirtualizacji i „nomadyzacji” życia (nota bene możliwej dzięki technice właśnie), zmienia się mentalność ludzi, ich poglądy na status w społeczeństwie, rodzinę, przyjaźnie itd. W pierwszym rzędzie człowiek zaprzestaje czerpania od „matki natury” wiedzy i nauki o życiu i śmierci, lecz walczy z przemijaniem i śmiercią za pomocą technologii, wyłamuje się (na ile może) z rytmu przyrody, a ją samą traktuje niemal wyłącznie jako źródło surowców, energii czy wody „zdatnej” do picia14. Technika T. Boellstroff, Dojrzewanie w second life: antropologia człowieka wirtualnego, tłum. A. Sadza, Wydawnictwo UJ, Kraków 2012, s. 83. 13 Powstaje oczywiście poważne pytanie, na ile człowiek jako gatunek może lekceważyć naturę, do której ontologicznie przynależy. 14 Wydaje się, że ignorowanie natury, a nawet pewna pogarda wobec niej, nie są na dłuższą metę możliwe z tego powodu, że człowiek jako istota przez całe tysiąclecia związana z naturą, nie jest w stanie przeżyć poza jej obrębem. Dlatego ekofilozofię H. Skolimowskiego trzeba uznać za jedną z istotnych propozycji na polu filozofii. 12 229 umożliwia również wyłamanie się z rzeczywistych relacji i stosunków międzyludzkich, na zasadzie rodzinnej lub lojalnościowej zależności. Człowiek odnajduje się jeszcze w sferze relacji zwirtualizowanych, a swoje działalnie przekształca w kolejne „projekty”. Technologiczny determinizm wydaje się być nieunikniony. Problem techniki, albo raczej technonauki, wydaje się jednak być bardziej złożony niż opisują to zarówno techno-sceptycy, jak i technoentuzjaści. Nie jest pewne, czy „imperatyw techniczny” jest jedyną możliwą drogą15, gdyż „zasięg ludzkich interwencji w otoczenie osiągnął już dawno poziom krytyczny, w którym złożoność zależności oraz skutków ubocznych przestała podlegać ludzkim manipulacjom”16. Dlatego też oświeceniowa idea postępu niewątpliwie już upadła17. Jest to o tyle znamienne, że to właśnie Oświecenie podkreślało mocno zarówno godność jak i wolność człowieka. Paradoksalnie, hałaśliwa walka o wolność i godność człowieka przeradzała się niejednokrotnie w jego zniewolenie i poniżenie, osiągając swoje apogeum w systemach totalitarnych. Pytanie o technikę więc to pytanie o możliwość wyzwolenia potencjału, który będzie nie do opanowania, dając równocześnie szansę na realizację ekspansji w kosmos. 4. Tech-feedback Innowacyjność technologiczna umożliwia więc całą gamę udogodnień, ale można zauważyć, że istnieje określony punkt krytyczny, kiedy to system techniczny zamiast ułatwiać, zastępuje człowieka. Nie jest to konieczne znana Kurzwailowska „osobliwość” (ang. Singularity) (do której nie wiadomo czy kiedykolwiek dojdzie); ze względu jednak na narastanie prędkości „nasycenia” technologią życia indywidualnego i społecznego, mamy do czynienia z nieumiejętnością „nadążania” za zmianami przez owe technologie imputowanymi. Człowiek stworzył technikę, która oddziałuje na jego doświadczenie, myślenie i wrażliwość w coraz większym stopniu, prowadząc do sprzężenia zwrotnego, które nazwałem tutaj tech-feedback. Chodzi przede wszystkim o stopień złożoności tego, co techniczne oraz o coraz większą jej integrację z codziennością ludzkiej egzystencji oraz funkcjonowaniem całych społeczeństw, również w wymiarze globalnym. Inaczej mówiąc, tech- E. Bińczyk, Technonauka w społeczeństwie ryzyka. Filozofia wobec niepożądanych następstw praktycznego sukcesu nauki, Wydawnictwo Naukowe Uniwersytetu Mikołaja Kopernika, Toruń 2012, s. 25. 16 Ibidem, s. 24. ` 17 Ibidem. 15 230 noprzestrzeń coraz intensywniej oddziałuje nie tylko na jednostki, ale na socjoprzetrzeń, na przestrzeń kulturową. Nie ulega wątpliwości, że technika w coraz większym stopniu określa drogę ewolucji cywilizacji, niezależnie od rodzaju kultury18. Przenika ona praktycznie w każdy obszar doświadczenia, a szczególnie w sfery specyficznie ludzkie, takie jak komunikacja, międzyludzkie relacje czy drogi ekspresji samego siebie. Można nawet mówić o nowym rodzaju egzystencji, który określany jest mianem „egzystencji technicznej”19. W konsekwencji następuje zmiana proporcji między tym, co ludzkie, a tym, co techniczne20. To, co techniczne zaczyna tworzyć środowisko życia człowieka, który oddalił się od natury, a często również od drugiego człowieka. Procesy te mogą być niebezpieczne z powodu wyobcowania człowieka z owych więzi, co przynosi efekty w postaci uzależnień, barbaryzacji kontaktów międzyludzkich, różnorakich patologii, lekceważenia środowiska naturalnego itd. Człowiek tworzy więc technologiczną antroposferę, która pozwala mu zoptymalizować działania w obszarze potrzeb i wartości, organizacji i współpracy21. Faktyczność rozwijających się technologii pozwala sięgnąć po iluzję wolności, szczególnie w zakresie możliwości decydowania o dobru i złu. Technosfera, szczególnie w wymiarze powstania i rozwoju technologii informacyjnych, pozwala człowiekowi wejść – w znacznie większym stopniu niż kiedykolwiek – w krainę wykreowaną przez jego wyobraźnię. Równocześnie sam człowiek wpływa na technologię poprzez wykorzystywanie jej do takich obszarów mniej lub bardziej wirtualnego działania, o jakich nie myśleli nawet jej projektanci. Sytuacja ta również zalicza się do sfery tech-feedback. Mamy do czynienia z rodzajem sprzężenia zwrotnego między techniką a człowiekiem. Tech-feedback manifestuje się w kilku podstawowych obszarach takich jak: życie codzienne, logistyka, medycyna, nauka, kultura. A ponieważ obszary te są istotne i kluczowe dla egzystencji i rozwoju społecznego, stajemy w sytuacji, kiedy nie do końca wiemy, jakie będą H. Skolimowski, Technika i przeznaczenie człowieka, Wydawnictwo Ethos, Warszawa 1995, s. 111. 19 M. Golka, Cywilizacja współczesna i globalne problemy, Oficyna Naukowa, Warszawa 2012, s. 190. 20 L. W. Zacher, Technika – człowiek: niesymetryczna koewolucja, w: L. Zacher (red.nauk.), Nauka, technika, społeczeństwo. Podejścia i koncepcje metodologiczne, wyzwania innowacyjne i ewaluacyjne, Wydawnictwo Poltex, Warszawa 2012, s. 273 -301. 21 S. Moyo (M. Ostrowicki), op. cit., s. 27. 18 231 konsekwencje tego stanu rzeczy. Technosfera staje się tutaj środowiskiem rozwoju cywilizacji i kultury, czy tego chcemy czy nie. Sądzę więc, że technika wbrew pozorom nie niszczy kultury22, ale ją przekształca, podobnie jak pozostałe dziedziny23. Ponieważ jednak następuje to w dość szybkim tempie, można odnieść wrażenie, że mamy tu do czynienia z dominacją i dewastacją. Oczywiście, przekształcanie to nie zawsze ma pozytywny wydźwięk, szczególnie jeśli społeczeństwo przyzwyczajone jest do form tradycyjnych. Jednak młode pokolenia wpływ tsunami techniki na swoje życie traktują jako coś oczywistego. Technika jest więc ważnym elementem kultury i to nie tylko materialnej. Kształtuje ona sposoby i ścieżki zaspokajania potrzeb kulturalnych, wcześniej zupełnie nieznane. Powstaje wspomniana już „elektroniczna antroposfera”24, która tworzy nową przestrzeń kulturową, kreującą swoisty byt hybrydowy, jakim jest człowiek poszerzający swoją sferę o środowisko elektroniczne, dając sobie niejako nową przestrzeń indywidualną i społeczną25. Tech-feedback wprowadza szereg zagrożeń, otwierając możliwości, które stopniowo lub gwałtownie mogą doprowadzić określone populacje do biologicznej, egzystencjalnej, społecznej i duchowej degradacji, a nawet zupełnego zaniku. Z drugiej strony, jeśli tylko człowiek będzie panował nad techniką, może podjąć się zadań, które wydają się koniecznością jak np. możliwość zamieszkania na innych planetach i eksploracja kosmosu. Możliwe jest jednak, że zanim zdąży to zrobić, technologie przejmą nad nim kontrolę, a on powoli i niezauważalnie zatracał będzie własne człowieczeństwo, którego zagubienie oznaczać może samozniszczenie gatunku ludzkiego. 5. Dwie tendencje i trzy przestrzenie W rozwoju techniki mamy, jak sądzę, dwie tendencje: jedna to ta „tradycyjna”, czyli chęć opanowania świata przyrody, aczkolwiek na niespotykaną dotąd skalę, wykorzystania jego energii itd.; druga tenTezy te głoszą m. in. N. Postman i A. Keen. Możliwe, że określone technologie oddziałują niszcząco na pewne działania w sferze kultury, ale równocześnie umożliwiają powstanie i rozwój w innych obszarach kreacji. 24 T. Boellstorf, Dojrzewanie…, s. 83. 25 R. Ilnicki, Bóg cyborgów. Technika i transcendencja, Wydawnictwo Naukowe Wydziału Nauk Społecznych UAM, Poznań 2011. http://pl.scribd.com/doc/127509977/Bog-cyborgow-Technika-i-transcendencja (stan na 30.12.2016r.) 22 23 232 dencja polega na dążeniu do opanowania samego człowieka, nie tylko w wymiarze jego ciała, ale również w wymiarze psychologicznym, umysłowym, a nawet duchowym. Człowiek już nie egzystuje świadomie i w sposób względnie wolny, ale jest modelowany i sterowany przez technikę. Jeśli faktycznie techniczne standardy zaczynają być aplikowane wyłącznie do człowieka, to mogą go degradować do roli królika doświadczalnego i marionetki zamaskowanych interesów finansowych i politycznych. Cywilizacja naukowo-techniczna przybiera kształt technokratycznego systemu, który posiada totalitarne właściwości26. Gwałtowny rozwój technologii jest z jednej strony dobrodziejstwem poprawiającym jakość życia, z drugiej strony być może (i często jest) czynnikiem zniewalającym i pozwalającym dokonywać daleko idącej inwigilacji obywatela. Istnieje tedy niebezpieczeństwo technicznej „inwazji” w obszar myślenia i działania człowieka, który – funkcjonujący w „inteligentnym” otoczeniu – nie jest w stanie uwolnić się od jego presji. W tym świecie główną rolę odgrywa coraz częściej informacja, obsługiwana i przetwarzana przez urządzenia techniczne. Człowiek coraz częściej staje się elementem zbędnym, a nawet zakłócającym działanie systemu. Można więc zadać pytanie: czy to człowiek zarządza techniką, czy też to ona rządzi człowiekiem, powodując niejednokrotnie jego zubożenie w sferach, które należą do struktury jego świadomego człowieczeństwa? Czy funkcjonowanie w ramach społeczeństwa, gdzie technika odgrywa rolę kluczową przy każdej czynności, nie jest rodzajem uzależnienia, które czyni człowieka istotą ubezwłasnowolnioną i pozbawioną pełni swego istnienia? Otóż wydaje się, że im bardziej mamy do czynienia z wyrafinowanymi technologiami, w tym większym stopniu istnieje ryzyko uzależnienia i uwarunkowania. Powstaje ogromnie delikatne pytanie, jak to się dzieje, że coś, rzecz, zaczyna dominować i rządzić kimś, czyli osobą? W momencie załamania się systemu technicznego (ponieważ każda bardziej złożona technologia funkcjonuje tylko w kontekście społecznej organizacji, ludzkich decyzji ekonomicznych i aksjologicznych), owa technika staje się bezużyteczna. Tymczasem stała się czymś w rodzaju religii, od której oczekuje się wybawienia z istniejącej sytuacji27. T. Drewicz, Totalitaryzm – wizje przyszłości, w: www.asp.poznan.pl.strony/kolo/index1.html (stan na 25.04.2016r.). 27 D. F. Noble, Religia techniki. Boskość człowieka i duch wynalazczości, tłum. K. Kornas, Copernicus Center Press, Kraków 2017, Wstęp (wersja elektroniczna bez numeracji stron). 26 233 Za cenę wygody, możliwości pozostania biernym, homo technologicus popada w coraz głębszą alienację: zarówno w stosunku do społeczeństwa, jak i w stosunku do samego siebie. Technologie informacyjne poszerzają co prawda w olbrzymim stopniu możliwości człowieka, nie zawsze jednak możliwości te zmierzają we właściwym kierunku, szczególnie jeśli nie liczą się, ani z przyrodą, ani z samym człowiekiem. Dramat człowieka na planecie Ziemia rozgrywa się w jego interakcji z przyrodą, od której się zdystansował w momencie, kiedy wykonał pierwszy wytwór własnej wyobraźni, czyli narzędzie, które używał systematycznie, tworząc inne narzędzia oraz gdy wykonał pierwsze dzieło sztuki. Inaczej mówiąc, można przypuszczać, że to wyobraźnia (jako synteza rozumu i intuicji) pozwoliła człowiekowi stać się człowiekiem28. Być może równocześnie w tym samym momencie człowiek zaczął posługiwać się mową, która pozwoliła otworzyć drugą przestrzeń interakcji, czyli tego, co następuje między ludźmi. Trzecia przestrzeń dramatu człowieka to stworzenie kultury (materialnej i niematerialnej) na taką skalę, że zaczęła ona intensywnie oddziaływać na niego. Już nie tylko przyroda czy drugi człowiek, ale same wytwory rozpoczęły proces modelowania mentalności ludzkiej. Mamy więc trzy przestrzenie, które pozwalają na interakcje: przyroda, drugi człowiek (społeczeństwo) i kultura. Kultura oczywiście jest wytworem działań interaktywnych, co szczególnie widać w sferze techniki. Powstaje ona jako wytwór zorganizowanego życia społeczności, która posiada już własne wartości, wierzenia i styl życia. Nie jest jednakże tak, że tylko jeden z elementów staje się decydujący. Jako wytwór społeczny spełnia tedy rolę instrumentalną. Jednakże w momencie jej „inwazyjnego” oddziaływania na człowieka, kiedy przekracza ona pewną wartość „wytrzymałościową” dla ludzkiej psychiki, kiedy staje się zbyt ekspansywna, działa z prędkościami nie do opanowania dla człowieka, przyczynia się do destrukcji i to zarówno w wymiarze indywidualnym, jak i społecznym. „Kolejne innowacje naukowo – techniczne, a przede wszystkim ich bezrefleksyjna aplikacja kanałami rynku przyczyniają się (…) (a procesy te z dużym prawdopodobieństwem będą narastać) do destabilizacji na skalę systemową: środowiska, społeczeństw, struktur prawnych i ładów moralnych”29. Społeczeństwa funkcjonowały po prostu w systemie produkcji i konsumpcji przemysłowej, gdzie zasady moralne (np. kultu pracy) były zasadniczo 28 29 Nie wyjaśnia to oczywiście samych źródeł wyobraźni. E. Bińczyk, Technonauka…, s. 12. 234 określone. Ten świat epoki przemysłowej zdaje się coraz szybciej odchodzić w przeszłość. W świecie współczesnym technika zaczyna spełniać rolę swoistego fetysza, symbolu niezależności i wolności. Z czynnika instrumentalnego staje się obiektem swoistego kultu, przynosząc powierzchowne poczucie sensu życia. Inaczej mówiąc, nie jest tak, jak proponuje stanowisko instrumentalizmu technologicznego, że technika (a więc i nauka) jest wytworem całkowicie neutralnym (aksjologicznie, moralnie itd.), natomiast jej zastosowanie może być złe lub dobre30. Ewa Bińczyk twierdzi, że „technologie nigdy nie są wyłącznie niewinnymi narzędziami”31. Dawały one władzę i przewagę nad innymi. Technika prowadzi nie tylko do przemian w społeczeństwie (o czym pisał jeszcze Karol Marks), ale wynika z określonych przekonań aksjologicznych. Inaczej mówiąc – decyzja o wdrożeniu i produkcji określonych wytworów techniki posiada u podstaw określone przekonania o tym, co jest dobre, a co złe, co powinno być bardziej preferowane, a co mniej. Jeśli głębiej poszukać, to może się okazać, że u źródeł rozwoju techniki leżą określone systemy przekonań, głębokie tęsknoty za utopią lub życiem w sferze Raju, czyli za wiecznością32. 6. Transhumanizm jako quasi-religia Jeszcze w drugiej połowie XX zrodziła się u niektórych tęsknota „bycia jak bogowie”. Pojawił się tzw. transhumanizm (Nikołaj Fiodorow, Julian Huxley, Fereidoun M. Esfandiary, a później FM-20130, Max More, Natasha Vita – More, Vernor Vinge (autor pojęcia „osobliwość technologiczna”), Hans Moravec, Marvin Marvin Minsky, Nick Bostrom, Ray Kurzweil, Roger Penrose i in.)33. Transhumanizm bazuje na humanizmie, propaguje kult rozumu i nauki, i twierdzi, że na bazie człowieczeństwa można i należy stworzyć transczłowieczeństwo a następnie postczłowieczeństwo (Max More). Transhumanizm chce zrealizować tęsknoty Nietzschego o nadczłowieczeństwie bazując na współczesnych technologiach, w szczególności na tzw. GRIN (genetyka, robotyka, informatyka i nanotechnologia). Do tych czterech dziedzin 30 Ibidem, s. 22. Ibidem, s. 23. 32 D. F. Noble, Religia techniki…, np. Rozdział VII pt. Nowy Eden. 33 Wewnątrz samego transhumanizmu panują różne nurty, jak np. ekstropianizm, posthumanizm, prometeizm, singularytarianizm, socjalizm transhumanistyczny, transtopianizm (techno-utopizm połączony z transhumanizmem). 31 235 należy dołączyć kognitywistykę, neurofarmaceutyki34, ulepszone protezy, krionikę czy twierdzenia o możliwości transferu świadomości do komputera i sieci. Przykładem może być prof. Kevin Warwick, dziekan wydziału cybernetyki Uniwerystetu w Reading (Anglia), który jako pierwszy człowiek wszczepił sobie pod skórę mikronadajnik – w ten sposób rozpoznawany jest przez sieć komputerową swojego laboratorium35; innym przykładem jest Rob Spence (zwany Eyeborg), uważany za pierwszego cyborga na świecie, ponieważ wszczepiono mu kamerę do oka, które nie tylko umożliwia mu widzenie, ale również kręcenie filmów36. Transhumanizm jest nie tylko projektem bliżej nieokreślonej przyszłości, ale pojawia się we współczesnej kulturze. Istnieje czasopismo H+37, powstają gry komputerowe prezentujące przyszłość człowieka (np. DeusEx). W maju 2014 odbyła się w Oakland w USA konferencja pt. Religion and transhumanism. Powstaje wiele produkcji filmowych bazujących na założeniach transhumanizmu (np. Steven Spielberg, Artificial Intelligence, James Cameron Avatar, lub ostatnio Spike Jonze, Her czy Alex Garland, Ex Machina), które prezentują zamierzenia i przewidywania jego twórców. Niektóre organizacje religijne (np. Mormoni) włączają transhumanizm do palety swoich przekonań, tworząc stowarzyszenia i organizując konferencje38. Koncepcje trashumanistyczne (lub też posthumanistyczne) przenikają do wyobraźni i przekonań, szczególnie u ludzi młodych. Transhumanizm wyraża przekonanie, że ewolucja człowieka dopiero się zaczęła i teraz zacznie przyspieszać. Stanie się to za sprawą technologii i sprzężenia z nią człowieka. Podstawowe założenia transhumanizmu (czy też posthumanizmu) to: 1. Podstawowa aktywność człowieka to komunikacja; sygnały komunikacji są bardziej fundamentalne niż jej nośniki, w tym również ludzkie ciało. 2. Świadomość jest efektem wtórnym współaktywności podmiotu i kultury, nie zaś rezultatem ducha. Kurzweil np. określa się nie mianem materialisty, ale „wzorcysty” – nie tłumaczy jednak, jaką naturę mają owe wzorce, które mają zmieniać rzeczywistość. Standardowym zachowaniem np. w społeczeństwie amerykańskim jest zażywanie takich substancji jak prozac, zoloft czy paxil (ok. 28 mln w USA). 35 http://www.kevinwarwick.com/ (stan na 29.12.2016r.). 36 The Eyeborg Documentary, w: http://spectrum.ieee.org/automaton/robotics/medical-robots/061110-eyeborg-bionic-eye (stan na 30.12.2016r.). 37 Por. www.hplusmagazine.com (stan na 31.12.2016r.). 38 Por. http://transfigurism.org/ (stan na 30.12.2016r.). 34 236 3. Ciało jest podstawową „protezą” człowieka, ale wykorzystywane jest w stopniu zbyt ograniczonym, stąd istnieje potrzeba i konieczność poszerzania jego możliwości za pomocą różnorodnych protez (protetyzm). 4. Praktycznie cały sens ludzkiego życia należy odnaleźć i osadzić w sferze świata cyfrowego. 5. Podważenie obowiązującego do tej pory antropocentryzmu kulturowego. Ekstropianizm wskazuje na siedem fundamentalnych wartości: nieustanny postęp, samo-transformacja, praktyczny optyzmizm, inteligentna technologia, otwarte społeczeństwo, samo-sterowanie, racjonalne myślenie39. Niektórzy potraktują to jako żart, ale jeden z przedstawicieli transhumanizmu wystosował List do Matki Natury, w którym naturze niejako należy już „podziękować” i zastąpić ją o wiele doskonalszą techniką, którą stworzy człowiek40. Transhumanizm poszukuje zbawienia człowieka – w pierwszym etapie – za pomocą różnego rodzaju technologii, które mają przynieść maksymalnie długą młodość, życie w pełnej sprawności fizycznej i umysłowej, coraz dalej idącą cyborgizację itp. Na przykład Kurzweil, jeden z „guru” transhumanstów, zażywa ok. 250 suplementów diety dziennie oraz kilka razy w tygodniu pobiera dożylnie substancje odżywcze. Jego wiek biologiczny (przy 58 latach) oblicza się na ok 40 lat41. „Zbawienie” transhumanizm chce osiągnąć m.in. za pomocą technologii molekularnych, inżynierii genetycznej, sztucznej inteligencji, stosowaniu substancji stymulujących zdrowie i samopoczucie czy pamięć, neurologicznych interfejsów, wszechobecność zminiaturyzowanych komputerów i wszelkiego rodzaju innowacji technicznych integrujących się z ciałem człowieka i modelujących życie społeczne i wszelkiego rodzaju innowacji, które mają odmieniać ludzkie życie. Sztuczna inteligencja ma mieć znaczenie decydujące, a sam człowiek ma w zasadzie stać się istotą zupełnie zbędną42. W tym kontekście widać wyraźnie, że kwestia wolności i godności modelowana jest w zależności od przyjętych założeń na temat tego, kim jest człowiek i czemu ma służyć technika, którą stworzył. Do tej pory 39 Por. http://www.extropy.org/principles.htm (stan.30.12.2016r.). Por. www.sienko.net.pl/maxmore.html/ (stan na 30.12.2016r.). 41 R. Kurzweil, Nadchodzi osobliwość. Kiedy człowiek przekroczy granice biologii, tłum. E. Chodkowska, A. Nowosielska, Kurhaus Publishing, Warszawa 2013, s. 208 – 209. 42 N. Bostrom, Superinteligencja. Scenariusze, strategie, zagrożenia, tłum. D. Konowrocka – Sawa, Wydawnictwo Helion, Katowice 2016, s. 102 i n. 40 237 to człowiek sprawował kontrolę nad własnymi wytworami, tworząc je i wykorzystując na zasadzie: „uczyń drugiemu to, czego sobie byś nie uczynił”. Działo się to zwykle w imię jakichś ideologii, które były motorem inicjującym inwencję twórczą nazistów i innych. Sam humanizm, który miał chronić człowieka, okazuje się chronić tylko niektórych, którym z jakiegoś powodu przyznaje się wyższe prawa. Owym powodem zwykle jest aktualnie uznawana za obowiązującą ideologia. Fiasko humanizmu wydaje się dzisiaj dość oczywiste, co wydatnie pokazał m.in. Andrzej Zybertowicz43. Na techno-humanizm można również spojrzeć przez pryzmat projektów społecznych, które już budowano na bazie oświeceniowej, a które prowadziły do cierpień milionów ludzi. Sposób funkcjonowania techniki zależy w dużym stopniu od wartości (lub antywartości) zawartych w procedurach i algorytmach. Transhumanizm opiera się więc na założeniach Oświecenia. Wspomniany Andrzej Zybertowicz wykazuje jednak coś znacznie więcej niż upadek idei laickiego humanizmu wypracowanego na bazie silnej wiary w rozum44. Pomyłka polega na tym, że nie dostrzega się syndromu ideologizacji i fetyszyzacji techniki, jej ubóstwienia, czynienia z niej narzędzia naprawy wszystkich problemów. Ponadto w perspektywie propozycji transhumanistów jeszcze w pierwszej połowie XXI wieku człowiek zostanie właściwie ubezwłasnowolniony przez sztuczną inteligencję, zmarginalizowany i uznany za niepotrzebnego45. Nie jest jednak wcale pewne, czy faktycznie dojdzie do tego rodzaju sytuacji; można równie dobrze przewidywać, że dzięki technice człowiek będzie niesiony jak na fali własnej kreatywności, eksplorując wszechświat lub też zajmie się sferą rozwoju duchowego, przez co technokratyczne założenia transhumanistów okażą się tylko wątłymi scenariuszami46. Transhumanizm przybiera też kształt neohumanizmu lub humanizmu technologicznego, gdzie tworzy się i chce realizować „zoptymalizowane” człowieczeństwo. Mówi się tutaj o pięciu podstawowych za- A. Zybertowicz i in., Samobójstwo Oświecenia? Jak neuronauka i nowe technologie pustoszą ludzki świat, Wydawnictwo Kasper, Kraków 2015. 44 Ibidem, szczególnie rozdział I Oświecenie – utopia, która działa, s. 29 – 58. 45 http://en.wikipedia.org/wiki/Predictions_made_by_Ray_Kurzweil (stan na 30.12.2016r.). 46 Sądzę, że – mimo całej rozległej wiedzy – takie, deterministyczne wręcz, scenariusze przedstawione są we wspomnianej książce Bostroma, Superinteligencja. 43 238 sadach: duchowość, kultura, etyka, nauka i technologie47. Chodzi o wypracowanie strategii stworzenia „nowej ludzkości”; szczególny nacisk kładzie się na możliwość przeniesienia osobowości człowieka do bardziej zaawansowanego (niż ludzkie ciało) biologicznego nosiciela, zmierzając w kierunku cybernetycznej nieśmiertelności48. Transhumanizm jest próbą przezwyciężenia nihilizmu, jaki zapanował w kulturze Zachodu, gdzie życie zostało często zredukowane do bezmyślnej konsumpcji, nie dając nadziei i szansy na zmianę. Tak więc transhumanizm po raz kolejny zamierza (przynajmniej w deklaracjach) zaimplementować określone wartości, które nieświadomie przyjmowane są jako jedynie słuszne, bazując na przyjętej duchowości naznaczonej perspektywą technologicznej transcendencji. Zachodzi jednak wątpliwość czy nadmiar techno-manipulacji nie doprowadzi do ubezwłasnowolnienia człowieka, który zapomni o własnej godności i wolności. Mimo swoich humanistycznych rysów, transhumanizm jest mocno utopijnym podejściem i trzeba powiedzieć, że „przepowiednie” np. Kurzweila nie sprawdzają się i dotyczą tylko niewielkiej części ludzkości. Ponadto transhumaniści zapominają często o faktach opisanych np. w książce Marcina Popkiewicza49. Nie wiadomo, czy nawet gdyby sztuczna inteligencja osiągnęła jakiś poziom świadomości oraz decyzyjności, to faktycznie byłaby zainteresowana zminimalizowaniem eksploatacji człowieka i środowiska w zakresie produkcji i konsumpcji, zmniejszeniem bezrobocia czy stworzeniem najlepszych warunków dla dzieci do rozwoju w miłości. Jeśli była by obojętna na jakiekolwiek ludzkie wartości, to należało by zapytać, czy entuzjaści lub zwolennicy Singularity tak mocno znienawidzili własny gatunek, że pragną go zniszczyć (włącznie z nimi samymi)? Wydaje się, że w stosunku do techniki potrzebny jest zdrowy dystans i świadomość, że spełnia ona wyłącznie rolę pomocniczą, niezależnie od stopnia jej rozwoju. 47 www.2044.com/ideology/ (stan na 28.30.2016r.) Autorem projektu jest D. Itskov, Rosjanin, który inicjatywę 2045 rozpoczął w 2011 r. 48 Co roku odbywa się kongres o nazwie „The Global Future 2045”. Ostatni odbył się w dniach 15-16 czerwca 2013r. w Nowym Jorku. www.2045.com (stan na 03.01.2017). 49 M. Popkiewicz, Świat na rozdrożu, Wydawnictywo Sonia Draga, Katowice 2013. 239 7. Zakończenie W obliczu wieloaspektowego kryzysu, jaki pojawił się we współczesnym świecie, nie wydaje się, aby optymistyczne przewidywania transhumanistów sprawdziły się nawet w bieżącym stuleciu. Nie uwzględniają oni w swoich przewidywaniach, które tak lubią, czynników destrukcyjnych w obszarze wyborów i decyzji ludzkich kierowanych potencjałem proponowanym przez technologie. Nie uwzględniają też takich scenariuszy, które nam powiedzą, że do niczego takiego jak „zmiana gatunkowa” nie dojdzie i żadne urządzenia czy nawet maszyny biologiczne nie zastąpią człowieka, ponieważ – nawet jeśli uzyskałyby jakąś formę świadomości – będą one zainteresowane zupełnie czym innym niż człowiek, czego ludzie praktycznie nie są w stanie sobie wyobrazić. Sądzę, że przestrzeń życiowa sztucznej inteligencji będzie zupełnie odmienna od przestrzeni życiowej człowieka, dlatego też do żadnego konfliktu lub dominacji nie dojdzie, a człowiek otrzyma możliwość i szansę szybszego rozwoju dzięki uwolnieniu się od znoju monotonnej i szkodliwej pracy. Sądzę jednak, że równie prawdopodobny jest ostrożnie optymistyczny scenariusz. Rozwój technologiczny wcale nie musi doprowadzić do degradacji człowieka, ale, co najwyżej, do przemian w sposobie jego funkcjonowania, co jak najbardziej może być pomocne w zakresie rozwoju kreatywności i duchowości – czyli cech głęboko ludzkich, które – jak można uważać – wydają się być powszechne. Grzegorz Dziobak Uniwersytet Rzeszowski LEWISA MUMFORDA GLORYFIKACJA JĘZYKA I DEPRECJACJA TECHNIKI A JĘZYK JAKO PRÓBA DOMINACJI GOOGLE NAD ŚWIATEM Lewis Mumford, ceniony urbanista i krytyk amerykańskiej architektury, a także historyk cywilizacji, napisał obszerne dzieło zatytułowane Technika a cywilizacja, które ujrzało światło dzienne w 1934 roku. Opisał w nim destrukcyjny wpływ maszyny na ludzi. Zdaniem Mumforda, to wynalazki wyznaczały fazy ewolucji maszyny: eotechniczną, paleotechniczną i neotechniczną1; tej samej maszyny, której celem było – w zasadzie już od samego początku – wyeliminowanie żywych organizmów. Drogi ludzkiej wynalazczości pojmował myśliciel jako historie błędnych, pozornych triumfów2. Ludzkość w swym zachłannym dążeniu do wynalezienia czegoś nowego przypominała dzieci, które za wszelką cenę chcą nowej, nieprzemyślanej zabawki3. I choć postęp techniczny niewątpliwie się dokonywał, to nie był on aż tak wielki, jak powszechnie mniemano, a, same z siebie, zdobycze techniczne nie były w stanie przynieść społeczeństwu korzyści4 – potrzeba było do tego czegoś więcej, społecznej adaptacji wspartej przez inwencję polityczną5. Cechą charakterystyczną maszyny opisywanej w książce Technika a cywilizacja było współtowarzyszące jej narodzinom pojawienie się L. Mumford, Technika a cywilizacja. Historia rozwoju maszyny i jej wpływ na cywilizację, przeł. E. Danecka, Państwowe Wydawnictwo Naukowe, Warszawa 1966, s. 90. 2 Ibidem, s. 39. 3 Mumford porównywał potrzebę wynalazczości do dziecięcej radości. Ibidem, s. 39. 4 Aż chciałoby się zacytować J. J. Rousseau: „Usuńcie ten nieszczęsny postęp, zabierzcie nasze błędy i nałogi, zabierzcie wytwory cywilizacji, a wszystko będzie dobre!”. J. J. Rousseau, Emil, czyli o wychowaniu. II, Zakład Imienia Ossolińskich, Wydawnictwo Polskiej Akademii Nauk, Wrocław 1955, s. 111. Warto też odnotować to, co o Rousseau pisał Mumford m.in. w rozdziale pt. Powrót do natury. L. Mumford, Technika a cywilizacja…, s. 255259. 5 L. Mumford, Technika a cywilizacja…, s. 183. 1 242 nowej władzy. Poprzez zdobycie kontroli nad maszyną, władza z rąk ugrupowań militarnych przeszła do nowej klasy panujących: do kapitalistów6. Maszyna, zamiast służyć życiu, poddawała je coraz bardziej restrykcyjnym próbom i coraz śmielej sprzeciwiała się humanistycznym wartościom. W takiej sytuacji pozostawał myślicielowi tylko rozpaczliwy apel o udoskonalanie społecznej działalności i społecznej kontroli nad techniką, zgodnie z zasadami szeroko pojmowanego humanizmu7. Podczas gdy w klasycznym już dziś dziele Mumforda z 1934 r. „maszyna” lub „mechanizm” były rozumiane tradycyjnie jako konkretne obiekty, typu prasa drukarska czy warsztat tkacki (ale także jako cały układ technologiczny, w skład którego wchodzi wiedza, biegłość, kunszt ludzki oraz narzędzia, przyrządy, aparatura, urządzenia i maszyny we właściwym tego słowa znaczeniu)8, to już w kolejnym obszernym dziele badacza techniki, Micie maszyny z lat 1967-70 (tom I i II), pojęcie „maszyna” zostaje rozszerzona do „megamaszyny”, w której skład wchodzą części także złożone z ludzi 9. Taka śmiała reinterpretacja pojęcia maszyny pozwoliła Mumfordowi odnaleźć początki dehumanizującej postaci maszyny już w starożytnym Egipcie czy Mezopotamii, kiedy to władca utożsamiany z bogiem-słońcem, wespół z kastą kapłanów, zdobyli władzę nad ludźmi10. Przyjrzyjmy się jednak Mumfordowskiej interpretacji czasów nam bliższych. Schemat mitu megamaszyny – zdaniem amerykańskiego myśliciela – powtarzał się poprzez dzieje, a jej symboliczna moc wciąż wzrastała. Nieograniczona władza rządzących, wparta przez silne struktury instytucjonalizmu, doprowadziła do ogromnego sukcesu megama6 Ibidem, s. 244. Ibidem, s. 317. 8 Por. pełną definicję „maszyny”. Ibidem, s. 3-4. 9 Mumford „megamaszynę” definiuje jako system instytucjonalnych środków nadzoru i przymusu fizycznego + ideologię (kult boskiej władzy króla + mit maszyny). Poza tą nazwą, wyróżnia nazwy szczegółowe, jak „maszyna niewidzialna” (biurokracja, maszyna komunikacyjna), „społeczna maszyna robocza”, „społeczna maszyna wojskowa”, „megatechnika” (wyposażenie techniczne powstałe dzięki megamaszynie). Przyjęcie definicji maszyny, w skład której wchodzą ludzie stało się możliwe po powołaniu się na tradycję definicji maszyny Franza Reuleauxa jako „działające pod nadzorem człowieka, przetwarzające energię i wykonujące pracę połączenie trwałych, wyspecjalizowanych funkcjonalnie części”. L. Mumford, Mit maszyny, tom I, przeł. M. Szczubiałka, Wydawnictwo Naukowe PWN, Warszawa 2012, s. 250, 276277 oraz s. 280, 294. 10 Zob. L. Mumford, Mit maszyny, tom I, s. 261. 7 243 szyny11. Zarażony benedyktyńską pracowitością, kapitalizm stworzył niespotykaną wcześniej społeczną dyscyplinę. Utworzono nową racjonalność gospodarowania, dla której liczył się rachunek ilościowy, ścisły reżim czasowy i abstrakcyjne korzyści materialne12. Za źródło sensu człowieka uznano masowe wytwarzanie i ustawiczne ulepszanie maszyn13. Jeszcze ciekawsze rozwinięcie tych idei odnajdujemy w drugim tomie Mitu maszyny. Potęga megamaszyny, dotychczas opisywana jako mit maszyny – zdaniem Mumforda – wykrystalizowała się w nowy kompleks władzy o zasięgu globalnym. Jest doskonalsza, o wiele bardziej skuteczna i totalna w mocy destrukcyjnej od wszystkiego z czym wcześniej miała do czynienia ludzkość. Pięcioramienna figura składa się teraz z władzy (power), własności (property), zdolności wytwórczej (productivity), zysku (profit) i rozgłosu (publicity)14. Te podstawowe determinanty ludzkich zachowań i formy kształtowania się organizacji wprowadzają wszystkich w metaforyczny taniec, zataczający coraz śmielsze figury w kierunku śmierci, o czym mogą świadczyć zmarnowane bogactwa, degradacja środowiska naturalnego, rozrastające się slumsy czy wreszcie replikacja kolejnych pokoleń ludzi żyjących w poniżeniu i beznadziei15. System władzy wchłania wszelkie instytucje, które kiedyś uważane były za ostoję wolności i niezależności – także uniwersytet16. Pojedynczy człowiek staje naprzeciw niewyobrażalnie ścisłej konsolidacji władzy, której złowieszczym symbolem jest władza sprawowana przez rządy kilku supermocarstw oraz setek superkorporacji17. Czy wobec tak silnie zniewalających mechanizacyjnych procesów istnieje w człowieku choć jeden, zdolny się im przeciwstawić czynnik? Choć sformułowana przez Mumforda ocena dominujących prądów 11 Zob. L. Mumford, Mit maszyny, tom I, s. 372. Na temat trzech głównych kapitalistycznych zasad gospodarowania por. L. Mumford, Mit maszyny, tom I, s. 404. 13 Ibidem, s. 424. 14 Więcej na temat pentagonu władzy zob. L. Mumford, Mit maszyny, tom II, przeł. M. Szczubiałka, Wydawnictwo Naukowe PWN, Warszawa 2014, s. 254 i nast. 15 Na temat pesymistycznej oceny współczesnego świata zob. ibidem, s. 260 i nast. 16 Analiza Mumforda dotyczy uniwersytetu w Stanach Zjednoczonych. Por. ibidem, s. 278. 17 Dzieło Mit maszyny Mumforda powstawało w czasach zimnowojennych, stąd wymienia jako dwie megamaszyny Stany Zjednoczone Ameryki Północnej i Związek Radziecki. 12 244 kulturowych z czasem stała się jeszcze bardziej pesymistyczna, to nie jest ona jednak pozbawiona nutki nadziei. By ją odnaleźć, musimy się cofnąć do jego interpretacji rozwoju człowieka pierwotnego, które rozpoczynają pierwszy tom Mitu maszyny. Jako antropolog, Mumford walczy z tezą o znaczącej roli umiejętności wytwarzania narzędzi i dominowaniu materialnych środków produkcji nad pozostałymi formami działalności człowieka18. To język był najważniejszym, obok rytuału i organizacji społecznej, artefaktem człowieka. To symbole, a nie narzędzia, pozwoliły człowiekowi na wyzwolenie się ze stanu zwierzęcego. Tym, co miało decydujący wpływ na rozwój człowieka, było poszerzanie świata symbolicznego. To dzięki słowom i symbolom, a także rytuałom, obrazom i obyczajom, człowiek pierwotny zdobył władzę nad samym sobą, ratując się przed przedwczesnym unicestwieniem, które groziło mu ze źródła własnej nieświadomości. Język był i jest nadal najdoskonalszym narzędziem do ujmowania całości ludzkiego doświadczenia. Najwyższym cudem życia nazywa Mumford światło świadomości, a pismo traktuje jako kolejny zabieg jej poszerzenia19. Język wreszcie, jako odradzający się w lokalnych postaciach w kontrze do sztucznie stworzonego języka światowego, jest skutecznym sposobem samoobrony przed postępującą cywilizacją maszynową20. Mumford jako przeciwwagę dla maszyny stawia przyrodę i nadaje jej cały wachlarz pozytywnych znaczeń. To od niej pochodzi zaszczepiony człowiekowi niewyczerpalny wzorzec kreatywności, to ona daje asumpt do kształtowania się milionów gatunków oraz znajduje kolejne ujście w bogactwie ludzkiej kultury21. To przyroda ma przewagę nad techniką, nie tylko przewagę ilościową, ale jakościową. W opinii autora Mitu maszyny, choć komputery będą niwelować przewagę ilościową, to w przypadku jakości (zapach, smak, uczucia, barwa czy erotyka) urządzenia mechaniczne będą bezsilne22. Wszystko uwidacznia się w przewadze języka nad abstrakcjami, którymi posługują się maszyny. Język jest subiektywny, niesprecyzowany, mglisty, nieokreślony, wieloznaczny, przesiąknięty uczuciami, odnosi się do rzeczy, które nie sposób zobaczyć czy zweryfikować. Jak podkreśla amerykański badacz, żaden system mechaniczny nie pojmuje znaczenia, a żadne, 18 Zob. L. Mumford, Mit maszyny, tom I, s. 29. Na temat roli języka i pisma zob. ibidem, s. 29-56. 20 Obok języków lokalnych Mumford wymienia literaturę i intensyfikację życia regionalnego – to te czynniki stanowią samoobronę przez zimną cywilizacją maszyny. L. Mumford, Technika a cywilizacja, s. 255. 21 Więcej w: L. Mumford, Mit maszyny, tom I, s. 61-62. 22 O różnicy pomiędzy ludzkim mózgiem a komputerem por. ibidem, s. 65. 19 245 choćby najbardziej zaawansowane urządzenie techniczne, nie dorównuje najbardziej prymitywnemu językowi. Język bowiem ma w sobie wszystkie atrybuty współczesnej badaczowi technologii i bardziej przypomina strukturę biologiczną, komórki organizmu, aniżeli sztywną strukturę języka maszyny. Język wreszcie nigdy nie był poddany żadnemu scentralizowanemu systemowi nadzoru, dzięki multiplikacji różnorodności, hołubieniu indywidualności i dążeniu do autonomii23. Do czasu. W 1998 roku, a więc 8 lat po śmierci Mumforda, została zarejestrowana firma, która – nie mieszcząc się już w murach (czy też może raczej… w łączach) Uniwersytetu Stanforda – postanowiła zrewolucjonizować świat. Tym, co wyróżniało ją od wielu innych technologicznych start-upów, jakie rodziły się wówczas, zachęcane do wzrostu entuzjazmem młodych inżynierów i pielęgnowane kalifornijskim słońcem, było to, że jako produkt po prostu działała. Była lepsza od wszystkiego, co dotąd funkcjonowało na rynku. Zawstydzała najlepszą dotychczas wyszukiwarkę Alta Vistę z prostego powodu – jej wyniki wyszukiwania były trafne. Pomysł Larry'ego Page’a, by ściągnąć na swój komputer całą zawartość Internetu24, choć z początku wydawał się kuriozalny, zaczynał się realizować z pomocą zwykłych PC-tów. Genialni młodzi naukowcy, Larry Page i Sergey Brin, z uporem maniaków podłączali do siebie kolejne, z trudem zdobyte, zdezelowane uniwersyteckie komputery, i w ten sposób zwiększali moc obliczeniową, tworząc podwaliny pod największy komputer świata25. I choć z początku wielcy biznesu nie poznali się na dokonywanym właśnie przełomie, bowiem propozycję kupna Google odrzucili i właściciele Alta Visty, Excite i innych wyszukiwarek26, to wkrótce do firmy zaczęły napływać pierwsze poważne pieniądze inwestorów: najpierw 100 tys. dol. od Na temat języka por. ibidem, s. 122-148. Jak powiedział o sobie Larry Page, współzałożyciel Google, w czasach, gdy jeszcze był doktorantem na Stanfordzie: „Miałem taki szalony pomysł, że ściągnę na swój komputer całą zawartość Internetu”. D. A. Vise, M. Malseed, Google Story. Opowieść o firmie, która zmieniła świat, przeł. J. Urban, Wydawnictwo Dolnośląskie, s. 17. 25 Nicholas Carr, amerykański ekspert ds. technologii i autor książek, wyraził się na ten temat tak: „W zasadzie Google buduje największy komputer świata”. L. Reppesgaard, Imperium Google, przeł. P. Sadurska, Wydawnictwo BC.edu, Warszawa 2009, s. 17. 26 Na temat oferty sprzedaży przez Uniwersytet Stanforda systemu Google za 1 mln dol. i przyczyn odrzucenia kupna Google przez właścicieli występujących na rynku wyszukiwarek zob. D. A. Vise, M. Malseed, Google Story, s. 9, 5153. 23 24 246 angel investor27, później kolejne, większe już kwoty od inwestorów indywidualnych, następnie równowartość 25 mln. dol. od dwóch największych w Kalifornii firm inwestycyjnych typu venture capital, Kleiner Parkins i Sequola Capital28 – to wystarczyło, by firma złapała wiatr w żagle i nadążała za dynamicznym wzrostem samego Internetu29. Potwierdzeniem spektakularnego sukcesu Google był udany debiut na giełdzie NASDAQ i coraz wyższa cena za akcję, która poszybowała od 55 dol. w 2004 roku do ponad 800 dol. obecnie (Spółka Alphabet)30. Gdy Mumford zatrzymał się na tezie o indywidualności i nienaruszalności języka przez maszynę, nie zdawał sobie jeszcze sprawy, że zaledwie ćwierć wieku później do gry o ludzkie umysły wejdą jej bardzo specyficzne odmiany. Wyszukiwarka w języku angielskim to „search engine”, a więc silnik czy maszyna wyszukiwawcza31. Wraz ze wzrostem Internetu, powstawał coraz większy chaos informacyjny i narastały trudności ze znalezieniem wartościowych informacji. Ewolucja komputerów w kierunku urządzeń osobistych stworzyła aurę anonimowości działań, wspartych przez zacisze domowego kąta. Intymne wyszukiwanie przywodzi na myśl zjawisko spowiedzi w kościołach chrześcijańskich. I tam, i tu otrzymujemy obietnicę uczestniczenia w Absolucie, Bogu lub Wielkiej Bazie Danych (Big Data), łączymy się z Mądrością w izolacji od innych, niewtajemniczonych, a odpowiedź otrzymujemy niemal natychmiast: satysfakcjonujące wymazanie grzechów lub odpowiednią informację32. Tak jak np. Kościół katolicki 27 Mowa o Andym Bechtolsheimie, informatyku, inwestorze z Cisco System, współzałożycielu Sun Microsystems, który końcem sierpnia 1998 roku zainwestował w młode, ryzykowne przedsięwzięcie 100 tys. dol. Por. D. A. Vise, M. Malseed, Google Story, s. 56-59. 28 Więcej na temat pertraktacji z firmami inwestycyjnymi wysokiego ryzyka por. D. A. Vise, M. Malseed, Google Story, s. 81-83. 29 Na temat skalowalności systemu Google zob. R. Stross, Planeta Google, przeł. A. Wojtaszczyk, O. Wojtaszczyk, Wydawnictwo Studio EMKA, Warszawa 2009, s. 66. 30 Dane na podstawie wyszukiwarki Google z dn. 5.09.2016. Warto tu wspomnieć o planach ówczesnego dyrektora generalnego Google (obecnie prezesa zarządu) Erica Schmidta, który w 2006 roku stwierdził o modelu strategicznym firmy, że jest „stworzony, by się rozrastać, nie znając granic. Dziś nie widzimy żadnych ograniczeń dla tego modelu ciągłego rozwoju”. R. Stross, Planeta Google, s. 23. 31 Por. przypis w książce D. A. Vise, M. Malseed, Google Story, s. 316. 32 Sam zresztą Sergey Brin w 2002 roku porównał idealną wyszukiwarkę do Ducha Bożego, bo dokładnie wiedziałaby to, czego chcesz. L. Reppesgaard, Imperium Google, s. 45. 247 otrzymywał dostęp do umysłów ludzi w sakramencie spowiedzi, tak teraz wyszukiwarki, z Google na czele, mają dostęp do umysłów ludzi współczesnych33. Za pomocą wpisywanych w okno wyszukiwarki Google fraz, ludzie z całego świata – bez względu na narodowość, wiek, wyznanie, status społeczny – przekazują całe bogactwo myśli34, języków, pragnień i oczekiwań w jedno miejsce35. Każdy ich ruch jest zapisywany, każde słowo utrwalane. Ambitna misja korporacji z Mountain View, wyrażona w formule „uporządkowanie światowych zasobów informacji, tak by stały się powszechnie dostępne i użyteczne”36, nie zawiera, jednego acz istotnego, dopowiedzenia – że najważniejszą informacją jest każdy z nas, a użyteczność z nich czerpią zazwyczaj prywatne przedsiębiorstwa w lepszym „targetowaniu” reklam. Dzięki sysZdaniem Marshalla McLuhana, przez urządzenia elektrotechniczne, zwłaszcza komputer, został przedłużony nasz ośrodkowy układ nerwowy, tak jak wcześniej mechanizacja przedłużyła nasze ciało. Człowiek w wizji McLuhana podlega aż tak wielkiej konsolidacji z maszynami (stając się „serwomechanizmem”), że traktowany jest jako ich organ płciowy. Ten znany na świecie teoretyk mediów widział w nich środki kontroli i władzy, odpowiednio klasyfikując jako „gorące” i „zimne” środki przekazu. Z kolei za najwyższy cel elektroniki uznał oddziaływanie na świadomość zbiorową. Por. M. McLuhan, Zrozumieć media. Przedłużenia człowieka, przeł. N. Szczucka, Wydawnictwo Naukowo-Techniczne, s. 33, 58, 86, 298, 461. 34 Jak wyraził to sugestywnie John Battelle, współzałożyciel prestiżowego magazynu „Wired”, traktującego o wpływie na inne dziedziny życia nowych technologii, relacjonując swoje wrażenia z roku 2001 na temat początku rozwoju Google: „Byłem w szoku. Zeitgeist ukazał mi, że Google nie tylko trzyma rękę na pulsie kultury, ale tkwi bezpośrednio w jej systemie nerwowym. (…) Dobry Boże, pomyślałem sobie, Google wie, czego szukają ludzie!”. J. Battelle, Szukaj. Jak Google i konkurencja wywołali biznesową i kulturową rewolucję, przeł. M. Baranowski, Wydawnictwo Naukowe PWN, Warszawa 2006, s. 8. 35 Nie należy tego, oczywiście, traktować dosłownie. Google nie podaje do publicznej wiadomości informacji na temat tego, ile posiada centrów komputerowych, którymi zarządzają jego firmy córki, jak Exaflop LLC. Liczba centrów, a tym samym komputerów uszeregowanych w tzw. klastrach (inaczej zwanych węzłami) cały czas rośnie. Pewne jest to, że w samych USA centra komputerowe Google pożerają więcej prądu, niż wszystkie znajdujące się tam telewizory razem wzięte. Por. L. Reppesgaard, Imperium Google, s. 73-81. 36 Misja firmy wyrażona na stronie: https://www.google.pl/about/company/ (data dostępu: 06.09.2016). O kulturze pracowników Google, dla których oczywistym jest to, że powinno się zindeksować i udostępnić szerokiemu gronu odbiorców wszystkie informacje na świecie zob. L. Reppesgaard, Imperium Google, s. 44. 33 248 temowi reklamowemu AdWords udało się nadać firmie bardzo zyskowny model biznesowy, który uratował ją przed szybkim upadkiem. I choć, jako prywatna firma, ma prawo dążyć – zgodnie z doktryną kapitalizmu – do jak największych zysków, to już sama forma osiągania profitów może być poddawana pod publiczną dyskusję37. Google, niczym gigantyczny odkurzacz, wchłania coraz więcej świata38 i „udostępnia” go na własnych warunkach. Z żelaznej konsekwencją działa zgodnie z zasadą: „więcej danych to lepsze dane”39. Zasysając miliardy stron WWW i zapisując je na własnych dyskach, zmienił wolny, spontaniczny obraz Internetu w konkurs stron, które będą spełniać jego kryteria40. Łącząc ze sobą satelitarne i fotogrametryczne obrazy kawałków ziemi, utworzył obraz całej planety w usłudze Google Maps, odciskając zarazem na nim swoje piętno. To nie jest świat, w którym wyróżnia się warte uwagi obiekty, ale świat, na którym widnieją firmy, które wcześniej za to zapłaciły. Usługa Google Street View pozwoliła niemal każdemu zajrzeć w okiennice naszych domów, wkraczając na coraz intymniejsze warstwy prywatności41. Zabierając się za digitalizację milionów książek z prestiżowych amerykańskich uczelni, wszedł w konflikt z właścicielami praw autorskich, a także obudził obawy, że będzie kształtować świadomość następnych pokoleń Mam tu na myśli liczne kontrowersje, które co jakiś czas pojawiały się wraz z uświadamianiem sobie przez użytkowników Google, że firma coraz bardziej wkracza w ich prywatność. Przykładem mogą być nieprzychylne reakcje opinii publicznej w USA po wprowadzeniu usługi poczty elektronicznej Gmail, w której pojawiały się reklamy ściśle związane z treścią prywatnej korespondencji. Więcej na ten temat w D. A. Vise, M. Malseed, Google Story, s. 179199. Warto także zaznaczyć, że Google tak bardzo zależało na archiwizowaniu wiadomości przez użytkowników Gmail, że na początku usługi aż przez dwa lata nie było opcji „usuń wiadomość”; w końcu jednak, po protestach użytkowników, ten przycisk dodano. Zob. R. Stross, Planeta Google, s. 213-214. 38 O przenoszeniu świata do pamięci komputera, a następnie przenoszeniu do komputera naszej świadomości zob. M. McLuhan, Zrozumieć media, s. 103105. 39 Jest to ponoć ulubione powiedzonko inżynierów Google. Zob. R. Stross, Planeta Google, s. 27. To samo zauważa Randall Stross. Im więcej informacji – sądzi Stross – zostanie wprowadzonych do wyszukiwarki, tym będzie ona mądrzejsza. Por. R. Stross, Planeta Google, s. 66. 40 O nowej ekologii Internetu przeczytaj w: J. Battelle, Szukaj, s. 65. 41 Więcej na temat kontrowersji wokół usługi Street View zob. L. Reppesgaard, Imperium Google, s. 147. 37 249 w oparciu o wybrane przez siebie, anglojęzyczne książki42. Przejmując YouTube i zachęcając użytkowników do zapisu i udostępniania na filmie swojego życia, wkroczył do domów wielu z nas43, którym do głowy by nie przyszło, że są dostarczycielami ogromnej ilości informacji, które w przyszłości zostaną poddane bardzo dokładnej analizie. Głównym problemem Google jest to, że ma zbyt dużo informacji, których nie jest jeszcze w stanie adekwatnie zinterpretować i usystematyzować44. Cały system, choć w miarę dobrze sobie radzi, dzięki matematycznej analizie z krótkimi frazami wpisywanymi przez użytkowników, wciąż ma problem ze zrozumieniem sensu wypowiedzi i odgadnięciem jej kontekstu. Choć wkroczył na pole odgadywania intencji wyszukującego, jak choćby w podpowiedziach typu: „czy chodziło Ci o...?”, to interpretacja emocji (stąd zachęta do używania emotikonów), obrazów czy filmów45 (co jest na zdjęciu czy filmie?), a także tłumaczenia z języka na język, pozostawiają jeszcze wiele do życzenia 46. Jednak to może się zmienić. Zaawansowane badania nad sztuczną inteligencją47 prawdopodobnie doprowadzą do sytuacji, kiedy wszelkie zmagazynowane zasoby danych będzie można właściwie interpretować za pomocą maszyn, a wtedy obudzimy się w świecie, w którym naszym nowym przewodnikiem będzie wyszukiwarka. Google to uśpiony Na temat kontrowersji wokół przeprowadzania projektu Google Books zob. D. A. Vise, M. Malseed, Google Story, s. 280-293. Znamienna jest zwłaszcza reakcja Jeana-Noëla Jeanneney'a, dyrektora Bibliothèque Nationale, który w „Le Monde” tak wyraził swoje obawy: „Nie chcę, żeby o rewolucji francuskiej uczono się ze źródeł wybranych wyłącznie przez Amerykanów”. Ibidem. 43 YouTube to portal, zdaniem Larsa Reppesgaarda, który na nowo określa granice między tym, co prywatne, a tym, co publiczne. L. Reppesgaard, Imperium Google, s. 19. 44 Jak podaje Lars Reppesgaard, trwają w Google prace nad wyszukiwaniem semantycznym. L. Reppesgaard, Imperium Google, s. 215. 45 Randall Stross nazwał identyfikację video jednym z najtrudniejszych problemów w informatyce. R. Stross, Planeta Google, s. 247. Lars Reppesgaard wyraził to prościej: „roboty indeksujące (...) nie rozumieją filmów”. L. Reppesgaard, Imperium Google, s. 85. 46 Na temat historii automatycznego tłumaczenia zob. R. Stross, Planeta Google, s. 109 i n. Członek zespołu Google, który zajmuje się tłumaczeniem automatycznym, określił język jako jedno z największych wyzwań w ulepszaniu wyszukiwarki. Por. L. Reppesgaard, Imperium Google, s. 122. 47 O znaczeniu wyszukiwania dla badań nad sztuczną inteligencją zob. w: J. Battelle, Szukaj, s. 12, 18. Także D. A. Vise, M. Malseed, Google Story, s. 343. 42 250 Wielki Brat48, lecz kiedy się przebudzi, wszelkie poprzednie Orwellowskie przestrogi wydadzą się śmieszne, a może niepotrzebne – będziemy szczęśliwi, wiedząc, co robić, myśleć, pragnąć49, a przestarzały impuls elektryczny układu nerwowego żywego organizmu zostanie zastąpiony przez mały, szary komunikat, podający te kilka milisekund, jakie dzieliły nas od otrzymania pierwszej na liście wyników, jedynie słusznej odpowiedzi50. Jedna z osób kierownictwa Google skomentowała obawy J. Battelle'a nt. wprowadzenia ustawy USA PATRIOT, która po atakach terrorystycznych na WTC rozszerzała uprawnienia inwigilacyjne władz USA: „Niewiele już trzeba, aby postrzegano nas jako Wielkiego Brata”. J. Battelle, Szukaj, s. 17. Jako ciekawostkę dodam za Randallem Strossem, że w 2003 roku Google został nominowany przez Privacy International do nagrody „U.S. Big Brother Award”. Zob. R. Stross, Planeta Google, s. 136. 49 W 2007 roku w Londynie na pytanie o to, jak Google może wyglądać za pięć lat, Eric Schmidt odpowiedział, że ostatecznym celem jest dostarczenie softwarowi Google'a takiej ilości danych osobistych na temat każdego z odwiedzających, by ten mógł odpowiedzieć na takie pytania, jak: „Co mam robić jutro?” czy „Jaki zawód powinienem wybrać?”. R. Stross, Planeta Google, s. 28. Już teraz urzędnicy ds. ochrony danych uważają, że Google dysponuje największym zasobem prywatnych danych na świecie. L. Reppesgaard, Planeta Google, s. 25. Innym razem Sergey Brin podał w oświadczeniu firmowym z czerwca 1999 roku, że: „Idealna wyszukiwarka będzie przetwarzać i rozumieć wszystkie informacje na świecie. To jest właśnie kierunek rozwoju Google”. L. Reppesgaard, Imperium Google, s. 45. O zagrożeniach związanych z posiadaniem przez Google ogromnej ilości danych zob. Ibidem, s. 209 i nast. 50 Jak obrazowo podsumował dążenia Google Sergey Brin: „Dlaczego nie mielibyśmy ulepszyć naszymi technologiami ludzkiego mózgu? Być może za kilkanaście lat będziemy mogli podłączać sobie Google do głowy i każda potrzebna nam informacja po prostu nam się »przypomni«. Dla mnie to niezwykle ekscytująca wizja”. D. A. Vise, M. Malseed, Google Story, s. 356. 48 Sebastian Dama Gdańska Szkoła Wyższa Τέχνη JAKO WYRAZ SYMBIOTYCZNEGO BRAKU W HUMANIZMIE NA PODSTAWIE DZIEJÓW KULTURY ZACHODNIOEUROPEJSKIEJ Na początku tworzenia się kultury zachodnioeuropejskiej stał mit1. Powstała później nauka obejmowała całość społecznego bytu i nie była podzielona na szczegółowe części. Filozofia (jak i jej późniejsze dziedziny) stanowiła całość2. Wiedza zajmująca się przyrodą oraz człowiekiem uzupełniały się. Konstytuował je starożytny grecki duch. Aczkolwiek wcześniej również można było dostrzec jedność techniki oraz sfery ducha człowieka. Jak to zauważył A. J. Karpiński, zadziwia „wysiłek starożytnych Egipcjan wznoszących piramidy w imię wieczności. Oni chyba lepiej znali tajemnicę życia. Ich piramidy demaskują nasz „materializm ekonomiczny” i wspierane przez niego abstrakcje”3. Na tej podstawie można wnioskować, że nauka w owym czasie nie posiadała tak abstrakcyjnej formy, jaką ma współcześnie. Wiedza łączyła się z tym, co doczesne, była blisko praktyki społecznej, ale również nie odbiegała od teorii, dlatego nie była doświadczeniem4 znanym z empirystycznych teorii. Tym samym nie posiadała specyfiki ἐπιστήμη (w rozumieniu Platona — S.D.), ale była czymś pomiędzy teorią i praktyką (obecnie rozumianą przez pryzmat pragmatyzmu)5. Stąd ta ostatnia Zob. W. Jaeger, Paiedeia. Formowanie człowieka greckiego, przeł. M. Plezia i H. Bednarek, Fundacja ALETHEIA, Warszawa 2001, s. 229. 2 Ks. G. J. Zakrzewski, Filozofia antyczna w pierwotnym chrześcijaństwie. O recepcji filozofii antycznej w pismach Ojców Kościoła według Dariusza Karłowicza, Wyd. NATAN, Lublin 2013, s. 24–25. 3 Zob. A. J. Karpiński, Arystokratyczny socjalizm Platona. Nierówność jedności ludzkiej równości w ujęciu M. Bierdiajewa, „Zeszyty Naukowe Gdańskiej Szkoły Wyższej”, T.16, Gdańsk 2016, s. 117. 4 Zob. W. Jaeger, Paiedeia…, s. 689. 5 Słowo pragmatyzm wg W. Jamesa ma pochodzić od greckiego słowa πράγμα i oznaczać „czynność” (zob. Pragmatyzm. Popularne wykłady z zakresu filozofii, przeł. W.M. Kozłowski, Książka i Wiedza 1957, s. 24). Jednak słownikowo oznacza ono: czyn, sprawę, zdarzenie, układ zdarzeń, czyli nie to, co suge1 252 bliska była wiedzy, którą Arystoteles określał mianem φρόνησις. A zatem τέχνη nie posiadała znamion wiedzy, którą zdobywało się tylko poprzez kształcenie, ale także poprzez wychowanie6. W. Jaeger pisze: Wychowanie jako funkcja ludzkiej społeczności jest czymś tak powszechnym, naturalnym i koniecznym […] jego treść jest u wszystkich ludów mniej więcej taka sama, moralna i praktyczna zarazem; także i u Greków nie ma ona innego charakteru. Z jednej strony przybiera postać przykazań […] z drugiej zaś wyraża się w przepisach zewnętrznej obyczajności i praktycznych wskazówkach roztropności życiowej, przez wieki całe podawanych sobie z ust do ust — albo też w tradycji fachowych umiejętności i sprawności, których zawartość, jeśli można przekazać ją komuś drugiemu, Grecy oznaczali słowem techne7. Jak przedstawia amerykański badacz, ten ostatni typ wiedzy przyjmował formy: a) zawodu praktycznego (malarstwo, architektura, rzeźbiarstwo, ale również sztuka lekarska, wojskowa, czy sterowania okrętem)8, b) umiejętności (praktycznej, czyli służącej pewnym praktycznym celom). Τέχνη, jak przedstawiała to myśl starogrecka, było odwzorowaniem natury. Mimetycznym dziełem człowieka względem otaczającej go rzeczywistości, którą racjonalnie ujmował w postaci abstrakcji: ruje amerykański filozof (zob. Słownik terminów arystotelesowych, [w:] Arystoteles, Dzieła wszystkie, t.7, ułożył K. Narecki, indeksy pojęć i nazw sporządziła D. Dembińska-Siury, PWN, Warszawa 2003, s. 98). Ponadto πράγμα odróżnia się od πρακτίκός oznaczającego działanie, postępowanie odnoszące się do każdej czynności, której cel tkwi w niej samej (por. πρακτικός (w:) Dictionary of Standard modern Greek, [online] <http://www.greeklanguage.gr/greekLang/modern_greek/tools/lexica/triantafyllides/search.html?lq=%CF%80%CF%81%CE%B1%CE%BA%CF%84%CE%B9%CE%BA% CF%8C%CF%82&dq=>, s. 1.). Przyczyną dla πρᾶκςις w przeciwieństwie do πράγμα jest postanowienie, czyli myślenie praktyczne, a celem jest samo działanie, jego odpowiednie prowadzenie i pomyślność. Natomiast celem tej drugiej jest skutek, jego przeliczalna miara. Stąd πράγμα to nic więcej jak: rzecz, przedmiot lub πράγματα, czyli czyny sprawiedliwe, rozważne (zob. Arystoteles, Etyka nikomachejska, przeł., wstępem i koment. opatrzyła D. Gromska, PWN, Warszawa 2007, s. 109–110). Dlatego pragmatyzm oraz praktyka nie są synonimami i nie powinny być stosowane zamiennie). 6 B. Śliwerski, Pedagogika ogólna. Podstawowe prawidłowości. Wyd. IMPULS, Kraków 2012, s. 31–39. 7 Zob. W. Jaeger, Paideia…, s. 47. 8 Zob. Ibidem, s. 689. 253 […] refleksja nad państwem i jego życiem ma z natury charakter praktyczny, podczas gdy badania nad tym, co Grecy nazywali physis i genesis („przyrodą” i „początkiem”), uprawiane były zawsze raczej ze względów teoretycznych. Grecy nauczyli się patrzeć teoretycznie na problem człowieka dopiero wtedy, gdy na wzorach problematyki dotyczącej świata zewnętrznego, przede wszystkim w oparciu o medycynę i zdobycze matematyki, wykształcił się pewien wzorzec ścisłej techne, mogący znaleźć zastosowanie także do badań nad psychiczną stroną człowieka. Przypomina nam się tutaj sformułowanie Hegla: „Drogi ducha są drogami okrężnymi”. Podczas gdy dusza Wschodu dla zaspokojenia swych tęsknot religijnych zagłębia się od razu w otchłaniach uczucia, ale nie znajduje tam nigdzie pewnego punktu oparcia, oko Greków, przywykłe do prawidłowości świata zewnętrznego, odkrywa skutkiem tego niebawem również wewnętrzne prawa rządzące duszą ludzką i zdobywa się na obiektywne widzenie ładu obowiązującego w jej wnętrzu. Dopiero to odkrycie umożliwiło w krytycznym momencie dziejów greckich stworzenie nowego systemu wychowawczego na zasadzie filozoficznego poznania, co stało się programem Platona9. W języku greckim pojęcie τέχνη odnosi się do przestrzeni praktycznego działania i praktycznych umiejętności człowieka10 oraz jego zdolności mimetycznych względem natury, która go otacza. Umiejętności te odzwierciedlają się w wiedzy, którą określa się mianem ἐπιστήμη11. Jednakże L. Shiner argumentuje, że τέχνη nie może być tylko odnoszone do wytwórstwa, ale powinno łączyć się ze sztuką, jako społecznie uwarunkowanego kunsztu w dziejach ludzkiej kultury12. A zatem można mówić, że ten typ wiedzy odnosi się do tego, co teoretycznoprzedmiotowe, a nie formalno-logiczne i formalno-symboliczne. Natomiast, jak pokazała historia kultury zachodnioeuropejskiej, ten stan 9 Zob. Ibidem, s. 230–231. O. Jurewicz, Słownik grecko-polski. Na podstawie słownika Zygmunta Węclewskiego, Wyd. Nauk. „Sub Lupa”, s. 965. 11 W związku z tym, błędnym wydaje się przeciwstawianie ἐπιστήμη wobec τέχνη. Z punktu widzenia epistemologii Platona, ten ostatni termin znajdowałby się w przestrzeni określanej mianem διάνοια. Natomiast w terminologii Arystotelesa byłaby typem wiedzy wyrobniczej τέχνη, w przeciwieństwie do praktycznej φρόνησις i teoretycznej ἐπιστήμη. 12 J. Dunnem, Back to the Rough Ground: 'Phronesis' and techne in Modern Philosophy and in Aristotl, Notre Dame, University of Notre Dame Press, Indiana 1997, s. 19–20. 10 254 rzeczy zależał od przyjętego paradygmatu13. Do zmiany tego ostatniego, w późniejszym czasie, doszło wraz z narodzeniem się potęgi starożytnego Rzymu. W przeciwieństwie do Greków, Rzymianie skupili się na czynnościach, nie tyle uwzględniających podmiot, względem którego został dokonany określony akt, ale ekwiwalentu, jaki można było uzyskać wskutek podjętego działania14. Jednak zmiana ta nie dotykała całości społecznego bytu, a tylko pewnych jego elementów. Niemniej w tym czasie dokonało się rozdzielenie tego, co teoretyczne, praktyczne i pragmatyczne. Łącznie ze zmianą wzoru społecznego, metamorfozie uległo podejście do nauki. W czasie średniowiecza, ta ostatnia była częścią religii. Stąd łączona była z dogmatem. Sytuacja się zmieniła od czasu F. Bacona i P. P. de Maricourta. Miało tu miejsce rozdzielenie τέχνη od ἐπιστήμη, gdzie ta ostatnia zwrócona została w sferą phisis, ale wciąż pozostawała w relacji z objawieniem, które było wyznacznikiem prowadzonych badań. Późniejszy kartezjański racjonalizm nie był tu wyjątkiem. Natomiast stał się nim empiryzm J. Locka oraz D. Huma. Do całkowitego zerwania na drodze dowodów, pomiędzy τέχνη z δόγμα doszło w filozofii I. Kanta. Od tego czasu dokonała się zmiana paradygmatów i myśl techniczna odłączyła się od humanizmu. Każda z tych dziedzin poznania stworzyła swoją drogę budowania wiedzy. Dotychczasowe miejsce humanizmu zajął inny czynnik współczesnego zindustrializowanego społecznego bytu — kapitał. Od tego momentu τέχνη nie wiązało się już z ἐπιστήμη, a na trwałe stało się elementem nauk przyrodniczych, w których istotnym elementem weryfikującym prawdziwość dokonanego odkrycia stał się zysk, podbudowany na utylitarystycznych i ewolucyjnych ideach. Pozwalało to na skuteczne działanie oraz na przetrwanie w świecie przyrody, i tym samym zapanowaniem nad tą ostatnią, wbrew biblijnym opisom15, które skazywały człowieka na trudy życia ziemskiego. Jednak nadmierna szczegółowość, w którą została wplątana technika, zbytnie skupienie się na abstrakcji fizycznej i matematycznej oraz ukształtowanie moralności na podstawie kapitału, stały się przyczyną zaistnienia meonicznej16 formy Por. A. J. Karpiński, Prywatna własność środków produkcji. Od ojcobójstwa do syna marnotrawnego, Wyd. GWSA, Gdańsk 2010, s. 99. 14 S. Kot, Historia wychowania, t. I, Wyd. Akademickie „Żak”, Warszawa 1996, s. 99. 15 Rdz 3, 16–19 [online] http://biblia.deon.pl/rozdzial.php?id=3 16 Pojęcie to swe źródłosłowie czerpie od gr. τε μέ όν oznacza niebyt, nicość. Z kolei sam termin meoniczność odnosi się do bytu społecznego, który „nie posiada żadnej treści”, nie jest substancją z punktu widzenia filozofii Arystote13 255 społecznego bytu oraz narodzin kryzysów w późniejszym czasie. W ten stan rzeczy wpisały się nie tylko przedmioty natury materialnej, ale również wszelkie zjawiska obecne w kulturze człowieka zachodnioeuropejskiego. Przyczyn tego upatrywać można było w przyjętej w tej ostatniej wizji postępu17 oraz filozoficznych systemach, które umożliwiły ukształtowanie obecnego społeczeństwa, w formie wyalienowanego, nastawionego konsumpcyjnie tworu. Ideami, które w taki sposób kształtowały społeczeństwo był pragmatyzm (W. James) oraz powstały na jego gruncie instrumentalizm (J. Dewey). Ich prakseologicznym wyrazem stała się hegemonia (gr.ηγεμονία), która występowała w swej politycznej i kulturowej formie na przestrzeni całej Europy i Ameryki Północnej. Skutkiem tego była jednowymiarowość (H. Marcuse) i wyrosły na jej gruncie globalizm18. To w nią wpisują się funkcjonujące współczesne korporacje, które masą swych usług i produktów, tworzą sieć zależności, oplatając cały świat19. Stąd przestrzeń makrospołeczna staje się inherentną częścią sfery mikrospołecznej, czego wyrazem jest teoria konfliktu wg R. Collinsa, która wskazuje, że życie społeczne współcześnie można opisać bazując na teorii organizacji20. W tak zbudowanej społecznej rzeczywistości decydującym elementem dominacji jest posiadany kapitał i instytucje będące narzędziami tworzenia oraz kontroli polityki i prawa, w przestrzeni lokalnej i międzynarodowej 21. lesa, co sprawia, że może istnieć tylko transcendentnie w projekcji świadomości jednostki, lub grupy, lecz nie ma immanentnego (substancjlanego) istnienia, konkretnego bytu, jest niepełne i nie inherentne, posiada postać egzystencjalną, ale brak jej postaci esencjalnej. 17 S. Dama, Czas jako kategoria zachodnioeuropejskiej filozofii a koncepcja wieczności M. Bierdiajewa. Ich konsekwencje i znaczenie dla współczesnego człowieka, „Granice Europy, Granice Filozofii — filozofia a tożsamość Rosji”, red. W. Rydzewski, L. Augustyn, Kraków 2007, s. 215–226. 18 G. Cimek, W labiryncie pojęć — globalizacja jako kategoria teoretyczna, „Zeszyty Naukowe Akademii Marynarki Wojennej”, 2011, 4 (187), s. 166– 173. 19 Why socio-economic inequalities increase? Facts and policy responses in Europe, raport Komisji Europejskiej, “Directorate-General for Research SocioEconomic Sciences and Humanities”, Brussels 2010, s. 17–24. 20 Zob. R. Collins, M. Makowsky, The Discovery of Society (1 wyd. 1972), Boston 1998, s. 282–285. 21 Choć, jak wskazuje A. J. Karpiński, należy mówić o czterowymiarowym bycie jednostek ludzkich we wzrastaniu w ich człowieczeństwie. Rzeczony autor wymienia: a) diachronię; b) synchronię; c) świat realny — wartość „tej strony” będący rekonstrukcją świata idealnego — wartości „tamtej strony”; d) pola współistnienia. Są one elementem bytu społecznego kształtującego 256 W tę strukturę wpisuje się współczesna technika. Ale czym ona jest obecnie? Jak podpowiada nam V. Dusek, technikę możemy odczytać współcześnie jako kilka różnych form ontoligicznych: a) sprzęt, b) zasady, c) system, d) naukę stosowaną. Ponadto technika rozumiana jako sprzęt, opisuje narzędzia i maszyny. Posiada konkretny i łatwo uchwytny wymiar. W wyniku posiadanej struktury, narzędzia są poznawalne zmysłowo. Na tej podstawie można odczytać ukrytą w nich myśl, która nie tylko jest wyrazem zysku, ale także przynosi wybawienie od trudów ludzkiego życia, na które ma wpływ natura. Jednak jest to obarczone kosztem życia w cywilizacji, która, jak powiadał J.J. Rousseau22, ma deprawujący wpływ na człowieka i jego życie społeczne. To ostatnie mieści się w przestrzeni ekologii23. Amerykańscy badacze tej sfery życia dostrzegli, że otaczająca człowieka przyroda może nie wytrzymać cywilizacyjnego rozwoju człowieka, co zagrozi istnieniu nie tylko określonych gatunków żyjących na Ziemi24, ale samemu człowiekowi zagubionemu w meoneoiczności swojej egzystencji. D. H. Meadows, D. L. Meadows i J. Randers piszą o tzw. przestrzeleniu, czyli o niezamierzonym przekroczeniu granic wynikającego z rozwoju cywilizacji: Dotyczy ono sytuacji [przestrzelenie —S.D], w której społeczność ludzka oraz gospodarka pozbawiają Ziemię bogactw naturalnych, emitując do środowiska zanieczyszczenia i odpadki. W wielu przypadkach tempo tych działań stało się trudne do zniesienia. Środowisko nie może go znieść. Społeczność ludzka przestrzeliła jego granice… Przestrzelenie powodować może konsekwencje różnego typu. Jedną z nich jest oczywiście jakiś rodzaj człowieka w jego ontogenezie (por. A. J. Karpiński, Wstęp do sofiologii, Wyd. GWSA, Gdańsk 2012, s. 260). 22 J. Derek, Ideał nowego państwa Jana Jakuba i Rewolucja Francuska, „Studia Politicae Universitatis Silesiensis”, nr 4–5, Katowice 2009, s. 17 i nast. 23 Termin ten pochodzi od gr. οίxος = dom, λόγος = myśl, nauka etc. Jest to dyscyplina naukowa, która nie jest tylko wyrazem dbania o środowisko, ale znajdywania w niej miejsca dla wszystkich gatunków, z możliwym uwzględnieniem ich wszystkich naturalnych potrzeb. Zajmuje się nie tylko opisem ich życiowej aktywności pośród innych gatunków, ale również znajdywaniem symbiozy pomiędzy nimi, tak, aby w jej ramach istniał i nie ginął wytworzony w czasie milionów lat określony ekosystem. 24 Zobacz, zanim znikną. Co roku z powierzchni Ziemi znika ponad 20 tysięcy gatunków zwierząt [online] < http://weekend.gazeta.pl/weekend/1,152121,19039440,zobacz-zanim-znikna-co-roku-z-powierzchni-ziemi-znika-ponad.html> 257 katastrofy. Inną, świadomy zwrot, korekta, stopniowe ograniczanie szybkości.25 Na tym przykładzie widać, że nie środki produkcji (na przekór K. Marksowi), a otaczający świat człowieka w jego naturalnej formie jest jego bazą, którą wskutek określonych idei przekształcił i doprowadził do takiego stanu, że trudno w przyszłości na nim będzie utrzymać jakąkolwiek formę życia. Z tej przyczyny najważniejszym jest zmienić obecny paradygmat: przedmiot — przedmiot, na podmiot — podmiot. Jedną z podstawowych rzeczy, która przyczyniła się do tego, że τέχνη stało się wyrazem symbiotycznego braku w humanizmie, jest fakt zarzucenia abstrakcji na poziomie metafizycznym (Arystoteles). Bez tego niemożliwe jest stworzenie nowej jakości w przestrzeni publicznej. Bez tego typu abstrakcji nie jest możliwe przeciwdziałanie jakimkolwiek niepożądanym skutkom działania abstrakcji fizycznej i metamerycznej. Ta pierwsza ze swej strony pomija w rozpatrywanej rzeczy wszelką materię i jednostkowość i związaną z tym jakościowość i ilościowość, a uwzględnia aspekt bytowości. Jak pisze I. Kant: Mianowicie właściwie należy mówić: „od czegoś abstrahować”, nie zaś „coś wyabstrahować”. Pierwsze wyrażenie wskazuje na to, że w przypadku pewnego pojęcia nie zważymy na nic, co byłoby z nim w jakimkolwiek sposób związane. Natomiast drugie z nich mówi, że pojęcie dane jest jedynie in concerto i to w ten sposób, że może być ono oddzielone od tego wszystkiego, co z nim związane. Zatem pojęcie intelektualne abstrahuje od wszystkiego, co zmysłowe, i nie jest z tego wyabstrahowane. Być może byłoby słuszniej nazwać je abstrahującym niż abstrakcyjnym. Z tego powodu stosowniej jest nazywać pojęcia intelektu czystymi ideami, natomiast te pojęcia, które są dane jedynie empirycznie — abstrakcyjnymi26. A zatem abstrahowanie musi opierać się na bycie, co jest znaczące z punktu widzenia zachowania światowej równowagi. W tym celu potrzebne byłoby ponowne włączenie filozofii w poczet problematyki naukowej, politycznej i jakiejkolwiek. Ponieważ to właśnie filozofia ze 25 D. H. Meadows, D. L. Meadows, J. Randers, Przekraczanie granic. Globalne załamanie czy bezpieczna przyszłość, tłum. Z. Dobrska, Centrum Uniwersalizmu przy Uniwersytecie Warszawskim, Polskie Towarzystwo Współpracy z Klubem Rzymskim, Warszawa 1995, s. 1–2. 26 I. Kant, O formie i zasadach świata dostępnego zmysłom oraz świata inteligibilnego. O pierwszej podstawie różnicy kierunków w przestrzeni, przełożył, opracował i posłowiem opatrzył A. Banaszkiewicz, Wyd. „Zielona Sowa”, Kraków 2004, & 6, s. 21. 258 swoim fundamentalnym dla człowieka i jego świata pytaniem „διὰ τί”, jest w stanie pozwolić mu na ominięcie złych skutków, wynikających ze stosowanych dotychczas narzędzi poznawczych i podboju świata. Ponadto w procesie abstrakcji, o którym mowa powyżej, możliwe byłoby uniknięcie rozpatrywania zjawisk ze świata społecznego, ale też i naturalnego z punktu widzenia analizy. Bowiem analiza pozwala zachować status quo, ale nie może wnieść niczego nowego ze swej istoty, nie tylko do badania, ale również do wszystkich sfer życia człowieka i gatunków, wśród których mógł stworzyć swój własny świat, czyli cywilizację. Stąd wskazanym byłoby tworzenie syntez, które rzeczywiście mogłyby nieść ze sobą nową wiedzę i być rzeczywiście miarą postępu, a nie tylko podboju, z którym mamy współcześnie do czynienia. Aczkolwiek działanie wiąże się ze specyfiką myślenia. Ludzki umysł, w tym wypadku, posługuje się analizą lub syntezą. Najczęściej w przestrzeni życia społecznego spotykamy się z tą pierwszą. I. Kant w następujący sposób przedstawia różnicę między nimi: W powyższym omówieniu tego podstawowego pojęcia, prócz cech należących do wyraźnego poznania przedmiotu, w pewnym stopniu uwzględniłem także jego podwójne pochodzenie z natury umysłu. Wyjaśnienie to może służyć jako przykład głębszego wniknięcia w metodę [stosowaną] w obszarze metafizyki, stąd też wydaje mi się ono w pełni godne polecenia. Albowiem czym innym jest – gdy części są dane — pomyśleć sobie złożenie jakiejś całości za pomocą abstrakcyjnego pojęcia intelektualnego, a czym innym wyprowadzić to ogólne pojęcie, jako pewnego rodzaju zadanie rozumowe, za pomocą zmysłowej władzy poznawczej — tzn. przedstawić je sobie in concerto za pośrednictwem wyraźnej naoczności. To pierwsze dokonuje się dzięki pojęciu złożenia w ogóle, o ile [części] są pod nim ujmowane (we wzajemnym stosunku), a wiec ostatecznie za pomocą idei intelektualnych i ogólnych. Drugie zaś wspiera się na warunkach czasu, o ile sukcesywnie przyłącza się część do części, zatem pojęcie rzeczy złożonej możliwe jest za sprawą wytwórczości — tzn. dzięki SYNTEZIE oraz należy do praw naoczności. W ten sam sposób, jeżeli tylko substancja złożona jest dana, łatwo dochodzi się do idei prostych części, znosząc intelektualne pojęcie złożenia w ogóle. Zatem tym, co pozostaje, gdy usunie się wszelkie powiązanie, są proste części. Jednakże zgodnie z prawami poznania naocznego ma to miejsce tylko wtedy — tj. wszelkie złożenie zostaje zniesione — gdy cofamy się od danej całości ku wszystkim możliwym częściom, tzn. dzięki analizie*, która ze swojej strony wspiera się na waWyrażeniom „analiza” oraz „synteza” przysługuje zazwyczaj podwójne znaczenie. Mianowicie synteza bywa już to jakościowa — wówczas jest progresem w szeregu rzeczy podrzędnie uporządkowanych od racji do wniosków, już to ilościowa — wówczas jest rozszerzeniem w szeregu rzeczy współrzędnie * 259 runku czasu. Skoro jednak rzecz złożona, wymaga wielości części, całości zaś ich ogółu, to ani analiza, ani synteza nie będzie zupełna, a zatem ani dzięki pierwszej nie wyłoni się pojęcie tego, co proste, ani też dzięki drugiej pojęcie całości, jako że obie nie mogą być zakończone w pewnym skończonym i dającym się wskazać czasie.27 Z tej przyczyny τέχνη powinno ponownie zwrócić się w stronę filozofii. Jednak ruch ten ten nie powinien dokonać się na zasadzie retrospekcji, ale heglowskiej syntezy. Tak aby uwzględnić wszelkie dziejowe naleciałości. A dlaczego filozofia? Otóż, jak było wspomniane wcześniej, ze względu na aspekt ontologiczny i stosowane narzędzia, ale również rozpatrywanie w swoim spektrum treści epistemologicznych oraz aksjologicznych. Tylko filozofia, w swojej perspektywie badawczej, jest w stanie ująć te przestrzenie społecznego bytu, które inherentne, wciąż nie oddzielają się od najistotniejszego bytowego elementu poznania; a ten, jak pokazuje przykład zachodnioeuropejskiej cywilizacji, ma kluczowe znaczenie, głównie dla samych działających. Jak dopowiada S. Brzozowski: Z innego jeszcze punktu widzenia postępowanie takie jest tu wskazane. Nie ma społeczeństwa, w którym by filozofia była bardziej lekceważoną niż u nas. Nie szanujemy nauki, filozofią wprost pomiatamy: uchodzi ona w naszych oczach za marzycielstwo niepotrzebne lub szkodliwe, za kwintesencję pedantyzmu i szkolarskiego zacietrzewienia. Ważną więc jest rzeczą wykazać, że jest ona siłą kulturalną pierwszego rzędu, z którą liczyć się potrzeba i której brak lub zanik odbija się w sposób opłakany na innych dziedzinach kulturalnego życia; rzeczą pierwszorzędnej doniosłości jest ukazać w niej wieczne rodło swobody duchowej społeczeństwa, w którym ciasna głowa, wąsko-praktyczna trzeźwość idzie w parze z zabobonem i wszechpotężną władzą dogmatyzmu. Są to wszystko rzeczy pierwszorzędnej wagi, gdyż postaram się może głęboko nie tylko na takich przejawach życia kulturalnego, jak nauka lub sztuka, lecz nawet na bardziej bezpośrednio ku życiu zwróconych formach działalności społecznej. Wprawdzie Marks i materializm dziejowy wywrócili już do góry nogami historiozofię Hegla i dowiedli, że nie życie z idei, lecz przede wszystkim idee z życia wyrastają, ale nawet zgadzając się, że cała „ideologia” jest tylko uporządkowanych od danej części przez części ją dopełniające – ku całości. W ten sam sposób analiza wzięta w pierwszym sensie jest regresem od następników do racji, natomiast w drugim znaczeniu przechodzeniem od całości do jej możliwych następstw lub [przynajmniej] pośrednich części, nie jest ona podziałem, lecz rozdziałem danego złożenia. Zarówno syntezie, jak i analizie przyjmujemy tu jedynie w drugim znaczeniu. 27 I. Kant, O formie i zasadach…, op. cit. s. 9–11. 260 jedną z form oddziaływania życia na samo siebie, można pragnąć, ażeby oddziaływanie to odbywało się w sposób najdokładniej i najzupełniej uświadomiony i systematyczny. Jeżeli siły życiowe wydobywają z siebie idee, które mają stać się następnie środkiem przeobrażana tych sił, to dzieje się to dlatego, że w tej formie właśnie mogą one osiągnąć największa możliwą potęgę i skupienie. Należy więc pragnąć, ażeby w kierunku tym rozwój ich był zupełny, ażeby każda idea, z życia wyrosła, dosięgła możliwie największego pogłębienia i ażeby doszła do samouświadomienia w zetknięciu innymi. Filozofia zaś właśnie wydobywa z każdej myśli wszystko, co jest zawarte, i nie znosi myśli pozostających biernie koło siebie, lecz roznieca pomiędzy nimi oddziaływanie wzajemne i w oddziaływaniu tym, w którym każdą myśl przetwarza się i jest zarazem przetwarzana, doprowadza je wszystkie do pełnego rozwoju28. Czas bifurkacji, w którym żyjemy w XXI w., jest czasem trudnym, ale warto wziąć pod rozwagę tysiące lat tradycji oraz wiele kryzysów, które nasza zachodnioeuropejska kultura przeszła w czasie swego trwania29. Ale uczynić należałoby to już nie po to, aby uniknąć kolejnego kryzysu, ale aby po prostu przetrwać… S. Brzozowski, Idee: wstęp do filozofii dojrzałości dziejowej, wstępem poprzedził A. Walicki, Wyd. Literackie 1990 Kraków s. 96–97. 29 „Kryzys to stan normalny kultury europejskiej — do takiego wniosku można dojść, śledząc, przynajmniej w ciągu ostatniego stulecia, perypetie tej samowiedzy, diagnozy intelektualistów, wizje artystów, samopoczucie „zjadaczy chleba”. Trudno znaleźć słowo, po które częściej by w tym czasie sięgano próbując określić kondycję Zachodu. Wokół pojęcia kryzysu powstało całe odrębne — i rozległe — pole semantyczne: zmierzch, schyłek, rozkład, zanik; przesilenie, punkt zwrotny, przełom; upadek, katastrofa, zagłada, koniec — to tylko najważniejsze tropy skojarzeń zaświadczone w historii intelektualnej XX wieku (por. G. Godlewski, Lekcja kryzysu. Źródła kulturalizmu Floriana Znanieckiego, Wydawnictwo KR, Warszawa 1997, s. 5). Warto w tym miejscu przytoczyć słowa J. Habermasa, który socjologię nazywa „[…] nauką o kryzysie” (por. J. Habermas, Teoria działania komunikacyjnego. Racjonalność działania a racjonalność społeczna, t.1, tłum. A. M. Kaniowski, Wyd. Naukowe PWN, Warszawa 1999, s. 22). Dlatego słowo „kryzys” tyczy się nie tylko zamierzchłych czasów, ale również współczesności, choć oczywistym jest, że przyjęta przez św. Augustyna wizja czasu wpłynęła znacząco na zupełnie inny niż dawniej, w czasach Starożytnych oraz początków Średniowiecza (por. S. Dama, Czas jako…, op. cit. s. 215 i nast.) charakter istniejącego w dobie Nowoczesności i „późnej nowoczesności” (A. Giddens) kryzysu. Oto kilka innych publikacji traktujących o kryzysie w XX i XXI w.: J. Jedlicki, Trzy wieki desperacji. Rodowód idei kryzysu cywilizacji europejskiej, „Znak”, 1996, nr 488 oraz inne wypowiedzi na temat kryzysu zawarte w tym numerze „Znaku” (zob. także J. Jedlicki, Historyczny rodowód idei kryzysu 28 261 cywilizacji europejskiej (w:) Dylematy współczesnej cywilizacji a natura człowieka, Poznań 1997, s. 103–117). Cytowana praca zawiera szereg referatów poświęconych kryzysowi współczesności. Były one wygłaszane na konwersatoriach organizowanych w Jabłonnie w latach 1994–1995 pod auspicjami Prezesa PAN, Profesora L. Kuźnickiego (por. L. Gawor, I. Zdybel; Idea kryzysu kultury europejskiej w polskiej filozofii społecznej. Analiza wybranych koncepcji pierwszej połowy XX wieku, Wydawnictwo Marii Curie-Skłodowskiej, Lublin 1995); A. J. Karpiński, Kryzys kultury, „Słupskie Studia Filozoficzne”, 1998, nr 1, s. 3–18; A. J. Karpiński, Kryzys kultury współczesnej, Wyd. Uniwersytetu Gdańskiego, Gdańsk 2003,; A. Jacyniak SJ, Z. Płużek, Świat ludzkich kryzysów, Wyd. WAM – Księża Jezuici, Kraków 1997; L. Grudziński, Zagrożenia współczesnej kultury (w:) Wobec kryzysu kultury, Gdańsk 1993, s. 13–39; Kryzys kultury europejskiej?, L. Żuk-Łapińska (red.), Wyd. WSP, Rzeszów 1997. To jest tylko kilka pozycji w pewien sposób odnoszących się do <<kryzysu>> kultury. W końcu XX w. pojawiało się wiele publikacji, które w swoim tytule zawierały blisko spokrewnione słowo <<koniec>> (zob. R. Borkowski, Cywilizacja, Technika, Ekologia. Wybrane problemy rozwoju cywilizacyjnego u progu XXI wieku, Uczelniane Wyd. Naukowo-Dydaktyczne, Kraków 2001, s. 36). 262 Krzysztof Kościuszko Uniwersytet Warmińsko-Mazurski O TECHNIKACH (MECHANIZMACH) ELIMINOWANIA METAFIZYKI - Z PERSPEKTYWY WITKACEGO Czy można liczyć na to, że warunki panujące w kapitalizmie są bardziej sprzyjające rozwojowi metafizycznych uczuć, wartości i teorii aniżeli niwelujące indywidualną osobowość warunki społeczeństwa socjalistycznego? Otóż nie bardzo. A przyczyną tego stanu rzeczy zdaje się być to, że w kapitalizmie (czy to w fazie liberalnej czy monopolistycznokorporacyjnej, czy globalistycznej) działał i działa mechanizm likwidacji indywiduum, a gdzie likwiduje się indywidualizm, tam istnienie uczuć metafizycznych stoi pod znakiem zapytania. Dlaczego? Bo jakie uczucia metafizyczne może mieć osobowość rynkowa? Albo zmechanizowana osobowość stechnologizowanego społeczeństwa? Liberałowie wierzą co prawda w indywidualność i wolność, ale osobowość ludzi żyjących w liberalnej fazie kapitalizmu jest przecież podporządkowana podażowo-popytowej grze rynku. Ludzie przestają się liczyć jako autorzy twórczych pomysłów niezależnych od rynkowych oscylacji, funkcjonują natomiast jako posiadacze albo nie posiadacze jakiejś ilości pieniędzy wyciśniętych z klientów, jako ludzie sukcesu albo bankruci. Ich samoocena jest uzależniona od pokonania konkurencji, ale nie są pewni, jak długo uda im się przyciągać klientelę. Indywiduum ma swobodę działania, ale na co ją obraca? Ludwig von Mises powiada, że w kapitalizmie są ci, którym się udało zdobyć pieniądze i są nieudacznicy. Na co tracą czas ci ostatni? Na zazdroszczenie tym pierwszym. Są nieliczni, którzy zdobywają wysoką pozycję i tacy, którzy jej nie zdobywają. Ci ostatni popadają w kompleks niższości1, ich dobre samopoczucie jest zakłócone widokiem ludzi bardziej przedsiębiorczych. W ogóle, jeśli profesor filozofii zarabia mniej aniżeli przedsiębiorca wytwarzający części zamienne do pralek, to po co studiować filozofię? Kapitalizm produkuje tego typu osobowość, która żyjąc dla zysku, stara się maksymalnie zaspokajać potrzeby konsumenta; ale trzeba przecież obniżać koszty produkcji, walczyć z konkurencją, informować się 1 Ludwig von Mises, Mentalność antykapitalistyczna, ARCANA, Kraków 2000, s. 19. 264 o zmiennych preferencjach klienteli itd. Czy taka osobowość ma czas na zajmowanie się filozofią albo metafizyką? Przede wszystkim trzeba utrzymać się na rynku. Prowadzenie interesów jest czasochłonne, ale czy klienci w ogóle pytają się o metafizykę? Każdy przedsiębiorca wie, że jego firma może w każdej chwili upaść. Jeśli firma upadnie, jej właściciel będzie czuł nienawiść i wrogość do tych, którym się powiodło. Będzie się starał wytłumaczyć sobie i innym przyczyny swej klęski, zrzuci winę na kapitalistyczny system. Być może przejdzie na pozycje antykapitalistyczne, ale czy taki bunt może stanowić odskocznię do jakiejś głębszej metafizyki? Czyż nie chodzi tu raczej o poparcie takich sił społeczno-politycznych, które pomogłyby mu odzyskać utraconą pozycję ekonomiczną albo wiarę w siebie? Kapitalizm produkuje więc osobowość, która jest nastawiona na utrzymanie się na rynku, a nie na kontaktowanie się (emocjonalne albo intelektualne) z wartościami metafizycznymi, chyba że będą to takie wartości, które dodadzą jej sił do ekonomicznej walki. Jeśli zaś wg narracji kapitalistycznej „pozycja każdego człowieka zależy od jego sposobu działania” 2, to dany nieudacznik nie powinien szukać wyjaśnienia i usprawiedliwienia dla swych ekonomicznych klęsk w jakiejś metafizyce czy filozofii w ogóle, lecz w zmianie sposobu działania z mniej efektywnego na bardziej efektywny. Umetafizycznienie osobowości rynkowej jest chyba niemożliwe, bo oznaczałoby to rozbudzenie tęsknoty do transcendentnych wartości i pragnienia realizowania wyższych celów, a to z góry zakładałoby, że dana osobowość musiałaby zrezygnować z absolutyzowania celów ekonomicznych. Wartości czysto metafizyczne są bardzo złym towarem na ekonomicznym rynku; wcale nie przynoszą dochodu. Podobnie osobowość metafizyczna: jej działanie wcale nie przyczynia się do wiary w potęgę rynku, chyba że można tę osobowość urynkowić. Jeśli autorzy metafizycznych książek chcą zaistnieć, nie mogą wyrażać swoich poglądów, lecz takie, na które jest popyt (jeśli takowy w ogóle istnieje). Jeśli dany autor pragnie być akceptowany (stara się przypodobać publice), to musi zrezygnować ze swej indywidualności, a wg Stanisława Ignacego Witkiewicza metafizyczne dzieła sztuki, religii czy filozofii są właśnie wyrazem tego, co szczególne i wyjątkowe („idiograficzne”) w przeżywaniu zagadek istnienia. Na rynku idei istnieje zapotrzebowanie na tego rodzaju filozofię, która daje receptę na sukces, uczy manipulować przedmiotami i ludźmi. 2 Ibidem, s.18. 265 Kontakt z wartościami metafizyczno-religijnymi, metafizyczno-artystycznymi czy metafizyczno-filozoficznymi jest niemile widziany, bo tego typu wartości nie mają siły przebicia na rynku. Rynek nie toleruje też idei, które byłyby niezależne i autonomiczne w stosunku do aktualnego albo przewidywanego popytu. W ogóle nie powinno się prezentować jakiejś ściśle określonej filozofii-metafizyki, bo gusta czytelników są zmienne i co było prawdziwe wczoraj, dzisiaj może się okazać nieaktualnym antykiem. Najlepiej byłoby obsługiwać ciągle zmieniający się popyt, a więc w ogóle wyzbyć się swej filozoficznej tożsamości. Poza tym wg Witkacego ideałem społeczeństwa kapitalistycznego jest coraz bardziej mechanizująca się produkcja w imię wciąż przyrastającego dobrobytu. Nadrzędnym celem nie jest rozwój indywiduum (jak by tego chcieli liberałowie), lecz sprawne funkcjonowanie systemu ekonomicznego, utrzymywanie gospodarki w stanie zdrowia za pomocą nowych naukowych technologii. Zysk indywidualny i korporacyjny powiększa się, gdy kapitalista inwestuje w naukę i postęp komputerowo-informatyczny. Nauka przede wszystkim! Metafizyka nie daje środków opanowania przyrody, a więc jest bezużyteczna. Po co w ogóle jest filozofia? Według Rudolfa Carnapa, filozofia ma sens o tyle tylko, o ile jest podporządkowana nauce, bada jej metody. W swej zasadzie tolerancji Carnap zaleca między innymi tolerować każdą metafizykę i każdą epistemologię wyłącznie jako materiał logicznej analizy, jako materiał, z którego da się ewentualnie zbudować (po uprzednim zastosowaniu analizy syntaktycznej) naukowo-epistemologiczny system konstytucyjny. Autor Logicznej budowy świata zarzuca pojęciom metafizycznym niejednoznaczność, przy czym, co ciekawe i co świadczy przeciw niemu, sam nie może uwolnić się od wieloznaczności pojęć syntaktycznych. Stosunek Carnapa do metafizyki jest albo neutralny, albo wrogi: najlepiej zastąpić ją albo epistemologią fenomenalistyczną albo fizykalistyczną, bo te przynajmniej są weryfikowalne. Można się zresztą przerzucać z epistemologii fenomenalistycznej na fizykalistyczną i na odwrót, ale Witkacy zadaje tutaj pytanie: czy rzeczywiście obie te epistemologie są sobie równorzędne? Czy rzeczywiście obie są do siebie redukowalne? Czy można rozstrzygnąć te pytania bez odwołania się do jakiejś metafizyki? A jeśli już chciałoby się ją uprawiać, powinno się stworzyć jakiś inny język: ani fenomenalistyczny ani fizykalistyczny. Dlaczego? Ponieważ trudno jest wyrazić w tych językach np. problem sensu istnienia, problem kondycji ludzkiego istnienia rozpiętego między skończonością a nieskończonością. Trzeba by najpierw wprowadzić pojęcie istnieniowej nieskończoności, a to ostatnie pojęcie nie mieści się przecież ani 266 w ramach fenomenalizmu (psychologizmu), ani fizykalizmu. Żeby uprawiać epistemologię fenomenalistyczną, trzeba użyć metafizycznego pojęcia podmiotowości poznającej (np. pojęcia „ja”); każda epistemologia ma jakieś ontologiczno-metafizyczne założenia, które wcale nie są obojętne dla rozstrzygnięcia sporu fenomenalizmu z fizykalizmem. Jest jasne, że jeśli np. staniemy na gruncie metafizyki monadologicznej, to będziemy redukować fizykalizm do fenomenalizmu („psychologizmu” w terminologii Witkacego), natomiast jeśli przyjmiemy założenia materialistyczne, będziemy fundować język fenomenalizmu w języku fizykalistycznym. Przyczyną odrzucenia przez Carnapa wszelkiej metafizyki miałaby być jej bezpłodność z naukowego punktu widzenia. Wg wiedeńskiego neopozytywisty, można zlikwidować spory, napięcia i sprzeczności filozoficzne poprzez stosowanie zasady tolerancji: trzeba by tolerować wszystkie sprzeczne nastawienia metafizyczne jako materiał analiz syntaktycznych. Celem tych analiz jest zbudowanie nowego systemu syntaktyczno-epistemologicznego, ale miałoby się to dokonać przy jednoczesnym zlikwidowaniu metafizyki, tj. wykazaniu, że jej zdania są pseudozdaniami pozbawionymi wszelkiej poznawczej treści. Należałoby je traktować jedynie jako ekspresje ludzkich emocji. Według Witkacego na ludzkość (niezależnie od systemu politycznego, w którym się ona znajduje) nachodzi fala mechanizującej się produkcji gospodarczo-kulturowej, powiązana z rozmaitymi totalitaryzmami, między innymi z totalitaryzmem masowej kultury. Będzie to skorelowane z zapanowaniem życiowej szarzyzny (bo jak żyć w miastach klockowato zabudowanych?), nudy, obojętności i poznawczej martwicy (czy od ludzi robotów, pozbawionych prywatnej inicjatywy, wymaga się myślenia?). Takie właśnie są następstwa funkcjonowania gospodarki naukowo zaplanowanej i uregulowanej, i dotyczyć to będzie także kapitalizmu, bo także w kapitalizmie jest coraz mniej miejsca na prywatną inicjatywę, na twórczą fantazję gospodarczą. Jednostki w coraz większym stopniu muszą się podporządkować zaprogramowanej produkcji i konsumpcji, stają się maleńkimi trybikami potężnej maszynerii ekonomiczno-biurokratycznej. Gdyby do tego nie doszło, spadłaby wydajność, a zyski uległyby zmniejszeniu. Jednakże: czy kogoś interesuje jednoczesne kurczenie się ludzkiej osobowości albo to, że w zmaszynizowanych warunkach pracy życie jednostek zostaje odwartościowane? Czy zdepersonalizowane życie ma jednak sens? Czy z kolei zadawanie takich pytań ma jakikolwiek sens? Czy dałoby się umetafizycznić gospodarkę i społeczeństwo? Zatrzymać procesy mechanizowania? Trzeba by zrezygnować z dbania jedynie 267 o wydajność produkcji, położyć większy nacisk nie na stechnologizowaną maszynerię procesów produkcyjnych (efektywniejszą od pracy indywidualnej), lecz na swobodne zrzeszanie się ludzi pracujących dla wytworzenia rzeczy nie-tandetnych. Nie dopuszczać do rutyny, walczyć o jakość, a nie ilość produkcji. Popuścić wodze fantazji i spekulacji poznawczej. Stworzyć możliwość krytycznej dyskusji. W ogóle trzeba by wychować ludzi nienasyconych w zadawaniu filozoficzno-metafizycznych pytań. Ale czy do tego wszystkiego dojdzie? Czy w ogóle miałoby to sens w obliczu dużych rozmiarów społeczno-ekonomicznej nędzy? Liberałowie marzyli o wychowaniu człowieka do wolności, natomiast w społeczeństwie o sprawnie działającej maszynerii gospodarczej chce się wychować ludzi pomnażających tę sprawność, ludzi-niewolników maszyny. Obecnie te procesy pogłębiły się na skutek rozrostu technologii i można nawet mówić o niewolnikach skomputeryzowanej i zinformatyzowanej maszynerii gospodarczo-społecznej. Czemu służy ta maszyneria? Czyżby pobudzaniu „uczuć metafizycznych”? Czy w ogóle jest tu miejsce na jakąkolwiek metafizykę? Na pierwszy rzut oka wydawałoby się, że nie. Można by było nawet rzec, że klasa robotnicza marzy jedynie o zaspokojeniu elementarnych potrzeb, zaś pracodawcy o maksymalizowaniu zysku, ale stwierdzenie takie nie do końca było i nie do końca jest prawdziwe. Nie było prawdziwe za czasów Witkacego: otóż klasa robotnicza w jego dramatach dyskutuje na tematy filozoficzno-metafizyczne, zaś przedstawiciele „burżuazji” i „arystokracji” nie mogą sobie poradzić z problemami egzystencjalnymi. Nikt nie ucieka w świat czysto mechaniczny; nie ma fascynacji maszyną i jej zwiększoną efektywnością. W świecie Witkacego istnieje tylko obawa przed możliwym totalnym zmechanizowaniem ludzkich osobowości. Czyżby w XXI wieku było inaczej? Czyżby ludzie dali się uprzedmiotowić? Zamienili się w biernych konsumentów albo w roboty? Czy uznali postęp techniczny za naczelną i jedyną wartość? Przestali krytykować status quo? Przestali pytać, dlaczego i po co? Przecież nawet jeśli korzystają z komputerowego programowania dotyczącego strategii gospodarczo-politycznych, to komputerowe decyzje poddaje się weryfikacji myślących ludzi, dla których komputerowy dyskurs jest jednym z możliwych scenariuszy badanych zjawisk, a nie ostateczną wyrocznią. Nie komputeryzacja jest przyczyną nieszczęść, lecz niewłaściwy z niej użytek. Ostatecznie wszystko zależy od intelektu i jakości moralnej zarządzających komputerowym prognozowaniem: mogą oni wykorzystać pracę komputera albo do manipulowania ludźmi, do ich zniewalania albo do wyzwalania, a w konsekwencji do przebu- 268 dzania pasji filozoficznych. A więc dużo zależy od wychowania filozoficzno-etycznego elit posługujących się komputerami, wychowania stojącego w sprzeczności z etosem kapitalizmu. Tak czy owak: jeśli bohaterowie dramatów i powieści Witkacego albo współcześni ludzie protestują przeciw urynkowieniu i zmechanizowaniu, to nie dlatego, że ta krytyka byłaby zgodna z głównym nurtem rozwoju kapitalizmu: jeśli myślą oni i działają w imię wartości metafizycznych, to dlatego, że te wartości zaczerpnięte są z innych źródeł aniżeli źródła zasilające dominującą tendencję ekonomiki. Jeśli ludzkość zostanie pozbawiona wymiaru transcendencji (możliwości przekraczania swej skończoności), popadnie w obłęd. Dlaczego? Bo człowieczeństwo człowieka polega między innymi na przekraczaniu wszelkich granic. Jak powiada Witkiewicz: człowiek ma rozpęd do nieskończoności; z istoty ludzkiej nie da się uczynić maszyny. Zdławiony twórczy rozpęd może się przejawiać w formach chorobliwych, ale może się też wyrazić w formie buntu teoretycznego i praktycznego, w formie krytyki i walki3. Może to być albo walka o dotrzymanie wierności tradycyjnym wartościom metafizyczno-religijnym, metafizyczno-artystycznym, metafizyczno-naukowym i metafizyczno-filozoficznym, albo próba stworzenia nowych wartości (jakości) metafizycznych. Metafizyczne dzieła sztuki, systemy filozoficzne i religijne są między innymi wyrazem metafizycznych uczuć. Co to są uczucia metafizyczne? Jaki mają związek z religią? Otóż nie ma religii bez uczuć metafizycznych, które mogą się przejawiać także w życiu codziennym i w nauce. Jedną z cech metafizyczności jest poszukiwanie jedności-w-wielości: uczeni są metafizykami wtedy, gdy usiłują np. zrealizować einsteinowski program unifikacji pola, tzn. program wyprowadzenia wszystkich możliwych oddziaływań fizycznych z jakiejś jednej prazasady. Poszukiwanie jedności-w-wielości jest poszukiwaniem absolutu. Stajemy się metafizykami zarówno wtedy, gdy usiłujemy ustalić jakiś fundamentalny poziom bytu, jak i wtedy, gdy nie rozumiemy, ani przyczyn, ani celu naszej egzystencji, nie wiemy skąd jesteśmy ani dokąd zmierzamy; samo istnienie wszechświata staje się zagadką. Czy istnieje jakiś Stwórca wszechświata? Czy materialne rzeczy składają się z atomów, czy też materia da się dzielić w nieskończoność? Czy w świecie biologiczno-fizycznym panują żelazne konieczności, czy też jest miejsce na przypadek? Tego typu problematyka transcenduje naszą 3 S.I. Witkiewicz, Matka, w: Dramaty III, opracował J. Degler, PIW, Warszawa 2016, s. 185-191. 269 codzienną walkę o byt, w której jesteśmy zanurzeni po uszy. Jeśli metafizyczność oznacza przekraczanie rzeczywistości zjawiskowo-empirycznej, to także artyści są „metafizykami”, bo czyż ich twórczość nie jest protestem wobec zastanych faktów? Czyż nie jest deformacją empirycznej rzeczywistości w imię innej, nie-obecnej, danej jedynie w wizjach? Czy nie jest ściganiem światów piękniejszych, prawdziwszych i sprawiedliwszych od światów faktycznych? Uczucia metafizyczne są zarazem uczuciami ciekawości i pasji poznawczej; chcielibyśmy wszystko zrozumieć: i tajemnice materii, i zagadki duchowego życia, ale realna egzystencja w realnym społeczeństwie zabija w nas tę ciekawość. Interesujemy się przede wszystkim przetrwaniem w warunkach np. gospodarki rynkowej. Sztuka produkowana przez mass media niewiele nam pomaga. Niestety w kapitalizmie, podobnie jak w socjalizmie, dominuje estetyka masowa. Czy wywołuje ona jakieś metafizyczne uczucia? Czy jest to sztuka na usługach biznesu, czy seryjnego odbiorcy? Jeśli standaryzacja zaspokaja gusta masowego odbiorcy, to na pewno nie ubogaca jego wyobraźni i nie pobudza do intensywnego myślenia. Cóż dopiero mówić o myśleniu filozoficzno-metafizycznym? Sztuka masowa miałaby szansę wywoływania uczuć metafizycznych, gdyby tworzyła rzeczy oryginalne, niepowtarzalne, jedyne w swoim rodzaju (tak jak jedyny w swoim rodzaju jest styl Fryderyka Chopina, Ludwiga van Beethovena czy Karlheinza Stockhausena). Ale właśnie niepowtarzalne piękno jest jej obce. Lubuje się ona raczej w tandecie, uniformizacji i standaryzacji. Dzieła wykraczające poza standardy nie znajdują zbyt wielu nabywców i doprowadzają ich twórców do nędzy. Mass media nie promują wysiłków mających na celu zachowanie kontaktu z wartościami metafizycznymi. Trudno oczekiwać, że sztuka masowa wskaże swym odbiorcom sens życia. Chyba, że zaakceptuje się sztukę rewolucyjną i za sens życia uzna się walkę z coraz bardziej odczłowieczonym społeczeństwem nastawionym na powiększanie wydajności i zysku. Ale czy taka walka doprowadzi do rozkwitu filozoficzno-metafizycznych pasji? Czy w społeczeństwie wymarzonym przez rewolucyjną sztukę będzie się filozofować? W przyszłym społeczeństwie ma nie być polityczno-ekonomicznych represji, ale czy będą bodźce do zgłębiania tajemnic bytu? Jeśli rozpatrzeć socjalistyczne wizje przyszłego społeczeństwa, to Witkacy od początku (tzn. jeszcze przed realnym urzeczywistnieniem tych wizji w życie polskiego społeczeństwa) miał wątpliwości czy lewicowe utopie doprowadzą do wyspy szczęśliwości, w której nie byłoby przemocy i niesprawiedliwości. 270 A więc czy warto samookreślać się politycznie, jeśli prawdopodobnie zmierza się od jednej formy represji do drugiej? Tu jest punkt różniący poglądy Witkacego od poglądów szkoły frankfurckiej: Witkacy nie do końca wierzył w artystyczno-estetyczny sens protestu przeciw zastanym stosunkom społecznym, tj. nie wierzył w to, że samookreślenie się polityczne miałoby stanowić istotny składnik dzieła sztuki. Treści polityczno-rewolucyjne, względnie konserwatywne, mogą stanowić jeden z elementów artystycznej konstrukcji, obok treści psychologicznych, historycznych czy pedagogicznych, ale wcale nie są najważniejsze. Jeśli już mówić o hierarchii ważności, to o wiele ważniejszy jest wymiar metafizycznych jakości zawarty w artystycznym przekazie aniżeli jego reprezentowanie którejś ze stron politycznego konfliktu. Mówi się o katastrofizmie Witkiewicza; o tym, że rysuje on wizje świata, w którym w ogóle zginie metafizyka, a ludzkość zamieni się w zmechanizowane mrowisko. Byłby to świat dążący do coraz większej zyskonośnej wydajności poprzez coraz większe stechnologizowanie, skomputeryzowanie i zinformatyzowanie. Byłby to zarazem świat coraz mniej ludzki. Ten katastrofizm jest pozorny, bo Witkacy rysując obrazy katastrofy pokazuje jednocześnie drogowskazy na wyjście z pozornie beznadziejnej sytuacji. Wystarczy wskazać na program naprawy ludzkości głoszony przez Leona, głównego bohatera dramatu Matka. Jeśli w tym dramacie nie dochodzi do realizacji tego programu i wszystko kończy się tragicznie, to nie jest to katastrofa nieunikniona, istnieje możliwość jej zapobieżenia w przyszłości. Witkiewicz kreśląc czarne scenariusze, sugeruje jednocześnie obrazy świata mogącego zaistnieć, jeśli ludzkość nie podda się mechanizującym tendencjom. A więc jego twórczość, przedstawiając możliwą katastrofę, jest jednocześnie kryptogramem, tj. wyraża możliwość odwrócenia biegu historii ludzkości. Witkacy nie był katastrofistą. Jak to wcześniej zauważyliśmy, Witkiewiczowi chodzi nie tylko o „metafizykę” pojętą jako pewien system najbardziej ogólnych tez o świecie, lecz także o pasje i „uczucia metafizyczne”. Aby metafizyka jako światopogląd była możliwa, muszą istnieć ludzie myślący i czujący na sposób metafizyczny; ale skąd ich wziąć w systemie socjalistycznym albo kapitalistycznym? A nawet gdyby się znaleźli, to czy zdołają się przedrzeć przez oficjalne dyskursy obsługujące interesy rynkowe albo kolektywistyczne? Czy jest możliwe stworzenie takich warunków społecznych, które nie eliminowałyby w ludziach zdolności do metafizycznego odczuwania? Przecież bez tych uczuć nie rozwinęłaby się ani 271 sztuka, ani filozofia, ani religia. Do tej pory nauka eliminowała metafizykę zgodnie z prawem Comte’a o trzyfazowej ewolucji historii ludzkości; czy nie dałoby się jednak na odwrót, to jest podporządkować stechnologizowaną naukę realizacji wartości metafizycznych? W dramacie pt. Matka (ale także w swych powieściach) Witkacy rzuca ciekawy (i zdawać by się mogło absurdalny) projekt wykorzystania naukowego intelektu do budowania cywilizacji metafizycznej, rysuje plan ratowania chwilowo ginących wartości metafizycznych. Trzeba by stworzyć intelektualny opór wobec nadchodzącego socjalistycznego totalitaryzmu i związanego z nim niszczenia prywatnej inicjatywy we wszystkich dziedzinach życia społeczno-kulturowego. Ale należałoby się też przeciwstawiać morderczej, kapitalistycznej gonitwie za indywidualnym i zbiorowym zyskiem. Znając stosunki panujące w Rosji Sowieckiej z osobistych doświadczeń, Witkacy prognozował przyszłość Polski jako państwa skolonizowanego przez wschodni totalitaryzm. Czesław Miłosz, Stefan Kisielewski i Leopold Tyrmand byli zgodni, że proroctwa Witkacego okazały się trafne. Tyrmand potwierdzał, że w społeczeństwie komunistycznym jednostka nie ma szans rozwoju, nie może zabrać się za „twórczą” pracę, chyba że za cenę „służalczości, upokorzeń i poniżeń”4. Chodzi o służalczość wobec komunistycznej ideologii i jej reprezentantów. W komunizmie dobrze się powodzi służalcom, oportunistom, konformistom, tchórzom, leniom i oszustom. Ludzie oddani polityce partii rządzącej mogli liczyć na jakieś przywileje. Komunizm był w stanie zapewnić jakiś minimalny dobrobyt całemu społeczeństwu, ale kosztem zniewolenia jednostek. Jak w komunizmie miała rozwijać się sztuka, jeśli każdy artysta od początku procesu twórczego musiał liczyć się ze zdaniem partii, rządu, związków zawodowych itd.5 Tyrmand nie pisał o przypadku filozofów, ale ich twórczość wyglądała podobnie: zanim coś ogłosili musieli się ciężko napocić (albo nie pocili się wcale), aby głoszone idee wyrażone były zgodnie z kanonem komunistyczno-socjalistycznej ideologii. Filozof-metafizyk jako poddany władzy komunistycznej wiedział, że nie ma prawa do własnych myśli i uczuć; że jest spętany przez system, którego nie sposób obalić indywidualnymi środkami. Prywatnie można było mieć „swoje”, alternatywne w stosunku do marksizmu, poglądy metafizyczno-fiolozoficzne, ale tylko prywatnie i w ukryciu. A więc jak można było stworzyć jakiś oryginalny system metafizyczno-filozo- 4 5 L. Tyrmand, Cywilizacja komunizmu, mg, Kraków 2013, s.138. Ibidem, s. 141. 272 ficzny, jeśli komunizm z założenia tępił wszelką niezależną myśl. W ludowych demokracjach nie było sprzyjających warunków ideologicznych do krzewienia swobodnych uczuć metafizycznych. Promowano socjalistyczny realizm i to do tego stopnia, że jego kanony działały prawie automatycznie. Oto wyznanie młodego poety: „nie mogę pisać, jak chciałbym (...) Jestem w środku frazy i już poddaję tę frazę marksistowskiej krytyce i wyobrażam sobie, co powie teoretyk X i Y, i kończę frazę inaczej, niż miałem zakończyć”6. Wmówiono artystom, że tworzenie niezgodne z socjalistycznym realizmem będzie bez wartości7, a więc lepiej unikać wszelkiej metafizyki, wszelkiej transcendencji. „Oznaki skłonności metafizycznej są niewybaczalne”8. Nie tolerowano uczuć metafizycznych, metafizycznego myślenia i myślenia w ogóle. Zastanawianie się nie było w modzie, co gorsze: bardziej wartościowym wydawał się ideowiec ślepo wierzący w decyzje partii niż „inteligent” rozważający racje za i przeciw. Może dlatego ta dyktatura wywoływała opór, przyczyniała się do powstania zjawiska wewnętrznej emigracji, produkowała schizofreników. Ale czy ta schizofrenia mogła twórczo się przejawiać, jeśli nie było oficjalnych możliwości ekspresji wewnętrznych rozterek? Oficjalnie trzeba się było trzymać kanonów dialektycznego materializmu, pisać w określony sposób, uprawiać socjalistyczną pedagogikę, ideologię i dogmatykę. Czymś wskazanym było zapisanie się do partii, a więc nic dziwnego, że filozoficzno-metafizyczna eksploracja świata była wyrzucona na śmietnik. Ktoś mógłby rzec, że przecież w komunizmie działali rewizjoniści, a więc ludzie podważający dogmaty dialektycznego materializmu, ale takie podważanie miało swoje granice i kończyło się po prostu inną wersją dialektycznego materializmu, a nie stworzeniem jakiejś realnej alternatywy filozoficznej. Ludziom odechciewało się jakiegokolwiek rewizjonizmu, nie tylko filozoficznego, bo jak pisał Tyrmand: „autentyczni przeciwnicy byli, jak zawsze, wdeptywani obcasami w ziemię, likwidowani, więzieni, pozbawiani środków do minimum egzystencji” 9. Wszystkie odmiany rewizjonizmów były wg Tyrmanda tworzone przez „ludzi jednakowo wytrenowanych w praktyce kłamstwa w służbie scholastyki przemocy”10. Jak w takich warunkach miały się rozwijać swobodne badania filozoficzne? Filozofia była kontrolowana przez elity polityczne, a te składały się z „ludzi nieczułych i niewrażliwych na Cz. Miłosz, Zniewolony umysł, Świat Książki, Warszawa 1996, s. 29. Ibidem 8 Ibidem, s. 89. 9 L.Tyrmand, op.cit., s. 230. 10 Ibidem, s. 231. 6 7 273 drgnienia prawdy, niedopuszczających możliwości istnienia innych poglądów, nieznających prawdziwej dyskusji, nierobiących niczego, co nie uzgodnione, nie postanowione z góry”11. Od artystów wymagano, aby pokazywali w swych dziełach ludzi uświadomionych „filozoficznie”, tzn. wyznających materializm dialektyczno-historyczny. Niektórym to odpowiadało, np. Tadeuszowi Borowskiemu, który wyprowadzał hitleryzm z chrześcijaństwa12, gloryfikując zarazem nową komunistyczną cywilizację. Taka teza i taka postawa z pewnością musiały podobać się ludziom wychowanym na marksizmie. „Zacierała się już granica pomiędzy literaturą a propagandą”13. Z każdego pisarza starano się zrobić „szmatę” (wyrażenie Miłosza), tzn. zmuszano pisarzy, by pisali wg wytycznych rządzącej partii. Kanony socjalistycznego realizmu wymagały ośmieszenia wszelkiej filozofii niemarksistowskiej. Nie domagano się nawet specjalnej analizy, specjalnych argumentów pro i kontra: po co analizować? Przecież wiadomo, kto ma rację (normalnie, kiedy ludzie dyskutują, kieruje nimi wola dotarcia do prawdy, a nie jakiś specjalny interes polityczny; wynik dyskusji nie jest przesądzony. Może zwyciężyć teza albo antyteza, względnie synteza. Może też być zanegowana zarówno teza jak i antyteza). A poza tym liczy się realna walka z ideowym wrogiem, a nie dyskutowanie. Komunistę powinna cechować ślepa wiara w decyzje partii, a niezdecydowanych co do wyboru właściwej filozofii trzeba zastraszyć. Kto ma jakieś wątpliwości, jest wrogiem klasowym. W realnym socjalizmie ludzie stojący u władzy uważali, że myślenie przeszkadza w działaniu. Cóż dopiero mówić o myśleniu metafizycznofilozoficznym? Preferowano fanatyków panującej ideologii, a nie ludzi zastanawiających się nad zagadkami bytu. Argument siły stawiano ponad siłę argumentu. Chwalono żelazną konsekwencję w realizowaniu raz przyjętych zasad, a nie dostosowanie zasad do prawdy. Lekceważono przemyślenia „własne”, chyba że myślenie odbywało się zgodnie z kanonami poprawności politycznej. Jeśli używano filozoficznych kategorii, to nie po to, by wyjaśnić istotę świata, lecz po to, by manipulować umysłami, zyskiwać zwolenników nowej polityki. Aby skutecznie manipulować, trzeba było posłużyć się cenzurą eliminującą wszystko, co godziło w komunistyczne dogmaty; co przypominało obiektywną eksplorację filozoficzną. Żadnej wolności słowa, żadnej wolności myśli. 11 S. Kisielewski, Dzienniki, Iskry, Warszawa 2001, s. 615 Cz. Miłosz, Zniewolony umysł, op.cit., s.144. 13 Ibidem, s. 145. 12 274 Szczerość nie była w modzie: „jedno słowo szczere mogło pociągnąć za sobą zgubne następstwa”14. Ciekawe przy tym jest to, że realny socjalizm i komunizm nie miały wiele wspólnego z poglądami filozoficznymi Karola Marksa; z czysto teoretycznego punktu widzenia, socjalizm wcale nie musiał być systemem totalitarnym, a marksizm posługiwać się inkwizycyjną cenzurą. Eliminowanie metafizyki i filozofii innych od filozofii dialektyczno-historycznej wcale nie było koniecznością. Przecież socjalizm, w swych programowych założeniach, miał być systemem demokratyczno-pluralistycznym, miał być humanizmem. Interesy indywiduum nie miały być miażdżone interesami kolektywnymi, bo dialektyka zakłada jedność przeciwieństw, a nie likwidowanie tezy przez antytezę albo na odwrót. Przecież to niemożliwe, by czysty dialektyk-teoretyk przekreślał rolę indywiduum w historycznych wydarzeniach; by akcentował jedynie rolę klas społecznych. Marksizm z założenia nie był też czystą ideologią; ideologia miała dopełniać się do rozpoznania prawdy – taki przynajmniej był program. Dialektyczny materializm – w czysto teoretycznym wymiarze – nie był (przynajmniej na początku) programowo wrogi wszelkiej metafizyce. Swiadczą o tym próby łączenia marksizmu z filozofią Henri Bergsona i Fryderyka Nietzschego (przypadek Stanisława Brzozowskiego) czy z mesjanizmem (przypadek Ericha Fromma czy Jacquesa Derridy). Tylko, że ani ideolodzy marksizmu, ani politycy nie przejmowali się zgodnością czystej teorii i głoszonych haseł z praktyką. W rezultacie, to realna praktyka falsyfikowała teoretyczne programy, a praktyczni działacze byli nakierowani na realizowanie dyktatury proletariatu, totalizowanie społeczeństwa, upaństwowienie gospodarki i kultury, kolektywizm i eliminowanie metafizyki. I właśnie przed taką praktyką ostrzegał Witkacy. Programowo-teoretyczne hasła materializmu dialektyczno-historycznego były tylko hasłami, pustymi słowami. Witkacy widział to jako naoczny świadek rewolucji październikowej, docierały też do niego relacje dziennikarzy, polityków i pisarzy obserwujących wydarzenia w Rosji. Socjalistyczni filozofowie i artyści wiedzieli, że w ich twórczości miała być zawarta np. krytyka „fałszywej” świadomości burżuazyjnej, bo „prawdziwa” świadomość miałaby przysługiwać proletariatowi (a to dlatego, bo podobno interesy proletariatu miałyby być zgodne z interesami całej ludzkości). Jednak jakim cudem klasa proletariatu byłaby zdolna do świadomego przekroczenia swego proletariackiego interesu, jeśli wg Marksa wszelka świadomość jest klasowo uwarunkowana? 14 Ibidem, s. 188. 275 Czyżby tylko proletariusze byli zdolni do bezinteresownego oglądu prawdy? Ale mniejsza z tym: jeśli się walczy o społeczeństwo bezklasowe, to nic dziwnego, że nie walczy się o metafizyczne treści, wartości czy uczucia. Jak wiadomo, Witkacy skłaniał się w sztuce do formalizmu, który łączył z metafizyką w tym sensie, że same formalne elementy dzieła sztuki, poprzez swą niezwykłość i „dziwność” (swą rewolucyjność), mogły pobudzać stany metafizyczne (odczucia dziwności istnienia). Ale wg teoretyków komunizmu, rewolucyjność w użyciu artystycznych środków formalnych była akceptowalna o tyle tylko, o ile powiązana była z polityczno-socjalną rewolucją proletariatu, tzn. o tyle, o ile rewolucyjny artyzm wywoływał uczucia nienawiści do społeczeństwa wyzysku i chęć walki o nowy porządek świata. Najpiękniejsze – z formalnego punktu widzenia – dzieła oceniane były pozytywnie tylko wtedy, gdy niosły w sobie proletariacką ideologię. Jak się w takim razie odnieść do dzieł reprezentujących hasło „sztuka dla sztuki”? Problem polega na tym, że także w wypadku uprawiania „sztuki dla sztuki” (kiedy artysta w ogóle nie interesuje się sygnalizowaniem jakichkolwiek czytelnych treści, a skupia się wyłącznie na rewolucjonizowaniu środków formalnych) może u odbiorcy dojść do metafizycznych objawień, bo dziwaczne formy przedstawiania świata udziwniają sam świat. Czasami artyści chcą nas otworzyć nas na metafizyczny wymiar istnienia (życia), używając jedynie zwariowanych form; nie wyrażają oni ani treści proletariackich, ani antyproletariackich. Dzieło sztuki nie musi w sobie nieść jakichś specjalnych treści polityczno-ideologicznych, by nas zachwycić. Czasami dzieło sztuki jest jednym wielkim formalnym eksperymentem, a mimo to może ono wywoływać głębokie refleksje filozoficzno-metafizyczne niepowiązane z jakąś określoną ideologią polityczną. Czy takie dzieła trzeba wyeliminować? Piotr Bieranowski Uniwersytet Warmińsko-Mazurski w Olsztynie HUMANIZM TECHNICZNY W BUDOWNICTWIE – WPŁYW NATURY I TECHNIKI NA NASZE ZDROWIE Amicus Plato, Amicus Socrates sed magis amica veritas (Arystoteles) 1. Technika a filozofia – filozofia a technika Technika sama w sobie jest natchniona źródłem matematycznych i fizycznych interpretacji opisu rzeczywistości. Problemem społecznym staje się nie sam opis zjawisk, tylko ich wykorzystanie do ukrycia mankamentów sprzedawanych materiałów czy technologii – laikowi łatwo jest wmówić nowe rozwiązanie techniczne, oprawione złożonym opisem, skomponowanym przy pomocy skomplikowanego aparatu matematycznego i wykorzystaniu twierdzeń fizycznych, które same w sobie są logiczne. W tym miejscu należy podkreślić, że po to dążymy do opisu zjawisk z zakresu fizyki w sposób najbardziej zbliżony do rzeczywistości, aby tę rzeczywistość, czyli naturę zjawiska wykorzystać w sposób jak najbardziej zbliżony do rozwiązań naturalnych. W rozprawie Falsyfikacja a metodologia naukowych programów badawczych Imre Lakatos przedstawił korektę falsyfikacjonizmu, którą można przyjąć jako próbę rozwiązania problemu rewizji wiedzy zasadnej. Z należytą powagą potraktował on pogląd Poppera, według którego zadaniem metody naukowej nie jest uzasadnianie hipotez, lecz uznanie krytycznych preferencji. Tym samym wyprowadził wniosek, że przedmiotem oceny metodologicznej muszą być nie pojedyncze hipotezy, lecz ich zespoły – naukowe programy badawcze. Warto w tym miejscu przytoczyć zacną myśl, która jest jednym z czynników nadającym filozofii św. Tomasza nieprzemijającej wartości: naczelna troska o poszukiwanie prawdy. Akwinata uważał, że filozofii uczymy się nie po to, by się dowiedzieć, co myślą ludzie, lecz jaka jest prawda. Oto jest przyczyna, dla której, moim zdaniem, filozofia św. 278 Tomasza góruje nad innymi systemami filozoficznymi realizmem i obiektywizmem: jest ona filozofią bytu, a nie pozoru, lub: tego, co jest, a nie tego, co się wydaje. Wszelkie rozważania w tym artykule dotyczyć będą rozwiązań naturalnych, a także technologii już zdobytych przez ludzkość, znanych powszechnie oraz na co dzień używanych. Zdaniem autora, najważniejszy początek w poznaniu czegokolwiek tkwi w samej istocie natury. Nie trzeba tłumaczyć logiki natury, ponieważ dzięki niej – jesteśmy. Reasumując, warto czasem w pędzie wdrażania i zakupu nowości technicznych, skromnie przycupnąć i rozważyć za i przeciw w kontekście możliwości natury oraz zasadności zastosowania owych zakupów, choćby w aspekcie zdrowia ludzkiego. Każda rzecz konkretna jest nośnikiem swojej istoty – ma wymiar istotnościowy. Tę istotę przedmiotu dostrzega się nie przez empirię czy spostrzeżenia zmysłowe, nawet nie poprzez indukcję albo dedukcję. Poznaje się ją tylko w oglądzie ejdetycznym, tj. przez „naoczną istotowość”, czyli intuicyjny ogląd bezpośredni. Ogląd taki jest ważny nie w aspekcie jednostkowości, lecz jako powszechnik, istota ogólna rzeczy, ma się unaocznić bezpośrednio świadomości. To, co nowe należy dla odróżnienia nazwać. Husserl zastosował termin „fenomen” dla nazwania wszystkiego tego, co w tym intuicyjnym poznaniu (wglądzie) okazuje się być danym bezpośrednio i jako oczywiste. Stąd wywodzi się współczesne rozumienie fenomenologii. Należy tu dobitnie podkreślić, iż termin „fenomen” nie występuje tu jako określenie kantowskiego pojęcia zjawiska – lecz jako istota rzeczywistości, czyli „rzecz sama”1. Świadomość fenomenologiczna egzystuje we własnej przestrzeni i sama siebie ustanawia. Jest światem autonomicznym – jest zaczynem natury naszego życia, jako samoreprodukująca się w granicach natury zreprodukowanej2. 2. Odczucia cieplne ludzi Badania mikroklimatu wnętrz i komfortu cieplnego ludzi, prowadzone przecież od 50 lat, nie dostarczyły pełnej informacji pozwalającej zbudować zbliżone do rzeczywistych modele zachowań cieplnych ludzi w pomieszczeniach zamkniętych. Jednolite uściślenie kryteriów, które mogą być stabilne dla wszystkich ludzi w aspekcie określonego stanu odczuć cieplnych (kojarzonych często z komfortem cieplnym), Podaję za: Z dziejów myśli filozoficznej, cz. II, red. Z. Hulla, W. Tulibacki, Wydawnictwo ART, Olsztyn 1992, s. 226. 2 B. Jasiński, Między buntem a pokorą istnienia, Nowe Wydawnictwo Polskie, Warszawa 1990, s. 97. 1 279 nie jest możliwe z uwagi na psychologiczny, osobniczy charakter tych odczuć. Istnieje natomiast dość pokaźna wiedza o jednostkowych oddziaływaniach różnych parametrów mikroklimatu środowiska oraz wpływu innych czynników na stan doznań termicznych. Wykazano eksperymentalnie, że liczba ludzi niezadowolonych z warunków termicznych środowiska wzrasta, gdy amplituda wahań temperatury w pomieszczeniu przekracza określoną wartość3. 3. Przegrzewanie domostw a zdrowie ludzkie Naszemu zdrowiu nie sprzyja temperatura nazbyt niska, jak również zbyt wysoka. Problematyka ta narasta wraz ze zmianą kolejnego parametru środowiskowego, jakim jest wilgotność (dobry dla naszego komfortu jest przedział od 40– 60%). Przy temperaturze wyższej od 21.0o C i nieodpowiedniej wilgotności wysychają śluzówki dróg oddechowych. Następuje wtedy osłabienie mechanizmu usuwania wirusów i bakterii z nosa i gardła. Ma to głównie wpływ na częstość przeziębiania się. Przegrzewanie mieszkań powoduje następujące zakłócenia w prawidłowym funkcjonowaniu organizmu: – pogarsza się zdolność koncentracji uwagi i analitycznego myślenia, – wzrasta uczucie rozdrażnienia, – częściej odczuwa się bóle głowy, – spada ciśnienie krwi, – szybciej się męczymy, co prowadzi do nadmiernych osłabień. Długotrwałe przebywanie w przegrzanym mieszkaniu może spowodować: – odwodnienie organizmu, – wywołać zaburzenia pracy serca4. Jak wyżej wspomniano, przegrzewanie domostw czy miejsc pracy itd., jest dla ludzi niezdrowe. Przegrzania następują głównie latem, gdy sprzyja temu upalna aura, która utrzymuje się czasem przez wiele dni. Na rys. 1. zaprezentowano zakresy temperaturowe dla pomieszczeń na parterze (kolor pomarańczowy) oraz piwnic – niebieski5,6. A. Dylla, Praktyczna fizyka budowli. Szkoła projektowania złączy, Wydawnictwa Uczelniane UPT, Bydgoszcz 2009, s. 91-93. 4 M. Wilczkowska, Jaka jest optymalna temperatura w domu?, http://polki.pl/zdrowie/choroby,optymalna temperatura-w-domu-jaka-temperatura-jest-najlepsza-dla-zdrowia,10026454,artykul.html (data dostępu: 25.08.2016). 5 http://forum.muratordom.pl/archive/index.php/t36765.html?s=c8e59a1cd789e ef5249aab99d2675c3d. 3 280 Pomieszczenia te wyposażone były w wentylację grawitacyjną. Nie stosowano w nich wentylatorów chłodzących, klimatyzatorów stacjonarnych, czy też instalacji klimatyzacyjnej. Warto w tym miejscu zwrócić uwagę na zakres interpretowany przez kolor niebieski (piwnica), który znacząco różni się od zakresu określonego kolorem pomarańczowym (parter). Ze względu na warunki panujące w pomieszczeniach piwnic, latem mogą one skutecznie posłużyć jako naturalne klimatyzatory – komory, skrzynie klimatyczne (nazwa autora). Przebywając w takich pomieszczeniach – odpowiednio ze względu na ukształtowaniepodziemne wychłodzonych – czujemy się fizycznie i psychicznie dużo bardziej komfortowo, niż w warunkach temperatury występującej poza tą strefą. Dane prezentowane na wykresie (rys. 1.) dotyczą domów mieszkalnych jednorodzinnych. Rys. 1. Wartość temperatury w upalne dni. Kolor niebieski – piwnica, pomarańczowy – parter (opracowanie własne wg 6,7). 4. Wymiana ciepła – fizyczna interpretacja procesów Wymiana ciepła to zjawisko, które powszechnie występuje w przyrodzie i zachodzi wszędzie tam, gdzie istnieje różnica temperatury. Sam proces jest bardzo skomplikowany – w związku z tym, dokonuje się wielu uproszczeń w celu uzyskania pożądanych rozwiązań. W praktyce skupia się to na poszukiwaniu pola temperatur lub obliczenia ilości wymiany ciepła przekazywanej z jednego układu termodynamicznego do drugiego – lub w granicach danego układu. Energia wewnętrzna danego ciała jest mierzona za pomocą parametru stanu 6 http://f.kafeteria.pl/temat/f1/ile-macie-stopni-w-pokoju-fala-upalow-p_5984639. 281 w aspekcie intensywności, jakim jest temperatura oraz parametrów stanu w kontekście ekstensywnym, jakimi są entalpia i entropia. Z punktu widzenia budownictwa, w głównym kręgu rozważań leży temperatura. Do zapoczątkowania ruchu energii termicznej potrzeba w układzie termodynamicznym pojawienia się gradientu temperatury. Ma to podstawę logiczną w tym, że rozpatrywany układ będzie dążył do równowagi (zerowa zasada termodynamiki). Z drugiej zasady termodynamiki wiemy zaś, że układ termodynamiczny posiadający pole temperatury o większej wartości odda energię układowi posiadającemu niższy stopień nagrzania ciała, które może posiadać różną formę skupienia (stałą lub gazu). Fizyczne mechanizmy opisujące transport ciepła, dzielimy na trzy procesy, zachodzące razem lub w konwencji parowej, a są to: przewodzenie, konwekcja i promieniowanie. 5. Wybrane metody redukcji ciepła – działania niwelujące przegrzanie pomieszczeń mieszkalnych i użytkowych Występująca w środowisku naturalnym wymiana ciepła, zachodząca w procesie promieniowania, odgrywa istotną rolę w naszym życiu codziennym. Związane jest to głównie z oddziaływaniem promieniowania słonecznego, które nagrzewa grunt, budynki, najbliższe otoczenie budynków, powietrze, roślinność, etc. Wszystkie te elementy emitują promieniowane własne, stając się tym samym źródłem promieniowania długofalowego, pochłaniając jednocześnie promieniowanie długofalowe pochodzące z atmosfery i obiektów sąsiadujących. Proces ten jest ciągły. Ziemia i atmosfera emitują fale elektromagnetyczne (promieniują) w zakresie promieniowania długofalowego, ponieważ posiadają temperaturę, w której może zachodzić tylko tego typu promieniowanie. Słońce jest znacznie cieplejsze od Ziemi, stąd emituje promieniowanie o znacznie krótszej długości fali. Gazy cieplarniane wysyłają promieniowanie podczerwone, ponieważ w takim zakresie pochłaniają promieniowanie od środowiska, które je otacza7. Aby unaocznić omawianą problematykę przegrzewania domostw w okresie letnim, autor wykonał serię zdjęć (rys. 2– 7), obrazującą „ucieczkę” mieszkańców budynków wielorodzinnych przed wpływami solarnymi. Oczywiście podobne metody stosują również mieszkańcy domów jednorodzinnych. W tym wypadku jednak często są w dogodniejszej sytuacji, zwykle posiadają piwnice użytkowe, w odróżnieniu od mieszkańców tzw. bloków, którzy posiadają komórki lokatorskie, 7 H. Nowak, Zastosowanie badań termowizyjnych w budownictwie, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2012, s. 133. 282 często przepełnione, stanowiące, tzw. lamus (skład starych rzeczy). W tym wypadku ciężko jest mówić o funkcji naturalnej komory klimatycznej (w poziomie rzutu piwnic), która może ochłodzić w czasie długofalowych – nadmiernych upałów – ciało ludzkie. Rysunki od 2 do 7 są jasne w przekazie, stąd nie wymagają szerszego komentarza, warto tylko jeszcze raz spojrzeć na rys. 2 i 3, na których widoczne są rolety. Są to rolety nocne, w tym wypadku nieszczęśliwie wykorzystane jako przeciwsłoneczne. Co istotne, są wykonane w ciemnej barwie – łatwo pochłaniają docierające do nich promieniowanie, po drugie zaś są umieszczone wewnątrz pomieszczenia. Tak nagrzana płachta zasłony zapewnia nie zmniejszenie, a zwiększenie temperatury w pomieszczeniu. Układ taki można porównać do mini–promiennika cieplnego (grzejnika, itp.), który, nagrzany, emituje ciepło w eter. Kurtyny (zasłony) przeciwsłoneczne należy montować od strony zewnętrznej – za oknem pomieszczenia, powinny być one również wykonane w barwach redukujących pochłanianie promieniowania (np. białe). 6. Autorska koncepcja projektowania domów mieszkalnych jednorodzinnych oraz zalecenia dla budynków wielorodzinnych w aspekcie funkcyjnych komór klimatycznych Jak było tu już wspominane, wpływy przegrzania izb mieszkalnych mogą znacząco utrudnić bytowanie. Idąc za prawami dynamiki Newtona – akcja równa się reakcji, autor postanowił zatem przedstawić własną interpretację rozwiązania problemu. Nie zawsze latem mamy możliwość zmiany klimatu domowego na inny. Przyczyny mogą być bardzo proste: zaległa praca do wykonania, nasz wiek, choroba, czy zwykłe przeziębienie z wysoką gorączką. W takim stanie ducha czy ciała, w interakcji z długotrwałą falą upałów jesteśmy pozbawieni możliwości wychłodzenia naszego organizmu, skazani na nadmierne przemęczenia. Skutki takowego przemęczenia były w tym artykule przywoływane wcześniej. Poniżej przedstawiono warianty rozwiązania omawianego problemu przegrzewania domostw latem. Wersja pierwsza dotyczy domów mieszkalnych jednorodzinnych (rys. 8 a.), druga wielorodzinnych (rys. 8 b.), gdzie często osoby schorowane, w podeszłym wieku, czy po prostu wykonujące okresowo pracę umysłową w miejscu zamieszkania, nie mają żadnej możliwości odizolowania się od przegrzanego pomieszczenia. Aspekty dotyczące tych rozwiązań powinny być kształtowane już na etapie projektowania, czyli tzw. deski projektowej. Jeżeli na tym etapie rzut piwnic został już w pełni uwarunkowany funkcją o innym 283 charakterze, moduł komory klimatycznej doprojektować można poza obrysem rzutu kondygnacji podziemnej, jak to pokazano na rys. 8 a. a) b) Rys. 8. Wariant komory klimatycznej dla: a) budynku mieszkalnego jednorodzinnego i b) budynku mieszkalnego wielorodzinnego (rys. archiwum autora) Warto w tym miejscu nadmienić, iż na poziomie poddaszy w okresach długofalowych upałów, temperatura (styk z płaskim dachem – nie jak na rys. 8) w budynkach wielorodzinnych może dochodzić do 35o C. Jak wcześniej wspomniano, nie każdy mieszkaniec może odizolować się od tych skrajnych warunków klimatycznych. Przegrzanie organizmu osoby osłabionej w tych przypadkach kończy się poważnymi konsekwencjami, włącznie z pobytem w szpitalu. Gdyby taka (takie) komory (skrzynie) klimatyczne istniały, to osoby potrzebujące wychłodzenia i czasowego przebywania w warunkach zredukowanej temperatury mogłyby je bezpośrednio wykorzystać. Pomieszczenia takie powinny, zdaniem autora, być doświetlone światłem naturalnym (okna piwniczne) i wyposażane w najprostsze, podręczne meble. 7. Wnioski Wiele jest publikacji nawiązujących swą tematyką do oszczędności energii, już to zimną (ogrzewanie), już latem (energia chłodnicza). Wywód autora mówi o oszczędzaniu zdrowia, wykorzystaniu możliwości naturalnych do chłodzenia domostw latem, co w kontekście wieloletniego użytkowania domów mieszkalnych jednorodzinnych (często 284 wielopokoleniowych), również daje oszczędności, nie tylko w wymiarze zdrowotnym, ale i ekonomicznym. W artykule zostały omówione również metody stosowane dla budownictwa jedno– i wielorodzinnego, które latem pozwolą osobom starszym, chorym, spokojnie przetrwać nadmiernie upalne letnie dni. Autor ma także nadzieję, że ten artykuł pozwoli ludziom na spojrzenie na omawiany problem i fizykę zjawisk mu towarzyszących w sposób alternatywny, taki który przyniesie ludziom zyski nie tylko zdrowotne, ale także materialne – podyktowane prostą logiką i czerpane jedynie z możliwości natury. 285 Rys. 2. Wywołanie zacienienia porostem roślinności (fot. archiwum autora). Rys. 3. Widoczne do połowy wysokości okien opuszczone rolety (fot. archiwum autora). 286 Rys. 4. Kurtyna boczna oraz parasol przeciwsłoneczny (fot. archiwum autora). Rys. 5. Redukcja wpływów solarnych zespołem parasoli przeciwsłonecznych (fot. archiwum autora). 287 Rys. 6. Kwiaty prócz pięknego efektu zdobniczego również wywołują częściowe zacienienie (fot. archiwum autora). Rys. 7. Wyprofilowanie wysięgu zadaszenia balkonu wspornikowego (fot. archiwum autora).