FESTIWAL FILOZOFII
FESTIWAL FILOZOFII
tom IX Filozofia i technika
Festiwal Filozofii to pozainstytucjonalna idea corocznych,
(odbywających się od 2007 roku) tematycznych konferencji filozoficznych,
będących spotkaniami badaczy, doktorantów, studentów
oraz osób zainteresowanych szeroko pojętą humanistyką.
Kolejnym edycjom Festiwalu towarzyszą wydarzenia artystyczne.
Efektem spotkań jest również seria książkowa.
tom IX
Filozofia i technika
INSTYTUT
Uniwersytet
Warmińsko-Mazurski
w Olsztynie
FILOZOFII
OLSZTYN 2017
FESTIWAL FILOZOFII
FESTIWAL FILOZ OFII
tom 9
FILOZOFIA I TECHNIKA
Redakcja naukowa
Jacek Sobota
Grzegorz Pacewicz
Instytut Filozofii UWM w Olsztynie
Olsztyn 2017
Rada serii „Festiwal Filozofii”
prof. Jacek Migasiński (UW) – przewodniczący
prof. Lech Witkowski (UJ) – zastępca przewodniczącego
prof. Bogdan Banasiak (UŁ), prof. Agata Bielik-Robson (PAN)
prof. Adam Chmielewski (UWr), prof. Jan Hartman (UJ), prof. Jerzy Kochan (US)
prof. Jerzy Kopania (WSAP w Białymstoku, UwB), prof. Małgorzata Kowalska (UwB)
prof. Krzysztof Matuszewski (UŁ), prof. Jadwiga Mizińska (UMCS)
prof. Ryszard Różanowski (UWr), prof. Andrzej Szahaj (UMK),
prof. Andrzej L. Zachariasz (URz)
dr Piotr Wasyluk – sekretarz (sekretarz@ph-f.org)
Recenzent
Adam Grzeliński
Redakcja: Grzegorz Pacewicz, Jacek Sobota
Korekta: zespół
Projekt okładki: Andrzej Kucner
Wydawca
Instytut Filozofii
Uniwersytet Warmińsko-Mazurski w Olsztynie
http://uwm.edu.pl/filozofia
ISBN 978-83-60636-62-6
© Copyright by Instytut Filozofii UWM w Olsztynie, Olsztyn 2017
Rozpowszechnianie
Instytut Filozofii UWM w Olsztynie
ul. Kurta Obitza 1, 10-725 Olsztyn
tel./faks 89 523 34 89,
http://uwm.edu.pl/filozofia, e-mail: sekretariat-if@uwm.edu.pl
Druk i oprawa
Zakład Poligraficzny Uniwersytetu Warmińsko-Mazurskiego w Olsztynie
ul. Jana Heweliusza 3, 10-724 Olsztyn
SPIS TREŚCI
Przedmowa
(Jacek Sobota, Grzegorz Pacewicz) ……………………………..….……. 7
I. HUMANISTYCZNY WYMIAR TECHNIKI …………………………… 13
Andrzej Kucner (Uniwersytet Warmińsko-Mazurski w Olsztynie)
Technologiczna redefinicja kultury ……………………………………... 15
Jarosław Strzelecki (Uniwersytet Warmińsko-Mazurski w Olsztynie)
monada = Monada() - interpretacja obiektowa ………………………… 35
Aleksander Gemel (Uniwersytet Łódzki)
Przestrzeń pojęciowa jako rama kategorialna dla zorientowanych
obiektowo architektur poznawczych .…………………………………… 53
Tomasz Walczyk (Uniwersytet Warmińsko-Mazurski w Olsztynie)
Percepcja w cyfrowym świecie ………………………………………….. 67
Grzegorz Pacewicz (Uniwersytet Warmińsko-Mazurski w Olsztynie)
Speecdcubing a filozofia ………………………………………………… 85
Marcin Pełka (UMK w Toruniu)
„Depozytariusz losu ludzkości” czy „nieszkodliwy wariat”?
Hoene-Wroński jako filozof i technik ………......………………………... 97
II. TECHNIKA W PRAKTYCE ………………………………………….. 109
Ryszard Myhan (Uniwersytet Warmińsko-Mazurski w Olsztynie)
Determinizm a przypadek ……………………………………………… 111
Piotr Drogosz (Uniwersytet Warmińsko-Mazurski w Olsztynie)
Problemy technicznej realizacji logik …………………………………. 123
Marek Rabiński (Narodowe Centrum Badań Jądrowych)
Czarnobyl – fakty i mity ……………………………………………….. 147
Malwina Marciniszyn-Jedeszko (Uniwersytet Warmińsko-Mazurski
w Olsztynie)
Aspekty, w których polskie leśnictwo może inspirować się filozofią …... 165
III. ODCIENIE POSTĘPU ………………………………………………... 175
Piotr Wasyluk (Uniwersytet Warmińsko-Mazurski w Olsztynie)
Modele rozwoju historycznego a klasyczna koncepcja postępu ………..177
Leszek Kleszcz (Uniwersytet Wrocławski)
W stronę „nowego wspaniałego świata” ……………………………… 197
Jacek Sobota (Uniwersytet Warmińsko-Mazurski w Olsztynie)
Postęp technologiczny generatorem regresu moralnego? Paradoksalne
oblicza postępu w literaturze science fiction ………………………….. 209
Jan Wadowski (Politechnika Wrocławska)
Transcendencja czy reizacja? Tech-feedback jako wyzwanie dla
człowieczeństwa w perspektywie godności i wolności ………………… 223
Grzegorz Dziobak (Uniwersytet Rzeszowski)
Lewisa Mumforda gloryfikacja języka i deprecjacja techniki a język jako
próba dominacji Google nad światem ………………………………… 241
Sebastian Dama (Gdańska Szkoła Wyższa)
Τέχνη jako wyraz symbiotycznego braku w humanizmie na podstawie
dziejów kultury zachodnioeuropejskiej ………………………………... 251
Krzysztof Kościuszko (Uniwersytet Warmińsko-Mazurski)
O technikach (mechanizmach) eliminowania metafizyki – z perspektywy
Witkacego ……………………………………………………………… 263
Piotr Bieranowski (Uniwersytet Warmińsko-Mazurski w Olsztynie)
Humanizm techniczny w budownictwie – wpływ natury i techniki na nasze
zdrowie ………………………………………………………………… 277
PRZEDMOWA
I.
Początek września, tradycyjnie już, jest czasem interdyscyplinarnej
refleksji nad powiązaniami filozofii z różnymi aspektami rzeczywistości.
W zeszłym roku, dziewiąta już edycja Festiwalu Filozofii organizowanego przez Instytut Filozofii UWM w Olsztynie, poświęcona była zetknięciu refleksji filozoficznej z problematyką technologiczną i naukową. Dobrą tradycją jest, że konferencji towarzyszą wydarzenia angażujące pozauczelniane instytucje i mieszkańców Olsztyna. Tym razem
takim wydarzeniem okazała się niezwykle interesująca dyskusja na temat przyszłości energetyki jądrowej oraz zagrożeń i korzyści, jakie z niej
płyną. Dyskusja, zorganizowana przez koło naukowe Wydziału Nauk
Technicznych UWM oraz Miejski Ośrodek Kultury w Olsztynie, odbyła
się w urokliwym wnętrzu Muzeum Nowoczesności mieszczącym się w
Tartaku Raphelsonów. W debacie uczestniczyli: Marek Rabiński (Narodowe Centrum Badań Jądrowych/Polskie Towarzystwo Nukleoniczne),
Dariusz Szwed (Zielony Instytut) oraz Jan Wadowski (Politechnika
Wrocławska). Uczestnikom i organizatorom spotkania składamy w tym
miejscu podziękowania.
W ramach obrad konferencyjnych przedstawiciele różnych dyscyplin
naukowych z wielu ośrodków debatowali na temat filozofii techniki, filozofii nauki, aspektów moralnych i aksjologicznych wynikających
z rozwoju technologicznego, paradoksów związanych z ideą postępu
i tym podobnych zagadnień. Rezultatem tych rozważań jest tom, który
trzymacie Szanowni Czytelnicy w swoich dłoniach.
Książka dzieli się – umownie – na trzy grupy zagadnień, a zatem trzy
rozdziały, w których można by zapewne wyodrębnić zagadnienia bardziej szczegółowe. Po pierwsze, rozdział grupujący teksty na temat humanistycznego wymiaru czy też oglądu zagadnień cywilizacji technologicznej. Autorzy snują wieloaspektową refleksję na temat wpływu cywilizacyjnych zmian na różne „warstwy” człowieczeństwa, śledzą kulturowe przemiany, rejestrują pozytywy i negatywy technologicznych mutacji rzeczywistości nas otaczającej. Rozdział drugi tworzą artykuły opisujące rzeczywistość z punktu widzenia komentatorów i praktyków technologii, nauk przyrodniczych, logiki; nie są to jednak rozważania pozba-
8
wione akcentów humanistycznych czy też filozoficznych. Trzeci rozdział wreszcie koncentruje się na wieloznacznym pojęciu „postępu” –
rozpatrywanego tu z różnorodnych perspektyw: aksjologicznej, historiozoficznej, literackiej.
II.
Refleksję humanistyczną nad współczesną cywilizacją rozpoczyna
artykuł Andrzeja Kucnera koncentrujący się na zagadnieniu relacji
między zjawiskami kultury a procesami, których źródłem i istotą są nowoczesne technologie informacyjne oraz wirtualne. Autor dostrzega złożoność związków nowoczesnych technologii i kultury, i zastanawia się
nad ich znaczącymi konsekwencjami. „Informatyzacja” rzeczywistości
nas otaczającej oznaczać ma, wedle Kucnera, odmienny sposób rozumienia kultury, opisywanej pojęciami „płynności”, „prędkości” „nomadyczności” itp. Filozoficznymi kontekstami informatologii zajmuje się również Jarosław Strzelecki, w nieco innym jednak kontekście. Analizując
pojęcie informacji, przedstawia propozycję wykorzystania aparatury języków programowania do analizy Monadologii Leibniza. Jej wyniki
ukazują wiele zaskakujących podobieństw między językami programowania a monadyczną strukturą świata zaproponowaną przez wielkiego
filozofa nowożytności.
Aleksander Gemel, pozostając w swym zajmującym tekście w kręgu
nauk kognitywistycznych, zastanawia się nad problemem adekwatnej
i możliwie najbardziej optymalnej, z obliczeniowego punktu widzenia,
reprezentacji ludzkich procesów poznawczych w systemach sztucznych.
Rozwiązanie, jakie proponuje autor artykułu, ma być adekwatne dla celów reprezentacji warstwy pojęciowej człowieka, a zarazem podkreślające rolę intuicji z punktu widzenia programowania systemów sztucznych. Rozważania z pogranicza filozofii i modnej obecnie kognitywistyki rozsnuwa również Tomasz Walczyk. Przedmiotem jego artykułu
jest zagadnienie percepcji w świecie wirtualnym z punktu widzenia filozofii, a szczególnie już fenomenologii. Kwestie filozoficzne łączą się
w tekście Walczyka z wynikami informatologii oraz dociekaniami nad
fenomenem sztucznej inteligencji.
Grzegorz Pacewicz dostrzega, mogłoby się zdawać, że odległe
związki tzw. speedcubingu (czyli sztuki układania popularnej kostki Rubika na czas) z koncepcjami wybitnych filozofów. Wypracowane metody układania kostki wskazują na to, że wiele strategii wykorzystywanych przez zawodników prowadzi do bardzo podobnych rezultatów. Ko-
9
respondować to ma z tezami Karla Poppera oraz Stefana Amsterdamskiego, że istnieją różne wzorce racjonalności. W speedcubingu wzorce
te są na siebie nieprzekładalne i funkcjonują równolegle do siebie.
Wreszcie Marcin Pełka przedstawia niezwykle specyficzny stosunek
Józefa Hoene-Wrońskiego do techniki, która ma prowadzić człowieka
ku poznaniu Absolutu. Autor prezentuje niezwykłe osiągnięcia Wrońskiego w dziedzinie naukowej (matematyka), podziwia również jego talenty wynalazcze.
III.
Drugi rozdział książki otwiera artykuł Ryszarda Myhana, który analizuje problem przypadkowości i zdeterminowania w naukach ścisłych.
Jak wiadomo, w fizyce kwantowej kwestia ta jest przedmiotem dyskusji
w związku z odkryciami z początku XX wieku. Jednak również z technicznego punktu widzenia jest to trudne zagadnienie, ponieważ każdy
pomiar obarczony jest błędem, a to może prowadzić do trudności w rozpoznaniu związków przyczynowo-skutkowych. Dość podobną tematykę
podejmuje Piotr Drogosz, piszący o trudnościach związanych z techniczną realizacją idei i paradygmatów logik aspirujących do reprezentowania światopoglądu naukowego. Autor prezentuje przy tym punkt widzenia przedstawiciela nauk technicznych i – jako praktyk – zwraca
uwagę na odmienność metodologii technicznej oraz metodologii naukowej.
Marek Rabiński konfrontuje mity na temat katastrofy w Czernobylu
z faktami jej dotyczącymi. Przedstawia przyczyny katastrofy, omawia jej
przebieg, opisuje sposób życia ludzi w strefie wokół elektrowni oraz niespodziewany rozwój przyrody (fauny i flory) spowodowany deficytem
ludzi na tych terenach (daje to asumpt do refleksji nad fatalnym wpływem działalności człowieka na świat ożywiony). Rabiński przedstawia
przyszłość tej strefy w najbliższych latach w związku z planowanymi
zmianami w ustawodawstwach Białorusi i Ukrainy.
Tekst Malwiny Marciniszyn-Jedeszko zamykający ten rozdział
książki, można interpretować jako korespondujące z poprzednim.
Autorka podejmuje tematykę gospodarki leśnej w Polsce i jej wpływu na
środowisko i życie człowieka.
IV.
Rozważania nad paradoksalną i wieloznaczną ideą postępu otwiera
artykuł Piotra Wasyluka. Autor dokonuje przeglądu historiozoficznych
koncepcji postępu; uważa, że zrozumienie idei postępu dziejowego zależy w dużej mierze od określenia modelu zmienności historycznej oraz
10
sposobu, w jaki dokonuje się wartościowania czasu historycznego. Koncepcją, której zasadności Wasyluk w swym tekście broni, jest model sieciowy procesów dziejowych, stanowiący w istocie ideę postępu zdecentralizowanego. Jego kierunek i dynamikę napędzać mają potrzeby twórcze zbiorowości.
Wątpliwości wobec optymistycznej wizji dziejów zgłasza Leszek
Kleszcz, który przedstawia w krótkim rysie historycznym przemiany idei
„nowego wspaniałego świata” – od jej wydźwięku pozytywnego (m.in.
w Nowej Atlantydzie F. Bacona) po ujęcia XX-wieczne, mające posmak
raczej ironiczny (twórczość Huxleya, Orwella). Autor staje po stronie
wielkich sceptyków wobec idei instrumentalnego postępu społecznego –
odwołuje się do koncepcji Dostojewskiego, Gasseta, Adorno czy Postmana i Fukuyamy. Podobną wymowę ma artykuł Jacka Soboty, prezentujący wizje postępu cywilizacyjnego w literaturze science fiction. Otóż,
paradoksalnie, fantastyka naukowa, której główną funkcją jest kreślenie
rzeczywistości społecznej w przyszłości, a także tłumaczenie meandrów
narastającej zmienności świata, okazuje się, w opinii autora, niezwykle
krytycznie nastawiona wobec owych zmian.
Jan Wadowski zajmuje się zagrożeniami związanymi z rozwojem
technologicznym. „Totalny” charakter współczesnej techniki ma, zdaniem autora, sprawiać, że przenika ona każdą dziedzinę życia ludzkiego,
daje człowiekowi złudzenie transcendencji i faktyczności reizacji, ignorując jego godność i wolność, co jest szczególnie widoczne w propozycjach transhumanistów. Mimo takich tendencji, można również przewidywać scenariusz umiarkowanie optymistyczny, kiedy to ergonomiczna
mentalnie technika wesprze człowieka w rozwoju społecznym, intelektualnym, emocjonalnym i duchowym, wyzwalając go z ograniczeń ciała
i umysłu.
Grzegorz Dziobak zajmuje się, niesłusznie nieco już zapomnianymi
koncepcjami filozofa techniki, Lewisa Mumforda. Otóż Mumford przypisywał językowi rolę szczególną, rolę najważniejszego, obok rytuału
i organizacji społecznej, artefaktu człowieka. Język jest najdoskonalszym narzędziem do ujmowania całości ludzkiego doświadczenia. Swoistą parodią myśli Mumforda ma być, wedle Dziobaka, dzisiejsze wykorzystywanie wyszukiwarki internetowej Google, która daje
użytkownikom złudne obietnice dotarcia do potężnych zasobów informacji, a w istocie dokonuje manipulacji i diagnozowania ludzkich preferencji w celach instrumentalnych.
Sebastian Dama odwołuje się do starożytnej koncepcji nauki, by wykazać niedoskonałość koncepcji współczesnych. Już u starożytnych
Egipcjan, wedle autora artykułu, można było dostrzec jedność techniki
11
oraz sfery ducha człowieka. Wiedza starożytnych Greków łączyła się
z tym, co doczesne, była blisko praktyki społecznej, co ma ją odróżniać
od współczesnego pojmowania nauki i technologii, zorientowanych na
partykularny zysk ekonomiczny.
Ostatnim artykułem jest tekst Krzysztofa Kościuszki, który zajmuje
się postacią wielkiego pisarza i wizjonera Stanisława Ignacego Witkiewicza. Witkacy kreował wizję świata, w którym metafizyka zanika, ponieważ ludzkość zamienia się w zmechanizowane mrowisko. Kościuszko dostrzega realizację owej mrocznej wizji w świecie współczesnym; ma być to świat dążący do coraz większej „zyskonośnej” wydajności poprzez przyrosty „technologizacji”, skomputeryzowania i zinformatyzowania rzeczywistości, co z kolei powoduje zanik pierwiastka humanistycznego.
Pewnym nieoczekiwanym efektem uzyskanym przez redaktorów jest
struktura tego tomu. Otóż układa się ona nie tylko wedle oczywistych
segmentów tematycznych, ale również ze względu na aksjologiczne „zabarwienie” diagnozy współczesnego świata, współczesnej cywilizacji.
Na początku mamy teksty optymistyczne, opisujące z nadzieją wpływ
technologicznych wzrostów na kulturę i społeczeństwo. W kolejnych artykułach optymizm wydaje się „rozrzedzać” i powoli przechodzić w pesymistyczne i krytyczne oceny współczesnego obrazu świata. Oba podejścia wydają się cenne, niosą ze sobą bowiem nadzieje i przestrogi.
Chcielibyśmy w tym miejscu podziękować wszystkim uczestnikom
IX edycji Festiwalu Filozofii oraz autorom tekstów tu opublikowanych.
Olsztyn, 16 lipca 2017 r.
Jacek Sobota
Grzegorz Pacewicz
I.
HUMANISTYCZNY WYMIAR TECHNIKI
Andrzej Kucner
Uniwersytet Warmińsko-Mazurski
w Olsztynie
TECHNOLOGICZNA REDEFINICJA KULTURY
1. Poza kulturalizmem i technocentryzmem
Rozważania poświęcam zagadnieniu relacji między zjawiskami kulturowymi a procesami, których źródłem i istotą są nowoczesne technologie: cyfrowe, informacyjne oraz wirtualne. Celem jest analiza zależności między rozwojem technologii a formami kultury oraz sposobami ich
rozumienia. Podejmuję próbę odpowiedzi na pytanie o charakter przeobrażeń kultury, o granice jej autonomii szczególnie w perspektywie zjawisk społecznych, konsumpcyjnych stymulowanych rozwojem i upowszechnianiem technologii. Interesuje mnie również kwestia indywidualności, kreatywności, autentyczności jako wartości odzwierciedlających się w kulturze, a technologicznie indyferentnych lub zmarginalizowanych. Rozważania koncentruję na technologiach informacyjnych i cyfrowych, technologiach obrazu oraz wytworach rzeczywistości wirtualnej. Te trzy czynniki współcześnie najsilniej wpływają na kształt i rozumienie zjawisk kulturowych.
Konsekwencje związków technologii i kultury są złożone i otwarte –
każda z nich nieustannie się przeobraża, a wraz z rozwojem kształtują się
nowe rodzaje determinacji. Ujawniają się one nie tylko w zjawisku społeczeństwa informacyjnego, lecz wynika z nich również odmienny sposób rozumienia samej kultury, opisywanej współcześnie pojęciami płynności, prędkości, symulakryzacji, nomadyczności, bomby informacyjnej, społeczeństwa ryzyka, wirtualnej kompresji czasu i przestrzeni, kultury wymiany, internetu rzeczy itp. W rezultacie tytułowa technologiczna redefinicja kultury to kwestia, którą można wyrazić w pytaniu,
w jaki sposób przemiany technologiczne kształtują aktualny obraz i rozumienie kultury? Czy kulturze przysługuje autonomia, czy też jej rozwój stał się wtórny i zależny od technologii? Czy w dalszym rozwoju
kultury nowe istotne zjawiska mogą stać się niezależne od przemian
technologii? Obok tych pytań można sformułować jeszcze szereg szcze-
16
gółowych kwestii problematyzujących relację kultury, techniki i technologii oraz dwóch antagonistycznych optyk – kulturalistycznej oraz technocentrycznej − w jakich tę relację można rozstrzygnąć1.
Symptomatyczna dla myślenia podporządkowanego regułom i swoistości nowoczesnych technologii jest perspektywiczność, w której czynnik kulturowy uległ relatywizacji, a niekiedy również marginalizacji.
Zwykle widoczne jest to w rozległych i gruntownych analizach zależności między różnorodnymi wytworami technologii przy niemal całkowitej
obojętności wobec kwestii kultury lub gruntownej redukcji jedynie do
zasobów kultury w sieciach globalnych2. Wspomniana perspektywiczność ujawniała się też zupełnie inaczej, np. jako przekonanie o koniecznym związku techniki z filozofią moralną (Paul Goodman), czy w nieco
archaicznym wyobrażeniu dwóch antagonistycznych kultur, istniejących
w związku z dwoma gałęziami nauki (Charles Snow), czy we współczesnej koncepcji trzeciej kultury (John Brockman)3. Mimo różnic między
nimi, w każdym z tych przypadków ujawnia się potrzeba tworzenia mo-
Krótkiego komentarza wymaga tytułowe pojęcie redefinicji. Przedrostek
„re-” sugeruje zmianę dotychczasowej definicji kultury, w istocie chodzi jednak
o zdecydowanie szersze zjawisko, które wyraża się w gruntownej przemianie
warunków, w jakich rozwija się, istnieje i jest rozumiana kultura. Trudno o oddanie jej istoty za pomocą wyliczenia możliwych składników czy wskazania ich
funkcji, co nierzadko stawało się sposobem jej objaśniania. Tytułowa kwestia
ma otwarty charakter i odnosi się do aktualnie zachodzących procesów. Ich charakter trafnie oddaje komentarz Ryszarda Kluszczyńskiego, piszącego przed kilkunastu laty: „Pojawiające się we współczesnych dyskursach naukowych określenia w rodzaju: cyber-tożsamość, cyber-ciało czy cyber-płeć […], próbują nazwać i scharakteryzować nowe jakości tożsamości ludzkiej, jakości transcendujące niegdysiejsze granice i standardy”. Wspomniane transcendowanie przez
technologię kultury w istocie zarazem determinuje tę ostatnią. Zob.
R. W. Kluszczyński, Społeczeństwo informacyjne. Cyberkultura. Sztuka multimediów, Rabid, Kraków 2001, s. 43.
2
Egzemplifikację może stanowić obszerna praca Społeczeństwo informacyjne,
red. J. Papińska-Kacperek, WN PWN, Warszawa 2008, s. 237 i n. Prawdopodobne jest przekonanie, że w wielości i dynamice dokonujących się przemian
stricte filozoficzny namysł nad ich sensem nie jest rdzenny i kluczowy. Widać
to szczególnie w próbach szacowania szans i zagrożeń na podstawie wybranych
losowo kilku przykładów bez jakichkolwiek wysiłków głębszej analizy i myślenia prospekcyjnego (por. np. s. 44-45).
3
C. P. Snow, Wykład Rede’owski. 1959 Dwie kultury, w: idem, Dwie kultury,
przeł. T. Baszniak, Pruszyński i S-ka, Warszawa 1999, s. 77-95; Trzecia kultura,
J. Brockman (red.), przeł. P. Amsterdamski, CIS, Warszawa 1996.
1
17
ralnego i kulturowego kontekstu techniki oraz konieczność rozstrzygnięcia dylematu jedności lub różnorodności kultury czy granic jej autonomii4.
Kulturalizm, oparty na przekonaniu o autonomii, jakościowej odrębności zjawisk kulturowych oraz ich nieredukowalności do zjawisk innego rodzaju (przyrodniczych, społecznych, cywilizacyjnych, technicznych), wyraża głęboką wiarę w skuteczność uzasadnienia autotelicznych
wartości, będących fundamentem tworów kultury. Podobnie rzecz się ma
w przypadku technocentryzmu i technokratyzmu, wskazujących na hegemonię techniki i technologii jako najważniejszych i całkowicie suwerennych czynników przemian człowieka, społeczeństwa, władzy i kultury5. Jak sądzę, żaden z tych poglądów, z powodu jednostronności oraz
towarzyszącej każdemu z nich pewnego rodzaju apodyktyczności, nie
stanowi dobrego i dogodnego punktu wyjścia do zrozumienia dynamicznej więzi obu dziedzin. Za potrzebą odejścia od nich ze względu na antynomiczność przemawia również konieczność poszukiwania (lub tworzenia i tłumaczenia) wzajemnych relacji. W takim przypadku usiłowanie zrozumienia związków kultury i technologii polega nie tyle na ustalaniu i wyjaśnianiu faktów, ile na budowaniu narracji, tłumaczącej dokonujące się procesy przemian każdej z nich oraz ich wzajemne interakcje.
Konfrontacja obu dziedzin skłania do postulatu o jednakowo istotnej potrzebie kulturowej interpretacji znaczenia technologii, głównie w zakresie przeobrażeń życia społecznego i form myślenia oraz redefiniowania
zjawisk kulturowych pod wpływem przemian technologicznych. Wynika to stąd, że nierzadko nowych zjawisk nie sposób uchwycić i wyjaśnić za pomocą ugruntowanych kategorii i zasad, gdyż te ostatnie nie
odpowiadają zakresowi przemian i ich następstw (rzecz dotyczy nie
tylko prawa, moralności, sfery obyczajowej i innych relacji społecznych). Twórcze okazuje się interakcyjne przenikanie się obu dziedzin
i oddziaływania ujawniające się w takich warunkach. Szczególnie wtedy
kultura pełni rolę sensotwórczego źródła lub perspektywy technologii.
Kultura jest wówczas otoczeniem (tłem) technologii, w nim zaś kształ-
N. Postman twierdzi, że żadna z kultur nie może uniknąć „negocjacji z techniką”, zaś efektem tego jest porozumienie przynoszące obopólne zmiany. Negocjacyjny charakter relacji skłania ku temu, by ślepo nie przyjmować zmian
technologicznych i zachować wobec nich krytyczny dystans, daleki od technofilskiego optymizmu. N. Postman, Technopol. Triumf techniki nad kulturą,
przeł. A. Tanalska-Dulęba, PIW, Warszawa 1992, s. 13-15.
5
Por. V. Dusek, Wprowadzenie do filozofii techniki, przeł. Z. Kasprzyk, Wyd.
WAM, Kraków 2011, s. 47-62.
4
18
tują się wzorce myślenia, wartości, dokonuje ich hierarchizacja i uzasadnienie. Nie zawsze ta relacja ma charakter symbiotyczny, gdyż pragmatyczno-instrumentalna logika rozwoju technologii oraz mnogie ścieżki
rozwoju kultury nie zawsze się pokrywają, jednak w praktyce ostatecznie
dochodzi do ich krzyżowania, a niekiedy bywają nawet współbieżne. To
wzajemne przenikanie się problemów techniki i różnych aspektów kultury, w tym również i filozofii, było szczególnie widoczne od chwili, gdy
nauka uległa stopniowej korekturze pod wpływem dążenia do podporządkowania jej instrumentalnym zastosowaniom (wiedza i technika
jako warunki panowania). To dążenie ujawniało się w nowożytnym optymizmie Bacona, oświeceniowych projektach Saint-Simona, pozytywizmie Comte’a, technokratyzmie Veblena czy we współczesnych konceptach łączących np. feminizm z postulatywnym wykorzystaniem wiedzy
technicznej w zakresie reprodukcji, organizacji życia zawodowego,
nauki6.
2. Technicyzacja kultury i kulturalizacja techniki
Potrzeba kulturowej interioryzacji techniki i technologii nie wzbudza
większych kontrowersji. Z jednej strony, kultura sensu largo jest tą dziedziną życia i działania człowieka, która nieustannie afirmatywnie lub
krytycznie wchłania wytwory techniki i technologii. Powszechnie uobecniają się one w sztuce, muzyce, wyraziście wpływają na ludzkie postępowanie i twórcze myślenie, przeobrażają kulturę słowa i obrazu. Są
w nich narzędziami, lecz jednocześnie mogą decydować o formach i sposobie przekazu artystycznych wypowiedzi. W tym przypadku technika
i technologia nie muszą być wyłącznie synonimami nowoczesności i innowacyjności, choć takie myślenie wydaje się dominujące. Jego alternatywę stanowi resemiotyzacja jako nowoczesne wykorzystanie historycznych wytworów, technik, rozwiązań, wzorców oraz ich restytucja przy
pomocy nowoczesnych środków i możliwości, np. kompozytowe tradycyjne instrumenty muzyczne, analizy historycznych dzieł malarskich
i rzeźbiarskich przy pomocy nowoczesnych technik obrazowania, zaawansowane technologicznie rekonstrukcje zdarzeń historycznych lub
zjawisk kulturowych, powstanie fotografii, a następnie jej przeobrażenia
w powiązaniu z technologiami cyfrowymi, mediami i internetem7. Aparat fotograficzny − idąc za intuicją Viléma Flussera – jest narzędziem
W syntetyczny sposób kwestie te zreferował m.in. V. Dusek, Wprowadzenie
do filozofii techniki…, s. 150-171.
7
Te ostatnie analizuje i komentuje Josè van Dijck. Sens zmiany, jaka dokonała
się za sprawą czynników technicznych sprawił, że obrazy fotograficzne zostały
6
19
tworzącym obrazy techniczne, którym przypisujemy informacyjną treść
i znaczenie symboliczne, to zaś ma decydujące znaczenie, by uznać je za
twory i składniki kultury, a nie tylko efekty działania światła na elementy
światłoczułe8. Nie jest to jakaś szczególnie odkrywcza konstatacja, eksponuje jednak technogeniczne aspekty kultury, bez których istotna część
jej współczesnego oblicza w ogóle by nie istniała. Innymi słowy, technika i technologia nie tylko determinują kierunki rozwoju, ale w ogóle
stały się warunkiem możliwości kultury. Odwołanie do technicznych
źródeł kultury nie służy tutaj jej redukcji, a głównie pokazaniu, że kreatywne działanie człowieka łączy się z uprzednio stworzonymi możliwościami technicznymi9. Przykłady fotografii, wideoartu czy grafiki komputerowej uzmysławiają techniczno-technologiczny fundament wielu
współczesnych zjawisk kulturowych, a jednocześnie pozwalają rozumieć sztukę w sposób trwale powiązany z zastosowanymi urządzeniami
i środkami technicznymi. Łącząc technologie informatyczne z najpopularniejszymi formami komunikacji społecznej, łatwo uzmysłowić sobie
skalę tej części kultury, która współcześnie rozwija się w ścisłej więzi
z wykorzystywanymi urządzeniami, oprogramowaniem, globalna siecią,
mnogością kanałów komunikacji itp. Podsumowując, mnogość możliwych zastosowań techniki i technologii uzmysławia trwałe ich powiązanie z kulturą i skłania do wniosku o istotnym głównie analitycznie rozróżnieniu tych dwóch sfer, w praktyce bowiem historię rozwoju człowieka jako istoty kulturowej pisać można przez pryzmat jego kolejnych
włączone w procesy, których zasięg wyznaczają technologie informacyjne, powiązane z nimi działania ekonomiczne i społeczne. Ich wyróżnikiem jest ciągłe
modyfikowanie treści: „Współczesne koncepcje ciała, umysłu, wyglądu i pamięci są w równym stopniu warunkowane przez obecny w kulturze stan ciągłej
modyfikacji. Nasze nowe narzędzia współgrają po prostu z mentalną elastycznością, która pozwala przebudowywać własną tożsamość i przerabiać cielesność”. J. van Dijck, Zmediatyzowane wspomnienia w epoce cyfrowej, w: Fotospołeczeństwo. Antologia tekstów z socjologii wizualnej, red. M. Bogunia-Piotrowska, P. Sztompka, Wyd. Znak, Kraków 2012, s. 499.
8
V. Flusser, Ku filozofii fotografii, przeł. J. Maniecki, Wydawnictwo Aletheia,
Warszawa 2015, s. 65.
9
Flusser tłumaczy to następująco: „Aparat fotograficzny dobrze ilustruje taką
robotyzację pracy i to wyzwolenie człowieka do gry. Jest inteligentnym narzędziem, gdyż wytwarza obrazy automatycznie. Fotograf nie musi już, jak malarz,
koncentrować się na pędzlu, lecz może całkowicie oddać się grze z aparatem.
Praca do wykonania, tj. odbicie obrazu na powierzchni, następuje automatycznie: strona narzędziowa aparatu jest «załatwiona», a człowiek zajmuje się tylko
aspektem «zabawowym» aparatu. V. Flusser, Ku filozofii fotografii…, s. 69.
20
osiągnięć technicznych i tworzonych technologii. Niekiedy nawet wyprzedzają one rozwój samej kultury, co łatwo dostrzec tam, gdzie np.
wytworom najnowszych technologii brak niekiedy wykładni etycznej
lub gdy wywołują one dylematy moralne.
Przypadki, gdy technika i technologia bywają instrumentem i potencjałem twórców kultury, mogą również być inspiracją twórczych aktów10. Owa interioryzacja przybiera szczególną postać w formie wytworów kultury masowej, powstającej za sprawą możliwości masowego
tworzenia i udostępniania dóbr kultury.
Z drugiej strony, spory o źródła, logikę i następstwa jej rozwoju okazały się przedmiotem namysłu twórców współczesnych stanowisk
i szkół filozoficznych. Kulturowej interioryzacji techniki i technologii
towarzyszyło dążenie do krytycznej analizy i waloryzacji przemian cywilizacyjnych i społecznych, dokonujących się za ich sprawą. Od dawna
stanowiło to przedmiot filozofii (m.in. filozofii dziejów, filozofii techniki, filozofii kultury). O ile na przełomie XIX i XX wieku pytania o
istotę techniki były znamienne dla filozofii tamtego czasu, o tyle współczesne filozofowanie koncentruje się głównie na problemie tego, co zostaje z kultury poddanej przemianom technologicznym, zaprogramowanej konsumpcji, wirtualnej partycypacji, logice wizualizacji itp. Kwestie
antropologiczne oraz społeczne wyznaczały odrębne płaszczyzny poddające wartościowaniu rozwój techniki i technologii oraz implikowały
kierunki ich rozwoju i oceny. W rezultacie na przestrzeni wieków w
szczególny sposób uwidaczniało się to na przykład w licznych utopiach,
zarówno zorientowanych optymistycznie (Tommaso Campanella, Francis Bacon), jak i zawierających wizje nieuchronnego upadku człowieka
na skutek negatywnych następstw rozwoju techniki i technologii (Jean
Jacques Rousseau, Oswald Spengler)11. Ocena tych przemian jest dużo
bardziej złożona aniżeli wynikałoby to z prostego rozróżnienia na opty-
10
Por. np. Art. And Technology, http://www.art.aau.dk/ (data dostępu:
9.08.2016). Również jako nowoczesny, interdyscyplinarny kierunek studiów:
http://www.en.aau.dk/education/bachelor/art-technology
(data
dostępu:
9.08.2016). Przykłady technologicznych przekształceń sztuki prezentuje strona
7 Ways Technology is Changing How Art is Made
(http://www.smithsonianmag.com/arts-culture/7-ways-technology-is-changing-how-art-is-made-180952472/?no-ist, data dostępu: 9.08.2016)
11
Pozytywne i negatywne aspekty przyszłego rozwoju jako możliwe scenariusze prezentują m.in. E. Brynjolfesson i A. McAfee (Drugi wiek maszyny. Praca,
postęp i dobrobyt w czasach genialnych technologii, przeł. B. Sałbut, MT Biznes
Sp. Z o.o., Warszawa 2014, s. 196 i n.).
21
mizm i pesymizm w kwestii ich charakteru. Wspomnianą złożoność odzwierciedlają zarówno kryteria ocen, jak również interpretacja samych
przemian. W pierwszym przypadku chodzi o wskazanie wartości, które
stałyby się miarą oraz sensotwórczym wyrazem przemian, oraz opowiedzenie się za ich auto- lub heteronomicznością, a więc o to, czy technika
i technologia tworzą własny, autonomiczny świat wartości, czy też do
ich zrozumienia niezbędne jest odwołanie się do wartości zewnętrznych,
np. społecznych, utylitarnych. W drugim przypadku idzie o wskazanie
modelu będącego podstawą rozumienia przemian świata techniki: linearnego, cyklicznego, sieciowego, a także emergentnego lub ewolucyjnego12. Wybór któregokolwiek z nich narzuca odmienny typ narracji,
a w następstwie tym samym zdarzeniom i procesom (np. informatyzacji,
cyfryzacji, wirtualizacji) nadaje inny charakter. Zmierzam do tego, by
pokazać, iż sens przemian nie jest jedynie czymś immanentnym i odkrywanym, ale wynika głównie ze sposobu interpretacji i tworzonego rozumienia. Fakty, ich interpretacja i ocena z perspektywy uznanych wartości
staje się wówczas fundamentem interpretacji, a w połączeniu z wnioskami tworzą one odrębne sposoby rozumienia. Ich wielość uzmysławia
niejednoznaczny, otwarty, a nierzadko ambiwalentny charakter przemian technicznych. Na poziomie interpretacji technologię wiązano zarówno z wojną, jak również wskazywano ją jako środek rozwiązywania
problemów społecznych. Próby rozstrzygnięcia kwestii jej wartości skutkowały zarówno przerażającymi hipotezami nieuchronnej destrukcji
ludzkości, jak również wysiłkami jej użytecznego wykorzystania. Ta
niejednoznaczność skłania do wniosku o heteronomicznym charakterze
ocen rozwoju techniki i technologii. Innymi słowy, zawarty w nim potencjał wymaga odwołania do zewnętrznych intencji i celów działania,
by ostatecznie dokonać ich oceny. Same przez się wydają się neutralne,
w powiązaniu zaś z pozatechnicznymi celami, ujawniają swój potencjał.
Można też uznać, iż tak silna ambiwalencja możliwych konsekwencji
wymaga odrzucenia ich abstrakcyjnego rozumienia na rzecz konkretnych form techniki i technologii oraz zastosowań.
Trzy kluczowe procesy, które w praktyce są ze sobą powiązane,
a współcześnie mogą być traktowane jako istotne technologiczne czynniki przekształcania i redefiniowania kultury to informatyzacja, cyfryzacja oraz wirtualizacja. Mogą one być analizowane na poziomie wiedzy
technicznej (i tak dzieje się też najczęściej), lecz również wymagają
Sieciowy model rozwoju może być traktowany jako jeden z przykładów przenikania do filozofii wzorców myślenia o rodowodzie technologicznym (informatycznym), gdzie funkcjonowanie jednostki jest opisywane z perspektywy ról
i relacji, w jakich istnieje w bliższym i dalszym otoczeniu.
12
22
niego ogólniejszego namysłu nad tym, w jaki sposób ich rozwój wpływa
na przeobrażenia i rozumienie kultury i społeczeństwa. Każdy z tych procesów skutkuje przekraczaniem historycznych uwarunkowań rozwoju,
dotychczasowych ścieżek analizy i rozumienia kultury oraz powstawaniem zupełnie nowych determinant i form rozwoju. W ciągu dwóch
ostatnich dekad przyniósł nie tylko rozwój teorii społeczeństwa informacyjnego (pojęcie − jak wiadomo − jest zdecydowanie starsze), cyberkultury i światów wirtualnych, w których, parafrazując Jeana Baudrillarda,
człowiek, uwodzony kolejnymi symulakrami, egzystuje w stanie niemal
całkowitego wyparcia rzeczywistości i zastąpienia jej powszechnie dostępnymi tworami technologii oraz kalkulacją i uzasadnieniem rosnącego ryzyka implozji porządku i sensu dokonujących się przemian13. Rozumienie wspólnoty, przeobrażanej za sprawą technologii sieciowych,
wymaga innego spojrzenia na konstytutywne relacje. Wśród nich traci
na znaczeniu terytorialność, fizyczna bliskość czy lokalność. Społeczeństwo sieci istnieje w dynamicznej przestrzeni przepływów (kapitału, informacji, form organizacji, technologii obrazów, dźwięków, symboli
itp.)14.
Przy konkretyzacji perspektywy rozważań ogólna logika przemian
technologii odzwierciedla się w jednostkowych zdarzeniach, mających
jednak globalny zasięg i powszechną siłę oddziaływania. Innymi słowy,
skala i kierunek przemian podporządkowane są jednemu procesowi konsumpcji, gdy za sprawą technologii nieustannie rozwija się globalna produkcja, globalna dystrybucja, globalne kształtowanie potrzeb oraz sposoby ich zaspokajania. To jedna strategia wytwarzania i użytkowania
rzeczy, a następnie ich wymiany na inne. W metaforze płynnego życia
konsumpcja ujawnia się jako jeden stały element. Owo płynne życie, jak
pisał Bauman:
traktuje […] świat oraz wszystkie jego ożywione i nieożywione elementy
jako przedmioty konsumpcji, a więc przedmioty, które tracą swoją użyteczność (a co za tym idzie: swój blask atrakcyjność, siłę przyciągania i wartość)
w miarę ich używania. Płynne życie ocenia wszystkie ożywione i nieożywione elementy świata według kryteriów konsumpcyjnych15.
Por. J. Baudrillard, O uwodzeniu, przeł. J. Margański, Sic!, Warszawa 2005,
s. 55; idem, Symulakry i symulacja, przeł. S. Królak, Sic!, Warszawa 2005,
s. 189 i n.
14
Zob. M. Castells, Społeczeństwo sieci, przeł M. Marody, K. Pawluś, J. Stawiński, S. Szymański, WN PWN, Warszawa 2010, s. 411 i n.
15
Z. Bauman, Płynne życie, przeł. T. Kunz, Wyd. Literackie, Kraków 2007,
s. 17.
13
23
3. Kultura w obliczu technologii informacyjnych i cyfrowych
W jaki sposób przeobraża się kultura pod wpływem rozwijających się
i upowszechniających technologii informacyjnych oraz postępującej cyfryzacji? Analiza historycznych i współczesnych przemian techniki
i technologii skłania do tezy, że wartości, które opisują głównie jakościową stronę ich rozwoju, stopniowo się autonomizują. Innymi słowy,
w rozwoju techniki i technologii coraz większe znaczenie zyskują wartości powstające pod ich wpływem i w ścisłym związku z nimi. Doskonałym przykładem takiego sposobu myślenia są wnioski, jakie formułują
E. Brynjolfesson i A. McAfee. Według nich, sieci, oprogramowanie
i sprzęt komputerowy oraz związane z nimi technologie cyfrowe, stanowią źródło bezprecedensowego postępu dokonującego się na naszych
oczach: „Wkraczamy – jak piszą – w drugą epokę technologiczną”16.
Twierdzą oni, że technologie cyfrowe są (i nadal będą) źródłem korzyści,
które w syntetycznym ujęciu wiodą do tego, że w wymiarze społecznym
osiągniemy większe możliwości wyboru oraz większą wolność.
Na skutek cyfryzacji – a więc przeistoczenia w bity, które mogą być przechowywane w komputerze i przesyłane za pośrednictwem sieci – wszystko
zyskuje pewne dziwne, ale niesamowite właściwości. Powstaje bowiem
świat, który rządzi się innymi regułami gospodarczymi – w którym miejsce
niedoboru zajmuje nadmiar. Wykażemy więc, że dobra cyfrowe różnią się
od tych fizycznych i że ta różnica ma istotne znaczenie. […]
Cyfryzacja ma pozytywny wpływ na nasz świat fizyczny, a znaczenie tych
zmian będzie się tylko nasilać. Pośród historyków gospodarki panuje powszechna zgoda co do tego, że – jak ujął to Martin Weitzman – «długoterminowy wzrost zaawansowanej gospodarki zależeć będzie głównie od przebiegu postępu technicznego». My wykażemy, że postęp techniczny dokonuje się w tempie wykładniczym17.
Trzeci wniosek odnosi się do następstw cyfryzacji, mających rewolucyjny charakter. W ich wyniku, obok licznych korzyści, pojawią się negatywne zjawiska gospodarcze, m.in. w sferze zatrudnienia. Masowe
bezrobocie strukturalne stanie się skutkiem niedostosowania zawodowego do przeobrażeń i wymagań rynku pracy, gdyż „nigdy wcześniej
posiadanie wyjątkowych umiejętności zawodowych czy odpowiedniego
wykształcenia nie liczyło się aż tak bardzo, teraz bowiem stanowią one
klucz do wykorzystania technologii w celu tworzenia i wychwytywania
16
17
E. Brynjolfesson, A. McAfee, Drugi wiek maszyny..., s. 14.
Ibidem.
24
wartości”18. Brynjolfesson i McAfee nie analizują jednak kwestii rodzajów czy hierarchii wartości. Ich rozważania pod tym względem rażą jednostronnością, nikłą oryginalnością czy wnikliwością, choć wskazują na
procesy i mechanizmy przemian. Potencjał zawarty w cyfryzacji danych
skłania do wniosku o jego otwartości i niezupełnej określoności dla przyszłej kultury.
Wraz z rozwojem technologii cyfrowych w wymiarze praktycznym
dokonał się przełom w sposobach gromadzenia danych i zarządzania
nimi (w tym udostępniania). Widziany w szerszej perspektywie, ów
przełom reorientuje sposoby posługiwania się tym (oraz rozumienia
tego), czego pierwotnie był tylko technicznym podłożem. Problemem
wymagającym rozważenia jest skala i sposób oddziaływania technologii
na kulturę stopniowo i coraz szerzej przekształcaną do postaci cyfrowej.
Śledząc rozwój z perspektywy ostatnich dwóch dekad, można zauważyć,
że zmiany te stają się powszechne − objęły w pierwszej kolejności kulturę wizualną i muzyczną, w dalszej kulturę słowa oraz komunikację.
W jaki sposób za sprawą cyfryzacji ulegną przeobrażeniu wartości wyróżniające i opisujące kulturę? W jakim stopniu technologie cyfrowe
mogą się stać wyrazem kreatywności, autentyczności czy indywidualności w tworzeniu kultury? Jak może jeszcze się zmienić sama kultura, której podłożem są nowe technologie19? Czy znaczenie technologii cyfrowych stanie się przesłanką do wyodrębnienia kultury cyfrowej? Nie chodzi tu o to, by dokonać jedynie formalnej kategoryzacji (analogicznie jak
18
Ibidem, s. 14-15.
Próbę zmierzenia się z zagadnieniem wartości determinowanych przez technologię na poziomie epistemologicznym, metodologicznym, praktycznym oraz
w formie studium przypadku podjęli m.in. M. Flanagan, D. C. Howe, H. Nissenbaum, Embodying Values in Technology. Theory and Practice, w: Information Technology and Moral Philosophy, (ed.) Jeroen van den Hoven, John Weckert, Cambridge University Press, Cambridge 2008, s. 322-353. Obok ogólnych
rozważań, podejmowane są również próby dociekań nad estetycznymi aspektami nauk technicznych i technologii. Dobry przykład to praca Joachima
Schummera, w której autor analizuje estetyczne aspekty symetrii w badaniach
chemicznych, estetyczne zagadnienia obrazów w chemii molekularnej, estetyczne aspekty doświadczeń chemicznych czy problem wartości estetycznych w
matematycznym modelowaniu inżynierii chemicznej oraz chemii fizycznej.
Zob. J. Schummer, N. Taylor, B. MacLennan, Aesthetic Values in Technology
and Engineering Design, w: Philosophy of Technology and Engineering Sciences (Handbook of the Philosophy of Science), [ed.] Anthonie Meijers, Elsevier
2009, vol. 9, s. 1031-1068.
(http://www.joachimschummer.net/papers/2009_AestheticValues_HandbookPhilTech.pdf dostęp 23.08.2016)
19
25
wyodrębnia się kulturę wizualną, kulturę słowa czy kulturę muzyczną),
ale uchwycić skalę zmiany, spowodowanej przez wykorzystanie technologii jako narzędzia i formy zarazem.
Technologia cyfrowa stała się nie tylko instrumentem, lecz również
istotnym czynnikiem tworzenia, rozwoju oraz – w szerszej perspektywie
− kryterium ujednolicania kultury. Możliwe jest poszukiwanie związków
ze starym pitagorejskim wyobrażeniem świata jako liczby, w praktyce
bowiem poszczególnym formom kultury odpowiada ich cyfrowy ekwiwalent w odniesieniu do obrazu, muzyki czy słowa. Wprawdzie określanie efektów technologii cyfrowych mianem kultury cyfrowej lub digitalnej (tak jak per analogiam wyodrębnia się kulturę wizualną, kulturę
słowa) może się wydawać problematyczne, to jednak na przykładzie
współczesnej fotografii i muzyki łatwo uzmysłowić sobie, jak istotną
rolę w ich powstaniu, finalnych formach ekspresji sztuki odgrywa strona
techniczna (stricte cyfrowa). Cyfrowy modeling brzmienia, sampling
jako źródło i podstawa formy, recording, mastering oraz remastering
w przypadku dawnych kompozycji w muzyce, sposoby jej dystrybucji
w formie cyfrowej i udostępniania są przejawami przemian możliwych
w następstwie pojawiania się nowych technologii. W konfrontacji z tradycyjnie rozumianymi formami pracy kompozytorskiej, teorią i zasadami muzyki, powstała odrębna, równoległa ścieżka tworzenia muzyki,
dla której dotychczasowe środki, zasady oraz wartości mogą stanowić
jedną z wielu możliwych płaszczyzn odniesienia i rozumienia kreatywności. W takim wymiarze traktowanie aktu twórczego w oderwaniu od
wykorzystywanych środków technicznych oraz technologii okazuje się
nie tylko zupełnie niemożliwe, ale wymaga uznania za rdzenny składnik
muzyki.
W podobny sposób przeobrażeniom uległa również fotografia jako
sztuka wizualna. W następstwie zastosowania technologii cyfrowych
w tworzeniu i przekształcaniu obrazu, dotychczasowe techniki i powiązane z nimi technologie zostały skutecznie wyparte lub dalece zmarginalizowane. Cyfrowo tworzony obraz, cyfrowa ciemnia wraz z jej możliwościami przekształcania i kreowania obrazu, cyfrowe efekty pracy
uzmysławiają kompleksowy i głęboki charakter przemian. Trzeba podkreślić, że kanony tradycyjne fotografii nie straciły znaczenia, lecz obok
nich (choć niekiedy także w ich miejsce) powstały całkowicie nowe
26
wzorce, sposoby myślenia i działania, zyskujące znaczenie w sferze kultury wizualnej20. Przemiany w sferze fotografii pokazują, iż skala zmian,
jakie dokonały się w wyniku upowszechnienia technologii cyfrowej, zreorientowały nie tylko techniczną stronę rozwoju kultury, ale również,
wtórnie, determinują jej wartości i sposoby rozumienia. Środki techniczne w połączeniu z technologiami są sposobem i warunkiem partycypacji w kulturze. Nową jakością, która temu towarzyszy jest technologiczna kompresja czasu i przestrzeni, którą analizowali J. Baudrillard, Z.
Bauman czy P. Virilio. Wytwory kultury w formie cyfrowej uniezależniają się od czasu i przestrzeni. Istnienie kultury w postaci wirtualnej
chmury danych nie jest żadnym symbolem upadku czy kresu kultury
w jej historycznej postaci, a wynikiem upowszechniania samej
technologii.
Technologie cyfrowe są podstawą tworzenia, istnienia oraz przekształceń, których istotę w ogólnym ujęciu stanowi sprowadzenie dowolnych danych (obrazu, dźwięku, tekstu) do postaci cyfrowej, a następnie
możliwość przekształcanie ich za pomocą metod matematycznych (ilościowych). Efektem jest zaawansowana analiza oraz parametryzacja danych i wynikająca z tego możliwość ich złożonego modelowania. Tak
rozumiana cyfrowa redefinicja kultury polega na wykorzystaniu możliwości tworzenia, przetwarzania, udostępniania i archiwizowania, a więc
kreuje nową jakościowo płaszczyznę działania artysty, a następnie realnego i wirtualnego istnienia dzieła: możliwości nieograniczonej multiplikacji, dystrybucji i percepcji itp. Cyfryzacji nie postrzegam jednak
jako alternatywy historycznie ukształtowanych form tworzenia kultury,
ich waloryzacji czy sposobów partycypacji. Z jednej strony cyfryzacja
symbolizuje sumę nowoczesnych środków technicznych, przy pomocy
których tworzy i organizuje się kulturę sensu largo, a jednocześnie wprowadza ją w przestrzeń społeczną.
Podsumowując ten wątek, cyfryzacja jest jednym z kluczowych czynników i kierunków rozwoju technologii informatycznych. Jest środkiem
i sposobem przekształcenia i redefinicji szeregu składników rzeczywistości, które obejmuje swym zasięgiem. Łącząc cyfryzację z technologiami komunikacyjnymi, dokonuje się jakościowe przeobrażenie przestrzeni oraz czasu. Efektem jest powszechna obecność i dostępność danych, będących wynikiem upowszechniania się technologii bezprzewodowego internetu oraz telefonii komórkowej. Ten fakt już przed ponad
Operuję określeniem „kultura wizualna”, które wszechstronnej analizie i krytyce poddał m.in. W. J. T. Mitchell (Przedstawienie widzialnego: krytyka kultury wizualnej, w: Fotospołeczeństwo. Antologia tekstów z socjologii wizualnej…, s. 124-133).
20
27
dekadą skłonił Williama Mitchella do sformułowania tezy o śmierci cyberprzestrzeni w tym kształcie, w jakim znaliśmy ją dotychczas21. Innymi słowy, bliskość i powszechna dostępność danych oraz technologii
komunikacyjnych stawia pod znakiem zapytania potrzebę wyodrębniania cyberprzestrzeni jako tworu jakościowo różnego od istniejących społecznych ram i form komunikowania i rzeczywistości, w jakiej funkcjonujemy. Komentując to, James Harkin pisał:
Niemal niezauważalnie zamieniliśmy się wszyscy w cyborgi czy w «elektronomadów» (ludzkie ciała z wszczepionymi cyfrowymi implantami),
a miasto stało się naszą siecią. W świecie, gdzie fizyczne granice stracą znaczenie, a wagę zyskają dynamiczne punkty styku technik cyfrowych z rzeczywistością, życie nabierze nowych barw. Miasto przekształci się w metaforyczne ciało, a krew jego mieszkańców zacznie w zawrotnym tempie pulsować w żyłach22.
Związek kultury z dokonującymi się przemianami technologicznymi
sprawia, że ich synteza okazuje się nieredukowalna do którejkolwiek
z nich. To połączenie kształtuje nową, w części tylko przewidywalną
i jak dotąd tylko częściowo krytycznie zanalizowaną jakość. Mitchell
rozważając konsekwencje wspomnianego „elektronomadyzmu” koncentruje się głównie na technologicznych aspektach życia23, jednak zarazem
rozumie, że przemiana obejmuje każdą dziedzinę ludzkiej aktywności, w
tym także kulturę. Człowiek w każdym istotnym wymiarze życia i działania okazuje się istotą trwale i głęboko połączoną z siecią i technologiami (connecting creatures). Ten fakt reorientuje rozumienie tożsamości człowieka, a przede wszystkim skłania do traktowania wytworów
kultury jako amalgamatu, łączącego w sobie sferę duchową (intelektualną, emocjonalną, uczuciową), społeczną i kulturową ze środkami technicznymi oraz rozpowszechnionymi sposobami ich wykorzystania24.
Teza Mitchella była wynikiem analiz, w których odwoływał się do dwóch
istotnych aspektów wpływających na tożsamość: równoczesne istnienie świadomości licznych granic (boundaries) oraz związków (connections). Wszystkie
one tworzą sieć, w jakiej funkcjonuje i rozwija się człowiek. W. J. Mitchell,
Me++. The Cyborg-self And The Networked City, The MIT Press, Cambridge,
Massachusetts London England 2003.
22
J. Harkin, Trendologia. Niezbędny przewodnik po przełomowych ideach,
przeł. M. Borowski, Wyd. Znak, Kraków 2010, s. 41.
23
Por. P. K. Nayar, Book Profile: Me++, „Journal for Cultural and Religious
Theory” 2004, vol. 5 no.3, s. 82-85.
24
Zob. W. J. Mitchell, Me++…, s. 19 i n.
21
28
Ogólnie rzecz ujmując, poziom rozwoju technicznego i technologii
niemal od uświadomienia sobie ich poznawczego i praktycznego znaczenia stanowił w europejskim kręgu kulturowym istotny wyznacznik dokonujących się przemian cywilizacyjnych. Szczególnym momentem historycznym, łączącym technikę i technologię z wytworami kultury było
u schyłku XVIII wieku powstanie i rozwój kultury masowej jako alternatywnej ścieżki rozwoju. Jej wynikiem stały się przemysłowo wytwarzane i powszechnie dystrybuowane dobra, służące zaspokajaniu potrzeb
kulturalnych większości społeczeństwa. Powstanie kultury masowej
świadczyło o powiązaniu technicznego i kulturowego sposobu myślenia.
Skrótowo ujmując, techniczny sposób działania powiązano z tworzeniem na rzecz potrzeb człowieka. Jeśli pojawienie się kultury masowej
było jednym ze znamion wejścia człowieka w epokę industrialną, to cyfryzacja, rozwój technologii informacyjnych i upowszechnianie ich wyników mogą być traktowane jako kolejny przełom. Jego skalę i znaczenie
trudno jeszcze jednoznacznie ocenić, można natomiast wskazać swoiste
cechy, pozwalające interpretować dokonujące się zmiany. Technika
i technologia stopniowo „uwalniają” i oddalają człowieka od pierwotnych biologicznych czynników rozwoju i powiązanego z nim ewolucyjnego (linearnego) sposobu myślenia, reorientują formy i hierarchię potrzeb, nadają inne znaczenie czasowi i przestrzeni. Nie unicestwiają ich,
ale czynią elastycznymi i wtórnymi wobec przemian dokonujących się
w rzeczywistości wirtualnej. W tej ostatniej istotniejszy od zasady rzeczywistości okazuje się obraz, medialność, interaktywność, dynamika
przemian i prędkość, decentracja i rozproszenie. Ryszard Kluszczyński
do tego opisu przemian dodaje jeszcze procesualność i rozmnażanie granic osobowości, tożsamość wirtualną, transhumanizm czy cyborgizację
osoby ludzkiej25. Nawiązując do McLuhana, wskazuje też na więź społeczną, której podstawą jest komunikacja: „Mogłoby się więc wydawać,
że to właśnie wewnątrzkulturowy ruch informacji, społeczne nasycenie
informacyjne, nadaje każdej poszczególnej kulturze spoistość oraz moc
trwania i rozwoju”26. Wirtualny sposób bycia w kulturze pozostaje skutecznym czynnikiem transgresji, przekraczania granic własnej kultury,
wymaga również odmiennej interpretacji aniżeli historycznie ukształtowane formy partycypacji. Technologie wirtualne w połączeniu z globalnością lawinowo rozwijającej się komunikacji kształtują nowe płaszczyzny rozwoju, a jednocześnie powodują jego niewspółmierność oraz niejednorodność.
25
26
R. W. Kluszczyński, Społeczeństwo informacyjne…, s. 38.
Ibidem, s. 40.
29
Innym skutkiem technologicznej korekty (a właściwie interakcji obu
tych sfer) wzorców kultury jest stopniowe wypieranie wspólnot rzeczywistych przez wspólnoty wirtualne. To ostatnie miano odnosi się do wirtualnego sposobu bycia człowieka i idei wspólnoty, której podłożem jest
technologia informatyczna, a skutkiem upowszechnianie relacji wirtualnych. Nie są one kopią rzeczywistych więzi, nie duplikują bezpośrednich
kontaktów, lecz rozwijają się na odmiennym podłożu oraz przysługuje
im ich własna logika. Nie wypierają całkowicie realnych związków, jednak w swoim rozwoju podlegają innym prawidłowościom i trendom aniżeli te pierwsze.
Krytyczny namysł nad przemianami kulturowymi, wywołanymi tym,
co technologiczne (w swej istocie pozakulturowe), skłania nie tylko do
konstruktywnego budowania nowej narracji, lecz również do formułowania tez o ograniczoności tego rodzaju rozwoju. W. Mitchell pisał:
Hegemonia tego, co widzialne, jest zachodnim, współczesnym wynalazkiem, p ro d u kt e m no wyc h tec h no lo gi i med ia l n yc h, a n ie fu n d a me n ta l n y m s k ład n i kie m k ul t ur y l ud z k iej . Nazwijmy to błędem
technologicznej nowoczesności, powszechnie akceptowaną ideą, która nigdy nie zawodzi, wzbudzając gniew badaczy niezachodnich i nienowoczesnych kultur wizualnych, powszechnie przyjmowaną jako fakt przez wierzących, że ws p ó ł cze s ne med ia tec h n ic z ne (te le wi zj a, ki no , fo to gra fia, I nter n et) są tre ś cią i ko ns t yt u t y wn y mi p rz yk ład a mi
k ul t ur y wi z ual n ej (podkr. A.K.)27.
Komentując spostrzeżenia Mitchella, warto podkreślić, że usiłowanie
separowania technologii i kultury jest działaniem opartym na przesłankach historycznych. Odwoływanie się do roli i znaczenia wizualności w
kształtowaniu się współczesnych form i procesów kulturowych wymaga
równoczesnego uznania kreatywnej roli technologii obrazu sensu largo.
4. Kultura a informacja
Rozwój kultury w tych aspektach, które wynikają z obecności technologii, przynosi konsekwencje w postaci zupełnie nowych modusów
myślenia i działania, odzwierciedlających się z czasem w kulturze. Tym,
co stopniowo okazuje się w niej istotne, jest możliwość szeroko rozumianego dostępu do określonych dóbr, a nie ich fizycznego posiadania.
W takim wymiarze istotniejszy jest szybki i sprawny dostęp do danych,
do informacji, aniżeli posiadanie ich źródeł, istotniejsza okazuje się możliwość niesformalizowanego dzielenia się nimi (lub szerzej – wiedzą),
27
W. J. T. Mitchell, Przedstawienie widzialnego…, s. 127.
30
aniżeli pokonywanie kolejnych barier: instytucjonalnych i organizacyjnych, formalnych, finansowych itp. Ten czynnik dewaluuje historyczne
osiągnięcia i sprawia, że zmienia się kulturowe znaczenie historycznie
powstałych i ugruntowanych instytucji, np. uniwersytetu. Na poziomie
praktycznej edukacji i skomercjalizowanej nauki ich historyczna misja
może się wydawać anachronizmem, gdyż innego rodzaju wartości są
częścią społecznych skojarzeń, oczekiwań i praktyki. Zsekularyzowane
rytuały nauczania, weryfikowania, dyplomowania, archiwizowania osiągnięć są wątpliwym dowodem historycznej wartości uniwersytetu jako
miejsca i sposobu organizowania edukacji oraz badań naukowych28.
W wymiarze organizacyjnym i funkcjonalnym stał się instytucją wewnętrznie rozbitą, niespójną, zbiurokratyzowaną, niekiedy odległą od
tego, co można uznać za technologiczny mainstream obiegu i wykorzystania informacji. Od chwili pojawienia się informacjonizmu toczy się
spór o to, na ile trafny i rzetelnie uzasadniony jest pogląd i argumenty
M. Castellsa o politycznej, edukacyjnej, ekonomicznej, technicznej i kulturowej roli informacji29. Dyskusja między zwolennikami a sceptykami
toczy się nie tyle o to, czy takiej narracji przypisać prawdziwość, lecz jak
głęboko nowy czynnik przemian zrewolucjonizuje (zdominuje lub całkowicie zniesie) historycznie rozwinięte determinanty. Z jednej strony
chodzi o to, że technologie informacyjne stopniowo ogarniają kluczowe
28
K. Maney pisał: „przy wykorzystaniu szerokopasmowego internetu, gier wideo i sieci społecznościowych, można stworzyć niedrogi, superdostępny internetowy model szkolnictwa wyższego. Na uniwersytecie nowego typu nie zaznamy widoków i zapachów kampusu, nie zetkniemy się twarzą w twarz z profesorem, nie zabawimy na piwnej imprezie uczelnianego bractwa, ale zdobędziemy potrzebną wiedzę i potwierdzający to stopień naukowy. […] Pewnie
ktoś kiedyś zrealizuje też pomysł [Scotta – dop A.K.] McNealy’ego i powstanie
internetowa uczelnia o globalnym zasięgu i otwartej formule”. K. Maney, Coś
za coś. Wszechobecny konflikt pomiędzy jakością a dostępnością. Dowiedz się,
co sprawia, że jedne produkty odnoszą sukces, a inne nie, przeł. M. Czech, Znak,
Kraków 2011, s. 190.
29
Por. zbiór definicji, opisujących fenomen społeczeństwa informacyjnego:
J. S. Nowak, Społeczeństwo informacyjne – geneza i definicje, http://www.silesia.org.pl/upload/Nowak_Jerzy_Spoleczenstwo_informacyjne-geneza_i_definicje.pdf. M. Castells, Siła tożsamości, przeł. S. Szymański, WN PWN, Warszawa 2009; M. Castells, Galaktyka Internetu. Refleksja nad internetem, biznesem i społeczeństwem, przeł. T. Hornowski, Dom Wydawniczy Rebis, Poznań
2003.
31
dla rozwoju cywilizacyjnego dziedziny życia (ten fakt nie wzbudza kontrowesji), z drugiej natomiast otwarty charakter ma dyskusja nad społecznym i kulturowym znaczeniem tego procesu30.
Teoretyczne i praktyczne upowszechnienie uniwersalnego czynnika
zmiany, jakim jest informacja, przyczyniło się nie tylko do rozwoju socjologicznych i ekonomicznych analiz społecznego obiegu informacji
oraz kategorii potrzeb informacyjnych, lecz również stało się jedną z
przesłanek do sformułowania informacjonizmu jako nowej narracji życia
społecznego, gospodarczego i politycznego (Manuel Castells). Kluczowe procesy rozwojowe zaczęto w niej traktować jako skutek dostępu
do informacji, ich obiegu, zarządzania, wykorzystania itp. Z filozoficznego punktu widzenia, informacja przybiera postać ważną ontycznie
i interpretacyjnie – wymaga odpowiedzi na pytanie, czym jest jako byt,
w jaki sposób istnieje, na czym polega determinacja, w której występuje?
W dalszej kolejności rozważenia wymaga jej status poznawczy oraz aksjologiczny, może bowiem być wartością, jak również określać inne wartości. Ujmowana z perspektywy kultury, może służyć reinterpretacji jej
wytworów i ich sposobów istnienia. Jakość informacji i dostęp do niej
staje się czynnikiem przeobrażeń. Kryterium dostępu w niedalekiej przyszłości – jak przed kilku laty wyrokował Bernard Poulet – zmieni strukturę samego Internetu: „Wydaje się, że już niedługo nastąpi dzień, kiedy
obok Internetu dostępnego dla wszystkich, powolnego, chaotycznego
i technologicznie ociężałego, pojawi się taki Internet, za który trzeba będzie zapłacić więcej, jeśli będziemy chcieli korzystać z usługi na przyzwoitym poziomie”. Wynikiem – jak sądzi Frédéric Filloux − stanie się
wieloklasowa sieć, zróżnicowana, z wartościową informacją, dostępną
za pośrednictwem płatnych aplikacji, oraz pozostałym, powszechnie dostępnym zbiorem danych o nikłej jakości31. Przypuszczalnie ten sam
czynnik różnicujący podzieli w dalszej kolejności wytwory kultury.
Natura obiegu i licznych strumieni informacji, nowe sposoby partycypacji, korzystania (dzielenia się, udostępniania) są typowymi posttechnologicznymi sposobami uczestniczenia w kulturze.
Podsumowanie
Technologiczna redefinicja kultury to proces, w jakim technologie
determinują kształt i formę zjawisk kulturowych oraz wpływają na ich
rozumienie. Nie chodzi przy tym o proste wypieranie lub zastępowanie
Por. np. M. Graszkiewicz, D. Lewiński, Co to jest społeczeństwo sieciowe
i dlaczego ono nie istnieje? „Nowe Media” 2010, nr 1, s. 13-21.
31
B. Poulet, Śmierć gazet i przyszłość informacji, przeł. O. Hedemann, Wyd.
Czarne, Wołowiec 2011, s. 270.
30
32
kultury przez technologię, ale o warunki rozwoju kultury, wśród których
czynniki technologiczne odgrywają podstawowe znaczenie. Wyznacznikiem tego procesu jest otwartość, interakcyjność i dynamiczność. Otwartość polega na ciągłym rozwoju i pojawianiu się nowych detereminant
oraz ograniczonej możliwości przewidzenia następstw. Z kolei interakcyjność polega na zwrotnej relacji sensotwórczej między wytworami
kultury a czynnikami technologicznymi. To rodzaj sprzężenia zwrotnego, tłumaczącego wzajemne oddziaływania. Trzeci wyróżnik – dynamiczność – uzmysławia brak prostolinearność przemian. W ogóle linearność należy uznać za ideę nieprzystającą do ich charakteru. O technologicznej kompresji przestrzeni jako jednym z aspektów dokonujących
się przeobrażeń Zygmunt Bauman pisał:
Oto sedno sprawy: zniwelowanie odległości czasowych i przestrzennych
dzięki technice nie tyle ujednoliciło ludzką kondycję, ile ją spolaryzowało.
Wyzwala ono bowiem niektóre jednostki z więzów terytorialnych i pewnym
czynnikom konstytuującym wspólnotę nadaje sens eksterytorialny; równocześnie jednak samo odarte ze znaczenia terytorium, w którego granicach
inni nadal pędzą życie, pozbawione zostaje potencjału określania ludzkiej
tożsamości. […] Kiedy „odległości nic już nie znaczą”, także miejsca, które
te odległości oddzielały, tracą znaczenie. Choć jednym wróży to swobodę
znaczeń, innym zapowiada zepchnięcie w „bezznaczeniowość” 32.
Analizowana tu technologiczna dewaluacja przestrzeni trafnie oddaje
szerszy kontekst przemian, jakim podlega kultura. Łączy je dynamika,
której podlegają przeobrażenia wartości. Dawny heraklitejski wariabilizm okazuje się hipotezą, która oddaje aksjologiczną stronę współczesnej kultury, a ściśle jej „upłynnienie”, zrelatywizowanie oraz redefiniowanie zjawisk, porzucenie ich dotychczasowych wykładni i sposobów
rozumienia. Paul Virillio tę dynamiczność wywołaną przemianami technologicznymi sprowadza do kluczowego czynnika wyznaczającego pozycję człowieka w świecie:
Jako FANTOMATYCZNA PRZESTRZEŃ, Ziemia nie rozciąga się już jak
okiem sięgnąć, ukazuje się pod wszelkimi swymi postaciami, z wszelkich
możliwych stron w zdumiewającej i niesamowitej luce. Nagłe zwielokrotnienie „punktów widzenia” stanowi zatem jedynie efekt zwiastujący ostatnie
stadium globalizacji: globalizację spojrzenia, gdzie pojedyncze oko CYKLOPA rządzi jaskinią, gdzie „czarnej skrzynce” coraz gorzej udaje się
32
Z. Bauman, Globalizacja. I co z tego dla ludzi wynika, przeł. E. Klekot, PIW,
Warszawa 2000, s. 25.
33
ukryć nadciągający zmierzch Historii, Historii, która padła ofiarą syndromu
całkowitego spełnienia33.
Ostatnia teza o zmierzchu historii nie może uchodzić za nową i nowatorską, jednak w odniesieniu do technologicznych form wirtualności
i wizualności, o jakich pisał wcześniej Virilio, historycznie pojmowana
przestrzeń jest ideą nieprzystającą do aktualnych form komunikacji, powszechnej i permanentnej wizualizacji oraz wirtualizacji, gdy obraz pojawia się i istnieje wyłącznie w cyberprzestrzeni.
33
P. Virilio, Bomba informacyjna, przeł. S. Królak, Sic!, Warszawa 2006,
s. 22.
Jarosław Strzelecki
Uniwersytet Warmińsko-Mazurski
w Olsztynie
MONADA = MONADA() – INTERPRETCJA
OBIEKTOWA
Tytuł tego artykułu może wydawać się niezrozumiały – szczególnie
jego pierwsza część „monada = Monada()”. Napis ten pochodzi z języka programowania Python. Wyrażając sens tego napisu w języku potocznym, powiemy, że jest tworzony obiekt klasy Monada o nazwie
monada. Pojawiają się zatem dwa ważne terminy „obiekt” i „klasa”.
Zwrot „monada = Monada()” niewątpliwie pełni funkcję performatywną: niech monada będzie obiektem klasy Monada. Te dwa terminy
pochodzą z programowania obiektowego (Object Oriented Programming – OOP). Stąd druga część tytułu: „interpretacja obiektowa”.
W artykule tym przedstawiona zostanie próba zastosowania pojęć
z programowania obiektowego do pewnych twierdzeń filozoficznych –
a dokładniej do koncepcji monady zawartej w Monadologii autorstwa
Gottfrieda Wilhelma Leibniza.
Artykuł ten można zaliczyć do tekstu z filozofii informacji1. Jest ona
filozofią ogólną, dla której punktem wyjścia jest informacja. Wówczas
można postawić cztery fundamentalne pytania: (1) Co to jest informacja?, (2) Jaka jest relacja między informacją a bytem? (informacyjna
teoria bytu), (3) Jaka jest relacja między informacją a poznawaniem?
(informacyjna teoria poznania)2, (4) Jaka jest relacja między informacją
a moralnością? (informacyjna teoria moralności)3.
Artykuł składa się z dwóch głównych części. W pierwszej przedstawiono pojęcie paradygmatu. Omówiono wybrane paradygmaty pro1
Por. J. Strzelecki, Co to jest filozofia informacji, [w:] J. Dębowski, E. Starzyńska–Kościuszko (red.), Nauka. Racjonalność. Realizm. Między filozofią
przyrody a filozofią nauki i socjologią wiedzy, Instytut Filozofii UWM, Olsztyn, 2013; L. Floridi, Philosophy of information, Oxford University Press,
Oxford, 2012.
2
Por. M. Hetmański, Epistemologia informacji, Copernicus Center Press,
Kraków, 2013.
3
Por. J. Strzelecki, Ku etyce informacyjnej, [w:] D. Sepczyńska, M. Jawor,
A. Stoiński (red.), Etyka o współczesności. Współczesność w etyce, Wydawnictwo UWM, Olsztyn, 2016, s. 83–96; L. Floridi, The Ethics of Information,
Oxford University Press, Oxford, 2013.
36
gramowania ze szczególnym uwzględnieniem obiektowego paradygmatu programowania. W drugiej części – nazwanej filozofią obiektową –
zastosowano aparaturę pojęciową z OOP do reinterpretacji koncepcji
monady zawartej w monadologii Leibniza.
1. Paradygmat
Etymologicznie słowo paradygmat pochodzi od greckiego parádeigma lub łacińskiego paradigma, co znaczyło wzór, model, przykład.
Słownik PWN podaje dwa znaczenia słowa paradygmat: (i) przyjęty
sposób widzenia rzeczywistości w danej dziedzinie, doktrynie itp. oraz
(ii) zespół form fleksyjnych danego wyrazu lub końcówek właściwych4. Z tych dwu znaczeń najbliższe pojęciu paradygmatu programowania jest pierwsze - to przyjęty sposób widzenia rzeczywistości programowalnej.
Historycznie słowo „paradygmat” zostało po raz pierwszy użyte w
XVIII przez Georga Christopha Lichtenberga na określenie fundamentalnych wzorców wyjaśniania w naukach przyrodniczych5. W XX wieku pojęcie to zostało spopularyzowane przez Thomasa Samuela Kuhna.
Paradygmat rozumiał on jako wzorcowy przykład pracy badawczej. Ów
wzorzec miał składać się z założeń pojęciowych, metodologicznych,
metafizycznych oraz miał być uznawany przez wspólnotę naukowców
za obowiązujący. Z czasem Kuhn rozwinął swoją koncepcję paradygmatu, czego wyrazem była zmiana nazwy „paradygmat” na „matryca
dyscyplinarna”. Ów paradygmat jest matrycą, ponieważ tworzy zbiór
uporządkowanych składników. Matryca nazywa się dyscyplinarną, bo
stanowi wspólną własność wszystkich, którzy uprawiają daną dziedzinę
wiedzy. Matryca dyscyplinarna określa strukturę i typ problemów wartych rozwiązania. Jednocześnie określa język, w jakim zagadnienia są
formułowane, sposób rozwiązywania problemów oraz kryteria oceny
formułowanych rozwiązań. Można zatem powiedzieć, że matryca dyscyplinarna z góry określa przedmiot badań, metody badań, cel badań,
a co za tym idzie dostarcza ram epistemologicznych, metafizycznych
i aksjologicznych dla prowadzonych badań.
http://sjp.pwn.pl/sjp/paradygmat;2570598.html [dostęp 13.02.2017]
Za Powszechna Encyklopedia Filozofii, redaktor naczelny A. Maryniarczyk,
Polskie Towarzystwo Tomasz z Akwinu, Lublin, 2007, s. 17–19.
4
5
37
Paradygmaty programowania6
Paradygmat w świecie informatycznym jest utrwalonym sposobem
myślenia, w którym przyjmuje się pewne założenia nie podlegające
krytycznej refleksji; i tak na przykład w systemach UNIX uznano, że
dobrze zbudowany program powinien składać się z niewielkich modułów, które użytkownicy mogą łączyć w działające aplikacji7.
Paradygmat programowania również jest pewnym sposobem myślenia, w którym przyjmuje się pewne założenia. To, o czym się myśli,
jest programem komputerowym (rozumianym zarówno jako wytwór,
czyli konkretny kod, jak i czynność, czyli sposób pisania kodu). Pewien
wzorzec myślenia o programie komputerowym staje się paradygmatem
(podobnie jak w przypadku innych nauk), gdy jest cenionym przez
znaczącą grupę informatyków8.
Można wyróżnić przynajmniej trzy podstawowe paradygmaty programowania: imperatywny, deklaratywny, obiektowy. W paradygmacie
imperatywnym program postrzegany jest jako ciąg poleceń komputera.
Poszczególne polecenia zmieniają stan programu. Tworzenie programu
polega na zdefiniowaniu poszczególnych kroków, jakie musi przejść
program, aby zrealizować postawiony mu cel. Definiuje się sposób
działania. Najwcześniejszymi językami imperatywnymi były kody maszynowe pierwszych komputerów. Jednak pisanie w kodzie maszynowym złożonych programów było bardzo nieefektywne. W latach 19541957 napisano pierwszy kompilator. „Tłumaczył” on polecenia w języku FORTRAN na kod maszynowy.
W paradygmacie deklaratywnym – jak sama nazwa wskazuje
a w przeciwieństwie do imperatywnego – program jest ciągiem opisów,
swoistej deklaracji tego, co wie programista. Powstaje zbiór faktów
i zależności, a użytkownik zadaje pytania systemowi i otrzymuje odpowiedzi9. Program nie jest ciągiem instrukcji definiujących sposób
działania, ale jest opisem tego, co jest wiadome. W oparciu o taką wiedzę i zdefiniowane reguły program przeprowadza wnioskowania.
Informacje na temat rodzajów paradygmatów programowania znajdzie czytelnik w książce R. W. Sebesta Concept of Programming Languages, dostępnej na stronie: http://smbidoki.ir/courses/66_Concepts%20of%20Progra–
mming%20Languages%2010th–Sebesta.PDF [dostęp 05.05.2017]; w wersji
elektronicznej dostępny jest kurs z paradygmatów programowania na
http://wazniak.mimuw.edu.pl/index.php?title=Paradygmaty_programowania
7
Za B. Pfaffenberg, Słownik terminów komputerowych, Prószyński i Spółka,
Warszawa, 1999, s. 213.
8
Por. Z. Płoski, Słownik encyklopedyczny, EUROPA, Wrocław, 1999, s. 272.
9
Por. B. Pfaffenberg, op. cit., s. 117–118.
6
38
Paradygmat obiektowy wyznacza jeszcze inny sposób rozumienia
tego, czym jest program komputerowy. Programista tworzący w tym
paradygmacie przyjmuje a priori założenie, że program to zbiór obiektów wymieniających ze sobą komunikaty. Obiekt niejako składa się
z atrybutów określających, jakie cechy posiada, jakimi danymi dysponuje oraz z operacji, które definiują zachowanie obiektu, jego działanie
na danych. Sokrates to realny człowiek. Można utworzyć abstrakcyjny
obiekt, który będzie miał z góry określone własności (np. wiek, wzrost,
waga, zainteresowania, stan zdrowia ...) i zachowania (śpi, je, rozmyśla,
pije, …) - jest on informatycznym reprezentantem realnego Sokratesa;
informatycznym, bo utworzonym zgodnie z paradygmatem obiektowym, reprezentantem, ponieważ tylko część informacji konstytuujących realnego Sokratesa zostało przeniesionych do rzeczywistości wirtualnej. Uogólniając przypadek wirtualnego Sokratesa, można stworzyć
klasę, czyli swoisty wzorzec, zgodnie z którym będą tworzone inne
obiekty tej samej klasy. Przyjmując założenie, że każdy człowiek musi
posiadać takie własności jak: nazwa, wzrost, waga, inteligencja oraz
takie zachowania jak: oddychanie, wydalanie, jedzenie, spanie, tworzymy klasę, czyli określony typ danych. Korzystając z tak zdefiniowanej klasy Człowiek, można wytwarzać dowolną ilość obiektów tej klasy. Tak utworzone obiekty wchodzą ze sobą w różne interakcje, co
w efekcie daje działający program.
Fundamentem programowania obiektowego są klasy i obiekty. Jednak ideami, które również wyznaczają specyfikę tego paradygmatu, są:
dziedziczenie, polimorfizm, hermetyzacja/enkapsulacja oraz agregacja10. Dziedziczenie jest specyficzną relacją między klasami. Klasa
podrzędna dziedziczy wszystkie atrybuty i operacje po klasie nadrzędnej. Lecz oprócz elementów odziedziczony może posiadać specyficzne
dla siebie atrybuty i metody. Korzystając z klasycznych pojęć z filozofii Arystotelesa, można powiedzieć, że klasa Zwierzę dziedziczy po
klasie Roślina. Natomiast klasa Człowiek dziedziczy po klasie Zwierzę.
Człowiek ma wszystkie atrybuty i operacje roślin i zwierząt. Jednak
atrybut rozumności i operacje z nim związane są charakterystyczne
wyłącznie dla obiektów klasy Człowiek. Dziedziczeniu odpowiada relacja typu „jest” (np. człowiek jest zwierzęciem).
Obiekty wysyłają między sobą komunikaty. Klasy dziedziczą po sobie operacje. Jednak sposób reakcji obiektów z różnych – choć powiązanych dziedziczeniem – klas, powinien być specyficzny dla danej
Za M. Weisfeld, Myślenie obiektowe w programowaniu, tłum. Ł. Piwko,
Helion, Gliwice, 2014, rozdz. 1.
10
39
klasy. Wysłanie komunikatu rysuj do obiektu klasy Kwadrat powinno
skutkować wyrysowaniem na ekranie monitora przedmiotu o kształcie
kwadrat. Z kolei wysłanie takiego samego komunikatu do obiektu klasy
Trójkąt, powinno skutkować narysowaniem trójkąta, a nie kwadratu.
Jedna operacja rysuj, a różne reakcje obiektów – to właśnie istota mechanizmu zwanego polimorfizmem. Przeniesienie pojęcia polimorfizmu na grunt filozofii być może mogłoby rozwinąć teorię orzekania
analogicznego, którego formalizacja stricte logiczna nie przyniosła
oczekiwanych rezultatów11. Jeżeli uzna się, że poznawanie świata jest
pewną operacją obiektu, to orzeczenie o jakimś zwierzęciu, że poznaje
świat oraz o człowieku, że poznaje świat – przy założeniu relacji dziedziczenia między klasami Zwierzę i Człowiek – będzie przykładem
orzekania analogicznego, które można byłoby uznać za pewien rodzaj
polimorfizmu: człowiek i zwierzę poznają świat, ale każde z nich robi
to nieco inaczej.
Hermetyzacja (enkapsulacja) to założenie, że obiekt danej klasy
powinien komunikować się ze swoim otoczeniem wyłącznie przez
interfejsy. Pilot do telewizora jest „zahermetyzowany”. Użytkownik ma
dostęp tylko do interfejsu (zestaw przycisków umieszczonych na zewnętrznej stronie obudowy urządzenia). Użytkownik nie wie i nie musi
wiedzieć, jak działa sam pilot. Musi znać obsługę interfejsu, poprzez
który komunikuje się z pilotem. Przy prawidłowo przeprowadzonej
hermetyzacji użytkownik nie powinien mieć możliwości ingerencji
w wewnętrzną pracę pilota. Obiekty w programie powinny komunikować się ze sobą wyłącznie poprzez interfejsy.
Ostatnią ideą wyznaczającą paradygmat obiektowy jest agregacja.
Rzecz w tym, iż pewne obiekty mogą być integralnymi elementami
innych obiektów. Jeden obiekt może składać się z innych obiektów; na
przykład samochód składa się z karoserii, silnika, kół, siedzeń, kierownicy, szyb itp. Każdy z wymienionych elementów sam jest obiektem
pewnej klasy, zatem obiekt klasy Samochód składa się z innych obiektów. Agregacje jest relacją typu „ma” - np. samochód ma silnik.
11
Por. J. Strzelecki, Semantyczna czy formalna teoria analogii J. M. Bocheńskiego?, [w:] Filoso–fija [dostęp 01.06.2017, http://www.filo–sofija.pl/index.php/czasopismo/article/download/561/547].
40
2. Filozofia obiektowa (Object Oriented Philosophy – OOPh)
Jak już zostało to napisane we wstępie, artykuł ten jest próbą aplikacji aparatury pojęciowej programowania obiektowego do interpretacji
koncepcji monady zawartej w monadologii Leibniza12. Poniższa tabela
zwiera zestawienie charakterystyki monady i obiektu z OOP.
monada
obiekt
1. Jest substancją prostą, czyli bez 1. Obiekty mogą być proste albo
części13.
złożone.
2. Jest elementem agregatu14.
2. Może być elementem agregatu
albo sam jest agregatem.
3. Jest nierozciągła15.
3. Jest przedmiotem logicznym,
więc jako taki nie ma rozciągłości
4. Powstaje lub ginie za jednym
zamachem16.
4. Jest „stwarzany” przez specjalną
metodę zwaną konstruktorem
(niszczony przez metodę destruktor).
5. Nie ma okien – ani inne substancje ani jakieś właściwość nie
5. Mechanizm enkapsulacji/hermetyzacji.
Wszystkie odniesienia do monadologii Leibniza – La monadologie, 2001,
http://www.uqac.uquebec.ca/zone30/Classiques_des_sciences_sociales/index.h
tml, [dostęp 23.02.2017]. Jeżeli występuje odwołanie do tekstu francuskojęzycznego, to jest ono wskazaniem – poprzez liczbę na początku tekstu – na
odpowiedni fragment monadologii Leibniza.
13
„1. La Monade, dont nous parlerons ici, n’est autre chose qu’une substance
simple, qui entre dans les composés; simple, c’est–à–dire sans parties”.
14
„2. Et il faut qu’il y ait des substances simples, puisqu’il y a des composés;
car le composé n’est autre chose qu’un amas ou aggregatum des simples.”
15 „3. Or là, où il n’y a point de parties, il n’y a ni étendue, ni figure, ni divisibilité possible. Et ces Monades sont les véritables Atomes de la Nature et en un
mot les Éléments des choses”.
16
„6. Ainsi on peut dire, que les Monades ne sauraient commencer, ni finir,
que tout d’un coup, c’est–à–dire, elles ne sauraient commencer que par création et finir que par annihilation; au lieu, que ce qui est composé, commence
ou finit par parties”.
12
41
mogą z zewnątrz dostać się do
monady17.
6. Jest jestestwem, więc ma jakieś 6. Ma atrybuty i operacje/metody.
właściwości18.
7. Jest różna od innej monady19.
7. Jest różny od innego obiektu.
8. Jest zmienna20.
8. Może ulegać zmianie.
9. Zasada jej zmiany jest we9. Zmiana stanu obiekty może
21
22
wnętrzna - to apetycja : przejwynikać z działania samego obiekście od jednej percepcji do drugiej. tu lub być skutkiem komunikatu
innego obiektu.
10. Jej percepcje i zmiany nie są
mechaniczne23.
10. Jego zmienność może być
quasi-mechaniczna.
11. Jest źródłem własnych czynno- 11. Jest bezcielesnym automatem.
ści (bezcielesny automat)24.
„7. … Les Monades n’ont point de fenêtres, par lesquelles quelque chose y
puisse entrer ou sortir … Ainsi ni substance, ni accident peut entrer de dehors
dans une Monade.”
18
„8. Cependant il faut que les Monades aient quelques qualités, autrement ce
ne seraient pas même des êtres”.
19
„9. Il faut même, que chaque Monade soit différente de chaque autre. Car il
n’y a jamais dans la nature deux Êtres, qui soient parfaitement l’un comme
l’autre et où il ne soit possible de trouver une différence interne, ou fondée sur
une dénomination intrinsèque”.
20
„10. Je prends aussi pour accordé que tout être créé est sujet au changement,
et par conséquent la Monade créée aussi, et même que ce changement est continuel dans chacune”.
21
„11. Il s’ensuit de ce que nous venons de dire, que les changements naturels
des Monades viennent d’un principe interne, puisqu’une cause externe ne
saurait influer dans son intérieur”.
22
„15. L’action du principe interne qui fait le changement ou le passage d’une
perception à une autre, peut être appelé Appétition : il est vrai que l’appétit ne
saurait toujours parvenir entièrement à toute la perception, où il tend, mais il
en obtient toujours quelque chose, et parvient à des perceptions nouvelles”.
23
„17. On est obligé d’ailleurs de confesser que la Perception et ce qui en
dépend, est inexplicable par des raisons mécaniques, c’est–à–dire par les figures et par les mouvements”.
24
„18. On pourrait donner le nom d’Entéléchies à toutes les substances simples, ou Monades créées, car elles ont en elles une certaine perfection
17
42
12. Bóg monada stwarza monady25 12. Obiekty tworzone przez metodę-Konstruktora
Szybki przegląd powyższej tabeli uzmysławia, że aparatura pojęciowa programowania obiektowego jest ogólniejsza, a co za tym idzie –
oczywiście przy pewnych uproszczeniach – koncepcję monady można
uznać za szczegółowy przypadek obiektu z OOP. Monada jest prosta,
obiekt jest prosty albo złożony. Monada ma własności. Obiekt ma własności lub/i metody. Monada musi być zmienna, bo każde stworzenie
jest zmienne. Obiekt może, ale nie musi ulegać zmianie. Ponieważ monada należy do filozoficznego porządku myślenia, można ją nazwać
szczegółowym przypadkiem obiektu z OOPh (Object Oriented Philosophy).
UML w filozofii – wprowadzenie
Nazwa „UML” jest skrótem od angielskiego wyrażenia „Unified
Modeling Language”. UML jest graficznym językiem służącym specyfikacji, konstrukcji i dokumentacji artefaktów systemowych 26. Ma zastosowanie w modelowania różnorodnych systemów, choć głównie jest
wykorzystywany w tworzeniu graficznych modeli systemów informatycznych i biznesowych27. Przy użyciu odpowiednich narzędzi CASE
(Computer-Aided Software Engineering) diagramy UML mogą być
przekształcone w kody, które służą jako podstawa przyszłego systemu
informatycznego28.
Istnieje kilka ważnych argumentów przemawiających na rzecz stosowania języka UML29. Po pierwsze, jest on językiem, czyli systemem
znaków i reguł posługiwania się znakami. Komunikacja między ludźmi
(échousito entelés), il y a une suffisance (autarkeia) qui les rend sources de
leurs actions internes et pour ainsi dire des Automates incorporels”.
25
„47. Ainsi Dieu seul est l’unité primitive, ou la substance simple originaire,
dont toutes les Monades créées ou dérivatives sont des productions et naissent,
pour ainsi dire, par des Fulgurations continuelles de la Divinité de moment en
moment, bornées par la réceptivité de la créature, à laquelle il est essentiel
d’être limitée (§ 382–391, 398, 395)”.
26
Za C. Larman, UML i wzorce projektowe, tłum. J. Walkowska, HELION,
Gliwice, 2011, s. 37.
27
Por. P. Graessle, H. Baumann, Ph. Baumann, UML 2.0 w akcji, tłum.
M. Pętlicki, HELION, Gliwice, 2006, s. 13
28
Por. R. Miles, K. Hamilton, UML 2.0.Wprowadzenie, tłum. R. Szpoton,
HELION, Gliwice, 2007, s. 11.
29
Za P. Graessle, H. Baumann, Ph. Baumann, UML 2.0 w akcji, s. 13–14.
43
posługującymi tym językiem jest znacznie uproszczona, a ewentualne
nieporozumienia, będące nieodłączną częścią języka naturalnego, zostają ograniczone do minimum. Po drugie, UML jest językiem, mimo
ściśle określonych reguł, elastycznym, który dość łatwo można dostosować do własnych potrzeb modelowanej rzeczywistości. Po trzecie,
język ten powstał jako wynik prac nad praktycznymi problemami związanymi z projektowaniem systemów informatycznych, co gwarantuje
jego znaczną użyteczność30. Po czwarte, jest wspierany przez wiele
narzędzi informatycznych typu CASE. Po piąte, w przypadku powstania
różnych projektów UML dla tego samego systemu informatycznego,
można łatwo porównać ze sobą te projekty.
Przenosząc wymienione argumenty na grunt filozoficzny, można
sformułować pięć analogicznych hipotez. Po pierwsze, użycie języka
UML do modelowania pewnych zagadnień filozoficznych – a jest to
język quasi-formalny – wymusi doprecyzowanie danych tez filozoficznych i być może ułatwi dyskusję między różnymi filozoficznymi szkołami. Po drugie, dostosowanie języka graficznego modelowania do
specyfiki filozoficznej dziedziny problemowej nie powinno nastręczać
większych trudności ze względu na to, że ów język jest wystarczająco
elastyczny. Po trzecie, być może jego informatycznie praktyczna geneza będzie również miała swoje pozytywne odzwierciedlenie w modelowaniu systemów ujętych z filozoficznej perspektywy. Po czwarte,
będzie może rozpocząć filozofowanie wspierane przez narzędzia CASE
(Computer-Aided Software Engineering, komputerowe wspomaganie
projektowania oprogramowania; w przypadku zastosowania tych narzędzi do filozofii nazywałby się Computer-Aided Philosophical Engineering – CAPhE, czyli komputerowe wspomaganie filozoficznego
projektowania). Po piąte, różne filozoficzne modele UML odnoszone
do tego samego przedmiotu być może pozwolą lepiej zrozumieć ów
przedmiot.
UML jest językiem modelowania. Wytworem modelowania jest
model, który stanowi uproszczony fragment modelowanej rzeczywistości. Dzięki modelom można dobrze zobrazować modelowany system
(przeszły, aktualny, przyszły), a przez to lepiej go zrozumieć31.
30
Na temat historii powstawania UML oraz metateorii UML patrz J. Schmuller, UML dla każdego, tłum. K. Masłowski, HELION, Gliwice, 2003, rozdz. 1,
rozdz.14.
31
Por. P. Graessle, H. Baumann, Ph. Baumann, UML 2.0 w akcji, s. 20–21.
44
Model w nauce jest konstruowany po to, aby uprościć problem
zwiększając szanse rozwiązania go32. Model jest nominalny/teoretyczny, gdy stanowi go zbiór założeń upraszczających (np.
założenie, że moneta do rzutu jest idealna). Gdy rozpatrywane są
przedmioty spełniające takie założenie, wówczas przez model rozumie
się model realny, zwany interpretacją modelu nominalnego. Przy czym
model realny może być trojakiego rodzaju. Gdy konstruowany jest
fizyczny układ przedmiotów spełniających założenia (np. makieta planowanego osiedla domów jednorodzinnych), model nazywany jest
fizycznym. Gdy ów układ przedmiotów pozostaje wyłącznie przedmiotem pomyślanym, model nazywany jest modelem myślowym. Gdy
skonstruowanymi przedmiotami są przedmioty matematyczne takie jak
liczby, twory geometryczne, struktury algebraiczne itp., model nazywany jest modelem matematycznym.
Próba przyporządkowania modelu UML do jednego z wymienionych pojęć napotyka trudności. Niewątpliwie tworząc model UML,
należy przyjąć pewne założenia upraszczające sytuację problemową.
Mielibyśmy do czynienia z modelem teoretycznym. Jednak to, co jest
istotne w UML, to nie założenia upraszające, ale powstały diagram lub
diagramy. Można by przypuszczać, że model UML należy do modeli
fizycznych (tak jak jest to w przypadku map, makiet itp.). Jednak modele UML powstają w rzeczywistości wirtualnej, a nie realnej. Nie tyko
pozwalają na modelowanie struktury systemu, ale również – przy użyciu odpowiednich diagramów – modelują dynamikę systemu. Nie są
one również modelami myślnymi, bo pozostają ograniczone przez możliwości wirtualizacji. Choć liczby, twory geometryczne i inne obiekty
matematyczne mogą stanowić integralne części modeli UML, to jednak
modele UML nie redukują się do modeli matematycznych. Dlatego –
jak można przypuszczać – należałoby mówić (w przypadku modeli
UML) o modelach wirtualnych; rozumianych jako czwarta kategoria –
obok modeli fizycznych, myślowych i matematycznych. Model wirtualny nie jest fizycznym, ponieważ nie można zbudować makiety systemu komputerowego. Nie jest myślowy, bo jego granice są wyznaczone
przez możliwości wirtualizacji. Nie jest matematycznym modelem,
dlatego że konstruowany jest z innych przedmiotów, niż obiekty matematyczne.
Modele systemu w inżynierii oprogramowania mają spełniać trzy
podstawowe funkcje33. Mają umożliwić wystarczająco jednoznaczną
32
Za Mała encyklopedia logiki, red. W. Marciszewski, Zakład Narodowy
Imienia Ossolińskich, Wrocław, 1970, s.176–177.
33
Za P. Graessle, H. Baumann, Ph. Baumann, UML 2.0 w akcji, s. 21–22.
45
komunikację między osobami biorącymi udział w tworzeniu systemu
informatycznego (klienci, projektanci, programiści, użytkownicy, decydenci). Po drugie, wizualizują procedury występujące w systemie
z punktu widzenia klientów, ekspertów oraz użytkowników. Po trzecie,
modele UML umożliwiają weryfikację faktów pod kątem kompletności, spójności i poprawności. Modelowanie całego systemu przy użyciu
różnych modeli, a każdy pojedynczy model może być zbudowany z
wielu różnych diagramów, pozwala uchwycić pierwotnie niedostrzegane zależności między różnymi częściami systemu.
Wyróżnia się trzy sposoby używania języka UML34. Szkicowy, gdy
używa się kategorii języka UML jedynie do zarysowania głównych
obszarów systemu. Takie szkice najczęściej są jednorazowego użytku.
UML może służyć jako język planu projektu. Wówczas tworzy się
szczegółową specyfikację systemu za pomocą odpowiednich diagramów. Takie diagramy tworzy się przy pomocy odpowiednich narzędzi
UML, i raz stworzone, wykorzystuje się wielokrotnie. W końcu UML
również może zostać użyty jako język programowania. Korzystając
z odpowiednich narzędzi diagramy UML, są tłumaczone na odpowiednie kody wykonywalne.
Przenosząc te trzy sposoby użycia UML na grunt filozoficzny, łatwo
zauważyć, że sposób szkicowy umożliwia wstępną analizę przedmiotu
filozoficznego. Drugi pozwala konstruować rozległy model systemu.
Trzeci zaś pozwoliłby na tworzenie programów komputerowych, które
być może symulowałby jakieś aspekty systemu filozoficznego, co
w konsekwencji prowadziłoby do weryfikacji lub falsyfikacji danej
teorii filozoficznej. Mogłyby również symulować rozumowania zawarte w twierdzeniach filozoficznych, co – być może – prowadziłoby do
rozległych analiz logicznych różnych tez z dziedziny filozofii. Choć
w tym ostatnim przypadku, wydaje się, że lepiej nadawałyby się do
tego typu wyzwań języki deklaratywne takie jak na przykład Prolog35
niż języki programowania obiektowego.
Monada w UML
Punktem wyjścia w modelowaniu systemów informatycznych jest
stworzenie diagramu przypadków użycia. Jak sama nazwa wskazuje,
ów diagram obrazuje możliwe interakcje użytkownika z systemem.
Klasycznym przypadkiem użycia jest logowanie do systemu, czy rejestrowanie nowego użytkownika.
34
Za R. Miles, K. Hamilton, UML 2.0.Wprowadzenie, s. 21–22.
Na temat Prologu http://www.swi–prolog.org oraz W. F. Clocksin, Prolog:
programowanie, tłum. T. Żmijewski, Helion, Gliwice, 2003.
35
46
Przeniesienie konceptu diagramu przypadków użycia na grunt monadologii prowadzi do pytania o sposób interakcji z monadą. Punkt
piąty z wyżej przedstawionej tabeli porównawczej monady i obiektu
mógłby prowadzić do wniosku, że, skoro monady nie mają okien, nie
można wejść w żadne interakcje z monadą. Jednak, gdyby tę tezę zinterpretować absolutystycznie, wówczas nie powstałaby filozoficzna
teoria monad, ponieważ nic o ich istnieniu nie byłoby wiadomo. Należy
więc przyjąć, że istnieje jeden przypadek użycia i jest nim tylko poznawczo-bierne udostępnianie się monady naszym aktom poznawczym.
W języku UML opisana sytuacja przedstawia się następująco36:
1. Filozoficzny przypadek użycia (opracowanie własne).
Pójdźmy dalej. Klasa jest typem danych, swoistym wzorcem, zgodnie z którym tworzone są obiekty. Zgodnie z koncepcją Leibniza, każda
monada ma percepcję (odpowiedzialną za poznawanie) oraz apetycję
(wewnętrzne źródło zmienności w monadzie). Ta podstawowa struktura
monady wyrażona w języku UML przedstawia się następująco:
2. Diagram klasy Monada (opracowanie własne).
Wszystkie diagramy zostały zrobione przy użyciu strony internetowej
yuml.me.
36
47
Klasę w języku UML modeluje się przy użyciu tabeli. W pierwszym
od góry polu znajduje się nazwa klasy (czyli Monada). W drugiej
umieszcza się atrybuty. Napis „- percepcja: Poznawanie” znaczy tyle co
„atrybut o nazwie percepcja jest typu Poznawanie, a jego modyfikatorem dostępu „-„ jest private”. Modyfikator dostępu jest jednym z elementów mechanizmu hermetyzacji. Określa dostępność składowej
(atrybutów lub operacji) dla obiektów spoza danej klasy. Zgodnie monadologią Leibniza, monady nie mają okien, co znaczy, że żadna monada nie ma wpływu na percepcje pozostałych monad. W języku UML
tego typu wymagania są modelowane przez ustawienie odpowiedniego
modyfikatora. Modyfikator private („-”) informuje o tym, że tylko
obiekt danej klasy może modyfikować swój własny atrybut (w analizowanym przypadku tym atrybutem jest „percepcja”). Znak „-” również występuje przy nazwie operacji „apetycja”. Oznacza to, że żaden
inny obiekt nie może wywołać operacji „apetycja”. Dzięki temu mamy
pełną hermetyzację monady. Operację „apetycja” zinterpretowano jako
funkcję informatyczną. Pobiera ona pewne argumenty. Informacje
o tym, jakie to są argumenty i ile ich jest umieszcza się nawiasie (na
powyższym diagramie w nawiasie umieszczono napis „percepcja_n”,
więc apetycja pobiera jeden argument typu percepcja). Operacja wykonuje pewne działania na argumencie, a przez instrukcję „return” zwraca
określoną wartość (na diagramie po nazwie „return” znajduje się napis
„percepcja_n+1”, czyli że apetycja zwraca kolejną percepcję37). Stworzenie jakiejkolwiek monady wyposaży ją w atrybut percepcja oraz
operację odpowiedzialną za zmianę percepcji38.
Percepcja została zinterpretowana jako obiekt typu „Poznawanie”,
więc należałoby napisać klasę, dzięki której tego typu obiekty mogłyby
Do funkcji można przekazać argument przez wartość bądź przez referencję.
W pierwszym przypadku funkcja otrzymuje kopię argumentu i może przeprowadzać różne działania wyłącznie na tej kopii. W drugim, funkcja może zmieniać oryginalną wartość argumentu. Zastosowanie tego aparatu pojęciowego
do monady i jej percepcji otwiera całkiem nowy sposób rozumienia Leibnizjańskiej monad. Jednak w tym krótkim artykule nie sposób przedstawić
wszystkich nowych teoretycznych możliwości wyłaniających się z aplikacji
pojęć z OOP do danej filozofii.
38
Opis sposóbu, w jaki apetycja przekształca jedną percepcję na drugą, powinien znaleźć się w ciele metody implementującej operację apetycja. Lecz na
przyjętym poziomie abstrakcji nie jest to konieczne. Choć taka filozoficzna
implementacja, czyli w miarę szczegółowe opisanie językiem filozoficznym
sposobu działania apetycji zaimplementowanej jako ciało metody, byłaby
kolejnym przykładem – wymuszanego przez aparat pojęciowy OOP – rozwinięcia danej koncepcji filozoficznej.
37
48
powstawać. Percepcja jako swój atrybut powinna przyjmować przedstawienie rzeczy. Obiekt typu Monada powinien mieć możliwość odczytywania przedstawień rzeczy, ale – zgodnie z determinizmem monadologii – nie powinien mieć wpływu na samo przedstawienie. Do
obiektowego modelowania tej tezy najlepiej nadaje się koncept właściwość (property, propercja). Jest to metoda, poprzez którą inne obiekty
mogą mieć kontrolowany dostęp do atrybutu prywatnego. Skoro obiekty monadologii powinny być w pełni – o ile jest to możliwe – hermetyzowane, to niezbędna jest właściwość umożliwiająca korzystanie
z pewnych atrybutów innych obiektów. To, co zostało powiedziane,
można przestawić w postać klasy39.
3. Diagram klasy Poznawanie (opracowanie własne).
Właściwością udostępniającą przedstawienia monadzie jest propercja nazwana „get_Przedstawienie()” (czyli udostępnij treść przedstawienia). Została ona określona jako operacja publiczna (znak „+” przed
nazwą). Każda monada ma przedstawienia. Jednak żadna monada nie
ma wpływu na przeżywane przez z nią przedstawienia. Za zmianę samego przedstawienia odpowiada metoda „set_Przedstawienie” (czyli
ustaw wartość atrybuty przedstawienie)40.
Powstaje kwestia relacji między klasą Monada a klasą Poznawanie.
W OOP zdefiniowano relację agregacji. Dwie klasy pozostają do siebie
w tej relacji o tyle, o ile elementami obiektów z jednej z tych klas są
W przedstawionej interpretacji uznano, że atrybut przedstawienie jest typem
prostym, a nie obiektem i jako taki nie wymaga oddzielnej klasy. Chociaż
problem rodzajów typów przedmiotów, jakie są konieczne dla danej teorii
bytu, jest kolejnym przykładem teoretycznej efektywności zastosowania pojęć
z OOP do zagadnień filozoficznych.
40
Nie ma ona żadnego modyfikatora dostępu, ponieważ – jak się wydaje –
jedynie Bóg ma moc zmiany przedstawień. Jednak koncepcja Boga w ogóle
nie została poruszona w tym artykule.
39
49
obiekty z drugiej klasy. Samochód jest obiektem, który składa się
z innych obiektów (np. silnik, koła, karoseria, ...). Wieżowiec również
jest obiektem, który jako swoje części składowe ma inne obiekty (np.
okna, schody, windy, …). Poniższy diagram przedstawia możliwą relację między klasą Monada a klasą Percepcja.
4. Relacja agregacji między klasą Monada a klasą Poznawanie (opracowanie własne).
Elementami składowymi monady są percepcje. Jednak percepcja
bez monady nie może istnieć. Zniszczenie danej monady musi prowadzić do zniszczenia danej percepcji. Taką silną zależność w języku
UML nazywa się kompozycją lub agregacją silną. Symbolicznie relacja
ta na powyższym rysunku zaznaczona jest wypełnionym rombem
umieszczonym na jednym z końców linii łączącej dwie klasy. Na linii
tej również występują pewne liczby. Są one nazywane krotnościami.
Informują one o typie relacji ze względu na dopuszczalną liczbę obiektów uczestniczących w danej relacji. Liczby, które zostały umieszczone
na linii pokazują, że jedna monada może mieć wiele percepcji. Natomiast dana percepcja może przynależeć wyłącznie do jednej monady
(jest to stosunek jeden do wielu).
Monady jako ontologiczne atomy muszą istnieć, bo, gdyby nie istniały, to przedmioty złożone również nie mogłyby istnieć. Monady
łączą się tworząc przedmioty złożone. Rzecz złożona to ciało41. Połączenie ciała z monadą tworzy istotę żyjącą42. Bycie monadą ciała oznacza bycie monadą dominującą w gromadzie monad tworzących ciało.
Każde ciało ex definitione jest podzielne, czyli tworzone jest z podgromad, które z kolei są podzielne, czyli składają się z podgromad pod„61. Et les composés symbolisent en cela avec les simples … tout corps se
ressent de tout ce qui se fait dans l’univers …”.
42
„63. Le corps appartenant à une Monade, qui en est l’Entéléchie ou l’Âme,
constitue avec l’entéléchie ce qu’on peut appeler un vivant...”.
41
50
gromad, a i te można podzielić na … i tak w nieskończoność. Co ciekawe, Leibnizjańskia definicja istoty żyjącej na gruncie pojęć z programowania jest przykładem funkcji rekurencyjnej bez wyraźnie zdefiniowanego warunku granicznego. Funkcją rekurencyjną jest funkcja
wywołująca samą siebie. Aby tak funkcja zakończyła działanie, musi
być zdefiniowany warunek graniczny. Bez takiego warunku – zwanego
też warunkiem stopu – funkcja będzie w nieskończoność wywoływała
samą siebie. Istota żyjąca jest ciałem wraz z monadą dominującą. Aby
wiedzieć czym jest to ciało, należy najpierw dowiedzieć się, jakie monady dominują w ciałach będących podgrupami ciała wyjściowego.
Jednak, aby wiedzieć, czym są te „pod-ciała”, najpierw należy rozstrzygnąć, z czego składają się „pod-ciała” tych „pod-ciała” … i tak
w nieskończoność. Przy takim rekurencyjnym rozumieniu ciała, funkcja tworząca ciało nigdy nie zakończy działania. Choć taki wniosek o
braku warunku granicznego Leibniz – prawdopodobnie – uznałby nie
za błąd, ale za kolejny argument na rzecz ograniczoności ludzkich
zdolności poznawczych, z jednoczesną koniecznością uznania istnienia
Absolutu, który potrafiłby działać na funkcjach rekurencyjnych bez
warunku granicznego określonego na skończonej liczbie kroków.
Oczywiście monada jest warunkiem stopu, ale przejście od tego, co jest
rzeczą złożoną do monady, wymaga przejścia nieskończonej ilości
kroków.
Wprowadzając rozróżnienie na materię, czyli gromadę monad bez
monady dominującej i istotę żyjącą, czyli gromadę monad z monadą
dominującą, relacje łączące te trzy klasy (Monada, Materia, Ciało)
można przedstawić w następujący sposób:
5. Relacja typu „ma” oraz relacja typu „jest” (opracowanie własne).
W zaprezentowanym diagramie klas pojawiły się dwie nowe relacje.
Jedna jest kolejnym przykładem relacji typu „ma”. Jest nią relacja
agregacji (słabej) między klasą Monada a klasą Materia. Druga należy
do relacji typu „jest”. Zachodzi ona między klasą Materia a klasą Ciało
– nazywana jest dziedziczeniem.
51
Agregacja jest relacją łączącą klasy w ten sposób, że obiekty jednej
klasą są składowymi drugiej klasy. Jednak – w przeciwieństwie do
kompozycji – usunięcie obiektu, którego składowymi są obiekty należące do innej klasy, nie pociąga za sobą skasowania obiektów składowych. Na przykład składowymi obiektu kategoria_filmy_obyczajowe są
obiekty klasy Film. Jednak skasowanie obiektu kategoria_filmy_obyczajowe nie pociąga za sobą likwidacji filmów, które
zostały przypisane do tej kategorii.
Jak można przypuszczać, agregacja łączy klasę Monada z klasą Materia. Każdy obiekt klasy Materia składa się z monad (ma monady).
Każdy obiekt materialny ma atrybut, którego wartościami są monady.
Modyfikator dostępu ustawiono na „+”, czyli że każdy inny obiekt ma
dostęp do danego obiektu materialnego, więc może go poznać i zmienić.
Na diagramie klasy Materia występuje operacja harmonizonizowanie_grupy(), która odpowiedzialna jest za Leibnizjańską harmonię
wprzódy ustanowioną. Ponieważ wyłącznie Bóg ma prerogatywę, aby
posługiwać się taką operacją, w diagramie nie przypisano żadnego modyfikatora dostępu do tej operacji. Krotność tej relacji ustalono na 1..
po stronie klasy Monada oraz 0.. po stronie klasy Materia. Należy
przez to rozumieć, że Monada nie musi wchodzić w relację agregacji z
Materią. Jednocześnie może być tak, że nieskończenie wiele obiektów
monad agreguje w nieskończonej ilości obiektów materialnych.
Dziedziczenie jest relacją zachodzącą między przynajmniej dwoma
klasami. Polega na tym, że klasa, która dziedziczy, przejmuje wszystkie
atrybuty i operacje po klasie, z której dziedziczy; poza tym ma swoje
charakterystyczne atrybuty lub operacje. Niewypełniony grot wskazuje
na klasę po której się dziedziczy. Na powyższym diagramie napisano,
że klasa Ciało dziedziczy po klasie Materia, czyli przejmuje od Materii
wszelkie atrybuty i operacje. Obiekt klasy Ciało ma atrybut grupa
i operację harmonizowanie_grupy(). Ponadto ma dodatkowy, prywatny
atrybut monada_dominująca oraz dwie dodatkowe operacje. Jedna
z nich sprawia, że dana monada spełnia funkcję monady dominującej
(dominowanie(grupa)). Druga jest właściwością udostępniającą informacje o monadzie dominującej.
Na koniec tej obiektowej interpretacji kilku pojęć z monadologii
Leibniza warto byłoby zwrócić uwagę na możliwość użycia mechanizmu polimorfizmu do obiektowej reinterpretacji percepcji. Skoro
schemat klasowy każdej monady zredukowano do atrybutu percepcji i
operacji zmiany percepcji, powstaje zasadne pytanie o różnicę między
percepcją ludzką, a percepcją zwierzęcą, bądź roślinną. Przypominając,
52
że polimorfizm to wywoływanie jednej funkcji, które skutkuje różnymi
efektami, można by percepcję zinterpretować polimorficznie uszczegóławiając różnice między poszczególnymi klasami w implementacji
operacji ustalającej treść i sposób przedstawienia.
Język UML nie sprowadza się wyłącznie do diagramów przypadków użycia czy diagramów klas. Występuje w nim wiele innych rodzajów diagramów (interakcji oraz zachowań) ukazujących dynamikę modelowanego systemu. Niestety ramy formalne artykułu uniemożliwiają
obiektowe rozwinięcie teorii monad Leibniza.
Zakończenie
Filozofia obiektowa (OOPh) jest filozofią, która stosuje aparaturę
pojęciową OOP do filozoficznych koncepcji. Próbę takiej aplikacji
zastosowano w niniejszym artykule – wykorzystując przy tym graficzny język modelowania UML. Przedstawiona propozycja wydaje się
wielce obiecująca, chociażby z tego powodu, że otwiera możliwości
uprawiania filozofii in silico przez analogię do już istniejącej (szczególnie w naukach przyrodniczych) nauki in silico.
Aleksander Gemel
Uniwersytet Łódzki
PRZESTRZEŃ POJĘCIOWA JAKO RAMA KATEGORIALNA DLA ZORIENTOWANYCH OBIEKTOWO
ARCHITEKTUR POZNAWCZYCH1
1. Wstęp
Mimo ogromnego postępu w dziedzinie nauk poznawczych oraz informatyki, problem adekwatnej i możliwie najbardziej optymalnej
z obliczeniowego punktu widzenia reprezentacji ludzkich procesów
poznawczych pozostaje w dalszym ciągu przedmiotem licznych sporów. Większość badaczy zajmująca się problematyką implementacji
procesów kognitywnych jest zgodna, że architektura poznawcza powinna dostarczać możliwie najprostszych i stosunkowo najbardziej
intuicyjnych metod implementacji procesów poznawczych, oddając
przy tym właściwe cechy systemu poznawczego człowieka, i nie narzucać nań swej struktury formalnej w procesie modelowania. W praktyce
jednak ten kompromis między transparencją poznawczą architektury,
a jej właściwościami strukturalno-implementacyjnymi często jest niezmiernie trudny do osiągnięcia. Osiągnięcie go musi bowiem z jednej
strony bazować na wynikach badań ludzkiego systemu poznawczego,
z drugiej zaś musi polegać na dobraniu techniki modelowania możliwie
najbardziej spójnej ze strukturą owego systemu. Nawiasem mówiąc,
w pewnym sensie tak określone projektowanie architektury poznawczej
pokrywa się z głównymi założeniami metodologii bottom-up, która
w zasadzie wyrasta z samego wnętrza idei multi-dyscyplinarności kognitywistyki2. Ten ogólny schemat programistycznej implementacji
aparatu poznawczego człowieka ma oczywiście również zastosowanie
w szczegółowych analizach procesów poznawczych, w tym zwłaszcza
w procesach kategoryzacji. Co więcej, schemat implementacyjny
w postaci określanego języka komputerowego, np. architektury zorientowanej obiektowo, może być w gruncie rzeczy opisany jako struktura
Tekst jest zmodyfikowaną wersją artykułu A.Gemel, T. Ishii, Conceptual
Spaces in Object-Oriented Framework, „Hybris” 2016/4(35), s. 1-22.
2
Szerzej na temat pojęcia multi-dyscyplinarności zob. L. Ogiela, Podstawy
informatyki kognitywnej, Wydawnictwo AGH, Kraków 2011, s. 9-24.
1
54
kategorialna z zachodzącymi w jej ramach relacjami. W konsekwencji,
częstą przyczyną trudności związanych z procesem adekwatnej cyfrowej implementacji procesów poznawczych, jest fundamentalna niezgodność kategorialnej struktury formalnej języka programowania
z faktycznym jego przebiegiem opisywanym przez psychologię. Oznacza to, że badania dotyczące informatycznego modelu struktury kategorialnej człowieka powinny zatem nie tylko wychodzić od badań stricte
psychologicznych, lecz, co więcej, należy do ich reprezentacji dobrać
następnie możliwie najbardziej adekwatne i transparentne techniki modelowania.
Problem trudności wdrożeniowych architektur poznawczych nie daje się jednak sprowadzić tylko do niekoherencji struktur wykorzystywanych do modelowania ze strukturą umysłu, lecz sięga on znacznie
głębiej, wyłaniając się z wnętrza samych założeń metodologicznych
kognitywistyki. Jak słusznie zauważa Gärdenfors, z racji właściwej
kognitywistyce struktury metodologicznej, znakomita większość propozycji projektowania reprezentacji poznawczych podlega realizacji
w ramach dwóch głównych podejść badawczych, które reprezentują
odmienne wizje modelowania poznawczych reprezentacji3. Pierwsze
z nich, dalece rozpowszechnione na gruncie informatyki, zwane jest
symbolicznym i bazuje na ujmowania poznawczych fenomenów przy
pomocy operacji obliczeniowych na abstrakcyjnych symbolach. Drugie
zaś, zwane koneksjonistycznym, polega na modelowaniu procesów
poznawczych przy pomocy sztucznych sieci neuronowych. Oba podejścia mają jednak wspólną wadę, są one mianowicie niezwykle mało
wrażliwe na reprezentacje zjawisk należących do kluczowej warstwy
w systemie poznawczym człowieka tj. poziomu stricte pojęciowego
(w tym struktury semantycznej i samej zawartości propozycjonalnej
pojęć). W ramach podejścia symbolicznego pojęcia traktowane
są bowiem jako jedynie symbole podlegające głównie syntaktycznym
przekształceniom i zachodzącym między nimi relacjom, bez wglądu
w ich wewnętrzną strukturę reprezentacyjną. Zaś modele bazujące na
sieciach neuronowych dostarczają jedynie reprezentacji neuronalnych
korelatów semantycznych pojęć, w dużej mierze abstrahując od ich
zawartości treściowej.
W opinii Gärdenforsa, nie oznacza to jednak, że podejścia symboliczne i subsymboliczne są pozbawione atutów. Przeciwnie, ich mocną
stroną jest bowiem łatwość z jaką reprezentacje dają się za ich pomocą
3
P. Gärdenfors, Conceptual spaces, MIT Press, Cambridge 2000.
55
wdrażać w systemach informatycznych, wykazując przy tym niebagatelną przydatność w projektowaniu architektur poznawczych i systemów uczących się, które mimo że nie reprezentują zdolności poznawczych w sposób idealnie adekwatny, to w dalszym ciągu pozostają niezwykle przydatne do wielu celów. Łatwość implementacji jest cechą
trudną do zignorowania, gdyż jednym z głównych postulatów kognitywistyki jest przecież właśnie implementacja procesów poznawczych
w model komputacyjnego przetwarzania informacji. Co więcej, tzw.
środkowy poziom reprezentacji w modelu przestrzeni pojęciowych –
czyli podejście zaproponowane przez Gärdenforsa – ma stanowić
w jego założeniu spójne z obydwoma paradygmatami uzupełnienie
kognitywnej struktury reprezentacji i dawać się w pełni przekładać na
oba „konkurencyjne” paradygmaty. Niezmiernie ważnym postulatem
jest zatem, aby paradygmat modelowania reprezentacji pojęciowych w
przestrzeniach konceptualnych Gärdenforsa, również stwarzał szerokie
możliwości wdrożeniowe i dawał się uzgodnić z językami programowymi. Kwestii owej spójności poświęcony jest ten tekst. Postaram się
przedstawić propozycję implementacji środkowego poziomu reprezentacji zjawisk mentalnych, przy udziale przestrzeni pojęciowych
Gärdenforsa, w ramach modelu opartego na paradygmacie programowania zorientowanego obiektowo. Rozwiązanie to wydaje się być odpowiednie dla celów reprezentacji warstwy pojęciowej człowieka oraz
niezwykle intuicyjne z punktu widzenia programowania systemów
sztucznych.
2. Przestrzeń pojęciowa jako model struktury kategorii poznawczych
Jak wcześniej wzmiankowałem, proces projektowania architektury
poznawczej powinien bazować na dwóch podstawowych zasadach. Po
pierwsze, powinien być on intuicyjny i dostarczać możliwie najprostszych metod implementacji zjawisk poznawczych. Po drugie, powinien
on oddawać właściwe i najistotniejsze cechy modelowanego systemu
poznawczego człowieka, nie zaś narzucać nań swą strukturę w procesie
modelowania. Jednym z najbardziej jaskrawych przykładów ignorowania tych reguły jest jak do tej pory kwestia implementacji psychologicznych procesów kategoryzacji. W dużej mierze ten stan rzeczy jest
konsekwencją immanentnej struktury kategoryzacyjnej symbolicznych
i sub-symbolicznych (koneksjonistycznych) systemów architektur poznawczych, które w procesie modelowania narzucają swą immanentną
organizację pojęciową na modelowany system kognitywny. System
kategorialny nie jest bowiem całkowicie transparenty i, co więcej, nie
56
stanowi jedynie wyidealizowanego konstruktu, lecz jest ściśle zrośnięty
z samym psychologicznie rozumianym procesem poznawczym. Jeżeli
zatem zależy nam na konstrukcji podejścia badawczego, mającego na
celu maksymalizację implementacyjnej optymalizacji, to warto odejść
od traktowania struktury ludzkich kategorii pojęciowych jako czysto
apriorycznego filozoficznego konstruktu, oderwanego od sfery kognitywnej, za który od czasów Arystotelesa uchodziła, lecz spojrzeć na
nią, jak na pełnoprawny przedmiot badawczy opisywany w zgodzie
z regułami rządzącymi empiryczno-eksperymentalną metodologią naukową. Orędowniczką tego ostatniego podejścia jest m.in. Eleonor
Rosch, która zaproponowała spójny z wynikami eksperymentów i właściwościami ludzkiego aparatu kognitywnego model ludzkiej kategoryzacji, znany jako teoria prototypowa4. W zakresie badań nad procesem
kategoryzacji podejście to jest jednak stosunkowo nowe. Struktura kategorii pojęciowych człowieka przez długi okres czasu była bowiem
traktowana zgodnie z modelem klasycznym, tj. tzw. klasyczną teorią
kategorii. Model ten, zwany również modelem warunków koniecznych
i wystarczających (WKW), opiera się na przekonaniu, że każda kategoria może zostać w sposób zupełny i adekwatny opisana za pomocą zestawu warunków koniecznych i wystarczających. Pozorna oczywistość
i intuicyjność teorii klasycznej sprawiała, że przez ponad dwa tysiące
lat możliwość odmiennego spojrzenia na sposób ludzkiego kategoryzowania jawiła się jako niewyobrażalna. Jak celnie podsumowuje to
Lakoff:
Od czasów Arystotelesa do późnego Wittgensteina sądzono, że kategorie
zostały dogłębnie poznane i że nie rodzą one żadnych problemów. […] Ta
klasyczna teoria nie wyrosła na gruncie badań empirycznych; nigdy nawet
nie została poddana jakiejś szerszej dyskusji. Jest poglądem filozoficznym
wypracowanym na drodze rozumowania a priori. Z upływem wieków stała
się jednym z podstawowych założeń przyjmowanych przez większość dyscyplin naukowych. Na dobrą sprawę do niedawna klasyczna teoria kategoryzacji nie była w ogóle traktowana jako teoria. W obrębie większości
dziedzin przedstawiano ją nie jako hipotezę empiryczną, lecz jako aksjomat5.
E. Rosch, Cognitive Representation of Semantic Categories, w: „Journal of
Experimental Psychology”, 1975, 104, s. 192-233.
5
G. Lakoff, Kobiety, ogień i rzeczy niebezpieczne. Co kategorie mówią nam
o umyśle, przeł. M. Buchta, A. Kotarba, A. Skucińska, Universitas, Kraków
2011, s. 6.
4
57
Zgodnie z teorią klasyczną, o przynależności danego obiektu do
określonej kategorii decyduje posiadanie przez niego zespołu właściwości, które składają się na definicje istoty owej kategorii (w postaci
połączenia wystarczających cech koniecznych). Szczególnym przypadkiem teorii klasycznej jest model strukturalistyczny, często wykorzystywany w symbolicznym paradygmacie modelowania, który pozwala
na syntaktyczną interpretację modelu WKW i tym samym na abstrakcję
od zawartości semantycznej modelowanego zjawiska. W modelu strukturalistycznym zespół warunków koniecznych i wystarczających, pozwalających zdefiniować dany obiekt zostaje opisany za pomocą kryterium odróżniającego go od pozostałych obiektów w danym uniwersum.
Innymi słowy, każdy element jest zdefiniowany jako koniunkcja negacji elementów pozostałych, co formalnie można przedstawić jako
x (x {x,y,z,…, n}: x = y z … n), dla n ≠ ∞.
Filozoficzne konsekwencje klasycznej teorii kategorii są jednak
dość istotne. Zgodnie bowiem z modelem WKW wszystkie elementy
danej kategorii są równorzędne, gdyż każdy z nich jest zdefiniowany
przez dokładnie ten sam zespół warunków. Model ten nie pozostawia
zatem miejsca na wyróżnione egzemplarze wewnątrz danej kategorii.
Po drugie, granice każdej kategorii są ostro wyznaczone, gdyż ich wytyczenie odbywa się przy pomocy zdefiniowanych w klasycznej logice
dwuargumentowej spójników koniunkcji i negacji. Oznacza to, że
przynależność do kategorii jest kwestią zero-jedynkową, w modelu tym
brak zatem miejsca na nieokreśloność kategorialną lub na występowanie przypadków granicznych należących do dwóch i więcej kategorii
jednocześnie.
Krytyka klasycznej koncepcji kategoryzacji zaowocowała powstaniem tzw. teorii kategoryzacji prototypowej, opartej na eksperymentach
psychologicznych, które wprost podważyły główne założenia modelu
WKW6. Ich wyniki jednoznacznie wskazują na występowanie lepszych
i gorszych egzemplarzy w obrębie danej kategorii, co wiąże się z koniecznością przemodelowania struktury pojęciowej. Przemodelowanie
polega na konieczności wyróżnienia elementów centralnych i elementów peryferyjnych, różniących się stopniem kategorialnej reprezenta6
Por. B. Berlin, P. Kay, Basic color terms, University of California Press,
Berkeley 1969; E. Rosch, Cognitive Representation of Semantic Categories,
„Journal of Experimental Psychology”, 1975, 104, s. 192-233, C. Mervis, E.
Rosch, Categorization of natural objects, „Annual Review of Psychology”,
1981 32, s. 89-115, G. Lakoff, Kobiety, ogień i rzeczy niebezpieczne. Co kategorie mówią nam o umyśle, przeł. M. Buchta, A. Kotarba, A. Skucińska,
Universitas, Kraków 2011, passim.
58
tywności. Elementy usytuowane centralnie wewnątrz danej kategorii,
zwane prototypami, stanowią swoisty probierz kategorialnej przynależności. Elementy charakteryzujące się większym stopniem podobieństwa
do prototypów sytuują się bliżej centrum kategorii, z kolei te mniej
podobne zyskują w wewnętrznej strukturze kategorii usytuowanie bardziej peryferyjnie. Ponadto w modelu prototypowym granice kategorii
są nieostre, co wiąże się z możliwością wystąpienia nieokreśloności
kategorialnej w wypadku zbliżonego stopnia podobieństwa do przynajmniej dwóch prototypów. Podobieństwo rozumiane w zgodzie
z założeniami psychologii urasta tym samym do rangi jednego z istotniejszych pojęć w procesie konstytucji struktury pojęciowej człowieka.
Powstaje jednak problem: jak należy je rozumieć?
W większości ujęć przeważa ilościowy model podobieństwa. Zgodnie z nim podobieństwo zostaje określane przez ilość cech wspólnych
dzielonych z prototypem. Jednakże model ilościowy oparty na klasyfikacji cech generuje wiele problemów, gdyż jak dowodzą liczne świadectwa empiryczne, sama ilość cech wspólnych nie odgrywa w procesie oceny podobieństwa tak ważnej roli, co współwystępowanie pewnych specyficznych zespołów określonych cech. Naturalnym rozwiązaniem byłoby zatem wprowadzenie wag przypisanych określonym cechom. Rozwiązanie to pociąga jednak za sobą zgodę na określenie
przynależności kategorialnej w oparciu o współwystępowanie jednej
(lub więcej) wspólnej cechy, co prowadzi do przekształcenia prototypowej teorii na powrót w model WKW. Obecność owej cechy
u wszystkich egzemplarzy danej kategorii, można bowiem uznać za
warunek konieczny i wystarczający przynależności kategorialnej
wchodzących w jej skład egzemplarzy. Między innymi z tego powodu
Gärdenfors skłania się zatem ku geometrycznemu modelowi reprezentacji podobieństwa, a co za tym idzie, również struktury konceptualnej
umysłu. Model ten stanowi integralną część jego teorii przestrzeni konceptualnych.
Teoria przestrzeni pojęciowych stanowi narzędzie modelowania
struktury kategorialnej zgodnej z psychologiczną teorią kategoryzacji
prototypowej. W odróżnieniu od paradygmatu symbolicznego, bazującego na przetwarzaniu symboli i koneksjonizmu opartego na sztucznych sieciach neuronowych, teoria Gärdenforsa wykorzystuje kategorie
zaczerpnięte z geometrii i algebry wektorowej. Podstawową kategorią
wykorzystywaną do modelowania zawartości semantycznej są wymiary, które reprezentują jakości reprezentowanych przedmiotów. Dany
obiekt reprezentowany jest przez punkt w przestrzeni, którego współrzędne charakteryzują określone wartości przypisane poszczególnym
59
przypadkom danego wymiaru jakościowego. Toteż na przykład określony smak stanowiłby punkt w domenie smaku składającej się z czterech jakości (kwaśność, słodycz, słoność i gorycz) o określonych wartościach reprezentowanych przez konkretne współrzędne na osi każdego z jakościowych wymiarów. Konsekwencją filozoficzną modelu
Gärdenforsa jest konieczność uznania infra-lingwistycznego charakteru
wymiarów, czyli traktowania ich jako fenomeny pierwotne względem
językowo-symbolicznej reprezentacji. Jak zauważa Gärdenfors:
Wymiary jakościowe należy rozumieć niezależnie od symbolicznych reprezentacji w tym sensie, że zarówno ludzie jak i inne zwierzęta mają
zdolność́ reprezentowania jakości przedmiotów, na przykład podczas planowania działań́ , bez konieczności zakładania wewnętrznego języka lub
innego systemu symbolicznego, w których te cechy byłyby wyrażone 7
(Gärdenfors 2000: 11).
Pojęcia w przestrzeni konceptualnej są, zdaniem Gärdenforsa, reprezentowane przez wypukłe wielokąty, których układ zostaje określony przez umiejscowienie elementu prototypowego w relacji do innych
otaczających je prototypów w domenie. Rozwiązanie zaproponowane
przez Gärdenforsa daje się przy tym w pełni uzgodnić z prototypową
teorią kategoryzacji, gdyż w konsekwencji prowadzi ono do niejednorodnej struktury kategorii tj. zróżnicowanej pod kątem kategorialnej
reprezentatywności. Zróżnicowanie stopnia reprezentatywności jest
możliwe gdyż w reprezentacji geometrycznej, w ramach której pojęcia
są modelowane, przy pomocy wielokątów wypukłych leżące w zakresie
ich pola punkty, mogą zajmować mniej lub bardziej centralne położenie. Mechanizmem wykorzystywanym przez Gärdenforsa do podziału
przestrzeni i tym samym ukonstytuowania struktury kategorialnej danej
domeny jest tesselacja Woronoja. Podział Woronoja polega na wyznaczeniu części w n-wymiarowej przestrzeni reprezentującej daną sferę
kognitywną człowieka, bądź jedną z poznawczych domen. Formalnie
rzecz biorąc, podział dla zbioru punktów P (oznaczających prototypy)
i funkcji odległości d (reprezentującej stopień podobieństwa między
obiektami), należących do przestrzeni Euklidesa (złożonej z wymiarów
konstytuujących domenę poznawczą) przebiega zgodnie z formułą:
Reprezentujący pojęcie wielokąt w podziale Woronoja zostaje więc
ukonstytuowany przez zbiór wszystkich punktów leżący bliżej danego
punktu p ze zbioru P, niż pozostałych punktów z tegoż zbioru. Dzięki
7
P. Gärdenfors, Conceptual Spaces, MIT Press, Cambrige, 2000, s.11.
60
tesselacji Woronoja, do reprezentacji genezy struktury kategorii wystarcza zatem jedynie wyróżnienie przykładów prototypowych danego
pojęcia i psychologicznie rozumiana relacja podobieństwa między nimi. Dla ośmioelementowego zbioru P, przykładowa tesselacja wyglądałaby następująco:
Rysunek 1: Tesselacja Woronoja dla 8-elementowego zbioru P
Oprócz możliwości włączenia prototypowości w model struktury
kategorii, drugą zaletą teorii przestrzeni pojęciowej jest możliwość
efektywnej reprezentacji zjawiska nieostrości. Rozmycie granic kategorii można uzyskać dzięki wykorzystaniu tesselacji Woronoja dokonywanej przy pomocy zbioru klastrów punktów, tj. zamiast P={p1, p2,
p3,…, pn} dokonywana jest ona w oparciu o Pklas={{p11, p12, p13, …,
p1n}, {p21, p22, p23, …, p2n}, …, {pn1, pn2, pn3, …, pnn}}8.
Rozwiązanie to pozwala na dokonanie klastrowych wielowarstwowych tesselacji, skutkujących rozmyciem granicy między reprezentującymi pojęcia wielokątami, jak ilustrują to poniższe rysunki.
8
Szerzej na ten temat zob. L. Decock, I. Douven, What Is Graded Membership?, “Noûs”, 2014, 48, s. 653–682,I. Douven, L. Decock, R. Dietz, P, Égré,
Vagueness: A Conceptual Spaces Approach, “Journal of Philosophical Logic”,
2013, 42(1), s. 137–160.
61
Rysunek 2: Diagram Woronoja wygenerowany przez zbiór P klas
Rysunek 3: Wykorzystanie Pklas do modelowania nieostrych kategorii9
3. Problem struktury kategorialnej architektury danych zorientowanej obiektowo
Architektura bazująca na języku zorientowanym obiektowo wydaje
się najbardziej adekwatnym środkiem do implementacji modelu kategorii wyrażonej w teorii przestrzeni pojęciowych z kilku powodów. Po
9
Ibidem, s.664.
62
pierwsze, jest ona niezwykle intuicyjna i kompatybilna z rzeczywistością. Po drugie, jak pokazują badania, ludzki mózg jest w naturalny
sposób przystosowany do przetwarzania informacji w taki sposób10. Po
trzecie, proces programowania wychodzi od niezwykle powszechnej,
typowej dla ludzi codziennej zdolności myślenia abstrakcyjnego, która
również odgrywa rolę w psychologicznym procesie formowania kategorii. Wreszcie, jak postaram się pokazać, języki zorientowane obiektowo są niezwykle łatwo uzgadnialne z modelem przestrzeni pojęciowych, co pozwala na bardzo efektywne i intuicyjne modelowanie procesów poznawczych w systemach informatycznych.
Główną ideą architektury poznawczej opartej na paradygmacie programowania zorientowanego obiektowo jest przekonanie, że system
wiedzy, lub kognitywny system pojęciowy istniejący w rzeczywistości,
może zostać adekwatnie wyrażony w postaci formalnej za pośrednictwem kategorii obiektów i relacji zachodzących między nimi. Proces
ten nosi miano procedury modelowania; następnie, będący jego efektem formalny system reprezentacji, zostaje odzwierciedlony w postaci
programu komputerowego, co można określić mianem procesu symulacji.
Wyjaśnienia wymaga przy tym kilka rzeczy. Po pierwsze, pojęcie
rzeczywistości użyte w poprzednim akapicie nie musi z konieczności
oznaczać zewnętrznej wobec umysłu rzeczywistości materialnej. Dotyczy ono raczej każdej sfery zewnętrznej względem formalnego systemu
reprezentacji języka zorientowanego obiektowo. W kontekście projektowania architektury poznawczej zorientowanej obiektowo, rzeczywistość oznacza więc sferę stricte mentalną, bądź pojęciową strukturę
umysłu. Terminowi „rzeczywistość mentalna” można przypisać zatem
określony model struktury kategorialnej z opisanymi na nich relacjami.
Co więcej, można powiedzieć, że struktura ta daje się formalnie opisać
w sposób adekwatny za pomocą modelu przestrzeni pojęciowych, jak
starałem się to pokazać w poprzednim paragrafie. W pewnym sensie,
projektując zatem w języku zorientowanym obiektowo architekturę
poznawczą, zgodną z ustaleniami poprzedniego paragrafu, możemy
mówić albo o podwójnej procedurze modelowania (jednej za pomocą
struktury kategorii modelu Gärdenforsa, drugiej polegającej na przełożeniu jej na reguły języka obiektowego), albo, co na jedno wychodzi,
pokazać, że oba podejścia formalne są ze sobą spójne (czy też, że przynajmniej dają się uspójnić) i potraktować tym samym model przestrzeni
10
S. Sheetz, D. Tegarden, Illustrating the cognitive consequences of objectoriented systems development, “The Journal of Systems and Software”, 2001,
59, s. 163-179.
63
pojęciowej jako procedurę modelowania, która następnie podlega jedynie procesowi symulacji w języku obiektowym. Pokazanie zgodności
obu modeli jest właśnie celem tego artykułu.
Aby pokazać strukturalną koherencję języka obiektowego z psychologicznym modelem kategorii opisanym w przestrzeni pojęciowej, warto zacząć od wyjaśnienia głównych cech i pojęć myślenia i projektowania zorientowanego obiektowo11. Podstawowymi jednostkami języka
zorientowanego obiektowo jest klasa, której rola polega na definiowaniu obiektu będącego jej reprezentantem. Klasy w odniesieniu do
obiektów stanowią swego rodzaju dane wyższego poziomu, gdyż to one
konstytuują kod programu, toteż można je postrzegać jako podstawowe
elementy konstytutywne dla opisywanych obiektów. Obiekty stanowią
zatem jedynie manifestację określającej je klasy i, jako takie, można je
postrzegać jako jednostki czysto konceptualne złożone ze stanu (zbioru
atrybutów wyznaczonych przez klasę), oraz zachowania (tj. zbioru
przypisanych im metod).
Podstawowe elementy obu systemów formalnych (języków obiektowych i przestrzeni pojęciowych) dają się w prosty sposób na siebie
wzajemnie przekładać. Obiekty mogą zostać opisane w kategoriach
punktów w przestrzeni, kategorie będące zbiorem obiektów odpowiadają wielokątom wypukłym, właściwości definiujące atrybuty obiektów
w pełni dają się opisywać jako wymiary definiujących daną domenę. Ta
ostatnia zaś odpowiada definiujące elementy języka obiektowego klasie. Ta bezpośrednia korelacja elementów w obu modelach formalnych
nie przekłada się jednak na całkowitą odpowiedniość strukturalną ich
systemu kategorii. Problem polega na tym, że w konstrukcji formalnej
języka zorientowanego obiektowo ucieleśniona jest implicite klasyczna
teoria kategoryzacji. Zaś budowa architektury poznawczej modelującej
psychologiczny proces kategoryzacji z definicji musi wykraczać właśnie poza ustalenia teorii klasycznej. W konsekwencji, dla pełnego
uzgodnienia języków obiektowych z modelem Gärdenforsa, konieczne
jest uzgodnienie struktury procesu kategoryzacji obu systemów.
W praktyce sprowadza się to do dwóch punktów. Mianowicie do włączenia do języków obiektowych: efektów prototypowych oraz gradacji
przynależności (fenomenu nieostrości).
Osiągnięcie pierwszego celu jest w istocie dość proste. Co prawda,
zgodnie z najbardziej paradygmatyczną wizją języka zorientowanego
Celowo pomijam specyfikację języków obiektowych na tle innych paradygmatów programowania, np. funkcjonalnego. Szerszą charakterystykę języków obiektowych w tym kontekście można znaleźć w: A. Gemel, T. Tshii,
Conceptual Spaces in Object-Oriented Framework …, s. 1-22.
11
64
obiektowo, określenie obiektów następuje poprzez odniesienie do klasy, która w duchu klasycznej teorii kategoryzacji może zostać opisana
jako zespół koniecznych i wystarczających warunków definiujących
obiekty. Istnieją jednak liczne modyfikacje tej ortodoksyjnej wizji języka obiektowego, które pozwalają na bardziej elastyczne definiowanie
obiektów w systemie. Jedną z nich jest prototypowy język zorientowany obiektowo. Fundamentalna różnica między klasycznym a prototypowym paradygmatem obiektowym sprowadza się do uznania odmiennego statusu ontologicznego obiektu. W systemach prototypowych
obiekty są definiowane jako określone konkretne przedmioty z konkretną przypisaną im listą własności i zachowaniem dziedziczonym od
prototypu, nie zaś jako jedynie abstrakcyjne konkretyzacje swojej klasy. Systemy prototypowe mają wiele zalet praktycznych, uchodzą przy
tym za niezwykle eleganckie i silnie korespondują ze współczesną kognitywną teorią kategoryzacji:
Języki oparte na prototypach są eleganckie pod względem pojęciowym
oraz posiadają wiele innych cech, które czynią je atrakcyjnymi. Języki te są
również wyraźnie bliższe teorii prototypowej rozwijanej przez psychologów poznawczych i filozofów. Na przykład, zdolność języków prototypowych do modelowania obiektowej zmiany i ewolucji na poziomie poszczególnych obiektów zmniejsza potrzebę klasyfikacji a priori i zachęca do
bardziej iteracyjnego stylu programowania i projektowania. Ogólnie rzecz
biorąc, podczas pracy z prototypami, programista zazwyczaj nie zdecyduje
się kategoryzować, lecz wykorzysta podobieństwo. Projektant ma do czynienia raczej z konkretnymi realizacjami pojęć niż z ich abstrakcyjnymi
opisami12.
Jednakże, szczególnie istotne jest to, że prototypowy język zorientowany obiektowo daje się w pełni uzgodnić z prototypową strukturą
kategorii i tym samym z modelem jej genezy w przestrzeni pojęciowej13.
Jak wcześniej wzmiankowałem, pełne uzgodnienie języków obiektowych z modelem przestrzeni pojęciowej wymaga, oprócz włączenia
efektów prototypowych do paradygmatu obiektowego, również ko12
A. Taivalsaari, Classes vs. Prototypes: Some Philosophical and Historical
Observations, “Journal of Object-Oriented Programming”, 1997, 10(7), s. 4450.
13
Szerzej na ten temat zwłaszcza w kontekście procedury klonowania w językach obiektowych i jej możliwych związkach z tesselacją w przestrzeni pojęciowej zob. A. Gemel, T. Tshii, Conceptual Spaces in Object-Oriented
Framework …, s. 15-16.
65
nieczności wpisania weń możliwości modelowania fenomenu nieostrości oraz powiązanego z nim zjawiska gradacji przynależności kategorialnej. Problem opracowania najbardziej efektywnej strategii włączenia nieostrości w zorientowaną obiektowo architekturę danych jest, jak
podkreśla Marin, powszechnie dyskutowany w literaturze przedmiotu:
Na przestrzeni ostatnich kilku lat, model obiektowo-zorientowanych baz
danych został zmodyfikowany pod kątem możliwości włączenia weń nieostrości. W związku z tym pojawiły się rozmyte obiektowe modele baz danych. Nieostrość badano na różnych poziomach: rozważając rozmyte domeny atrybutów w bazie danych, zmiękczając ideę przynależności obiektu
do klasy, poluzowując relację nadklasy z podklasą, a nawet starają się odzwierciedlać rozmycie w zachowaniu obiektów14.
Jednym z bardziej skutecznych prób rozwiązania kwestii efektywnego włączenia zjawiska stopniowalności przynależności kategorialnej
w projektowanie obiektowe, jest zaproponowany przez Martin, Pons
i Vila wykorzystanie typu rozmytego15. Pozwala on na włączenie do
modelu obiektowego różnych poziomów stopniowalnej przynależności
przypisanych określonym atrybutom. Typ rozmyty bazuje na definicji
klasycznie rozumianego typu zdefiniowanego jako para uporządkowana (S, Z) gdzie S jest zbiorem atrybutów zaś Z zbiorem metod opisujących wachlarz możliwych zachowań obiektów, które ów typ adaptują.
Różnica między rozmytą a klasyczną postacią typu polega na odmiennym zdefiniowaniu komponentu strukturalnego w przypadku tego
pierwszego, tj. jako zbioru rozmytego zdefiniowanego na wszystkich
atrybutach z przypisaną mu funkcją przynależności o postaci S: A
[0,1]. W konsekwencji klasę K można opisać również jako parę uporządkowaną złożoną z typu rozmytego i wszystkich realizujących go
obiektów tj. (FuzzT, O), gdzie typ rozmyty stanowi parę (FuzzS, B)
złożoną ze zbioru rozmytego atrybutów i przypisanego realizującym je
obiektom zestawu zachowań. Zastosowanie typu rozmytego pozwala na
pełne uzgodnienie języka obiektowego z formalnym modelem przestrzeni pojęciowych, w konsekwencji umożliwiając symulację psychologicznie adekwatnej postaci struktury kategorii w języku zorientowanym obiektowo.
14
N. Marin, O. Pons, A. M. Vila, A Strategy for Adding Fuzzy Types to an
Object-Oriented Database System, “International Journal Of Intelligent Systems”, 2001, Vol. 16, s. 863.
15
Ibidem, s. 863-880, oraz N. Marin, O. Pons, A. M. Vila, Fuzzy Types: A New
Concept of Type for Managing Vague Structures, “International Journal of
Intelligent Systems”, 2000 Vol. 15, s. 1061-1085.
66
Warto przy tym podkreślić, że dobieranie transparentnych metod
symulacji podczas projektowania architektury poznawczej, wiąże się
z koniecznością dostosowania języka do modelowanego fenomenu. Jak
przystało na typową procedurę inspirowaną pragmatycznie, proces
modelowania powinien być zatem możliwie najbardziej elastyczny w
doborze technik symulacji. Zaproponowany w artykule projekt konstrukcji architektury poznawczej bazujący na języku obiektowym
i modelu przestrzeni pojęciowej, nie zawsze będzie najlepszą strategią
implementacyjną dla każdego kognitywnego fenomenu. Słynny model
widzenia autorstwa Marr’a jest, dla odmiany, bezpośrednio inspirowany programistycznymi językami proceduralnymi16, nic przy tym nie
tracąc na efektywności symulacji. Jednakże w przypadku, gdy w grę
wchodzą procesy związane z kategoryzacją oraz modelowaniem przetwarzania reprezentacji obiektowych, zaproponowany proces obiektowej symulacji modelu przestrzeni pojęciowej wydaje się być szczególnie wskazany.
16
Szerzej na ten temat zob. J. Mayhew, J. Frisby, Computer vision, w: Artificial Intelligence: Tools, Techniques, and Applications, red. T. O’Shea,
M. Eisenstadt, Harper & Row, New York, 1984 s. 301–357.
Tomasz Walczyk
Uniwersytet Warmińsko-Mazurski
w Olsztynie
PERCEPCJA W CYFROWYM ŚWIECIE
Percepcja odgrywa podstawową rolę wśród całej gamy procesów
poznawczych. Mówiąc językiem fenomenologii, jest najbardziej źródłową relacją ze światem zewnętrznym. Dzięki zdolnościom percepcyjnym organizmy żywe zdolne są działać w środowisku i realizować
określone cele, jednocześnie przekształcając obszar swojej aktywności.
Z biegiem czasu, pole działania człowieka podlega gwałtownym zmianom, czego wyraźną egzemplifikacją mogą być coraz nowocześniejsze
pojazdy, w tym te służące do eksploracji wcześniej niedostępnych obszarów, wynalazki w dziedzinie robotyki, wzmacniacze percepcji, takie
jak teleskopy i mikroskopy, czy też komputery oraz ufundowana na ich
bazie rzeczywistość wirtualna. Moce percepcyjne człowieka, niegdyś
służące skutecznemu zdobyciu pożywienia i zapewnieniu przetrwania,
obecnie w znacznym stopniu zwrócone są ku fenomenom świata wirtualnego. Z udogodnień rzeczywistości wirtualnej korzystają miliardy
ludzi na całym świecie, przez całą dobę, w praktycznie każdym zakątku
globu. Obsługa zestawu komputerowego i dostęp do Internetu umożliwia niekończącą się podróż po interaktywnej sieci, a sprawne poruszanie się po niej oraz umiejętność jej kształtowania (programowania)
może wyraźnie wpłynąć na egzystencję człowieka, a w gruncie rzeczy,
również na losy całego gatunku ludzkiego. W artykule dokonam przeglądu filozoficznych i kognitywistycznych stanowisk w badaniach nad
percepcją, skupiając się zwłaszcza na najnowszych dokonaniach. Percepcji nie należy traktować jako procesu poznawczego oderwanego od
środowiska działania czy też pasywnego odbioru wrażeń, stąd też najwięcej uwagi poświęcę koncepcjom poznania ucieleśnionego, podkreślających aktywną eksplorację otoczenia przez podmiot percypujący.
Ujęcie to stanowić będzie pomost łączący nasze biologiczne życie
z mającą coraz większe znaczenie aktywnością w cyberprzestrzeni.
Nakreślę również wstępną kategoryzację zjawisk rzeczywistości wirtualnej, ponieważ uważam, że jest to fenomen niezwykle niejednorodny,
wymagający dookreślenia, odznaczający się szerokim spektrum zupełnie różnych zastosowań.
68
Percepcję definiuje się jako proces „pozyskiwania za pomocą zmysłów informacji na temat zdarzeń i obiektów zlokalizowanych w otoczeniu obserwatora”1. Badania nad nią mają charakter interdyscyplinarny, uczestniczą w nich filozofowie, kognitywiści i psycholodzy. Do
zadań psychologów należy rozpoznanie faktycznego przebiegu procesów percepcyjnych wraz z odnalezieniem empirycznych prawidłowości, zgodnie z którymi działają poszczególne zmysły. Kognitywiści
najczęściej traktują percepcję jako:
wieloetapowy proces przetwarzania informacji, jaką wydobywa podmiot
z otoczenia. Respektują oni zwykle postulat Marra, aby procesy percepcji
rozważać na trzech podstawowych poziomach: teoretycznym, reprezentacji
i algorytmu oraz implementacji neuronalnej. Na poziomie teoretycznym
poszukuje się odpowiedzi na pytanie: na czym polega proces przetwarzania
informacji percepcyjnej? Na poziomie reprezentacji i algorytmu rozważa
się pytanie: w jaki sposób i według jakich algorytmów tworzone są reprezentacje percypowanych obiektów? Natomiast na poziomie implementacji
podstawowe jest pytanie: w jakich strukturach neuronowych realizowane
są procesy percepcyjne2.
W kognitywistyce po dziś dzień dość popularna jest obliczeniowa
teoria umysłu (mająca początki w latach 50-tych XX wieku), u której
podłoża leży teza funkcjonalizmu, zrównująca procesy poznawcze
z programami dokonującymi obliczeń według ściśle określonego algorytmu3. Program taki nie jest zależny od swego fizycznego nośnika
i może być w równym stopniu zrealizowany w systemach sztucznych,
np. robotach. Procesy poznawcze, w tym percepcyjne, są, krótko mówiąc, algorytmami operującymi na symbolicznych reprezentacjach.
Operacji tych dokonuje mózg-komputer, który z racji swych funkcji
staje się najważniejszym przedmiotem badań ówczesnych kognitywistów.
W latach 80-tych XX wieku, komputacjonizm doczekał się zmasowanej krytyki, czego wyrazem stała się nowa metafora – „umysłu jako
wspólnego tańca mózgu, pozaneuronalnych procesów cielesnych oraz
A. Schetz, Percepcja i pamięć, w: Przewodnik po epistemologii, red. R. Ziemińska, Wydawnictwo WAM, Kraków 2013, s. 271.
2
Ł. Przybylski, Procesy percepcyjne, w: Przewodnik po filozofii umysłu, red.
M. Miłkowski i R. Poczobut, Wydawnictwo WAM, Kraków 2012, s. 128.
3
Wnikliwej krytyki komputacjonizmu dokonał Józef Dębowski, zob. J. Dębowski, Pułapki komputacjonizmu, „Filozofia nauki” 2004, nr 1, s. 29-50.
1
69
środowiska”4. W ten sposób narodziło się w kognitywistyce podejście
do procesów poznawczych, które zaowocowało nowym paradygmatem
– poznania ucieleśnionego. Położono w nim nacisk na wzajemną interakcję mózgu, ciała i środowiska. Mózg stracił swój prymat na rzecz
ciała, które zdaniem autorów tego nurtu, stanowi nieodłączny, determinujący czynnik systemu poznawczego. W ten sposób dochodzi również
do wyraźnego scalenia dorobku filozofii i kognitywistyki, czego dowodem jest wpływ, jaki wywarła na przedstawicieli nurtu poznania ucieleśnionego fenomenologia ciała Merleau-Ponty’ego5.
Filozoficzna analiza percepcji opiera się przede wszystkim na poszukiwaniu związków między zdobytą przy pomocy zmysłów informacją a uzasadnionym przekonaniem, czyli wiedzą. Problemem kanonicznym jest również relacja, jaka zachodzi między tym, jak świat się jawi,
a tym, jaki jest niezależnie od podmiotu percypującego. Do głosu dochodzi tu problematyka pomyłek percepcyjnych, jak iluzje czy halucynacje. Dylematy wokół nich dostarczają całego spektrum argumentów,
które stosuje się następnie jako intelektualny oręż w sporach między
przedstawicielami fenomenalizmu, realizmu pośredniego i realizmu
bezpośredniego 6. Fenomenalizm zakłada, że przedmiotem poznania są
byty umysłowe, dane zmysłowe, a nie przedmioty fizyczne; za sprawą
percepcji nigdy nie docieramy do rzeczywistości pozazjawiskowej7.
Przedstawiciele realizmu pośredniego uznają, że przedmiotem poznania
są umysłowe reprezentacje przedmiotów i ich własności. Reprezentacja
percepcyjna jest pośrednikiem między światem a świadomością podmiotu poznawczego; za jej sprawą można w akcie percepcyjnym dotrzeć do przedmiotów zewnętrznych. Ostatni z wymienionych kierunków – realizm bezpośredni – postuluje, iż percepcja jest bezpośrednia,
relacja między obserwatorem a światem zewnętrznym zachodzi bez
pośrednictwa danych zmysłowych. „Osią tego stanowiska jest idea,
w myśl której bezpośrednim przedmiotem percepcji (tym, co prezentuje
4
B. Trybulec, Fenomenologia a kognitywistyka – dwie metody analizy podmiotu poznania. Perspektywa współpracy i problemy, „Filozofia i nauka”
2015, nr 3, s. 281.
5
Koncepcji poznania ucieleśnionego poświęcę znacznie więcej uwagi w dalszej części artykułu.
6
Jest to podział podstawowy i najczęściej spotykany w filozofii. Zob. J. Woleński, Epistemologia. Tom 2, Wydawnictwo Aureus, Kraków 2001, s. 65.
7
Argumentacja fenomenalizmu opiera się często na przykładzie koperty Georga E. Moore’a. Koperta widziana z różnych perspektyw prezentuje się obserwatorom odmiennie. Raz jest szara i trapezoidalna, innym razem śnieżnobiała
i romboidalna, zob. A. Schetz, Ibidem, s. 276.
70
treść doświadczenia percepcyjnego) nie są żadne umysłowe odpowiedniki przedmiotów, ale same te przedmioty i ich własności”8.
Spór wokół granic poznania toczy się od dawien dawna, a każda
z tradycji może pochwalić się znacznym dorobkiem i wieloma celnymi
uwagami. W artykule opowiem się po stronie realizmu bezpośredniego,
gdyż linia argumentacyjna tego stanowiska jest najbliższa moim przekonaniom. W mojej opinii fenomenalizm jest oparty na błędnej koncepcji percepcji, zwłaszcza w kontekście odebrania otoczeniu percypującego podmiotu charakteru obiektywnie istniejących przedmiotów.
Pytanie, jakie stanowisko zająłby fenomenalista, gdyby podczas safari
ujrzał rozpędzone, rozjuszone i gotowe do ataku stado lwów? Czy nadal rozpatrywałby je w kategorii jakości fenomenalnych, danych zmysłowych, które inni uczestnicy safari percypują odmiennie (gdyż obserwują lwy z innej perspektywy etc.)? Zapewne nie. Łatwiej argumentować bazując na przykładach koperty czy monety, trudniej konsekwentnie bronić koncepcji fenomenalizmu w warunkach zagrażających
przetrwaniu.
W żartobliwym tonie argumentuje na rzecz realizmu bezpośredniego, amerykański filozof John R. Searle, odwołując się do przypadków
iluzji podwojonego palca i kija zanurzonego w wodzie. Pisze:
W obu wypadkach, mianowicie w przykładzie z podwojonym palcem
i złamanym patykiem, wprowadza się pojęcie widoku, aby służył jako dopełnienie bliższe dla orzeczenia z czasownikiem oznaczającym czynność
percepcyjną. Cały pomysł polega na tym, aby przekonać adresata argumentu, że nie widzi samego przedmiotu, lecz tylko jego widok. Kiedy jednak
się nad całą sprawą zastanowić, nietrudno dostrzec, że w pomyśle widzenia
widoków przedmiotów zamiast samego przedmiotu jest coś wewnętrznie
sprzecznego. Widzieć widok przedmiotu to po prostu widzieć, jak on wygląda. A nie ma takiej możliwości, żeby widzieć jak coś wygląda, nie widząc równocześnie tego czegoś. […] Przypuśćmy, że zadaję komuś pytanie: „Widziałeś jak Sally wyglądała na przyjęciu?” Niewielki miałaby sens
odpowiedź z rodzaju: „Tak, widziałem, jak wyglądała, ale niestety jej samej jakoś nie udało mi się zobaczyć. Widziałem tylko jej widok” 9.
Skoro zakładamy, że przynajmniej od czasu do czasu skutecznie porozumiewamy się z innymi ludźmi, to musimy jednocześnie założyć
istnienie wspólnych, dostępnych każdemu interlokutorowi, obiektywnie
bytujących przedmiotów odniesienia.
8
9
Ibidem, s. 283.
J. R. Searle, Umysł. Krótkie wprowadzenie, Rebis, Poznań 2010, s. 269.
71
Podobnie jak Searle, fenomenologowie również podkreślają bezpośrednią i niezapośredniczoną naturę percepcji. „Bezpośredniość percepcji oznacza, że między postrzegającym a tym, co postrzegane, nie ma
żadnego członu pośredniego (obrazu lub reprezentacji)”10. W przeciwieństwie do stanowiska reprezentacjonistycznego, aby zrozumieć
i wyjaśnić procesy percepcyjne, nie musimy odwoływać się do pośredniczącego między umysłem a światem interfejsu. „Jeśli reprezentacja
ma służyć jako reprezentacja, to musimy ostatecznie przyjąć jakiś rodzaj percepcji, która nie opiera się na reprezentacji”11. Bez tego bezpośredniego kontaktu nikt nie mógłby mieć pewności, że reprezentacje
dotyczą niezależnych wobec podmiotu przedmiotów zewnętrznych.
Ucieleśnione poznanie
Fenomenologia, zwłaszcza w wydaniu Merleau-Ponty’ego stanowi
niewątpliwie jedno z głównych źródeł inspiracji dla przedstawicieli
nurtu poznania ucieleśnionego i dobry przykład owocnej współpracy
filozofii z kognitywistyką. W Fenomenologii percepcji francuski myśliciel pisał:
Ciało własne jest źródłem wszystkich innych przestrzeni, samym ruchem
ekspresji, tym co rzutuje znaczenia na zewnątrz, udzielając im miejsca, tym
co sprawia, że zaczynają one istnieć jak rzeczy, pod naszymi rękami, przed
naszymi oczami. […] Ciało jest naszym ogólnym sposobem posiadania
świata12.
Już u Husserla pojawiło się istotne rozróżnienie ciała na materialny
obiekt, bryłę, posiadającą własności, takie jak kształt, rozmiar, kolor,
położenie (Körper). Z kolei wrażenia zmysłowe konstytuują „moje
ciało”, które jest swoistym polem wrażeń, żywym ciałem (Leib). Leib
nie jest statycznym przedmiotem, a dynamicznym „samoprzejawianiem się” ciała. Jest jednością, której doświadczamy podczas
percypowania, działania i poruszania się.
Dla Merleau-Ponty’ego, który rozwijał własną koncepcję cielesności, źródłowe doświadczanie świata, to doświadczenie ciała działającego w świecie. Podkreśla on „w duchu filozofii fenomenologicznej, że
proces zachowania lub rozumienia, jaki wyłania się z interakcji między
S. Gallagher, D. Zahavi, Fenomenologiczny umysł, PWN, Warszawa 2010,
s. 132.
11
Ibidem, s. 134.
12
M. Merleau-Ponty, Fenomenologia percepcji, przeł. M. Kowalska i J. Migasiński, Aletheia, Warszawa 2001, s. 166.
10
72
ucieleśnionym bytem a otoczeniem, jest w istocie procesem konstytucji
sensu, a ciało jest narzędziem tego rozumienia”13. Do jednego z najważniejszych, używanych przez filozofa pojęć, należy zaliczyć pojęcie
schematu ciała, (schéma corporel), które w Fenomenologii percepcji,
zyskuje dwa znaczenia. Z jednej strony oznacza ono „streszczenie naszego cielesnego doświadczenia, które może wyjaśniać i nadawać znaczenie percepcji wewnętrznej oraz percepcji samego siebie w danej
chwili”14. Wersja ta dotyczy postrzegania pozycji własnego ciała i wyrażać ma „przestrzenną i czasową jedność ciała, jego jedność międzyzmysłową lub sensomotoryczną”15, określającą „mój” aktualny stan w
świecie. Druga definicja schematu ciała dotyczy jego dynamicznego
charakteru. „Psychologowie mówią często, że schemat cielesny jest
dynamiczny. Ściśle rzecz biorąc, termin ten znaczy, że moje ciało jawi
mi się jako postawa funkcjonalnie odniesiona do pewnego aktualnego
bądź możliwego działania”16. Percepcja i motoryczność ciała są zatem
nierozerwalnie związane; każda zmiana położenia ciała wpływa na
postrzeganie, i odwrotnie, postrzeganie wpływa na zmianę pozycji ciała. „Dla Merleau-Ponty’ego motoryczność jest pierwotną intencjonalnością, która w kontekście aktualnego bądź zamierzonego zadania,
kieruje ku konkretnym rzeczom w otoczeniu”17. Źródłowa forma świadomości „Ja myślę” zastąpiona zostaje ucieleśnionym „Ja mogę”. Ciało
jest zakorzenione w środowisku działania i, co warto podkreślić, wytwarza coraz bardziej wysublimowane narzędzia, których systematyczne użytkowanie wpływa na rekonfiguracje schematu ciała. Narzędzia
stają się zatem przedłużeniami nas samych.
Paradygmat poznania ucieleśnionego kształtował się również
w oparciu o ekologiczną teorię percepcji Jamesa J. Gibsona. Znaczącym wkładem jest jego teoria afordancji, czyli sposobności do działania, które odsłaniają się podmiotowi percypującemu w relacji do spostrzeganych obiektów. Są to własności relacyjne, które konstytuują się
dzięki sprzężeniu fizycznych własności przedmiotów z jednej strony,
z drugiej zaś dzięki fizycznej strukturze ciał i ich zdolności sensomotorycznych. Percypujący podmiot rozpoznaje afordancje dzięki wskazówkom percepcyjnym pochodzącym ze środowiska oraz niezmienni13
M. Pokropski, Cielesna geneza czasu i przestrzeni, Wydawnictwo IFiS
PAN, Warszawa 2013, s. 42-43.
14
M. Merleau-Ponty, op. cit., s. 117.
15
Ibidem, s. 118.
16
Ibidem, s. 119.
17
M. Pokropski, Ciało. Od fenomenologii do kognitywistyki, „Przegląd filozoficzno-literacki” 2011, nr 4, s. 124.
73
kom (invariants), które są zawarte w informacjach napływających
z otoczenia18.
Koncepcje Merleau-Ponty’ego i Gibsona są ważnymi ogniwami
w procesie narodzin paradygmatu poznania ucieleśnionego. Z racji jego
niejednorodności niezbędna będzie krótka klasyfikacja, wskazująca na
różnice między przedstawicielami analizowanego paradygmatu. Shaun
Gallagher w artykule Interpretations of Embodied Cognition rozróżnia
pięć podstawowych stanowisk, klasyfikowanych pod kątem wpływu,
jaki ciało wywiera na procesy poznawcze: minimalne ucieleśnienie
(A. Goldman, F. de Vignemont), ucieleśnienie biologiczne (L. Shapiro), ucieleśniona semantyka (G. Lakoff, M. Johnson), ucieleśniony
funkcjonalizm (A. Clark, D. Chalmers) oraz radykalne ucieleśnienie
(F. Varela, A. Noë, E. Thompson, S. Gallagher) 19.
Przykładowo, kiedy widzę, że jest ulewa za oknem, słyszę dźwięki spadających kropli, to jeśli wychodząc na zewnątrz, nie zabiorę z sobą parasola,
zmoknę. Jeśli jest na zewnątrz ulewa, niezmienne jest to, że jeśli nie osłonię
się przed wodą, to moje odzienie będzie mokre. Parasol niezmiennie służyć
może mi do osłony przed deszczem, kiedy go odszukam, dostrzegam w nim
sposobność do działania i rozszerzenia swego ciała o własności tego narzędzia.
Pomijam przypadki zepsucia przedmiotu. Inną kwestią jest swoista relatywność afordancji, jej ścisła relacyjność w stosunku do konkretnego perceptora,
jego ciała i motoryki. Parasol dla mrówki, geparda czy nietoperza nie będzie
zbyt użytecznym narzędziem. Podobnie sprawa wygląda w przypadku wynalazków takich jak komputery czy ufundowana na ich bazie rzeczywistość wirtualna.
19
S. Gallagher, Interpretations of Embodied Cognition, w: The Implications of
Embodiement: Cognition and Communication, red. W. Tschacher, C. Bergomi,
Exeter: Imprint Academic 2010. Stanowisko minimalnego ucieleśnienia zakłada, że ciało jest istotne w procesach poznawczych, ale należy je rozpatrywać
w oderwaniu od środowiska i relacji ze światem zewnętrznym. Ucieleśnienie
biologiczne podkreśla rolę budowy organizmów i ich motoryki w procesach
poznawczych, zwłaszcza percepcji. Ucieleśniona semantyka rozwija teorię
wpływu ciała na tworzenie się struktur semantycznych. Szczególnym mechanizmem łączącym ucieleśnione doświadczenie i konceptualizację myśli jest
metafora. Ucieleśniony funkcjonalizm zakłada, iż ciało jest częścią rozszerzonego systemu poznawczego, który składa się z mózgu, ciała i środowiska.
Procesy poznawcze mogą być też z powodzeniem wzmacniane w oparciu
o przekształcenia środowiska zewnętrznego, narzędzia, np. smartfon, dysk
pamięci zewnętrznej itp. Ostatnim kierunkiem wyróżnionym przez Gallaghera
jest radykalne ucieleśnienie lub inaczej enaktywizm, według którego percepcja
jest działaniem, a sensomotoryczna aktywność ciała odpowiada za kształtowanie się większości procesów poznawczych. Enaktywiści twierdzą, że poznanie
odbywa się nie tylko „w głowie”, ale rozszerzone jest na ciało i środowisko
18
74
Innego podziału dokonuje Margaret Wilson. W artykule Six views of
embodied cognition rozróżnia kilka istotnych twierdzeń tego nurtu:
a) poznanie jest usytuowane, b) poznanie musi być rozumiane jako
dziejąca się w czasie rzeczywistym interakcja ze środowiskiem (poznanie on-line), c) środowisko jako magazyn potrzebnej informacji,
d) środowisko jako część systemu poznawczego, e) poznanie określone
jest przez działanie w środowisku, f) poznanie nie będące interakcją
ciała ze środowiskiem (off-line) nadal opiera się na ciele20.
Percepcja a cyfrowy świat
Korzystając z wymienionych wskazówek, dokonam analizy percepcji w środowiskach cyfrowych, środowiskach niezwykle dynamicznych, zmiennych, rozwijających się w ekspresowym tempie21. Podstawową kategorią w percepcji cyfrowego świata nadal winno być ciało
wraz z sensomotorycznymi zdolnościami, znajdującymi odbicie w coraz nowocześniejszych, angażujących ruch interfejsach komunikacji ze
środowiskami cyfrowymi. Przyjmując za przedstawicielami nurtu ucieleśnionego poznania, że również środowisko jest istotną częścią składową systemu poznawczego, należy zwrócić szczególną uwagę na
przekształcenia, jakich dokonał człowiek w swoim otoczeniu, wpływając na oblicze przestrzeni swego działania. To, co niegdyś kosztowało
posłańca mnóstwo wysiłku i wiązało się długą i niebezpieczną podróżą,
zewnętrzne (podobnie jak w ucieleśnionym funkcjonalizmie, z tą różnicą, że
enaktywiści odrzucają pojęcie reprezentacji umysłowej; w jakim celu tworzyć
wymagającą wewnętrzną reprezentację, skoro w łatwy sposób można pozyskać
informację ze środowiska).
20
M. Wilson, Six views of embodied cognition, „Psychonomic Bulletin and
Review” 2002, nr 9, s. 625-635.
21
Aby dobitnie udokumentować wzrost znaczenia środowisk cyfrowych najlepiej
posłużyć się konkretnymi statystykami. Szacuje się, że globalny roczny transfer
danych internetowych w 2016 roku przekroczył granicę 1 zetabajta, czyli miliarda
terabajtów (1ZB=1000EB=1000000PB=1000000000TB). Globalny miesięczny
transfer danych w 2015 roku wyniósł 72521 PB, dla porównania w 2000 roku
wynosił 84 PB, w 2008 – 10174 PB. Każdego roku, bez wyjątku, notuje się znaczny wzrost ilości przesyłanych danych. Transfer danych rzeczywistości wirtualnej
wzrósł czterokrotnie w ciągu roku (w 2014 roku wyniósł 4,2 PB, natomiast w 2015
już 17,9 PB). Więcej statystyk można znaleźć pod adresem, zob.
http://www.cisco.com/c/en/us/solutions/collateral/service-provider/visualnetworking-index-vni/vni-hyperconnectivity-wp.html (data dostępu: 13.01.2017),
http://www.cisco.com/c/en/us/solutions/collateral/service-provider/visualnetworking-index-vni/complete-white-paper-c11-481360.pdf
(data
dostępu:
13.01.2017)
75
dziś staje się, krótkim błyskiem, dziecinnie prostą czynnością umożliwioną miliardom ludzi na całym świecie. Geograficzne bariery zostały
tym samym zniesione, Internet stał się przepustką do globalnej wymiany informacji przez całą dobę. Narzędzie w rękach swego twórcy
uczestniczy w kreowaniu kolejnych narzędzi i ów proces zdaje się nie
mieć końca. Jak to ujął Marshall McLuhan: „kształtujemy narzędzia,
a potem one kształtują nas”22. Popularny przykład młotka i gwoździa
traci powoli swój prymat na rzecz komputera, oprogramowania i dostępu do sieci. Specyfika komputera leży w niewyobrażalnie rozległej
sieci jego możliwych zastosowań; raczej mało kto ogranicza zastosowanie tego urządzenia do gry w pasjansa czy korzystania z arkusza
kalkulacyjnego. Powstaje wiele narzędzi wirtualnych, z których korzystamy podobnie jak z ich fizycznych odpowiedników. Dzięki temu
bogactwu rozszerzeń, potęgujemy swoje możliwości i znosimy nasze
fizyczne ograniczenia na skalę dotąd niespotykaną. Komputer, wraz ze
stosownym oprogramowaniem, otwiera jakby bramy do nowego, elektronicznego świata, jest kluczem do rozszerzającego nieustannie swe
granice świata wirtualnego. Nasze ciało stanowi zaś nieodłączny element tego sprzężenia, jest immanentnym składnikiem systemu poznawczego, gdyż steruje niezbędnym interfejsem w celu wykonania określonego zadania i odbiera informacje zwrotne. Jak pisze David Kirsh:
„dzięki teorii poznania ucieleśnionego możemy w nowy sposób myśleć
o ciałach, umyśle oraz technologii. […] Zapowiedzią zbliżających się
zmian jest ucieleśniona koncepcja narzędzia”23. Narzędzie, z którym
człowiek sprzęga się na poziomie poznawczym, wyraźnie wpływa na
jego percepcję, procesy myślowe i wyobrażeniowe. Użytkowanie
przedmiotu zmienia poczucie granic ciała oraz kształtuje środowisko
enaktywne (enactive landscape).
Trzymając w ręce narzędzie, selektywnie postrzegamy te elementy otoczenia, które są istotne z uwagi na to narzędzie; akceptujemy zależne od narzędzia afordancje środowiskowe, zwiększamy nasze możliwości w zakresie eksploracji środowiska i wypróbowywania różnych jego elementów 24.
22
M. McLuhan, Zrozumieć media. Przedłużenia człowieka, WNT, przeł. N. Szczucka,
Warszawa 2004, s. 17.
23
D. Kirsh, Poznanie ucieleśnione i magiczna przyszłość projektowania interakcji,
„Avant” 2013, nr.2, s. 282.
24
Ibidem, s. 284-285.
76
Narzędzie wpływa na przestrzeń peripersonalną25 percypującego
podmiotu, jednocześnie kształtując pojęcia i przekonania, które w teorii
ucieleśnienia zakorzenione są w doświadczeniu sensomotorycznym. Za
sprawą użycia narzędzi nasze doświadczenie wyraźnie się zmienia26.
Im bardziej zaangażowani jesteśmy w zapośredniczone przez narzędzia
działania, tym wyraźniej nasze pojmowanie świata uzależnione jest od
sposobu, w jaki się tymi narzędziami posługujemy. Im większą paletę
działań udało się nam opanować, tym bogatszy wachlarz afordancji
jesteśmy w stanie odebrać. W środowiskach cyfrowych ta zależność
jest równie łatwo dostrzegalna.
Narzędzia wyraźnie wpływają na przestrzeń peripersonalną,
w wyniku ich użytkowania schemat ciała ulega modyfikacji, „wchłaniamy narzędzie i włączamy je do naszego poruszającego się ciała”27.
Kirsh zwraca przy tym uwagę na niezwykle istotną kwestię. Do jakiego
stopnia zjawiska teleobecności i zdalnej immersji wpłyną na ludzkie
poczucie granic własnego ciała i poczucie bezpośredniej interakcji ze
środowiskiem? „Dzięki odpowiedniemu podłączeniu sensomotorycznemu człowiek – pomimo dzielącej go odległości – czuje
jakby miał styczność z namacalnym, trwałym <<środowiskiem enak„Przestrzeń peripersonalna to trójwymiarowa przestrzeń rozciągająca się
wokół agenta na odległość zasięgu jego rąk i nóg”, przestrzeń będąca w jego
bezpośrednim i natychmiastowym zasięgu, Ibidem, s. 285.
26
Przypuśćmy, że celem agenta jest zakup lodówki. Stoi on przed sporą ilością
wyborów. Może podążyć do sklepu o własnych nogach, może również wybrać
się na rowerową czy samochodową przejażdżkę (dwie pierwsze opcje należy
odrzucić ze względu na ciężar przedmiotu). Internet otwiera przed nim kolejną
możliwość – zostanę w domu, usiądę w fotelu i zamówię urządzenie za pośrednictwem sieci, a lodówkę dostarczy mi ktoś inny. Co ciekawe, Internet
rozwija przed nami ogromną sieć afordancji, nagle w ułamku sekundy przed
oczami ukazują się nam tysiące możliwych do zakupienia urządzeń. Każde
z opisanych doświadczeń będzie znacznie różniło się od siebie, a nasze sensomotoryczne zdolności wykorzystamy w inny sposób. Środowisko enaktywne
ulegnie przeobrażeniom, w zależności od użytkowanego narzędzia. Piesza
wędrówka, jazda rowerem, samochodem, korzystanie ze zdalnego robota
z zestawem kamer czy przejażdżka wirtualnym pojazdem są różnymi doświadczeniami, wymagającymi odmiennego instrumentarium pojęciowego.
27
Ibidem, s. 292. Potwierdzają to badania naukowców nad makakami japońskimi, które wyposażono w grabie. Przez trzy tygodnie zezwalano zwierzętom
na korzystanie z narzędzi w celu zgrabiania porcji pożywienia znajdujących
się poza ich zasięgiem. W następstwie eksperymentu zmienił się wzorzec
pracy neuronów odpowiedzialnych za pracę dłoni i rąk, grabki włączone zostały w schemat ciała, stały się przedłużeniem kończyn.
25
77
tywnym>>, w którym może działać, poruszać się i komunikować tak
jakby był tam fizycznie obecny”28. Nasuwa się w tym miejscu pewna
istotna myśl. Za sprawą urządzeń umożliwiających teleobecność i zdalną immersję możemy oddziaływać na przedmioty odległe, w normalnych warunkach niedostępne. Nie może być tu jednak mowy o całkiem
bezpośrednim kontakcie z przedmiotem, pozostaje wyraźne poczucie
bliskości, lecz jest to tylko, lub aż, poczucie wspomagane ograniczoną
interakcją. Husserl, mając na uwadze, że percepcja jest czymś pierwotnym, podstawowym, rozróżnił trzy sposoby odnoszenia się do przedmiotów: sygnitywny, imaginacyjny (obrazowy) oraz percepcyjny29.
Obecnie, należałoby uzupełnić podział o odniesienie telepercepcyjne,
gdyż rodzaj zapośredniczonej cyfrowo relacji do przedmiotów różni się
znacząco od odniesienia imaginacyjnego i percepcyjnego. Kontakt
telepercepcyjny z przedmiotem winno się osadzić pomiędzy imaginacyjnym a percepcyjnym – teleobecność i związana z nią interakcja to
więcej niż relacja obrazowa mniej zaś niż źródłowe odniesienie percepcyjne30.
Wirtuale, elementy rzeczywistości wirtualnej
Współcześnie z powodzeniem operować można złożonymi urządzeniami, znajdującymi szereg zastosowań w nauce, medycynie czy działaniach wojennych. Pojazdy kosmiczne, podwodne, drony wywiadowcze, kamery przekazujące obrazy na żywo to tylko nieliczne przykłady
całego arsenału urządzeń wykorzystywanych obecnie w eksploracji
świata fizycznego. Do tego dodać należy oprzyrządowanie umożliwiające działania w środowiskach czysto wirtualnych, takich jak gry komputerowe. Tak wysoce zróżnicowane cyfrowe środowiska enaktywne
28
Ibidem, s. 293.
Sygnitywny to akt językowy; występuje na przykład, kiedy mówię o przedmiocie, którego nigdy nie widziałem, ale o nim słyszałem. Oczywiste jest, że
taki przedmiot nie prezentuje się mi w sposób pełny. Imaginacyjne (obrazowe)
mają pewną naoczną treść, ale nadal odnoszą się do przedmiotu zaledwie pośrednio. Z imaginacyjnym (obrazowym) mam przykładowo do czynienia,
kiedy oglądam szczegółową fotografię danego przedmiotu. Percepcyjny, zdaniem Husserla, to rodzaj intencjonalnego odniesienia, które jako jedyne prezentuje przedmiot bezpośrednio, w jego obecności cielesnej (leibhaftig). Percepcja nie przedstawia obrazów, wizerunków, widoków rzeczy, a same rzeczy.
30
Zob. S. Gallagher, D. Zahavi, op. cit., s. 130-131. Choć należy jednocześnie
dodać, że dzięki zdalnym urządzeniom możemy badać środowiska dotąd niemożliwe do zbadania, ze względu na ograniczenia ludzkiego ciała. Urządzenia
te w pewnym sensie nas odcinają (od relacji źródłowej), z drugiej jednak strony znacznie rozszerzają zasięg naszych mocy poznawczych.
29
78
wymagają klasyfikacji; należy wyraźnie rozróżnić zjawiska jednakowo
lokowane pod szyldem rzeczywistości wirtualnej. „Współcześnie termin <<rzeczywistość wirtualna>> jest używany zwykle w jednym
z dwóch znaczeń. Po pierwsze – w szerokim znaczeniu – na określenie
wszelkich interaktywnych środowisk cyfrowych generowanych komputerowo i po drugie – w znaczeniu węższym – na określenie systemów
umożliwiających zanurzenie zmysłowe”31. Definicja ta, mimo że klarowna, wymaga dalszej specyfikacji, gdyż rzeczywistość wirtualna to
fenomen kształtujący się dynamicznie i zdecydowanie bardziej złożony. Na użytek klasyfikacji wezmę przykład z często występującego
w fachowej literaturze anglojęzycznej terminu realm32. Pojęciem, które
pozwoli lepiej orientować się w skomplikowanych zależnościach cyfrowego świata będzie wirtual. Wirtual rozumiany będzie jako konkretna, określona stosownym kodem źródłowym sfera wirtualna, np. posiadająca swój unikalny adres strona internetowa, gra komputerowa etc.
Wirtuale, czyli konkretne elementy rzeczywistości wirtualnej w szerokim znaczeniu, można sklasyfikować jako:
a) wirtual A – system silnych związków ze światem fizycznym; tego
rodzaju wirtualna przestrzeń ma u swej podstawy ścisły związek z realnością (serwisy informacyjne, transmisje internetowe, obrazy cyfrowe
na żywo z kamer rozmieszczonych w różnych zakątkach Ziemi, telekonferencje, cyfrowe reprezentacje umożliwiające obserwację realnego
obiektu, transfer danych i zdalne działania przy pomocy odległych
urządzeń, telerobotów, jak łazik Curiocity na Marsie czy sonda New
Horizons). Wygenerowany komputerowo cyfrowy obiekt odsyła
podmiot percypujący do świata fizycznego.
b) wirtual B – system symulacji i substytucji; zastąpienie realności
wirtualnością (większość gier komputerowych, niektóre dzieła sztuki
interaktywnej). Wygenerowany komputerowo cyfrowy obiekt odsyła
podmiot percypujący do świata wirtualnego.
c) wirtual C – system akumulacji, tzw. rzeczywistość rozszerzona
(augmented reality); reprezentacje cyfrowe stanowią rozszerzenie świata fizycznego. Wygenerowany komputerowo cyfrowy obiekt odsyła
podmiot percypujący ku korelatowi świata fizycznego i wirtualnego. Przykładowo: system HoloLens i platforma Windows Holographic,
J. Gurczyński, C:\> Czym jest wirtualność. Matrix jako model rzeczywistości wirtualnej_, Wydawnictwo UMCS, Lublin 2013, s. 116.
32
Termin ten oznacza pewną szczególną, unikalną sferę, dziedzinę, pole,
w
której
coś
występuje,
przeważa
lub
dominuje,
zob.
http://www.dictionary.com/browse/realm (data dostępu: 13.01.2017)
31
79
system GPS, nawigacja samochodowa, technologia Google Glass, popularna obecnie gra Pokemon GO, etc.
Kwestia prawdziwości przekonań
Złożoność środowisk rzeczywistości wirtualnej, wiąże się m.in.
z różnymi funkcjonalnościami: wirtuale A będą znajdowały zastosowanie przede wszystkim w nauce, wirtuale B z kolei, w rozrywce. To
wszak zrozumiałe, że nikt nie powinien ogłaszać wyników swoich odkryć pod hasłem „naukowe”, bazując na spostrzeżeniach w obrębie
uprzednio zaprogramowanego, zalgorytmizowanego, interaktywnego
środowiska gry komputerowej33. Stąd też istotną kwestią jest problematyka prawdziwości przekonań, w kontekście działań w obrębie poszczególnych wirtuali. Obecnie, gatunek ludzki na tyle daleko zawędrował w głąb nowego elektronicznego świata, że pytania o istotę
prawdy i jej warunki stają się nieodzowne, a odpowiedź na nie coraz
istotniejsza. Nie ma wątpliwości, że komputery, modemy, rutery, interfejsy sterujące i ufundowana na nich rzeczywistość wirtualna rozszerzają nasze środowisko enaktywne o interaktywne środowiska cyfrowe.
Znajduje to oddźwięk w aparaturze, coraz silniej angażującej motorykę
naszych ciał. Coraz bardziej wnikamy w wirtualny świat. Zdaniem
Alvy Noëgo:
Teza o światowym [world-involving] charakterze doświadczenia jest spotkaniem z rzeczami i sytuacjami – nie jest zgodna z żadnym starym metafizycznym lub z empirycznym obrazem percepcji i jej natury. Przedstawiając
doświadczenie percepcyjne jako rodzaj zaangażowania lub uwikłania w sytuacje i rzeczy, fenomenologia stwierdza, że bez rzeczy i sytuacji doświadczenie w ogóle nie byłoby możliwe. Fenomenologia ujawnia więc, że postrzeganie jest stanem, którego natura zależy w sposób istotny od obecności świata oraz zaangażowania. Gdyby nie było przedmiotu lub sytuacji,
nie byłoby żadnego kontaktu i zaangażowania, co oznacza, że doświadczenie percepcyjne nie mogłoby istnieć 34.
Pozwolę sobie na podanie przykładu: „Gram w grę s-f. Podróżuję w niej po
planecie X i dostrzegłem tam zwierzęta, których nijak nie mogę odnaleźć
w żadnym naukowym czasopiśmie czy encyklopedii. Nazwę je Y, opiszę
i opublikuję wyniki mojej obserwacji”. W obrębie wirtuali B zdarzają się jednak pewne wyjątki, np. badania estetyczne dotyczące dzieł należących do
nurtu sztuki interaktywnej, które z samego założenia mają być czymś więcej
niż tylko domeną programisty, twórcy interfejsu.
34
S. Gallagher, D. Zahavi, op. cit., s. 136.
33
80
Narodziny nowego wirtualnego świata sprawiają, że wachlarz możliwych uwikłań w sytuacje i rzeczy wzrasta niepomiernie. Jak zatem
odnieść się do prawdziwości przekonań w rzeczywistości wirtualnej?
Czy wszystko to jest jedną wielką ułudą? Sceptyczne stanowisko wobec możliwości formułowania prawdziwych przekonań w oparciu
o zapośredniczone cyfrowo dane formułuje Hubert Dreyfus35. Jego
zdaniem, ludzie opanowani poczuciem „prawie boskiej kontroli” sprowadzają na siebie widmo wiedzy zapośredniczonej, wywiedzionej
z ekranu komputera czy głośników. Czy zatem skazani jesteśmy na
szczelną zasłonę, która uniemożliwia nam wydawanie prawdziwych
i uzasadnionych sądów? Uważam, że nie. Można to wyjaśnić wracając
do telepercepcyjnej relacji z przedmiotem. Nie ma wątpliwości, że relacja ta jest znacznie bogatsza niż odniesienie czysto obrazowe. Fotografia nie jest interaktywna, a w tym właśnie tkwi zasadnicza dystynkcja.
Przedmiot na fotografii widzimy tylko z jednej strony, przedmiot, którego obraz przekazywany jest za pośrednictwem zdalnego pojazdu,
możemy oglądać z wielu stron, manipulować nim, mierzyć, ważyć itd.
W odniesieniu telepercepcyjnym, używamy sensomotoryki własnego
ciała, aby pokierować zdalnym urządzeniem, widzimy konsekwencje
naszych działań na ekranie w czasie rzeczywistym (co stanowi istotny
argument na rzecz prawdziwości naszych poczynań), poza tym, w wielu przypadkach, jest to nasz jedyny sposób na zdobycie informacji
o odległym, niedostępnym obszarze.
Przykładowo, kiedy zakładając gogle VR percypujemy transferowaną na siatkówkę oka, cyfrową reprezentację powierzchni Marsa, mówimy o pewnym wariancie teleobecności. Jest to wyraźnie zubożona
obecność, gdyż otrzymujemy jedynie fragmentaryczny obraz powierzchni planety, zdolności percepcyjne naszych ciał nie otrzymują
pełnej informacji (nie docierają do nas bodźce węchowe, dotykowe,
a wzrokowe i słuchowe są mocno ograniczone, termoreceptory nie
odbierają bodźców z powierzchni odległej planety, a proprioreceptory
utwierdzają nas w przekonaniu, iż nasze ciała nadal znajdują się na
Ziemi). Nie ma, jakby to zapewne ujął Gibson, pełnej palety afordancji,
sposobności do działania, chyba że w okrojonej wersji, za pośrednictwem protezy rozszerzającej zdolności naszego ciała, w tym wypadku
zdalnego robota. Nasze ciało nie jest też przepustką do posiadania wygenerowanego na ekranie świata, jakby zapewne mógł stwierdzić MerZob. H. Dreyfus, Telepistemology: Descartes’s Last Stand, w: K. Goldberg
(ed.), The Robot in the Garden. Telerobotics and Telepistemology in the Age of
the Internet, MIT Press, Cambridge, Massachusetts 2001.
35
81
leau-Ponty. Na domiar złego obraz cyfrowy może łatwo ulec falsyfikacji, czego nie można powiedzieć o bezpośredniej percepcji najbliższego
otoczenia (poza przypadkami halucynacji). Mimo tych wszystkich niedogodności, powinniśmy jednakże mieć prawo do uznania, iż poznajemy coś zgodnego z rzeczywistym stanem rzeczy. Że dzięki percepcji
zapośredniczonej, telepercepcji, uwikłanej w kontakt z cyfrowo przetworzonymi obrazami, pewne nasze przekonania mają solidne uzasadnienie. Dane zdobyte w ten sposób są publikowane w naukowych czasopismach, NASA upublicznia wyniki swych badań itd. Jako dobre
przykłady posłużyć mogą wcześniej wspomniane obrazy Marsa przesyłane z łazika Curiocity lub Plutona, przesłane przez sondę New Horizons. Obrazy te są w tej chwili właściwie jedyną szansą, aby poznać te
odległe obiekty. Nie moglibyśmy pozyskać tych informacji, gdyby
urządzenia takie jak sondy kosmiczne nie były w użyciu. Jako inny
przykład posłużyć może sklep internetowy, który pośredniczy w wymianie realnych towarów oraz konto internetowe, które jest co prawda
cyfrową reprezentacją realnego banku i realnych zasobów pieniężnych,
ale raczej nikt nie stwierdzi: „Zniknęły mi pieniądze na koncie internetowym. Tak po prawdzie, to nie ma się czym martwić, to były tylko
moje wirtualne fundusze”.
W opisanych przypadkach możliwa jest zatem prawda w sensie
mocnokorespondencyjnym, reprezentacje cyfrowe łączy ze światem
realnym silny związek przyczynowo-skutkowy. Jeśli stracę pieniądze
na rachunku wirtualnym, to stracę je również w świecie fizycznym.
Jeśli zamówię produkt na portalu aukcyjnym, to kurier mi go dostarczy.
Jeśli pokieruje zdalnym robotem w odpowiedni sposób, to wykona
przydzielone działanie, zdobędzie potrzebny materiał badawczy, wyniki analizy prześle do bazy itd. Pewne kwestie pozwalają więc ostudzić
nieco nadmierny według mnie sceptycyzm.
Jak dotąd kwestia prawdziwości przekonań rozpatrywana była pod
kątem relacji środowisk cyfrowych ze światem fizycznym, czyli dotyczyła obszaru nazwanego wirtualem A. Co zatem z czystą sferą wirtualną, symulacją i substytucją, wirtualem B? Wirtual B, co ważne, nie
pozostaje w tak silnych relacjach ze światem fizycznym. Ma charakter
przede wszystkim rozrywkowy. Świat przedstawiony w grze komputerowej opiera się na swoich własnych zasadach i ujawnia się nam
w normalnych warunkach, tak jak to było wcześniej zamierzone (zmusza go do tego warstwa kodu źródłowego). Jeśli percypujemy ten rodzaj
interaktywnego środowiska (wirtual B), to percypujemy je w granicach
określonych wcześniej przez programistów. Po pierwsze zatem, percepcji tego typu nie powinno się moim zdaniem uznawać za percepcję
82
nieweredyczną. Nie można jej zestawiać w jednym szeregu z iluzjami,
czy tym bardziej halucynacjami, co czyni w jednym ze swych artykułów Catherine Wilson36. Po drugie, prawdziwość przekonań w tego
typu sferach wirtualnych jest możliwa, powinna jednak być zredukowana do prawdy w modelu, w sensie słabokorespondencyjnym, zgodnie z semantyczną koncepcją prawdy Alfreda Tarskiego37. Jeśli stracę
pieniądze, kierując poczynaniami wirtualnego awatara, to nie stracę
tych pieniędzy w świecie fizycznym. Przedmioty tej sfery bytują wewnątrz tego konkretnego modelu (wirtual B), którego prawa ograniczone są do algorytmów opartych na kodzie źródłowym.
Coraz lepsza jakość grafiki i oprzyrządowania umożliwiającego interaktywne działania, wspólnie wpływają na wzrost popularności tego
typu obszarów działania. Zaprogramować można niewyobrażalnie wiele, zaś świat realny mamy do dyspozycji tylko jeden. To kusząca dla
wielu użytkowników wizja swoistego programowania marzeń, nieokreślonych dotąd, potencjalnych horyzontów aktywności. Producenci gier
komputerowych prześcigają się w sposobach na uatrakcyjnienie rozgrywki, zaś projektanci fizycznych interfejsów próbują uzyskać jak
najwyższy poziom immersji, który skorelowany jest ściśle ze stopniem
zaangażowania ciała w wirtualnym środowisku enaktywym. Można
powiedzieć, że rozwój technologii immersyjnych i teleobecności przebiegał będzie najprawdopodobniej w stronę dwóch pozornie opozycyjnych wobec siebie własności. Bliżej i dalej. Dalej i bliżej. Dalej, gdyż
miłośnicy rzeczywistości wirtualnej zapragną odkrywania nowych,
odległych horyzontów interaktywnych. Bliżej, bo pokusa coraz silniejszego zanurzenia zmysłowego w zaprogramowanej wedle potrzeby
przestrzeni będzie trudna do odparcia.
Wracając do kwestii prawdziwości naszych przekonań opartych na
percepcji cyfrowego świata, warto dodać krótką kategoryzację elementów, które na prawdziwość tychże przekonań mogą wpłynąć. Bazując
na hipotezach: demona Kartezjusza i Laplace’a, dokonam ich rekonfiguracji i przeniosę zamysł uczonych na grunt relacji podmiotu poznaw-
36
C. Wilson, Vicariousness and Authenticity, w: K. Goldberg (ed.), The Robot
in the Garden. Telerobotics and Telepistemology in the Age of the Internet,
MIT Press, Cambridge, Massachusetts 2001, s. 78-79.
37
Korzystam przy tym z intuicji Józefa Dębowskiego, zob. J. Dębowski, O
klasycznej koncepcji prawdy i jej filozoficznych podstawach. Czy w Matrixie
możliwa jest prawda?, w: Oblicza prawdy w filozofii, kulturze, języku, red. A.
Kiklewicz, E. Starzyńska-Kościuszko, Wydawnictwo UWM, Olsztyn 2014, s.
31-32.
83
czego ze światem cyfrowym. Czynnikami, które wyraźnie mogą wpływać na wynik rezultatów poznawczych są moim zdaniem:
a) posiadacz danych – w skrajnym przypadku ktoś kto zgromadzi
wszystkie możliwe dane cyfrowe (stąd analogia do demona Laplace’a),
ktoś kto, wykorzystując odpowiednie narzędzia (serwery, dyski pamięci, cookies) masowo magazynuje dane, w celu ich późniejszego wykorzystania, np. przewidywania poczynań internautów, wpływania na ich
dalsze wybory itp.,
b) złośliwy haker – specjalista potrafiący przekształcać środowiska
cyfrowe za sprawą modyfikacji kodu źródłowego, w wyniku czego do
sieci trafia złośliwe oprogramowanie; następstwami jego działań mogą
być zakłócenia w poprawnym funkcjonowaniu sieci, kradzież danych
itp. (analogia do demona Kartezjusza),
c) złośliwy internauta – popularne określenie – troll, każdy kto modyfikuje dany wirtual na poziomie gotowej, graficznej reprezentacji
(nie musi być to ani złośliwy demon, ani złośliwy naukowiec, czy nawet złośliwy haker, może to być każdy, kto choć w podstawowym
stopniu opanował obsługę komputera i systemu operacyjnego); skutkiem jego działań są celowo zafałszowane dane, próby obrażania
i ośmieszania innych użytkowników sieci,
d) autorytet – instytucja i jej logo, którym firmuje się dane publikowane w sieci, w tym szata graficzna, unikalny adres internetowy. Te
elementy sprawiają, iż dany wirtual odznacza się większą bądź mniejszą wiarygodnością,
e) ochrona – informatycy mający na celu ochronę danych, zapobieganie ich kradzieży i nielegalnej modyfikacji (opozycja wobec złośliwego hakera) oraz oprogramowanie chroniące przez złośliwym oprogramowaniem38.
38
W tekście celowo pomijam zjawiska cyborgizacji, transhumanizmu i nanotechnologii, które z racji swojej złożoności wymagałyby opracowania osobnego artykułu. Nie mam jednak wątpliwości, że wymienione dziedziny silnie
wpłyną na dalsze badania nad percepcją i resztą procesów poznawczych.
Wzmacnianie możliwości sensomotorycznych w oparciu o różnego rodzaju
protezy czy implanty, może być kolejnym przyczynkiem do spotęgowania
skali immersji i teleobecności oraz bodźcem do tworzenia nowych, niespotykanych dotąd środowisk enaktywnych. Zainteresowanych powyższą problematyką odsyłam do wyczerpujących monografii., zob. M. Klichowski, Narodziny
cyborgizacji, Wydawnictwo UAM, Poznań 2014, S. Myoo, Ontoelektronika,
Wydawnictwo UJ, Kraków 2013.
84
Podsumowanie
Prymat technologii cyfrowych widać dziś gołym okiem. Za pośrednictwem interaktywnych środowisk cyfrowych rozwijamy programy
badawcze, dokonujemy odkryć naukowych, usprawniamy ich zastosowania w medycynie, biznesie i edukacji, komunikujemy się ze sobą,
robimy zakupy i zapewniamy sobie rozrywkę. Świat cyfrowy oplata
nas niczym sieć hiperłączy, zależności, afordancji, sieć, do której
z każdym dniem przywykamy coraz bardziej. Idea zestawu komputerowego (hardware), oprogramowania (software) i Internetu, które
wspólnie niczym magiczny portal przenoszą nas „w oka mgnieniu”
między różnymi światami, jest jednocześnie szczytna i niebezpieczna.
Na horyzoncie dostrzec można coraz silniej zaznaczające się widma
manipulacji cyfrowymi danymi, masowej inwigilacji, oszustw, kradzieży poufnych informacji czy uzależnień. Na końcu łańcucha gróźb niczym miecz Damoklesa wisi nad ludźmi możliwość wybuchu globalnej
cyberwojny i powszechnego cyberterroryzmu. W sytuacji, kiedy całe
społeczeństwa są tak mocno wplątane w proces nieustannego transferu
danych cyfrowych, ryzyko jakiegokolwiek konfliktu na tym polu, rodzi
szereg poważnych obaw. „Na wzór ezopowego języka, internet jest
zarazem czymś najgorszym i najlepszym. Postępem niemal nieograniczonej komunikacji i katastrofą, dzisiejszym, a może jutrzejszym spotkaniem żeglującego po wirtualnej przestrzeni Titanica z górą lodową”39. Pasażerowie tego dryfującego okrętu, w możliwie jak największym stopniu winni zachować czujność, przeciwdziałać zagrożeniom
i jednocześnie mieć nadzieję, że nie ziści się ten wyjątkowo czarny
scenariusz, kreślony piórem (a być może klawiaturą) francuskiego
postmodernisty.
39
P. Virillio, Bomba informacyjna, tłum. S. Królak, Sic!, Warszawa 2006, s.
101.
Grzegorz Pacewicz
Uniwersytet Warmińsko–Mazurski
w Olsztynie
SPEECDCUBING A FILOZOFIA
1. Historia kostki Rubika
Kostka Rubika, nazwana tak od nazwiska twórcy, Erno Rubika, została wynaleziona jako zabawka o charakterze pedagogicznym. Rubik
był profesorem architektury i poszukiwał czegoś, co ułatwi studentom
zrozumienie natury przestrzeni. Prace nad wynalazkiem doprowadziły
do stworzenia kostki, która w roku 1975 została opatentowana pod
nazwą „Magiczna Kostka”. Do popularyzacji układanki doszło kilka lat
później. W roku 1977 rozpoczęto produkcję kostki. Jej popularność
szybko rosła – w ciągu 2 pierwszych lat sprzedano 300 tysięcy sztuk
układanki. Rok później, węgierski profesor matematyki, Tomas Varga,
zaprezentował kostkę na międzynarodowym kongresie matematyków
w Helsinkach. Kilka sztuk podarował kolegom, a jakiś czas potem
otrzymał prośbę o przesłanie ich większej ilości, wraz z instrukcją jej
układania. Okazało się bowiem, że ma ona ciekawe własności matematyczne1. W 1980 kostka została przedstawiona na targach producentów
zabawek, gdzie otrzymała tytuł zabawki roku2. To właśnie w roku 1980
rozpoczął się swego rodzaju boom na kostkę, do czego przyczynił się
pokaz ludzi układających ją w porannym programie telewizji BBC3.
Popularność kostki Rubika utrzymała się bardzo krótko. W roku
1982 zorganizowano po raz pierwszy mistrzostwa świata, które wygrał
Amerykanin Minh Thai4. Zawody rozgrywane były według zasad, które
nie były zbyt precyzyjne. Zdaniem Jessicy Fridrich – twórczyni najpopularniejszej metody układania – niektóre z nich wręcz wypaczyły ostateczny wynik, np. zawodnicy nie układali na własnych, przygotowanych przez nich kostkach, tylko na kostkach dostarczonych przez organizatorów5. Wbrew oczekiwaniom wielu fanów kostki nie zorganizowano kolejnych mistrzostw w następnym roku. Począwszy od roku
http://kostkarubika.net/3x3x3/historia.html (dostęp 30.06.2016)
https://en.wikipedia.org/wiki/Spiel_des_Jahres (dostęp 30.06.2016)
3
http://kostkarubika.net/3x3x3/historia.html (dostęp 30.06.2016)
4
Minh Thai wygrał pojedynczym ułożeniem 22.95.
https://en.wikipedia.org/wiki/Speedcubing (dostęp 30.06.2016)
5
http://www.ws.binghamton.edu/fridrich/cubewrld.html (dostęp 30.06.2016)
1
2
86
1983 popularność układanki zaczęła się wyraźnie zmniejszać, aż całkowicie opadła.
Prawdopodobnie zainteresowanie kostką nie odżyłoby, gdyby nie
Internet. Pod koniec lat dziewięćdziesiątych użytkownicy sieci z całego
świata za pośrednictwem różnych portali, zaczęli wymieniać się informacjami i doświadczeniami związanymi z kostką. Zaowocowało to
organizacją drugich Mistrzostw Świata w układaniu kostki Rubika
w roku 2003 i powstaniem w roku 2004 World Cube Association
(WCA). Od tej pory speedsolving i speedcubing miały się coraz lepiej.
Nazwy speedsolving i speedcubing posiadają odmienne znaczenia.
Speedsolving oznacza szybkie układanie (w odróżnieniu od wolnego)
wszelkich układanek. Speedcubing oznacza całą dziedzinę aktywności
z tym związaną. Speedcuber to ten, kto układa kostkę Rubika oraz inne
układanki. Rodzajów kostek jest wiele. Na oficjalnych zawodach organizowanych według zasad WCA można rywalizować w 18 konkurencjach, w ramach których układa się 11 typów układanek (trzy z nich nie
mają nawet kształtu sześcianu). Warto zaznaczyć, że niemiecki wynalazca Uwe Mèffert jedną z układanek wymyślił znacznie wcześniej niż
Erno Rubik swoją kostkę. W latach późniejszych Mèffert oraz brytyjski
wynalazca Tony Fisher wymyślili ponad 200 różnych typów układanek,
bazujących na odmiennych mechanizmach. Obecnie liczba modyfikacji
wyjściowej kostki Rubika jest trudna do oszacowania.
2. Właściwości matematyczne
Od czasu wynalezienie kostki Rubika zarówno kształt kostki, jak
i liczbę budujących ją elementów modyfikowano w przeróżny sposób.
Dlatego istnieje bardzo wiele typów układanek (część z nich nie ma
nawet kształtu kuboidu). Można je układać w różny sposób: bez patrzenia, jedną ręką czy nawet stopami. W efekcie istnieje 18 oficjalnych
konkurencji speedcuberskich. Dlatego przyjrzyjmy się tylko najbardziej
popularnej układance – tej wynalezionej przez Erno Rubika.
Kostka Rubika składa się z jedynie 26 części, z których 20 jest ruchomych, a 6 nieruchomych. Nieruchome części nazywają się centrami
i znajdują się w środku każdej ścianki. Ruchome części to 8 narożników i 12 krawędzi. Centry połączone są ze sobą wewnątrz kostki za
pomocą tzw. krzyżaka. Centry mogą się tylko obracać dookoła własnej
osi. Kostka składa się z 6 kolorowych ścianek. Jeśli trzymać kostkę
w jednej pozycji, to każdą z nich można obrócić w dwóch kierunkach –
zgodnie z ruchem wskazówek zegara i przeciwnie. Każdą ściankę
oznacza się literą, każdy ruch zaś zapisuje się, jako zgodny z ruchem
wskazówek zegara lub do tego ruchu przeciwny. Kostka składa się
87
z trzech warstw i obraca się w kilku płaszczyznach. Wszystkie te manipulacje zapisuje się przy użyciu specjalnej, prostej do zrozumienia,
symboliki. Ponieważ brak jest wyraźnego punktu odniesienia, przyjęto,
że najjaśniejsza ścianka (na ogół biała) będzie u góry, a druga najjaśniejsza – w standardowym układzie kolorów jest to ścianka zielona –
z przodu.
Ta względnie prosta konstrukcja ma ciekawe własności mechaniczne i matematyczne. Najmniejsza liczba elementów, jakie można zamienić ze sobą jedynie przy pomocy ruchami ściankami kostki, wynosi
trzy: mogą to być albo trzy rogi, albo trzy krawędzie. Nie da się zamienić mniejszej liczby elementów, chociaż można nimi manipulować, tak
aby obrócić wokół własnej osi dwa rogi lub dwie krawędzie. Najmniejsza łączna liczba rogów i krawędzi, którymi da się manipulować, wynosi cztery, to jest można manipulować tak kostką, że zamienione zostaną dwie krawędzie i dwa rogi jednocześnie. Te cechy kostki są nieprzekraczalne. Z tych powodów kostkę da się doprowadzić do stanu
niemożliwego do ułożenia przy pomocy manipulacji tylko ściankami –
np. obrócony jeden róg lub jedna krawędź czyni ją niemożliwą do ułożenia.
Mimo, że budowa kostki jest dość prosta, to zależności między elementami prowadzą do ogromnej liczby sposobów, na jakie można
kostkę pomieszać. Jest ich ponad 41 trylionów6. Jest to liczba tak astronomiczna, że gdyby kostki ustawić jedna na drugiej, tak aby każda
miała inny wzór pomieszania, to osiągnęlibyśmy słup o długości 246 lat
świetlnych7. Obliczono jednak, że każdą kostkę da się ułożyć w 20 lub
mniej ruchach. Co więcej, te 20 ruchów potrzeba tylko dla niewielkiej
liczby scrambli8. Większość można ułożyć w przedziale 16–18 ruchów.
Ponieważ ruchy na kostce można opisywać przy pomocy notacji,
prowadzi to do rejestracji kolejnych własności kostki. Jeśli pomieszamy
Każda kostka ma 8 rogów, a każdy róg ma 3 orientacje, ale tylko 7 jest manipulowanych, bo ósmy układa się automatycznie. Do tego 12 krawędzi, ale
układających się parzyście, ale każda ma 2 strony, i 11 z nich można swobodnie permutować, bo 12 układa się sama. Stąd wzór:
co daje
43 252 003 274 489 856 000 kombinacji. Zob. https://www.speedsolving.com/wiki/index.php/Rubik%27s_Cube_Fact_sheet (dostęp 30.06.2016)
7
http://kostkarubika.net/3x3x3/historia.html (dostęp 30.06.2016)
8
Scramble to sekwencja mieszająca kostkę. W polskim środowisku speedcuberskim używa się wielu terminów pochodzenia angielskiego, których używa
się w nieco spolszczonej wersji. Zob. Regulamin WCA, pkt. 4.
(https://www.worldcubeassociation.org/regulations/#article-4-scrambling)
(dostęp 30.06.2016)
6
88
kostkę według dowolnej sekwencji, to oczywiście odwrócenie tej sekwencji na tak pomieszanej kostce prowadzi do stanu wyjściowego.
Jest to oczywiste. Już nieco mniej oczywista jest inna zależność.
Przyjmijmy, że mamy algorytm, który zamienia dwa rogi i dwie krawędzie. Oznaczmy go jako ciąg A B C D. Okazuje się, że niezależnie
od kolejności jego wykonania, to jest czy to będzie A B C D, czy też
C D B A, na kostce zamienią się zawsze te same elementy, w tym wypadku będę to dwa rogi i dwie krawędzie. Jednakże zmiana kolejności
wykonania tego ciągu sprawia, że permutacji podlegać będą krawędzie
i rogi w innych miejscach kostki. Właściwości te można mnożyć, ale
pokazują one, że kostka Rubika w swojej mechanice posiada pewne
nieprzekraczalne i matematycznie opisywalne własności. Dlatego też
w początkowych latach swojej kariery była ona szczególnym przedmiotem zainteresowania matematyków, którzy dzięki temu znaleźli zastosowanie dla matematycznej teorii grup9.
3. Racjonalizm krytyczny
W pierwotnym zamiarze Erno Rubika kostka miała być narzędziem
dydaktycznym, pomagającym studentom architektury w zrozumieniu
zagadnień związanych z manipulowaniem przestrzenią. Zadanie to
układanka realizuje na gruncie filozoficznym. Można wskazać na kilka
zagadnień filozoficznych dających się wyjaśnić odwołując się do własności kostki Rubika i zasad jej układania. Jednym z nich jest kwestia
związku filozofii z logiką i analogicznie – zasad układania kostki
z matematyką. Łączy się to pośrednio z zagadnieniem bardziej ogólnym, związanym z pytaniami o to, czym jest rozum, racjonalność
i wzorce racjonalności? Zagadnienie to jest bardzo szerokie, dlatego
ograniczę się tylko do koncepcji racjonalizmu krytycznego zaproponowanej przez Karla Raimunda Poppera. Jego dociekania w tym zakresie
odniosę do metod układania kostki Rubika.
Zastanawiając się nad zagadnieniem różnicy między wiedzą naukową i nienaukową, filozof ten doszedł do wniosku, że zdania, jakie można wygłosić na podstawie doświadczenia, są przesiąknięte teorią. Szeroko pojęta obserwacja zakłada zawsze jakąś wcześniejszą teorię uzasadniającą jej prawdziwość. Jej potwierdzenie jest niemożliwe, ponieważ przesuwa tylko zagadnienie na nową koncepcję, która została wykorzystana do uzasadnienia tej teorii. I tak w nieskończoność. Problem
ten dostrzegali również konwencjonaliści, a w czasach Starożytności
9
http://www-history.mcs.st-andrews.ac.uk/history/HistTopics/Abstract-_groups.html (dostęp 30.06.2016)
89
Marek Agryppa. Z obserwacji tej Popper wyciągnął wniosek o braku
naturalnej granicy między tezami teorii naukowej i danymi empirycznymi. Wynikało z tego, że wiedza naukowa racjonalnie uzasadnialna
(przeciwstawiona irracjonalizmowi) nie różni się od wiedzy nieracjonalnej tym, że jest wsparta na doświadczeniu i przez doświadczenie
weryfikowana, lecz o racjonalności wiedzy decyduje jakiś inny czynnik10.
Pierwotnie kryterium oddzielającym wiedzę naukową od nienaukowej była falsyfikowalność twierdzenia czy też systemu twierdzeń11.
Koncepcję tę Popper wzbogacił jednak w latach późniejszych koncepcją racjonalizmu krytycznego: „wiedza, zwłaszcza naukowa, rozwija
się dzięki nieuzasadnionym (i nieuzasadnialnym) antycypacjom, przypuszczeniom, próbnym rozwiązaniom, czyli domysłom (conjectures).
Przypuszczenia te poddawane są krytycznej kontroli, tj. próbom obalania (refutations) ich za pośrednictwem surowych testów”12. Zauważył
on przy tym, że wiedza naukowa nie zaczęła się od jakiegoś mitycznego punktu zero, ale że rozwój wiedzy i pojawienie się wiedzy naukowej
polegało na modyfikacji wiedzy już zastanej. Stąd też racjonalizm naukowy polega na takim postępowaniu, w którym chodzi przede wszystkim o oczyszczanie wiedzy dotychczasowej z błędów, pomyłek, nieścisłości itp.13.
Nauka zaczęła się od mitów, praktyk magicznych czy długo wypracowywanych technik przekazywanych z pokolenia na pokolenie. Tym,
co wyróżniało tradycję racjonalizmu zainicjowanego w Grecji był krytyczny stosunek do takiej wiedzy. Stosunek ten kazał traktować uznane
teorie jako wyzwanie do ich analizy i udoskonalenia. Nie są więc one
traktowane jako niezmienne i niepodważalne dogmaty, lecz stanowią
inspirację dla krytycznej dyskusji, motywowanej poszukiwaniem prawdy oraz potrzebą zrozumienia świata14. Punktem wyjścia takiej dyskusji
są problemy. Każda teoria naukowa próbuje dać odpowiedź na pytania
związane z tym problemem, rozwiązać go. Jest ona zrozumiała w odniesieniu do konkretnej sytuacji problemowej, którą próbuje zrozumieć.
Racjonalność teorii naukowych czy filozoficznych jest w pewnym senA. Chmielewski, Karl Popper – twórca krytycznego racjonalizmu, [w:]
Filozofia XX wieku. 2, red. Z. Kuderowicz, Warszawa 2002, s. 288-289.
11
K. R. Popper, Logika odkrycia naukowego, przeł. U. Niklas, Warszawa
1977, s. 39-41.
12
K. R. Popper, Droga do wiedzy. Domysły i refutacje, przeł. S. Amsterdamski, Warszawa 1999, s. 7.
13
Ibidem, s. 53.
14
Ibidem, s. 91.
10
90
sie zrelatywizowana do sposobu, w jaki teoria rozwiązuje postawiony
problem. Możemy bowiem pytać: czy rozwiązuje problem? Czy rozwiązuje go lepiej niż inne teorie? Czy przeczy teoriom filozoficznym
bądź naukowym potrzebnym do rozwiązania innych problemów? I tak
dalej15.
Podobnie uważał Stefan Amsterdamski, który komentując historyczną zmienność wzorców racjonalności, wskazywał, że na poziomie
metateoretycznym nauka posiada funkcję wiązania w racjonalną całość
wiedzy praktycznej z „kosmologią”, episteme i techne, poprzez uzgadnianie dwóch porządków: wiedzy o tym, jak? i dlaczego?. Każdy porządek spełniający tę funkcję zwykło nazywać się „racjonalnym”. Historia nauki jest z tego punktu widzenia historią kolejnych prób organizacji uniwersum wiedzy, a kryteria metodologiczne, na których oparta
jest nauka każdej epoki, podporządkowane są aktualnemu rozumieniu
tej racjonalności16.
Nauka próbuje racjonalizować świat ludzkiego doświadczenia. Racjonalizacja ta nie jest jednak prostym zabiegiem jego opisu, lecz wymaga wyjścia poza świat doświadczenia i odwołania się do zasad, które
samo to doświadczenie mają wytłumaczyć. Dlatego też nauka zawiera
w sobie, obok twierdzeń o świecie badanym, także szereg założeń
o charakterze filozoficznym, które są z nią nierozerwalnie związane.
Założeń tych nie można wywieść z doświadczenia, ponieważ to na nich
owo doświadczenie jest dopiero ufundowane. Bywały one odmienne
w poszczególnych epokach i stąd historyczna zmienność rozumienia
racjonalności przez naukę17.
Fakt, że kryteria racjonalności mają charakter historyczny, nie oznacza jednak, że ich w ogóle nie ma. Obok pojęć niezbędnych do ontologicznej charakterystyki świata, będącego przedmiotem zabiegów poznawczych, istotną rolę, odgrywają koncepcje dotyczące człowieka
jako poznającego podmiotu. Obie te dziedziny tworzą ramy, w których
podejmowany jest wysiłek poznawczy, oraz wyznaczają reguły postępowania badawczego. Przeobrażenia, jakie zachodzą w tych koncepcjach, mają znaczenie dla całego obszaru badań naukowych. Globalne
rewolucje w nauce charakteryzuje często zmiana poznawczego stosunku człowieka do świata i samego siebie, czyli nowa wizja świata i nowa
koncepcja doświadczenia18.
15
Ibidem, s. 335-337.
S. Amsterdamski, Między doświadczeniem a metafizyką. Z filozoficznych
zagadnień rozwoju nauki, Warszawa 1973, s. 68-71.
17
Ibidem, s. 95-100.
18
Ibidem, s. 233-234.
16
91
W podobnym duchu wypowiadał się między innym Albert Einstein.
Brak możliwości falsyfikacji twierdzeń filozoficznych sprawia, że za
wiodący element budowania filozoficznej wizji świata można uznać
interpretację rzeczywistości: „Nauka jest próbą przyporządkowania
chaotycznej różnorodności doznań zmysłowych jednolitego logicznie
systemu myślowego; w systemie tym poszczególne doznania powinny
znaleźć taki korelat myślowo–teoretyczny, aby to przyporządkowanie
wyglądało na jednoznaczne i przekonywające”19.
Reasumując uwagi wspominanych filozofów, można powiedzieć, że
racjonalność naukowa polega na krytycznej dyskusji, inspirowanej
poszukiwaniem prawdy, która ma dwa komplementarne cele: zrozumienie otaczającej nas rzeczywistości oraz rozwiązanie problemów,
zarówno teoretycznych, jak i praktycznych. Jej punktem wyjścia jest
zawsze dotychczasowa wiedza, która jest udoskonalana i przybliża nas
do prawdy jako takiej. Zrozumienie rzeczywistości polega zaś na wyjaśnieniu, dlaczego jest tak, jak jest. Cel ten spełniają, chociaż nie w tym
samym stopniu, zarówno mity, jak i teorie naukowe, poprzez jednoznaczne przyporządkowanie kategorii teoretycznym elementom naszego doświadczenia. Dzięki zrozumieniu możliwe jest rozwiązanie problemu i zmiana samej rzeczywistości.
Tak scharakteryzowana racjonalność znajduje doskonałą ilustrację
w używanych współcześnie metodach układania kostki Rubika.
4. Metody układania kostki Rubika
Współcześnie istnieje kilkanaście metod układania kostki Rubika,
a niektóre z nich nadto mają kilka wariantów. Część z nich jest podobna do siebie i można je łączyć, ale bywają też między nimi znaczące
różnice. To bogactwo metod ma swoje uzasadnienie, ponieważ ich
wartość jest zrelatywizowana do wiedzy i doświadczenia speedcubera,
oraz jego celów i konkurencji, w których bierze udział.
Przyjmijmy, że chcemy ułożyć pomieszaną kostkę. Można to zrobić
na wiele sposobów i każdy jest uzasadniony jakimś kontekstem sytuacji. Jeżeli nie ograniczają nas żadne reguły i nie mamy doświadczenia,
kostkę można po prostu rozłożyć i poprawnie złożyć. Jeśli wprowadzimy zakaz takiej praktyki, to kostkę można ułożyć wykorzystując jedną
z metod przeznaczonych dla początkujących. Jest ich kilka i ich zaletą
jest prostota teoretyczna i praktyczna (minimalna wiedza i terminologia, kilka krótkich algorytmów na każdy etap układania), zaś wadą
A. Einstein, Pisma filozoficzne, przeł. K. Napiórkowski, Warszawa 1999, s.
145.
19
92
długość procesu układania. Metody te wymagają bowiem dwu– lub
trzykrotnie większej liczby ruchów potrzebnych do ułożenia kostki niż
metody zaawansowane.
Jeśli naszym celem będzie osiąganie dobrych czasów, to metody
proste należy zastąpić metodami bardziej złożonymi. Należy w tym
miejscu podkreślić, że na najwyższym poziomie układania mamy do
dyspozycji co najmniej trzy konkurencyjne metody, które oferują różne
wzorce układania kostki. Mimo podobieństwa niektórych etapów, wymagają one innego podejścia do kostki. Metod tych nie można łączyć,
ponieważ tracą one wtedy na swojej efektywności. Jedynie drobne elementy mogę być przetransferowane.
Każda z tych metod wymaga nieco innego myślenia o kostce. Na
przykład:
– W najbardziej popularnej metodzie nazywanej CFOP lub Fridrich20 o kostce myśli się w kategoriach warstw, a proces jej układania
polega na ułożeniu najpierw szkieletu pierwszej warstwy, następnie
wykończeniu warstwy pierwszej i drugiej, a w ostatnim etapie ułożeniu
trzeciej warstwy przy wykorzystaniu dwóch algorytmów z 78–
algorytmowej bazy zawierającej wszystkie możliwe pozycje klocków
na górnej warstwie. –
– W metodzie Roux21 myśli się o kostce w kategoriach bloków, ponieważ w pierwszych dwóch etapach układania buduje się specyficzne
bloki na ściance lewej i prawej; następnie wykańcza się rogi na warstwie ostatniej; w ostatnim etapie układa się sześć krawędzi.
– W metodzie ZZ22 o kostce myśli się początkowo w kategoriach
krawędzi zorientowanych i niezorientowanych. Następnie buduje się na
kostce dwie pierwsze warstwy – podobnie jak w CFOP, ale jest to proces znacznie łatwiejszy, z uwagi na przeprowadzoną wcześniej poprawę orientacji krawędzi – a następnie do ułożenia ostatniej warstwy. Ten
ostatni etap wymaga kombinacji jedynie 28 algorytmów, jeśli jest wykonywany kombinacją dwóch z nich lub jednego z 493 algorytmów,
jeśli jest robiony jednym algorytmem.
Przedstawiłem dość szeroko podstawowe zasady układania charakteryzujące te metody, ponieważ łatwiej w ten sposób wskazać najważniejszą kwestię – metody te nie są na siebie nawzajem przekładalne.
Mimo że oferują różne wzorce układania kostki Rubika, a pośrednio
różne wzorce racjonalności obowiązujące w ich ramach, to dają ostatecznie bardzo podobny skutek w postaci czasów ułożeń. Różnice mięhttps://www.speedsolving.com/wiki/index.php/CFOP (dostęp 30.06.2016)
https://www.speedsolving.com/wiki/index.php/Roux (dostęp 30.06.2016)
22
https://www.speedsolving.com/wiki/index.php/ZZ (dostęp 30.06.2016)
20
21
93
dzy zawodnikami układającymi tymi metodami, a znajdującymi się
w światowej czołówce speedcuberów, wynikają z innych okoliczności
niż używana przez nich metoda.
Warto przy tym podkreślić, że speedcuberzy, którzy zmieniali metodę układania z CFOP na Roux, doświadczali uczucia „uczenia się
układania od nowa”, ponieważ w metodzie Roux można korzystać
z zupełnie innych rozwiązań niż w metodzie CFOP. Rozwiązania
uznawane za efektywne funkcjonują tylko w ramach tych metod, lecz
poza nimi są uznawane za nieefektywne.
Jak starałem się wyżej pokazać, racjonalność może znaczyć między
innymi adekwatność użytych środków do zamierzonego celu. Jeśli naszym celem jest ułożenie kostki w jak najkrótszym czasie, to środowisko speedcuberów wypracowało wiele metod gwarantujących osiągnięcie tego celu. Każda z nich może być potraktowana jako zapewniająca
adekwatność zamierzonego celu do użytych środków, ponieważ każda
z nich daje możliwość osiągania dobrych czasów. W tym sensie każda
dostarcza własnego, specyficznego wzorca racjonalności. Różnice między tymi wzorcami przejawiać się będą w różnicach między etapami
układania. Na przykład na pierwszym etapie układania w metodzie ZZ
należy zatroszczyć się o orientację krawędzi, co z punktu widzenia
metod Roux czy Fridrich byłoby działaniem pozbawionym sensu, ponieważ wydłuża proces układania i czyni go w tych metodach nieefektywnym.
5. Wnioski
Powyższe rozważania na temat różnic w metodach układania kostki
Rubika służyły przygotowaniu gruntu dla odpowiedzi na pytanie o to,
która z tych metod jest najlepsza do osiągania najkrótszych czasów
ułożeń. Można przyjąć, że czas ułożenia jest empiryczną miarą skuteczności danej metody. Ponieważ speedcubing jest sportem, a zawody
w różnych częściach świat organizowane są według tych samych zasad,
można przyjąć ponadto, że czasy osiągane przez zawodników, a zarejestrowane w bazie wyników WCA, są w tym względzie porównywalne,
w tym sensie, że osiągane są w warunkach zbliżonych do siebie: podobne warunki ułożenia, zasady mierzenia czasów, a nawet przyrządy
pomiarowe wyprodukowane przez tę samą firmę.
Analiza wyników ujawni prostą rzecz, że zawodnicy osiągają różne
czasy ze spektrum od kilku sekund (4,69 sekundy obecny rekord świata) do kilku minut. Porównując czasy najlepszych zawodników, można
dojść do wniosku, że różnice między nimi nie tkwią w przyjętej metodzie, lecz innych czynnikach: rodzaj treningu, predyspozycje fizyczne,
94
doświadczenie i wiedza, umiejętność radzenia sobie ze stresem i tak
dalej. W efekcie, na podstawie różnic w czasach nie można przesądzić
o tym, czy jakaś metoda jest lepsza do speedcubingu czy też nie. Również dyskusje w gronie speedcuberów nie przesądzają takiej tezy23.
Konstatacja ta stanowić będzie argument na rzecz tezy Poppera
o istnieniu wielu wzorów racjonalności, które są na siebie nieprzekładalne. Mówiąc krótko – metody używane w speedcubingu są różne,
mają własne wzorce racjonalności ułożenia i nie są przekładalne na
siebie nawzajem. Są nieporównywalne, a jednocześnie dają podobne
(zbliżone) rezultaty czasowe. Dostarczają więc różnych wzorów rozwiązania tego samego problemu (wzorzec racjonalności), lecz dają
mniej więcej identyczny efekt.
Na zakończenie warto wspomnieć o specyficznej konkurencji, która
określana jest po angielsku Fewest Moves, co po polsku oznacza ułożenie kostki w najmniejszej liczbie ruchów. Jest to konkurencja typowo
intelektualna, w której liczy się liczba ruchów potrzebna do ułożenia
kostki, obliczana według specyficznej miary. Zawodnicy rywalizują
przez godzinę, szukając takich operacji, które zapewnią osiągnięcie
tego celu. Z teorii wiadomo, że maksymalna granica to 20 ruchów, ale
wynik ten osiągnąć może zawsze tylko program komputerowy. Osiągnięcie tego wyniku przez człowieka jest bardzo trudne. Co prawda
rekord świata wynosi 19 ruchów, ale wynik ten udało się osiągnąć tylko
trzykrotnie24. Granicą ostateczną jest tutaj liczba 16 ruchów, ponieważ
wiadomo, że taką liczbę zakładają zasady WCA25. Na ogół rozwiązania
najlepszych zawodników mieszczą się w przedziale 25–30 ruchów.
Analizując rozwiązania doświadczonych zawodników w tej konkurencji, można zauważyć, że w swoich ułożeniach wykorzystują oni
osiągnięcia różnych metod, balansując i przechodząc płynnie między
nimi. Nie da się jednak na podstawie tej analizy wyciągnąć wniosku,
jakoby zawodnicy wykorzystywali uniwersalną metodę dającą dobry
końcowy rezultat. Ich konstatacja jest inna – w tej konkurencji nie ma
metody26, a wykorzystywane techniki mają charakter pomocniczy.
23
https://www.speedsolving.com/forum/threads/beginners-guide-to-choosinga-speedsolving-method.43471/ (dostęp 30.06.2016)
24
Stan na czerwiec 2017.
25
Innymi słowy – generatory scrambli są tak skonstruowane, że generują
scramble wymagające do ułożenia co najmniej 16 ruchów. Niemożliwe jest
krótsze ułożenie.
26
Taką tezę stawia między innymi Sebastiano Tronto, czołowy zawodnik w tej
konkurencji. Zob. http://fmcsolves.cubing.net/fmc_tutorial_ENG.pdf (dostęp
30.06.2016)
95
Ostatecznym czynnikiem jest tutaj doświadczenie, wiedza, wyobraźnia
i intuicja.
Marcin Pełka
UMK w Toruniu
„DEPOZYTARIUSZ LOSU LUDZKOŚCI” CZY
„NIESZKODLIWY WARIAT”? HOENE-WROŃSKI
JAKO FILOZOF I TECHNIK
Wstęp
Gdy przychodzi nam mówić o aliansie filozofii polskiej z techniką,
to zapewne każdy zaznajomiony z tematem badacz uzna Józefa Marię
Hoene-Wrońskiego za osobę specyficzną. Niełatwo bowiem znaleźć
inną, tak osobliwą postać, którą trudno jednoznacznie ocenić, która
budzi tak skrajne, ambiwalentne emocje. Z jednej strony „depozytariusz losu ludzkości1”, jak mniemał sam o sobie, a wąska grupka oddanych uczniów mu w tym wtórowała, z drugiej, „nieszkodliwy wariat2”,
jak zgrabnie opisano go w raporcie francuskiej policji. Zarówno błyskotliwy wynalazca bez akademickiego wykształcenia technicznego,
jak i sprytny naciągacz wyłudzający pieniądze na projekty, których nie
da się wcielić w życie. Matematyk tworzący niezrozumiałe wzory
uznawane przez współczesnych mu za zwykły bełkot, ale docenione po
dekadach jako trafne i wyprzedzające swoją epokę. W końcu – wybitny
polski filozof, który wywarł niepomierny wpływ na epokę romantyzmu, ale też nie wyłożył najważniejszych punktów swojej koncepcji,
konsekwencją twierdzeń w wielu miejscach (delikatnie rzecz ujmując)
nie grzeszył i prawdopodobnie sam nie uważał się za Polaka.
Już tych kilka zasygnalizowanych wątków jasno wskazuje, że warto
postawionemu w tytule pytaniu poświęcić nieco więcej uwagi. Na potrzeby niniejszego tekstu chciałbym odwrócić klasyczną kolejność wykładu i najpierw ukazać dzieło, a potem twórcę, rozpocząć od opisu
wynalazków i twierdzeń, dopiero wtedy przejść do opisu sylwetki
i filozofii omawianej osoby.
J. M. Hoene-Wroński, Prodrom mesjanizmu, albo filozofii absolutnej, przeł.
J. Jankowski, Prace Instytutu Mesjanicznego, Książnica Polska Towarzystwa
Nauczania Szkół Wyższych, Lwów-Kraków 1921, s. XVI.
2
B. J. Gawecki, Wroński i o Wrońskim, PWN, Warszawa 1958, s. 11.
1
98
Wroński jako matematyk, technik i wizjoner
Doniosłe odkrycia na polu matematyki pozostawił po sobie Wroński
w dziedzinie funkcji, równań różniczkowych i obliczaniu szeregu potęg. Jego największym osiągnięciem jest tutaj opracowanie wyznacznika funkcyjnego równań, zwanego dziś „wrońskianem”. O wrońskianach przeczytamy w każdym nieco bardziej zaawansowanym podręczniku teorii funkcji czy rachunku różniczkowego3. Wroński, po części ze
zbyt mocnego zawierzania własnej intuicji, po części z niechęci do
dzielenia się dokładnymi wyliczeniami, prezentował jedynie gotowe
równania i funkcje, bez podpierania ich formalnym zapisem dowodów.
Sprawiało to, że środowiska naukowe w jego czasach nie traktowały
poważnie rewelacji polskiego filozofa. Dopiero Stefan Banach w latach
trzydziestych dwudziestego wieku miał ze zdumieniem rzec: „Wzory
Wrońskiego prowadzą do dobrych wyników”4, a efektem pracy nad
nimi było stworzenie tak zwanej „przestrzeni Banacha” i analizy funkcyjnej.
Pomińmy w tym miejscu streszczanie analiz dotyczących wyznaczników i funkcji, które są niezrozumiałe bez solidnego wykształcenia
matematycznego. Wystarczy stwierdzić, że matematyczny geniusz
Wrońskiego został doceniony – w Muzeum Nauki w Chicago na tablicy
najwybitniejszych matematyków wszechczasów widnieją nazwiska
trzech Polaków: Kopernika, wspomnianego przed momentem Banacha
i właśnie Hoene-Wrońskiego5. Niewątpliwą i trwałą sławę przyniosły
Wrońskiemu także jego wynalazki. Do grona najznamienitszych przykładów należy zaprojektowanie na zlecenie władz Marsylii zespołu
maszyn hydraulicznych, które miały przepompowywać wodę z rzeki
Durance do miejskiej kanalizacji. Ich budowę ukończono w roku 1809,
po czym okazały się tak wydajne, że nadwyżki wody kierowano do
nawadniania pobliskich pól. Towarzystwo Medyczne, pozostające pod
wielkim wrażeniem projektu i jego skuteczności, nadało polskiemu
filozofowi tytuł profesora nauk fizycznych i matematycznych 6.
Niestety, wiele pomysłów genialnego filozofa nie udało się w jego
czasach wcielić w życie. Długo na realizację czekał jego genialny projekt tak zwanych „kół zwartych” czy inaczej „kół ferogonowych”,
zwanych też „kołami Wrońskiego”. Była to prosta konstrukcja, dzięki
A. Orłowski, Jak kiepska filozofia prowadzi do dobrej matematyki, [w:] „Focus”, Nr 3 (126), marzec 2006, s. 83
4
Cyt. za: A. W. Krajewski, Człowiek, który obliczył Boga, [w:] „Focus”, Nr 3
(126), marzec 2006, s. 81.
5
Ibidem, s. 79.
6
Ibidem, s. 81.
3
99
której osie w dorożkach znajdowały się na wysokości jednej trzeciej
średnicy ich kół. Dzięki temu pojazdy stawały się niższe i stabilniejsze.
Wynalazek wzbudził sensację, uznanie ważnych osobistości, w tym ks.
Adama Czartoryskiego, jednak ostatecznie nie trafił do masowej produkcji. Przynajmniej aż do lat sześćdziesiątych ubiegłego wieku, kiedy
patent Wrońskiego wykorzystano przy produkcji Łunochodów – bardzo
skutecznych i funkcyjnych, radzieckich, bezzałogowych i sterowanych
z Ziemi pojazdów służących do badania powierzchni Księżyca.
Teoria zastosowana w praktyce
Zaprezentowane w poprzednim punkcie twierdzenia matematyczne
i wynalazki ukazują geniusz polskiego myśliciela, ale też stanową jedynie drobny wycinek jego dorobku. Miażdżąca większość stawianych
przezeń tez matematycznych do dziś nie przedstawia żadnej wartości
naukowej (przynajmniej jak dotąd), a większości jego projektów nie da
się wyprodukować, lub po ich produkcji – zwyczajnie nie działają. Nie
byłaby to może ujma dla tak błyskotliwego umysłu, wszak z pewnością
jest normą, że wielu wynalazców znamy z jednego udanego patentu,
nie znając zazwyczaj setek wcześniejszych, nieudanych. Jednak
w przypadku Wrońskiego sytuacja jest dokładnie odwrotna – znamy go
głównie z pozbawionych sensu wzorów matematycznych i niedziałających wynalazków.
Należy tu wyjaśnić, że matematykę faktycznie uważał za najważniejszą naukę, choć przypisywał jej rolę służebną. Dokładniej rzecz
ujmując – pragnął przemodelować ją w ten sposób, aby stanowiła podstawę jego systemu filozoficznego, który obejmowałby swym zasięgiem każdą dziedzinę wiedzy ludzkiej7. Stąd całe mnóstwo równań
funkcji do dziś niezrozumiałych i nazbyt maksymalistycznych w swoich założeniach, bo rzekomo zdolnych nawet do opisania samego Absolutu, czyli Boga8.Twierdzenia matematyczne nie miały zatem służyć
7
Maksymalizm dążeń Wrońskiego, jeżeli chodzi o matematykę, doprowadzał
wręcz do absurdów. Dla przykładu, filozof twierdził, iż dzięki jego wzorom da
się liczyć równania matematyczne dowolnego stopnia. Jak pamiętamy, wzorem na równanie pierwszego stopnia, jest ax + b = 0, równaniem drugiego
stopnia jest ax2 + bx + c = 0. Znane są one wszystkim maturzystom przystępującym do egzaminu z matematyki. Poza tymi wzorami istnieją jeszcze równania trzeciego i czwartego stopnia, a zgodnie z tezą Ruffiniego nie można wyprowadzić wzoru na równania o stopniu wyższym, niż czwarty.
8
Zdaje się, że w stwierdzeniu tym bynajmniej nie ma przesady. Wroński na
każdym wydawanym przez siebie dziele umieszczał słynny emblemat, który
przedstawiał „matematycznego sfinksa” usadowionego na bloku z wyrytym
100
samej matematyce, podobnie jego błyskotliwe wynalazki nie miały
tylko poprawić jakości życia konkretnych ludzi w danym miejscu.
Wroński myślał i planował z rozmachem, jego praktyczne urządzenia
miały być używane globalnie, w myśl jego filozofii, zakładającej nastanie spełni ludów, szczęśliwego kresu dziejów, okresu Królestwa Bożego na ziemi. O tej filozofii uniwersalnej, maksymalistycznej w dążeniach i optymistycznej z założenia przyjdzie nam powiedzieć nieco
szerzej. Najpierw jednak pozostańmy w kręgu jego wynalazków, by
nieco lepiej poznać osobliwy charakter twórcy.
Jak powiedzieliśmy, Wroński myślał i działał z rozmachem. Chciał
uczynić ludzkość gotową na nastanie szczęśliwego kresu dziejów, czemu służyć miały pisma filozoficzne, budzące w ludziach świadomość
ostatecznego końca ich niedoli oraz wynalazki, które walnie przyczynią
się do polepszenia bytu całej ludzkości. Jak zawsze w takich przypadkach, rzecz rozbiła się o pieniądze. Niesiony sukcesem w Marsylii pisał
pierwsze dzieła filozoficzne, wydawane zawsze na luksusowym papierze i w kosztownych oprawach. Ważka treść wymagała luksusowego
wydania, ale nie przekładała się na poczytność, stąd fundusze myśliciela stale topniały. Zawarte w jego książkach, w formie dodatków i tablic,
wzory matematyczne co prawda wzbudzały zainteresowanie, ale z czasem zamieniało się ono w śmiech, gdy Wroński zaczął tworzyć „absolutne prawa algorytmu”. Roztrwoniwszy zdobyty majątek udał się do
rosyjskiej ambasady. Jego zasługi dla armii carskiej wzbudziły życzliwe uczucia u ambasadora Kuragina, który zaczął wypłacać mu stałą
pensję. Mógł dzięki temu wydać swój Wstęp do filozofii matematyki,
zadedykowany zresztą Carowi Aleksandrowi I, a uznany za naukowy
bełkot. Rozgniewało to hojnego ambasadora, którego wyśmiewano a
salonach za finansowanie polskiego szarlatana, w wyniku czego
wstrzymał wypłaty. Wroński po raz kolejny pozostał bez środków do
życia, znany był już jako „ten wariat z Polski”, a francuska policja,
zaintrygowana tym, co w ciszy swego mieszkania konstruował, śledziła
jego prace i etykietowała go przykrym określeniem zacytowanym przeze mnie w tytule tego wystąpienia. Filozof po raz kolejny dorabiał na
korepetycjach, aż w roku 1813 poznał bogatego kupca, niejakiego Arsona. Szybko korepetycje z matematyki przekształciły się w filozoficzne wykłady dla wiernego ucznia, który łożył horrendalne sumy na piwzorem matematycznym Fx=A0Ω0+A1Ω1+A2Ω2+A3Ω3+… Wzór takowy miał
być najwyższym prawem nie tylko matematyki, a z czasem stał się wręcz
exlibrisem jego dzieł, ale do dziś matematycznie nie przedstawia żadnej wartości. Intuicyjnie, acz bez ryzyka popełnienia błędu, można mniemać, że jest to
zapis najwyższego prawa, któremu podlega wszystko.
101
sma nauczyciela, ślepo wierząc, że ten w zamian objawi mu tajemnicę
absolutu. W skrócie podsumujmy tę barwną historię – Arson biedniał
coraz bardziej, coraz mniej wierzył, że nauczy się u Wrońskiego czegokolwiek, a równocześnie był coraz bardziej ubezwłasnowolniony
przez nauczyciela-wyłudzacza. Po serii rozpraw sądowych, ogołoceniu
kupca z niemal całego majątku, wzajemnym szkalowaniu się w miejskich gazetach, Arson musiał wyłożyć ostatnie pieniądze za podpisane
Wrońskiemu weksle.
Polski filozof jednak szybko roztrwonił majątek francuskiego kupca
– druk nowych książek i wydawanie gazet, których nikt nie czyta, sporo
kosztował. Postanowił więc spróbować szczęścia w Anglii, gdzie wciąż
trwał konkurs na zaprezentowanie nowej metody oznaczania pozycji
geograficznej statku na morzu. Najpierw służba celna skonfiskowała
mu skonstruowane własnoręcznie przyrządy pomiarowe, bo po prostu
nie wiedziała do czego służą, potem sekretarz Biura Długości, doktor
Young z miejsca odrzucił projekty Wrońskiego, który odtąd pisał na
niego skargi do Izby Gmin, a na końcu oskarżył Younga o to, że ukradł
mu pomysły i przedstawiał jako swoje własne. Posłowie Izby Gmin
mieli dość „polskiego wariata”, zatem podjęli uchwałę, w myśl której
na jego skargi nie trzeba odpowiadać.
Ogarnięty manią prześladowczą Wroński, obwiniający o wszystko
spiskujące przeciw niemu „bandy piekielne” wsteczniaków, wrócił do
Francji. Próba audiencji u papieża celem wymuszenia na nim poszanowania nauki przez Kościół zakończyły się fiaskiem, podobnie jak utworzenie Unii Antynomialnej, która miała zjednoczyć cały świat, usuwając z niego wszelkie antynomiespołeczne, a której biuro mieściło się
w jego mieszkaniu (Wroński był z resztą jedynym jej członkiem).
Po tych wydarzeniach Wroński poznał swojego drugiego sponsora –
Edmonda Thayera, krewnego późniejszego cesarza, Ludwika Napoleona. Dzięki bajońskim sumom nowego mecenasa mógł Wroński zaprojektować i wyprodukować prototyp wspomnianego przez nas wcześniej
koła oraz pociąg poruszający się na trakcji gąsienicowej. Pojazd nie
wywarł na nikim większego wrażenia, podobnie jak wcześniejsze projekty „kalkulatora uniwersalnego”9 czy innych, usprawniających licze-
Z francuskiego – Calculateur-Universel. Krewny żony Wrońskiego, widząc
projekty, jakie Wroński poczynił, zaczął Wrońskiemu łożyć na nie olbrzymie
sumy, co pozwoliło filozofowi żyć w dostatku i opracować wszystko w najdrobniejszych szczegółach, łącznie z cenami (od 6 do 150 franków) za czternaście różnych „kalkulatorów”. Gdy jednak żaden z wykonanych projektów
nie chciał działać i jasnym się stało, iż inwestowany kapitał nigdy się nie
9
102
nie patentów, jednak duże sumy nadal zasilały konto polskiego wynalazcy10.
Ostatnie lata życia wielkiego wynalazcy i wytrawnego naciągacza
przypadły na czasy rządów Ludwika Napoleona, którego próżno starał
się zainteresować swoimi wynalazkami. Ostatnim sponsorem Wrońskiego był hrabia Kamil Durette, jednak nie uświadczymy już tutaj ani
żadnych błyskotliwych wynalazków, ani poronionych pomysłów.
Wroński jako filozof i mesjanista
Niniejszy tekst rozpocząłem nieco przewrotnie – od ukazania tego,
o czym często zapominamy, gdy z uśmiechem czytamy biografię
Wrońskiego lub w dyskursach akademickich analizujemy jego poglądy
filozoficzne. Opiszmy zatem skrótowo filozofię, która motywowała go
do wspomnianych już działań, by móc później wyjaśnić, dlaczego,
znów nieco przewrotnie, pytanie postawione w tytule należy pozostawić bez odpowiedzi.
Filozofia Wrońskiego opierała się na dwóch, skrajnie różnych fundamentach – prywatnym objawieniu i filozofii Kanta, stanowiąc –
zgodnie ze stwierdzeniem Sikory – „amalgamat rozumu i mistycyzmu”11. Prywatnego aktu iluminacji dostąpił Wroński 15 sierpnia 1803
roku na balu z okazji urodzin Napoleona, upamiętniając ten dzień przyjęciem drugiego imienia – Maria12. Jak mniemał, w jednej chwili objazwróci, sponsor postanowił zerwać umowę (zob. B. J. Gawecki, Wroński i o
Wrońskim, op. cit., s. 10.).
10
Thayer również czuł się przez Wrońskiego oszukany, gdyż kolej na trakcji
gąsienicowej, na którą wydawał niebotyczne sumy, okazała się zwykłym oszustwem. Zerwanie umowy z polskim wynalazcą kosztowało go dodatkowe
cztery tysiące funtów, gdyż Wroński nauczył się już zabezpieczać w takich
sytuacjach (A. Sikora, Antypody romantycznego mesjanizmu – „filozofia absolutna” Hoene-Wrońskiego i mistyka Towiańskiego, [w:] A. Walicki (red.),
Polska myśl filozoficzna i społeczna, tom I, KiW, Warszawa 1973, s. 161.).
11
A. Sikora, Hoene-Wroński: absolut i historia, [w:] idem, Posłannicy słowa.
Hoene-Wroński, Towiański, Mickiewicz, PWN, Warszawa 1967, ss. 32 i 41.
12
Właściwie „bohater” niniejszego tekstu nazywał się Józef Hoene, a jego
rodzina miała czeskie lub saksońskie korzenie (zob. M. N. Jakubowski, Ciągłość historii i historia ciągłości. Polska filozofia dziejów, Wyd. UMK, Toruń
2004, s. 84). Zarówno drugie imię – „Maria”, jak i drugi człon nazwiska –
„Wroński”, zostały przez niego przybrane i w obu przypadkach wskazanie
jednoznacznej daty jest kłopotliwe. Trwają spory, czy pamiętna iluminacja
z dnia 15 sierpnia miała miejsce w roku 1803 czy w 1804 (zob. na ten temat L.
Łukomski, Twórca filozofii absolutnej. Rzecz o Hoene-Wrońskim, Wyd. Literackie Kraków 1982, s. 58.). Nazwisko „Wroński” przybrał przed rokiem
103
wił mu się sens dziejów, zrozumiał Absolut oraz cel istnienia świata.
Odtąd nieprzerwanie starał się przygotować ludzkość na nadejście
ostatniej epoki, która ostatecznie zwieńczy cały proces historyczny, gdy
nastanie Królestwo Boże na ziemi. Stąd jego nieprzerwana praca pisarska i wynalazcza. Chciał zarówno przygotowywać ludzkość wynalazkami, jak i oświecać ją pismami, choć nie ma jednoznacznej odpowiedzi, czy uważał, że da się wyjaśnić i nauczyć, czym jest Absolut, czy
zwyczajnie jest potrzebne do tego ta iluminacja, której sam dostąpił.
Drugą podwaliną jego filozofii była myśl Immanuela Kanta, którą
dzięki zrozumieniu Absolutu potrafił oryginalnie zreinterpretować. Jak
pamiętamy, Kant uważał pojęcia takie, jak Bóg, dusza nieśmiertelna,
czy wszechświat, za idee regulatywne, których nie jesteśmy w stanie
pojąć, bo oznaczałoby to absolutny kres poznania. Zwyczajnie rozum
ludzki nie jest w stanie dzięki analizie otaczających go rzeczy dojść do
idei takich jak Absolut. Wroński jednak uznał kantowski sposób rozumowania, za podejście chrematyczne (od greckiego chrema – rzecz)
i zgadzał się, że za jego pomocą Absolutu nie poznamy. Zaproponował
jednak podejście inne, mianowicie achrematyczne, które wychodząc od
idei Absolutu zstępuje do coraz niższych form bytu13. Kolokwialnie
rzecz ujmując Kant zakładał, że poprzez analizę otaczającego świata
nie można „wspiąć” się do idei Boga, zaś Wroński, doznając prywatnym objawieniem, mógł tym pojęciem dysponować i zaproponować
proces odwrotny do kantowskiego14.
1797, gdy starał się o przyjęcie do armii carskiej (ros. „Wronskoj”, zob.
B. J. Gawecki, Wroński i o Wrońskim, op. cit., s. 8). Łukomski natomiast dowodzi, że tym nazwiskiem posługiwał się już wcześniej, gdy wstępował do
wojska polskiego i dementuje pogłoski, jakoby miał go już używać jego ojciec
(zob. L. Łukomski, Twórca filozofii absolutnej, op.cit., s. 11.).
13
Anonim, Messianismeunion finale de la philofophie et de la religion constitutuant la filosophie absolute, przeł. H. Rosnerowa, cyt. za: A. Walicki (red.),
700 lat myśli polskiej. Filozofia I myśl społeczna w latach 1831–1864, PWN,
Warszawa 1977, s. 154.
14
Nie ma przesady w stwierdzeniu, że filozofia królewieckiego filozofa była
dla Wrońskiego wręcz obsesją. Polski myśliciel kierował pod jego adresem
uroczyste apostrofy, mówiąc o nim między innymi: „geniusz niezrównany
(…), któremu ludzkość nigdy nie zdoła się odwdzięczyć” (J. Hoene, Philosophie critique découverte par Kant, przeł. H. Rosnerowa, cyt. za: A. Walicki
(red.), 700 lat myśli polskiej, op. cit., s. 110.). Drugą obsesją była tu, rzecz
jasna, chęć przebicia się poza ramy kantowskiej filozofii, a dokładniej – poza
granice, jakie ludzkiemu poznaniu wyznaczał Kant. Wroński osiągnął to dzięki
prywatnemu objawieniu, co jednak nie zmienia faktu, że zapewne sam „ge-
104
Wroński nie był jedynym polskim filozofem doby romantyzmu, który przyznawał się do prywatnego objawienia. Również wiele innych
cech wspólnych łączy go z przedstawicielami tej epoki, jak na przykład
pojęcie mesjanizmu, który był zastosował jako pierwszy. Ogólnie rzecz
ujmując, mesjanizm oznaczał pracę na rzecz nastania tysiącletniego
Królestwa Bożego na ziemi, a Wroński miał za złe Adamowi Mickiewiczowi czy Andrzejowi Towiańskiemu sposób, w jaki operowali tym
pojęciem, zaś życzliwie „podarował je” Augustowi Cieszkowskiemu,
od którego jakoby w zamian zapożyczył zestaw innych pojęć15.
Jest jeszcze wiele innych cech wspólnych, które z jednej strony łączą go z naszą rodzimą myślą romantyczną, a z drugiej przedstawiają
go jako wybitnego filozofa, który w każdym przypadku dawał dowody
swojej oryginalności. Gdy wielu polskich myślicieli pozostawało pod
wpływem Georga Wilhelma Friedricha Hegla, Wroński reinterpretował
filozofię kantowską, w Johannie Gottliebie Fichtem, Friedrichu Wilhelmie Josephie Schellingu czy Heglu widząc swoich konkurentów16.
Podobnie jak inni polscy myśliciele postrzegał przeszłość historyczną
jako nieustającą walkę różnych antynomii, które teraz, w czasach jemu
współczesnych, muszą zostać zniesione, gdyż oto stajemy na progu
ostatniej epoki, powszechnego dobrobytu i ostatecznego pojednania się
człowieka z Bogiem17. Wiara, iż Absolut zaprojektował dzieje jako
niusz niezrównany” nie brałby na poważnie twierdzeń swego polskiego kolegi
po fachu.
15
Rzecz w tym, że generalnie polska filozofia pozostawała dla Wrońskiego
poza sferą zainteresowań. Jednak o ile gardził Towiańskim i Mickiewiczem
(a zapewne także innymi emigracyjnymi mesjanistami polskimi) za spłycanie
pojęcia mesjanizmu, tak szczególną estymą darzył Cieszkowskiego. Po pierwsze, „pozwolił mu” używać pojęcia „mesjanizm”, a jakoby w zamian zapożyczył od niego pojęcie „historiozofia”. Cieszkowski oddzielał historiozofię od
filozofii dziejów – jak wiemy, ta druga jest umiłowaniem mądrości wynikającej z badania dziejów, natomiast Cieszkowskiemu nie chodziło o zwyczajne
umiłowanie mądrości (miłość jest wszak uczuciem bezinteresownym), lecz o
praktyczne tej mądrości wykorzystanie. Jego postawę podzielali bez mała
wszyscy polscy romantycy, w tym Wroński, który chętnie posługiwał się pojęciem wprowadzonym przez młodszego kolegę (zob. M. N. Jakubowski, Ciągłość historii i historia ciągłości, op. cit., s. 212.).
16
Ibidem, s. 86.
17
Ze względu na sytuację, w jakiej znajdował się wtedy naród polski, rozważania natury historiozoficznej były dla naszej rodzimej filozofii czymś wręcz
naturalnym, a polski romantyzm „obejmuje ogromną ilość różnych światopoglądowo dywagacji historiozoficznych” (A. Sikora, Posłannicy słowa. HoeneWroński, Towiański, Mickiewicz, op. cit., s. 6.). Ukazanie historiozoficznej
105
rozumny proces posiadający swój początek i zmierzający do określonego końca podzielana była przez każdego polskiego romantyka, jednak
o ile bez mała wszyscy upatrywali tutaj wielką rolę Polaków, którzy
walczą nie tylko o odzyskanie niepodległości, lecz także o zbawienie
całej ludzkości, o tyle Wroński, myśląc o wielkiej roli Słowian, patrzył
z nadzieją na Rosję18. Jest to jeden z wielu paradoksów związanych z tą
osobą, że pozostając jednym z najwybitniejszych polskich myślicieli
tych czasów, raczej odżegnywał się od swej polskości19.
koncepcji Wrońskiego nie jest czymś istotnym z perspektywy niniejszego
tekstu, ale pozwala ukazać pewną niekonsekwencję, bo wspomnieliśmy
w tekście głównym, że nieraz Wroński okazywał się nieścisły i wewnętrznie
sprzeczny w swoich twierdzeniach. Otóż z jednej strony uważał, że przed
nastaniem Królestwa Bożego na ziemi niezbędne jest pojednanie religii i filozofii, które – kolokwialnie rzecz ujmując – muszą zjednoczyć się w jedną
dyscyplinę. Później natomiast opisuje, że w ostatniej epoce dziejów najpierw
objawi się prawda absolutna zawarta w filozofii, a potem prawda absolutna
zawarta w religii. Pytanie o to dlaczego prawdy te zaistnieją osobno, skoro
obie te dyscypliny połączą się wcześniej, jest zasadne i niestety pozostaje bez
odpowiedzi. (Kwestie te poruszał Wroński w cytowanym już wydaniu Prodromu mesjanizmu).
18
Wiara w pokojowe zjednoczenie wszystkich narodów, jako proces, który
zapoczątkują Słowianie, jest powszechnym motywem polskiej filozofii tego
okresu. Czytając prace polskich romantyków, niemal każdorazowo odnosi się
wrażenie, że w tym kontekście „Słowianie”, to synonim do „Polacy”. Rzecz
w tym, że Wroński patrzył tu nieustanie z nadzieją na cara rosyjskiego, któremu dedykował swoje prace. Dopiero po wydarzeniach Wiosny Ludów jego
wiara zaczęła się chwiać, a ostatni list w tej sprawie napisał do niego w 1851
roku. Później, rozgoryczony i rozczarowany, przekazał przywództwo nad całą
słowiańszczyzną Polakom (zob. M. N. Jakubowski, Ciągłość historii i historia
ciągłości, op. cit., s. 118.).
19
Mówimy tu oczywiście nie o „byciu Polakiem” (był nim ze wszech miar, a
jego filozofia stanowi swoistą perłę polskiej filozofii doby romantyzmu), lecz
o „poczuciu własnej polskości”. Nie ma tu żadnego znaczenia pochodzenie
jego przodków, lecz może bardziej to, że z własną rodziną korespondował
tylko po francusku, pisał swoje dzieła w tymże języku, a wcześniej dopuścił
się hańbiącej zdrady wojsk kościuszkowskich. Polakiem i współtwórcą polskiej filozofii epoki romantyzmu Wroński był z pewnością, o czym trzeba
pamiętać czytając krzywdzące opnie, jak choćby te artykułowane przez Lutosławskiego, który najpierw nazwał go „drugorzędnym niemieckim filozofem
chcącym uchodzić za Polaka”, a potem „trzeciorzędnym filozofem niemieckim, piszącym po francusku i pragnącym uchodzić za Polaka” (cyt. za: Ibidem,
s. 82).
106
Co do „polskości” jego filozofii nie powinno jednak być żadnych
wątpliwości. Jak jego rodacy kreślił oryginalną, historiozoficzną wizję
dziejów, był przekonany o ich nadchodzącym, eschatologicznym końcu, wielkiej misji Słowian pod tym względem, propagował aktywistyczną postawę i potrzebę czynu na rzecz przyszłego, lepszego świata,
stawiał diagnozy co do przyczyn upadku Rzeczypospolitej, wychwalał
„ludzi wyższych” pracujących na rzecz przyszłego świata, oraz potępiał
„bandy piekielne” wsteczniaków, które krzyżują pracę ludzi postępowych20.
Zamiast zakończenia, czyli o trzech ignorancjach
Jak wcześniej wspomniałem, pytanie zawarte w tytule chciałbym
pozostawić bez odpowiedzi. W przypadku tak barwnych, wręcz specyficznych osób, musi ono pozostać otwarte. Wrońskiego nie da się zakwalifikować tylko jako nieszkodliwego wariata lub tylko jako geniusza i wizjonera, bez zniekształcenia jego obrazu. Był zarówno wspaniałym wynalazcą, jak i osobą trwoniącą czas na poronione pomysły. Był
wybitnym matematykiem, jak i twórcą wzorów pozbawionych jakiejkolwiek przydatności naukowej. Był człowiekiem ogarniętym pasją, jak
i szaleńcem wzywającym przywódców i papieża do obrachunku. Był
Kim są te „bandy piekielne”, „zgraja mistyczna” czy „klasa tajemniczych”
to kolejna kwestia, którą trudno jednoznacznie zdefiniować bez wikłania się w
sprzeczności. Najogólniej rzecz ujmując chodzi o ludzi wstrzymujących postęp
dziejów, postęp świadomości ludzkiej, który zmierza do optymistycznego,
eschatologicznego końca historii. Patrząc z perspektywy osobistej Wrońskiego
okazuje się, że koncepcja „band piekielnych” wynika z jego prywatnego przewrażliwienia, ciężkiego charakteru i manii prześladowczej (widać to, gdy
winnych swoich niepowodzeń naukowych w Anglii wskazuje właśnie w „zgrai
mistycznej”). Natomiast jeśli chodzi o jego poglądy historiozoficzne, to Wroński znów wikła się w sprzeczności. W Metapolityce „sekty mistyczne” odrysowane są jako szare eminencje współpracujące ze sobą celem wywoływania
stałych rewolucji, chociażby we Francji (J. M. Hoene-Wroński, Metapolityka
mesjaniczna, przeł. J. Janowski, Warszawa-Kraków 1923.), natomiast w cytowanym już Prodromie wymienia wszystkie ruchy, prądy i organizacje, które
na przestrzeni dziejów wstrzymywały swoją postawą i działaniem pochód
świadomości ludzkiej, a są to między innymi: zwolennicy braminizmu, pitagorejczycy, sofiści, heretycy chrześcijańscy, islam, templariusze, Maurowie,
inkwizytorzy, różokrzyżowcy, masoni, iluminaci i inni. A zatem czy są to
świadomie współdziałający spiskowcy (Maurowie współpracujący z templariuszami, a heretycy z islamistami), czy raczej kolejne grupy ludzi nieświadomie przyczyniających się do wstrzymania rozwoju ludzkiej rozumności, zatem
niebędący żadnymi szarymi eminencjami?
20
107
zdeterminowany działać na rzecz pozytywnej przemiany oblicza świata, a wykorzystywał do tego i bez krępacji naciągał swoich wyznawców. Był też wielkim patriotą, jak i pohańbionym zdrajcą narodu21.
W końcu był także wybitnym, oryginalnym przedstawicielem polskiego
romantyzmu, choć z pewnością nie czuł się Polakiem. To wszystko
sprawia, że Wrońskiego nie da się jednoznacznie określić.
Gdybyśmy jednak zdecydowali się zwyczajnie nazwać Wrońskiego
wariatem, to wykazalibyśmy się ignorancją. I to aż na trzech poziomach. Po pierwsze, jest, niestety częstym, przekonaniem, także w środowiskach akademickich, że polska filozofia jest miałka i niegodna
uwagi, że stanowi li tylko przypisy do filozofii zagranicznej, że nie stać
jej było na oryginalność i samodzielne myślenie. Wroński jest natomiast barwnym, wręcz skrajnym przykładem na to, że tak nie jest. Po
drugie, często słyszy się (co na szczęście nie jest wyrażane w pracach
naukowych), jakoby polska filozofia doby romantyzmu była niegodna
uwagi, bo tworzyli ją szarlatani opętani prywatnymi objawieniami i nic
wartościowego nie głosili. O ile Wroński był stymulowany do działania
prywatnym objawieniem, a określenie „szarlatan” może wydawać się
czasem adekwatne, to widzieliśmy przecież, że jego myśl filozoficzna
i działalność społeczna nie były pozbawione ważnych, zarówno praktycznych i społecznych, jak i ponadczasowych treści. Po trzecie w końcu, możemy wykazać się ignorancją w stosunku do samego Wrońskiego, gdy zaszufladkujemy go jako „nieszkodliwego wariata”. Tyle tylko,
że jak zauważyłem na początku tego artykułu, ten „wariat” pozostawił
ważkie twierdzenia i wynalazki, przez co jest dobrym przykładem, że i
Aby wykazać tę nieomówioną dotąd sprzeczność, wystarczy zestawić ze
sobą cztery następujące po sobie fakty z życia Wrońskiego. Po pierwsze, porucznik Wroński wsławił się obroną Woli, kiedy to wywołany przez niego
pożar zmusił wojska pruskie do odwrotu, za co osobiście odznaczył go Kościuszko i o czym pisały lokalne gazety. Po drugie, gdy został schwytany przez
Rosjan, w zamian za anulowanie wyroku zesłania na Syberię narysował własnoręcznie mapę Pragi, w wyniku czego Praga została zdobyta, zginęło dwadzieścia tysięcy Polaków, a Wroński został przyjęty do sztabu generała Aleksandra Suworowa wraz z awansem. Po trzecie, na emigracji błagał Kościuszkę
o przebaczenie i deklarował chęć oddania życia za sprawę polską, w wyniku
czego Naczelnik rekomendował go generałowi Janowi Henrykowi Dąbrowskiemu. Po czwarte, gdy dzięki wcieleniu do Legionów automatycznie otrzymał francuskie obywatelstwo, porzucił wyruszające z Marsylii Legiony na
rzecz matematyki i konstruowania wynalazków, oraz pobierania pensji z ambasady rosyjskiej (A. W. Krajewski, Człowiek, który obliczył Boga, op. cit., ss.
79–80.).
21
108
wśród techników wariaci mogą pozostawić po sobie horacjański pomnik trwalszy nad spiżowy.
II.
TECHNIKA W PRAKTYCE
Ryszard Myhan
Uniwersytet Warmińsko-Mazurski
w Olsztynie
DETERMINIZM A PRZYPADEK
Dylemat determinizmu
Od zarania dziejów obserwacja otoczenia skłania człowieka do stawiania pytań, czy zachodzące w nim zdarzenia, zjawiska, procesy są
zdeterminowane poprzez związki przyczynowo-skutkowe, czy też są
zupełnie przypadkowe? Dwie skrajne odpowiedzi na tak postawione
pytanie, to dwa przeciwstawne poglądy filozoficzne:
– z jednej strony determinizm, zgodnie z którym zajście każdego
zdarzenia (zjawiska) jest wyznaczone jednoznacznie przez zdarzenie
(zjawisko) poprzedzające je w czasie,
– z drugiej zaś indeterminizm, głoszący niezależność zjawisk
i zdarzeń od ogółu warunków ich wystąpienia.
Odpowiedź na tak postawione pytanie jest szczególnie istotna w nauce, gdyż na przyczynowości sprawczej są oparte nauki przyrodnicze –
jeżeli pozbawilibyśmy je tej kategorii, straciłyby one rację swojego
istnienia1.
Dylemat „determinizm czy przypadek” nurtował już filozofów starożytnej Grecji. Za pierwszych deterministów uważa się Leucypa
z Miletu oraz jego ucznia i kontynuatora Demokryta z Abdery: „Nic nie
dzieje się bez przyczyny, lecz wszystko z jakiejś racji i konieczności”2.
Pogląd przeciwny reprezentował Epikur z Samos. Epikur wprawdzie
przyjmował za Demokrytem atomistyczny obraz świata, odrzucał jednak Demokrytejski determinizm. Według teorii Epikura ruch atomów
w próżni nie podlega jednak determinizmowi3. Podstawy teorii przy-
Z. Czerwiński, O pojęciu przyczyny i kanonach Milla, „Studia Logica: An
International Journal for Symbolic Logic” 1960, T. 9, s. 37-62,
http://www.jstor.org/stable/20013630 (data dostępu: 21.12.2016).
2
Prawdopodobnie dziełem Leukipposa był Wielki ład świata, włączony później do kanonu pism Demokryta, http://encyklopedia.naukowy.pl/Leukippos,
(dostępu: 21.12.2016).
3
Epikur,
List
do
Menoikeusa,
przeł.
K.
Leśniak,
http://sady.up.krakow.pl/antfil.epikur.menoikeus.htm,
(data
dostępu:
21.12.2016).
1
112
czynowości zostały sformułowane przez Arystotelesa, za którym wyróżnia się cztery rodzaje przyczyn: sprawczą (to, dzięki czemu coś zaistniało), celową (to, ze względu na co coś zaistniało), materialną (to,
z czego coś powstało) i formalną (to, według czego coś zostało uformowane)4. Zatem, czy przypadek nie istnieje?
Problem determinizmu powraca w epoce Oświecenia. Z jednej strony David Hume twierdził, że nie ma takiego rozumowania, które upoważniałoby do przenoszenia dotychczasowego doświadczenia na przyszłość: „Nie można na tej tylko podstawie, że jedno zjawisko w jednym
przypadku wyprzedziło inne, wyprowadzić rozumnego wniosku, że
pierwsze jest przyczyną drugiego” 5. Z drugiej zaś, Immanuel Kant
uważał, że: „Stosunek przyczyny do skutku jest warunkiem przedmiotowej ważności sądów empirycznych” 6.
Determinizm mechaniki klasycznej
Według Izaaka Newtona stan układu w pewnej chwili t0 w sposób
jednoznaczny wyznacza stan układu w dowolnej późniejszej (a także
wcześniejszej) chwili t. Stan układu izolowanego określony jest przez
położenia r i pędy p wszystkich jego składników w chwili t. Dynamikę
zachowania się układu opisują liniowe równania różniczkowe, posiadające jednoznaczne rozwiązania7. Sukcesy mechaniki klasycznej w wyjaśnianiu i przewidywaniu zjawisk skłoniły do głębokiej wiary w zasadę powszechnego determinizmu8. Istotę tej wiary wyraża koncepcja
demona Laplace’a: „Intelekt, który w danym momencie znałby wszystkie siły działające w przyrodzie i wzajemne położenia składających się
na nią bytów, i który byłby wystarczająco potężny, by poddać te dane
analizie, mógłby streścić w jednym równaniu ruch największych ciał
wszechświata oraz najdrobniejszych atomów” 9.
G. Reale, Historia filozofii starożytnej, przeł. E. I. Zieliński, RW KUL, Lublin 2005.
5
D. Hume, Badania dotyczące rozumu ludzkiego, przeł. D. Misztal i T. Sieczkowski, Zielona Sowa, Kraków 2004.
6
I. Kant, Krytyka czystego rozumu, przeł. R. Ingarden, Wydawnictwo Naukowe PWN, Warszawa 2010.
7
Z. Majewski, Mechanika klasyczna a zasada determinizmu, „Studia Filozoficzne” 1988, 276 (11).
8
A. Nowaczyk, Co mówi o świecie zasada determinizmu, „Przegląd Filozoficzny - Nowa Seria” 2003, 45 (1), s. 7-26.
9
P. S. De Laplace, A Philosophical Essay On Probabilities, przeł. F. W.
Truscott i F. L. Emory, JOHN WILEY & SONS, New York 1902, s. 4,
4
113
Aby móc przewidywać przyszłe zachowanie się dowolnego układu
należy znać: ogólne prawa ruchu, działające siły oraz warunki początkowe (lub brzegowe). Koncepcja ta jednak natrafia na pewne ograniczenia, gdyż:
– układ odosobniony to tylko idea – nieznane (lub świadomie pomijane) oddziaływania mogą istotnie wpływać na przyszły stan układu;
– zachowanie powtarzalności warunków początkowych (lub brzegowych) to ułuda – każdy pomiar obarczony jest błędem ze względu na
skończoną dokładność pomiarową;
– prognoza przyszłego zachowania układu to wynik symulacji dokonanej na jego modelu – ten zaś zależy od dokładności obliczeń;
– w zagadnieniach nieliniowych rozwiązanie może być niejednoznaczne lub też wręcz może pojawić się chaos.
Jednym z najczęściej przytaczanych przykładów zdarzenia losowego jest rzut kostką10. Jednak zgodnie z prawami mechaniki klasycznej
zależy tylko od warunków początkowych. Trajektoria ruchu powinna
zatem być całkowicie określona, a wynik rzutu w pełni przewidywalny.
Naukowcy i filozofowie od pięciu stuleci usiłują odpowiedzieć na pytanie, jak pogodzić te sprzeczności? Prace na ten temat napisali między
innymi: Girolamo Cardano (jeden z odkrywców liczb urojonych), Galileusz (prekursor nowożytnej fizyki), Christian Huygens (prekursor
rachunku różniczkowego i całkowego). Symulacje numeryczne dowodzą, że wynik rzutu kostką możemy przewidzieć, jeżeli tylko wystarczająco dokładnie znamy warunki początkowe, a liczba odbić nie jest
zbyt duża11. Ale już przy współczynniku odbicia równym jeden, nawet
najmniejsza niedokładność warunków początkowych sprawia, że wynik
rzutu staje się nieprzewidywalny12.
https://archive.org/stream/philosophicaless00lapliala#page/n9/mode/1up, (data
dostępu: 21.12.2016).
10
J. Strzałko, J. Grabski, T. Kapitaniak, Czy gra w kości to prawdziwy hazard,
„Świat Nauki” 2010, 6(226), s. 44-49.
11
J. Strzałko, J. Grabski, A. Stefański, P. Perlikowski, T. Kapitaniak, Dynamics of coin tossingis predictable, „Physics Report” 2008, 469(2), s. 59-92, doi:
10.1016/j.physrep.2008.08.003.
12
J. Nagler, P. Richter, How random is dice tossing, „Phisical Reviw E” 2008,
78, s. 1-8, doi: 10.1103/PhysRevE.78.036207.
114
Od porządku do chaosu – model deterministyczny a indeterminizm rozwiązań
Powtarzalność wyników uzyskanych z modelu deterministycznego
warunkowana jest powtarzalnością danych wejściowych, te zaś odpowiadają zmierzonym ze skończoną dokładnością parametrom procesu
lub wyrażają pewne stałe np. stałe fizyczne, których wartości oszacowano eksperymentalnie13. Z reguły przyczyną są tu błędy pomiaru,
wynikające z ograniczonej dokładności przyrządów pomiarowych14.
Podsumowując, można stwierdzić, że zbiór wyników pomiarów zawsze
jest skończonym zbiorem wartości dyskretnych, gdzie każda z tych
wartości jest określona poprzez prawdopodobieństwo uzyskania wyniku obarczonego określonym błędem pomiaru.
Badania modelu przeważnie prowadzi się z wykorzystaniem technik
komputerowych. Wymaga to przekształcenia matematycznego modelu
procesu w model informatyczny, będący programem zapisanym w
określonym języku programowania. Wykonując kolejne realizacje tego
programu (symulację procesu), uzyskuje się skończony zbiór wartości
wielkości wynikowych. O ile oszacowanie błędów pomiarów w większości przypadków nie sprawia problemów, to znacznie trudniej jest
oszacować błędy obliczeniowe, a trudności te rosną wraz ze złożonością algorytmów15. Mamy skłonność do uznawania obliczeń komputerowych za szczyt dokładności, lecz w rzeczywistości nie są one tak
dokładne16:
– ograniczenia pamięci powodują, że liczby zapisywane są z ograniczoną dokładnością;
– kod wewnętrzny, którego komputer używa do reprezentowania
liczb i kod zewnętrzny używany do ich prezentacji są różne;
– ten sam program wykonywany na różnych komputerach może
prowadzić do różnych wyników;
– ten sam program wykonywany na tym samym komputerze, ale
przy różnych wersjach software’a, także może prowadzić do różnych
wyników.
R. Myhan, A process and its model – assessment of similarity, „Annual
Review of Agricultural Engineering” 2010, 2(1), s. 59-65.
14
J.R. Taylor, Wstęp do analizy błędu pomiarowego, przeł. A Babiński
i R. Bożek, Wydawnictwo Naukowe PWN, Warszawa 2012, s. 19-27.
15
J. Klamka, Z. Ogonowski, Metody numeryczne, Wydawnictwo Politechniki
Śląskiej, Gliwice 2015, s. 7-15.
16
I. Stewart, Czy Bóg gra w kości. Nowa matematyka chaosu, przeł. M. Tempczyk, W. Komar, Wydawnictwo Naukowe PWN, Warszawa 1994, s. 23-28.
13
115
Przykładowo, obserwując tylko wyniki kolejnych iteracji prostego
i ściśle deterministycznego modelu (rys. 1) można odnieść wrażenie, że
są one nieprzewidywalne i różne dla każdej wartości początkowej |x0|
1.
1
x=x0;
for i=1:50
x=2*x.^2-1;
end
x=0.4
x=0.8
0.5
0
-0.5
-1
0
5
10
15
20
25
30
35
40
45
50
Rys. 1. Przykładowe wyniki symulacji dla modelu deterministycznego.
W algebrze liniowej operator lub funkcję f(x) opisujemy w następujący sposób: addytywność f(x+y)=f(x)+f(y), homogeniczność
f(αx)=αf(x). Jeżeli model nie spełnienia powyższych założeń, mamy do
czynienia z nieliniowością. W przyrodzie większość oddziaływań modeluje się właśnie funkcjami nieliniowymi, ale w zagadnieniach nieliniowych rozwiązanie może być niejednoznaczne. Występują w nich
także zjawiska o charakterze specyficznie nieliniowym takie jak: wybuchy (uciekanie rozwiązań do nieskończoności), gaśnięcie rozwiązania w skończonym czasie oraz zamieranie rozwiązań w skończonym
czasie17. Rozwiązania mogą też być wrażliwe na dowolnie małe zaburzenie parametrów początkowych18. Dotyczy to zwykle nieliniowych
równań różniczkowych, opisujących układy dynamiczne. Jednym z
podstawowych modeli nieliniowych, które można spotkać nie tylko w
mechanice, jest równanie Duffinga. W przedstawionym przykładzie
(rys. 2) niewielka zmiana wartości parametru a ± 0.00001 (błąd
względny 0.00333%) sprawia, że po pewnym czasie zachowanie układu staje się nieprzewidywalne.
J. Cholewa,Pewne nietypowe własności rozwiązań nieliniowych równań
ewolucyjnych, „Roczniki Polskiego Towarzystwa Matematycznego”. Seria II:
Wiadomości Matematyczne 2002, s. XXXVIII.
18
G. H. Schuster, Chaos deterministyczny. Wprowadzenie, wydanie drugie,
Wydawnictwo PWN, Warszawa 1995.
17
116
2
y=f(t)
d 2x
dx
0.2 x x 3 a sin(t )
dt 2
dt
1
0
a=0.29999
a=0.30000
a=0.30001
-1
-2
0
20
40
60
80
100
czas
120
140
160
180
200
Rys. 2. Wrażliwość układu na warunki początkowe.
Dowolny układ fizyczny, który zachowuje się nieokresowo, jest
nieprzewidywalny. Niemożliwe jest jednoznaczne wskazanie miejsca,
w jakim znajdzie się punkt w kolejnym kroku. Chaos jest immanentną
własnością nieliniowych układów dynamicznych19. Symbolem teorii
chaosu stał się układ trzech nieliniowych równań różniczkowych Lorentza20, opisujący zjawiska atmosferyczne, gdzie z pozoru nic nieznaczące zaburzenie prowadzi do dużych zmian zachowania układu, wykładniczo narastających z czasem. Mamy tu do czynienia z sytuacją,
gdzie zjawisko przebiega zgodnie z prawami deterministycznymi, ale
dla obserwatora, wydaje się być niedeterministyczne21. Ścisłym kryterium chaotyczności jest określenie wartości wykładników Lapunowa.
Wykładnik Lapunowa wyznacza wartość liczbową średniego wzrostu
nieskończenie małych błędów w punkcie początkowym. Układ jest
chaotyczny, jeśli ma co najmniej jeden dodatni wykładnik Lapunowa22.
Odwrócony paradygmat – od chaosu do porządku
W większości przypadków dedukcja zachowania układów złożonych, przy założeniu znajomości elementarnych procesów, okazała się
19
P. Fritzkowski, O chaosie deterministycznym. http://www.fritzkowski.pl/www2/wp-content/uploads/2015/08/chaos.pdf,
(data
dostępu:
21.12.2016).
20
M. Tempczyk, Teoria chaosu a filozofia, Wydawnictwo CiS, Warszawa
1998, s. 119-131.
21
A. Lemańska, Determinizm przyrodniczy a chaos deterministyczny, „Studia
Philosophiae Christianae” 1996, 32, s. 203-211.
22
A. Stefański, Estymacja maksymalnego wykładnika Lapunowa układów
dynamicznych w oparciu o zjawisko synchronizacji, „Zeszyty Naukowe. Rozprawy Naukowe / Politechnika Łódzka” 2004, s. 3-112.
117
niewykonalna. Stąd też np. w fizyce zastosowano prawa statystyczne,
które ustalają przebieg zjawisk w skali masowej, nie muszą być spełnione w każdym pojedynczym przypadku. Takie procesy, jak rozpad
atomów pierwiastków promieniotwórczych, podlegają prawidłowościom statystycznym. Można przewidzieć jedynie prawdopodobieństwo
tego, że dany atom pierwiastka promieniotwórczego rozpadnie się
w określonym czasie. Prawa kinetycznej teorii gazów, które ustalają
przebieg zdarzeń w skali masowej, nie muszą być spełnione w każdym
pojedynczym przypadku. Na przykład równanie stanu gazu doskonałego PV=nRT, jest spełnione tym dokładniej, im więcej jest molekuł gazu.
Ruchy Browna to chaotyczne ruchy cząstek w płynie wywołane
zderzeniami zawiesiny z cząsteczkami płynu. Natura tych ruchów jest
czysto fizyczna, a jej wyjaśnienie z punktu widzenia teorii kinetycznocząsteczkowej jest proste. Modelując zmianę położenia pojedynczej
cząstki przy założeniach, że pomiędzy kolejnymi zderzeniami pokonuje
ona zawsze taką samą drogę, a jej ruch może się odbywać w dowolnym
kierunku losowanym z rozkładu równomiernego, nie można przewidzieć czy i kiedy cząstka powróci do położenia początkowego (rys. 3a).
Sytuacja zmienia się, gdy przy zachowaniu pozostałych założeń ograniczymy jedynie liczbę możliwych kierunków do dwu kierunków prostopadłych. Wtedy z całkowitą pewnością można przyjąć, iż po pewnej
ilości zderzeń powróci ona do punktu początkowego (rys. 3b.). Powrót
do tego punktu nie zależy od kolejności zderzeń, gdyż wypadkowy
wektor nie zależy od kolejności wektorów pojedynczych przemieszczeń. Przykładowo, jeżeli przyjąć, że w warunkach normalnych dla
powietrza23 średnia odległość cząstek wynosi 10-9 m, a ich średnia
prędkość 3200 km/h to cząstka powróci do położenia początkowego
średnio po czasie t=4.39 10-9 s.
23
M. G. Raizen, Demony entropii, „Świat Nauki” 2011, 4(236), s. 52-57.
118
a)
b)
po 3898 zderzeniach
Rys. 3. Symulacja zmian położenia pojedynczej cząstki, gdy jej ruch może
odbywać się: a – w dowolnym kierunku; b – tylko w dwu wyróżnionych kierunkach.
Indeterminizm mechaniki kwantowej
Ciągłość to jedna z najbardziej podstawowych własności matematycznych. Liczba rzeczywista może przyjmować dowolną wartość od
minus do plus nieskończoności. Ale czy wyrażone taką liczbą np. masa
lub energia są dowolnie podzielne? Czy czas i przestrzeń są ciągłe?
Dzisiejsza fizyka wskazuje, że świat chyba nie jest ciągły, a dyskretny.
Max Planck stwierdził, że energia nie może być wypromieniowywana
w dowolnych ciągłych ilościach, lecz jedynie w postaci kwantów o
wartości 6.6260855(40) 10-34 Js. Oznacza to, że nie ma energetycznych
stanów pośrednich, a co za tym idzie – wszelkie zmiany zachodzą skokowo, czyli nieciągle24. Długość Plancka wynosi zaledwie 10-35 m, a
najmniejsza możliwa jednostka czasu (czas Plancka) trwa 10-43 s. Stała
Plancka okazała się nieprzekraczalną granicą dokładności pomiarów.
Ze sformułowanej przez Heisenberga zasady nieoznaczoności wynika,
że nie można jednocześnie z dowolną dokładnością zmierzyć położenia
i pędu cząstki elementarnej oraz nie można ustalić warunków początkowych z taką precyzją, jaka jest wymagana w mechanice klasycznej, a
ruch cząstek kwantowych nie podlega deterministycznym prawidłowościom – można jedynie przewidzieć prawdopodobieństwo znalezienia
cząstki kwantowej w pewnym obszarze przestrzeni25. Zdaniem Heisen-
J. D. Stein, Kosmiczne liczby. Liczby które definiują naszą rzeczywistość,
przeł. M. Siuda-Bochenek, Prószyński i S-ka, Warszawa 2013, rozdz. 8.
25
A. Łukasik, Atom od greckiej filozofii przyrody do nauki współczesnej, Wydawnictwo Uniwersytetu Marii Curie-Skłodowskiej, Lublin 2000, s. 141.
24
119
berga statystyczny charakter mechaniki kwantowej jest jej cechą ostateczną i żadne przyszłe dokonania w dziedzinie fizyki mikroświata nie
pozwolą na przekroczenie ograniczeń związanych z zasadą nieoznaczoności26.
W fizyce klasycznej przyjmowano, że oddziaływanie między przyrządem pomiarowym a mierzonym obiektem może być ograniczone do
minimum tak, że jest praktycznie zaniedbywalne. W fizyce kwantowej
problem pomiaru przewija się nieustannie. Już sam akt pomiaru zaburza stan badanego układu. W Krótkiej historii czasu Stephena Hawkinga zasada nieoznaczoności została wyjaśniona w sposób następujący.
Załóżmy, że chcemy poznać położenie cząstki. Oczywistą metodą jest
ją naświetlić. Jednak fotony w kontakcie z badaną cząstką zmieniają jej
pęd w sposób niedający się przewidzieć. Aby temu zapobiegać, można
użyć fali o mniejszej energii, wówczas jednak rozdzielczość uzyskanego obrazu jest gorsza, a zatem nieoznaczoność położenia większa27.
Z zagadnieniem indeterminizmu wiąże się bodaj najtrudniejszy problem interpretacyjny mechaniki kwantowej – redukcja paczki falowej,
nieciągły skok od deterministycznie ewoluującej funkcji falowej do
jedynie statystycznie przewidywalnych wyników pomiarów28.
Ewolucję funkcji falowej Ψ układu izolowanego opisuje ciągłe i deterministyczne równanie Schrödingera. Funkcja Ψ może być powiązana
z doświadczeniem, ale podczas pomiaru następuje nieciągła i indeterministyczna redukcja tej funkcji. Można więc przewidzieć jedynie
prawdopodobieństwo rezultatu pomiaru29.
Determinizm mechaniki kwantowej?
Otaczający nas świat na poziomie kwantowym zdaje się wykraczać
często poza logiczne zrozumienie i ciąg przyczynowo-skutkowy.
Skrajnie nieintuicyjne prawa mechaniki kwantowej głoszące, że niewielkie obiekty pozostają w tzw. superpozycji stanów kwantowych
(mogą np. być jednocześnie w dwóch różnych miejscach), pomimo
A. Łukasik, Mechanika kwantowa dla kognitywistów, http://bacon.umcs.lublin.pl/~lukasik/wp-content/uploads/2010/12/Mechanika-kwantowa.pdf, (data dostępu: 21.12.2016).
27
S. W. Hawking, Krótka historia czasu, przeł. P. Amsterdamski, Wydawnictwo Zysk i S-ka , Poznań 2015, s. 60-68.
28
M. Heller, Johna Bella filozofia mechaniki kwantowej, „Studia Philosophiae
Christianae ATK” 1994, 30 (2), s. 151-161.
29
J. Gribbin, W poszukiwaniu kota Schrödingera: realizm w fizyce kwantowej,
przeł. J. Bieroń, Zysk i S-ka, Poznań 1997, s. 33.
26
120
licznych potwierdzeń empirycznych wciąż budzą wątpliwości w świecie fizyki30. Albert Einstein w liście do Maxa Borna pisał: „(…) jakiś
wewnętrzny głos mi mówi, że nie jest ona tym, o co ostatecznie chodzi”31. Z kolei Richard Feynman powiedział kiedyś: „Jeśli sądzisz, że
rozumiesz mechanikę kwantową, to nie rozumiesz mechaniki kwantowej”32.
W pracy opublikowanej w 1957 r., Hugh Everett III podjął rękawicę
i wskazał sposób, w jaki teoria kwantowa przewiduje fakt dzielenia się
jednej klasycznej rzeczywistości na kilka oddzielnych i jednocześnie
się toczących33. U Everetta obserwator niczego nie zakłóca i nie redukuje, a każdy stan superpozycji jest jednakowo realny. Wszystko, co
może się zdarzyć, zdarza się na pewno w którejś z odnóg rzeczywistości przypominającej wielkie, rozgałęziające się w każdej chwili drzewo
życia.
Fizycy postanowili ostatnio podejść na nowo do podstawowych zagadnień mechaniki kwantowej i doszli do zaskakujących wniosków: nie
tylko równoległe wszechświaty istnieją, lecz oddziałują one ze sobą
wzajemnie – co idealnie wyjaśniałoby praktycznie wszystkie przedziwne zjawiska kwantowe34. Poszukiwaniem światów równoległych zajęło
się także NASA. Na Międzynarodowej Stacji Kosmicznej zainstalowano urządzenie Alpha Magnetic Spectrometer-2 w celu rejestracji danych, które między innymi mogą dowieść istnienia innych wszechświatów35.
Determinizm i przypadek
Analizując wzajemne powiązanie mechaniki klasycznej i kwantowej, należy stwierdzić, że determinizm tej pierwszej nie jest sprzeczny
ze statystycznym charakterem drugiej. Opis odwołujący się do determinizmu i opis odwołujący się do przypadkowości mogą być rożnymi,
lecz równoważnymi sposobami opisu ruchu układów wysoce niestabil30
A. Zeilinger, Quantum teleportation, „Scientific American” 2003, 13, s. 3443.
31
A. Calaprice, Einstein w cytatach, przeł. M. Krośniak, Prószyński i S-ka,
Warszawa 2014, s. 359.
32
M. Chown, Teoria kwantowa nie gryzie, przeł. J. Bieroń, Zysk i S-ka, Poznań 2009, s. 96.
33
P. Byrne, The Many Worlds of Hugh Everett III, „Scientific American”
2007, 10, s. 98-105.
34
Y. Nomura, Kwantowy wieloświat, „Świat Nauki” 2017, 7(311), s. 52-57.
35
Alpha Magnetic Spectrometer, http://www.ams02.org/, (data dostępu:
21.12.2016).
121
nych . Gdy układ jest niestabilny, to świadomość, że jest on zdeterminowany, niczego w praktyce nie daje. Niestabilność zachowania układu
zdeterminowanego przezwycięża przeciwieństwo pojęciowe determinizmu i przypadkowości.
Odnosząc się do postawionego na wstępie pytania, czy obserwowane w przyrodzie zdarzenia, zjawiska i procesy są zdeterminowane poprzez związki przyczynowo-skutkowe, czy też są przypadkowe: jeżeli
złożymy, że przyroda nie zna przypadku, ponieważ każda zachodząca
w niej zmiana podlega nieuchronnym prawidłowościom, to tylko nieznajomość tych prawidłowości nasuwa myśl o przypadku. Zatem miejsce przypadku można ograniczyć do powierzchni styku obszaru wiedzy
i niewiedzy. Traktując wiedzę jako objętość sfery o promieniu r, to
wraz ze wzrostem tej objętości rośnie też jej powierzchna, a więc obszar zarezerwowany dla przypadku. Przy czym w wartościach względnych rola przypadku jednak maleje zmieniając się odwrotnie proporcjonalnie wraz ze wzrostem r.
36
36
M. Tempczyk, Renesans mechaniki klasycznej. „Filozofia Nauki” 1993, 1/1,
s. 113-124.
122
Piotr Drogosz
Uniwersytet Warmińsko-Mazurski
w Olsztynie
PROBLEMY TECHNICZNEJ REALIZACJI LOGIK
1. Uwagi wstępne
Zamierzeniem tego tekstu jest opisanie spostrzeżeń odnoszących się
do obrazu logiki widzianego z perspektywy praktycznych potrzeb przedstawiciela nauk technicznych. Tezą autora jest twierdzenie, iż w działalności technicznej wykorzystuje się wiele różnorodnych logik, które
można badać postępując zgodnie z zasadami metodologii naukowej.
W wielu przypadkach logiki techniczne różnią się od najczęściej spotykanych opisów logik matematycznych, logiki zdań, logiki zbiorów i reguł wnioskowania. Przedstawiony opis podjętej problematyki koncentruje się na wykazaniu przyczyn powodujących potrzebę odrębnego badania logik technicznych i z pewnością nie wyczerpuje podjętego zagadnienia. W trosce o komunikatywność opisu ograniczono się do najprostszych przypadków interpretacji zagadnień technicznych z wykorzystaniem elementarnych pojęć logicznych. W pierwszej kolejności opisano
pojęcie logiki.
2. Logika
Logika jest rozumiana na bardzo wiele różnych sposobów. W wyobrażeniach potocznych logika jest jedna. Wyobrażenia potoczne użytkowane są przez statystyczną większość społeczeństwa. Zgodnie z zasadami demokracji, powoduje to skłonność do uznawania tzw. uzusu znaczeniowego. Z tego powodu technicy i inżynierowie znajdują się w opozycji pomiędzy prostotą oczywistości dominacji mniemań większości
członków społeczeństwa oraz indywidualnym i subiektywnym doświadczaniem różnorodności natury. Ma to wpływ na rosnące różnicowanie
metod badawczych w tzw. naukach stosowanych, których zróżnicowanie
najwyraźniej dostosowuje się do różnorodności obserwowalnej w naturze. Podobnym trendom ulegają teoretycy zakładający ideowe paradygmaty dostosowywania teorii do tzw. rzeczywistości1.
1
Por. M. Ruse, Mystery of Mysteries. Is Evolution a social construction?, Harvard University Press. Cambrige (Massachusetts), London (England) 1999,
s. 255
124
W tym opracowaniu, odnosząc się do zastosowań technicznych, przyjęto, iż logika oznacza stały sposób działania. Sposób działania może
być opisany słownie, schematycznie, symbolicznie lub przez inne dowolne sposoby przekazywania informacji. Pojęcie logiki można wykorzystać zarówno do opisu działania maszyn i urządzeń technicznych, jak
również do opisów charakterystyk różnorodnych zjawisk przyrodniczych, fizycznych, społecznych i intelektualnych. W literaturze2 znane
są inne określenia pojęcia logiki. Jednak ich opisowe formy są formułowane w odniesieniu do wybranych paradygmatów i specjalności naukowych3. W wyniku tego, definicje logiki aspirujące do uznania za ogólne,
w rzeczywistości nie odpowiadają wymaganiom logik stosowanych
w technice. Rodzi to wątpliwości co do ich ogólności i obiektywności.
Stały sposób działania wydaje się najistotniejszym wyróżnikiem tego,
co najczęściej nazywane jest logiką. Prawdopodobnie z tych względów,
w potocznym języku technicznym, można usłyszeć o „poznawaniu logiki
urządzenia”. Przy czym, za zupełnie oczywiste uznaje się istnienie urządzeń charakteryzujących się różnymi logikami działania. Wobec tego
działalność techniczna pozwala na praktyczne i obiektywne doświadczanie istnienia różnych logik. Prowadzi to do możliwości porównywania
języków opisujących działanie różnorodnych obiektów technicznych,
a szczególnie ich sterowników, z dotychczas znaną wiedzą odnosząca się
do teoretycznego dorobku logiki i metodologii.
Logiczna analiza sposobów działania obiektów technicznych zakłada
pełną sprawność wszystkich elementów, podzespołów i modułów. W ten
sposób na samym wstępie oczekuje się powtarzalnego działania urządzenia. W drugiej kolejności następuje identyfikacja polegająca na ustalaniu
charakteru jakościowego reakcji urządzenia na sygnały sterujące. W następnym etapie jest możliwa identyfikacja ilościowa, gdy wiemy jakie
powtarzalne procesy należy badać. W odniesieniu do stosunkowo prostych obiektów identyfikacja prowadzi do określenia najprostszych logik
działania urządzeń. W przypadkach bardziej skomplikowanych, istnieje
potrzeba odwołania się do bardziej złożonych systemów logicznych,
które opisywane są jako tzw. modele systemów technicznych. Dla rozpatrzenia zagadnień podstawowych wystarczające jest odniesienie się do
stosunkowo prostych logik działania urządzeń. Z tego względu zagadnienie modelowania systemów technicznych nie będzie dalej omawiane.
Por. Mała encyklopedia logiki. Zakład Narodowy im. Ossolińskich – Wydawnictwo, Wrocław 1988. Str. 95-120
3
Por. M. Ruse, Mystery of Mysteries, s. 35
2
125
Związek logiki z powtarzalnością działań jest bardzo istotny. W odniesieniu do urządzeń technicznych powtarzalność działań jest podstawowym kryterium oceny poprawności działania urządzeń i ich przydatności („zdatności”) technicznej. Na tej podstawie można mówić o przewidywalności zachowania się urządzeń oraz o możliwości celowego ich
wykorzystania. Gdy powtarzalność działań urządzeń technicznych zanika, to traktuje się je jako „niezdatne” do dalszej eksploatacji. Stopień
i nieodwracalność niezdatności podlega indywidualnej ocenie nazywanej procesem diagnostyki technicznej. Wszelkie odstępstwa od założonego logicznego działania urządzeń są klasyfikowane jako awarie. Może
zdarzyć się, iż w wyniku awarii urządzenie nadal działa powtarzalnie,
ale zmianie ulega jego logika działania. Jeśli taka logika nie zapewnia
realizacji założonych celów technicznych, to również traktowana jest
jako wadliwa. W ten sposób bardzo łatwo można wskazać istnienie pożądanych i niepożądanych logik, w zależności od zakresu ich użyteczności. Ale w pierwszej kolejności wyraźnie widać, iż mogą one być różne,
a pomimo to nadal spełniają warunki wyodrębnienia pojęcia logiki rozumianej jako stały sposób działania. W dalszej kolejności zostanie opisane
zagadnienie podstawowych funkcji logicznych wykorzystywanych
w technice.
3. Podstawowe funkcje logiczne wykorzystywane w technice
Za najważniejszy system logiczny w technice uważa się tzw. logikę
Boole’a4. Wywodzi się ona z dwuwartościowej algebry Boole’a zawierającej trzy podstawowe reguły przekształcania informacji: negację, alternatywę i koniunkcję. W tabelach Tab. 1, Tab. 2 i Tab. 3 podano symboliczny zapis wymienionych reguł.
Informacja wchodząca
0
1
Informacja wychodząca
1
0
Tab.1. Reguły przekształcania informacji dwuwartościowej negacji.
4
M. Olszewski, W. J. Kościelny, W. Mednis, J. Szaciło-Kosowski, P. Wasiewicz, Urządzenia i systemy mechatroniczne, Wydawnictwo REA. Warszawa
2009, s. 81.
126
Pierwsza informacja wchodząca
0
0
1
1
Druga informacja
wchodząca
0
1
0
1
Informacja wychodząca
0
1
1
1
Tab.2. Reguły przekształcania informacji dwuwartościowej dwuargumentowej alternatywy.
Pierwsza informacja wchodząca
0
0
1
1
Druga informacja
wchodząca
0
1
0
1
Informacja wychodząca
0
0
0
1
Tab.3. Reguły przekształcania informacji dwuwartościowej dwuargumentowej koniunkcji.
Według powszechnego przekonania, większość technicznych systemów logicznych można sprowadzić do logiki Boole’a5. Przekonanie to
wzmacniane jest przez oczekiwanie istnienia tylko jednej logiki, a tymczasem wiadomo, iż istnieje logika zbiorów, klasyczna logika zdań
i różne reguły wnioskowania. Jednak rozważania podstawowe dotyczące
interpretacji pojęć w raz przyjętych paradygmatach rzadko są podejmowane6. Tworzy to wrażenie tendencyjnego kształtowania wyobrażeń sugerujących możliwość wtłoczenia wszelkich systemów wiedzy do modeli zbliżonych do schematów przetwarzania informacji charakterystycznych dla arytmetyki. W takich schematach, na podstawie danych
wejściowych, można jednoznacznie określić wyniki przetwarzania informacji. I odwrotnie, na podstawie wyników, można jednoznacznie odtworzyć dane wejściowe. W ten sposób podaje się argumenty potwierdzające
obiektywny charakter przetwarzania informacji.
Oprócz logiki Boole’a, w systemach technicznych wykorzystywane
są również inne systemy logiczne. Różne reguły przekształcania informacji realizowane są przez urządzenia techniczne nazywane bramkami
5
Ibidem, s. 239
Por. T. S. Kuhn, Struktura rewolucji naukowych, przeł. H. Ostromęcka,
J. Nowotniak, Wydawnictwo ALETHEIA 2009, s. 140, 250, 307, 353,
6
127
logicznymi. Bramki logiczne traktowane są jako moduły urządzeń o znanym sposobie przekształcania informacji i nieznanej budowie wewnętrznej. Najczęściej z określeniem bramka logiczna można się spotkać w
elektronice cyfrowej. Systemy techniczne mogą być budowane z bardzo
różnorodnych bramek, a nie tylko z bramek systemu logicznego Boole’a.
W ten sposób, w technicznych systemach logicznych można spotkać się
z różnymi logikami składającymi się z różnej liczby różnorodnych reguł
przetwarzania informacji. Zdarza się również, że oprócz reguł przetwarzania informacji zmieniają się systemy wartości, zasady metodologiczne i sposoby interpretacji. Nawet jeśli systemy wartości, zbiory reguł
przetwarzania informacji, zbiory zasad metodologicznych i sposoby interpretacji pozostaną takie same, to w technice można zauważyć możliwości realizacji tych samych efektów działania na wiele różnych sposobów. Mamy w tych przypadkach do czynienia z naruszeniem podstawowego oczekiwania dotyczącego jednoznaczności ścieżki przetwarzania
informacji. Okazuje się, iż ten sam efekt przetwarzania informacji można
uzyskać na wiele różnych sposobów. Najwyraźniej natura przypomina,
iż idealny uporządkowany świat wyobrażeń ludzkich, usystematyzowanych w ramach podstawowych tez metodologii naukowej, nie zawiera
wszystkich możliwości7. Niektóre z takich przypadków zostaną omówione w odniesieniu do technicznej realizacji podstawowych funkcji logicznych zaliczanych do logiki Boole’a. W pierwszej kolejności zostanie
omówiona negacja będąca jednoargumentową funkcją logiczną zmieniającą wartość argumentu na wartość przeciwną.
4. Techniczna realizacja dwuwartościowej negacji
W tabeli Tab. 1 podano reguły przekształcania informacji zwanej
dwuwartościową negacją. Negacja jest funkcją jednoargumentową, podobnie jak funkcja zwana powtórzeniem, której symbolicznie zapisane
reguły nieprzekształcania informacji podano w Tab. 4.
Informacja wchodząca
0
1
Informacja wychodząca
0
1
Tab.4. Reguły nieprzekształcania informacji dwuwartościowego powtórzenia.
7
Ibidem, s. 183, 355
128
W rozważaniach teoretycznych funkcje jednoargumentowe najczęściej traktowane są jako oczywiste i trywialne. Jednak w zastosowaniach
technicznych funkcjom jednoargumentowym przypisuje się największe
znaczenie praktyczne. Niewątpliwie wynika to z tzw. doświadczeń zawodowych, a nie z chęci czy też ambicji intelektualnych. W praktyce
instalacyjnej, wszelkiego typu urządzeń podstawową czynnością
wstępną jest sprawdzenie, czy sygnały i nośniki energii są przesyłane
zgodnie z oczekiwaniem projektowym. Temu służą coraz bardziej skomplikowane technologie montażu, sprawdzania i pomiarów. Zagadnienia
te dobrze widoczne są zarówno w energetyce (np. wymagania ciągłości
zasilania w sieciowych systemach elektrycznych), transporcie (np.
warsztatowa diagnostyka stanu przewodów elektrycznych w pojazdach),
sferze bytowej ludności (np. okresowe kontrole domowych instalacji
elektrycznych), telekomunikacji (np. odbiorcze i okresowe badania charakterystyk połączeń światłowodowych8).
Rys. 1. Przykładowy wykres histerezy przekaźnika elektrotechnicznego.
Na Rys. 1 przedstawiono graficzną wizualizację naturalnego zjawiska
nazywanego histerezą. W wielu modelach teoretycznych zalicza się ją
do tzw. zjawisk nieliniowych. Ilustracja z Rys. 1 przedstawia typowy
przebieg zjawisk regularnie pojawiających się podczas obserwowania
zachowania elektrycznych dwustanowych urządzeń przełączających.
8
Por. PKN Komitet Techniczny nr 173: Systemy okablowania strukturalnego.
PN-EN 50173. Polski Komitet Normalizacji 2011, s. 34, 167
129
W sposób analogiczny przebiegają zjawiska np. w ciśnieniowych (gazowych i cieczowych) instalacjach przełączających. Na Rys. 1 zaznaczono
punkt opisujący współrzędne nominalnych parametrów pracy. Współrzędne na osi odciętych wyrażają wartości zmiennego parametru, jakim
jest napięcie elektryczne. Wartości liczbowe zapisane na tej osi, w odniesieniu do opisywanych zagadnień, można traktować jako przykładowe. Jednak dla różnych typów urządzeń przełączających współrzędne
nominalnych parametrów pracy mogą być inne, lecz zawsze są ściśle
określone. W przypadku pokazanym na Rys. 1 nominalnym napięciem
przełączającym przekaźnik jest 12 V prądu stałego. Nominalnym napięciem wyłączającym przekaźnik jest napięcie o wartości 0 V. Wartości
nominalne można określić jako teoretycznie oczekiwane. W praktyce
najczęściej są one jedynie zbliżone do wartości teoretycznych. Podczas
zmiany wartości napięcia zasilającego od 0 V do 12 V nagle następuje
przełączenie elementu wykonawczego. Na Rys. 1 przykładowo podano
napięcie włączenia jako 6 V, a napięcie wyłączenia jako 3 V. W ten sposób na wykresie powstaje kształt pętli tzw. histerezy, charakteryzującej
zakres niejednoznaczności działania urządzenia przełączającego. Momenty przełączenia różnych egzemplarzy urządzeń tego samego typu są
różne i mogą ulegać zmianom w wyniku degradacji materiałów w czasie
użytkowania (tzw. zużycia), zmian temperatury i zmian natężenia prądu,
przy zachowaniu tego samego napięcia. Tworzy to coś w rodzaju teoretycznego obszaru przypadkowości, nieprzewidywalności i niewiedzy w
odniesieniu do sposobów pracy układów przełączających. Po uwzględnieniu występowania takich zjawisk praktycznie we wszystkich urządzeniach, uświadamiamy sobie, dlaczego oczekiwanie pełnej kontroli nad
urządzeniami pozostaje jedynie teoretycznym postulatem. Najprostszym
sposobem zapobiegania ujawnianiu się wskazanych przypadkowości jest
zachowywanie nominalnych parametrów pracy urządzeń zasilających,
co najczęściej nie jest w pełni kontrolowalne. W momencie spadku parametrów zasilania w całości lub części sterownika, pojawiają się trudne
do przewidzenia kombinacje działań różnych podzespołów. Podobnie
dzieje się w wyniku losowo pojawiających się niesprawności poszczególnych elementów przełączających.
Ze względów praktycznych dobrze jest wyróżniać w układach sterujących trzy typy obszarów: obszary wypracowania sygnałów sterujących, obszary przetwarzania informacji oraz obszary wykonawcze. Takie rozróżnienie poprawia przejrzystość struktury układów sterujących
oraz ułatwia zamienne wykorzystanie różnych technologii sprzętowych.
Dzięki temu w poszczególnych obszarach można zamiennie wykorzy-
130
stywać elementy elektryczne, pneumatyczne, hydrauliczne lub mikroprocesorowe. Dla zilustrowania tych możliwości poniżej zamieszczono
przykładowe schematy przedstawiające realizację powtórzenia i negacji.
Na Rys. 2 przedstawiono schematyczny zapis elektrycznej realizacji powtórzenia i negacji stosowanych w obszarach wypracowania sygnałów
sterujących. Na schemacie wykorzystano najczęściej stosowane oznaczenia. Napis „24 V DC” oznacza nominalne napięcie zasilania w woltach prądu stałego. Napis „NO” odnosi się do tzw. styku normalnie
otwartego przełączanego ręcznie, którego symbol graficzny jest widoczny na schemacie elektrycznym, a napis „NC” odnosi się do tzw.
styku normalnie zamkniętego przełączanego ręcznie, którego symbol
graficzny również jest widoczny na schemacie elektrycznym. Napisy
„K1” i „K2” odnoszą się odpowiednio do cewek elektromagnesów
dwóch przekaźników elektrotechnicznych. W celu realizacji jednoargumentowego powtórzenia wykorzystano styk oznaczony jako NO i przekaźnik oznaczony jako K1. Realizując jednoargumentową negację wykorzystano styk oznaczony jako NC i przekaźnik oznaczony jako K2.
Rys. 2. Schematyczny zapis elektrycznej realizacji powtórzenia i negacji stosowanych w obszarach wypracowania sygnałów sterujących (opis w tekście).
Na Rys. 3 przedstawiono schematyczny zapis elektrycznej realizacji
powtórzenia i negacji w obszarach przetwarzania informacji. W tym wypadku napisy K1 i K2 odnoszą się odpowiednio do styków roboczych
przekaźników elektrotechnicznych K1 i K2. W przypadku tego rysunku
wyraźnie widać wzajemne związki oznaczenia alfanumerycznego z symbolami graficznymi. W podobnych sytuacjach takie same oznaczenia,
z takimi samymi symbolami graficznym na schematach elektrycznych,
są stosowane wielokrotnie, choć oznaczają różne przyłącza różnych styków w tym samym przekaźniku elektrotechnicznym. Traktowane jest to
jako specjalistyczny rodzaj zapisu logicznego, który instalator musi odszyfrować w czasie montażu urządzenia. Jednak z formalnego punktu
131
widzenia tego typu zapis nie może być uznany za ścisły i jednoznaczny.
Inna praktyka polega na numerowaniu styków w postaci dodawania kolejnych liczb przed oznaczeniami typu K1, ale ten sposób również nie
zapobiega trudnościom interpretacyjnym. Z tych powodów, w zakresie
samych oznaczeń stosowanych w dokumentacjach technicznych, istnieją
lokalne (subiektywne) zwyczaje interpretacyjne. W ten sposób opisy takie nie spełniają wszystkich postulatów naukowych odnoszących się do
jednoznaczności, obiektywności i możliwości powtórzenia tych samych
czynności przez inną osobę. W wyniku tego, w zależności od interpretacji, na podstawie tej samej dokumentacji można połączyć układy, które
mogą spowodować samozniszczenie, wadliwe działania lub w najmniejszej liczbie przypadków – mogą działać poprawnie, czyli zgodnie z oczekiwaniami. Należy tu podkreślić, iż zazwyczaj jest kilka różniących się
od siebie połączeń zapewniających poprawne działanie urządzenia. Bardzo rzadko zdarza się, że istnieje wyłącznie jedno połączenie poprawne.
Po tych wyjaśnieniach (spoglądając na Rys. 2 i Rys. 3) staje się widoczne, iż o rodzaju realizowanej funkcji decyduje symbol graficzny
w postaci symbolu styku normalnie otwartego lub symbolu styku normalnie zamkniętego. Opisy symboli graficznych ułatwiają orientację
w liczbie i rodzajach wykorzystanych elementów elektrotechnicznych.
Symbol styku normalnie otwartego pozwala na realizację przekazania
sygnału, a symbol styku normalnie zamkniętego pozwala na realizację
negacji. Pozostałe oznaczenia na Rys. 3 widoczne jako E1 i E2 oznaczają
cewki elektromagnesów załączających urządzenia wykonawcze.
Rys. 3. Schematyczny zapis elektrycznej realizacji powtórzenia i negacji stosowanych w obszarach przetwarzania informacji (opis w tekście).
Analogicznie do schematów zamieszczonych na Rys. 2 i Rys. 3, na
Rys. 4 przedstawiono schematyczny zapis elektrycznej realizacji powtórzenia i negacji stosowanych w elektrycznych obszarach wykonawczych. Napisy E1 i E2 odnoszą się odpowiednio do styków roboczych
132
sterownych przez cewki elektromagnesów załączających urządzenia wykonawcze (najczęściej tzw. styczników). Najważniejsza informacja na
Rys. 4 dotyczy sposobu zasilania silnoprądowych łączników Q1 i Q2.
W ten sposób wyraźnie widać, iż urządzenia elektryczne budowane są z
niezależnych obwodów elektrycznych o bardzo różnych właściwościach. Z tego powodu wyodrębnione wcześniej obszary wypracowania
sygnałów sterujących, obszary przetwarzania informacji oraz obszary
wykonawcze są ważne i pomocne, ale nie wyczerpują strukturalnej analizy wszystkich systemów sterowania.
Rys. 4. Schematyczny zapis elektrycznej realizacji powtórzenia i negacji stosowanych w elektrycznych obszarach wykonawczych (opis w tekście)
Wyróżnienie obszarów wypracowania sygnałów sterujących, obszarów przetwarzania informacji oraz obszarów wykonawczych, ułatwia
wykorzystanie różnych technologii w budowie układów sterowania. Dla
przykładu na Rys. 5 przedstawiono obszar wykonawczy wykonany
w technologii elektrohydraulicznej z wykorzystaniem tzw. cylindrów
hydraulicznych dwustronnego działania. Układy elektryczne w obszarach wypracowania sygnałów sterujących oraz w obszarach przetwarzania informacji mogą pozostać bez zmian, analogicznie do schematów
przedstawionych na Rys. 2 i Rys.3. Na Rys. 5 przedstawiono cztery najczęściej spotykane możliwości połączeń dotyczących powtórzenia i negacji. W ogólności istnieje znacznie więcej różnorodnych połączeń
umożliwiających realizację powtórzenia i negacji, które są wynikiem
różnych konstrukcji zaworów sterujących. Przedstawione przykłady są
wystarczające do przekazania informacji o zasadach łączenia elektrohydraulicznych elementów wykonawczych. W ten sposób widać, że technicy zajmujący się projektowaniem i obsługą różnorodnych układów sterowania, posługują się informacjami dotyczącymi tzw. logiki działania i
łączenia elementów, a nie sztywnymi układami konstrukcyjnymi, gdyż
133
jest ich zbyt wiele, aby wszystkie wyczerpująco opisać. Wynika to z dużej i trudnej do przewidzenia różnorodności produktów oferowanych
przez dostawców sprzętu technicznego. W praktyce nie można dokładnie
przewidzieć, z jakim sprzętem technik będzie miał do czynienia. Z tych
względów ilustracje przedstawione na Rys. 5 można uznać za wystarczające do przekazania najważniejszych „ideowych” informacji.
Na schematach zamieszczonych na Rys. 5 wykorzystano elektrozawór dwupołożeniowy najczęściej kojarzony z logiką binarną. Jednak jest
to skojarzenie pozorne, gdyż w technice zaworów występuje znacznie
więcej sposobów ich działania, choć w jednym zaworze dwupołożeniowym wykorzystuje się jedynie dwa. Dla zilustrowania tego zagadnienia
na Rys. 6 pokazano możliwe do wykorzystania stany ustalone zaworów
wielopołożeniowych. Na tej podstawie można ocenić tendencyjne usiłowania interpretacji działania zaworów jako przejawów logiki binarnej.
W praktyce, ani liczba ustalonych położeń zaworów, ani liczba doraźnie
wykorzystanych sposobów działania zaworów w poszczególnych położeniach nie może być interpretowana jako logika binarna. Dość często
spotyka się również zawory wielopołożeniowe, które z tych samych powodów okazują się zbyt trudne do opisania w kategoriach logik wielowartościowych. Z technicznego punktu widzenia można nawet stwierdzić, iż ogólne prawidłowości logik wielowartościowych okazują się
zbyt skomplikowane, ponieważ w technice wystarczy analizować ograniczoną liczbę przypadków szczególnych, choć mogą się one różnić w
różnych urządzeniach. Wobec tego można uznać, że każdy przypadek
realizacji układów sterowania może tworzyć swoją indywidualną logikę
działania, która najczęściej okazuje się prostsza od odpowiednich logik
o charakterze ogólnym.
W podpunkcie a) na Rys. 5 przedstawiono połączenie najczęściej interpretowane jako powtórzenie. Porównując podpunkt b) z podpunktem
a), można zauważyć możliwość wprowadzenia negacji poprzez wybór
zaworu o odwrotnym działaniu do zaworu pokazanego na schemacie a).
Takie zawory są dostępne, jakkolwiek nie u wszystkich wytwórców tego
typu elementów. Na schematach c) i d) oprócz zmiany sposobu działania
zaworów wprowadzono dodatkowo skrzyżowanie przewodów łączących
zawory z cylindrem hydraulicznym dwustronnego działania. W dokumentacji technicznej nie zaleca się rysowania krzyżujących się przewodów łączących zawory z cylindrami hydraulicznymi dwustronnego działania. Z tego względu, krzyżujące się przewody są rzadko spotykane
w dokumentacjach, ale ten sposób wprowadzania negacji jest w praktyce
najczęściej stosowany. Wątpliwości teoretyczno-formalne są pokony-
134
wane poprzez wymaganie sprawdzenia sposobu pracy cylindra hydraulicznego. Oczekuje się przy tym wiadomości wykraczających poza informacje przekazywane w formie schematu układu. Zamiana przewodów w układach hydraulicznych jest kłopotliwa, ale zazwyczaj konieczna, gdyż często dochodzi do pomyłek, szczególnie gdy przewody
są dłuższe i trudno je jednoznacznie zidentyfikować. Opisane prawidłowości odnoszą się do cylindrów i siłowników dwustronnego działania
spotykanych w obszarach wykonawczych układów hydraulicznych,
pneumatycznych, elektropneumatycznych, neumo-hydraulicznych
i elektro-pneumo-hydraulicznych.
Rys. 5. Wykorzystanie elementów elektro-hydraulicznych w obszarze wykonawczym do realizacji: a) powtórzenia, b) negacji, c) powtórzenia = podwójnej negacji, d) negacji (określenia według najczęściej spotykanej interpretacji)
z wykorzystaniem siłownika dwustronnego działania (opis w tekście).
135
Rys. 6. Możliwe do wykorzystania stany ustalone zaworów wielopołożeniowych: a) zawory „dwudrogowe”, b) zawory „trójdrogowe”, c) zawory „czterodrogowe” (wyjaśnienia w tekście)
Analogicznie do zasad uruchamiania cylindrów hydraulicznych dwustronnego działania przedstawionych na Rys. 5, na Rys 7 przedstawiono
zasady uruchamiania pneumatycznych siłowników jednostronnego działania. Oba rysunki dotyczą połączeń najczęściej spotykanych w obszarach wykonawczych układów sterowania. Na Rys. 7 posłużono się przykładami dwóch najczęściej spotykanych wykonań siłowników jednostronnego działania z jednostronnym tłoczyskiem. Jedno wykonanie posiada sprężynę wymuszającą powrót siłownika w beztłoczyskowej komorze siłownika (podpunkty a i b), a drugie wykonanie posiada sprężynę
wymuszającą powrót siłownika w tłoczyskowej komorze siłownika
(podpunkty c i d). Do sterowania siłownikiem wybrano najczęściej stosowany zawór przeznaczony do sterowania pneumatycznymi siłownikami jednostronnego działania, jakkolwiek istnieją możliwości wykorzystania w tym samym celu wielu innych zaworów. Przedstawienie zasad łączenia tego typu układów nie wymaga tworzenia katalogu wszystkich możliwości. Podobnie jak w odniesieniu do układów hydraulicznych zakłada się, że nie ma możliwości przewidzenia wszystkich możliwych przypadków. Zrozumienie tych okoliczności prowadzi do akceptacji istnienia wielu równie dobrych rozwiązań, wraz ze świadomością
zachowania powściągliwości w usiłowaniu opisania ich wszystkich.
136
Z tych powodów wiedza inżynierska, w zależności od wyznawanych paradygmatów9, może być uznawana za wiedzę ścisłą i naukową, albo nie.
Pojawiają się przy tym wątpliwości, czy zarzut subiektywności kierowany jest do wiedzy, języka opisującego tę wiedzę, czy też subiektywna
jest sama ocena sytuacji.
Rys. 7. Wykorzystanie elementów elektro-pneumatycznych w obszarze wykonawczym do realizacji: a) powtórzenia = podwójnej negacji, b) negacji, c)
powtórzenia, d) negacji (określenia według najczęściej spotykanej interpretacji)
z wykorzystaniem siłownika jednostronnego działania (opis w tekście).
W odniesieniu do realizacji jednoargumentowych funkcji logicznych
przedstawionych na Rys. 5 i Rys. 7 wielokrotnie wspominano o interpretacji działania poszczególnych zaworów, połączeń, elementów i układów. Zagadnienie interpretacji ma zasadniczy wpływ na wzajemne dopasowywanie logik i sposobu działania urządzeń technicznych. W zasadzie można by uznać, iż teoretycznie opracowane logiki trochę na siłę są
wtłaczane do opisów zagadnień technicznych. Urządzenia techniczne
najzwyczajniej mają swoje specyficzne logiki działania, które nie zawsze
dają się dopasować do ram opisów teoretycznych. Bardzo przejrzystą
ilustracją tych zjawisk są schematy przedstawione na Rys. 8. Schematy
9
Por. T. S. Kuhn, Struktura rewolucji naukowych, s. 183, 192, 250
137
w podpunktach a) i b) na Rys. 8 różnią się jedynie oznaczeniami
i
. Oznaczenie
zwyczajowo interpretowane jest jako powtórze-
nie, a oznaczenie
jako negacja. Wobec tego na Rys. 8 pokazano możliwość wprowadzenie negacji poprzez zmianę oznaczeń wyrażających
interpretacje działania tego samego układu. To zjawisko pokazano tu na
bardzo prostym przykładzie, ale można je spotkać również w układach
bardziej skomplikowanych. W niektórych przypadkach zdarzają się interpretacje, które mogą być uznane za logiczne jedynie w bardzo specyficznej perspektywie. Takie szczególne przypadki nie będą w tym miejscu przedstawiane, gdyż pokazane przykłady uznano za najbardziej komunikatywne.
Na Rys. 9 w podpunkcie a) przedstawiono przykład powtórzenia,
a podpunkcie b) negacji jednoargumentowych funkcji logicznych wprowadzonych w obszarach wypracowania sygnałów sterujących układów
pneumatycznych. W przypadkach jednoargumentowych funkcji powtórzenia i negacji zazwyczaj nie ma potrzeby realizacji ich w obszarze
przetwarzania informacji. W tej opinii pomija się przypadki bardziej złożonych algorytmów sterowania, w których negacje mogą pojawić się
niejako przy okazji realizacji innych funkcji logicznych. Z tych powodów nie przedstawiono możliwości realizacji powtórzenia i negacji w
obszarach przetwarzania informacji uznając je za elementy składowe
bardziej złożonych funkcji logicznych.
Rys. 8. Przykład wpływu oznaczeń symbolicznych na interpretację działania
tego samego układu elektro-pneumatycznego(opisy w tekście).
138
Rys. 9. Przykład możliwości wprowadzania negacji w obszarach wypracowania sygnałów sterujących układów pneumatycznych (opis w tekście)
Porównując realizację powtórzenia i negacji przedstawionych na Rys.
2, Rys. 3, Rys. 4, Rys. 5, Rys. 7, Rys. 8 i Rys. 9, należy zwrócić uwagę,
iż te same funkcje, z logicznego punktu widzenia, można zrealizować
w wielu miejscach urządzenia i różnymi technologiami. Jednak pod
względem praktycznym, uwzględniając właściwości wykorzystywanych
elementów konstrukcyjnych, niektóre sposoby okazują się korzystniejsze od innych. Najczęściej odnosi się to do energochłonności, bezpieczeństwa, ciężaru, kosztów i wszelkich innych kryteriów stosowanych
do oceny praktycznie wykorzystywanych urządzeń technicznych. W ten
sposób ocena technicznej poprawności urządzeń staje się bardzo skomplikowana. Zazwyczaj prowadzi również do formułowania zastrzeżeń
metodologicznych w odniesieniu do wyidealizowanych opisów teoretycznych. Zastrzeżenia te w większym stopniu odnoszą się do poszczególnych paradygmatów naukowych, niż do samej idei nauki. Jednak
przyczyny wątpliwości odnoszących się do prób pogodzeniem teorii
z praktyką zazwyczaj są trudne do identyfikacji, co dość często prowadzi
do nieporozumień i konfliktów. W takich przypadkach częściej można
zaobserwować naturalną reakcję obronną polegającą na odrzuceniu
i krytyce, niż na dążeniu do identyfikacji przyczyny istnienia różnych
opinii. Prawdopodobnie takie okoliczności wpływają na dość często występujące nieporozumienia techników z naukowcami. Należy przy tym
pamiętać, iż naukowcy są „rozliczani” z teorii, a technicy ze wszystkiego
– również z błędów teorii. W dalszej części w podobnym duchu zostaną
przedstawione podstawowe sposoby realizacji dwuargumentowych
funkcji zaliczonych do logiki Boole’a. Na ich przykładzie jeszcze raz
zostanie zwrócona uwaga na różnice pomiędzy teoretycznymi a technicznymi ocenami poprawności działania układów technicznych.
139
5. Techniczna realizacja dwuwartościowej dwuargumentowej alternatywy
Podobnie jak w przypadku prezentacji technicznych realizacji jednoargumentowych funkcji logicznych, w pierwszej kolejności zostaną
przedstawione możliwości technicznej realizacji dwuargumentowych
funkcji logicznych na przykładzie układów elektrycznych. Na Rys. 10
przedstawiono przykładowy schemat elektrycznego układu wypracowania sygnałów sterujących wykorzystywanych do realizacji dwuargumentowych funkcji logicznych. Dobrą praktyką inżynierską jest wykorzystywanie pokazanych na Rys. 10 połączeń elektrycznych do wypracowania
sygnałów sterujących, niezależnie do realizowanej dwuargumentowej
funkcji logicznej. Taka zasada postępowania ułatwia kontrole i ewentualne korekty funkcji logicznych realizowanych sprzętowo. Dodatkowo,
budowa strukturalna układów sterowania ułatwia zastępowanie układów
znajdujących się w obszarach przetwarzania informacji poprzez sterowniki programowalne. W obecnych czasach wykorzystanie sterowników
programowalnych jest powszechne. Jednak zazwyczaj obszary wypracowania sygnałów sterujących oraz obszary wykonawcze mają postać bardziej tradycyjną. W przypadku wykorzystania sterowników programowalnych należy uwzględniać wpływy sposobów łączenia przewodów w
obszarach wypracowania sygnałów sterujących i obszarach wykonawczych, gdyż mogą one tworzyć różnorodne funkcje logiczne. W sposób
szczególny dotyczy to rozbudowanych układów umieszczanych w obszarach wykonawczych, w których duża liczba urządzeń powoduje dużą
złożoność konstrukcyjną. Najczęściej dotyczy to urządzeń zawierających układy hydrauliczne i pneumatyczne. Uwzględnienie tych okoliczności jest istotne nawet podczas wykonywania dość rutynowych czynności serwisowych.
Podobnie do Rys. 2, na Rys. 10 wykorzystano najczęściej stosowane
oznaczenia. Napis „24 V DC” oznacza nominalne napięcie zasilania w
woltach prądu stałego. Napisy „NO” odnoszą się do tzw. styków normalnie otwartych przełączanych ręcznie, których symbole graficzne są widoczne na schemacie elektrycznym. Na Rys. 10 cyframi 1 i 2 wyróżniono
dwa różne styki NO. Napisy K1 i K2 odnoszą się odpowiednio do cewek
elektromagnesów dwóch różnych przekaźników elektrotechnicznych.
140
Rys.10. Przykładowy schemat elektrycznego układu wypracowania sygnałów sterujących wykorzystywanych do realizacji dwuargumentowych funkcji
logicznych (opis w tekście).
Na Rys. 11 przedstawiono schemat elektryczny realizacji dwuargumentowej alternatywy w obszarze przetwarzania informacji. Analogicznie do wcześniejszych rysunków opisy K1 i K2 odnoszą się do normalnie
otwartych styków roboczych przekaźników elektrotechnicznych, a oznaczenie E1 odnosi się do cewki elektromagnesu urządzenia wykonawczego. Urządzenie wykonawcze może być elektryczne, hydrauliczne,
pneumatyczne lub mieszane.
Rys. 11. Przykład elektrycznej realizacji dwuargumentowej alternatywy
w obszarze przetwarzania informacji (opis w tekście).
Alternatywa, tak jak każda inna funkcja logiczna, oprócz realizacji
elektrycznej, może być wykonana z wykorzystaniem sterownika programowalnego albo z wykorzystaniem układów hydraulicznych lub pneumatycznych. Realizacja z wykorzystaniem sterownika programowalnego nie została tu opisana, gdyż podane przykłady uznano za bardziej
komunikatywne i wystarczające do prezentacji opisywanej problematyki. Na Rys. 12 w sposób szczególny zwrócono uwagę na możliwości
realizacji alternatywy poprzez wykorzystanie różnorodnych zaworów
i ich połączeń w układach pneumatycznych. Oznaczenia I1 i I2 dotyczą
odpowiednio pierwszej i drugiej informacji wchodzącej, a oznaczenie
141
Q dotyczy informacji wychodzącej. W układach hydraulicznych w analogiczny sposób można zrealizować przypadki b) i c). Odnosząc się do
układów pneumatycznych przedstawionych na Rys. 12, można stwierdzić, iż wszystkie pozwalają na realizację funkcji logicznej zwanej alternatywą. Czyli pod względem opisu teoretycznego są one równoważne.
Jednak z technicznego punktu widzenia tak nie jest. W konsekwencji
tego nie zawsze można je ze sobą zamieniać. Z tych powodów, zakładając możliwość wyróżnienia specyficznej logiki technicznej układów
pneumatycznych, każdy z układów pokazanych na Rys. 12 można nazwać innym funktorem logicznym. W ten sposób, w zależności od stopnia szczegółowości opisu tego samego zagadnienia, można twierdzić, że
wszystkie te przykłady są równoważne albo nie. Dla techników przedstawione połączenia są zupełnie różne i przeciwne twierdzenia mogą
u nich budzić zdziwienie. Podobnie teoretycy, mogą być zdziwieni przekonaniami techników. Te przykłady dobrze ilustrują przyczyny podjęcia
próby refleksji nad różnym postrzeganiem tych samych zjawisk przez
osoby z różnie uformowanym sposobem spostrzegania podobnych zagadnień. W tym miejscu należy jeszcze zwrócić uwagę, że przykłady
z Rys. 12 nie wyczerpują wszystkich możliwych przypadków układów
technicznych, które interpretuje się jako przypadki realizacji dwuargumentowej alternatywy. Dodatkowo, z punktu widzenia doświadczenia
technicznego, nic nie upoważnia do stwierdzenia, iż liczba takich możliwości jest skończona. Podobne prawidłowości można zaobserwować
również w odniesieniu do innych funkcji logicznych. Poniżej dla porównania w podobny sposób opisano techniczną realizację koniunkcji.
Rys. 12. Przykład trzech możliwości (technicznie nierównoważnych) pneumatycznej realizacji dwuargumentowej alternatywy w obszarze przetwarzania
informacji (opis w tekście).
142
6. Techniczna realizacja dwuwartościowej dwuargumentowej
koniunkcji
Opis technicznej realizacji dwuwartościowej dwuargumentowej koniunkcji jest analogiczny do wcześniej opisanej realizacji dwuwartościowej dwuargumentowej alternatywy. W tym opracowaniu opisy ograniczono do najprostszych funkcji dwuargumentowych, gdyż są one wystarczające dla prezentacji poruszanej problematyki, a realizacje bardziej
złożonych funkcji logicznych jedynie ograniczają wyrazistość opisów.
Dla potwierdzenia istnienia podobnych zjawisk do opisanych wcześniej,
poniżej przedstawiono schematy reprezentujące podstawowe prawidłowości technicznej realizacji koniunkcji. Na Rys. 13 przedstawiono elektryczną realizację koniunkcji w umownym obszarze przetwarzania informacji. System oznaczeń graficznych i opisów alfanumerycznych jest taki
sam jak w przypadku alternatywy. Z tych powodów, w tym miejscu nie
powtarza się dokładniejszych wyjaśnień. Dla celów technicznych systemy oznaczeń graficznych i alfanumerycznych zostały znormalizowane. Jednak krajowa literatura polskojęzyczna nie nadąża za regulacjami międzynarodowymi. Z tego powodu, w tym opracowaniu nie podaje się oznaczeń norm angielskojęzycznych, lecz korzysta ze wzorców
dostępnych w literaturze krajowej wzorowanej na opracowaniach angielskojęzycznych i niemieckojęzycznych. Istotne jest zwrócenie uwagi na
międzynarodowy charakter wykorzystanych oznaczeń, dzięki czemu
formalnie nie ma konieczności zamieszczania szczegółowych opisów
tego typu schematów.
Rys. 13. Przykład elektrycznej realizacji dwuargumentowej koniunkcji zrealizowanej w obszarze przetwarzania informacji (opis w tekście).
Realizację trzech różnych wariantów funkcji logicznej zwanej koniunkcją przedstawiono na Rys. 14. Podobnie jak w przypadku wcześniej
opisanej alternatywy nie można zakładać skończonej liczby sposobów
143
technicznej realizacji koniunkcji. To samo dotyczy interpretacji logicznej układów, które w zależności od wykorzystanych sformułowań, mniej
lub bardziej poprawnie bywają nazywane określeniami analogicznymi
do określeń wykorzystywanymi w opisach funkcji logicznych. Takich
przypadków jest bardzo dużo, lecz ich opis nie wnosi istotnych argumentów do rozpatrzonych najbardziej oczywistych przykładów. Uznając
przedstawione opisy za wystarczające do reprezentatywnego przedstawienia podstawowej problematyki technicznej realizacji funkcji logicznych poniżej przystępuje się do podsumowania wcześniej opisanych zagadnień.
Rys. 14. Przykład trzech możliwości (technicznie nierównoważnych) pneumatycznej realizacji dwuargumentowej koniunkcji zrealizowanej w obszarze
przetwarzania informacji.
7. Podsumowanie
Na Rys. 15 przedstawiono symbole blokowe stosowane w opisach
technicznych układów wykorzystujących działania, nazywane funkcjami
logicznymi. Symbole te nie wyjaśniają sposobu ich technicznej realizacji. Z tego powodu, posługując się tego typu symbolami, nie zauważa się
wcześniej opisanej problematyki. Problematyka ta staje się widoczna dopiero na poziomie rozpatrywania realizacji technicznych. Na poziomie
technicznym pojawiają się problemy pojęciowe, które zazwyczaj nie są
dokładnie analizowane jako nienaukowe. Taki stan rzeczy jest w pewien
sposób wygodny dla techników, gdyż nie muszą zmagać się z licznymi
uznanymi teoriami naukowymi. Podobnie jest w przypadku naukowców,
którzy, zachowując wygodną nieświadomość wskazanych problemów,
nie muszą zgłębiać istoty technologicznych podstaw techniki. W wyniku
tego, przedstawiona tematyka nie była wcześniej analizowana, a może
ona zmienić rozumienie wielu zagadnień podstawowych. Obserwacje
144
wykazują, iż właściwe rozumienie powyżej opisanych zagadnień może
ułatwić praktyczną działalność techników, co najbardziej odczuwalne
jest w procesie kształcenia nowych kadr technicznych10.
Rys. 15. Przykłady symboli blokowych używanych do symbolicznego
przedstawiania realizacji podstawowych funkcji logicznych a) negacji, b) alternatywy, c) koniunkcji.
Wcześniej opisane przykłady wykorzystania podstawowych pojęć logicznych do opisów zagadnień technicznych zrodziły sceptycyzm, odnoszący się do zasadności uznania ich za precyzyjne i dobrze określone.
Pod względem poznawczym, na gruncie determinizmu, prowokuje to do
zadania pytania: Czy możliwe jest wskazanie przyczyn obserwowanego
stanu? W odczuciu autora jesteśmy na początkowym etapie ujawniania
faktycznych okoliczności tworzących poszukiwane przyczyny. Za zasadniczy element tych okoliczności można uznać zagadnienie relatywizmu znaczenia wszelkich zdań twierdzących. Jednym z przykładów zadań twierdzących są definicje. W odniesieniu do definicji i definiowania
pojawiły się próby formalnego wyjaśnienia trudności związanych z ich
formalizacją11. Wiele wskazuje na to, że na zasadzie analogii, podobne
trudności dotyczą ocen treści wszelkich zdań twierdzących. Wobec tego,
treść informacji zawartych w zdaniach twierdzących może być różnie
10
Por. T. S. Kuhn, Dwa bieguny, tradycja i nowatorstwo w badaniach naukowych, tłum. S. Amsterdamski, Państwowy Instytut Wydawniczy, Warszawa
1985, s. 428, 440.
11
Por. M. Zawisławska, Metafora w języku nauki na przykładzie nauk przyrodniczych, Uniwersytet Warszawski. Instytut Polonistyki. Warszawa 2011, s. 236;
PKN Komisja Problemowa nr 256 Hasła terminologiczne w normach. PN-ISO
10241 Str. 10. Polski Komitet Normalizacji. Warszawa 1997; PKN Komitet
Techniczny ISO/TC37/SC2 Hasła terminologiczne w normach. Część 1: Wymagania ogólne oraz przykłady prezentacji. PN-ISO 10241-1, s. 30-32. Polski Komitet Normalizacji. Warszawa 2014; PKN Komitet Techniczny nr 256 Działalność terminologiczna. Zasady i metody. PN-ISO 704. Polski Komitet Normalizacji. Warszawa 2012, s. 29 – 40.
145
odczytywana w zależności od kontekstu, modelu, paradygmatu12. Tym
prawidłowościom podlegają również wszelkie zdania uznane za naukowe oraz wszelkie zdania, które określa się jako nienaukowe. W sposób
szczególny wśród zdań nienaukowych można znaleźć całkiem duży
zbiór zdań dotyczących praktycznych zagadnień technicznych. W opinii
autora, przykładami takich zdań są zdania odnoszące się do możliwości
realizacji tych samych funkcji logicznych, wykorzystując różne technologie, połączenia i kombinacje działań technicznych. Powyżej opisane
przykłady różnych możliwości realizacji tych samych funkcji logicznych
realizowanych przez układy elektryczne, układy pneumatyczne, układy
hydrauliczne i mieszane, wskazują na niejednoznaczność i nieprzewidywalność postaci technicznej. Z tych powodów, realizacja techniczna
może być uznana za twór subiektywny, który niekoniecznie będzie zrozumiały dla innych specjalistów, nawet z tej samej dziedziny techniki.
W ten sposób narusza się podstawowe postulaty nauki wrażane jako
oczekiwanie obiektywności i możliwości powtórzenia kreacji tego samego rozwiązania przez mniej „genialnych” członków społeczności naukowej lub technicznej. Efekty opisywanych zjawisk łatwo są obserwowalne w postaci praktycznych realizacji podstawowych funkcji logicznych logiki Boole’a, czyli negacji, alternatywy, koniunkcji – elektrycy
realizują je elektrycznie, elektronicy elektronicznie, pneumatycy pneumatycznie, hydraulicy hydraulicznie, informatycy i programiści programowo, mechatronicy w sposób mieszany łącząc różne technologie, matematycy matematycznie, a filozofowie najczęściej językowo.
W odniesieniu do wskazanych przyczyn trudności wynikających
z istnienia różnych paradygmatów naukowych, różnych technologii oraz
różnych technik realizacji funkcji logicznych, należy zwrócić szczególną
uwagę na zagadnienia wartościowania i oceny dokonywanych przez obserwatora zewnętrznego. Prawdopodobnie ocena wszelkich opisów,
działań i tworów technicznych również podlega podobnym relatywnym
prawidłowościom jak opisane powyżej13. W wyniku tego, w zależności
od celów, kryteriów i różnorodnych wyobrażeń wartościujących, ocena,
co jest naukowe, a co nie, zależy od okoliczności, w jakich ta ocena jest
dokonywana. Podobnie jak definicje i zdania twierdzące, tak i kryteria
ich oceny mogą być różne. Jeśli za cel uznamy działanie wybranej funk-
12
Por. T. S. Kuhn, Struktura rewolucji naukowych, s. 228, 308- 324; M. Zawisławska, Metafora w języku nauki na przykładzie nauk przyrodniczych, s. 236
13
Porównaj ibidem, s. 346-347. Kuhn bronił się przed takimi stwierdzeniami
traktowanymi jako zarzuty, ale nie jest jasne, czy ze względów instytucjonalnych, propagandowych czy z nieświadomości konwencji paradygmatu.
146
cji logicznej, bez wnikania w sposób jej realizacji, to kryterium rozstrzygalności stanie się jasne, powtarzalne i sprawdzalne. Tym samym można
takie działania i takie oceny uznać za naukowe. Jednak gdy technik zainteresuje się faktyczną budową urządzenia, to często okazuje się, że
sposobów realizacji jest wiele, a niektóre z nich chronione są tajemnicami handlowymi lub technologicznymi (czyli można je uznać za subiektywne oraz trudne do niezależnego odtworzenia). W ten sposób, w
zależności od kryteriów stosowanych przez obserwatora, to, co dla laika
było naukowe, dla specjalisty może stać się tajemnicze, magiczne i niedostępne. Na tej podstawie można sformułować zastrzeżenia dotyczące
użyteczności monokultury wyobrażeń naukowych ukierunkowanych na
monopolizację prawa do oceniania jasności i jednoznaczności opisów
zjawisk. Naukowiec usiłuje sprawować rolę sędziego, a technicy, najczęściej w poczuciu pokory względem naturalnego przebiegu zjawisk (z
uwzględnieniem świadomości braku potrzebnej wiedzy), nie mają odwagi głośno wyrażać swych zastrzeżeń. Tym bardziej, że dostępny dorobek naukowy nadal nie pozwala rozwiązywać wielu wyzwań, przed
którymi stają technicy. Świadomość takiego stanu rzeczy staje się coraz
bardziej istotna w konfrontacji z dążeniami do rozwiązywania nowych
problemów naszej technicznej rzeczywistości. Jako przykład można
wskazać znaczenie „niepewności we własne sądy” w odniesieniu do algorytmizacji inteligencji robotów14. Być może sama historia wojen również może być traktowana jako skarbnica skutków wywoływanych przez
„absolutną pewność” własnych przekonań, w tym również naukowych.
8. Wnioski
W odniesieniu do opisanych przykładów mających zilustrować
istotne elementy problemów technicznej realizacji logik można sformułować następujące wnioski:
1. Rozumienie pojęcia logika jako stały sposób działania jest użyteczne w działalności technicznej.
2. Urządzenia techniczne posiadają własne logiki działania, które nie
zawsze dają się dopasować do ram opisów teoretycznych tworzonych dla
innych dziedzin nauki.
3. Opis urządzenia technicznego, w zależności od stopnia szczegółowości, może być interpretowany jako logika o różnych cechach.
S. Russell, Czy powinniśmy obawiać się robotów? „Świat Nauki” 7/2016,
s. 53.
14
Marek Rabiński
Narodowe Centrum Badań Jądrowych
CZARNOBYL – FAKTY I MITY
Niniejszy tekst przedstawia przegląd zagadnień związanych z awarią
bloku nr 4 Elektrowni Jądrowej w Czarnobylu, jej przyczynami i przebiegiem, ewakuacją ludności, akcją likwidacji skutków awarii oraz budową Sarkofagu nad zniszczonym reaktorem, obecny status Czarnobylskiej Strefy Wykluczenia oraz plany jej zagospodarowania w najbliższej
przyszłości, a także uwagi na temat społecznego odbioru awarii. Przedstawiony materiał jest wynikiem trwającego od trzydziestu lat zainteresowania autora opisywanymi wydarzeniami, wielokrotnych wyjazdów
do Strefy, krytycznej kwerendy źródeł bibliograficznych (w tym odtajnionych materiałów poufnych) oraz rozmów z naocznymi świadkami
zdarzeń. Ze względu na ograniczoną objętość publikacji, wielu aspektów
(w tym szczególnie odbiegających od powszechnie utrwalonych w publikatorach) nie sposób krytycznie przeanalizować i wnikliwie uzasadnić
– nastąpi to w przygotowywanej publikacji książkowej.
Geneza reaktorów RBMK
Awaria w Czarnobylu bardzo silnie związana jest ze specyficznymi
rozwiązaniami konstrukcyjnymi moderowanych grafitem a chłodzonych
wodą reaktorów RBMK, a te z kolei z wytwarzaniem określonych izotopów plutonu do zastosowań wojskowych.
Pluton jest srebrzysto–szarym metalem o ciężarze właściwym dwukrotnie większym od ołowiu. Jest transuranowcem o liczbie atomowej
94 (liczbie protonów w jądrze); posiada 20 izotopów o liczbach masowych od 228 do 247 (ze względu na różną liczbę neutronów w jądrze)
i o czasach półrozpadu od jednej sekundy (w przypadku Pu–228) do 80
milionów lat (dla najbardziej stabilnego Pu–244). Jądrowe własności
rozszczepialnego plutonu–239 oraz potencjalna możliwość wytwarzania
go w dużych ilościach, tłumaczą jego kluczową rolę w procesie tworzenia arsenału jądrowego. Obecność innych izotopów powoduje szereg
znaczących niedogodności podczas produkcji i utrzymania w gotowości
głowic jądrowych. Wojskową przydatność najistotniej ogranicza obecność izotopu Pu–240, który podczas spontanicznie zachodzących rozpadów emituje neutrony powodujące przedwczesny wybuch ładunku w
148
najmniej korzystnym momencie, wykluczając możliwość uzyskania
większych mocy eksplozji. Dlatego mieszanina izotopów plutonu może
być uznana za materiał na głowice jądrowe, jeśli udział niepożądanego
Pu–240 nie przekracza 7%. Pluton do zastosowań cywilnych, wyekstrahowany z wypalonego paliwa reaktorów energetycznych, ze względu na
swój skład izotopowy, nie nadaje się do produkcji głowic, a jedynie na
paliwo do reaktorów.
Pluton do zastosowań militarnych jest wytwarzany w reaktorach moderowanych grafitem – podczas naświetlania uranu U–238 strumieniem
neutronów, w naturalnym lub lekko wzbogaconym uranie przez okres
nie dłuższy niż 2–3 miesiące. Dłuższe przebywanie w reaktorze powoduje niekorzystne przemiany izotopowe, dyskwalifikujące użycie uzyskanej mieszaniny izotopów do produkcji głowic jądrowych. Pierwszy
moderowany grafitem a chłodzony gazem duży reaktor wojskowy na naturalnym uranie został zbudowany w USA w 1942 roku, a na jego wzorze
Związek Radziecki oparł swoje własne konstrukcje.
Reaktory są projektowane do wypełnienia określonych zadań, dlatego
zoptymalizowane do produkcji plutonu reaktory wojskowe nie są zbyt
efektywne w roli reaktorów energetycznych. Tym niemniej w ZSRR
w latach 50–tych podczas zimnej wojny opracowano koncepcję reaktorów RBMK opartych na rozwiązaniach reaktorów o zastosowaniu militarnym. Radziecki RBMK (po rosyjsku: reaktor kanałowy dużej mocy)
był unikalnym projektem, przypominającym reaktor z wodą wrzącą
(BWR – boiling water reactor) z osobnymi kanałami paliwowymi. Połączenie grafitowego moderatora neutronów i zwykłej wody chłodzącej (z
której powstaje para na turbiny) nie jest spotykane w cywilnych blokach
energetycznych. Wyraźnie różni się od większości projektów, ponieważ
zasadniczo wywodzi się z rozwiązań reaktora do produkcji plutonu Pu–
239. Wymianę elementów paliwowych bez wygaszania reaktora umożliwia konstrukcja kanałowa oraz wykorzystanie maszyny przeładowującej paliwo podczas eksploatacji bloku. Reaktor posiadał szereg niekorzystnych cech, wśród których podkreślić trzeba dodatnie sprzężenie destabilizujące pracę w określonych zakresach parametrów eksploatacji.
W zachodnich reaktorach typu BWR ubytek wody spowalniającej neutrony powoduje spadek mocy, co automatycznie stabilizuje pracę reaktora, natomiast w RBMK zamiana wody w parę wodną drastycznie eliminuje pochłanianie neutronów – ponieważ para ma gęstość właściwą
1350 razy mniejszą od gęstości wody, z której powstała. Ta sekwencja
zjawisk tworzy pętlę dodatniego sprzężenia zwrotnego, co prowadzi do
zwiększenia mocy reaktora. Podczas utraty chłodziwa w tych reaktorach
149
zachodzi efektywniej reakcja łańcuchowa i powstaje więcej kieszeni parowych – stąd reaktor staje się niestabilny, bo wzrost mocy powoduje jej
dalszy lawinowy przyrost.
Pierwsze reaktory typu RBMK zbudowano w latach 70–tych w Sosnowym Borze koło Leningradu, po czym nastąpiło powielanie kolejnych wersji projektu w różnych lokalizacjach ZSRR. Elektrownia Jądrowa w Czarnobylu (oryginalna nazwa – Czarnobylska Elektrownia
Atomowa im. W.I. Lenina) została zbudowana na ubogich nieużytkach
Polesia, 18 km na północny zachód od miasteczka Czarnobyl na Ukrainie, 16 km od granicy z Białorusią. W jej skład wchodziły cztery bloki
z reaktorami RBMK–1000, dwa pierwsze zostały włączone do eksploatacji odpowiednio w latach 1977 i 1978, reaktory drugiego etapu w 1981
r. (blok nr 3) i 1983 (blok nr 4), a dwa następne (bloki nr 5 i 6) znajdowały się na etapie budowy. Razem z decyzją o budowie elektrowni, rozpoczęto w odległości 4 km budowę miasteczka Prypeć dla zatrudnionych
pracowników i ich rodzin. Zaprojektowane na planie trójkąta miasto było
uznawane za wizytówkę radzieckiej urbanistyki.
Poza wewnętrznymi cechami projektowymi reaktorów RBMK, nie
należy zapominać, że Elektrownia Jądrowa w Czarnobylu była wprowadzona do eksploatacji w trybie czynów przyspieszających „zwycięstwo
klasy robotniczej nad imperializmem Zachodu”. Bloki reaktorów nr 3
i 4 posiadały szereg niedoróbek, np. niestarannie wykonaną izolację termiczną walczaków separatorów pary, co powodowało przekroczenie dopuszczalnych temperatur eksploatacji betonowych elementów ścian, ich
pękanie oraz wytapianie bitumicznej masy uszczelnień; niestaranne wyważone turbiny powodowały drgania i przyspieszone niszczenie łożysk
tocznych. Absolutnie karygodnym było wykonanie izolacji termicznej
dachu hali turbin z materiałów łatwopalnych. Dodatkowo autorytarny
system radzieckiej biurokracji (tak zwana nomenklatura) stawiał wierność partii ponad umiejętności zawodowe, promując kariery osób niekompetentnych, a stawianie „dogmatów ekonomii socjalistycznej” ponad zdrowy rozsądek i bezpieczeństwo jądrowe było przyczyną działań
niedopuszczalnych w jakimkolwiek sektorze atomistyki na świecie.
Awaria
Po wyłączeniu reaktora jądrowego, zawarte w wypalonym paliwie
produkty rozszczepienia przez pewien czas wydzielają ciepło powyłączeniowe. Dlatego niezbędna jest energia (ok. 1–2% nominalnej) do napędu pomp chłodziwa w reaktorze. Powszechnym wymogiem eksploatacji elektrowni jądrowych jest zapewnienie sytuacji, by w razie nagłego
150
wyłączenia, moment obrotowy turbin zapewnił zasilanie układu chłodzenia aż do włączenia awaryjnych generatorów Diesla. Testowanie tej procedury dla bloku 4 zaplanowano na piątek 25 kwietnia 1986 r. O godz.
01:00 rozpoczęto zmniejszanie mocy reaktora, o 13:00 odłączono jedną
z turbin. Jednak ze względu na duże zapotrzebowanie energii elektrycznej próbę odłożono do godz. 23:00. Wyższe zapotrzebowanie na energię
było spowodowane nadrabianiem przez zakłady przemysłowe miesięcznych planów produkcyjnych pod koniec miesiąca oraz próbami ich przekroczenia dla uczczenia zbliżającego się święta 1 maja. 26 kwietnia 1986
r. o godz. 01:23 podczas dalszego obniżania mocy wystąpił efekt jej niekontrolowanego wzrostu. Dodatkowo, specyficzne cechy systemu prętów kontrolnych powodowały, że przez kilka sekund po ich zrzucie następował wzrost mocy zamiast zmniejszenia. Ten niezgodny z intuicją
efekt nie był znany operatorom. Wzrost mocy cieplnej spowodował 40
sekund po zrzucie prętów kontrolnych (i tym samym fizycznym wygaszeniu reaktora) wybuch parowy, jak w kotle centralnego ogrzewania.
Słyszany jako głuchy grzmot, przez wielu pracowników został całkowicie zignorowany, jako nieistotny efekt wyłączania bloku energetycznego.
Na hali turbin olej tryskający z przerwanego (w wyniku wstrząsu wybuchu parowego) przewodu hydraulicznego spowodował spięcie na tablicy rozdzielczej i wyłączenie zasilania elektrycznego na czwartym
bloku, a następnie pożar turbiny nr 7, od którego po kilku godzinach zaczął się przepalać dach hali turbin. 30 ognisk pożaru zostało zlokalizowanych do godziny 6:30, dlatego przed rozpoczęciem pierwszej zmiany
sytuację uznano za względnie opanowaną. Jednak równolegle do pożaru
części niejądrowej w reaktorze pozbawionym chłodzenia następowało
rozszczelnianie kolejnych elementów paliwowych i uwalnianie nagromadzonych w nich produktów rozszczepienia. Para o temperaturze ponad 1 100 °C weszła w reakcję z cyrkonem koszulek paliwowych i grafitem moderatora, powodując powstawanie wodoru i tlenku węgla. Obok
ciepła powyłączeniowego, procesy zgazowywania grafitu, spalania wodoru i produktów rozszczepienia wydobywających się z rozszczelnianych elementów paliwowych, było źródłem energii cieplnej podtrzymującej pożar.
Procesy te szczególnie intensywnie nasiliły się dobę po rozpoczęciu
awarii, a lotne substancje wydobywające się przez zawory bezpieczeństwa na górnej płycie reaktora płonąc we wnętrzu hali reaktora doprowadziły po północy 28 kwietnia, (dwie doby od rozpoczęcia awarii), do
przepalenia dachu nad górną płytą reaktora.
151
Chronologię najistotniejszych wydarzeń kolejnych dni można przedstawić następująco.
26 kwietnia (sobota) 1986 roku:
– godz. 01:23 – wyłączenie reaktora, wybuch parowy, pożar na hali turbin;
– godz. 6:30 – zagaszenie lokalnych ognisk pożaru;
– około 4:00 nad ranem wiadomość o pożarze dociera do władz w Moskwie; w południe zostaje powołana komisja pod przewodnictwem Walerego Legasowa – zastępcy dyrektora Instytutu Kurczatowa;
– około godz. 19:00 – stwierdzenie ewidentnych przypadków napromieniowania personelu (co oznaczało rozszczelnienie konstrukcji reaktora);
– w nocy – komisja rządowa zarządza czasową ewakuację miasteczka
Prypeć i wyłączenie pozostałych reaktorów.
27 kwietnia (niedziela) 1986 roku:
– godz. 5:00 – godzinny przelot śmigłowcem członków komisji nad elektrownią;
– godz. 12:00 – ogłoszenie komunikatu o ewakuacji Prypeci;
– godz. 14:00–17:00 – ewakuacja mieszkańców;
– około godz. 19:00 następuje intensyfikacja pożarów w kanałach reaktora – jest to moment, w którym awaria osiąga wymiar katastrofy, Walery Legasow telefonicznie zawiadamia Michaiła Gorbaczowa o konieczności nadzwyczajnej mobilizacji środków całego ZSRR oraz użycia wojska; rozpoczęcie właściwej akcji opanowywania awarii.
28 kwietnia (poniedziałek) 1986 roku:
– rano – wzrost promieniowania zostaje zarejestrowany przez stacje monitorujące poziom naturalnego tła w Szwecji i w Polsce, tym samym informacja o nietypowej sytuacji zostaje odnotowana w krajach poza
ZSRR;
– późne popołudnie – o awarii informują zachodnie media;
– godz. 20:00 – lokalne radio moskiewskie napomyka o awarii.
29 kwietnia (wtorek) 1986 roku:
– godz. 3:00–6:00 – w Warszawie posiedzenie komisji partyjno–rządowej;
– po południu – w Polsce rozpoczyna się akcja podawania płynu Lugola,
w Moskwie powołanie rządowej grupy operacyjnej;
– godz. 20:00 – radziecka telewizja wspomina o awarii w szóstej wiadomości dziennika.
28 kwietnia – 5 maja 1986 roku: opanowywanie awarii z użyciem sił
i środków udostępnianych w trybie nadzwyczajnym na szczeblu rządowym, zrzucenie ze śmigłowców wojskowych około 5 000 ton materiałów:
152
– węglika boru B4C
~ 40 ton,
– dolomitu (CaCO3•MgCO3)
~ 800 ton,
– gliny, piasku
~ 1 800 ton,
– ołowiu Pb
~ 2 400 ton.
6 maja (poniedziałek) 1986 roku – samoistne wygaśnięcie pożaru.
Najistotniejszymi przyczynami awarii były dwa słabe punkty projektu reaktora – dodatni efekt reaktywnościowy oraz nieprawidłowa konstrukcja układu prętów bezpieczeństwa. Nie ulega wątpliwości, że operatorzy naruszyli procedury eksploatacji, ale byli też nieświadomi wymogów bezpieczeństwa niezwykle specyficznego i potencjalnie niestabilnego projektu reaktora RBMK.
Po samoistnym wygaśnięciu trwającego 10 dni pożaru oraz wyraźnym zmniejszeniu emisji skażeń promieniotwórczych do atmosfery diametralnie uległ zmianie charakter informacji podawanych przez oficjalne
media radzieckie. Istotne znaczenie miało wystąpienie telewizyjne Michaiła Gorbaczowa 14 maja 1986 roku, w którym przedstawił awarię
jako nieszczęście dotykające Związek Radziecki. Generalny sekretarz
partii zaapelował do społeczeństwa o wyrozumiałość i konieczność wyrzeczeń dla stawienia czoła zaistniałej sytuacji. Wystąpienie zawierało
elementy niespotykane w dotychczasowych komunikatach partii i stało
się zaczątkiem nowego stylu kontaktów władzy ze społeczeństwem.
Równolegle do zmian w sposobie informowania o awarii, rozpoczęła
się akcja ewakuacji ludności ze strefy o promieniu 30–kilometrów wokół
elektrowni i przygotowania do likwidacji skutków awarii.
Do 18 czerwca 1986 roku kontynuowano akcję zrzutów ze śmigłowców, zrzucając dodatkowe 11 000 ton materiałów:
– dolomitu (CaCO3•MgCO3)
~ 400 ton,
– żwiru
~ 1 700 ton,
– ołowiu Pb
~ 4 300 ton,
oraz rozpylając wokół reaktora nawozy sztuczne dla zintensyfikowania wzrostu roślin i substancje stabilizujące pylenie:
– apatytu Na3PO4
~ 2 500 ton,
– młóta gorzelnianego, szkła wodnego, mleczka kauczukowego
~ 2 700 ton.
Jedyną ofiarą pierwszego dnia awarii był operator pomp obiegowych,
drugiego dnia od rozległych oparzeń zmarł operator z hali reaktora.
W ciągu trzech miesięcy zmarły kolejne 33 osoby (strażacy i pracownicy
elektrowni), od rozległych oparzeń i choroby popromiennej. Łącznie –
35 ofiar, w tym 4 bez związku z promieniowaniem (od obrażeń mechanicznych i na zawał serca).
153
Likwidacja skutków awarii i budowa Sarkofagu
Decyzję o zabezpieczeniu pozostałości reaktora nr 4 podjęto miesiąc
po awarii (koniec maja 1986 r.). Spośród kilku wariantów, między innymi ziemnego kopca przykrywającego zniszczony blok, zdecydowano
się na wzniesienie konstrukcji powszechnie na świecie nazywanej Sarkofagiem (w krajach byłego ZSRR używa się nazwy – obiekt Ukrycie).
Budowę ukończono pod koniec listopada 1986 roku, a formalny odbiór
techniczny nastąpił 13 grudnia 1986 roku.
Podczas budowy Sarkofagu zginęło 11 osób: jeden robotnik na skutek
przygniecenia belką konstrukcyjną, 4 osoby podczas zderzenia dwóch
samochodów, 4 członków załogi w wypadku śmigłowca po zaczepieniu
łopatek wirnika o liny dźwigu (pilot został oślepiony promieniami
Słońca), jedna osoba na skutek zawału serca po wezwaniu do komitetu
partii, jeden z dyrektorów popełnił samobójstwo po śmierci żony.
Równolegle do wznoszenia konstrukcji zabezpieczającej sam reaktor,
prowadzono prace nad likwidacją skutków awarii w 30–kilometrowej
strefie otaczającej elektrownię. Obejmowały one między innymi usunięcie przy pomocy zdalnie sterowanych wojskowych maszyn inżynieryjnych warstwy ziemi o grubości 1 metra z bezpośredniego otoczenia reaktora, usunięcie warstwy 5–10 centymetrów darni z terenu miasteczka
Prypeć, usunięcie i zakopanie w transzejach sprzętów pozostawionych
przez mieszkańców, dezaktywację budynków strumieniem wody z pomp
strażackich, w pojedynczych przypadkach (miejscowość Kopacze) – niwelację spychaczami chałup i przykrycie resztek warstwą ziemi. Teren
lasu, na który w ostatnich dniach pożaru opadły skażenia z reaktora (tzw.
zrudziały las), został wykarczowany, drewno spalone, a popiół zakopany
w transzejach. Prowadzono też dezaktywację urządzeń (w tym wyposażenia elektrowni i gigantycznych anten wojskowego radaru pozahoryzontalnego Duga–3), między innymi przy pomocy gęstej piany z roztworu proszku SF–2U – wytwarzanej z zestawów znajdujących się na
wyposażeniu wojska. Podejmowano też prace mające na celu ukończenie budowy reaktora nr 5, który miał przejąć zadania zniszczonego bloku
nr 4.
W wielu źródłach podawane są absurdalne, sięgające milionów, oszacowania liczby osób (tzw. likwidatorów) uczestniczących w akcji usuwania skutków awarii. Wiarygodna liczebność i struktura tej grupy
154
przedstawia się następująco1:
Wojskowi:
– zawodowi wojskowi i służby zabezpieczenia
– 20 508
– rezerwiści
– 90 000
Oddziały paramilitarne:
– MSW ZSRR
– 32 111
– MSW Federacji Rosyjskiej
– 3 326
– kontrwywiad
– 1 093
– KGB
– ministerstwo kolei Federacji Rosyjskiej
– 1 242
Pracownicy cywilni:
– naukowcy
– 19 236
– pracownicy atomistyki i elektrowni jądrowych
– personel medyczny i służby sanitarne
– pracownicy budowlani
– inni (kierowcy, kucharze, służby techniczne)
Łącznie 300 000 ± 20 000 (w tym kobiety – poniżej 1%).
Największe przedziały niepewności dotyczą grupy pracowników cywilnych, z powodu najsłabiej udokumentowanego trybu ich oddelegowania i braku jednolitej bazy danych. Ostatnio zweryfikowane spisy
uczestników potwierdzają liczbę 300 000 likwidatorów, zawężając też
znacząco zakres ewentualnej niepewności powyższych danych.
Czarnobylska Strefa Wysiedlenia
W niedzielę 27 kwietnia 1986 roku (dzień po awarii) z Prypeci ewakuowano 44 000 mieszkańców, następnego dnia pozostałe 5 000 pracowników elektrowni, szpitali i służb miejskich pozostawionych dla opanowania sytuacji. Od maja do września 1986 roku ze strefy o promieniu
30 km wokół elektrowni ewakuowano 116 300 osób. Wywieziono też 86
000 sztuk bydła i trzody chlewnej.
Dawnym mieszkańcom odradzano powrót, ale udzielano zezwoleń,
jeśli tego chcieli. Od końca 1988 roku powróciło, głównie do strefy białoruskiej, około 1 600 osób – powszechnie nazywanych samosiołami (samosiejkami). Aktualnie w części ukraińskiej mieszka około 460 osób w
wieku od 40 do 94 lat (średnia – 72 lata), kobiety stanowią 63% populacji
– co jest typową proporcją w tej grupie wiekowej. Około 40% przebywa
1
O.V. Belyakov, Notes about the Chernobyl liquidators, .www.progettohumus.it/NonDimentica/Liquidatori/Pdf/13%20.pdf [dostęp 10.07.2017]
L. Ilyin, Chernobyl: myth and reality, Megalopolis, Moscow, 1995.
155
tam legalnie – nigdy nie utraciło meldunku, bo nie odebrało od państwa
zamiennych gospodarstw poza Strefą Wysiedlenia, a jedynie rekompensaty za straty spowodowane awarią. Pozostałe 60% samosiołów otrzymane za granicami Strefy gospodarstwa przepisało na dzieci lub wnuki,
po czym powróciło i zawłaszczyło opuszczone domy – stąd w Strefie
żyją niezgodnie z prawem.
Poza dawnymi mieszkańcami na terenie Strefy przebywają pracownicy Czarnobylskiej Elektrowni Jądrowej – do zakończenia w 2001 roku
eksploatacji bloku nr 3 pracowało na trzy zmiany 6 000 osób, obecnie
pracuje około 3 400. W strefie ukraińskiej od 5 000 do 10 000 pracowników sezonowych jest zatrudnionych przy utrzymaniu infrastruktury
technicznej i w gospodarce leśnej. Aby uniknąć codziennego dowożenia
ich z odległości rzędu 50–100 km pracują w trybie wachtowym przez
okres 4 lub 14 dni, zakwaterowani w hotelach robotniczych w miasteczku Czarnobyl. Około ¾ pracuje w trybie zmianowym 4–3 (4 dni
pracy i 3 dni wolnego), pozostała ¼ w trybie dwutygodniowych zmian.
Wszyscy podlegają medycznej obserwacji typowej dla osób zatrudnionych w warunkach ewentualnego zagrożenia promieniowaniem jonizującym.
Przy tworzeniu w 1986 roku Strefy Wysiedlenia wokół Czarnobylskiej Elektrowni Jądrowej kierowano się kryterium poziomu promieniowania 0,35 μSv/h (jest to poziom naturalnego tła w Sudetach). Obecnie
poziom promieniowania najbardziej skażonych terenów wynosi:
– „zrudziały las” (0,5 km2) – 12 μSv/h
– przy ścianie Sarkofagu – 5–8 μSv/h
Jest to poziom naturalnego tła promieniowania gęsto zamieszkanego
regionu Kerala w Indiach, poziom 10 razy niższy niż w uzdrowisku Ramsar w Iranie na brzegu Morza Kaspijskiego i na obleganej plaży Guarapari w Brazylii. Na pozostałym obszarze Strefy 0,02–0,25 μSv/h, mniej
niż w Polsce (0,15–0,30 μSv/h), a setki tysięcy razy mniej niż poziom
wywołujący efekty zdrowotne.
Na terenach wysiedleń ustanowiono dwa duże rezerwaty przyrody:
Poleski (obejmujący praktycznie cały obszar Strefy na Białorusi) oraz
Czarnobylski w delcie rzeki Prypeć (na Ukrainie). Poza terenami rezerwatów cały obszar wysiedlenia stał się oazą dzikiej przyrody. W Strefie
żyje ogromna ilość łosi, 4 000 dzików, 200–300 saren, 200 wilków, 300
borsuków, bobry, rysie, sprowadzone ze stepów konie Przewalskiego,
żubry z Puszczy Białowieskiej oraz 5 niedźwiedzi brunatnych. W zbiornikach wodnych odnaleziono gatunki ryb, które w innych rejonach wytrzebili kłusownicy. W mieście Prypeć ptaki wiją gniazda na wieszakach
w szatniach i na żyrandolach, unikając w ten sposób drapieżników.
156
Wewnątrz ukraińskiej części Strefy znajduje się 10–kilometrowa
Strefa Bezwzględnego Wysiedlenia – obejmująca teren elektrowni jądrowej, tajne instalacje wojskowe (takie jak anteny odbiorcze największego
na świecie pozahoryzontalnego radaru Duga–3 do śledzenia startów rakiet balistycznych w USA) oraz zamknięte osiedla personelu. Obecnie
obejmuje też przechowalniki odpadów i składy sprzętu technicznego
używanego przez likwidatorów. Obszar strefy ukraińskiej jest sukcesywnie zmniejszany, rozpatrywane są też koncepcje zagospodarowania terenów oraz wykorzystania na potrzeby budowy przechowalnika odpadów
promieniotwórczych z energetyki jądrowej Ukrainy, a takżę z przemysłu
i medycyny.
Społeczne następstwa awarii w Czarnobylu
W pierwszym okresie po awarii powszechnym był strach przed kontaktami z przesiedlonymi, lęk przed „zarażeniem się promieniowaniem”.
Stąd brała się tendencja tej grupy do zamykania we własnym środowisku, to z kolei stało się pożywką dla rozpowszechnianych opinii, jakoby
wszyscy ewakuowani i uczestniczący w likwidacji skutków awarii mieli
„umrzeć od promieniowania”. Dopiero po dwudziestej rocznicy awarii
można dostrzec przezwyciężenie stygmatyzacji społecznej tej grupy
osób i ich aktywność w obronie swoich praw, zagrożonych przez cięcia
budżetowe.
Najdotkliwszymi konsekwencjami awarii w Czarnobylu są efekty
psychologiczne, niezwiązane z poziomem przyjętej przez ludność dawki
promieniowania. Przejawiają się one stanami lękowymi i niepokojem
o przyszłość, stresem psychicznym oraz uzależnieniami od alkoholu i nikotynizmem. Czynniki te wywierają najsilniejszy wpływ na poziom
zdrowia ludności dotkniętej awarią. Psychologiczne następstwa awarii
są identyczne z obserwowanymi u ofiar katastrof naturalnych (powodzi,
tsunami, huraganu, trzęsień ziemi, lawin błotnych, pożarów lasu) –
a także katastrof kolejowych i ataków terrorystycznych, wreszcie u osób
dotkniętych konsekwencjami głębokich kryzysów gospodarczych. Ciężkie przypadki indywidualne przypominają syndrom stresu bojowego
pola walki u weteranów działań wojennych. Ilościowe oszacowania społecznych skutków awarii w Czarnobylu uniemożliwia ich nałożenie się
na proces rozpadu Związku Radzieckiego, zapoczątkowany w grudniu
1991 roku. Według niektórych oszacowań obniżenie poziomu życia spowodowane dekompozycją systemu ZSRR jest odpowiedzialne za przedwczesną śmierć 4 milionów osób. Na tym tle, efektów awarii w Czarnobylu nie daje się wiarygodnie wyodrębnić.
Powszechne jest też, szczególnie u osób o niskim wykształceniu i w
157
bezpośrednim sąsiedztwie granic Strefy, dopatrywanie się w awarii przyczyny wszelkich negatywnie ocenianych wydarzeń – od tak błahych jak
zsiadanie się mleka i zjawiska pogodowe, nie mówiąc o przypadkach poślizgnięcia czy złamania kończyny, na polityce kończąc.
Strefa Wysiedlenia jest praktycznie jedynym znaczącym pracodawcą
w regionie, a osiągane przez zatrudnionych dochody są podstawą istnienia kolejnych przedsięwzięć gospodarczych. Już w trakcie prac związanych z likwidacją skutków awarii pojawiło się wobec Sarkofagu określenie – „żywiciel”. W ten sposób dosadnie komentowano ukształtowanie się grupy osób, dla których awaria i jej następstwa stały się źródłem
utrzymania, dodatkowych dochodów lub kariery społeczno–politycznej.
Poza osobami z kierownictwa akcji likwidacji skutków awarii, szabrownictwo materiałów budowlanych, ceramiki sanitarnej i złomu stało się
źródłem utrzymania dla okolicznej ludności. Aktualnie jednym z najbardziej dochodowych działalności jest wywóz złomu metali. Ujawniane
afery w tej branży dowodzą istnienia zorganizowanych grup interesów,
obejmujących polityków, wysoko postawionych urzędników i fundusze
cerkiewne, przy pośrednictwie których pieniądze z kontraktów trafiają
do prywatnych rąk. Odrębnym zagadnieniem jest ogromna ilość fundacji
deklarujących aktywność na rzecz poszkodowanych w trakcie awarii.
Znane są przypadki wykorzystywania ich do sprowadzania z zagranicy
luksusowych samochodów, z pominięciem obowiązującego cła.
Nowy Sarkofag – Arkada
W 1992 roku rząd Ukrainy ogłosił międzynarodowy konkurs na propozycje zastąpienia dotychczasowego Sarkofagu reaktora nr 4. Wśród
294 zgłoszeń znalazła się oryginalna brytyjska koncepcja hali zmontowanej w pewnej odległości (dla zminimalizowania dawek otrzymanych
przez pracowników), a następnie nasuniętej na dotychczasową konstrukcję. Pierwsza faza konkursu nie wyłoniła zwycięzcy, ale koncepcja znalazła się wśród trzech wyróżnionych. W drugiej fazie, firmowanej przez
paneuropejskie instytucje, zaproponowano wąskiemu gronu wyróżnionych opracowanie szczegółowych projektów, dodając wymóg uwzględnienia zrobotyzowanych suwnic do rozbiórki starego Sarkofagu. W 2007
roku przyjęto oparty na koncepcji nasuwanej hali projekt francuskiego
konsorcjum Novarka, którego równoprawnymi udziałowcami są firmy
Vinci Construction Grands Projets oraz Bouygues Travaux Publics. Projekt „New Safe Confinement – Arch” (arkada – sklepienie łukowe) opiewał na 432 mln euro i przewidywał zatrudnienie w szczytowym momencie 900 pracowników. Projekt obejmował zbudowanie ze stalowych
dźwigarów hali o wysokości 105 m, rozpiętości 270 m i długości 150 m
158
– mogącej pomieścić rzymskie Koloseum i nowojorską Statuę Wolności.
Nominalnie techniczną żywotność konstrukcji przewidziano na 100 lat.
W późniejszych modyfikacjach podniesiono odporność zewnętrznej powłoki do klasy tornada o sile F3 w skali Fujity–Pearsona, czyli wichury
przenoszącej przedmioty z prędkością ponad 300 km/godz.
Zakończenie operacji przykrycia dotychczasowego Sarkofagu przewidywano na rok 2012. Przed ścianą szczytową wzniesiono konstrukcję
kratownicową przejmującą część obciążeń dachu i zapobiegającą jej
przechyłowi w momencie rozpoczęcia demontażu. Jednak opory środowisk czerpiących dochody z dotychczasowego statutu Strefy, sprzeciwiających się „zabiciu kury znoszącej złote jajka”, doprowadziły do
praktycznego zamrożenia dalszych prac pod pretekstem konieczności
uzyskiwania kolejnych zezwoleń formalnych. Dopiero szantaż donatorów projektu, że w związku z rosnącymi cenami wszystkie koszty powyżej 1,5 miliarda euro będzie musiała pokryć Ukraina, zmusił ówczesnego
prezydenta Wiktora Janukowycza do wydania zgody na rozpoczęcie
konstrukcji Arkady. Pierwszy dźwigar zmontowano w kwietniu 2011
roku na 25. rocznicę awarii, a nasunięcie gotowej hali zakończono przed
30 listopadem 2016 roku – 30. rocznicą zakończenia budowy Sarkofagu.
Po zakończeniu procesu uszczelniania połączeń hali z dotychczasową
konstrukcją, przewidywane jest przejście do kolejnego etapu – rozbiórki
zniszczonego awarią bloku reaktora nr 4 przy pomocy zrobotyzowanych
suwnic, rozseparowania materiałów i przeniesienia odpadów promieniotwórczych na profesjonalne składowiska.
Przyszłość Strefy
W 2015 roku rząd premiera Arsenija Jaceniuka przygotował plan zagospodarowania Strefy w ramach zaproponowanej ustawy o zmianie jej
statusu i utworzeniu Czarnobylskiego Rezerwatu Biosfery2. Zgodnie
z planem, położony centralnie obszar o powierzchni 32 000 ha miał zostać związany z gospodarką odpadami promieniotwórczymi – obejmując
zakłady przerobu ciekłych i stałych odpadów za 1 i 2 blokiem EJ Czarnobyl, przechowalnik i kompleks WEKTOR w Burakówce, oraz składowisko odpadów z rozbiórki Sarkofagu i z ukraińskich elektrowni jądrowych. Ta część zastępuje dotychczasową 10–kilometrową Strefę Bezwzględnego Wysiedlenia, perspektywicznie w przedsiębiorstwach z nią
Міністр Ігор Шевченко розповів про створення Чорнобильського
біосферного заповідника, http://www.menr.gov.ua/press-center/news/123news1/3854-ministr-ihor-shevchenko-rozpoviv-pro-stvorennia-chornobylskoho-biosfernoho-zapovidnyka (data dostępu: 14.05.2015).
2
159
związanych miało znaleźć zatrudnienie 6–7 tysięcy osób. Role swoistych
rezerwatów przyrody miały pełnić obszary 76 700 ha z dozwoloną działalnością naukową (zdefiniowaną ustawą) oraz 69 800 ha strefy buforowej, gdzie dopuszczono też funkcje edukacyjne. W ostatniej strefie
ochrony krajobrazu, o powierzchni 80 700 ha, dopuszczono działalność
rolniczą. Uwagę zwraca fakt, że w południowo–zachodniej części Rezerwatu Czarnobylskiego w delcie rzeki Prypeć przewidziano gospodarkę
rolną i leśną, a funkcje ochrony przyrody przejąć miały przygraniczne
tereny na wschodzie i północy Strefy. Za takim rozwiązaniem niewątpliwie przemawia chęć uniknięcia wysokich kosztów odbudowy infrastruktury.
W toku dyskusji nad planem, zwrócono uwagę na powstanie niebezpiecznej luki prawnej w chwili zniesienia specjalnego statutu Czarnobylskiej Strefy Wysiedlenia, którego nie są w stanie zastąpić przepisy
ochrony przyrody w rezerwacie biosfery, np. możliwość niekontrolowanego wywozu złomu i odpadów radioaktywnych, które nie są elementami środowiska przyrodniczego. Prac nad projektem nie kontynuowano,
samo jednak jego podjęcie świadczy o nowym podejściu do zagadnień
spuścizny awarii w Czarnobylu.
Mity Czarnobyla
Z przebiegiem awarii w Czarnobylu i jej skutkami związana jest niezliczona ilość mitów i tzw. legend miejskich. Oto lista niektórych z nich:
– wybuch, który miał wyrzucić górną płytę reaktora na wysokość
30 metrów – w rzeczywistości pierwsze pęknięcia elementów paliwowych nie było zauważone nawet w sterowni obok hali, drugi wybuch
(parowy) w odległości 100 m był słyszany jako głuchy grzmot; dach hali
nad reaktorem nie został zniszczony eksplozją, ale przepalił się po dwóch
dobach pożaru; górna płyta reaktora nie wzbiła się w powietrze ale zapadła po wypaleniu konstrukcji rdzenia;
– trzech pracowników w strojach nurków miało odkręcić zalane pod
wodą zawory w podziemiach reaktora, po czym wszyscy zmarli na chorobę popromienną – wystarczy wpisać ich powszechnie znane nazwiska
w przeglądarkę internetową by odnaleźć niedawno udzielony przez jednego z nich wywiad;
– śmiertelna emisja jodu–131 – w rzeczywistości 180 razy mniejsza
od emisji pochodzącej z wybuchów jądrowych w samym tylko 1962
roku;
– bezwłose dzieci – wywołana brudem grzybica strzygąca powierzchniowa (Trichophytiasis superficialis)
160
– Igor, „dziecko Czarnobyla” – deformacja nóg spowodowana okręceniem pępowiny w okresie płodowym, bez jakiegokolwiek związku z
promieniowaniem;
– dzieci urodzone bez gałek ocznych – działanie pestycydów (środków ochrony roślin);
– cielęta z dwiema głowami – rezultat przenawożenie azotanami pastwisk w kołchozach;
– powstała w wyniku mutacji hybryda człowieka i szczura (sic!) – są
to zdjęcia wykonanych z silikonu realistycznych eksponatów z wystawy
awangardowej rzeźbiarki3.
Źródeł mitów związanych z awarią w Czarnobylu można by dopatrywać się w hermetyczności i elitarności wiedzy z zakresu atomistyki.
W pewnym zakresie stwierdzenie to jest prawdą, ale głównych przyczyn
tej sytuacji nie należy doszukiwać się w nieznajomości fizyki reaktorów
jądrowych. Jak stwierdził Karl Raimund Popper (1902–1994), jeden
z najwybitniejszych filozofów nauki – „Niewiedza nie jest brakiem wiedzy, ale aktywnym przeciwstawianiem się wiedzy”. Specjalistyczna dyskusja nie jest możliwa, gdy niewiedza dyskutantów tworzy opokę systemu pseudonaukowych teorii, kulturowo ugruntowanych mitów, sloganów oraz fobii i lęków.
Kolejnym zagadnieniem jest celowa manipulacja informacją i tworzenie faktów medialnych. Rozpowszechnianiem radiofobii i lęków wokół niezwiązanej z cywilną atomistyką awarii w Czarnobylu zainteresowane jest lobby surowców energetycznych, dla którego wybór opcji
energetyki jądrowej przez Niemcy czy Polskę oznacza utratę intratnych
rynków zbytu i środka politycznego szantażu energetycznego. „Kłamstwo powtórzone tysiąc razy staje się prawdą” mawiał Joseph Goebbels
(1897–1945), minister propagandy III Rzeszy. W myśl tej zasady całe
zastępy trolli zostają zaangażowane w rozpowszechnianie kłamstw
utrwalających strach społeczeństw przed rozwojem energetyki jądrowej.
Znaczenie zagadnienia niezależności energetycznej najlepiej ilustruje
przykład Ukrainy, której podstawą bytu państwowego, w sytuacji kontroli kopalń przez prorosyjskich separatystów, stała się własna energetyka jądrowa.
Przedstawione powyżej aspekty powodują, że następstwa awarii
w Czarnobylu nie mogą być analizowane pod czysto technicznym kątem,
ale wymagają szerokiego, wręcz filozoficznego, podejścia. Wykazują
3
P. Piccinini, Leather Landscape – 2003, http://www.patriciapiccinini.net/117/83 (data dostępu: 9.01.2017).
161
związek z powszechnym obecnie zjawiskiem decydowania przez ignorantów o kierunkach przyszłego rozwoju – nie w oparciu o wiarygodne
informacje, ale o zmanipulowane emocje społeczne. W tzw. cywilizacjach post–prawdy wiedza i prawda stają się nieprzydatnym obciążeniem. Konsekwencją nierozróżniania prawdy od kłamstwa oraz manipulacji staje się sytuacja, w której o wynikach wyborów powszechnych
światowego supermocarstwa rozstrzyga sterowana z zewnątrz akcja hejterów internetowych. Pod wieloma względami jest to równie niebezpieczne jak oparty na produkcji plutonu Pu–239 wyścig zbrojeń jądrowych w czasach zimnej wojny.
162
Hala reaktora nr 3 Elektrowni Jądrowej w Czarnobylu; w głębi za ścianą
Sarkofag reaktora nr 4, na pierwszym planie – górna płyta reaktora, po prawej
– maszyna do przeładunku paliwa. (Fotografia M. Rabiński)
Widok Sarkofagu nad zniszczonym reaktorem nr 4; marzec 1995 roku. (Fotografia M. Rabiński)
163
Hala Arkady (po prawej) na dwa dni przed rozpoczęciem operacji nasuwania na
stary Sarkofag (po lewej); listopad 2016 roku. (Fotografia M. Rabiński)
Wschodnia połówka zewnętrznej powłoki Arki w trakcie prac wykończeniowych; kwiecień 2014 roku. (Fotografia M. Rabiński)
Malwina Marciniszyn-Jedeszko
Uniwersytet Warmińsko-Mazurski
w Olsztynie
ASPEKTY, KTÓRYMI POLSKIE LEŚNICTWO
MOŻE INSPIROWAĆ SIĘ FILOZOFIĄ
Filozofia i leśnictwo wydają się – prima facie – być wobec siebie bardzo odległe. Jest tak nie tylko przez obwiązujący obecnie podział obszarów wiedzy (przypomnijmy go: obszary humanistyczne; społeczne; ścisłe; przyrodnicze; techniczne; rolnicze, leśne i weterynaryjne; medyczne, o zdrowiu i kulturze fizycznej; czy w obszarze sztuki1);
ale też przez zawężanie się naszego myślenia do uogólnień i prostych
skojarzeń uwzględniających niewystarczające związki między mentalnością a środowiskiem przyrodniczym. Filozof to ten, który czyni przedmiotem refleksji byt w jego szczegółowych przejawach i byt jako całość,
bada schematy i kategorie myślenia itd. Dla wielu osób niezajmujących
się wprost filozofią wydaje się ona nieprzydatna i „archaiczna”, na przykład w zakresie rozwoju społecznego ukierunkowanego na ciągłe materialne bogacenie się. Obraz bycia filozofem można by dalej uszczegóławiać, w bardzo atrakcyjny sposób kreśli go Jose Ortega2, przejdźmy jednak do scharakteryzowania postaci leśnika. Na pewno choć może on zatrzymać się na chwilę i pokusić o filozoficzne przemyślenia, co jest zapewne szczególnie łatwe w obliczu codziennego obcowania z przyrodą
Jest to pierwszy stopień podziału zgodny z obwiązującym trzystopniowym wykazem (obszarów, dziedzin i dyscyplin) podany w Rozporządzeniu Ministra Nauki i Szkolnictwa Wyższego z 08.08.2011 r., w sprawie obszarów wiedzy, dziedzin nauki i sztuki oraz dyscyplin naukowych i artystycznych, Dz.U. 2011 nr 179
poz. 1065, s. 10427-10429. Według tego podziału filozofia jest dyscypliną naukową.
2
Zob. np. „Żyjemy w uzależnieniu od naszego otoczenia, które z kolei jest
kształtowane przez naszą wrażliwość” J. Ortega y Gasset Zadanie naszych czasów, w: Idem, Po co wracamy do filozofii?, Warszawa 1992, s. 81.
1
166
podczas pracy, ma on głównie za zadanie dbać o wzrost drzew, jako surowca będącego ważnym składnikiem gospodarki narodowej3 oraz chronić las rozumiany jako wspólne dobro (obecnego i przyszłych pokoleń,
a także jako dziedzictwo po naszych przodkach).
Coraz szybsze tempo życia oddala coraz większą liczbę osób od otaczającej przyrody, redukując w ich myśleniu i przeżywaniu rolę lasu do
miejsca weekendowych wyjazdów, grzybobrania czy otoczenia dróg,
którymi przemieszczają się między dwoma miejscami. Podejmując zasygnalizowaną w tytule problematykę, warto zastanowić się, czy rozwój
społeczno-gospodarczy odbiera człowiekowi kontakt z przyrodą, czy jest
to raczej dobrowolna rezygnacja na rzecz nowych doznań, czy spowodowana wszechogarniającym pośpiechem związanym z dążeniem do realizacji własnych celów? Leśnictwo wydaje się być obecnie rozpatrywane – wyraźmy się ogólnie: przez społeczeństwo – głównie jako gałąź
gospodarki narodowej, i jako takie, jest ściśle związane z rozwojem nauki, techniki i technologii (w takich sferach jak uprawa drzewostanu, zabiegi hodowlane, sprzęt wykorzystywany w leśnictwie, przy pozyskaniu
i obróbce drewna). Przyjmując takie myślenie, tym bardziej oddalamy
leśnictwo od filozofii. Wobec takiego traktowania leśnictwa, bliższe
jego składowym byłyby prawdopodobnie nauki społeczne czy ekonomiczne. Takie zależności można zauważyć obserwując wypieranie pracowników z dotychczas zajmowanych stanowisk przez wprowadzanie
efektów rozwoju technologicznego, na przykład monitoring usprawniający skuteczną ochronę przeciwpożarową, czy harwesterów wykorzystywanych do szybkiej i bezpiecznej dla operatora ścinki drewna.
Nie bez wpływu na leśnictwo jest także presja społeczna związana z rozwojem ukierunkowanym na wzmocnienie konkretnych wartości, zarówno w znaczeniu przyrodniczym (ochrony gatunków czy siedlisk),
ale także rozumianych czysto materialnie przez bogacenie się społeczeństwa (lub Skarbu Państwa), czy przez kultywowanie tradycji i zwyczajów związanych z myślistwem. Z powyższego wynika, że współczesne
3
Na poparcie tego stwierdzenia wystarczy sięgnąć do corocznych opracowań
GUS o nazwie Leśnictwo czy Roczników Statystycznych, na przykład Rocznik
Statystyczny 2016 wskazuje, że w roku 2015 w leśnictwie i przy pozyskaniu
drewna było zatrudnionych 50,3 tys. osób, liczba ta wzrosła o 3,8 tys. osób
od roku 2005, na przestrzeni podanego dziesięciolecia wzrosła też ilość osób zatrudnionych przy produkcji papieru i wyrobów z papieru oraz przy produkcji
mebli, co wskazuje, że mimo wkraczania nowych technologii niewymagających
bezpośredniego udziału człowieka, działania związane z pozyskaniem i wykorzystaniem drewna są ważnym źródłem zatrudnienia; Rocznik Statystyczny Rzeczypospolitej Polskiej 2016, red. D. Rozkrut, GUS, Warszawa 2016, s. 242-243.
167
leśnictwo (podobnie jak i rolnictwo) jest zazwyczaj traktowane jako
wielkoobszarowa produkcja, gdzie ścierają się w głównej mierze
względy ekonomiczne i ogólnie rozumiana ochrona przyrody.
W niniejszym tekście obszary z dziedziny nauk leśnych, w obrębie
których upatruję największych możliwości dla rozważań o naturze filozoficznej, oraz takie, które mogą wzbudzać niepokój wobec jakże niepewnej i nieodgadnionej przyszłości, zostały wybrane przeze mnie
w sposób w dużym stopniu subiektywny (gdyż brak dotychczas w literaturze polskiej wyczerpujących opracowań na ten temat). Rozważania zawierają z pewnością więcej pytań zmuszających do zastanowienia
i głębszej analizy, niż prostych odpowiedzi.
***
Pierwszym z prezentowanych zagadnień, które powinno się naświetlić, jest rola i samo traktowanie przez społeczeństwo drzewostanu,
przy tym nie tylko w kraju, ale właściwie w obrębie całego świata.
Jest to z pewnością temat budzący wiele emocji, biorąc pod uwagę
tak zwaną materialną wartość drewna, które jest pozyskiwane4 oraz ilość
miejsc pracy, które zapewnia potrzeba obróbki drewna. Możemy sobie
przy tym zadać kilka nurtujących pytań: Czy specjaliści w tej dziedzinie
są w stanie określić jaka „powinna być” powierzchnia lasów w danym
kraju, czy na danym obszarze? Jak wytypować zmienne do takich wskazań? Rolnictwo może wspierać się hydroponiką i aeroponiką5, jednak
zwarte kompleksy leśne potrzebują do istnienia odpowiedniego areału.
Łączy się tutaj wiele kwestii: większe powierzchnie leśne to prawdopodobnie z biegiem czasu większa ilość drewna wprowadzanego do gospodarki (ewentualnie ilość ta może się nie zmienić lub spaść, jeśli powstanie nowych terenów leśnych wiąże się z różnymi formami ochrony przyrody), więcej szlaków turystycznych (lub dłuższe i bardziej urozmaicone, ciekawsze), większe powierzchnie dla przebywania zwierzyny,
4
Przy największym możliwym uogólnieniu, w Polsce w roku 2015 pozyskano
38408,2 tys. m3, przy przeciętnej cenie wynoszącej 189,75 zł za 1 m3, choć należy także wspomnieć, że powierzchnia gruntów leśnych i zasoby „na pniu”
z każdym rokiem się zwiększają; Leśnictwo 2016, red. B. Domaszewicz, GUS,
Warszawa 2016, s. 29, 115, 324.
5
Oba te systemy nie wymagają gleby do uprawy roślin, mogą więc być stosowane w terenach o gęstej zabudowie miejskiej, głównie na dachach budynków,
czy terenach, gdzie gleby są zdegradowane. Hydroponika polega na uprawie roślin, którym dostarcza się wszelkich składniki niezbędnych do wzrostu w formie
roztworu wodnego. Aeroponika działa w podobny sposób, z tym, że woda
i związki mineralne zostają dostarczone roślinom w postaci aerozolu.
168
na którą będzie można polować (lub po prostu dogodniejsze siedliska dla
zwierząt, z powodu oddalenia od osiedli ludzkich, bez możliwości polowań). Jeśli odbierzemy sobie przekonanie o słuszności naszego postępowania, o tym, że wiemy dokładnie, jaka powinna być powierzchnia lasów, jaki jest optymalny wiek rębności drzew, jak ma się kształtować
liczebność populacji określonych gatunków, kto podejmie tak ważne dla
teraźniejszości i przyszłości wybory? Czy nie będzie to polem do samowoli, gdy nawet niekompetentne osoby będą mogły o tym decydować6?
Wobec tego, czy filozofia może w tym w jakiś sposób pomóc? Czy osąd
wspomagany myśleniem filozoficznym będzie właściwy, jeśli będziemy
kierować się tylko logiką lub tylko interesem większości?
Kiedy myślimy o lasach, jawią nam się przede wszystkim drzewa, zapominamy często, że znajdziemy w nich także inne, mniejsze rośliny,
na przykład zioła, ale również grzyby czy różnorodność fauny.
W związku z tym nasuwa się kolejne pytanie: Czy możliwe jest pogodzenie dbałości zarówno o drzewostan, jak i o zwierzęta? Wydaje się,
że w określonych sytuacjach należy wybrać nadrzędne dobro, dla ilustracji: szczególnie cenny dla zachowania ogólnej bioróżnorodności gatunek może mieć wartość nadrzędną wobec wykonania jakiejś lokalnej
inwestycji. Z pewnością trudno jest opanować taką „sztukę poświęceń”.
Na ustawodawcy spoczywa szczególnie odpowiedzialne zadanie pogodzenia, z jak najmniejszą szkodą dla któregokolwiek z kierunków; zarządzania drzewostanem ze świadomością konieczności wykorzystania
drewna jako ważnego surowca w gospodarce narodowej i zachowania
przy tym bogactwa gatunkowego, różnorodności siedlisk i ochrony poszczególnych gatunków. Dla społeczeństwa wypracowanie i utrzymanie
takiej równowagi powinno być równie ważne, a narzędzia filozoficzne
należy przy tym wykorzystać, jeśli istnieje szansa, że może to wpłynąć
na wypracowanie korzystnych rozwiązań.
Takie pytanie może nasuwać się choćby w obliczu znowelizowanej Ustawy
o ochronie przyrody, gdzie wprowadzono zapisy o braku konieczności pozyskiwania zezwoleń na usuwanie drzew i krzewów z posesji będących własnością
osób fizycznych, pod warunkiem, że nie ma to związku z działalnością gospodarczą; Ustawa z dnia 16.04.2004 r. o ochronie przyrody, Dz.U. 2004 nr 92 poz.
880, art. 83f., pkt 3a, s. 103-104. Przepis ten po licznych protestach został uzupełniony o konieczność dokonania zgłoszenia z uwagi na określone okoliczności, co dało możliwość wniesienia sprzeciwu odpowiednich organów powstrzymującego usunięcie drzewa przez zgłaszającego; Ustawa z 11.05.2017 r. o
zmianie ustawy o ochronie przyrody, Dz.U. 2017 poz. 1074, art. 1, pkt 3, lit. c,
s. 1-2.
6
169
Nawiązując do nierozerwalnego związku fauny i flory, przechodzimy
do kolejnej kwestii budzącej powszechnie kontrowersje, czyli zarządzania populacjami zwierzyny łownej (i/lub gatunków chronionych). Występuje tu niemało wątków, m. in.:
– łowiectwo jako suma działań, często zawężane potocznie jedynie
do myślistwa7, silnie krytykowane za odstrzał zwierząt przez ruchy typu
Greenpeace8, WWF9, czy Pracownię na rzecz Wszystkich Istot10 oraz
środowiska zrzeszające przyrodników, ekologów, wegetarian, traktujących zwierzęta jako istoty zbyt bliskie ludziom, by je zabijać i traktować
jako pożywienie. Pytania pojawiające się często podczas dyskusji związanych z działaniami w zakresie łowiectwa i samego myślistwa to:
Czy polowanie jest samo w sobie etyczne, czy może przynieść coś dobrego (o ile zabijanie innych żywych istot samo w sobie może być dobre)? Czy myślistwo jest współcześnie potrzebne i może być argumentowane podtrzymaniem tradycji? Może wystarczy liczyć na samoregulację w przyrodzie? Należy ponadto wspomnieć o pytaniu pojawiającym
się podczas debat nad zasadnością myślistwa: Czy życie dziko żyjących
zwierząt, które mogą zastać upolowane jest lepsze od zwierząt hodowanych na pożywienie (często w ciasnych klatkach, nie znając niczego
poza halą hodowlaną11)?
Cele łowiectwa, wymienione w ustawie Prawo łowieckie, na pierwszym miejscu wymieniają „ochronę, zachowanie różnorodności i gospodarowanie populacjami zwierząt łownych”, cele związane z myślistwem są umiejscowione w
dalszej kolejności, Ustawa z 13.10.1995 r., Prawo łowieckie, Dz.U. 1995 nr 147
poz. 713, art. 3, s. 1.
Wiele kontrowersji budzi ponadto kwestia zachowania zasad selekcji podczas
odstrzału.
8
Na przykład w głośnej obecnie sprawie dotyczącej odstrzału żubrów, Informacja prasowa z dnia 10.02.2017 r., Zasady ochrony żubra wymagają rewizji. Nie
ma zgody na komercyjny odstrzał!, http://www.greenpeace.org/poland/pl/wydarzenia/polska/Zasady-ochrony-ubra-wymagaj-rewizji-Nie-ma-zgody-na-komercyjny-odstrza/ (data dostępu: 01.03.2017).
9
Materiały prasowe dotyczące wilka z 01.03.2016 r., Dołącz do watahy i chroń
wilka, http://www.wwf.pl/fakty_ciekawostki/aktualnosci/?18660/Docz-do-watahy-i-chro-wilka, (data dostępu: 01.03.2017).
10
Rykowisko dla jeleni, nie dla myśliwych, http://puszcza.pracownia.org.pl/rykowisko/wstep (data dostępu: 01.03.2017).
11
Polecam choćby pobieżne przejrzenie fotografii zawartych w opracowaniu
Poradnik metodyczny w zakresie PRTR dla instalacji do intensywnego chowu
i hodowli drobiu, red. A. Mihułka, Warszawa 2009, s. 6, 34, 41,
http://www.gios.gov.pl/images/dokumenty/prtr/poradnik_20091026.pdf, (data
dostępu: 01.03.2017).
7
170
– ilość zwierzyny w kontekście pojemności środowiska związana
również z wiarygodnością wskazania „odpowiedniej” ilości osobników
danego gatunku na określonym obszarze oraz z samym procesem szacunkowym dotyczącym wskazania rzeczywistej liczebności danej populacji. Tutaj w największej mierze pojawiają się zastrzeżenia do prowadzonych w naszym kraju kalkulacji liczebności zwierzyny na podstawie
tzw. pędzeń próbnych12.
– bezpieczeństwo ludzi i ich mienia. Najlepszym przykładem będzie
rozrastająca się populacja bobra europejskiego (Castor fiber) związana
ze zniszczeniami drzewostanów wzdłuż cieków czy uszkodzeniami wałów przeciwpowodziowych13.
– rozprzestrzenianie chorób przez dzikie zwierzęta. Na przykład ptasia grypa przenoszona z dzikiego ptactwa na drób14, afrykański pomór
świń (ASF) przenoszony z dzików (Sus scrofa) na świnie15, borelioza
i inne choroby odkleszczowe16 (w tym wypadku leśne zwierzęta występują pośrednio jako żywiciele kleszczy (Ixodes ricinus), które są nosi-
Metoda pędzeń próbnych polega na policzeniu osobników danego gatunku na
określonej przestrzeni, przy zaangażowaniu znacznej ilości osób, przy założeniu, że policzenie zwierząt na 10% nadleśnictwa daje podstawę do przeliczenia
otrzymanych danych na powierzchnię całego nadleśnictwa, wspomagając się
obserwacjami prowadzonymi przez cały rok.
13
Populacja bobra europejskiego w ciągu ostatnich lat sukcesywnie się zwiększa, według szacunków, w 2015 r. przekroczyła 100 tys. osobników na terenie
Polski: Leśnictwo 2016, red. B. Domaszewicz, GUS, Warszawa 2016, s. 154.
Najtrudniejszą w mojej ocenie sprawą dotyczącą zagrożenia życia i mienia ludzi
w kontekście zwiększenia się populacji gatunku chronionego, jest wzrost zagrożenia powodziowego spowodowany przez pojawienie się bobra europejskiego
(Castor fiber) na Żuławach Wiślanych, które w części są terenami depresyjnymi, tj. położonymi poniżej poziomu morza, chronionymi przed zalaniem jedynie przez system wałów i pomp: T. Chudzyński, Bobry na Żuławach do całkowitego odstrzału,
http://www.strefaagro.dziennikbaltycki.pl/artykul/bobry-na-zulawach-do-calkowitego-odstrzalu, (data dostępu: 01.03.2017).
14
Ptasia grypa w Polsce, http://www.tvn24.pl/raporty/ptasia-grypa-w-polsce,90, (data dostępu: 01.03.2017).
15
ASF i co dalej….?, http://www.pirol.pl/index.php/afrykanski-pomorswin/2189-asf-i-co-dalej (data dostępu: 03.03.2017).
16
B. Grabowska, Uwaga, kleszcze!,
http://www.lasy.gov.pl/informacje/aktualnosci/uwaga-kleszcze, (data dostępu:
01.03.2017).
12
171
cielami krętków powodujących chorobę). Czy redukcja populacji dzikich zwierząt pozwoli na zmniejszenie przenoszenia się konkretnych
chorób?
– najbardziej prozaiczny wobec powyższych: Jak powinno partycypować w kosztach różnych przedsięwzięć społeczeństwo, Skarb Państwa
i myśliwi17?
– czy prawodawstwo ma możliwość całkowitego dostosowania do
potrzeb ludzi i środowiska? Czy można przynajmniej zmniejszyć wrażenie, że odpowiada tylko zaradczo na bieżące problemy, lub wspiera jedynie uprzywilejowane grupy?
Kolejne aspekty, które mogą być wspomagane przez narzędzia filozoficzne w kontekście poszukiwania korzystniejszych rozwiązań, to stanowiska prawne, naukowe i wyrażające subiektywne opinie dotyczące
różnorodnych form ochrony przyrody, jak obejmowanie ochroną gatunkową oraz warunki trwania takiej ochrony (Czy zwiększenie liczebności
osobników to wystarczający powód, aby znieść ochronę gatunku? Kiedy
wiadomo, że liczebność jest wystarczająca dla zachowania różnorodności biologicznej?) Wybór pomiędzy ochroną czynną i bierną szczególnie
cennych przyrodniczo obszarów również przysparza trudności: czy
mamy pozostawić je „naturalnymi” (choć uważa się, że naturalne obszary w praktyce już nie istnieją lub występują w znikomym stopniu,
na terenach niedostępnych dla człowieka), jeśli pozostawienie ich bez
żadnych działań, poza zakazem wstępu, doprowadzi do całkowitej degradacji tego, co uważaliśmy za cenne? Czy tak samo postąpić ze zwierzętami, to jest nie chronić aktywnie żadnych gatunków, a ich wyginięcie
traktować jako naturalną kolej rzeczy (przecież niezliczona ilość gatunków wyginęła od początków istnienia życia na naszej planecie)?
***
Jak może w tym, co zostało wyżej wstępnie sproblematyzowane, pomóc myślenie filozoficzne? Możemy zastosować kilka mechanizmów
wspierających wyrobienie sobie zdania na ważkie kwestie oraz wspomagających dokonywanie decyzji, z minimalizacją niepokojących wątpliwości i poczucia winy. Pierwszym ze sposobów radzenia sobie z podejmowaną tematyką może być włączenie myślenia analitycznego do rozpatrywania i typowania priorytetów, na rzecz których chcemy podejmować największe starania. Skoro mowa o priorytetach, to oczywiście musi
W zależności czy roczny plan łowiecki na danym terenie został wykonany,
czy szkody wyrządziły zwierzęta łowne czy chronione – jest to prawnie ustalone, co nie daje jednak gwarancji sukcesu rozumianego jako brak sprzeciwu
(na przykład myśliwych i rolników) wobec obecnych regulacji.
17
172
być uwzględniana aksjologia i to taka, która wprowadza hierarchizację
wartości. Aksjolodzy wskazują na to, że wartości środowiska naturalnego, dodam również lasu, są bardziej podstawowe niż wiele innych
wartości, takie jak estetyczne czy niektóre ekonomiczne, np. mające zaspokajać, jak się wyraził Epikur „potrzeby urojone” (usztucznione)18. Inspirację na pewno będzie przynosić racjonalizm19 sięgający swoimi korzeniami V-IV w p.n.e. (Sokrates i inni). Racjonalizm ma wiele form,
tutaj zwrócimy uwagę na kierowanie się przesłankami nie tylko zdroworozsądkowymi, lecz także modelowanymi w obrębie epistemologii i teorii funkcjonowania umysłu20.
Po drugie, w zgodzie z własnym sumieniem i obowiązującym prawem, należałoby zastanowić się nad moralnością obserwowanych
(w przeszłości i obecnie) i planowanych działań. Wydaje się, że spośród
opracowań etyki najbardziej przydatna będzie etyka ekofilozoficzna21.
Jeśli ustalenia ekofilozofii wydadzą się komuś zbyt ogólne, to naturalnie
filozofia dysponuje etykami szczegółowymi. Jeśli dwie pierwsze propozycje zawiodą, wzbudzając poczucie niedosytu lub brnięcia w niewłaściwym kierunku, można niczym sceptycy22 inspirujący się Pirronem i Sekstusem Empirykiem, zanegować wszystkie znane prawdy, by rozpocząć
własne poszukiwania od początku, z umysłem niezajętym przez obiegowe ideologie, w pewnym sensie oczyścić myślenie za pomocą filozoficznego instrumentalizmu. Nie ma przeszkód, by takie myślenie połączyć z pragmatyzmem, wobec którego za warte uwagi uznaje się tylko
te działania (czy teorie), które niosą za sobą użyteczne rezultaty. W niektórych przypadkach, stan wiedzy i możliwości naszego poznania mogą
okazać się niewystarczające do sformułowania sądów, które będą miały
właściwe przełożenie na pragmatykę, wytyczone przez aksjologię
i etykę. Wtedy leśnik lub my, którzy mediujemy między nim a filozofią,
możemy zainspirować się przedstawicielami szkoły cynickiej i zdać się
na to, co przyniesie nam przyszłość bez niepotrzebnych obaw i zbędnego planowania ciesząc się tym, czego dane nam było doświadczyć.
Diogenes Laertios, Żywoty i poglądy słynnych filozofów, PWN, Łódź 1988,
Księga X, paragraf 128, s. 646.
19
M. Heller, Filozofia przyrody. Zarys historyczny, Znak, Kraków 2005, s. 228229.
20
Myślenie czerpiące z racjonalizmu filozoficznego mogłoby pomóc uporządkować np. prawodawstwo dotyczące ochrony przyrody.
21
Zob. A. Naess, G. Session, H. Skolimowski.
22
Na przykład: L. Kołakowski, O co pytają nas wielcy filozofowie, Seria I, Znak,
Kraków 2005, s. 65-74.
18
173
Dodatkowo warto pokusić się o wyczerpujące dyskusje ze znawcami poszczególnych tematów, najlepiej stojącymi w opozycji, co może rzucić
nowe światło na nasze postrzeganie rozważanej tematyki.
Przeprowadźmy krótką analizę, ukazującą zastosowanie pojęcia dobra dla sytuacji przebywania w lesie i jego traktowania. Posłużę się definicją dobra sformułowaną przez Lecha Ostasza:
Szersza, bardziej złożona definicja mówi, że dobre jest to, co 1) umożliwia
powstanie kogoś bądź czegoś, 2) podtrzymuje trwanie kogoś bądź czegoś,
3) wspomaga rozwijanie się i polepszanie jakości trwania kogoś bądź czegoś, 4) służy jego spełnianiu się w cyklu życia i usensownianiu jego istnienia
(dotyczy to człowieka i innych istot żywych). To, co dobre, charakteryzuje
się jeszcze czymś dość oczywistym: 5) gdy trafia na coś, co działa niszcząco,
degenerująco lub uszczuplająco, to osłabia to coś lub neutralizuje, przeciwdziała temu23.
Las wpisuje się w przytoczoną powyżej definicję dobra poprzez
swoje niezliczone funkcje. Wymieńmy przykładowo: kształtuje krajobraz (a co za tym idzie wnosi wartości estetyczne i może być inspiracją
artystyczną24), wpływa na klimat (lokalnie – mikroklimat i globalnie)
i obieg wody w przyrodzie (zwiększając małą retencję), chroni glebę
przed erozją (wodną i wietrzną), umożliwia powstawanie tlenu (o czym
niejednokrotnie zapominamy), kształtuje unikalne warunku środowiskowe (często niezbędne dla życia i rozwoju rzadkich gatunków – podtrzymanie bioróżnorodności), stwarza warunki do rekreacji i pracy zarobkowej oraz dostarcza odnawianego surowca – drewna, a także innych
dóbr (owoce, zioła, mięso). Ponadto, w odniesieniu do ostatniego punktu
cytowanej definicji, las powoduje przywrócenie funkcji gleb zdegradowanych, oczyszcza powietrze z zanieczyszczeń i chroni przed rozprzestrzenianiem się hałasu (na przykład drogowego). Warto również nadmienić, że wkład do rozważań nad stosunkiem do lasu wnieśli nasi praprzodkowie, Słowianie. Okazuje się, że potrafili postrzegać las zgoła
kompleksowo. Doceniali nie tylko estetykę lasu, ale także funkcję lasu
L. Ostasz, Dobre, złe, odpowiedzialne, sprawiedliwe… Definicje i objaśnienia
pojęć etyki, Towarzystwo Kultury Świeckiej in. Tadeusza Kotarbińskiego, Warszawa 2010, s. 10.
24
Na przykład w malarstwie obraz Gustava Klimta Brzozowy las, w poezji
wiersz Kazimierza Przerwa-Tetmajera Widok ze Świnicy do Doliny Wierchcichej, czy współcześnie tekst piosenki zespołu Lao Che Idzie wiatr.
23
174
w podtrzymywaniu trwania ich społeczności25,26. Naturalnie cenili również funkcje ekologiczne. Nic dziwnego, że ich wierzeniom towarzyszył
bóg Leszy i leśne demony czy duchy oraz czczono różne gatunki drzew
(dąb, lipa, brzoza i kilka innych gatunków)27.
Niektóre kwestie związane zarówno z rozwojem nauk, jak i własnymi
przekonaniami są bardzo trudne do rozwiązania. Na określonych etapach
rozwoju może nie starczać nam narzędzi i wiedzy (rozumianych zarówno
pod względem możliwości poznania, jak i zaawansowania rozwoju nauki), dlatego dokonania z zakresu różnych nauk powinny się przenikać
i uzupełniać. Sama obserwuję, że część naukowców zajmujących się badaniami z dziedziny nauk biologicznych, u schyłku kariery naukowej
czując pewne „nasycenie” tematu, czy brak perspektyw dalszego poznania (ze względu na własne możliwości czy niedostateczny rozwój nowych technologii, które hamują postęp badań), skłania się ku filozoficznym rozważaniom dla wieloaspektowego ujęcia badanej problematyki
(możliwe, że jest to też pokłosie wieloletnich przemyśleń i głębokich
analiz dotyczących jednej tematyki). W powyższym tekście starałam się
wskazać kilka aspektów, które, przynajmniej po części, mogą być wspomagane refleksją filozoficzną, a także że pozostaje wiele nierozwiązanych kwestii dotyczących leśnictwa. Ich podejmowanie może być ważniejsze dla przetrwania gatunku Homo sapiens niż się to może wydawać.
K. Moszyński, Kultura ludowa Słowian, t. II, cz. 2, Książka i Wiedza, Warszawa 1968, s. 717.
26
A. Błażejewski, Starożytni Słowianie, Ossolineum, Wrocław 2007, s. 59.
27
Por. A. Kempiński: Encyklopedia mitologii ludów indoeuropejskich, Iskry,
Warszawa 2001, s. 256.
25
III.
ODCIENIE POSTĘPU
Piotr Wasyluk
Uniwersytet Warmińsko-Mazurski
w Olsztynie
MODELE ROZWOJU HISTORYCZNEGO A KLASYCZNA KONCEPCJA POSTĘPU
Trudno nie zgodzić się z twierdzeniem, że zrozumienie idei postępu
dziejowego zależy w dużej mierze od określenia modelu zmienności
historycznej oraz sposobu, w jaki dokonuje się wartościowania czasu
historycznego. Model zmienności historycznej wyznacza ramy, w których „dzieje się” historia, zaś określony sposób waloryzacji wydarzeń
historycznych decyduje o ich negatywnej lub pozytywnej ocenie. Te
dwa czynniki są niezbędne, aby można było zrozumieć, jakie miejsce w
refleksji nad dziejami zajmuje prospekcja dziejowa oraz sama idea
postępu dziejowego, która stanowi jedną z jej teoretycznych konsekwencji.
Choć współcześnie zjawisko postępu jest przedmiotem autonomicznego zainteresowania przedstawicieli wielu dyscyplin naukowych, jego
znaczenie zostało ukształtowane przede wszystkim przez związek łączący je z filozoficzną refleksją nad historią. Jako że kategoria postępu
pozostaje w ścisłych relacjach z koncepcją rozwoju, końca i wartości1,
oraz często łączy się z pojęciem sensu historii, filozoficzno-dziejowy
kontekst postępu wydaje się bezsporny. Mimo że we współczesnych
dyskusjach poświęconych idei postępu przeważa pogląd, że „postęp”
powinno się traktować wyłącznie jako kategorię świadomości aksjologicznej, to jednak do początków dwudziestego wieku nie dostrzegano
różnicy między jego normatywnym i opisowym znaczeniem, utożsamiając go z „ewolucją” czy „rozwojem”2. Zgodnie z takim rozumieniem, każdą ukierunkowaną zmianę, która powodowała zróżnicowanie
zjawisk, nazywano postępem, a postrzegając ją jednocześnie jako celową lub zdeterminowaną przez przyczyny obiektywne, nadawano jej
jednoznacznie pozytywną wartość. Tendencja ta widoczna była zarówB. Croce, Theory and History of Historiography, przeł. D. Ainslie, George G.
Harp& CO. LTD, London 1921, s. 83-84.
2
R. Nisbet, History of the Idea of Progress, TransactionPublishers, New
Brunswick, London 2008, s. 174.
1
178
no w finalistycznych koncepcjach historiozoficznych niemieckiego
idealizmu, jak również we wczesnych odmianach pozytywizmu,
a zwłaszcza ewolucjonizmu, którego przedstawiciele traktowali prawa
rozwoju społecznego analogicznie do zasad kierujących światem przyrodniczym3.
Niezależnie od wszelkich teoretycznych odniesień i historycznych
uwarunkowań, pojęciem postępu określić można kierunkową zmianę
o charakterze kumulatywnym, w której każde z kolejnych następstw
utożsamiane jest ze wzrostem wartości pożądanych. Mówiąc słowami
Zdzisława Krasnodębskiego, postęp wynika z przekonania, że „bieg
historiijest ukierunkowanym procesem zmierzającym, ostatecznie rzecz
biorąc, ku lepszemu”4.
W opinii Charlesa Van Dorena, który podjął próbę usystematyzowania teorii progresywistycznych, o idei postępu historycznego można
mówić, kiedy zajdzie kilka zasadniczych warunków.
Pierwszy wskazuje, że w historii musi istnieć określony schemat
rozwoju, który pozwala porządkować dzieje w formie określonych
całości (etapów lub epok). Nadaje on historii określoną strukturę,
a jednocześnie ukierunkowuje ludzkie doświadczenia i działania (indywidualne oraz zbiorowe). Ów schemat, który pozwala dostrzec
w historii pewien ład, staje się uniwersalnym modelem, umożliwiającym uchwycenie przeszłości, teraźniejszości i przyszłości w formie
uniwersalnej syntezy. Określona sekwencja zdarzeń, ich regularność
nie dotyczy wyłącznie przeszłości, ale ma również wymiar prospektywny. Pozwala wyjaśniać to, co się już wydarzyło, a jednocześnie
dostarcza wiedzy o tym, co nastąpi lub może nastąpić w przyszłości.
Zgodnie z drugim warunkiem, schemat ten musi być w całości poznawalny, co oznacza, że możliwości poznawcze człowieka pozwalają
mu w sposób bezpośredni lub pośredni poznać przebieg historii oraz
uporządkować poszczególne wydarzenia w formie generalnych prawidłowości. Oznacza to, że historia nie mieści w sobie żadnej tajemnicy,
a jej dotychczasowy przebieg oraz dalszy rozwój są częściowo lub
w całości znane.
Warunek trzeci wskazuje, że rozwój opisywany tym schematem,
w dłuższym okresie, jest nieodwracalny. Oznacza to, że zmiana histoO historycznych transformacjach idei postępu można przeczytać między innymi w: J. B. Bury, The Idea of Progress. AnInquiryintoitsOrigin and Growth,
Bibliobazar, Charleston 2006, S. Pollard, The Idea of Progress. History and
Society, Watts& CO. LTD., London 1968, R. Nisbet, op. cit.
4
Z. Krasnodębski, Upadek idei postępu, Państwowy Instytut Wydawniczy,
Warszawa 1991, s. 11.
3
179
ryczna powinna być postrzegana jako proces kierunkowy. Jej trajektorię wyznacza pojawianie się wartości nowych lub powiększanie się
zakresu wartości już istniejących, w związku z tym rozwojowi historycznemu towarzyszy stały i stopniowy przyrost wartości. Rozwój jest
więc tożsamy ze zmianą na lepsze, co oznacza, że pojawianie się wartości nowych oraz powiększanie się zakresu wartości już istniejących
(ulepszanie, doskonalenie) jest tożsame z ich pozytywną oceną. Następujące po sobie etapy procesu rozwojowego są traktowane jako „lepsze”, „wyższe” lub „doskonalsze” od poprzednich5.
Te trzy kluczowe warunki opisują nowożytny model idei postępu,
który w opinii wielu teoretyków należy uznać za uniwersalny wzór
progresywizmu. Warto zauważyć, że ów model ugruntowany jest w
linearnej koncepcji zmienności historycznej, który w dużej mierze determinuje cechy swoiste idei postępu.
Niektórzy teoretycy zwracają wręcz uwagę, że idea postępu jest
możliwa wyłącznie w kontekście linearnego modelu rozwoju6. Linearność, pozwalająca określić początek oraz kierunek procesu rozwojowego, wyklucza powtarzalność zdarzeń. Dostarcza jednocześnie przekonania o możliwości pojawiania się zjawisk nowych oraz stanowi gwarancję nieprzerwanego rozwoju. Linearna koncepcja rozwoju tworzy
podstawę do procesualnego ujmowania historii oraz poszukiwania
czynników determinujących poszczególne wydarzenia oraz działania
człowieka. Dlatego zdaniem wielu historyków stanowi również niezbędną przesłankę ukonstytuowania się świadomości czasu historycznego.
Model linearny wyznacza jedną, prostą linię rozwoju historii, w której wszystkie wydarzenia układają się diachronicznie. Model ten zakłada, że proces rozwoju ma charakter kierunkowy i nieodwracalny, a cały
proces, przechodząc przez określone stadia lub etapy, zmierza do określonego celu. Sens rozwoju historycznego wyznacza „jednolinearny,
spójny, ewolucyjny ciąg zmian ukierunkowanych, na który składają się
zbiorowe doświadczenia ludów wszystkich czasów”7. Dostrzeganie
następstwa epok i ich wzajemnych związków pomaga w konstruowaniu
obrazu historii ludzkości oraz kształtuje poczucie jedności procesu
5
Por. Ch. Van Doren, The Idea of Progress, Frederick A. Praeger, Publishers,
New York, Washinngton, London, 1967, s. 5-7.
6
Por. J. B. Bury, The Idea…, s. 17.
7
F. Fukuyama, Koniec historii, przeł. T. Bieroń, M. Wichrowski, Wydawnictwo Znak, Kraków 2009, s. 10.
180
dziejowego. Gwarantuje również, jak zauważa Hannah Arendt, posiadanie monopolu na sens historii8.
Jeżeli uzasadnione jest przekonanie, że postęp jest możliwy wyłącznie na gruncie linearnego modelu rozwoju, jego ścisły związek z jednokierunkową zmianą o charakterze kumulatywnym, która wiąże się
z maksymalizacją pozytywnych wartości, wydaje się oczywisty. Można
jednak postawić pytanie: czy rzeczywiście progresywizm związany jest
wyłącznie z linearnym modelem zmienności historycznej? Odnalezienie argumentów uzasadniających postęp na gruncie innych niż linearny
modeli rozwojowych może nie tylko dostarczyć innego spojrzenia na
zjawisko progresywizmu, ale pozwala również krytycznie spojrzeć na
słabości nowożytnej (klasycznej) wizji postępu. Jedną z jej podstawowych słabości było, podzielane przez jej zwolenników, przekonanie, że
procesy rozwojowe przebiegają w sposób regularny, a rzeczywistość
opisywana tymi regularnościami przekształca się w sposób możliwy do
przewidzenia. Skutkowało to przeświadczeniem o jednolitości i jednoznaczności, a niekiedy nawet o bezwarunkowej konieczności postępu.
Jednak przekonanie o jednolitości postępu należy uznać za błąd wynikający z naszych skłonności do liniowego ujmowania zjawisk. Jak
słusznie zauważył Arnold J. Toynbee, oczekiwanie, że rozwój ludzkości przebiega po linii prostej, jest znaczącym uproszczeniem dokonywanym przede wszystkim przez tradycyjną historiografię i historyków,
którzy „sytuują okresy dziejowe w jednym ciągłym szeregu, niczym
segmenty łodygi bambusowej między węzłem a węzłem lub też segmenty osobliwego rozciągania trzonka, na którego końcu nowoczesny
kominiarz nasadza miotłę do przepychania przewodów kominowych”9.
Celem tego artykułu jest próba rozważenia argumentów uzasadniających inne niż linearny modele rozwoju. Punktem wyjścia jest założenie, że liniowy schemat rozwoju nie jest jedynym istniejącym modelem
opisującym dynamikę rozwoju historycznego. Obok linearnego, możemy mówić o modelu cyklicznym, oscylacyjnym, multilinearnym oraz,
popularnym ostatnio, modelu sieciowym10. To one będą stanowiły podstawę dalszych rozważań.
H. Arendt, Między czasem minionym a przyszłym. Osiem ćwiczeń z myśli
politycznej, przeł. M. Godyń, W. Madej, Wydawnictwo ALETHEIA, Warszawa 2011, s. 77.
9
A. J. Toynbee, Studium historii, przeł. J. Marzęcki, Państwowy Instytut Wydawniczy, Warszawa 2000, s. 51
10
Moim zamiarem jest omówienie wyłącznie tych modeli, które mają charakter kierunkowy. Świadomie pominę więc model teorii chaosu Edwarda Lorenza, na gruncie którego trudno mówić o postępie. Rozwój w tym modelu to
8
181
Cykliczny model rozwoju należy do procesów niekierunkowych.
Niektórzy badacze doszukują się jego genezy w starożytnej magii
i astronomii. Do filozofii i nauki przeniknął jako jeden z pierwszych
schematów wyjaśniających funkcjonowanie wszechświata. Stanowił
pierwotny wzór, zgodnie z którym rzeczywistość postrzegano jako
przejaw doskonałego i niezmiennego bytu. Związany był z mitem
wiecznego powrotu, wedle którego wszystko, co powstaje, ostatecznie
powraca do swojego źródła. W związku z tym, każdy proces zachodzący w świecie (także w świecie ludzkim) miał charakter cykliczny, rozwój traktowany był zaś jako okresowe i konieczne powtarzanie przez
każdy byt swojego istnienia.
Model cykliczny w bardziej współczesnej odsłonie przybierał często
postać teorii organicznej, w której analogia biologicznego procesu rozwojowego odnajdowała swe zastosowanie do interpretacji rozwoju
kultury. Według Oswalda Spenglera historia stanowiła wielki organizm, którego rozwój przebiegał zgodnie z fazami transofrmacji bytów
organicznych, przez narodziny, dzieciństwo, młodość, dojrzałość
i śmierć. Autor Zmierzchu Zachodu sądził, że historia jest procesem
nieustannego przeobrażania się, stawania się i przemijania rozmaitych
form organicznych11. W jego opinii, proces zmian wpisany był w
okrąg, a wydarzenia miały po sobie następować z określoną regularnością po jego orbicie.
Model cykliczny wiąże się z przekonaniem, że dzieje ludzkie to
proces nieustannych rekursów. W rzeczywistości nie może pojawić się
nic, czego wcześniej nie było. W modelu cyklicznym, jak zauważa
Mircea Eliade, człowiek:
nie zna aktu, który nie zostałby uprzednio dokonany i przeżyty przez innego, który nie był człowiekiem. To, co czyni, zostało już uczynione. Jego
życie jest nieprzerwanym powtarzaniem aktów zainicjowanych przez innych. (…) Czyn zyskuje sens, realność jedynie wtedy, gdy powtarza czynność pierwotną12.
wyłanianie się osobliwości w określonym polu zdarzeń możliwych (zdarzenia
pojawiają się jako mało prawdopodobne, ale pociągają za sobą całą lawinę
zdarzeń – np. „efekt motyla”); to, co się wydarza, nie jest konieczne, ale możliwe.
11
O. Spengler, Zmierzch Zachodu. Zarys morfologii historii uniwersalnej,
przeł. J. Marzęcki, Wydawnictwo KR, Warszawa 2001, s. 41.
12
M. Eliade, Mit wiecznego powrotu, przeł. K. Kocjan, Wydawnictwo KR,
Warszawa 1998, s. 13.
182
Model cykliczny wiąże się z przekonaniem, że powtórzeniu lub powtórzeniom ulega nie tylko cały cykl rozwoju, ale też poszczególne
sytuacje, ludzie oraz ich indywidualne zachowania. W Nietzscheańskiej
teorii wiecznego powrotu Zaratustra zwiastuje powrót wszystkich rzeczy.
Wszystko idzie, wszystko powraca; wiecznie toczy się koło bytu. Wszystko zamiera, wszystko zakwita; wiecznie rok bytu bieży. Wszystko się łamie, wszystko znów się spaja; jednakie buduje się wiecznie domostwo bytu. Wszystko się rozłącza, wszystko wita się ponownie; wiernem pozostaje
sobie wieczne bytu kolisko13.
Poza powtarzalnością zdarzeń, nieunikniony jest w modelu cyklicznym kres procesu rozwojowego. Wszystkie zapoczątkowane wydarzenia znajdują swoje dopełnienie w momencie końca całego cyklu. Cykliczny model rozwoju ma więc charakter finalistyczny. „Każde stworzenie ulega upadkowi – pisał Oswald Spengler – każda myśl, każdy
czyn, każdy wynalazek – zapomnieniu. Wszędzie wokół nas dają się
odczuć zaginione dzieje wielkiego losu. Wszędzie przed naszymi
oczami leżą ruiny dawnych dzieł obumarłych kultur”14. Dlatego model
cykliczny bywa określany mianem modelu degeneracyjnego i kojarzony jest z pesymizmem historiozoficznym, a niekiedy z katastrofizmem.
Modyfikacją modelu cyklicznego jest oscylacyjna teoria zmiany.
W tej koncepcji proces zmian ma charakter falowy i przybiera postać
sinusoidy, na której opisane są poszczególne wydarzenia. Wilhelm
Dilthey zauważył, że rozwój historyczny jest procesem, w którym
„oprócz wielkiego panującego dążenia, nadającego epoce jej charakter,
istnieją inne, przeciwstawne. Zmierzają do zachowania tego, co dawne,
dostrzegają szkodliwe jednostronności ducha czasu i zwracają się przeciwko niemu”15. Rozwój jest procesem, w którym dążenie do jedności
i tendencje dezintegracyjne stanowią dwie strony tego samego nieprzerwanego continuum. Następujące po sobie fazy wyznaczają rytm
zmian, a cały proces staje się zapisem wzlotów i upadków następujących po sobie we względnie regularnym rytmie. Każdy etap rozwoju
napotyka granicę, której nie będzie w stanie przekroczyć. Osiągnięcie
F. Nietzsche, Tako rzecze Zaratustra, przeł. W. Bernt, Zysk i SK-A, Poznań
1995, s. 197.
14
O. Spengler, Historia, kultura, polityka. Wybór pism, przeł. A. Kołakowski,
J. Łoziński, Państwowy Instytut Wydawniczy, Warszawa 1990, s. 37.
15
W. Dilthey, Budowa świata historycznego w naukach humanistycznych,
przeł. E. Paczkowska-Łagowska, Słowo/obraz terytoria, Gdańsk 2004, s. 153.
13
183
optimum staje się jednocześnie punktem zwrotnym, po którym następuje nowy etap rozwoju.
W wymiarze aksjologicznym proces rozwojowy opisany jest regularnym następstwem wzlotów i upadków. Zmiana jest następstwem
cyklicznie pojawiających się powodzeń i klęsk. Okresy postępu oddzielają następujące po nich upadki i wzloty. Oscylacja polega na współwystępowaniu i cyklicznym następstwie procesów dezintegracyjnych
i progresywnych. Rozpatrywana z perspektywy określonych faz i etapów rozwojowych, okazuje się przede wszystkim dialektycznym następstwem postępów i regresów, nieustającą i nigdy niekończącą się
walką głębokich konfliktów mogących doprowadzić do unicestwienia
wszelkich istotnych wartości i sukcesów. Mimo wewnętrznego zróżnicowania, rozwój pozostaje jednak procesem ciągłym i kumulatywnym.
W wymiarze historycznym jest jednością przeciwieństw, łącząc przeciwstawne bieguny historii, dostarcza poczucia ciągłości kultury16.
Za jednolitością procesu rozwojowego kryje się dynamika przeciwstawnych tendencji, które wspierają się i zwalczają jednocześnie.
W opinii Georga Simmela, wewnętrzny nurt historii to permanentna
destrukcja tego, co jedynie pozornie wydaje się utrwalone w procesie
dotychczasowego rozwoju.
Ciągła przemiana treści kultury, a w końcu całych stylów kultury, jest
oznaką bądź raczej sukcesem nieskończonej płodności życia, ale także głębokiej sprzeczności, w jakiej jego wieczne stawanie się i jego przemiany
stoją z obiektywną ważnością i samostanowieniem jego manifestacji oraz
form, w których lub za pomocą których ono żyje. Porusza się ono między
umieraj i stawaj się – stawaj się i umieraj17.
Kolejny model, model multilinearny, wyznacza wielość linii rozwojowych, którymi przebiegają procesy rozwojowe. Choć koncepcja multilinearna należy do procesów kierunkowych, opisuje ona pluralistyczny, a więc niezwykle złożony, model rozwoju. Multilinearyzm zakłada,
że rzeczywistość nie jest mono-liniowa, ale składa się z warstw, pięter
i grup. Cechą charakterystyczną multilinearyzmu jest paralelizm,
„oboksiebność” rozmaitych linii rozwojowych i czasów. Pisał Ferdynand Braudel:
E. Cassirer, Esej o człowieku. Wstęp do filozofii kultury, przeł. A. Staniewska, Czytelnik, Warszawa 1977, s. 333.
17
G. Simmel, Filozofia kultury. Wybór esejów, przeł. W. Kunicki, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2007, s. 54.
16
184
Czas, w którego trybach pozostajemy wciąga także, choć w odmienny sposób, społeczeństwa i cywilizacje, które nas przekraczają, bo ich życie trwa
dłużej niż nasze i stadia ich zgrzybiałości odmienne są od tych, jakie sami
przechodzimy. Nasz czas, czas naszych doświadczeń, naszego życia, czas
dokonujący zmiany pór roku i przynoszący kwitnienie róż, znaczący bieg
naszego wieku, liczy także godziny istnienia różnorodnych struktur społecznych, ale w rytmie całkowicie odmiennym18.
Kolejnym założeniem multilinearyzmu jest, że nie istnieje jeden
uniwersalny proces rozwoju. Rzeczywistość stanowi mieszaninę rożnorodnych i rozbieżnych procesów, które zachodzą niezależnie od siebie,
zgodnie z właściwymi dla siebie dynamikami. Klasycznymi przykładami modelu multilinearnego są teorie „czasu osiowego” Karla Jaspersa oraz koncepcja „nowoczesności zwielokrotnionej” Shmuela N. Eisenstadta, w ramach których postrzega się rozwój nie jako diachroniczne następstwo, ale jako równoległe (oboksiebne) i niezależne istniejące
procesy rozwojowe19.W opinii Karla Jaspersa, jedność rozwoju nie jest
faktem, który można potwierdzić empirycznie. Rozproszenie ludzi po
świecie prowadzi do nawarstwiania się rozmaitych kultur i sposobów
życia. „W ruchu ludzkich spraw istnieje dla naszego poznania wiele
linii, które biegną oddzielnie od siebie, i później się spotykają – lub
linii partykularnych, które wprawdzie typowo powracają, lecz oznaczają tylko poszczególne cechy całości, nie zaś samą całość”20. Rozwój nie
ma charakteru jednorodnego, ponieważ składają się na niego odrębne
i względnie niezależne od siebie procesy. Jaspers nie zgadzał się z postrzeganiem rozwoju jako diachronicznego następstwa poszczególnych
stadiów. Jedność rozwoju należy postrzegać jako „oboksiebne istnienie
w tym samym czasie”, bez prawdziwej styczności21.
Także w opinii Shmuela Eistenstadta, rozwój nie ma charakteru
homogenicznego. Proces zmian zakłada różnorodność rozbieżnych,
choć pozostających ze sobą w ciągłej styczności cywilizacji, które
18
F. Braudel, Historia i trwanie, przeł. B. Geremek, Czytelnik, Warszawa
1999, s. 123-124.
19
Przykładem modelu multilinearnego jest również niezwykle interesująca
koncepcja „czasu kupca i czasu Kościoła” Jacquesa Le Goffa, por. J. Le Goff,
Czas Kościoła i czas kupca, przeł. A. Frybes, [w]: Czas w kulturze, red. nauk.
A. Zajączkowski, Państwowy Instytut Wydawniczy, Warszawa 1988, s. 331356.
20
K. Jaspers, O źródle i celu historii, przeł. J. Marzęcki, Wydawnictwo Marek
Derewiecki, Kęty 2006, s. 246.
21
Ibidem, s. 25.
185
kształtują się zgodnie z własnymi regułami i założeniami22. Odwołując
się do Jaspersowskiej koncepcji czasu osi, Eisenstadt uważał, że
we wzajemnej grze między z jednej strony różnymi kulturowymi orientacjami, ich nosicielami i głoszonymi przez nich wizjami przeobrażenia
świata, a z drugiej konkretnymi domenami i historycznymi warunkami,
w których takie wizje mogły się konkretyzować, kształtowały się instytucjonalne kontury i dynamika rozmaitych cywilizacji osiowych i wynikające
stąd przebiegi historii powszechnych23.
Wraz z zachodzącymi w wielu krajach dużymi przeobrażeniami gospodarczymi, społeczno-kulturowymi, a zwłaszcza technologicznymi,
metamorfozę przeszła także koncepcja rozwoju, która współcześnie
zakłada aktywne i szerokie uczestnictwo społeczeństwa w kształtowaniu zmian społecznych. Rozwój, stymulowany w dużej mierze przez
potrzeby i twórczą spontaniczność człowieka, generuje innowacyjność
na płaszczyźnie indywidualnej i społecznej. Pomysły na rozwiązanie
wielu problemów społecznych rozprzestrzeniają się spontanicznie
w zdecentralizowanych strukturach opartych na dobrowolności
i współpracy. Poprawa jakości życia przestała być tym samym biernym,
wynikowym efektem innowacji technologicznych, a stała się efektem
realnego uczestnictwa człowieka w rzeczywistości społecznej, politycznej i kulturowej. W ten sposób ukształtował się współczesny model
rozwoju, który określa się mianem sieciowego. Model sieciowy multiplikuje linearność i multilinearność. Jak pisze Manuel Castells, linearny
i nieodwracalny czas jest rozbijany i relatywizowany zgodnie ze społecznym kontekstem. W modelu sieciowym dochodzi do pomieszania
czasów w nieustannie zmieniającej się rzeczywistości. Model ten podkreśla rozproszenie i defragmentację przestrzeni ludzkiej, w której nakładają się na siebie i przenikają rozmaite temporalności. Model sieciowy to koncepcja, w której chronologia zmian ustępuje miejsca swobodnemu kolażowi zdarzeń, a ich istotność zależy od społecznego kontekstu. Castells podkreśla, że każde zdarzenie, każda sekwencja zdarzeń
zależy od kontekstu i celu, zgodnie z którym są wykorzystywane. Żyjemy w uniwersum „temporalności kulturowych ekspresji”. „Historia –
pisze Castells – jest najpierw organizowana zgodnie z dostępnością
wizualnego materiału, następnie podporządkowana skomputeryzowanej
S. N. Eisenstadt, Utopia i nowoczesność. Porównawcza analiza cywilizacji,
przeł. A. Ostolski, Oficyna Naukowa, Warszawa 2009, s. 31.
23
Ibidem, s. 250.
22
186
możliwości wybierania sekund z ujęć, które mają zostać połączone lub
rozdzielone, zgodnie ze specyficznymi dyskursami”24.
Sieciowość jest modelem, który wyjaśnia zdarzenia społeczne,
udział ich uczestników, a także reprodukcję zjawisk społecznych. Wyznacza obraz struktury społecznej i kierunki procesów społecznych.
Sieciowość oznacza decentralizację rozwoju. Kieruje się logiką zdecentralizowanej i rozprzestrzeniającej się struktury powiązań, która przekształca tradycyjny liniowy model czasu i przestrzeni. Model sieciowy
prowadzi do skompresowania czasu i etapów rozwoju. Wszystko wydaje się odbywać w czasie rzeczywistym, w dziejącej się teraźniejszości.
Jak zauważa Darin Barney:
społeczeństwo sieci jest zawsze tu i teraz i umiejscowienie jego członków
na danym obszarze jest mniej istotne niż ich istnienie w przestrzeni przepływów, gdzie zachodzą decydujące ekonomiczne i inne procesy. W tym
sensie ludzkie doświadczenie czasu w społeczeństwie sieci jest ponadczasowe, a miejsce pozbawione umiejscowienia 25.
Model sieciowy generuje zakłócenia w „sekwencyjnym porządku
zjawisk”, burzy diachroniczny proces historii pisanej przez zawodowych historyków, dopuszcza istnienie nieciągłości i przypadkowości,
które destruują spójność procesu rozwojowego. Zdarzenia dzieją się
jednocześnie. Nie mamy tu do czynienia z chronologicznym następstwem zdarzeń, lecz przestrzenią przepływów, w której dochodzi do
rozregulowania sekwencyjności zdarzeń.
Przestrzeń przepływów, (…), rozpuszcza czas przez zaburzanie sekwencji
zdarzeń i czynienie ich jednoczesnymi, tym samym umieszczając społeczeństwo w wiecznej ulotności. Wieloraka przestrzeń miejsc – rozproszona, sfragmentaryzowana i chaotyczna – manifestuje różne temporalności,
od najbardziej prymitywnej dominacji naturalnych rytmów do najsurowszej tyrani czasu zegarowego 26.
Omówione modele rozwoju pokazują, że nie jesteśmy skazani na
„tyranię” linearności. Warto jednak odpowiedzieć na pytanie, jakie
ograniczenia oraz jaki potencjał dla postrzegania rozwoju w kategoriach progresywnych tkwi w konstytuujących je założeniach. Pomoże
M. Castells, Społeczeństwo sieci, przeł. M. Marody, K. Pawluś, J. Stawiński,
S. Szymański, Wydawnictwo Naukowe PWN, Warszawa 2007, s. 459.
25
D. Barney, Społeczeństwo sieci, przeł. M. Fronia, Sic!, Warszawa 2008,
s. 41.
26
M. Castells, Społeczeństwo..., s. 464.
24
187
nam to rozstrzygnąć zasadniczy problem, który dotyczy możliwości
istnienia idei postępu odmiennych niż liniowy model rozwojowy.
Jak wskazuje Marek Wichrowski, związana z modelem cyklicznym
koncepcja nawrotu wyklucza unikatowość, jednokierunkowość i jednorazowość zdarzeń27. Przyszłość w koncepcjach cyklicznych ma znaczenie szczególne. W wymiarze ogólnym nie wiąże się ona z pojawianiem
się wartości nowych, czy kumulacją wartości już istniejących, lecz
z unicestwieniem zdobyczy rozwojowych, popadnięciem w nicość
wszystkiego, co dotychczas się dokonało. Do podobnych wniosków
doszedł J. B. Bury, który dostrzegł, na podstawie analiz starożytnych
przykładów modelu cyklicznego, że wyklucza on możliwość zmian
progresywnych28.
Podstawą przekonania, że modele cykliczne przeczą możliwości doskonalenia się w czasie, jest nieuzasadnione łączenie modeli cyklicznych ze skrajnym pesymizmem, a niekiedy katastrofizmem, które zmuszają do postrzegania rozwoju jako procesu degeneracyjnego, niechybnie zwieńczonego negatywnym finałem. Finalistyczny charakter modelu cyklicznego rzeczywiście może utrudniać postrzeganie rozwoju w
kategoriach progresywnych. Krytyk progresywizmu, Oswald Spengler
wskazywał, że rozwój „wymaga dopełnienia, rozwój zawsze ma początek, dopełnienie jest zawsze końcem. Nie ma młodości bez starości,
powstawania - bez zanikania, życia – bez śmierci”29. Jednak finalistyczna natura cyklicznych teorii rozwoju nie musi automatycznie
oznaczać, że ludzkie działania pozbawione są sensu, oraz że nie mogą
mieć pozytywnego znaczenia. W innym miejscu autor Zmierzchu Zachodu wyraźnie zaznaczał:
Nie, nie jestem pesymistą. Pesymizm oznacza niedostrzeganie żadnych już
zadań. Ja zaś widzę ich tak wiele nierozwiązanych, iż obawiam się, że nie
starczy nam dla nich czasu i ludzi. Pod względem praktycznym fizyka i
chemia niezbyt zbliżyły się do granicy swych możliwości. Technika swój
kulminacyjny punkt we wszystkich niemal dziedzinach ma jeszcze przed
sobą30.
Zadania do zrealizowania, które wymienia Spengler oznaczają, że
oczekiwanie na koniec nie jest biernym trwaniem, lecz aktywnością,
M. Wichrowski, Spór o naturę procesu historycznego (Od Hebrajczyków do
śmierci Fryderyka Nietzschego), Wydawnictwo Naukowe Semper, Warszawa
1995, s. 18.
28
Por. J. B. Bury, op. cit., s. 24.
29
O. Spengler, Historia…, s. 33.
30
Ibidem, s. 96.
27
188
której celem może być pozytywnie waloryzowany rozwój. Choć trudno
Spenglera nazwać zwolennikiem postępu, jego pogląd pokazuje, że
nawet w ramach koncepcji cyklicznych pojawia się możliwość progresywnego rozwoju.
Dopuszczając możliwość postępu na gruncie cyklicznego modelu
rozwoju, należy jednak dokonać dość istotnego rozróżnienia. Kiedy
rozpatrujemy model cykliczny z perspektywy następujących po sobie
sekwencyjnie poszczególnych zamkniętych cykli, mówienie o postępie
nie jest możliwe. Proces rozwoju, postrzegany jako całość tożsamy, jest
z rekursem, nieskończonym odtwarzaniem się tego, co już było, następstwem identycznych cykli, które replikują się w regularnym rytmie.
Postęp staje się jednak możliwy w ramach pojedynczego cyklu.
W takim przypadku rozwój nie może być postrzegany jako bezcelowa
powtarzalność. Wpisany w zamknięty cykl przemian, może generować
procesy, które posiadają charakter liniowego następstwa. Mechanizm
ten dostrzec można w koncepcji Arnolda J. Toynbee’go, który zauważył, że rozwój to harmonia dwóch różniących się od siebie ruchów.
Pierwszy, kołowy, odnaleźć można w rytmie natury, który opisuje „organiczny rytm życia i śmierci”. Drugi, związany z procesem rozwoju
cywilizacyjnego rozumianym jako całość, jest ruchem liniowym.
Tak więc – pisał Toynbee – wykrycie w naszej analizie procesu cywilizacji
powtarzających się periodycznie ruchów nie zakłada, że sam ów proces należy do tego samego cyklicznego porządku, co i one. Wprost przeciwnie,
jeśli można z periodyczności tych pomniejszych ruchów wyciągnąć jakiś
prawomocny wniosek, to wnosilibyśmy raczej, że niesiony na ich skrzydłach ruch główny nie sprowadza się do nawrotów, ale jest postępowy 31.
Koncepcję postępu wpisaną w cykliczny model rozwoju można
określić mianem postępu ograniczonego.
Kiedy pod koniec osiemnastego wieku I. Kant zastanawiał się nad
ostatecznym celem ludzkiej historii, wbrew powszechnej w tym okresie
opinii, nie uważał bynajmniej, że dzieje stanowią obraz jednoznacznego postępu czy regresu. Ogólna suma zła i dobra manifestująca się
w historii, a także antagonizm immanentnie obecny w ludzkiej naturze,
nie pozwalają, by zgodzić się na eudajmonistyczny optymizm czy terroryzujące świadomość ludzką przekonanie o ostatecznym upadku
ludzkości.
31
A. J. Toynbee, Studium..., s. 231.
189
Cechą naszego gatunku – pisał Kant – jest głupota w działaniu: szybko
wchodzimy na ścieżkę dobra, mimo to nie utrzymujemy się na niej, lecz
odwracamy wspak drogę postępu, choćby tylko gwoli odmiany, po to by
nie być związanymi z jednym celem. Budujemy po to, by móc burzyć. Podejmujemy się ciężkich zadań i toczymy pod górę syzyfowy kamień po to,
ażeby pozwolić mu stoczyć się z powrotem32.
Mimo że postęp nie jest ani konieczny, ani nieuchronny i nie sposób
go wywieść z samych wydarzeń historycznych, działania człowieka
określone są przez rozumny cel, przekonanie o jego istnieniu zaś tkwi,
w opinii Kanta, w uniwersalnych predyspozycjach rodzaju ludzkiego,
w jego możliwościach dążenia ku temu, co lepsze33.
W modelu oscylacyjnym postęp jest możliwy. Nie istnieją powody,
by przeczyć możliwości zmian progresywnych. Konieczne jest jednak
ciągłe weryfikowanie wiary w to, że postęp jest czymś pewnym. Proces
rozwoju to nieustanny konflikt antagonistycznych elementów, to
względna równowaga, która wynika z nieustannego napięcia między
dwoma aksjologicznymi biegunami, między dobrem i złem. Konsekwencją obecnego w rzeczywistości antagonistycznego ruchu jest
świadomość ambiwalencji rozwoju, która musi prowadzić do przekonania, że żaden z jego etapów nie może być jednoznacznie potępiony
bądź gloryfikowany. Wynika on z faktu, że przeciwieństwa obecne
w rzeczywistości nie stanowią dla siebie bezwzględnej opozycji.
W opinii Jacquesa Maritaina, postrzeganie rozwoju jako śmiertelnego
konfliktu między złem i dobrem jest błędem, ponieważ zarówno dobro
jak i zło nie stanowią odrębnych esencji, ale współistnieją jako całość34.
Ze względu na to, rozwój nie może być postrzegany jako jednorodny i
jednostajny ruch naprzód. Meandruje i zmienia tempo, burząc jednostajny ruch po linii prostej. Patrząc na proces zmiany z perspektywy
aksjologicznej, trudno nie zgodzić się z Reinholdem Niebuhrem,
w opinii którego „niemożliwe jest w dziejach żadne proste zwycięstwo
dobra nad złem. Wszelka nowa energia życia i wszelka wyższa siła
twórcza może być i będzie w równym stopniu źródłem dezintegracji, co
32
I. Kant, Wznowione pytanie. Czy ludzki rodzaj stale zmierza ku temu, co
lepsze?, przeł. M. Żelazny, [w:] I. Kant, Rozprawy z filozofii historii, przeł.
T. Kupiś, D. Pakalski, A. Grzeliski, M. Żelazny, Kęty 2005, s. 211.
33
Ibidem, s. 214.
34
J. Maritain. On the Philosophy of History. Charles Scribner’s Sons, New
York 1957, s. 55-56.
190
integracji”35. Jedność procesu dziejowego jest zachowana, ale ciągłość
historii stanowi jedność przeciwieństw.
W oscylacyjnym modelu zmiany postęp nie jest czymś oczywistym.
Nie istnieją jednak powody, żeby mu przeczyć. Nie jest on, jak chcieli
filozofowie XVIII w., zuniformizowanym i ciągłym ruchem wspólnym
całej ludzkości. Nie jest również konieczny i nieuchronny jak prawa
przyrody. Zmiana progresywna jest procesem wywołanym wieloma
przyczynami, które zazwyczaj mają charakter nieregularny. Nie istnieje
zatem żaden oczywisty postęp, nie istnieje bowiem rozwój, któremu nie
groziłaby regresja.
W multilinearnej koncepcji rozwoju struktura ludzkiego świata nie
ma charakteru homogenicznego. Jak pokazaliśmy wcześniej, model
multilinearny zakłada policentryczność świata ludzkiego. Mieści
w sobie rozmaite idee, wartości i wzorce zachowań, których ciągła
reinterpretacja prowadzi do powstawania nowych form organizacji.
W koncepcji „nowoczesności zwielokrotnionej” Shmuela Eisenstadta,
nowoczesność nie jest zwieńczeniem długiej drogi rozwoju ludzkości,
ale stanowi nowy wymiar cywilizacji ludzkiej, posiadającej właściwy
dla siebie program kulturowy. Jego istotą jest multicentryczność i niejednorodność systemów instytucjonalnych, kulturalnych i ideologicznych, które rozwijają się ze specyficzną dla siebie dynamiką. Innymi
słowy, nowoczesność to wiele różnych nowoczesności.
Centralnym założeniem wpisanym w pojęcie zwielokrotnionych nowoczesności jest to, że owe różne nowoczesności podzielają pewne niezmiernie
istotne wspólne właściwości, ale zarazem rozwijają się między nimi znaczące różnice – nie tylko lokalne warianty, lecz różnice faktyczne dotykające konstytutywnych właściwości nowoczesności 36.
Nowoczesność to wielość konkurujących ze sobą wizji rzeczywistości, które determinują powstawanie różnych programów rzeczonej
nowoczesności. Wizja nowoczesności to wizja nowoczesności zmultiplikowanych. Nowoczesność – uważał Eisenstadt – nie wydała z siebie
jednego wzorca rozwoju, ale wiele wzorów, często rywalizujących ze
sobą. Kultury, cywilizacje i społeczeństwa rozwijają się na ogół z różną
dynamiką; nie sprawdzają się próby zrozumienia dynamiki różnych
modernizujących się społeczeństw jako kontynuacji. Nowoczesność nie
ma jednego źródła, więc trudno uznać, że rozwija się zgodnie z jednym,
35
R. Niebuhr, Poza tragizmem. Eseje o chrześcijańskiej interpretacji historii,
przeł. A. Szostkiewicz, Wydawnictwo Znak, Kraków 1985, s. 98.
36
S. Eisenstadt, Utopia..., s. 298.
191
liniowym modelem; mamy raczej do czynienia z wieloma programami/wzorcami rozwoju, które rywalizując ze sobą, zapewniają kulturom,
cywilizacjom lub społeczeństwom szereg alternatyw rozwojowych.
Eistenstadt pisze o względności postępu37.W modelu multilinearnym
rozwój nie ma charakteru jednorodnego i nie prowadzi do homogenizacji. Nie istnieje również jeden wzorzec rozwoju, który dotyczyłby
wszystkich aktorów procesu rozwojowego. „We wszystkich społeczeństwach nieustannie pojawiają się nowe wątpliwości i reinterpretacje
dotyczące rozmaitych wymiarów nowoczesności, i we wszystkich wyłaniają się konkurencyjne agendy kulturowe”38.W koncepcji multilinearnej postęp nie może być zatem zjawiskiem oczywistym. Świat człowieka to przestrzeń wielu napięć i antynomii, których źródłem może
być właśnie niejednorodne tempo rozwoju różnych aktorów rzeczywistości społecznej i kulturowej. Postęp na gruncie modelu multilinearnego jest możliwy, ale nie jest jednoznaczny. Nie prowadzi do upowszechnienia się jednej koncepcji rozwoju, ale wielu, konkurencyjnych
możliwości zmian. Model multilinearny naznaczony jest niejednorodną
dynamiką rozwojową. Postęp nie jest również nieuchronny. Multilinearność to różnorodność przestrzeni i czasów, które ostatecznie składają
się na proces rozwoju. Ta wielość naznaczona jest potencjalnymi nieciągłościami, załamaniami i dyskontynuacjami. Rezygnacja z przekonania o liniowości rozwoju prowadzi do zmiany postrzegania postępu.
Przestaje tym samym być rozumiany jako uniwersalny i jednorodny
proces doskonalenia się w czasie. Jak pisał Ferdynand Braudel:
Postęp, otwierając wachlarz możliwości ludzkich, rozszerza w ten sposób
gamę różnic. […] Jeśli więc istotnie można mówić o pewnej inflacji cywilizacji pojmowanej jako całość, to byłoby naiwnością sądzić, że zdoła ona
triumfalnie wyprzeć różnorodne cywilizacje, owe rzeczywiste osobności
procesu dziejowego, pozostające stale na miejscu i obdarzone długim życiem. To właśnie one podejmują wyścig postępu, na swoich ramionach
dźwigając cały ciężar przedsięwzięcia, nadając mu – lub też nie – jakiś
sens. Żadna cywilizacja nie domawia przyjęcia całości tych nowych dóbr,
ale każda nadaje jej szczególne znaczenie39.
Rozmaitość kręgów społecznych powoduje zróżnicowanie procesów
modernizacyjnych. Prowadzi również do multiplikowania koncepcji
postępu.
37
Ibidem, s. 34.
Ibidem, s. 43.
39
F. Braudel, Historia..., s. 306.
38
192
Wydawać się może, że sieciowy model rozwoju w sposób zasadniczy ogranicza możliwość zmiany progresywnej. W modelu tym dochodzi do dekonstrukcji przestrzeni i czasu. Przestrzeń ulega rozproszeniu,
a uporządkowanie zdarzeń traci chronologiczny rytm, organizując się
w sekwencje czasowe, uzależnione każdorazowo od kontekstu40. Miejsca wydarzeń stają się przestrzeniami przepływów, w które wkomponowany jest czas, pozbawiony swojej linearnej struktury. „Bezczasowy
czas, pisze Castells, należy do przestrzeni przepływów, podczas gdy
dyscyplina czasowa, czas biologiczny i społecznie zdeterminowane
sekwencjonowanie charakteryzują miejsca na całym świecie, materialnie strukturując i destrukturując nasze sfragmentaryzowane społeczeństwa”41. Sieciowość jest modelem, który wyznacza obraz struktury
społecznej i kierunki procesów społecznych. Kieruje się logiką zdecentralizowanej i rozprzestrzeniającej się struktury powiązań. Sieć wyznacza geografię przestrzeni, w której kluczową rolę odgrywają punkty
węzłowe i połączenia. To one wyznaczają architekturę sieci. Rozwój
w modelu sieci nie posiada przymiotu nieuchronności. Sieć tworzy
matryce możliwości, potencjalnych kierunków rozwoju, które są jedynie możliwe, nigdy oczywiste. Model sieciowy jest systemem złożonym, a wiemy o podobnych systemach, „że są samoorganizujące i że
stale tworzą nowe recepty, nowe rozwiązania istniejących problemów”42. Uczestnicy sieci są zawsze „tu i teraz”. Umiejscowienie ich w
określonej przestrzeni i czasie jest mniej istotne niż ich uczestnictwo w
procesie przepływu informacji i doświadczeń. Sieciowość oznacza
decentralizację.
O ile w klasycznej koncepcji postępu czas podporządkowywał sobie
przestrzeń, to już w modelu sieciowym przestrzeń „rozpuszcza czas”,
zaburzając linearny porządek zdarzeń, czyniąc je jednoczesnymi. Również sama przestrzeń ulega daleko idącej transformacji. Nie istnieje
jedna przestrzeń, lecz wiele różnych, istniejących równolegle przestrzeni. Przestrzeń staje się miejscem jednoczesnych przepływów złożonym z punktów węzłowych i połączeń. Jej dynamikę napędza ciągły
ruch we wszystkich kierunkach i w tym samym czasie. Karl Schlögel
wskazuje, że w modelu sieciowym:
przestrzeń jest otwarta we wszystkich kierunkach i tylko od nas zależy, w
którą stronę pójdziemy. Jednym spojrzeniem obejmujemy to, co nas otaM. Castells, Społeczeństwo…, s. 459.
Ibidem, s. 463.
42
I. Wallerstein, Utopistyka. Alternatywy historyczne dla XXI wieku, przeł.
I. Czyż, Poznańska Biblioteka Anarchistyczna, Poznań 2008, s. 84.
40
41
193
cza: wszystko to, co znajduje się równocześnie i obok siebie, wokół nas.
Wszystko, co ze sobą sąsiaduje, ukazuje się nam naraz. W tym samym czasie, jednocześnie. Świat w swojej złożoności jako całość, otoczenie 43.
Czy więc w modelu, w którym zdarzenia nie kierują się logiką kolejności, lecz jednoczesności, w której przestrzeń nie ma początku ani
końca, jest miejsce na postęp? Jest, ale jest on raczej możliwy, niż
pewny. Możliwość postępu jest kwestią szacunku i wyboru między
różnymi scenariuszami. Postęp zależy od ludzkiej kreatywności i woli
zmiany, które nie są w żaden sposób ograniczane przez model sieciowy. Sieć tworzy nowe możliwości rozwoju. Sieciowy model rozwoju
oparty jest na koncepcji społecznego konstruktywizmu. Sprowadza się
ona do przekonania, że rozwój jest zależny od interakcji między
uczestnikami przestrzeni społecznej; charakteryzuje się kulturą otwartości, dobrowolnej współpracy między uczestnikami. Przestrzeń ta oferuje wiele możliwości, których spełnienie zależy od wyboru określonych metod realizacji, wybór zaś opiera się na priorytetach określonych
przez uczestników. Alternatywne sposoby działania tworzą alternatywne rezultaty. Nie istnieje jedna linia rozwoju, ale wiele alternatywnych
linii, których wybór zależy od priorytetów określonych przez użytkowników sieci. Trudno tym samym mówić o jednej koncepcji postępu.
Koncepcja postępu w modelu sieciowym to idea postępu zdecentralizowanego, którego kierunek i dynamikę napędzają potrzeby i twórcze
zbiorowości44. Można powiedzieć, że postęp w modelu sieciowym ma
charakter lokalny, obejmujący określony fragment sieci oraz konkretne
działania uczestników działań sieciowych. Nie ma też gwarancji, że
model sieciowy będzie generował rozwiązania progresywne w innych
częściach struktury. W modelu sieciowym wszystko bowiem zależy od
determinacji uczestników sieciowych społeczności. Jak zauważa YochaiBenkler, w płynnym środowisku sieci „zasady wyznawane przez
jednostki stanowią moralny punkt wyjścia do rozważań o strukturach
władzy i szans, wolności i dobrobytu”45. W opinii Andrzeja L. Zachariasza:
K. Schlögel, W przestrzeni czas czytamy. O historii cywilizacji i geopolityce,
przeł. I. Drozdowska, Ł. Musiał, Wydawnictwo Poznańskie, Poznań 2009,
s. 44.
44
Por. Y. Benkley, Bogactwo sieci. Jak produkcja społeczna zmienia rybki
i wolność, przeł. R. Próchniak, Wdawnictwo Akademickie i Profesjonalne,
Warszawa 2008, s. 23.
45
Ibidem, s. 36.
43
194
Fakt funkcjonowania w kulturze wielu pojęć, a właściwie znaczeń czasu,
oznacza, iż ludzie tej samej kultury w swoich działaniach, zwłaszcza w poszczególnych dziedzinach, mogą być determinowani przez różne wizje
czasu. A więc w pewnych swoich działaniach funkcjonować w czasie kulturowych progresywnym, w innych – kołowym, a w jeszcze innych w czasie regresywnym, mitologicznym. I mimo iż w poszczególnych z nich mamy do czynienia z ich wzajemną wobec siebie konkurencyjnością, to jednak tak też dzieje się, że poszczególne z nich zyskują sobie pozycję dominujących w determinowaniu pewnych działań ludzkich 46.
Wielość czasów determinuje mnogość modeli rozwojowych, które
mogą istnieć niezależnie od siebie lub współistnieć w jednej przestrzeni
społecznej albo kulturowej. Wszystko to sprawia, że nie istnieje jeden
model rozwoju, ale że każdorazowo zależy on od koncepcji zmienności, którą uznamy za obowiązującą.
To samo dotyczy idei postępu. Wielość modeli rozwojowych generuje mnogość koncepcji progresywnych, które mogą istnieć w ramach
jednej kultury, konkurować ze sobą lub się uzupełniać. Dlatego odpowiedź na pytanie, czy idea postępu jest możliwa na gruncie innych niż
liniowy modeli rozwojowych, powinna być, w mojej opinii, twierdząca.
Warto jednak zaznaczyć, że oparcie idei progresywizmu na omówionych w tym artykule modelach, oznacza zmianę w rozumieniu samego
postępu. Po pierwsze, należy przyjąć postawę umiarkowanego optymizmu, która wymusza pogląd, że postęp nie jest ani konieczny, ani nieuchronny i nie sposób go wywieść z samych wydarzeń historycznych.
Procesy rozwojowe pełne są napięć i tarć, których źródłem jest równoczesna obecność zjawisk negatywnych i pozytywnych. Nie ma pewności, które z nich zaczną przeważać i zdecydują o ostatecznej ocenie
rozwoju. Po drugie, postęp nie jest powszechny, nie obejmuje więc, jak
chcieli apologeci idei postępu, całej ludzkości. Świat człowieka to rzeczywistość dalece złożona. Niektóre procesy obejmują całe grupy społeczne, a nawet całe narody i kultury. Inne mają charakter lokalny
i oddziałują na niewielkie grupy ludzi. Nie ma pewności, czy pozytywne zjawiska występujące w jednej części świata będą wywoływały
równie pozytywne zmiany w innych rejonach. Po trzecie, należy zrezygnować z przekonania, że postęp ma charakter ciągły. Na przykładzie
oscylacyjnego modelu rozwoju widać, że choć zachowana jest ciągłość
zmian, jednorodność rozwoju może zostać zaburzona. Proces rozwoju
może meandrować, mogą nim targać zerwania, regresy i stagnacje,
46
A. Zachariasz, Kulturozofia, Wydawnictwo Uniwersytetu Rzeszowskiego,
Rzeszów 2006, s. 310.
195
które, choć nie zawsze znoszą dotychczasowe osiągnięcia, mogą zaburzać rytm zmian. Po czwarte, i wydaje się, że najważniejsze, postęp nie
jest procesem automatycznym, ale zależy od człowieka, jego determinacji i aktywności. Kierunek rozwoju, co wydaje się truizmem, determinowany jest przez potrzeby, oczekiwania, aspiracje i aktywność ludzi. Idea postępu powinna być postrzegana jako manifestacja wiary
w możliwości człowieka. Wiara ta ma jednak charakter regulujący,
a nie konstytutywny. Przekonanie o możliwości postępu to nade
wszystko dostrzeżenie potencjalnych możliwości tkwiących w naturze
człowieka i ujawniających się od czasu do czasu w różnych okresach
dziejowych. Idea postępu jest ideacją oczekiwań człowieka, przekonaniem o możliwym doskonaleniu się w czasie, ale przekonaniem dalekim od pewności. Warto również pamiętać, że to nie postęp jest powszechny, ale dążenie do niego.
Leszek Kleszcz
Uniwersytet Wrocławski
W STRONĘ „NOWEGO WSPANIAŁEGO ŚWIATA”
Filozoficzny namysł nad miejscem i rolą techniki zmienia się, nabierając coraz większego znaczenia. W starożytności technika nie zajmowała jakiegoś szczególnego miejsca w rozważaniach filozoficznych.
Uwagi o technice pojawiały się na marginesie rozważań metafizycznych,
epistemologicznych czy etycznych. Pierwszym filozofem, który nieco
więcej uwagi poświęcił problemowi techniki był Arystoteles1. Technika
w jego ujęciu była zjawiskiem neutralnym, narzędziem pozwalającym
realizować różne cele, a o ocenie techniki decydował użytek, jaki człowiek z niej czynił. To zdroworozsądkowe podejście do techniki, traktujące ją jako coś „neutralnego i autonomicznego”, a zarazem niezajmującego jakiegoś istotnego miejsca w refleksji filozoficznej, długo dominowało w podejściu filozofii do techniki.
Nowe elementy zaczęły pojawiać się w początkach nowożytności,
kiedy to, wraz z rozwojem nauki, zaczęła rodzić się kultura technokratyczna. W kulturze wcześniejszej, którą można określić jako kulturę narzędzi, nowe wynalazki miały rozwiązywać konkretne problemy praktyczne lub pełniły funkcje służebne w świecie symbolicznym. „W technokracji – jak zauważa N. Postman – narzędzia odgrywają centralną rolę
w intelektualnym świecie kultury. Wszystko musi, do pewnego stopnia,
ustąpić przed ich rozwojem. (…) Narzędzia nie integrują się z kulturą;
one kulturę atakują. Głoszą, że same są kulturą”2. Jednocześnie, wraz
z rozwojem nauki i kolejnymi wynalazkami, rodzi się ideologia technokratyczna. Za prekursora, a zarazem głównego „architekta nowego gmachu myśli” powszechnie uznaje się Francisa Bacona, filozofa przekonanego, iż „wiedza jest potęgą”, a człowiek dzięki rozwojowi nauki i techniki może stać się panem natury. Bacon był też jednym z pierwszych
filozofów, którzy wskazywali na znaczącą rolę techniki w kształtowaniu
1
A. Kiepas, Problematyka techniki w dziejach filozofii, [w:] Filozofowie o technice. Interpretacje dawne i współczesne, red. L. Zacher, Krajowa Agencja Wydawnicza, Warszawa 1986, s. 16.
2
N. Postman, Technopol. Triumf techniki nad kulturą, przeł. A. Tanalska- Dulęba, WWL Muza, Warszawa 2004, s. 43.
198
ludzkiego świata3. W Novum Organum pisał np. o konsekwencjach wynalezienia druku, prochu i busoli: „Te trzy wynalazki zmieniły całkowicie oblicze rzeczy i stosunków na świecie; pierwszy w dziedzinie nauk,
drugi w sztuce wojennej, trzeci w żegludze morskiej. W ślad za tym poszły niezliczone dalsze zmiany, tak, że żadna władza, żadna sekta, żadna
gwiazda nie wywarła – zdaje się – większego skutku i jakby wpływu na
sprawy ludzkie niż te wynalazki mechaniczne”4. Literackim wyrazem
wiary Bacona w „potęgę nauki i techniki” była Nowa Atlantyda5, której
kluczowym elementem jest opis Domu Salomona, czyli instytucji poświęconej „badaniom dzieł oraz stworzeń Bożych”. Jej celem miało być
„zgłębianie stosunków, zmian i sił wewnętrznych natury, tudzież rozszerzanie – jak tylko to będzie możliwe – granic władztwa ludzkiego nad
nią”6. Dzięki nauce mieszkańcy Nowej Atlantydy żyli w dobrobycie,
zdrowiu i bezpieczeństwie, a zarazem byli rozsądni, życzliwi i tolerancyjni.
W wieku Oświecenia czymś powszechnym stała się Baconowska
wiara w potęgę nauki, przekonanie, że wszystkie bolączki życia społecznego i indywidualnego można rozwiązać dzięki nauce i technice, których
rozwój umożliwi poprawę warunków życia, rozwój ekonomiczny i racjonalną organizację życia społecznego. Kultura technokratyczna zrodziła się w wieku XVII, ale zaczęła dominować w wieku XIX. Ważnym
dopełnieniem dokonującej się wtedy rewolucji naukowo–technicznej
była „rewolucja informacyjna”, na którą złożyło się wynalezienie fotografii, telegrafu, rotacyjnej maszyny drukarskiej, maszyny do pisania, telefonu czy filmu7.
W wieku XX rola techniki coraz bardziej rosła, a świat zaczął przekształcać się w, jak go nazywa Postman, „technopol”, będący pewnym
stanem kultury, ale również umysłu, polegającym na „deifikacji techniki,
co oznacza, że kultura poszukuje sankcji w technice, znajduje w niej satysfakcje i przyjmuje od niej rozkazy”8. Technopol rodzi nowy porządek
społeczny, preferuje pewne postawy, sposoby myślenia, wartości, zarazem eliminując alternatywne postawy i światopoglądy. Oczywiście, ani
Por. A. Kiepas, Problematyka…, s. 21-22.
N. Postman, Technopol…, s. 52.
5
J. Szacki, Słowo wstępne [w:] F. Bacon, Nowa Atlantyda. Z Wielkiej Odnowy,
tłum. W. Kornatowski, J. Wikarjak, Wydawnictwa Alfa, Warszawa 1995, s. 6.
6
F. Bacon, Nowa Atlantyda…, s. 70.
7
Por. N. Postman, Zabawić się na śmierć, tłum. L. Niedzielski, WWL Muza,
Warszawa 2004.
8
N. Postman, Technopol..., s. 91.
3
4
199
kultura technokratyczna, ani technopol nie były, ani nie są (mam nadzieję) wszechmocne i optymizm technofilów spotykał się z krytyką, początkowo rzadką, później coraz częstszą.
Jednym z pierwszych krytyków dostrzegających już w XVIII wieku
ciemne strony tego procesu był J. Swift, a jego odpowiedzią na Nową
Atlantydę była podróż Gullivera do Laputy. Swift wskazywał na naiwność optymistycznych wyobrażeń Bacona o doskonałym świecie stworzonym przez naukowców. Wprawdzie mieszkańcy Laputy doskonale
radzili sobie z teorią, byli bardzo sprawni w posługiwaniu się linijką,
cyrklem i ołówkiem, ale gdy przychodziło do „zwykłych działań życiowych nie widziałem – opowiada Gulliver – nigdy ludzi bardziej niezdarnych, zagubionych i niezręcznych, ani myślących tak powoli
i w sposób tak zagmatwany o wszystkim, prócz matematyki i muzyki”9.
Odpowiednikiem Baconowskiego Domu Salomona jest u Swifta „Akademia Projektorów”, w której różni naukowcy pracowali nad nowymi
wynalazkami, mającymi udoskonalić technikę, rolnictwo, budownictwo,
język, politykę i sprawić, że dzięki ich genialnym odkryciom życie stanie
się łatwe, proste i wygodne, natura wyjawi wszystkie swoje tajemnice,
a ludzie „staną się jako bogowie”. Dzięki wymyślonym przez nich narzędziom „jeden człowiek zdoła wykonać pracę dziesięciu, a pałac da się
wybudować w tydzień, i to z materiałów tak odpornych, że przetrwają
całą wieczność bez naprawy. Wszystkie płody będą dojrzewały w każdej
porze, którą uznamy za stosowną, a plon z nich zbierzemy stukrotnie
większy niż obecnie”10. Jeden ze spotkanych przez Gullivera naukowców pracował nad wyciągiem promieni słonecznych z ogórków, które
można byłoby przechowywać w specjalnych naczyniach i wypuszczać
zimą dla ogrzania pomieszczeń. Inny przeprowadzał eksperymenty mające pozwolić na zamianę ludzkiego kału z powrotem w żywność, a jeszcze inny „wyprażał proch strzelniczy z lodu”. W kolejnym instytucie
badawczym zastanawiano się nad udoskonaleniem języka. Jeden z naukowców proponował skrócenie rozmów poprzez redukcję wyrazów
wielosylabowych do jednej sylaby, inny z kolei zasugerował „odrzucenie wszystkich w ogóle słów; co zalecano jako wielce korzystne z punktu
widzenia zdrowia i zwięzłości”11. Gulliver odwiedził jeszcze szereg innych instytutów, w których prowadzono najróżniejsze badania. Jedyny
problem związany z nimi polegał na tym, „że żaden z tych projektów nie
osiągnął jeszcze pełnej doskonałości, a w oczekiwaniu, że się tak stanie
J. Swift, Podróże do wielu odległych narodów świata, tłum. M. Słomczyński,
Wydawnictwo Literackie, Kraków 1982, s. 177.
10
Ibidem, s. 192.
11
Ibidem, s. 200.
9
200
cały kraj popadł w nędzę i leży odłogiem, domy popadają w ruinę, a ludziom brak odzienia i żywności”12. Ostatecznie, po bliższym poznaniu
tego świata i kilkumiesięcznym pobycie wśród naukowców pracujących
nad „udoskonaleniem ludzkiej kondycji”, Gulliver nie marzy o niczym
innym, jak tylko o tym, by móc wreszcie znaleźć się wśród zwykłych,
głupich, niedouczonych Anglików.
W wieku XVIII z kolei krytyczną odpowiedzią na optymizm Oświecenia była filozofia J.J. Rousseau, zastanawiającego się nad tym, czy odkrycia i wynalazki są rzeczywistym postępem czy tylko „girlandami
kwiatów”, przykrywającymi coraz cięższe kajdany. W wieku XIX
wprawdzie dominował pozytywistyczny optymizm wspierany przez dokonującą się rewolucję naukowo–techniczną, ale zarazem zaczęły być
dostrzegalne ciemne strony procesu racjonalizacji i technicyzacji życia,
a wiara w eudajmoniczno–eschatologiczną moc nauki i ideologii zaczęła
się nieco chwiać, powoli jęto sobie uświadamiać, że „lepsze bywa wrogiem dobrego”, a „marzenia jednych bywają koszmarami innych”.
To uczucie niepokoju pojawia się np. w twórczości Dostojewskiego13. W 1863 roku Czernyszewski napisał powieść Co robić?, w której w jednym z rozdziałów opisany jest pałac ze szkła i żelaza, symbolizujący doskonałą cywilizację przyszłości, będącą realizacją ideałów
Oświecenia. Odpowiedzią Dostojewskiego były Notatki z podziemia.
Kryształowy Pałac, będący symbolem zrealizowanej naukowej utopii
w „człowieku podziemnym”, zamiast zachwytu budzi przerażenie14. Cywilizacja wcale nie oznacza dlań rzeczywistego postępu, gdyż „wyrabia
w człowieku jedynie wielostronność wrażeń ... i zgoła nic więcej”15. Według Dostojewskiego, idealne społeczeństwo przyszłości jest nie tylko
nierealne z uwagi na to, iż ideolodzy Oświecenia operują prymitywną,
uproszczoną koncepcją natury ludzkiej. Ale jest także niepożądane, gdyż
realizacja takiego doskonale racjonalnego świata, o jakim marzą, oznaczałaby unicestwienie ludzkiej wolności i zamianę człowieka w „sztyft
w maszynie”. Bo przecież, jak zauważa Dostojewski, taka doskonale
12
Ibidem, s. 192.
Por. P. Sloterdijk, Kryształowy Pałac. O filozoficzną teorię globalizacji, tłum.
B. Cymbrowski, Wydawnictwo Krytyki Politycznej, Warszawa 2011, s. 211214; por. także L. Kleszcz, Żelazna klatka racjonalności [w:] Aesthesis i Ratio:
człowiek w przestrzeni kultury i estetyki, red. J. Krasicki, T. Akindynowa,
Z. Pietrzak, Oficyna Wydawnicza Arboretum, Wrocław 2014, s. 33-48
14
F. Dostojewski, Notatki z podziemia, tłum. G. Karski, Wydawnictwo Puls,
Londyn 1992.
15
Ibidem, s. 22-23
13
201
racjonalna istota mogłaby „na trzydzieści lat z góry obliczyć swoje życie”. „Idealne” społeczeństwo przyszłości byłoby możliwe do zrealizowania jedynie za cenę mechanizacji, reifikacji, kastracji człowieczeństwa. Nie tylko nie byłby to świat pożądany, ale wręcz przerażający:
Państwo wierzycie w kryształowy gmach – mówi „człowiek podziemny” –
który będzie stać przez wieczność, czyli taki, któremu nie będzie można nawet ukradkiem pokazać języka albo przez kieszeń wystawić figi. Jeżeli o
mnie chodzi, to ów gmach właśnie dlatego przejmuje mnie lękiem, że jest
kryształowy, że ma trwać całą wieczność i że nie będzie można nawet ukradkiem pokazać mu języka16.
W wieku XIX wątpliwości mieli nieliczni, dopiero w wieku XX
w szerszej skali pojawiło się, spotęgowane przez dwie wojny światowe
zjawisko „kryzysu przyszłości”. Jednym z przejawów tego przekonania
był „wysyp antyutopii”, które tworzyli m. in. G. H. Wells, E. Zamiatin,
A. Huxley, G. Orwell, R. Bradbury, A. Burgess, U. Le Guinn, czy
K. Vonnegut17. Czytelnicy antyutopii przez wiele lat dzielili się na zwolenników Huxleya lub Orwella. Obecnie wydaje się, że w tej rywalizacji
zwyciężył Huxley, a jego wizja „nowego wspaniałego świata” wciąż nabiera aktualności, natomiast Orwellowska wizja totalitarnego społeczeństwa, po upadku komunizmu nieco zbladła. Choć niektórzy uważają, że
majaczy przed nami na horyzoncie przerażający świat będący połączeniem „nowego wspaniałego świata” z Orwellowską Oceanią.
W „nowym wspaniałym świecie” wyeliminowano wojny, choroby,
niedostatek, cierpienie, objawy starości. Stworzono społeczeństwo doskonale stabilne. Warunkiem owej stabilności jest pełna kontrola, którą
osiągnięto dzięki standaryzacji i zastosowaniu zasad racjonalnej produkcji do ludzi. Cała populacja jest stale kontrolowana, wciąż gromadzone
są informacje dotyczące ilości ludzi, potrzeb demograficznych i przemysłowych. Stosownie do potrzeb rynku produkuje się ludzi posiadających
pożądane cechy osobowościowe i intelektualne. Jest to możliwe dzięki
temu, że już ludzkie zarodki poddaje się procesowi „wybutlania”, czyli
warunkowania, otrzymując w efekcie odpowiednią liczbę alf, bet oraz
„zbokanizowanych”, czyli zwielokrotnionych gamm, delt i epsilonów.
16
Ibidem, s. 32.
Nieco szerzej problem antyutopii przedstawiam w artykule Od utopii do
antyutopii [w:] Rzecz piękna, mądra, dobra i wszystko, co takie..., red.
J. Zieliński, S. Barć, A. Lorczyk, Oficyna Wydawnicza Arboretum, Wrocław
2014, s. 137-150.
17
202
W tym świecie wszyscy (a dokładniej prawie wszyscy) są szczęśliwi,
gdyż zawsze
otrzymują wszystko, czego zapragną, a nigdy nie pragną czegoś, czego nie
mogą otrzymać. Są zamożni, bezpieczni, zawsze zdrowi; nie boją się
śmierci; żyją w stanie błogiej niewiedzy o namiętnościach i starości, nie
prześladują ich matki i ojcowie; nie mają żon, dzieci, kochanków ani kochanek budzących silne uczucia, są tak uwarunkowani, że praktycznie nie są w
stanie postępować inaczej niż powinni. A jak coś nie gra pozostaje soma… 18.
Soma jest narkotykiem posiadającym „wszystkie zalety chrześcijaństwa i alkoholu i żadnej z ich wad”. Życie w „nowym wspaniałym świecie” jest proste: „7,5 godziny lekkiej, niewyczerpującej pracy, potem racja somy, seks bez ograniczeń i czuciofilmy”. Oczywiście, można by
skrócić czas pracy, nawet próbowano to zrobić, ale wtedy bardzo wzrosło spożycie somy, bo ludzie nie wiedzieli, jak zagospodarować ten nadmiar wolnego czasu. Dążąc do szczęścia, zlikwidowano sztukę, wykastrowano naukę, sprowadzając ją tylko do technologii, wyeliminowano
także religię, bo Boga zbyt trudno było pogodzić z maszynami, naukową
medycyną i powszechnym szczęściem. Wyeliminowano potencjalne
źródła wielkich namiętności, bo cywilizacja przemysłowa nie potrzebuje
szlachetności czy heroizmu. „Cywilizacja przemysłowa jest możliwa
tylko przy braku poświęcenia. Dlatego należy używać aż do granic wyznaczonych higieną i ekonomią. W przeciwnym razie turbiny staną”19.
W wieku XX wątpliwości, co do kierunku, w jakim zmierza ludzka
cywilizacji oraz głębszy namysł nad istotą i funkcją techniki, stały się
przedmiotem rozważań nie tylko literatów, ale również filozofów, socjologów czy antropologów. Bardzo ważne znaczenie dla rozwoju krytycznego namysłu miały diagnozy Maxa Webera. Zastanawiając się na specyfiką kultury zachodniej, doszedł on do wniosku, że jest nią racjonalizm, którego istotę stanowi podejście instrumentalno–kalkulacyjne.
Tylko na Zachodzie powstała racjonalna nauka, racjonalne prawo, racjonalne państwo, a przede wszystkim racjonalny kapitalizm. W szczególny
sposób splatając się, stworzyły cywilizację, która zdominowała cały
świat. Ale racjonalizacja, po pierwsze, jest procesem ambiwalentnym.
Z jednej strony oznacza ona „odczarowywanie świata”, zwiększenie
18
A. Huxley, Nowy wspaniały świat, tłum. B. Baran, Wydawnictwo Literackie,
Kraków 1988, s. 229.
19
Ibidem, s. 246.
203
możliwości jego podporządkowania, ale zarazem „odczarowywanie” rodzi poczucie braku jakiegoś „kosmicznego ładu” i przypadkowości ludzkiej egzystencji.
Po wtóre,być może najistotniejsze z dzisiejszego punktu widzenia jest
twierdzenie Webera, że proces racjonalizacji wymknął się spod kontroli.
Ludzkość już nie może tym procesem dowolnie sterować, a świat zracjonalizowany coraz bardziej zaczyna przypominać, jak pisał Weber, „żelazną klatkę”, która się za nami zatrzasnęła20.
Weber nie był jedynym krytykiem cywilizacji zachodniej. W podobnym duchu o „tragedii kultury” pisał Simmel. Spengler wskazywał na
nieunikniony zmierzch kultury opanowanej przez ducha faustycznego.
Ortega mówił o związanej z rozwojem naukowym i technologicznym
konieczności „barbarzyństwa specjalizacji”. Bierdiajew obawiał się spowodowanej przez technologiczny humanizm desakralizacji kultury,
Adorno i Horkheimer mówili o dialektyce Oświecenia, która sprawia, że
procesy racjonalizacji i autonomizacji przekształcają się w swoje przeciwieństwo, Heidegger o rządach „ze–stawu”, a Gehlen o dezintegracji
i deinstytucjonalizacji kultury. Prace wymienionych i wielu innych myślicieli sprawiły, że zmienił się charakter refleksji nad miejscem i rolą
techniki w świecie współczesnym, nabrała ona bardziej poważnego
i głębszego charakteru. Wyraźniej dostrzegalna stała się problematyczność rozwoju technologicznego.
Wprawdzie, jak zauważa D. Birnbacher, świat ludzki „zawsze był odmienny od świata przyrody, ale nigdy jeszcze różnice te nie były tak wyraziste i jawnie widoczne”21. Przedmioty wytworzone przez współczesną
technikę charakteryzuje „spotęgowana techniczność”, tzn. zostały one
wielokrotnie przekształcone, przez co stały się odległe od bezpośredniego związku z przyrodą22.
O ile jeszcze np. wiatraki czy lokomotywy posiadały jakieś dostrzegalne związki czy analogie ze światem przyrody, o tyle współczesne
technologie stały się coraz trudniej zrozumiałe, abstrakcyjne, odmienne
od świata natury. Obcość świata stechnicyzowanego potęgują także jego
wymiary. Współczesna technika, zarówno „w wielkiej i małej skali (…)
M. Weber, Nauka jako zawód i powołanie, (w:) tegoż, Polityka jako zawód
i powołanie, tłum. A. Kopacki, P. Dybel, Znak, Kraków-Warszawa 1998, s. 140.
21
D. Birnbacher, Technika, [w:] Filozofia. Podstawowe pytania, red. E. Martens, H. Schnädelbach, tłum. K. Krzemieniowa, Wiedza Powszechna, Warszawa
1995, s. 649.
22
Ibidem, s. 650.
20
204
przekracza miarę znaną ludziom i nabiera przez to cech niesamowitości”23. Kolejną cechą współczesnej techniki jest globalizacja, co z jednej
strony potęguje „dobrodziejstwa, które niesie”, ale z drugiej również ryzyko i skalę ewentualnych katastrof24. Inną konsekwencją globalizacji
jest homogenizacja, uniwersalizacja i likwidacja odrębnych tradycji i
kultur. Homogenizacja dotyczy nie tylko świata zewnętrznego, ale także
ludzi i ich zachowań, gdyż „Jednolita technika wymaga również ujednolicenia kwalifikacji zawodowych, programów kształcenia i stylów życia”25. Racjonalność techniczna narzuca sposób myślenia nakierowany
na obiektywność, empiryczną kontrolę i efektywność.
Rosnąca ekspansywność współczesnej techniki wymaga innego spojrzenia. Interesującą koncepcję, będącą kumulacją różnych krytycznych
wobec techniki wątków, przedstawił J. Ellul. Badając rolę techniki w
społeczeństwie współczesnym, stworzył teorię pozwalającą lepiej zrozumieć siły skrywające się za rozwojem cywilizacji technicznej26. Punktem
wyjścia jego filozofii było odejście od wąskiego ujęcia techniki jako narzędzia na rzecz podejścia szerokiego, traktującego technikę jako sposób
tworzenia, przekształcania i przekazywania informacji. Technika jest
dlań „sposobem działania”, ogółem odznaczających się efektywnością
środków i metod, racjonalnie stosowanych do osiągnięcia zamierzonych
celów. Powstaje ona jako rezultat poszukiwania w każdej dziedzinie optymalnego środka. Tym, co konstytuuje istotę techniki współczesnej, jest
jej „zorientowanie na efektywność i bezwzględną skuteczność”27. Tak
pojmowana technika jest obecna we wszystkich obszarach ludzkiego życia, a zmiany związane z jej rozwojem sprawiły, że zyskała ona „nowy
status ontologiczny”.
Stała się bytem obiektywnym, niezależnym od człowieka i rozwijającym się
według własnych, immanentnie przysługujących jej praw. Podporządkowała
sobie wszystkie sfery życia, zarówno indywidualnego, jak i społecznego,
kreując nowy typ społeczeństwa – społeczeństwo techniczne. Jej przekazywanie nie napotykając żadnych ograniczeń prowadzi do uformowania się
powszechnej jedności cywilizacyjnej28.
23
Ibidem, s. 651.
Ibidem.
25
Ibidem, s. 652.
26
R. Merton, Foreword, [w:] J. Ellul, The Technological Society, Vintage
Books, New York 1964, s. VI.
27
Por. J. Falborska, Determinizm techniczny Jaquesa Ellula, [w:] Filozofowie o
technice, op. cit., s. 169.
28
Ibidem.
24
205
Technika nie jest wyizolowanym zjawiskiem społecznym, ale odnosi
się do wszelkich aspektów życia człowieka współczesnego29. Według
Ellula, mamy obecnie do czynienia nie tyle z techniką jako zbiorem narzędzi, co raczej z pewną spójną całością, z autonomicznym „systemem
technicznym”, który coraz bardziej uniezależnia się od człowieka.
Uważa on, że indywidualne decyzje są zawsze dokonywane w ramach
pewnej rzeczywistości społecznej, która je poprzedza i warunkuje. Człowiek prymitywny był ograniczony przez różnego rodzaju zakazy, tabu
czy rytuały. Człowiek współczesny w dużej mierze uwolnił się od takich
ograniczeń, ale złudzeniem, według Ellula, jest sądzić, że staliśmy się
wolni30. W świecie współczesnym zjawisko „technologizacji” życia jest
najgroźniejszą formą zagrożenia ludzkiej wolności. Technika ma charakter ekspansywny, wkracza do wszelkich obszarów życia, nie jest już
czymś, w stosunku do czego człowiek mógłby zachować dystans, lecz
jest z nim zintegrowana, stopniowo przenikająca w kolejne sfery ludzkiego życia31. Technika nie tylko stopniowo ogranicza ludzką wolność,
ale, co gorsza, ludzka wolność jest dla niej zagrożeniem, gdyż racjonalność technologiczna wymaga przewidywalności32. Technika narzuca alternatywę typu „wszystko albo nic”. Jeżeli decydujemy się na użycie
techniki, to musimy zaakceptować specyfikę i autonomię jej celów oraz
totalność jej zasad. Nasze własne pragnienia i aspiracje niczego nie mogą
zmienić33. Według Ellula, jak zauważa J. Falborska, ważnym „czynnikiem ukształtowania się i rozwoju technicznego była... eksplozja informatyczna, która umożliwiła „pojawienie się zespołu zapośredniczeń,
konstytuujących technikę w system”. Technika nie jest jedynie systemem „jest również środowiskiem, które tworząc wokół człowieka
szczelny pancerz bez reszty go determinuje”. Jednak jest to inny rodzaj
determinacji niż w wypadku środowiska naturalnego, ma ono znacznie
bardziej radykalny charakter, gdyż „technika wkracza bezpośrednio
w życie człowieka żądając przystosowania się”, stając się „najważniejszą
siłą dominującą w świecie, a nie tylko jednym z wielu równorzędnych
czynników”34.
29
J. Ellul, Note to the Reader, [w:] J. Ellul, The Technological Society, op. cit.,
s. XXV.
30
J. Ellul, Authors Foreword to the Revised American Edition, [w:] J. Ellul, op.
cit., s. XXIX.
31
Ibidem, s. 6.
32
Ibidem, s. 138
33
Ibidem, s. 141.
34
J. Falborska, Determinizm…, s. 171-172.
206
Instrumentalny charakter techniki przenika wszystkie sfery życia,
stając się sposobem myślenia, działania, wartościowania, a „doskonałość
środków i metod staje się dominującym celem i wartością”35. Istotą myślenia technicznego jest dążenie do efektywności, która jest połączeniem
racjonalności i sztuczności. „Racjonalność sprowadza się do eliminacji
wszystkiego, co żywiołowe, spontaniczne na rzecz tego, co wykalkulowane, mechaniczne i zrutynizowane. Upowszechnienie się tego typu racjonalności w sferze procesów technicznych nie pozostaje bez wpływu
na kształtowanie się adekwatnych do niego form aktywności ludzkiej
i modyfikacji samej osobowości człowieka”36. Zasadniczym celem wychowania czy, szerzej, kultury staje się przystosowanie. W świecie stechnologizowanym człowiek zostaje odpodmiotowiony, ponieważ technika
rozwija się w sposób automatyczny, bez udziału człowieka, a dokładniej,
to człowiek staje się jej narzędziem. „Nie mogąc już wybierać ani środków, którymi chce się posługiwać ani celów do których chce zmierzać,
gdyż technika (…) decyduje za niego”37. Dominacja techniki i technologicznego myślenia prowadzi do kryzysu demokracji i stwarza „sprzyjające warunki do kształtowania się społeczeństwa totalitarnego”, choć jest
to nowy totalitaryzm, który „manifestuje się w odmiennych formach zdeterminowanych przez wpływ techniki. Najważniejsza różnica między
„klasycznym totalitaryzmem” a „nowym” polega na tym, że nie stosuje
on bezpośredniego terroru czy przemocy fizycznej”38. Bardziej efektywne niż zwykła przemoc, są „niewidzialne technologie”, kształtujące
sposoby myślenia, systemy wartości, język i będące ich konsekwencją
sposoby zachowań.
Krytycyzm, obawy co do kierunku, w jakim zmierza świat zdominowany przez nowe technologie, obecnie, nasilają się. Próbując jakoś króciutko podsumować te bardzo różne, krytyczne wątki, wydaje mi się, że
można zakreślić kilka kręgów.
Krąg 1 to konsumpcjonizm. Nowe technologie potrzebują przede
wszystkim konsumentów. Efektem tej potrzeby jest stale dokonująca się
infantylizacja kultury, której sedno tworzy preferowanie tego, co łatwe,
nad tym, co trudne, prostego nad złożonym czy szybkiego nad powolnym39.
35
Ibidem, s. 173.
Ibidem, s. 174.
37
Ibidem, s. 182.
38
Ibidem, s. 185.
39
B. Barber, Skonsumowani. Jak rynek psuje dzieci, infantylizuje dorosłych
i połyka obywateli, tłum. H. Jankowska, WWL Muza, Warszawa 2008, s. 132.
36
207
Krąg 2 tworzy dobrowolne zniewolenie, a więc uleganie modom, presji rynku, uzależnienie się od technologii, która, jak twierdzą ideolodzy,
a my w to wierzymy, służy naszemu dobru, a dokładniej wygodzie.
Krąg 3 również związany jest z problemem zniewolenia, niemającym
już jednak tak dobrowolnego charakteru. Rynek, siły ekonomiczne,
nowe technologie stanowią ważną siłę kształtującą nasze zachowania.
O konsumentach nieustannie zbierane są informacje, które są wykorzystywane do manipulowania nastrojami, preferencjami, zachowaniami.
Wielkość gromadzonych informacji, ich skala stale rośnie. Nie są to
tylko cookies pojawiające się nieustannie w internecie, ale również kamery, satelity wciąż nas fotografujące, urządzenia umożliwiające obserwację, podsłuch, inwigilację, manipulację. Wszystkie te aktualne i potencjalne źródła wiedzy stanowią potężne narzędzie władzy, która już
obecnie jest wykorzystywana przez różne firmy PR–owe czy polityków.
Na razie, jak się wydaje, występuje ona w rozproszonej formie, ale jeżeli
ktoś spróbuje ją scalić, to może stać się narzędziem władzy totalnej. Jest
to motyw, który powtarza się np. u Postmana, Barbera czy Fukuyamy,
sugerujących, że być może zmierzamy w stronę świata będącego połączeniem wizji Huxleya z Orwellem. Zwłaszcza, że to, co „najciekawsze”, a więc powszechne zastosowanie nanotechnologii, chipowanie,
manipulacje genetyczne, jest dopiero przed nami. Z problem ograniczenia wolności, postrzeganym z nieco innej strony, związana jest też coraz
większa trudność nieuczestniczenia w tym „nowym wspaniałym świecie”, gdyż nie ma już żadnych „Dzikich Pól” czy jakiegoś „Dzikiego Zachodu”, gdzie można by żyć „poza komórką i internetem”.
Krąg 4 – kolejny krąg związany jest z problemem odpodmiotowienia
człowieka. Człowiek przestaje być, a może od dawna już nie jest, autonomicznym podmiotem tego procesu. Wydaje się, że naszym udziałem
zaczyna być przypadek „ucznia czarnoksiężnika”. Technika i leżąca u jej
podstaw racjonalność instrumentalna coraz częściej wymusza na człowieku pewne zachowania, reakcje, eliminując inne typy racjonalności.
Krąg 5. U podstaw racjonalności instrumentalnej leży światopogląd
naturalistyczny. Optymizm technologiczny przesłania tragizm istnienia
związany z tym światopoglądem, a przecież w tej wizji Ziemia jest tylko
przypadkowym strzępem materii wędrującym znikąd donikąd, ludzkość
to tylko „mądre zwierzęta”, które na chwilę pojawiły się na tym strzępie,
a sam człowiek jest tylko narzędziem „egoistycznego genu”, żywiącym
się złudzeniami o wolności, autonomii, podmiotowości. A przecież bez
owej świadomości „tragizmu istnienia”, przerażenia „wiekuistą ciszą
nieskończonych przestrzeni” niemożliwe staje się owo przebudzenie,
o którym mówili Pascal, Kierkegaard czy Nietzsche.
208
Z tym niebezpieczeństwem trwania w „drzemce egzystencjalnej”
związany jest kolejny 6 krąg – krąg metafizyczny. Dominacja naturalizmu traktowanego jako Prawda, niekwestionowalna oczywistość, przesłania inne sposoby myślenia, już u swoich podstaw uniemożliwiając
pewne pytania, odrzucając je jako „bezsensowne”. A więc jest to ten problem, na który zwracał uwagę Heidegger w kontekście rządów zestawu
i „końca filozofii”.
Na koniec oczywiście klasyczne pytanie: co robić? Najgorsze jest to,
że nikt nie potrafi udzielić przekonującej i porywającej odpowiedzi na to
pytanie. Większość – od Webera, poprzez Simmla, Spenglera, aż po Ellula i Postmana – proponuje jakąś odmianę „heroizmu tragicznego”,
„rady dla pojedynczego”. Istotą tego heroizmu byłoby nie dać się uwieść
technopolowi, zachować wewnętrzny dystans, krytycyzm, w skrajnym
wypadku heroicznie trwać na posterunku, jak ów strażnik z Pompejów,
którego przywołuje Spengler. Heidegger chciał chronić inne myślenie,
Jaspers postulował tropienie „szyfrów Transcendencji”, Ricoeur mówił
o ożywieniu myślenia symbolicznego.
Ale czy jest to rzeczywiste rozwiązanie? Czy paru dziwaków powtarzających wciąż: nie wiem skąd, dokąd ani po co (i dlatego pytam), może
zmienić bieg dziejów? Niestety, ostateczna konkluzja nie wydaje mi się
zbyt optymistyczna, być może rację miał Heidegger mówiąc o tym, że
„tylko Bóg mógłby nas uratować”?
Jacek Sobota
Uniwersytet Warmińsko-Mazurski
w Olsztynie
POSTĘP TECHNOLOGICZNY GENERATOREM REGRESU MORALNEGO? PARADOKSALNE OBLICZA
POSTĘPU W LITERATURZE SCIENCE FICTION
1. Uwagi wstępne
Literatura science fiction, nazywana w naszym kraju „fantastyką naukową”, uchodzi za rodzaj „narracji translacyjnej”, w dość wąskim
rozumieniu tego określenia. Przypisuje się mianowicie fantastyce rolę
tłumacza i propagatora zmian zachodzących w galopującym tempie
w rzeczywistości nas otaczającej. Tak było w istocie, ale w przeszłości,
w okresie tzw. Złotego Wieku literatury fantastycznej – w latach 50.
ubiegłego wieku. Linearny postęp technologiczny szedł w tamtych
kreacjach literackich w parze z doskonalącą się moralnie ludzkością.
Literatura science fiction jednak ewoluowała (wraz z empiryczną
obserwacją rzeczywistości); świat ludzki niekoniecznie zmieniał się na
lepsze, a doskonalące się środki techniczne oznaczały „postęp w regresie”, czyli w ramach samozniszczenia, autodegradacji naszego gatunku.
Takoż pisarze, szczególnie ci obdarzeni darem wnikliwej obserwacji
rzeczywistości nas otaczającej, jak Stanisław Lem czy Philip K. Dick,
jęli rozsnuwać wizje przyszłości niezbyt optymistyczne, a wręcz tchnące pesymizmem, czarnowidztwem, niewiarą w proporcjonalność postępu technologicznego i moralnego ludzkości. Tak oto gatunek literacki
arbitralnie wyznaczony do roli piewcy przyszłości, stał się nieoczekiwanie owej przyszłości surowym krytykiem.
2. Krótko o postępie
Termin „postęp” bywa uznawany za synonim rozwoju, ewolucji,
rozrostu. Jak słusznie konstatuje Marian Mroziewski, termin ten nabiera sensu dopiero w powiązaniu z konkretnymi treściami, ponieważ
„postęp w ogóle nie istnieje”1.
1
M. Mroziewski, Postęp społeczny jako wartość ideologiczna, w: Z zagadnień
współczesnej aksjologii, red. S. Opary i E. Starzyńskiej-Kościuszko, Wyższa
Szkoła Pedagogiczna, Olsztyn 1996, s. 169.
210
Koncepcja postępu społecznego, w opinii Jerzego Szackiego2, sięga
swymi korzeniami dość płytko – bowiem jej początki odnotować można w okresie Oświecenia, w światopoglądzie Anne Roberta Jacquesa
Turgota i Jeanna Antoine’a Nicolasa de Condorceta3). Pierwszy wyłożył swe poglądy w dziele Discours sur l’histoire universelle (1750);
drugi – w Szkicu obrazu postępu ducha ludzkiego poprzez dzieje
(1794).
W teorii postępu stworzonej przez Turgota i Condorceta znalazły
wyraz nowe wówczas postawy wobec faktu zmienności świata społecznego, która długo uchodziła za niepożądaną lub pożądaną jedynie
o tyle, o ile prowadziła do osiągnięcia stanu doskonałości będącego ex
definitione stanem stabilności (wszak wszelka zmiana stanu doskonałości może być tylko zmianą na gorsze, co wiemy już od czasów Platona). W teorii postępu nie ma po tym przekonaniu śladu. Turgot uznawał
stopień mobilności społeczeństwa za jedną z jego cech konstytutywnych (istotniejszą nawet niż rodzaj ustroju politycznego), a także twierdził, iż mobilność jest zawsze czymś pożądanym, ponieważ przynosi
nowe doświadczenia, a tym samym szansę pomnażania wiedzy. Błąd
popełniony w trakcie szukania nowych rozwiązań stanowi mniejsze
niebezpieczeństwo aniżeli bezmyślna imitacja prawdy odkrytej w przeszłości. Dzieje, z tego punktu widzenia, okazują się swoistą areną walki
nowatorstwa z rutyną, składnikiem natury ludzkiej ma być natomiast
coś na kształt „popędu innowacyjnego”, który nigdy nie pozwala istotom ludzkim zadowolić się tym, co zostało już osiągnięte4.
Condorcet z kolei pisał w swym najistotniejszym dziele:
Zdobywając wiedzę o tym, jaki był człowiek niegdyś i jaki jest dzisiaj, potrafimy przyspieszyć i zapewnić dalszy postęp, jaki zapewnia mu jeszcze
jego natura. Taki jest sens niniejszej rozprawy. Wykaże ona na podstawie
rozumowania i faktów, że nie zakreślono żadnej granicy rozwojowi ludzkich uzdolnień, że człowiek posiada nieograniczone możliwości doskonalenia się, że jego postęp niezależny jest od wszelkich potęg, które chciałyPor. J. Szacki, Historia myśli socjologicznej, PWN, Warszawa 2003,
s. 98–101.
3
Przy czym wspomnieć należy, że piewca postępu – wedle dzisiejszej miary –
technologicznego pojawił się wcześniej, a był nim oczywiście Franciszek
Bacon, a jeszcze przed nim, bo w okresie średniowiecza, jego imiennik Roger
Bacon.
4
Ujęcie to znakomicie koresponduje z ustaleniami pisarzy parających się literaturą fantastycznonaukową – szczególnie z paradygmatyczną nieomal postacią „szalonego naukowca”, który kreując wynalazki, nie bardzo liczy się z ich
śmiercionośnymi aspektami.
2
211
by go zahamować, że jedynym jego kresem jest kres trwania globu, na który rzuciła nas natura5.
Rzecz jasna, postęp bywa kategorią krytykowaną, arbitralność niektórych jego ujęć (np. marksistowskie traktowanie postępu społecznego) budzi sprzeciw, wskazuje się na liczne paradoksy związane z kategorią postępu – np. Daniel Bell w Kulturowych sprzecznościach kapitalizmu zadaje następujące pytania:
Jak uzasadnić jakość greckiej sztuki i myśli w porównaniu z dzisiejszą,
trwałość greckiej poezji oraz aktualność formułowanych wówczas pytań filozoficznych? Marksowskie powiedzenie, że myśl ta reprezentuje wczesne
dzieciństwo gatunku, które staramy się odtworzyć na wyższym poziomie,
budzi liczne wątpliwości. (…) Antygona nie jest dzieckiem, a jej rozpacz
nad zwłokami brata, to nie emocja dzieciństwa gatunku. Podobnie współczesna opowieść Nadieżdy Mandelsztam o poszukiwaniach ciała jej męża,
by sprawić mu należyty pochówek, nie jest „wzniesieniem się na wyższy
poziom”6.
Osobną kategorię stanowi postęp moralny. Witold Tulibacki rozróżnia kategorie postępu moralnego i postępu etycznego. Postęp etyczny dotyczyć ma samowiedzy etyki i jest postępem z obrębu epistemologicznego i, jako taki, może być rozpoznawany w kategoriach metaetycznych. Tymczasem postęp moralny, bardziej mnie tu zajmujący,
dotyczy, jak to ujmuje Tulibacki, „pierwszej warstwy” rzeczywistości
dobra i zła, związany jest z urealnieniem ontycznej strony dobra i objawia się w sferze aksjologiczno-normatywnej w obrębie świadomości
moralnej, a w praktyce – w czynach i postawach7.
Dość często można się spotkać z rozróżnieniem postępu moralnego
i technologicznego; zakłada się, że obie te kategorie są jak gdyby odwrotnie proporcjonalne czy też wręcz sprzeczne. Karl Mannheim stawia tezę, jakoby rozwój nowoczesnych technologii wyprzedzał nie5
A. N. Condorcet, Szkic obrazu postępu ducha ludzkiego poprzez dzieje, przeł.
E. Hartleb, J. Strzelecki, PWN, Warszawa 1957, s. 5.
6
D. Bell, Kulturowe sprzeczności kapitalizmu, przeł. S. Amsterdamski, PWN,
Warszawa 1994, s. 200 – 201. Choć może ujęcie Bella nie do końca jest trafne,
przynajmniej nie w zakresie ustaleń estetycznych. Przywołajmy pogląd Władysława Tatarkiewicza: „Artyści są różni, sztuki mają rozmaite formy, style.
Zmieniają się i to nawet często. Są w nich zmiany, ale nie ma postępu”.
W. Tatarkiewicz, Droga przez estetykę, PWN, Warszawa 1972, s. 222.
7
Por. W. Tulibacki, O kruchości idei postępu moralnego, „Humanistyka
i Przyrodoznawstwo”, 2005, nr 11, s. 12.
212
zmiernie rozwój sił moralnych człowieka oraz poziom rozumienia
przez niego istoty porządku społecznego i społecznej kontroli. Nazywa
to zjawisko „nieproporcjonalnym rozwojem dyspozycji ludzkich”8.
Mimo ponad półwiecznego dystansu, przestrogi Mannheima wydają się
nad wyraz aktualne. Lem porównywał postęp technologiczny do rozpędzonego auta z wyrwaną kierownicą, zatrzaśniętymi drzwiami i nieczynnymi hamulcami. Pasażerem metaforycznego pojazdu miała być
oczywiście ludzkość.
3. Postęp (i regres) w światach fantastyki
Postęp w literaturze science fiction jest tematem starym (mniej więcej tak starym jak sam gatunek literacki) i niemal „od zawsze” nacechowanym ambiwalencją. Uznawany przez niektórych teoretyków literatury za pierwszą powieść fantastycznonaukową w historii, słynny
Frankenstein (1818) Mary Shelley, opowiada o prometejskiej idei postępu, ale zarazem przestrzega: istnieją bariery dla myśli ludzkiej nieprzekraczalne. Przekroczenie owych barier (w tym akurat wypadku
chodzi o tajemnicę ludzkiego życia) oznacza poniesienie konsekwencji
dramatycznych i krwawych. Podobne akcenty i przestrogi występują
w twórczości klasyka i twórcy fantastycznych paradygmatów, Herberta
George’a Wellsa. W jego Niewidzialnym człowieku (1897) rozważane
są dylematy odpowiedzialności za fatalne skutki wynalazku niewidzialności – wnioski są pesymistyczne9, ponieważ genialne technologie
służyć mogą celom banalnym i moralnie wątpliwym. Inne utwory
Wellsa – Wyspa doktora Moreau (1896) czy słynny Wehikuł czasu
(1895) – dają wizję upadku gatunku homo sapiens. Pierwszy traktuje
o naturze ludzkiej, której nie sposób ulepszyć przy zastosowaniu wymyślnych technologii (zmiany będą miały raczej charakter regresywny); Wehikuł czasu zaś jest potężną wizję historiozoficzną – Wells kreśli tu panoramę upadku ludzkiego gatunku, jego rozwarstwienia i ostatecznej degeneracji.
Jak była tu już wcześniej mowa, fantastyka optymistyczna, pozytywistyczna z ducha (za jej „ojca-założyciela” wypada chyba uznać francuskiego pisarza Julesa Verne’a), relacjonująca ludzkie eksploracje
rzeczywistości na różnych, niezwykle szerokich polach, występowała
K. Mannheim, Człowiek i społeczeństwo w dobie przebudowy, przeł. A. Raźniewski, PWN, Warszawa 1974, s. 61.
9
Co ciekawe, w przypadku Wellsa mamy do czynienia z istnym rozdwojeniem
osobowości, bowiem Wells-eseista jest optymistą oraz piewcą idei technologicznych i antropologicznych postępów, natomiast Wells-artysta to pesymista
i prorok zagłady.
8
213
powszechnie w fantastyce po II wojnie światowej. Z pewnością kluczowy jest tu moment historyczny – trauma powojenna spowodowała
w eksploratorach przyszłości łaknienie pozytywnych prognoz. W fantastyce amerykańskiej tego okresu ludzkość przypomina (wyidealizowanych oczywiście) kolonizatorów Dzikiego Zachodu, którzy zdobywają
nowe rubieże, tyle że tym razem kosmiczne. Z kolei w literaturze fantastycznej krajów tzw. demokracji ludowej pojawiają się akcenty utopijne, mocno nacechowane ideologicznie. Pisarze tacy jak Iwan Jefremow, Sergiej Sniegow, Czesław Chruszczewski czy Bohdan Petecki
kreślą wizje idealnych społeczeństw komunistycznych – jedynie słuszna ideologia, dzięki technologii, rozszerza obszary swych oddziaływań
na całe galaktyki; obce rasy napotykane podczas kosmicznych podróży
również przyjmują postępową ideologię.
Ów bezkrytyczny optymizm nie trwa jednak długo – w polskiej i rosyjskiej literaturze pojawiają się kontestatorzy, którzy dostrzegają systemowe uchyby i braki – z powodów cenzuralnych ubierają swe dystopijne przestrogi w kostium fantastyki (należy w tym kontekście wymienić Stanisława Lema, braci Strugackich, Janusza Zajdla i wielu innych).
W naukowej fantastyce Zachodu natomiast pojawił się specjalny
nurt opisujący degradujący wpływ postępu technologicznego na moralność – nazwano go znamiennie dark future. Charakteryzuje się on swoistą eminencją cech niekorzystnych a współcześnie obserwowanych –
wręcz ku skalom nieskończonym. Autorzy tego nurtu miewali bardzo
przytomne przeczucia – pisali o ekologicznej degradacji, postępującym,
na skutek automatyzacji procesów produkcji, bezrobociu10, przeludnie-
Sugestywnie opisuje tendencje Jeremy Rifkin: „Implikacje [automatyzacji
produkcji – J. S.] są głębokie i dalekosiężne. Zacznijmy od tego, że ponad 75%
siły roboczej w większości krajów uprzemysłowionych wykonuje pracę złożoną z kilku prostych, powtarzalnych zadań. Automaty, roboty i coraz bardziej
zaawansowane komputery mogą wykonać wiele, a nawet chyba większość
takich zadań. W samych tylko Stanach Zjednoczonych oznacza to, że najbliższych latach ponad 90 milionów osób spośród ogółu 124 milionów czynnych
zawodowo mogą zastąpić maszyny. Aktualne badania wykazują, że mniej niż
5% firm na świecie zaczęło jakieś przygotowania do nowej ››kultury‹‹ maszyn,
więc w następnych dziesięcioleciach należy oczekiwać masowego bezrobocia,
jakiego nigdy dotąd nie było. Mówiąc o znaczeniu zachodzących zmian,
Wassily Leontief, wybitny ekonomista i laureat Nagrody Nobla, ostrzega, że
wprowadzanie coraz bardziej nowoczesnych komputerów umniejszy rolę
człowieka jako najważniejszego czynnika produkcji w taki sam sposób, jak
wprowadzenie traktorów do rolnictwa najpierw zmniejszyło rolę koni, a potem
całkowicie je wyeliminowało”. J. Rifkin, Koniec pracy. Schyłek siły roboczej
10
214
niu; wszystko te zjawiska nie mogły oczywiście nie mieć wpływu
(zwykle degradującego) na systemy wartości w przewidywalnej przyszłości. Za prekursora owego „mrocznego” nurtu należy uznać Anthony
Burgessa, autora powieści Mechaniczna pomarańcza z roku 1969. Opisywane są tam grupy całkowicie amoralnych wyrostków grasujących
po ulicach miast; toczących ze sobą regularne bitwy, zastraszających
mieszkańców. Uderzający jest obraz społeczności świata przyszłości –
zupełna anomia, rozpad systemów wartości, brak moralnych drogowskazów. Jest to zarazem krytyka Systemu, radzącego sobie z zastaną
(stworzoną?) sytuacją w jedyny znany mu sposób – poprzez regularną
przemoc; pranie mózgów. Przejmująca jest scena „resocjalizacji” jednego z członków gangu, znana również z kultowej ekranizacji książki
dokonanej przez Stanleya Kubricka. Aplikuje się młodemu człowiekowi przez wiele godzin obrazy przemocy, aż do przesytu, aż do mdłości.
W rezultacie „produkuje się” człowieka biernego i słabego, który po
powrocie do swego naturalnego środowiska natychmiast staje się ofiarą
byłych kolegów. Diagnoza społeczna Burgessa jest skrajnie pesymistyczna – przemocy nie da się zwalczyć przemocą – w takim bowiem
wypadku nie dochodzi bynajmniej do wygaszenia, lecz wręcz wzmożenia nakładających się na siebie źródeł agresji.
Dalsze konsekwencje owej zupełnej anomii moralnej wydają się,
niestety, oczywiste. Technologia – bez etycznych „zabezpieczeń” –
może być źródłem ostatecznej zagłady. W fantastyce motywy apokaliptyczne pojawiają się stosunkowo często. W powieściach: N. Shute’a
(Ostatni brzeg), W. Millera Jr (Kantyczka dla Leibowitza) czy polskich
autorów J. Dobraczyńskiego (Wyczerpać morze) i M. Baranieckiego
(Głowa Kasandry) kreślone są ponure i tchnące grozą pejzaże zniszczonych energią atomową miast i usiłujących w nich przetrwać za
wszelką cenę, również wysoką cenę moralnych kontrybucji, ludzi.
Co w takim razie uczynić? Jakiej odpowiedzi powinna udzielić
ludzka kultura, ludzki umysł na pojawiające się zagrożenia związane
z niczym niekontrolowanym postępem technologicznym? Jedną z odpowiedzi, jakiej udzielają pisarze uprawiający naukową fantastykę, ma
być wizja zatrzymania cywilizacyjnego pędu.
Klasykiem fantastyki nostalgicznej, gdzie postęp obsadzony jest
w roli „niszczyciela” starego, dobrego świata, jest amerykański pisarz
Ray Bradbury. W swej słynnej antyutopii 451 stopni Fahrenheita opisuje stechnicyzowany świat, w którym zagrożeniem dla „ładu społeczi początek ery postrynkowej, przeł. E. Kania, Wyd. Dolnośląskie, Wrocław
2001, s. 20.
215
nego” są książki (tytuł powieści oznacza temperaturę spalania papieru);
pisarz przedstawia tu opłakane skutki kolizji kultury duchowej i materialnej. Z kolei w poetyckich Kronikach marsjańskich kreśli Bradbury
obraz końca ludzkiej cywilizacji oraz próby odbudowania starego, małomiasteczkowego, opartego na bezpośrednich ludzkich interakcjach
świata na Marsie. Jak określa twórczość Bradbury’ego Stanisław Lem –
cechuje ją „umiłowanie cichej prowincji, małych miasteczek o patriarchalnym, spowolnionym i niezmiennym biegu życia”11.
Sam Lem w powieści Wizja lokalna (1982) przedstawia – utrzymany w groteskowej tonacji – przefiltrowany przez pisarską wyobraźnię,
pisany (ze względów cenzuralnych) językiem ezopowym obraz cywilizacji rozwarstwionej. Na odległej planecie realizuje się dwa modele
społeczne. Pierwszy okazuje się typem sztywnego państwa policyjnego,
autorytarnego – jego „walory” wydają się oczywiste. Więcej uwagi
poświęca Lem opisom Luzanii (nazwa jest ironiczna) – tu realizuje się
model żywo przypominający znane nam z autopsji systemy demokracji
liberalnej; tyle, że konsekwencje systemowe są tu przez pisarza nieskończenie wzmożone. Otóż, by wzmocnić bezpieczeństwo obywateli,
wyplenić agresję z życia publicznego, stosuje się „etykę technologiczną”, czyli w istocie nanotechnologię. Miniaturowe automaty wielkości
atomów tworzą wokół planety rodzaj – jak to określa pisarz – „etykosfery”, która niezawodnie ingeruje w zachowania agresywne obywateli,
tłumiąc je niejako w zarodku. Istota zachowująca się gwałtownie jest
przez rzeczone roboty dosłownie paraliżowana. Oczywiście, odczytywanie intencji zachowań obywatelskich ma charakter behawioralny,
a przy tym skrajnie arbitralny. Owa etyka rozpylona w powietrzu, etyka
wszechobecna, „zamraża” kulturę luzańską, a cywilizacja powszechnych ułatwień ulega oto samozdławieniu12.
S. Lem, Fantastyka i futurologia, t. 1, Wyd. Literackie, Kraków 1989,
s. 445.
12
Znakomicie oddaje ówczesny stan ducha Stanisława Lema jeden
z listów napisanych do jego tłumacza na język angielski Michaela Kandla
(pisarz podróżował ówcześnie po krajach Zachodu, poznając niedostępny nam
„raj” i srodze się doń rozczarowując): „Ujęcie statystyczne ludzkości jest na
pewno pesymistyczne. Statystyka jest jakby fizykalną stroną zjawiska, a jego
reszką, jego stroną odwrotną jest dziś Nihilizm. Są właściwie dwa dziś nihilizmy, wschodni i zachodni. Zachodni to jest ta „implozja aksjologiczna”,
o której pisałem nieraz. Ruina Imponderabiliów, wiara w realizowalność Fajnego Lekkiego Łatwego Życia z mordą w śmietanie, Tu, Zaraz, to, co w konsekwencji kładzie znaki równości między Miłością i kopulacyjnym maratonem, szczęściem i posiadaniem Kupy Forsy i Kupy Drogich Pięknych Rzeczy
11
216
Inny jeszcze sposób na „zamrożenie” postępu pokazuje Mike Resnick w książce Kirinyaga. W fabule tej opowieści realizuje się w praktyce utopię „powrotu do etnicznych źródeł” – na asteroidach tworzy się
enklawy istnienia w dawnych, plemiennych rytmach; wyczynowa technologia, paradoksalnie, zaprzęgnięta jest do idei całkowitego rugowania
technologii z życia społecznego – utopia kończy się, niestety, tragiczną
klęską.
Być może problemem gatunku homo sapiens jest w istocie immanencja zła czy też instynktu agresji tkwiącego w jego naturze? W obliczu technologicznego wzmożenia naszych możliwości destrukcji,
skłonności samoniszczące osiągają status problemu globalnego. W jaki
sposób im przeciwdziałać? Istnieją bodaj dwie możliwości; pierwsza,
pedagogiczna, metoda uczenia, wychowywania, uświadamiania, wydaje się zużyta i nieskuteczna. Druga często jest wskazywana również
przez pisarzy science fiction – to wykorzystywanie i aktywizowanie
wiedzy o możliwościach inżynieryjno-genetycznej manipulacji biologicznej, z zamiarem „przekonstruowania” agresywnych, władczych
i antyludzkich reakcji człowieka. Witold Tulibacki właśnie w procesie
uruchomienia tego rodzaju nieznanego ciągu procedur (przy pełnej
świadomości ryzyka z tym związanego), upatruje „rozpaczliwie jedynej
szansy przeżycia gatunku ludzkiego na Ziemi i pozostawienie jej
w stanie względnej równowagi ekologicznej”13.
Stanisław Lem sceptycznie odnosi się do podobnych idei. Charakterystyczna pod tym względem jest jego powieść Powrót z gwiazd. Jest to
fabuła opowiadająca o wyobcowanym bohaterze poznającym nieznane
etc. To jest jeden nihilizm, ten, który sprawia, że liczy się tylko chwila, że
krótkowzroczna staje się polityka, sztuka, wszystko obliczone na efekt natychmiastowy, wskaźniki Dow Jones, bezrobocia, inflacji trzeba poprawiać,
a to, co decyduje o be or not to be, traci się kompletnie z oczu. To jest nihilizm
społeczeństwa otwartego (Popper’s open society). A w closed society jest to
nihilizm wywołany rozbiciem społeczności na miazgę jednostek totalną dezinformacją, fałszowaniem rzeczywistości, autorytarną kontrolą, środkami socjotechnicznymi, technologią wręcz – decerebracji, otępienia, tworzeniem postawy 100% cynicznej jako jedynej „opłacalnej” życiowo. Tak to wygląda owa
„konwergencja” jako zbliżanie się dwu różnopochodnych (i jak bardzo różno
pochodnych!!!) nihilizmów – z których żaden sensu stricto nie był przez Nikogo z osobna Zamierzony. Vae Humanitati – biada dudkom, którzy tak czy
owak dali się wystrychnąć! W gruncie rzeczy są to dwa różne drogami, ale
tożsame w finalnym rezultacie przedsięwzięcia, z natury utopijne, jako zmierzające do zbudowania Raju na Ziemi”. S. Lem, Sława i fortuna. Listy do Michaela Kandla (1972-1987), Wyd. Literackie, Kraków 2013, s. 529.
13
W. Tulibacki, O kruchości idei..., s. 17.
217
mu środowisko, nieustannie zadziwionym dysonansem jego dawnych
i nowych doświadczeń. Bohaterem powieści jest astronauta powracający z odległej podróży do rzeczywistości przyszłości (na mocy Einsteinowskiego efektu relatywistycznego). Lem roztacza przed czytelnikami
szeroką panoramę ułatwionego do granic absurdu, bezmyślnie szczęśliwego życia w świecie, z którego wyeliminowano nie tylko wszelkie
zagrożenia, ale nawet, za pomocą zabiegu tzw. betryzacji, zlikwidowano tkwiące w człowieku agresywne instynkty. Na skutek niewyobrażalnego rozkwitu cywilizacji materialnej, każdy człowiek pławi się
w dobrobycie. Mimo tych wszystkich błogostanów, bohater opowieści
nie może pozbyć się poważnych wątpliwości – jaką bowiem wartość
ma życie w absolutnym komforcie, skoro ceną za to jest okaleczenie
osobowości na skalę masową? Jak celnie wyraża to jedna z postaci
powieściowych: „Zlikwidowaliśmy piekło namiętności, a wtedy okazało się, że za jednym zamachem i niebo przestało istnieć14”. Jest zatem
Powrót z gwiazd przestrogą przed eksperymentami społecznymi przeprowadzanymi w imię jakichkolwiek „wyższych racji”, przed sztucznym uszczęśliwianiem ludzkości. Jest również niewątpliwie krytyką
społecznego modelu „stagnacji”.
Skoro jednak już jesteśmy przy ideach (i praktykach) naprawiania
ludzkiej natury, nie sposób nie wspomnieć choć o transhumanizmie
i jednym z jego proroków – Rayu Kurzweilu.
4. Transhumanizm (posthumanizm) i jego krytyka
Rzecznikami tezy o synergii postępu technologicznego i, w jakimś
sensie, moralnego, są entuzjaści idei transhumanizmu (posthumanizmu). Za prekursora idei uchodzi XIX-wieczny filozof rosyjski Nikołaj
Fiodorow, który postulował m.in. możliwość radykalnego przedłużenia
ludzkiego życia. Termin został wymyślony w roku 1957 przez Juliana
Huxleya – jednak znaczenie, jakie ówcześnie zostało mu nadane mocno
odbiega od dzisiejszego. A dziś transhumanizm kojarzy się dość jednoznacznie z przezwyciężaniem ograniczeń ludzkiej egzystencji, czemu
służyć mają przewidywane osiągnięcia w dziedzinie neurotechnologii,
biotechnologii i nanotechnologii.
Transhumanizm ma dużo wspólnych elementów z humanizmem –
przede wszystkim szacunek dla nauki i rozumu, podkreślanie roli postępu i docenianie znaczenia kategorii „człowieczeństwa” („transczłowieczeństwa”). Różnicą jest radykalne – w ramach światopoglądu
14
S. Lem, Powrót z gwiazd, Wyd. Literackie, Kraków 1961, s. 97.
218
transhumanistycznego – przyzwolenie na ingerencje w ludzką naturę,
tożsamość gatunkową; zgoda na zupełną transformację człowieka.
Idee transhumanizmu, w opinii ich zwolenników, prowadzić mają
do eliminacji biedy, chorób, zacofania (tzw. imperatyw hedonistyczny
nawołujący nie tyle do intensyfikacji odczuwania przyjemności, co do
zupełnej eliminacji cierpienia). Istnieje w ramach rzeczonego światopoglądu etyczny imperatyw niepowstrzymanego dążenia do postępu;
ludzkość wchodzić ma bowiem w etap istnienia post-darwinowskiego;
jest zatem w stanie kontrolować własne procesy ewolucyjne w sposób
racjonalny (Stanisław Lem nazywał podobne roszczenia mianem „autoewolucji”).
Jednym z bardziej prominentnych rzeczników idei transhumanizmu
jest Ray Kurzweil, teoretyk fenomenu sztucznej inteligencji. Można by
go określić mianem singularytianina (jest to jedna z odmian transhumanizmu) – czyli zwolennika zaistnienia technologicznej osobliwości
(singularity). W swym sztandarowym dziele Nadchodzi osobliwość.
Kiedy człowiek przekroczy granice biologii Kurzweil opisuje ideę
„człowieka przepoczwarzonego”, poddanego daleko idącej transformacji, zmienionego na lepszą swą wersję, co zresztą powinno nastąpić w
przewidywalnej przyszłości. Kurzweil w swej ewolucyjnej historiozofii
(żywo, co może wydać się zaskakujące, przypominającej rozważania
chrześcijańskiego ewolucjonisty Theilarda de Chardina) wyróżnia sześć
epok rozwoju ludzkości.
Pierwsza jest epoka fizyki i chemii. Początki ludzkości sięgają aż
do stanu, który odzwierciedla informację w jej podstawowych strukturach: wzorcach materii i energii. Kurzweil dostrzega niezwykle nikłe
prawdopodobieństwo samoorganizacji warunków, struktur i praw fizyki
koniecznych do powstania życia inteligentnego na naszej planecie (czy
też szerzej – w „naszym” wszechświecie); sięga zatem po słynną zasadę antropiczną („wedle której jedynie we wszechświecie, w którym
była możliwa nasza własna ewolucja, jest możliwe pojawienie się istoty
zadającej tego rodzaju pytanie”15, czyli istoty zdolnej do autorefleksji
nad własnym pochodzeniem, genezą). Drugą jest epoka biologii
i DNA, kiedy to ostatecznie „systemy biologiczne wytworzyły dokładR. Kurzweil, Nadchodzi osobliwość. Kiedy człowiek przekroczy granice
biologii, przeł. E. Chodkowska, A. Nowosielska, Wyd. Kurhaus, Warszawa
2013, s. 30. Pytaniem tym jest kwestia naszego pochodzenia. Kurzweil żywi
prawdopodobnie przekonanie o swoistym „zapętleniu” celowości istnienia
rzeczywistości. Tylko rzeczywistość przesiąknięta „pierwiastkiem mentalnym”
(etap szósty, ostatni rozwoju ludzkości) jest w stanie być przyczyną zaistnienia
życia inteligentnego (etap pierwszy) – i zaistnieniu tego życia „sprzyja”.
15
219
ny mechanizm cyfrowy (DNA) służący do przechowywania informacji
opisujących większą grupę cząstek”16. Trzecia epoka jest epoką
mózgów. W opinii Kurzweila ewolucja „używa” wyników jednej epoki, aby utworzyć warunki dla zaistnienia kolejnej. Wynalazkiem epoki
trzeciej ma być wytworzenie (dzięki modyfikacjom DNA) organizmów, które mogły wykrywać informację przez własne narządy zmysłów i przetwarzać oraz magazynować ją w swych mózgach oraz układach nerwowych. Epokę technologii zapoczątkowały posiadane przez
przedstawicieli homo sapiens „dary”: racjonalnego i abstrakcyjnego
myślenia i przeciwstawnego kciuka. Ewolucja technologiczna (czy też
– szerzej – kulturowa) charakteryzuje się wykładniczym wzrostem
tempa zmian. Piąta epoka – połączenia ludzkiej technologii z ludzką
inteligencją – jest naszą teraźniejszością. Pojawiły się już, nieśmiałe na
razie, próby łączenia człowieka z różnymi formami technologii, mechanicznego protezowania cielesnych i umysłowych ubytków, cyborgizacji ludzkości. Epokę tę zwieńczy pojawienie się technologicznej
Osobliwości, czyli sztucznej inteligencji, która, jak pisze Ray Kurzweil:
pozwoli nam przezwyciężyć odwieczne ludzkie problemy i znacznie
wzmocni ludzką kreatywność. Zachowamy i ulepszymy inteligencję, którą
obdarzyła nas natura, pokonując jednocześnie głębokie ograniczenia ewolucji biologicznej. Ale Osobliwość wzmocni również nasze skłonności destrukcyjne, tak więc jej pełna historia nie została jeszcze opisana 17.
Dopiero w tym ostatnim zdaniu pobrzmiewają śladowe wątpliwości, nieco mącące ten bardzo optymistyczny obraz przyszłości naszego
gatunku. Szóstą epokę chrzci Kurzweil poetycko: wszechświat się budzi. Pisze w tym kontekście o „inteligentnym przeznaczeniu kosmosu”,
reorganizacji materii i energii (w celu zapewnienia najlepszego poziomu jej przetwarzania)18.
Można wizję Kurzweila krytykować z różnych pozycji – np. z punktu widzenia integralności ludzkiej tożsamości; być może ludzkości
(a przynajmniej niektórym jej przedstawicielom) wcale nie spodoba się
sprzęgnięcie z kosmosem, roztopienie w inteligentnej materii wszechświata? Możliwa jest także krytyka z punktu widzenia zgodności modelu np. z prawami fizyki. Zaistnienie fenomenu Osobliwości wiązać się
ma przecież ze zdobyciem źródeł darmowej i nieograniczonej energii.
Według Łukasza Turskiego z Centrum Fizyki Teoretycznej PAN taka
16
Ibidem, s. 30-31.
Ibidem, s. 34.
18
Ibidem, s. 35.
17
220
energetyczna nieskończoność mogłaby zakończyć się tragicznie. Cała
energia byłaby bowiem wykorzystana do wykonania jakiejś pracy,
a więc część z niej zostałaby zużyta na produkcję entropii.
Entropia to nieuchronny efekt uboczny zamiany energii na użyteczną pracę. Zgodnie z drugą zasadą termodynamiki nie da się zamienić całej energii
na pracę, tak żeby nic się nie zmarnowało. Zawsze pozostanie jakiś „odpad”. Każde urządzenie – silnik samochodowy, wiertło, laptop czy telewizor – generuje ciepło i wymaga chłodzenia. Z tego samego powodu nigdy
nie uda nam się wynaleźć całkowicie „czystej” technologii ani całkowicie
odnawialnej energii, bo zawsze jej część się nieuchronnie rozproszy. Przy
nieskończonym zużyciu energii (…) zaleje nas też nieskończony wzrost
entropii. Nie da się tego uniknąć. Nieskończoność rodzi nieskończoność 19.
Fantaści również wydają się być mniej od Kurzweila optymistyczni. Peter Watts w powieści Echopraksja ukazuje znaczące konsekwencje udoskonaleń zdolności percepcyjnych naszych mózgów poprzez
ingerencje nanotechnologii. W fabule występuje tzw. Zakon Dwuizbowców, parareligijna organizacja, której członkowie dosłownie łączą
swe umysły w sieć o monstrualnych zdolnościach poznawczych. Takie
ingerencje są jednak kosztowne, ponieważ Dwuizbowcy niemal stracili
zdolność komunikacji ze światem zewnętrznym. Stali się jak gdyby
jednym organizmem, gigantycznym mózgiem złożonym z pojedynczych neuronów – ich indywidualizm, ich osobnicze tożsamości rozpływają się w tej – nazbyt być może – obszernej strukturze. Istnieje
niebezpieczeństwo zwyczajnego „hakowania” tak zorganizowanej sieci
poprzez aplikację odpowiednio zaawansowanego wirusa informatycznego, do czego w powieści Wattsa zresztą dochodzi.
P. Cieśliński, Gdybyśmy byli bogami, „Gazeta Wyborcza”, 1-2 października,
2016, s. 34. Z jeszcze innych powodów krytykuje tezy Kurzweila trendolog
James Harkin, pisząc: „Transhumanistów łączy entuzjazm dla pokonywania
ludzkich ograniczeń, ale ich twierdzenia powinniśmy traktować nieco z przymrużeniem oka. Trzeba bowiem pamiętać, że technologia toruje sobie drogę
przez społeczeństwo jako seria ilościowych fal, a nie jako jakościowy skok.
Kurzweil uważa, że wzrastająca coraz szybciej prędkość procesowania danych
przez komputery może pomóc nam zrozumieć szybkość zmian społecznych.
Zmiany, które opisuje, wydają się łatwe do przeprowadzenia na papierze,
jednak do życia społecznego przenikają w ślimaczym tempie. A wiele z nich
nie przenika w ogóle z powodu braku inwestorów czy po prostu ludzkiego
entuzjazmu”. J. Harkin, Trendologia. Niezbędny przewodnik po przełomowych
ideach, przeł. M. Borowski, Znak, Kraków 2010, s. 164.
19
221
Innym dość charakterystycznym reprezentantem tegoż nurtu jest
powieść Accelerando Charlesa Strossa. Stross przedstawia rzeczywistość społeczną przyszłości radykalnie odmienioną dzięki zaistnieniu
Osobliwości Technologicznej opisywanej przez Kurzweila (czyli
sztucznej inteligencji). Nanotechnologia wdziera się wszędzie, również
do ludzkich umysłów, które są bezpośrednio transferowane do chmury
wspomnień; uzyskuje się dzięki temu dostęp do wszelkiej możliwej
informacji. Ceną za to jest jednak stopniowa utrata tożsamości, osobności, „rozpłynięcie się” w owym monstrualnym psychicznym amalgamacie. „Świadomość” i „osobowość” stają się zresztą w powieściowej
rzeczywistości pojęciami anachronicznymi, ponieważ przy dostępnych
technologiach stan świadomości uzyskać może nawet zwierzę bądź np.
korporacja – i każde z nich ubiegać się może o prawa obywatelskie.
5. Uwagi końcowe
Nie ma chyba powrotu, nie ma możności „zmrożenia” postępu, zawrócenia z drogi poznania, mimo rozlicznych wątpliwości natury moralnej. Jest coś niewątpliwie paradoksalnego i tragicznego w świadomości, że postęp jest czymś nieuniknionym, a zarazem immanentną
jego cechą jest owo aksjologiczne rozdwojenie, które pisarze science
fiction wnikliwie opisywali i opisują nadal. Zakończę ten artykuł słowami Karla Poppera:
Dla tych, którzy jedli z drzewa poznania, raj jest utracony. Im bardziej staramy się wrócić do heroicznego wieku trybalizmu, tym pewniej wracamy
do Inkwizycji, do tajnej policji i do romantycznego gangsterstwa. Zaczynając od prześladowania rozumu i prawdy, musimy skończyć na najbardziej
brutalnym niszczeniu wszystkiego, co ludzkie. Nie ma powrotu do harmonijnego stanu natury. Jeżeli zawrócimy, to musimy już przejść tę drogę do
końca – musimy wrócić do stanu zezwierzęcenia 20.
K. S. Popper, Społeczeństwo otwarte i jego wrogowie, przeł. H. Krahelska, t.
I, PWN, Warszawa 1993, s. 224.
20
222
Jan Wadowski
Politechnika Wrocławska
TRANSCENDENCJA CZY REIZACJA? TECHFEEDBACK JAKO WYZWANIE DLA CZŁOWIECZEŃSTWA W PERSPEKTYWIE GODNOŚCI I WOLNOŚCI
Wypowiedź niniejsza jest próbą pewnej operacjonalizacji, czyli powiązania (hipo)tez z określonymi ujęciami problemu. Pierwsza teza
brzmi pozornie banalnie: technika przeobraża indywidualne i społeczne
doświadczenie, wartościowanie, światopogląd i styl życia. Druga teza
związana jest po części z prognozowaniem: sprzężenie zwrotne (nazwane tutaj tech-feedback) między techniką a człowiekiem (w wymiarze indywidualnym i społecznym) prowadzi do sytuacji, gdy pojawiają
się bardzo duże możliwości transformowania zarówno przyrody jak i
samego człowieka oraz równie poważne zagrożenia, które mogą mieć
charakter degenerujący a nawet zabójczy.
1. Dwa ujęcia techniki
W wyniku kontaktu z przyrodą, z innymi i z samym sobą, człowiek
– istota niewątpliwie zbyt słaba, aby przetrwać – musi wykazać się
inicjatywą w celu przetrwania. Wszystko, co czyni wynika z faktu, że
ma on zdolność do transcendencji przyrody. Kluczowym fenomenem
w przypadku człowieka była zdolność do kreowania własnej sfery swego życia, określanej mianem „sztucznej”. Różni badacze wskazują na
różne przyczyny takiego stanu rzeczy, mówiąc o dużym mózgu, inteligencji, strategii działania itd. Wydaje się jednak, że większość wyjaśnień nie sięga fundamentalnej racji, dla której człowiek zachowuje się
odmiennie od zwierząt. Ta odmienność dotyczy przede wszystkim dążenia do – względnej – separacji od przyrody i jej nieobliczalnych żywiołów oraz racjonalizacji życia w ramach skonstruowanej technologicznej niszy. Stworzenie odpowiednich warunków, w których człowiek nie musiał już żyć w strachu przed drapieżnikami, głodem i rychłą
śmiercią, wyzwalało w nim jeszcze większą kreatywność i refleksyjność. Więcej, zaczął on wykonywać rzeczy zupełnie „niepotrzebne”
z punktu widzenia przetrwania, które budziły jego tożsamość, rozbudzały świadomość, kierowały uwagę w stronę transcendencji, dzięki
czemu rozpoczął prawdopodobnie tworzenie kultury.
224
Zgodnie z rozumieniem techne jeszcze u Arystotelesa, technika stanowiła określoną umiejętność lub zdolność wykonywania czegoś, do
wytwarzania. Współcześnie definiuje się technikę również jako: sprzęt,
zasady, system czy naukę stosowaną w konkretnych celach. Wydaje
się, że jednym najbardziej integralnych ujęć tego fenomenu jest technika rozumiana jako pewien system1. Z samego faktu powstania narzędzia czy maszyny nie wynika jeszcze, że ma ona charakter techniczny.
Fundamentalny jest kontekst społeczny i historyczny funkcjonowania
owego narzędzia lub maszyny. Podczas procesu powstawania narzędzie
należało do tego kontekstu jako twórcza innowacja mająca poprawić
jakość życia ludzi. Jeśli jednak narzędzie nie znajdzie się w kontekście
społecznego użytkowania przez ludzi kompetentnych, nie staje się
techniką. Może stać obiektem kultu lub estetycznej kontemplacji (np.
kult cargo). Tak więc, w ujęciu Val Duska, fundamentalny jest kontekst
społeczny, który zawiera w sobie zarówno narzędzia, maszyny, jak
i określone umiejętności ludzi posługujących się danym urządzeniem
lub siecią urządzeń. Technika tedy ma charakter relacyjny, przez co
tworzy system techniczny2. Powstaje więc swoista sieć, pozwalająca
utrzymywać pewien określony poziom i standard funkcjonowania systemu, który usprawnia ludzkie życie. Nie zdawano sobie jednak sprawy, że wytwory techniczne w coraz większym stopniu zaczęły oddziaływać na sposób myślenia i postępowania jego członków.
W miarę upływu czasu odziaływanie to stawało się coraz intensywniejsze. Współczesna epoka przyniosła całą falę skoków jakościowych,
gdzie kumulacja innowacji technicznych wyzwala nową jakość życia3.
Wielu „technokratów” przypisuje technice (a razem z nią naukom ścisłym) decydującą rolę, utożsamiając postęp ze stopniem technicznego
i naukowego zaawansowania4. Z kolei humaniści (ale nie tylko) popełniają błąd ignorancji wobec techniki, potępiając niejednokrotnie wyłącznie jej niewątpliwie dehumanizujące oddziaływanie. Nie ulega
wątpliwości, że następuje „mediatyzacja” ludzkiego istnienia, które
V. Dusek, Wprowadzenie do filozofii techniki, tłum. Z. Kasprzyk, Wydawnictwo WAM, Kraków 2011, s. 41 i n.
2
V. Dusek, Wprowadzenie…, s. 42.
3
Należy pamiętać, że określenie „jakość życia” nie jest precyzyjne i może być
kształtowane pod wpływem różnorodnych ideologii, a wyznaczniki owej jakości są bardzo zróżnicowane u różnych populacji.
4
T. Shachtman, Apokalipsa czy cuda techniki?, tłum. G. Siwek, Dom Wydawniczy Bellona, Warszawa 2004, s.355.
1
225
coraz częściej ma do czynienia z symulacjami i symulakrami 5. Technika w coraz większym stopniu oddziałuje na sposób wartościowania,
decyzje etyczne, pracę, rolę społeczną, określa wrażliwość, a nawet
duchowość. Pytanie, jakie się tu rodzi, w ramach naszego operacjonalizującego szkicu, to kwestia, czy faktycznie technicyzacja przyczynia
się do implementacji i rozwoju wolności i godności ludzkiej, czy też
wręcz przeciwnie?
Technika jest częścią kultury. Kultura ma charakter materialny
i niematerialny. Ostatecznie wszelka kultura jest rezultatem mentalnego
zamysłu projektującego, odnoszącego się do sfery wewnętrznej (kultura
„niematerialna”) oraz do sfery zewnętrznej. Technika jednak (być może
bardziej niż religia czy sztuka) zmienia definiowanie człowieka i społeczeństwa. Technika jest antropotwórcza. Staje się coraz bardziej ergonomiczna nie tylko fizykalnie, ale również mentalnie. Jest swoistą
„niewidzialną ręką”6. Powoduje zmiany sposobu myślenia o tym, jak
należy pracować, jak spędzać czas wolny, w jaki sposób kontaktować
się z innymi, jaką drogą poprawić lub zmodyfikować procesy poznawcze, jak planować przyszłość itd. Z jednej strony przynosi ona całą
gamę udogodnień, ale można zauważyć, że istnieje określony punkt
krytyczny, kiedy zamiast ułatwiać, zastępuje i eliminuje. W efekcie
człowiek uzyskuje coraz więcej czasu wolnego, który powinien przeznaczyć na wszechstronny rozwój. Zatraca się w wytworach technicznych, nieuzauważalnie gubiąc swoją wolność, nie mówiąc już o godności.
Drugie ujęcie techniki, które wydaje się być ważne dla tematu tego
artykułu, wywodzi się z pytania o jej źródło. Rację wydaje się mieć
Lewis Mumford, kiedy głosi, że źródłem tym jest powstały wcześniej
świat wewnętrznych przeżyć7. Stawia nas to w sytuacji, iż zarówno
tworzenie kultury materialnej jak i niematerialnej ma ten sam korzeń,
jakim jest powstanie i rozwój świata wewnętrznego, który manifestuje
się jako świat naszego umysłu. Istota w miarę świadoma może wyobrazić sobie, jak może i powinna żyć, w związku z czym podejmuje wysiłki, które umożliwią jej egzystencję na miarę własnych wyobrażeń.
Tymczasem na pewnym poziomie rozwoju oraz implementacji wytwoS. Beaudrillard, Symulakry i symulacja, Wydawnictwo Sic!, tłum. S. Królak,
Warszawa 2005, s. 88.
6
R. Lizut Niewidzialna ręka techniki, w: http://www.sapiencjokracja.pl/index.php?option=com_content&view=article&id=50&Itemid=58 (stan
na 24.04.2014).
7
L. Mumford, Mit maszyny, tłum. M. Szczubiałka, Wydawnictwo PWN, Warszawa 2012, s. 29 i n.
5
226
rów technicznych, napotykamy różnorodne zaburzenia i zakłócenia,
które sprawiają, że mamy pewne wątpliwości co do „technologicznego
błogosławieństwa”, co wielokrotnie wyrażali niektórzy badacze (np.
J. Ellul. L. Mumford, N. Postman, H. Skolimowski i in.). Wątpliwości
te zawarte są w pytaniu tytułowym niniejszego tekstu, czyli na ile
człowiek jest w stanie za pomocą techniki transcendować własne ograniczenia (fizyczne, intelektualne itp.), a na ile też technika może – oddziałując zwrotnie – sprowadzić swego twórcę do poziomu „zarządzanego” przedmiotu? W takiej sytuacji byłoby zagrożony nie tylko
wspomniany rozwój człowieka, ale jego człowieczeństwo8.
2. Tkanie technologicznego kokonu
Podobnie jak dzieła o charakterze kultury niematerialnej, tak też wytwory kultury materialnej powstawały dzięki istnieniu wspomnianej
sfery przeżyć wewnętrznych, która – jakby nie patrzeć – sprzyjała
transcendencji. Sądzę, że technika może i powinna wspierać rozwój
człowieka, odciążając go w pracy i stwarzając czas wolny przeznaczony na rozwój kultury niematerialnej. Dzieła techniczne posiadają np.
walor estetyczny, a nie tylko etyczno-użytkowy i odwrotnie, dzieła
kultury niematerialnej mogą być dla człowieka niezmiernie użyteczne,
np. dając nadzieję. Ostry podział między poszczególnymi poziomami
egzystencji człowieka nie wydaje się więc do końca zasadny, aczkolwiek w poszczególnych przypadkach można zauważyć dominację takiej czy innej sfery. Wytwory techniczne mogą wręcz umożliwiać bardziej „kontemplatywną” i refleksyjną egzystencję, ponieważ można
poświęcić więcej czasu na poznawanie dzieł sztuki czy literatury. W
tym znaczeniu można widzieć w technice wielkiego sprzymierzeńca
rozwoju. Pytanie, jakie tu można postawić to: ile osób faktycznie jest
zdolnych do umiejętnego, nieuzależniającego korzystania z wytworów
techniki. Ale to już bardziej kwestia umiejętnej edukacji i wychowania
oraz samodzielnych decyzji.
Warto równocześnie przypomnieć, że m.in. filozofia europejska
powstała w warunkach cywilizacji miejskiej, podczas panowania
względnej wolności i pokoju. Wiele wynalazków technicznych (koło,
papier, druk itp.) wpływało znacząco na rozwój kultury niematerialnej.
Technika wpływa więc na nasze postrzeganie nas samych, modeluje
nasz styl życia i wartościowania, może oddziaływać na umiejscowienie
wartości moralnych i duchowych. Pozwala też na implementowanie
Za zrzucenie z siebie odpowiedzialności oraz zagwarantowanie bezpieczeństwa na pewno duża grupa jednostek w społeczeństwie oddałaby swoją wolność i godność.
8
227
wartości, które w coraz większym stopniu decydują o świecie ludzi.
Tworzy nową antroposferę. Michał Ostrowicki uważa, że człowiek
w coraz większym stopniu owija się niejako w kokon technologii, który
nieustannie ewoluuje9. Dzieje się to na skutek przenikania techniki
w każdą niemal dziedzinę życia. Nie jest to tylko świat gier komputerowych czy pisanych rozmów, ale może przede wszystkim przeniesienie coraz większej liczby działań w społeczeństwie do sfery elektronicznej, wirtualnej. Dotyczy to edukacji, administracji, transakcji finansowych, pracy, rozrywki, życia towarzyskiego itd. Człowiek współczesny musi dokonywać niemal błyskawicznej akomodacji do nowych
technologii, ponieważ ich nieznajomość oznacza marginalizację zawodową, towarzyską, czyli ogólnie społeczną. Funkcjonowanie w społeczeństwie staje się w coraz większym stopniu uwarunkowane znajomością obsługi technologicznych usprawnień i rozwiązań. Otoczenie
człowieka staje się w coraz większym stopniu ambient intelligence10.
3. Ergonomizacja
Technika, co trzeba mocno podkreślić, jest również elementem
ludzkiej kultury – wydaje się, że nie tylko materialnej, jeśli przyjmiemy
podział na kulturę materialną i duchową. Oddziałuje ona na ludzkie
wyobrażenia o świecie i sensie życia, zmienia charakter relacji społecznych a także powoduje narastanie takich zjawisk jak alienacja czy bezrobocie11. Równocześnie jednak pozwala m.in. zwiększyć ilość relacji
z innymi ludźmi, tworzy nowe, nieznane wcześniej, miejsca pracy itd.
Ambient intelligence tworzy przestrzeń kulturową, różniąc się zdecy-
S. Moyo, Ontoelektronika, Wydawnictwo UJ, Kraków 2013, s. 51.Optymizm
Ostrowickiego wydaje się nieco przesadzony, w niewielkim stopniu bada np.
ten autor różnicę – w moim przekonaniu bardzo dużą – między doświadczaniem wartości w świecie wirtualnym a doświadczaniem tych samych wartości
w świecie realnym. Jeśli chodzi o pojęcie technologicznego kokonu, to analizy
na ten temat (aczkolwiek jeszcze nieco w innym sensie niż u Ostrowickiego)
znajdujemy np. u filozofa techniki o nazwisku Dan Ihde. Por. D. Ihde, A Phenomenology of Technics, w: D. M. Kaplan, Readings in the Philosophy of
Technology, Rowman&Littlefield Publishers, INC, Lanham – Boulder – New
York – Toronto – Plymouth, UK, 2009, s. 96.
10
A. P. Wierzbicki, Czym jest technika – sztuką tworzenia narzędzi czy społeczno – ekonomicznym systemem ich wykorzystania?, w: Sprawy Nauki
4/2014,
http://www.sprawynauki.edu.pl/index.php?option=com_content&view=article&id=2831%3Atechnika-to-kultura&catid=284&Itemid=30 (stan
na 30.12.2016r.).
11
Ibidem.
9
228
dowanie od tradycyjnie rozumianego techne12. Second Life staje się
swoistym First Life.
Wspomniałem o dwóch ujęciach tego, co techniczne, najpierw
w znaczeniu funkcjonowania techniki jako systemu umiejętności ludzkich oraz odpowiednich narzędzi a współcześnie zsynchronizowanych
ze sobą algorytmów i następnie w sensie źródła. Ujęcia te są komplementarne, potwierdzając z jednej strony definicję Arystotelesa, a z drugiej ukazując nowe oblicze zagadnienia, jakie odsłania się w epoce
współczesnej. Wydawało się mianowicie, że to człowiek zawsze używa
narzędzi i urządzeń, aby oddziaływać na przyrodę i zapewniać sobie
różne dobra (niekoniecznie będące przedmiotem pierwszej potrzeby),
w warunkach cywilizacji industrialnej, a następnie informacyjnej.
Technika zmienia definiowanie człowieka i społeczeństwa. Staje się
ergonomiczna nie tylko fizykalnie, ale również mentalnie. Przekształca
sposób życia a w związku z tym zmienia sposób myślenia całych pokoleń. Modyfikuje standardy w zakresie wyznaczania celów, stylu życia
związanego ze spędzaniem wolnego czasu, relacjami, kreacją, podróżami, rozrywką, rozumieniem samego siebie itd. W wyniku kolejnych
rewolucji w obrębie wynalazczości, jakie dokonały się jeszcze w XX
wieku, doszło jednak do nowej sytuacji, kiedy to oddziaływanie techniki na człowieka stało się na tyle silne, że zaczęło zmieniać jego sposób
myślenia czy wrażliwość. W epoce ponowoczesnej przestaje on już
odnosić sens swego życia do natury i jej rytmów, ale podporządkowuje
je „rytmom” technologicznych procesów, naturę poznając co najwyżej
przez sferę symulakr13. W wyniku „przesłonięcia” natury i wirtualizacji
i „nomadyzacji” życia (nota bene możliwej dzięki technice właśnie),
zmienia się mentalność ludzi, ich poglądy na status w społeczeństwie,
rodzinę, przyjaźnie itd. W pierwszym rzędzie człowiek zaprzestaje
czerpania od „matki natury” wiedzy i nauki o życiu i śmierci, lecz walczy z przemijaniem i śmiercią za pomocą technologii, wyłamuje się (na
ile może) z rytmu przyrody, a ją samą traktuje niemal wyłącznie jako
źródło surowców, energii czy wody „zdatnej” do picia14. Technika
T. Boellstroff, Dojrzewanie w second life: antropologia człowieka wirtualnego, tłum. A. Sadza, Wydawnictwo UJ, Kraków 2012, s. 83.
13
Powstaje oczywiście poważne pytanie, na ile człowiek jako gatunek może
lekceważyć naturę, do której ontologicznie przynależy.
14
Wydaje się, że ignorowanie natury, a nawet pewna pogarda wobec niej, nie
są na dłuższą metę możliwe z tego powodu, że człowiek jako istota przez całe
tysiąclecia związana z naturą, nie jest w stanie przeżyć poza jej obrębem. Dlatego ekofilozofię H. Skolimowskiego trzeba uznać za jedną z istotnych propozycji na polu filozofii.
12
229
umożliwia również wyłamanie się z rzeczywistych relacji i stosunków
międzyludzkich, na zasadzie rodzinnej lub lojalnościowej zależności.
Człowiek odnajduje się jeszcze w sferze relacji zwirtualizowanych, a
swoje działalnie przekształca w kolejne „projekty”. Technologiczny
determinizm wydaje się być nieunikniony.
Problem techniki, albo raczej technonauki, wydaje się jednak być
bardziej złożony niż opisują to zarówno techno-sceptycy, jak i technoentuzjaści. Nie jest pewne, czy „imperatyw techniczny” jest jedyną
możliwą drogą15, gdyż „zasięg ludzkich interwencji w otoczenie osiągnął już dawno poziom krytyczny, w którym złożoność zależności oraz
skutków ubocznych przestała podlegać ludzkim manipulacjom”16. Dlatego też oświeceniowa idea postępu niewątpliwie już upadła17. Jest to
o tyle znamienne, że to właśnie Oświecenie podkreślało mocno zarówno godność jak i wolność człowieka. Paradoksalnie, hałaśliwa walka
o wolność i godność człowieka przeradzała się niejednokrotnie w jego
zniewolenie i poniżenie, osiągając swoje apogeum w systemach totalitarnych. Pytanie o technikę więc to pytanie o możliwość wyzwolenia
potencjału, który będzie nie do opanowania, dając równocześnie szansę
na realizację ekspansji w kosmos.
4. Tech-feedback
Innowacyjność technologiczna umożliwia więc całą gamę udogodnień, ale można zauważyć, że istnieje określony punkt krytyczny,
kiedy to system techniczny zamiast ułatwiać, zastępuje człowieka. Nie
jest to konieczne znana Kurzwailowska „osobliwość” (ang. Singularity)
(do której nie wiadomo czy kiedykolwiek dojdzie); ze względu jednak
na narastanie prędkości „nasycenia” technologią życia indywidualnego
i społecznego, mamy do czynienia z nieumiejętnością „nadążania” za
zmianami przez owe technologie imputowanymi. Człowiek stworzył
technikę, która oddziałuje na jego doświadczenie, myślenie i wrażliwość w coraz większym stopniu, prowadząc do sprzężenia zwrotnego,
które nazwałem tutaj tech-feedback. Chodzi przede wszystkim o stopień złożoności tego, co techniczne oraz o coraz większą jej integrację
z codziennością ludzkiej egzystencji oraz funkcjonowaniem całych
społeczeństw, również w wymiarze globalnym. Inaczej mówiąc, tech-
E. Bińczyk, Technonauka w społeczeństwie ryzyka. Filozofia wobec niepożądanych następstw praktycznego sukcesu nauki, Wydawnictwo Naukowe
Uniwersytetu Mikołaja Kopernika, Toruń 2012, s. 25.
16
Ibidem, s. 24. `
17
Ibidem.
15
230
noprzestrzeń coraz intensywniej oddziałuje nie tylko na jednostki, ale
na socjoprzetrzeń, na przestrzeń kulturową.
Nie ulega wątpliwości, że technika w coraz większym stopniu określa drogę ewolucji cywilizacji, niezależnie od rodzaju kultury18. Przenika ona praktycznie w każdy obszar doświadczenia, a szczególnie w
sfery specyficznie ludzkie, takie jak komunikacja, międzyludzkie relacje czy drogi ekspresji samego siebie. Można nawet mówić o nowym
rodzaju egzystencji, który określany jest mianem „egzystencji technicznej”19. W konsekwencji następuje zmiana proporcji między tym, co
ludzkie, a tym, co techniczne20. To, co techniczne zaczyna tworzyć
środowisko życia człowieka, który oddalił się od natury, a często również od drugiego człowieka. Procesy te mogą być niebezpieczne z powodu wyobcowania człowieka z owych więzi, co przynosi efekty w
postaci uzależnień, barbaryzacji kontaktów międzyludzkich, różnorakich patologii, lekceważenia środowiska naturalnego itd.
Człowiek tworzy więc technologiczną antroposferę, która pozwala
mu zoptymalizować działania w obszarze potrzeb i wartości, organizacji i współpracy21. Faktyczność rozwijających się technologii pozwala
sięgnąć po iluzję wolności, szczególnie w zakresie możliwości decydowania o dobru i złu. Technosfera, szczególnie w wymiarze powstania
i rozwoju technologii informacyjnych, pozwala człowiekowi wejść –
w znacznie większym stopniu niż kiedykolwiek – w krainę wykreowaną przez jego wyobraźnię. Równocześnie sam człowiek wpływa na
technologię poprzez wykorzystywanie jej do takich obszarów mniej lub
bardziej wirtualnego działania, o jakich nie myśleli nawet jej projektanci. Sytuacja ta również zalicza się do sfery tech-feedback. Mamy do
czynienia z rodzajem sprzężenia zwrotnego między techniką a człowiekiem. Tech-feedback manifestuje się w kilku podstawowych obszarach
takich jak: życie codzienne, logistyka, medycyna, nauka, kultura.
A ponieważ obszary te są istotne i kluczowe dla egzystencji i rozwoju
społecznego, stajemy w sytuacji, kiedy nie do końca wiemy, jakie będą
H. Skolimowski, Technika i przeznaczenie człowieka, Wydawnictwo Ethos,
Warszawa 1995, s. 111.
19
M. Golka, Cywilizacja współczesna i globalne problemy, Oficyna Naukowa,
Warszawa 2012, s. 190.
20
L. W. Zacher, Technika – człowiek: niesymetryczna koewolucja, w: L. Zacher (red.nauk.), Nauka, technika, społeczeństwo. Podejścia i koncepcje metodologiczne, wyzwania innowacyjne i ewaluacyjne, Wydawnictwo Poltex, Warszawa 2012, s. 273 -301.
21
S. Moyo (M. Ostrowicki), op. cit., s. 27.
18
231
konsekwencje tego stanu rzeczy. Technosfera staje się tutaj środowiskiem rozwoju cywilizacji i kultury, czy tego chcemy czy nie.
Sądzę więc, że technika wbrew pozorom nie niszczy kultury22, ale ją
przekształca, podobnie jak pozostałe dziedziny23. Ponieważ jednak
następuje to w dość szybkim tempie, można odnieść wrażenie, że mamy tu do czynienia z dominacją i dewastacją. Oczywiście, przekształcanie to nie zawsze ma pozytywny wydźwięk, szczególnie jeśli społeczeństwo przyzwyczajone jest do form tradycyjnych. Jednak młode
pokolenia wpływ tsunami techniki na swoje życie traktują jako coś
oczywistego. Technika jest więc ważnym elementem kultury i to nie
tylko materialnej. Kształtuje ona sposoby i ścieżki zaspokajania potrzeb kulturalnych, wcześniej zupełnie nieznane. Powstaje wspomniana
już „elektroniczna antroposfera”24, która tworzy nową przestrzeń kulturową, kreującą swoisty byt hybrydowy, jakim jest człowiek poszerzający swoją sferę o środowisko elektroniczne, dając sobie niejako nową
przestrzeń indywidualną i społeczną25.
Tech-feedback wprowadza szereg zagrożeń, otwierając możliwości,
które stopniowo lub gwałtownie mogą doprowadzić określone populacje do biologicznej, egzystencjalnej, społecznej i duchowej degradacji,
a nawet zupełnego zaniku. Z drugiej strony, jeśli tylko człowiek będzie
panował nad techniką, może podjąć się zadań, które wydają się koniecznością jak np. możliwość zamieszkania na innych planetach i eksploracja kosmosu. Możliwe jest jednak, że zanim zdąży to zrobić, technologie przejmą nad nim kontrolę, a on powoli i niezauważalnie zatracał będzie własne człowieczeństwo, którego zagubienie oznaczać może
samozniszczenie gatunku ludzkiego.
5. Dwie tendencje i trzy przestrzenie
W rozwoju techniki mamy, jak sądzę, dwie tendencje: jedna to ta
„tradycyjna”, czyli chęć opanowania świata przyrody, aczkolwiek na
niespotykaną dotąd skalę, wykorzystania jego energii itd.; druga tenTezy te głoszą m. in. N. Postman i A. Keen.
Możliwe, że określone technologie oddziałują niszcząco na pewne działania
w sferze kultury, ale równocześnie umożliwiają powstanie i rozwój w innych
obszarach kreacji.
24
T. Boellstorf, Dojrzewanie…, s. 83.
25
R. Ilnicki, Bóg cyborgów. Technika i transcendencja, Wydawnictwo Naukowe
Wydziału
Nauk
Społecznych
UAM,
Poznań
2011.
http://pl.scribd.com/doc/127509977/Bog-cyborgow-Technika-i-transcendencja
(stan na 30.12.2016r.)
22
23
232
dencja polega na dążeniu do opanowania samego człowieka, nie tylko
w wymiarze jego ciała, ale również w wymiarze psychologicznym,
umysłowym, a nawet duchowym. Człowiek już nie egzystuje świadomie i w sposób względnie wolny, ale jest modelowany i sterowany
przez technikę. Jeśli faktycznie techniczne standardy zaczynają być
aplikowane wyłącznie do człowieka, to mogą go degradować do roli
królika doświadczalnego i marionetki zamaskowanych interesów finansowych i politycznych. Cywilizacja naukowo-techniczna przybiera
kształt technokratycznego systemu, który posiada totalitarne właściwości26. Gwałtowny rozwój technologii jest z jednej strony dobrodziejstwem poprawiającym jakość życia, z drugiej strony być może (i często
jest) czynnikiem zniewalającym i pozwalającym dokonywać daleko
idącej inwigilacji obywatela.
Istnieje tedy niebezpieczeństwo technicznej „inwazji” w obszar myślenia i działania człowieka, który – funkcjonujący w „inteligentnym”
otoczeniu – nie jest w stanie uwolnić się od jego presji. W tym świecie
główną rolę odgrywa coraz częściej informacja, obsługiwana i przetwarzana przez urządzenia techniczne. Człowiek coraz częściej staje się
elementem zbędnym, a nawet zakłócającym działanie systemu.
Można więc zadać pytanie: czy to człowiek zarządza techniką, czy
też to ona rządzi człowiekiem, powodując niejednokrotnie jego zubożenie w sferach, które należą do struktury jego świadomego człowieczeństwa? Czy funkcjonowanie w ramach społeczeństwa, gdzie technika odgrywa rolę kluczową przy każdej czynności, nie jest rodzajem
uzależnienia, które czyni człowieka istotą ubezwłasnowolnioną i pozbawioną pełni swego istnienia? Otóż wydaje się, że im bardziej mamy
do czynienia z wyrafinowanymi technologiami, w tym większym stopniu istnieje ryzyko uzależnienia i uwarunkowania. Powstaje ogromnie
delikatne pytanie, jak to się dzieje, że coś, rzecz, zaczyna dominować
i rządzić kimś, czyli osobą? W momencie załamania się systemu technicznego (ponieważ każda bardziej złożona technologia funkcjonuje
tylko w kontekście społecznej organizacji, ludzkich decyzji ekonomicznych i aksjologicznych), owa technika staje się bezużyteczna.
Tymczasem stała się czymś w rodzaju religii, od której oczekuje się
wybawienia z istniejącej sytuacji27.
T. Drewicz, Totalitaryzm – wizje przyszłości, w: www.asp.poznan.pl.strony/kolo/index1.html (stan na 25.04.2016r.).
27
D. F. Noble, Religia techniki. Boskość człowieka i duch wynalazczości, tłum.
K. Kornas, Copernicus Center Press, Kraków 2017, Wstęp (wersja elektroniczna bez numeracji stron).
26
233
Za cenę wygody, możliwości pozostania biernym, homo technologicus popada w coraz głębszą alienację: zarówno w stosunku do społeczeństwa, jak i w stosunku do samego siebie. Technologie informacyjne poszerzają co prawda w olbrzymim stopniu możliwości człowieka,
nie zawsze jednak możliwości te zmierzają we właściwym kierunku,
szczególnie jeśli nie liczą się, ani z przyrodą, ani z samym człowiekiem.
Dramat człowieka na planecie Ziemia rozgrywa się w jego interakcji
z przyrodą, od której się zdystansował w momencie, kiedy wykonał
pierwszy wytwór własnej wyobraźni, czyli narzędzie, które używał
systematycznie, tworząc inne narzędzia oraz gdy wykonał pierwsze
dzieło sztuki. Inaczej mówiąc, można przypuszczać, że to wyobraźnia
(jako synteza rozumu i intuicji) pozwoliła człowiekowi stać się człowiekiem28. Być może równocześnie w tym samym momencie człowiek
zaczął posługiwać się mową, która pozwoliła otworzyć drugą przestrzeń interakcji, czyli tego, co następuje między ludźmi. Trzecia przestrzeń dramatu człowieka to stworzenie kultury (materialnej i niematerialnej) na taką skalę, że zaczęła ona intensywnie oddziaływać na niego. Już nie tylko przyroda czy drugi człowiek, ale same wytwory rozpoczęły proces modelowania mentalności ludzkiej.
Mamy więc trzy przestrzenie, które pozwalają na interakcje: przyroda, drugi człowiek (społeczeństwo) i kultura. Kultura oczywiście jest
wytworem działań interaktywnych, co szczególnie widać w sferze
techniki. Powstaje ona jako wytwór zorganizowanego życia społeczności, która posiada już własne wartości, wierzenia i styl życia. Nie jest
jednakże tak, że tylko jeden z elementów staje się decydujący. Jako
wytwór społeczny spełnia tedy rolę instrumentalną. Jednakże w momencie jej „inwazyjnego” oddziaływania na człowieka, kiedy przekracza ona pewną wartość „wytrzymałościową” dla ludzkiej psychiki,
kiedy staje się zbyt ekspansywna, działa z prędkościami nie do opanowania dla człowieka, przyczynia się do destrukcji i to zarówno w wymiarze indywidualnym, jak i społecznym. „Kolejne innowacje naukowo – techniczne, a przede wszystkim ich bezrefleksyjna aplikacja kanałami rynku przyczyniają się (…) (a procesy te z dużym prawdopodobieństwem będą narastać) do destabilizacji na skalę systemową: środowiska, społeczeństw, struktur prawnych i ładów moralnych”29. Społeczeństwa funkcjonowały po prostu w systemie produkcji i konsumpcji
przemysłowej, gdzie zasady moralne (np. kultu pracy) były zasadniczo
28
29
Nie wyjaśnia to oczywiście samych źródeł wyobraźni.
E. Bińczyk, Technonauka…, s. 12.
234
określone. Ten świat epoki przemysłowej zdaje się coraz szybciej odchodzić w przeszłość.
W świecie współczesnym technika zaczyna spełniać rolę swoistego
fetysza, symbolu niezależności i wolności. Z czynnika instrumentalnego staje się obiektem swoistego kultu, przynosząc powierzchowne poczucie sensu życia. Inaczej mówiąc, nie jest tak, jak proponuje stanowisko instrumentalizmu technologicznego, że technika (a więc i nauka)
jest wytworem całkowicie neutralnym (aksjologicznie, moralnie itd.),
natomiast jej zastosowanie może być złe lub dobre30. Ewa Bińczyk
twierdzi, że „technologie nigdy nie są wyłącznie niewinnymi narzędziami”31. Dawały one władzę i przewagę nad innymi. Technika prowadzi nie tylko do przemian w społeczeństwie (o czym pisał jeszcze
Karol Marks), ale wynika z określonych przekonań aksjologicznych.
Inaczej mówiąc – decyzja o wdrożeniu i produkcji określonych wytworów techniki posiada u podstaw określone przekonania o tym, co jest
dobre, a co złe, co powinno być bardziej preferowane, a co mniej. Jeśli
głębiej poszukać, to może się okazać, że u źródeł rozwoju techniki leżą
określone systemy przekonań, głębokie tęsknoty za utopią lub życiem
w sferze Raju, czyli za wiecznością32.
6. Transhumanizm jako quasi-religia
Jeszcze w drugiej połowie XX zrodziła się u niektórych tęsknota
„bycia jak bogowie”. Pojawił się tzw. transhumanizm (Nikołaj Fiodorow, Julian Huxley, Fereidoun M. Esfandiary, a później FM-20130,
Max More, Natasha Vita – More, Vernor Vinge (autor pojęcia „osobliwość technologiczna”), Hans Moravec, Marvin Marvin Minsky, Nick
Bostrom, Ray Kurzweil, Roger Penrose i in.)33. Transhumanizm bazuje
na humanizmie, propaguje kult rozumu i nauki, i twierdzi, że na bazie
człowieczeństwa można i należy stworzyć transczłowieczeństwo a następnie postczłowieczeństwo (Max More). Transhumanizm chce zrealizować tęsknoty Nietzschego o nadczłowieczeństwie bazując na współczesnych technologiach, w szczególności na tzw. GRIN (genetyka,
robotyka, informatyka i nanotechnologia). Do tych czterech dziedzin
30
Ibidem, s. 22.
Ibidem, s. 23.
32
D. F. Noble, Religia techniki…, np. Rozdział VII pt. Nowy Eden.
33
Wewnątrz samego transhumanizmu panują różne nurty, jak np. ekstropianizm, posthumanizm, prometeizm, singularytarianizm, socjalizm transhumanistyczny, transtopianizm (techno-utopizm połączony z transhumanizmem).
31
235
należy dołączyć kognitywistykę, neurofarmaceutyki34, ulepszone protezy, krionikę czy twierdzenia o możliwości transferu świadomości do
komputera i sieci. Przykładem może być prof. Kevin Warwick, dziekan
wydziału cybernetyki Uniwerystetu w Reading (Anglia), który jako
pierwszy człowiek wszczepił sobie pod skórę mikronadajnik – w ten
sposób rozpoznawany jest przez sieć komputerową swojego laboratorium35; innym przykładem jest Rob Spence (zwany Eyeborg), uważany
za pierwszego cyborga na świecie, ponieważ wszczepiono mu kamerę
do oka, które nie tylko umożliwia mu widzenie, ale również kręcenie
filmów36.
Transhumanizm jest nie tylko projektem bliżej nieokreślonej przyszłości, ale pojawia się we współczesnej kulturze. Istnieje czasopismo
H+37, powstają gry komputerowe prezentujące przyszłość człowieka
(np. DeusEx). W maju 2014 odbyła się w Oakland w USA konferencja
pt. Religion and transhumanism. Powstaje wiele produkcji filmowych
bazujących na założeniach transhumanizmu (np. Steven Spielberg,
Artificial Intelligence, James Cameron Avatar, lub ostatnio Spike Jonze, Her czy Alex Garland, Ex Machina), które prezentują zamierzenia i
przewidywania jego twórców. Niektóre organizacje religijne (np. Mormoni) włączają transhumanizm do palety swoich przekonań, tworząc
stowarzyszenia i organizując konferencje38. Koncepcje trashumanistyczne (lub też posthumanistyczne) przenikają do wyobraźni
i przekonań, szczególnie u ludzi młodych.
Transhumanizm wyraża przekonanie, że ewolucja człowieka dopiero się zaczęła i teraz zacznie przyspieszać. Stanie się to za sprawą technologii i sprzężenia z nią człowieka. Podstawowe założenia transhumanizmu (czy też posthumanizmu) to:
1. Podstawowa aktywność człowieka to komunikacja; sygnały komunikacji są bardziej fundamentalne niż jej nośniki, w tym również
ludzkie ciało.
2. Świadomość jest efektem wtórnym współaktywności podmiotu
i kultury, nie zaś rezultatem ducha. Kurzweil np. określa się nie mianem materialisty, ale „wzorcysty” – nie tłumaczy jednak, jaką naturę
mają owe wzorce, które mają zmieniać rzeczywistość.
Standardowym zachowaniem np. w społeczeństwie amerykańskim jest zażywanie takich substancji jak prozac, zoloft czy paxil (ok. 28 mln w USA).
35
http://www.kevinwarwick.com/ (stan na 29.12.2016r.).
36
The Eyeborg Documentary, w: http://spectrum.ieee.org/automaton/robotics/medical-robots/061110-eyeborg-bionic-eye (stan na 30.12.2016r.).
37
Por. www.hplusmagazine.com (stan na 31.12.2016r.).
38
Por. http://transfigurism.org/ (stan na 30.12.2016r.).
34
236
3. Ciało jest podstawową „protezą” człowieka, ale wykorzystywane
jest w stopniu zbyt ograniczonym, stąd istnieje potrzeba i konieczność
poszerzania jego możliwości za pomocą różnorodnych protez (protetyzm).
4. Praktycznie cały sens ludzkiego życia należy odnaleźć i osadzić
w sferze świata cyfrowego.
5. Podważenie obowiązującego do tej pory antropocentryzmu kulturowego.
Ekstropianizm wskazuje na siedem fundamentalnych wartości: nieustanny postęp, samo-transformacja, praktyczny optyzmizm, inteligentna
technologia, otwarte społeczeństwo, samo-sterowanie, racjonalne myślenie39. Niektórzy potraktują to jako żart, ale jeden z przedstawicieli
transhumanizmu wystosował List do Matki Natury, w którym naturze
niejako należy już „podziękować” i zastąpić ją o wiele doskonalszą
techniką, którą stworzy człowiek40.
Transhumanizm poszukuje zbawienia człowieka – w pierwszym
etapie – za pomocą różnego rodzaju technologii, które mają przynieść
maksymalnie długą młodość, życie w pełnej sprawności fizycznej
i umysłowej, coraz dalej idącą cyborgizację itp. Na przykład Kurzweil,
jeden z „guru” transhumanstów, zażywa ok. 250 suplementów diety
dziennie oraz kilka razy w tygodniu pobiera dożylnie substancje odżywcze. Jego wiek biologiczny (przy 58 latach) oblicza się na ok 40
lat41. „Zbawienie” transhumanizm chce osiągnąć m.in. za pomocą technologii molekularnych, inżynierii genetycznej, sztucznej inteligencji,
stosowaniu substancji stymulujących zdrowie i samopoczucie czy pamięć, neurologicznych interfejsów, wszechobecność zminiaturyzowanych komputerów i wszelkiego rodzaju innowacji technicznych integrujących się z ciałem człowieka i modelujących życie społeczne
i wszelkiego rodzaju innowacji, które mają odmieniać ludzkie życie.
Sztuczna inteligencja ma mieć znaczenie decydujące, a sam człowiek
ma w zasadzie stać się istotą zupełnie zbędną42.
W tym kontekście widać wyraźnie, że kwestia wolności i godności
modelowana jest w zależności od przyjętych założeń na temat tego, kim
jest człowiek i czemu ma służyć technika, którą stworzył. Do tej pory
39
Por. http://www.extropy.org/principles.htm (stan.30.12.2016r.).
Por. www.sienko.net.pl/maxmore.html/ (stan na 30.12.2016r.).
41
R. Kurzweil, Nadchodzi osobliwość. Kiedy człowiek przekroczy granice
biologii, tłum. E. Chodkowska, A. Nowosielska, Kurhaus Publishing, Warszawa 2013, s. 208 – 209.
42
N. Bostrom, Superinteligencja. Scenariusze, strategie, zagrożenia, tłum. D.
Konowrocka – Sawa, Wydawnictwo Helion, Katowice 2016, s. 102 i n.
40
237
to człowiek sprawował kontrolę nad własnymi wytworami, tworząc je
i wykorzystując na zasadzie: „uczyń drugiemu to, czego sobie byś nie
uczynił”. Działo się to zwykle w imię jakichś ideologii, które były motorem inicjującym inwencję twórczą nazistów i innych. Sam humanizm, który miał chronić człowieka, okazuje się chronić tylko niektórych, którym z jakiegoś powodu przyznaje się wyższe prawa. Owym
powodem zwykle jest aktualnie uznawana za obowiązującą ideologia.
Fiasko humanizmu wydaje się dzisiaj dość oczywiste, co wydatnie
pokazał m.in. Andrzej Zybertowicz43. Na techno-humanizm można
również spojrzeć przez pryzmat projektów społecznych, które już budowano na bazie oświeceniowej, a które prowadziły do cierpień milionów ludzi. Sposób funkcjonowania techniki zależy w dużym stopniu od
wartości (lub antywartości) zawartych w procedurach i algorytmach.
Transhumanizm opiera się więc na założeniach Oświecenia.
Wspomniany Andrzej Zybertowicz wykazuje jednak coś znacznie więcej niż upadek idei laickiego humanizmu wypracowanego na bazie
silnej wiary w rozum44. Pomyłka polega na tym, że nie dostrzega się
syndromu ideologizacji i fetyszyzacji techniki, jej ubóstwienia, czynienia z niej narzędzia naprawy wszystkich problemów. Ponadto w perspektywie propozycji transhumanistów jeszcze w pierwszej połowie
XXI wieku człowiek zostanie właściwie ubezwłasnowolniony przez
sztuczną inteligencję, zmarginalizowany i uznany za niepotrzebnego45.
Nie jest jednak wcale pewne, czy faktycznie dojdzie do tego rodzaju
sytuacji; można równie dobrze przewidywać, że dzięki technice człowiek będzie niesiony jak na fali własnej kreatywności, eksplorując
wszechświat lub też zajmie się sferą rozwoju duchowego, przez co
technokratyczne założenia transhumanistów okażą się tylko wątłymi
scenariuszami46.
Transhumanizm przybiera też kształt neohumanizmu lub humanizmu technologicznego, gdzie tworzy się i chce realizować „zoptymalizowane” człowieczeństwo. Mówi się tutaj o pięciu podstawowych za-
A. Zybertowicz i in., Samobójstwo Oświecenia? Jak neuronauka i nowe
technologie pustoszą ludzki świat, Wydawnictwo Kasper, Kraków 2015.
44
Ibidem, szczególnie rozdział I Oświecenie – utopia, która działa, s. 29 – 58.
45
http://en.wikipedia.org/wiki/Predictions_made_by_Ray_Kurzweil (stan na
30.12.2016r.).
46
Sądzę, że – mimo całej rozległej wiedzy – takie, deterministyczne wręcz,
scenariusze przedstawione są we wspomnianej książce Bostroma, Superinteligencja.
43
238
sadach: duchowość, kultura, etyka, nauka i technologie47. Chodzi
o wypracowanie strategii stworzenia „nowej ludzkości”; szczególny
nacisk kładzie się na możliwość przeniesienia osobowości człowieka
do bardziej zaawansowanego (niż ludzkie ciało) biologicznego nosiciela, zmierzając w kierunku cybernetycznej nieśmiertelności48. Transhumanizm jest próbą przezwyciężenia nihilizmu, jaki zapanował
w kulturze Zachodu, gdzie życie zostało często zredukowane do bezmyślnej konsumpcji, nie dając nadziei i szansy na zmianę. Tak więc
transhumanizm po raz kolejny zamierza (przynajmniej w deklaracjach)
zaimplementować określone wartości, które nieświadomie przyjmowane są jako jedynie słuszne, bazując na przyjętej duchowości naznaczonej perspektywą technologicznej transcendencji. Zachodzi jednak wątpliwość czy nadmiar techno-manipulacji nie doprowadzi do ubezwłasnowolnienia człowieka, który zapomni o własnej godności i wolności.
Mimo swoich humanistycznych rysów, transhumanizm jest mocno
utopijnym podejściem i trzeba powiedzieć, że „przepowiednie” np.
Kurzweila nie sprawdzają się i dotyczą tylko niewielkiej części ludzkości. Ponadto transhumaniści zapominają często o faktach opisanych np.
w książce Marcina Popkiewicza49. Nie wiadomo, czy nawet gdyby
sztuczna inteligencja osiągnęła jakiś poziom świadomości oraz decyzyjności, to faktycznie byłaby zainteresowana zminimalizowaniem
eksploatacji człowieka i środowiska w zakresie produkcji i konsumpcji,
zmniejszeniem bezrobocia czy stworzeniem najlepszych warunków dla
dzieci do rozwoju w miłości. Jeśli była by obojętna na jakiekolwiek
ludzkie wartości, to należało by zapytać, czy entuzjaści lub zwolennicy
Singularity tak mocno znienawidzili własny gatunek, że pragną go
zniszczyć (włącznie z nimi samymi)?
Wydaje się, że w stosunku do techniki potrzebny jest zdrowy dystans i świadomość, że spełnia ona wyłącznie rolę pomocniczą, niezależnie od stopnia jej rozwoju.
47
www.2044.com/ideology/ (stan na 28.30.2016r.) Autorem projektu jest D.
Itskov, Rosjanin, który inicjatywę 2045 rozpoczął w 2011 r.
48
Co roku odbywa się kongres o nazwie „The Global Future 2045”. Ostatni
odbył się w dniach 15-16 czerwca 2013r. w Nowym Jorku. www.2045.com
(stan na 03.01.2017).
49
M. Popkiewicz, Świat na rozdrożu, Wydawnictywo Sonia Draga, Katowice
2013.
239
7. Zakończenie
W obliczu wieloaspektowego kryzysu, jaki pojawił się we współczesnym świecie, nie wydaje się, aby optymistyczne przewidywania
transhumanistów sprawdziły się nawet w bieżącym stuleciu. Nie
uwzględniają oni w swoich przewidywaniach, które tak lubią, czynników destrukcyjnych w obszarze wyborów i decyzji ludzkich kierowanych potencjałem proponowanym przez technologie. Nie uwzględniają
też takich scenariuszy, które nam powiedzą, że do niczego takiego jak
„zmiana gatunkowa” nie dojdzie i żadne urządzenia czy nawet maszyny
biologiczne nie zastąpią człowieka, ponieważ – nawet jeśli uzyskałyby
jakąś formę świadomości – będą one zainteresowane zupełnie czym
innym niż człowiek, czego ludzie praktycznie nie są w stanie sobie
wyobrazić. Sądzę, że przestrzeń życiowa sztucznej inteligencji będzie
zupełnie odmienna od przestrzeni życiowej człowieka, dlatego też do
żadnego konfliktu lub dominacji nie dojdzie, a człowiek otrzyma możliwość i szansę szybszego rozwoju dzięki uwolnieniu się od znoju monotonnej i szkodliwej pracy.
Sądzę jednak, że równie prawdopodobny jest ostrożnie optymistyczny scenariusz. Rozwój technologiczny wcale nie musi doprowadzić do degradacji człowieka, ale, co najwyżej, do przemian w sposobie
jego funkcjonowania, co jak najbardziej może być pomocne w zakresie
rozwoju kreatywności i duchowości – czyli cech głęboko ludzkich,
które – jak można uważać – wydają się być powszechne.
Grzegorz Dziobak
Uniwersytet Rzeszowski
LEWISA MUMFORDA GLORYFIKACJA JĘZYKA I
DEPRECJACJA TECHNIKI A JĘZYK JAKO PRÓBA
DOMINACJI GOOGLE NAD ŚWIATEM
Lewis Mumford, ceniony urbanista i krytyk amerykańskiej architektury, a także historyk cywilizacji, napisał obszerne dzieło zatytułowane
Technika a cywilizacja, które ujrzało światło dzienne w 1934 roku.
Opisał w nim destrukcyjny wpływ maszyny na ludzi. Zdaniem Mumforda, to wynalazki wyznaczały fazy ewolucji maszyny: eotechniczną,
paleotechniczną i neotechniczną1; tej samej maszyny, której celem było
– w zasadzie już od samego początku – wyeliminowanie żywych organizmów. Drogi ludzkiej wynalazczości pojmował myśliciel jako historie błędnych, pozornych triumfów2. Ludzkość w swym zachłannym
dążeniu do wynalezienia czegoś nowego przypominała dzieci, które za
wszelką cenę chcą nowej, nieprzemyślanej zabawki3. I choć postęp
techniczny niewątpliwie się dokonywał, to nie był on aż tak wielki, jak
powszechnie mniemano, a, same z siebie, zdobycze techniczne nie były
w stanie przynieść społeczeństwu korzyści4 – potrzeba było do tego
czegoś więcej, społecznej adaptacji wspartej przez inwencję polityczną5. Cechą charakterystyczną maszyny opisywanej w książce Technika
a cywilizacja było współtowarzyszące jej narodzinom pojawienie się
L. Mumford, Technika a cywilizacja. Historia rozwoju maszyny i jej wpływ
na cywilizację, przeł. E. Danecka, Państwowe Wydawnictwo Naukowe, Warszawa 1966, s. 90.
2
Ibidem, s. 39.
3
Mumford porównywał potrzebę wynalazczości do dziecięcej radości. Ibidem, s. 39.
4
Aż chciałoby się zacytować J. J. Rousseau: „Usuńcie ten nieszczęsny postęp,
zabierzcie nasze błędy i nałogi, zabierzcie wytwory cywilizacji, a wszystko
będzie dobre!”. J. J. Rousseau, Emil, czyli o wychowaniu. II, Zakład Imienia
Ossolińskich, Wydawnictwo Polskiej Akademii Nauk, Wrocław 1955,
s. 111. Warto też odnotować to, co o Rousseau pisał Mumford m.in. w rozdziale pt. Powrót do natury. L. Mumford, Technika a cywilizacja…, s. 255259.
5
L. Mumford, Technika a cywilizacja…, s. 183.
1
242
nowej władzy. Poprzez zdobycie kontroli nad maszyną, władza z rąk
ugrupowań militarnych przeszła do nowej klasy panujących: do kapitalistów6. Maszyna, zamiast służyć życiu, poddawała je coraz bardziej
restrykcyjnym próbom i coraz śmielej sprzeciwiała się humanistycznym wartościom. W takiej sytuacji pozostawał myślicielowi tylko rozpaczliwy apel o udoskonalanie społecznej działalności i społecznej
kontroli nad techniką, zgodnie z zasadami szeroko pojmowanego humanizmu7.
Podczas gdy w klasycznym już dziś dziele Mumforda z 1934 r.
„maszyna” lub „mechanizm” były rozumiane tradycyjnie jako konkretne obiekty, typu prasa drukarska czy warsztat tkacki (ale także jako
cały układ technologiczny, w skład którego wchodzi wiedza, biegłość,
kunszt ludzki oraz narzędzia, przyrządy, aparatura, urządzenia i maszyny we właściwym tego słowa znaczeniu)8, to już w kolejnym obszernym dziele badacza techniki, Micie maszyny z lat 1967-70 (tom I i II),
pojęcie „maszyna” zostaje rozszerzona do „megamaszyny”, w której
skład wchodzą części także złożone z ludzi 9. Taka śmiała reinterpretacja pojęcia maszyny pozwoliła Mumfordowi odnaleźć początki dehumanizującej postaci maszyny już w starożytnym Egipcie czy Mezopotamii, kiedy to władca utożsamiany z bogiem-słońcem, wespół z kastą
kapłanów, zdobyli władzę nad ludźmi10.
Przyjrzyjmy się jednak Mumfordowskiej interpretacji czasów nam
bliższych. Schemat mitu megamaszyny – zdaniem amerykańskiego
myśliciela – powtarzał się poprzez dzieje, a jej symboliczna moc wciąż
wzrastała. Nieograniczona władza rządzących, wparta przez silne struktury instytucjonalizmu, doprowadziła do ogromnego sukcesu megama6
Ibidem, s. 244.
Ibidem, s. 317.
8
Por. pełną definicję „maszyny”. Ibidem, s. 3-4.
9
Mumford „megamaszynę” definiuje jako system instytucjonalnych środków
nadzoru i przymusu fizycznego + ideologię (kult boskiej władzy króla + mit
maszyny). Poza tą nazwą, wyróżnia nazwy szczegółowe, jak „maszyna niewidzialna” (biurokracja, maszyna komunikacyjna), „społeczna maszyna robocza”, „społeczna maszyna wojskowa”, „megatechnika” (wyposażenie techniczne powstałe dzięki megamaszynie). Przyjęcie definicji maszyny,
w skład której wchodzą ludzie stało się możliwe po powołaniu się na tradycję
definicji maszyny Franza Reuleauxa jako „działające pod nadzorem człowieka,
przetwarzające energię i wykonujące pracę połączenie trwałych, wyspecjalizowanych funkcjonalnie części”. L. Mumford, Mit maszyny, tom I, przeł.
M. Szczubiałka, Wydawnictwo Naukowe PWN, Warszawa 2012, s. 250, 276277 oraz s. 280, 294.
10
Zob. L. Mumford, Mit maszyny, tom I, s. 261.
7
243
szyny11. Zarażony benedyktyńską pracowitością, kapitalizm stworzył
niespotykaną wcześniej społeczną dyscyplinę. Utworzono nową racjonalność gospodarowania, dla której liczył się rachunek ilościowy, ścisły
reżim czasowy i abstrakcyjne korzyści materialne12. Za źródło sensu
człowieka uznano masowe wytwarzanie i ustawiczne ulepszanie maszyn13.
Jeszcze ciekawsze rozwinięcie tych idei odnajdujemy w drugim tomie Mitu maszyny. Potęga megamaszyny, dotychczas opisywana jako
mit maszyny – zdaniem Mumforda – wykrystalizowała się w nowy
kompleks władzy o zasięgu globalnym. Jest doskonalsza, o wiele bardziej skuteczna i totalna w mocy destrukcyjnej od wszystkiego z czym
wcześniej miała do czynienia ludzkość. Pięcioramienna figura składa
się teraz z władzy (power), własności (property), zdolności wytwórczej
(productivity), zysku (profit) i rozgłosu (publicity)14. Te podstawowe
determinanty ludzkich zachowań i formy kształtowania się organizacji
wprowadzają wszystkich w metaforyczny taniec, zataczający coraz
śmielsze figury w kierunku śmierci, o czym mogą świadczyć zmarnowane bogactwa, degradacja środowiska naturalnego, rozrastające się
slumsy czy wreszcie replikacja kolejnych pokoleń ludzi żyjących
w poniżeniu i beznadziei15. System władzy wchłania wszelkie instytucje, które kiedyś uważane były za ostoję wolności i niezależności –
także uniwersytet16. Pojedynczy człowiek staje naprzeciw niewyobrażalnie ścisłej konsolidacji władzy, której złowieszczym symbolem jest
władza sprawowana przez rządy kilku supermocarstw oraz setek superkorporacji17.
Czy wobec tak silnie zniewalających mechanizacyjnych procesów
istnieje w człowieku choć jeden, zdolny się im przeciwstawić czynnik?
Choć sformułowana przez Mumforda ocena dominujących prądów
11
Zob. L. Mumford, Mit maszyny, tom I, s. 372.
Na temat trzech głównych kapitalistycznych zasad gospodarowania por.
L. Mumford, Mit maszyny, tom I, s. 404.
13
Ibidem, s. 424.
14
Więcej na temat pentagonu władzy zob. L. Mumford, Mit maszyny, tom II,
przeł. M. Szczubiałka, Wydawnictwo Naukowe PWN, Warszawa 2014, s. 254
i nast.
15
Na temat pesymistycznej oceny współczesnego świata zob. ibidem, s. 260 i
nast.
16
Analiza Mumforda dotyczy uniwersytetu w Stanach Zjednoczonych. Por.
ibidem, s. 278.
17
Dzieło Mit maszyny Mumforda powstawało w czasach zimnowojennych,
stąd wymienia jako dwie megamaszyny Stany Zjednoczone Ameryki Północnej i Związek Radziecki.
12
244
kulturowych z czasem stała się jeszcze bardziej pesymistyczna, to nie
jest ona jednak pozbawiona nutki nadziei. By ją odnaleźć, musimy się
cofnąć do jego interpretacji rozwoju człowieka pierwotnego, które rozpoczynają pierwszy tom Mitu maszyny. Jako antropolog, Mumford
walczy z tezą o znaczącej roli umiejętności wytwarzania narzędzi
i dominowaniu materialnych środków produkcji nad pozostałymi formami działalności człowieka18. To język był najważniejszym, obok
rytuału i organizacji społecznej, artefaktem człowieka. To symbole, a
nie narzędzia, pozwoliły człowiekowi na wyzwolenie się ze stanu zwierzęcego. Tym, co miało decydujący wpływ na rozwój człowieka, było
poszerzanie świata symbolicznego. To dzięki słowom i symbolom,
a także rytuałom, obrazom i obyczajom, człowiek pierwotny zdobył
władzę nad samym sobą, ratując się przed przedwczesnym unicestwieniem, które groziło mu ze źródła własnej nieświadomości. Język był
i jest nadal najdoskonalszym narzędziem do ujmowania całości ludzkiego doświadczenia. Najwyższym cudem życia nazywa Mumford
światło świadomości, a pismo traktuje jako kolejny zabieg jej poszerzenia19. Język wreszcie, jako odradzający się w lokalnych postaciach
w kontrze do sztucznie stworzonego języka światowego, jest skutecznym sposobem samoobrony przed postępującą cywilizacją maszynową20. Mumford jako przeciwwagę dla maszyny stawia przyrodę i nadaje jej cały wachlarz pozytywnych znaczeń. To od niej pochodzi zaszczepiony człowiekowi niewyczerpalny wzorzec kreatywności, to ona
daje asumpt do kształtowania się milionów gatunków oraz znajduje
kolejne ujście w bogactwie ludzkiej kultury21. To przyroda ma przewagę nad techniką, nie tylko przewagę ilościową, ale jakościową. W opinii autora Mitu maszyny, choć komputery będą niwelować przewagę
ilościową, to w przypadku jakości (zapach, smak, uczucia, barwa czy
erotyka) urządzenia mechaniczne będą bezsilne22. Wszystko uwidacznia się w przewadze języka nad abstrakcjami, którymi posługują się
maszyny. Język jest subiektywny, niesprecyzowany, mglisty, nieokreślony, wieloznaczny, przesiąknięty uczuciami, odnosi się do rzeczy,
które nie sposób zobaczyć czy zweryfikować. Jak podkreśla amerykański badacz, żaden system mechaniczny nie pojmuje znaczenia, a żadne,
18
Zob. L. Mumford, Mit maszyny, tom I, s. 29.
Na temat roli języka i pisma zob. ibidem, s. 29-56.
20
Obok języków lokalnych Mumford wymienia literaturę i intensyfikację
życia regionalnego – to te czynniki stanowią samoobronę przez zimną cywilizacją maszyny. L. Mumford, Technika a cywilizacja, s. 255.
21
Więcej w: L. Mumford, Mit maszyny, tom I, s. 61-62.
22
O różnicy pomiędzy ludzkim mózgiem a komputerem por. ibidem, s. 65.
19
245
choćby najbardziej zaawansowane urządzenie techniczne, nie dorównuje najbardziej prymitywnemu językowi. Język bowiem ma w sobie
wszystkie atrybuty współczesnej badaczowi technologii i bardziej
przypomina strukturę biologiczną, komórki organizmu, aniżeli sztywną
strukturę języka maszyny. Język wreszcie nigdy nie był poddany żadnemu scentralizowanemu systemowi nadzoru, dzięki multiplikacji różnorodności, hołubieniu indywidualności i dążeniu do autonomii23.
Do czasu. W 1998 roku, a więc 8 lat po śmierci Mumforda, została
zarejestrowana firma, która – nie mieszcząc się już w murach (czy też
może raczej… w łączach) Uniwersytetu Stanforda – postanowiła zrewolucjonizować świat. Tym, co wyróżniało ją od wielu innych technologicznych start-upów, jakie rodziły się wówczas, zachęcane do wzrostu entuzjazmem młodych inżynierów i pielęgnowane kalifornijskim
słońcem, było to, że jako produkt po prostu działała. Była lepsza od
wszystkiego, co dotąd funkcjonowało na rynku. Zawstydzała najlepszą
dotychczas wyszukiwarkę Alta Vistę z prostego powodu – jej wyniki
wyszukiwania były trafne. Pomysł Larry'ego Page’a, by ściągnąć na
swój komputer całą zawartość Internetu24, choć z początku wydawał się
kuriozalny, zaczynał się realizować z pomocą zwykłych PC-tów. Genialni młodzi naukowcy, Larry Page i Sergey Brin, z uporem maniaków
podłączali do siebie kolejne, z trudem zdobyte, zdezelowane uniwersyteckie komputery, i w ten sposób zwiększali moc obliczeniową, tworząc podwaliny pod największy komputer świata25. I choć z początku
wielcy biznesu nie poznali się na dokonywanym właśnie przełomie,
bowiem propozycję kupna Google odrzucili i właściciele Alta Visty,
Excite i innych wyszukiwarek26, to wkrótce do firmy zaczęły napływać
pierwsze poważne pieniądze inwestorów: najpierw 100 tys. dol. od
Na temat języka por. ibidem, s. 122-148.
Jak powiedział o sobie Larry Page, współzałożyciel Google, w czasach, gdy
jeszcze był doktorantem na Stanfordzie: „Miałem taki szalony pomysł, że
ściągnę na swój komputer całą zawartość Internetu”. D. A. Vise, M. Malseed,
Google Story. Opowieść o firmie, która zmieniła świat, przeł. J. Urban, Wydawnictwo Dolnośląskie, s. 17.
25
Nicholas Carr, amerykański ekspert ds. technologii i autor książek, wyraził
się na ten temat tak: „W zasadzie Google buduje największy komputer świata”. L. Reppesgaard, Imperium Google, przeł. P. Sadurska, Wydawnictwo
BC.edu, Warszawa 2009, s. 17.
26
Na temat oferty sprzedaży przez Uniwersytet Stanforda systemu Google za 1
mln dol. i przyczyn odrzucenia kupna Google przez właścicieli występujących
na rynku wyszukiwarek zob. D. A. Vise, M. Malseed, Google Story, s. 9, 5153.
23
24
246
angel investor27, później kolejne, większe już kwoty od inwestorów
indywidualnych, następnie równowartość 25 mln. dol. od dwóch największych w Kalifornii firm inwestycyjnych typu venture capital, Kleiner Parkins i Sequola Capital28 – to wystarczyło, by firma złapała wiatr
w żagle i nadążała za dynamicznym wzrostem samego Internetu29. Potwierdzeniem spektakularnego sukcesu Google był udany debiut na
giełdzie NASDAQ i coraz wyższa cena za akcję, która poszybowała od
55 dol. w 2004 roku do ponad 800 dol. obecnie (Spółka Alphabet)30.
Gdy Mumford zatrzymał się na tezie o indywidualności i nienaruszalności języka przez maszynę, nie zdawał sobie jeszcze sprawy, że
zaledwie ćwierć wieku później do gry o ludzkie umysły wejdą jej bardzo specyficzne odmiany. Wyszukiwarka w języku angielskim to „search engine”, a więc silnik czy maszyna wyszukiwawcza31. Wraz ze
wzrostem Internetu, powstawał coraz większy chaos informacyjny
i narastały trudności ze znalezieniem wartościowych informacji. Ewolucja komputerów w kierunku urządzeń osobistych stworzyła aurę anonimowości działań, wspartych przez zacisze domowego kąta. Intymne
wyszukiwanie przywodzi na myśl zjawisko spowiedzi w kościołach
chrześcijańskich. I tam, i tu otrzymujemy obietnicę uczestniczenia
w Absolucie, Bogu lub Wielkiej Bazie Danych (Big Data), łączymy się
z Mądrością w izolacji od innych, niewtajemniczonych, a odpowiedź
otrzymujemy niemal natychmiast: satysfakcjonujące wymazanie grzechów lub odpowiednią informację32. Tak jak np. Kościół katolicki
27
Mowa o Andym Bechtolsheimie, informatyku, inwestorze z Cisco System,
współzałożycielu Sun Microsystems, który końcem sierpnia 1998 roku zainwestował w młode, ryzykowne przedsięwzięcie 100 tys. dol. Por. D. A. Vise,
M. Malseed, Google Story, s. 56-59.
28
Więcej na temat pertraktacji z firmami inwestycyjnymi wysokiego ryzyka
por. D. A. Vise, M. Malseed, Google Story, s. 81-83.
29
Na temat skalowalności systemu Google zob. R. Stross, Planeta Google,
przeł. A. Wojtaszczyk, O. Wojtaszczyk, Wydawnictwo Studio EMKA, Warszawa 2009, s. 66.
30
Dane na podstawie wyszukiwarki Google z dn. 5.09.2016. Warto tu wspomnieć o planach ówczesnego dyrektora generalnego Google (obecnie prezesa
zarządu) Erica Schmidta, który w 2006 roku stwierdził o modelu strategicznym firmy, że jest „stworzony, by się rozrastać, nie znając granic. Dziś nie
widzimy żadnych ograniczeń dla tego modelu ciągłego rozwoju”. R. Stross,
Planeta Google, s. 23.
31
Por. przypis w książce D. A. Vise, M. Malseed, Google Story, s. 316.
32
Sam zresztą Sergey Brin w 2002 roku porównał idealną wyszukiwarkę do
Ducha Bożego, bo dokładnie wiedziałaby to, czego chcesz. L. Reppesgaard,
Imperium Google, s. 45.
247
otrzymywał dostęp do umysłów ludzi w sakramencie spowiedzi, tak
teraz wyszukiwarki, z Google na czele, mają dostęp do umysłów ludzi
współczesnych33. Za pomocą wpisywanych w okno wyszukiwarki
Google fraz, ludzie z całego świata – bez względu na narodowość,
wiek, wyznanie, status społeczny – przekazują całe bogactwo myśli34,
języków, pragnień i oczekiwań w jedno miejsce35. Każdy ich ruch jest
zapisywany, każde słowo utrwalane. Ambitna misja korporacji z Mountain View, wyrażona w formule „uporządkowanie światowych zasobów
informacji, tak by stały się powszechnie dostępne i użyteczne”36, nie
zawiera, jednego acz istotnego, dopowiedzenia – że najważniejszą informacją jest każdy z nas, a użyteczność z nich czerpią zazwyczaj prywatne przedsiębiorstwa w lepszym „targetowaniu” reklam. Dzięki sysZdaniem Marshalla McLuhana, przez urządzenia elektrotechniczne, zwłaszcza komputer, został przedłużony nasz ośrodkowy układ nerwowy, tak jak
wcześniej mechanizacja przedłużyła nasze ciało. Człowiek w wizji McLuhana
podlega aż tak wielkiej konsolidacji z maszynami (stając się „serwomechanizmem”), że traktowany jest jako ich organ płciowy. Ten znany na świecie
teoretyk mediów widział w nich środki kontroli i władzy, odpowiednio klasyfikując jako „gorące” i „zimne” środki przekazu. Z kolei za najwyższy cel
elektroniki uznał oddziaływanie na świadomość zbiorową. Por. M. McLuhan,
Zrozumieć media. Przedłużenia człowieka, przeł. N. Szczucka, Wydawnictwo
Naukowo-Techniczne, s. 33, 58, 86, 298, 461.
34
Jak wyraził to sugestywnie John Battelle, współzałożyciel prestiżowego
magazynu „Wired”, traktującego o wpływie na inne dziedziny życia nowych
technologii, relacjonując swoje wrażenia z roku 2001 na temat początku rozwoju Google: „Byłem w szoku. Zeitgeist ukazał mi, że Google nie tylko trzyma rękę na pulsie kultury, ale tkwi bezpośrednio w jej systemie nerwowym.
(…) Dobry Boże, pomyślałem sobie, Google wie, czego szukają ludzie!”. J.
Battelle, Szukaj. Jak Google i konkurencja wywołali biznesową i kulturową
rewolucję, przeł. M. Baranowski, Wydawnictwo Naukowe PWN, Warszawa
2006, s. 8.
35
Nie należy tego, oczywiście, traktować dosłownie. Google nie podaje do
publicznej wiadomości informacji na temat tego, ile posiada centrów komputerowych, którymi zarządzają jego firmy córki, jak Exaflop LLC. Liczba centrów, a tym samym komputerów uszeregowanych w tzw. klastrach (inaczej
zwanych węzłami) cały czas rośnie. Pewne jest to, że w samych USA centra
komputerowe Google pożerają więcej prądu, niż wszystkie znajdujące się tam
telewizory razem wzięte. Por. L. Reppesgaard, Imperium Google, s. 73-81.
36
Misja firmy wyrażona na stronie: https://www.google.pl/about/company/
(data dostępu: 06.09.2016). O kulturze pracowników Google, dla których
oczywistym jest to, że powinno się zindeksować i udostępnić szerokiemu
gronu odbiorców wszystkie informacje na świecie zob. L. Reppesgaard, Imperium Google, s. 44.
33
248
temowi reklamowemu AdWords udało się nadać firmie bardzo zyskowny model biznesowy, który uratował ją przed szybkim upadkiem.
I choć, jako prywatna firma, ma prawo dążyć – zgodnie z doktryną
kapitalizmu – do jak największych zysków, to już sama forma osiągania profitów może być poddawana pod publiczną dyskusję37.
Google, niczym gigantyczny odkurzacz, wchłania coraz więcej
świata38 i „udostępnia” go na własnych warunkach. Z żelaznej konsekwencją działa zgodnie z zasadą: „więcej danych to lepsze dane”39.
Zasysając miliardy stron WWW i zapisując je na własnych dyskach,
zmienił wolny, spontaniczny obraz Internetu w konkurs stron, które
będą spełniać jego kryteria40. Łącząc ze sobą satelitarne i fotogrametryczne obrazy kawałków ziemi, utworzył obraz całej planety w usłudze Google Maps, odciskając zarazem na nim swoje piętno. To nie jest
świat, w którym wyróżnia się warte uwagi obiekty, ale świat, na którym
widnieją firmy, które wcześniej za to zapłaciły. Usługa Google Street
View pozwoliła niemal każdemu zajrzeć w okiennice naszych domów,
wkraczając na coraz intymniejsze warstwy prywatności41. Zabierając
się za digitalizację milionów książek z prestiżowych amerykańskich
uczelni, wszedł w konflikt z właścicielami praw autorskich, a także
obudził obawy, że będzie kształtować świadomość następnych pokoleń
Mam tu na myśli liczne kontrowersje, które co jakiś czas pojawiały się wraz
z uświadamianiem sobie przez użytkowników Google, że firma coraz bardziej
wkracza w ich prywatność. Przykładem mogą być nieprzychylne reakcje opinii
publicznej w USA po wprowadzeniu usługi poczty elektronicznej Gmail,
w której pojawiały się reklamy ściśle związane z treścią prywatnej korespondencji. Więcej na ten temat w D. A. Vise, M. Malseed, Google Story, s. 179199. Warto także zaznaczyć, że Google tak bardzo zależało na archiwizowaniu
wiadomości przez użytkowników Gmail, że na początku usługi aż przez dwa
lata nie było opcji „usuń wiadomość”; w końcu jednak, po protestach użytkowników, ten przycisk dodano. Zob. R. Stross, Planeta Google, s. 213-214.
38
O przenoszeniu świata do pamięci komputera, a następnie przenoszeniu do
komputera naszej świadomości zob. M. McLuhan, Zrozumieć media, s. 103105.
39
Jest to ponoć ulubione powiedzonko inżynierów Google. Zob. R. Stross,
Planeta Google, s. 27. To samo zauważa Randall Stross. Im więcej informacji
– sądzi Stross – zostanie wprowadzonych do wyszukiwarki, tym będzie ona
mądrzejsza. Por. R. Stross, Planeta Google, s. 66.
40
O nowej ekologii Internetu przeczytaj w: J. Battelle, Szukaj, s. 65.
41
Więcej na temat kontrowersji wokół usługi Street View zob. L. Reppesgaard, Imperium Google, s. 147.
37
249
w oparciu o wybrane przez siebie, anglojęzyczne książki42. Przejmując
YouTube
i zachęcając użytkowników do zapisu i udostępniania na filmie swojego
życia, wkroczył do domów wielu z nas43, którym do głowy by nie przyszło, że są dostarczycielami ogromnej ilości informacji, które w przyszłości zostaną poddane bardzo dokładnej analizie.
Głównym problemem Google jest to, że ma zbyt dużo informacji,
których nie jest jeszcze w stanie adekwatnie zinterpretować i usystematyzować44. Cały system, choć w miarę dobrze sobie radzi, dzięki matematycznej analizie z krótkimi frazami wpisywanymi przez użytkowników, wciąż ma problem ze zrozumieniem sensu wypowiedzi i odgadnięciem jej kontekstu. Choć wkroczył na pole odgadywania intencji
wyszukującego, jak choćby w podpowiedziach typu: „czy chodziło Ci
o...?”, to interpretacja emocji (stąd zachęta do używania emotikonów),
obrazów czy filmów45 (co jest na zdjęciu czy filmie?), a także tłumaczenia z języka na język, pozostawiają jeszcze wiele do życzenia 46.
Jednak to może się zmienić. Zaawansowane badania nad sztuczną inteligencją47 prawdopodobnie doprowadzą do sytuacji, kiedy wszelkie
zmagazynowane zasoby danych będzie można właściwie interpretować
za pomocą maszyn, a wtedy obudzimy się w świecie, w którym naszym
nowym przewodnikiem będzie wyszukiwarka. Google to uśpiony
Na temat kontrowersji wokół przeprowadzania projektu Google Books zob.
D. A. Vise, M. Malseed, Google Story, s. 280-293. Znamienna jest zwłaszcza
reakcja Jeana-Noëla Jeanneney'a, dyrektora Bibliothèque Nationale, który
w „Le Monde” tak wyraził swoje obawy: „Nie chcę, żeby o rewolucji francuskiej uczono się ze źródeł wybranych wyłącznie przez Amerykanów”. Ibidem.
43
YouTube to portal, zdaniem Larsa Reppesgaarda, który na nowo określa
granice między tym, co prywatne, a tym, co publiczne. L. Reppesgaard, Imperium Google, s. 19.
44
Jak podaje Lars Reppesgaard, trwają w Google prace nad wyszukiwaniem
semantycznym. L. Reppesgaard, Imperium Google, s. 215.
45
Randall Stross nazwał identyfikację video jednym z najtrudniejszych problemów w informatyce. R. Stross, Planeta Google, s. 247. Lars Reppesgaard
wyraził to prościej: „roboty indeksujące (...) nie rozumieją filmów”.
L. Reppesgaard, Imperium Google, s. 85.
46
Na temat historii automatycznego tłumaczenia zob. R. Stross, Planeta Google, s. 109 i n. Członek zespołu Google, który zajmuje się tłumaczeniem automatycznym, określił język jako jedno z największych wyzwań w ulepszaniu
wyszukiwarki. Por. L. Reppesgaard, Imperium Google, s. 122.
47
O znaczeniu wyszukiwania dla badań nad sztuczną inteligencją zob. w:
J. Battelle, Szukaj, s. 12, 18. Także D. A. Vise, M. Malseed, Google Story,
s. 343.
42
250
Wielki Brat48, lecz kiedy się przebudzi, wszelkie poprzednie Orwellowskie przestrogi wydadzą się śmieszne, a może niepotrzebne – będziemy
szczęśliwi, wiedząc, co robić, myśleć, pragnąć49, a przestarzały impuls
elektryczny układu nerwowego żywego organizmu zostanie zastąpiony
przez mały, szary komunikat, podający te kilka milisekund, jakie dzieliły nas od otrzymania pierwszej na liście wyników, jedynie słusznej
odpowiedzi50.
Jedna z osób kierownictwa Google skomentowała obawy J. Battelle'a nt.
wprowadzenia ustawy USA PATRIOT, która po atakach terrorystycznych na
WTC rozszerzała uprawnienia inwigilacyjne władz USA: „Niewiele już trzeba,
aby postrzegano nas jako Wielkiego Brata”. J. Battelle, Szukaj, s. 17. Jako
ciekawostkę dodam za Randallem Strossem, że w 2003 roku Google został
nominowany przez Privacy International do nagrody „U.S. Big Brother
Award”. Zob. R. Stross, Planeta Google, s. 136.
49
W 2007 roku w Londynie na pytanie o to, jak Google może wyglądać za
pięć lat, Eric Schmidt odpowiedział, że ostatecznym celem jest dostarczenie
softwarowi Google'a takiej ilości danych osobistych na temat każdego z odwiedzających, by ten mógł odpowiedzieć na takie pytania, jak: „Co mam robić
jutro?” czy „Jaki zawód powinienem wybrać?”. R. Stross, Planeta Google,
s. 28. Już teraz urzędnicy ds. ochrony danych uważają, że Google dysponuje
największym zasobem prywatnych danych na świecie. L. Reppesgaard, Planeta Google, s. 25. Innym razem Sergey Brin podał w oświadczeniu firmowym
z czerwca 1999 roku, że: „Idealna wyszukiwarka będzie przetwarzać i rozumieć wszystkie informacje na świecie. To jest właśnie kierunek rozwoju Google”. L. Reppesgaard, Imperium Google, s. 45. O zagrożeniach związanych z
posiadaniem przez Google ogromnej ilości danych zob. Ibidem, s. 209 i nast.
50
Jak obrazowo podsumował dążenia Google Sergey Brin: „Dlaczego nie
mielibyśmy ulepszyć naszymi technologiami ludzkiego mózgu? Być może za
kilkanaście lat będziemy mogli podłączać sobie Google do głowy i każda
potrzebna nam informacja po prostu nam się »przypomni«. Dla mnie to niezwykle ekscytująca wizja”. D. A. Vise, M. Malseed, Google Story, s. 356.
48
Sebastian Dama
Gdańska Szkoła Wyższa
Τέχνη JAKO WYRAZ SYMBIOTYCZNEGO BRAKU
W HUMANIZMIE NA PODSTAWIE DZIEJÓW KULTURY ZACHODNIOEUROPEJSKIEJ
Na początku tworzenia się kultury zachodnioeuropejskiej stał mit1.
Powstała później nauka obejmowała całość społecznego bytu i nie była
podzielona na szczegółowe części. Filozofia (jak i jej późniejsze dziedziny) stanowiła całość2. Wiedza zajmująca się przyrodą oraz człowiekiem uzupełniały się. Konstytuował je starożytny grecki duch. Aczkolwiek wcześniej również można było dostrzec jedność techniki oraz
sfery ducha człowieka. Jak to zauważył A. J. Karpiński, zadziwia „wysiłek starożytnych Egipcjan wznoszących piramidy w imię wieczności. Oni chyba lepiej znali tajemnicę życia. Ich piramidy demaskują
nasz „materializm ekonomiczny” i wspierane przez niego abstrakcje”3.
Na tej podstawie można wnioskować, że nauka w owym czasie nie
posiadała tak abstrakcyjnej formy, jaką ma współcześnie. Wiedza łączyła się z tym, co doczesne, była blisko praktyki społecznej, ale również nie odbiegała od teorii, dlatego nie była doświadczeniem4 znanym
z empirystycznych teorii. Tym samym nie posiadała specyfiki ἐπιστήμη
(w rozumieniu Platona — S.D.), ale była czymś pomiędzy teorią i praktyką (obecnie rozumianą przez pryzmat pragmatyzmu)5. Stąd ta ostatnia
Zob. W. Jaeger, Paiedeia. Formowanie człowieka greckiego, przeł. M. Plezia
i H. Bednarek, Fundacja ALETHEIA, Warszawa 2001, s. 229.
2
Ks. G. J. Zakrzewski, Filozofia antyczna w pierwotnym chrześcijaństwie.
O recepcji filozofii antycznej w pismach Ojców Kościoła według Dariusza
Karłowicza, Wyd. NATAN, Lublin 2013, s. 24–25.
3
Zob. A. J. Karpiński, Arystokratyczny socjalizm Platona. Nierówność jedności
ludzkiej równości w ujęciu M. Bierdiajewa, „Zeszyty Naukowe Gdańskiej
Szkoły Wyższej”, T.16, Gdańsk 2016, s. 117.
4
Zob. W. Jaeger, Paiedeia…, s. 689.
5
Słowo pragmatyzm wg W. Jamesa ma pochodzić od greckiego słowa πράγμα
i oznaczać „czynność” (zob. Pragmatyzm. Popularne wykłady z zakresu filozofii, przeł. W.M. Kozłowski, Książka i Wiedza 1957, s. 24). Jednak słownikowo oznacza ono: czyn, sprawę, zdarzenie, układ zdarzeń, czyli nie to, co suge1
252
bliska była wiedzy, którą Arystoteles określał mianem φρόνησις.
A zatem τέχνη nie posiadała znamion wiedzy, którą zdobywało się
tylko poprzez kształcenie, ale także poprzez wychowanie6. W. Jaeger
pisze:
Wychowanie jako funkcja ludzkiej społeczności jest czymś tak powszechnym, naturalnym i koniecznym […] jego treść jest u wszystkich ludów
mniej więcej taka sama, moralna i praktyczna zarazem; także i u Greków
nie ma ona innego charakteru. Z jednej strony przybiera postać przykazań
[…] z drugiej zaś wyraża się w przepisach zewnętrznej obyczajności
i praktycznych wskazówkach roztropności życiowej, przez wieki całe podawanych sobie z ust do ust — albo też w tradycji fachowych umiejętności
i sprawności, których zawartość, jeśli można przekazać ją komuś drugiemu, Grecy oznaczali słowem techne7.
Jak przedstawia amerykański badacz, ten ostatni typ wiedzy przyjmował formy:
a) zawodu praktycznego (malarstwo, architektura, rzeźbiarstwo, ale
również sztuka lekarska, wojskowa, czy sterowania okrętem)8, b) umiejętności (praktycznej, czyli służącej pewnym praktycznym celom).
Τέχνη, jak przedstawiała to myśl starogrecka, było odwzorowaniem
natury. Mimetycznym dziełem człowieka względem otaczającej go
rzeczywistości, którą racjonalnie ujmował w postaci abstrakcji:
ruje amerykański filozof (zob. Słownik terminów arystotelesowych, [w:] Arystoteles, Dzieła wszystkie, t.7, ułożył K. Narecki, indeksy pojęć i nazw sporządziła D. Dembińska-Siury, PWN, Warszawa 2003, s. 98). Ponadto πράγμα
odróżnia się od πρακτίκός oznaczającego działanie, postępowanie odnoszące
się do każdej czynności, której cel tkwi w niej samej (por. πρακτικός (w:)
Dictionary of Standard modern Greek, [online] <http://www.greeklanguage.gr/greekLang/modern_greek/tools/lexica/triantafyllides/search.html?lq=%CF%80%CF%81%CE%B1%CE%BA%CF%84%CE%B9%CE%BA%
CF%8C%CF%82&dq=>, s. 1.). Przyczyną dla πρᾶκςις w przeciwieństwie do
πράγμα jest postanowienie, czyli myślenie praktyczne, a celem jest samo działanie, jego odpowiednie prowadzenie i pomyślność. Natomiast celem tej drugiej jest skutek, jego przeliczalna miara. Stąd πράγμα to nic więcej jak: rzecz,
przedmiot lub πράγματα, czyli czyny sprawiedliwe, rozważne (zob. Arystoteles, Etyka nikomachejska, przeł., wstępem i koment. opatrzyła D. Gromska,
PWN, Warszawa 2007, s. 109–110). Dlatego pragmatyzm oraz praktyka nie
są synonimami i nie powinny być stosowane zamiennie).
6
B. Śliwerski, Pedagogika ogólna. Podstawowe prawidłowości. Wyd. IMPULS, Kraków 2012, s. 31–39.
7
Zob. W. Jaeger, Paideia…, s. 47.
8
Zob. Ibidem, s. 689.
253
[…] refleksja nad państwem i jego życiem ma z natury charakter praktyczny, podczas gdy badania nad tym, co Grecy nazywali physis i genesis
(„przyrodą” i „początkiem”), uprawiane były zawsze raczej ze względów
teoretycznych. Grecy nauczyli się patrzeć teoretycznie na problem człowieka dopiero wtedy, gdy na wzorach problematyki dotyczącej świata zewnętrznego, przede wszystkim w oparciu o medycynę i zdobycze matematyki, wykształcił się pewien wzorzec ścisłej techne, mogący znaleźć zastosowanie także do badań nad psychiczną stroną człowieka. Przypomina nam
się tutaj sformułowanie Hegla: „Drogi ducha są drogami okrężnymi”. Podczas gdy dusza Wschodu dla zaspokojenia swych tęsknot religijnych zagłębia się od razu w otchłaniach uczucia, ale nie znajduje tam nigdzie pewnego punktu oparcia, oko Greków, przywykłe do prawidłowości świata
zewnętrznego, odkrywa skutkiem tego niebawem również wewnętrzne
prawa rządzące duszą ludzką i zdobywa się na obiektywne widzenie ładu
obowiązującego w jej wnętrzu. Dopiero to odkrycie umożliwiło w krytycznym momencie dziejów greckich stworzenie nowego systemu wychowawczego na zasadzie filozoficznego poznania, co stało się programem Platona9.
W języku greckim pojęcie τέχνη odnosi się do przestrzeni praktycznego działania i praktycznych umiejętności człowieka10 oraz jego zdolności mimetycznych względem natury, która go otacza. Umiejętności te
odzwierciedlają się w wiedzy, którą określa się mianem ἐπιστήμη11.
Jednakże L. Shiner argumentuje, że τέχνη nie może być tylko odnoszone do wytwórstwa, ale powinno łączyć się ze sztuką, jako społecznie
uwarunkowanego kunsztu w dziejach ludzkiej kultury12. A zatem można mówić, że ten typ wiedzy odnosi się do tego, co teoretycznoprzedmiotowe, a nie formalno-logiczne i formalno-symboliczne. Natomiast, jak pokazała historia kultury zachodnioeuropejskiej, ten stan
9
Zob. Ibidem, s. 230–231.
O. Jurewicz, Słownik grecko-polski. Na podstawie słownika Zygmunta Węclewskiego, Wyd. Nauk. „Sub Lupa”, s. 965.
11
W związku z tym, błędnym wydaje się przeciwstawianie ἐπιστήμη wobec
τέχνη. Z punktu widzenia epistemologii Platona, ten ostatni termin znajdowałby się w przestrzeni określanej mianem διάνοια. Natomiast w terminologii
Arystotelesa byłaby typem wiedzy wyrobniczej τέχνη, w przeciwieństwie do
praktycznej φρόνησις i teoretycznej ἐπιστήμη.
12
J. Dunnem, Back to the Rough Ground: 'Phronesis' and techne in Modern
Philosophy and in Aristotl, Notre Dame, University of Notre Dame Press,
Indiana 1997, s. 19–20.
10
254
rzeczy zależał od przyjętego paradygmatu13. Do zmiany tego ostatniego, w późniejszym czasie, doszło wraz z narodzeniem się potęgi starożytnego Rzymu. W przeciwieństwie do Greków, Rzymianie skupili się
na czynnościach, nie tyle uwzględniających podmiot, względem którego został dokonany określony akt, ale ekwiwalentu, jaki można było
uzyskać wskutek podjętego działania14. Jednak zmiana ta nie dotykała
całości społecznego bytu, a tylko pewnych jego elementów. Niemniej
w tym czasie dokonało się rozdzielenie tego, co teoretyczne, praktyczne
i pragmatyczne. Łącznie ze zmianą wzoru społecznego, metamorfozie
uległo podejście do nauki. W czasie średniowiecza, ta ostatnia była
częścią religii. Stąd łączona była z dogmatem.
Sytuacja się zmieniła od czasu F. Bacona i P. P. de Maricourta. Miało tu miejsce rozdzielenie τέχνη od ἐπιστήμη, gdzie ta ostatnia zwrócona została w sferą phisis, ale wciąż pozostawała w relacji z objawieniem, które było wyznacznikiem prowadzonych badań. Późniejszy
kartezjański racjonalizm nie był tu wyjątkiem. Natomiast stał się nim
empiryzm J. Locka oraz D. Huma. Do całkowitego zerwania na drodze
dowodów, pomiędzy τέχνη z δόγμα doszło w filozofii I. Kanta. Od tego
czasu dokonała się zmiana paradygmatów i myśl techniczna odłączyła
się od humanizmu. Każda z tych dziedzin poznania stworzyła swoją
drogę budowania wiedzy.
Dotychczasowe miejsce humanizmu zajął inny czynnik współczesnego zindustrializowanego społecznego bytu — kapitał. Od tego momentu τέχνη nie wiązało się już z ἐπιστήμη, a na trwałe stało się elementem nauk przyrodniczych, w których istotnym elementem weryfikującym prawdziwość dokonanego odkrycia stał się zysk, podbudowany na utylitarystycznych i ewolucyjnych ideach. Pozwalało to na skuteczne działanie oraz na przetrwanie w świecie przyrody, i tym samym
zapanowaniem nad tą ostatnią, wbrew biblijnym opisom15, które skazywały człowieka na trudy życia ziemskiego. Jednak nadmierna szczegółowość, w którą została wplątana technika, zbytnie skupienie się na
abstrakcji fizycznej i matematycznej oraz ukształtowanie moralności na
podstawie kapitału, stały się przyczyną zaistnienia meonicznej16 formy
Por. A. J. Karpiński, Prywatna własność środków produkcji. Od ojcobójstwa
do syna marnotrawnego, Wyd. GWSA, Gdańsk 2010, s. 99.
14
S. Kot, Historia wychowania, t. I, Wyd. Akademickie „Żak”, Warszawa
1996, s. 99.
15
Rdz 3, 16–19 [online] http://biblia.deon.pl/rozdzial.php?id=3
16
Pojęcie to swe źródłosłowie czerpie od gr. τε μέ όν oznacza niebyt, nicość.
Z kolei sam termin meoniczność odnosi się do bytu społecznego, który „nie
posiada żadnej treści”, nie jest substancją z punktu widzenia filozofii Arystote13
255
społecznego bytu oraz narodzin kryzysów w późniejszym czasie. W ten
stan rzeczy wpisały się nie tylko przedmioty natury materialnej, ale
również wszelkie zjawiska obecne w kulturze człowieka zachodnioeuropejskiego. Przyczyn tego upatrywać można było w przyjętej w tej
ostatniej wizji postępu17 oraz filozoficznych systemach, które umożliwiły ukształtowanie obecnego społeczeństwa, w formie wyalienowanego, nastawionego konsumpcyjnie tworu. Ideami, które w taki sposób
kształtowały społeczeństwo był pragmatyzm (W. James) oraz powstały
na jego gruncie instrumentalizm (J. Dewey). Ich prakseologicznym
wyrazem stała się hegemonia (gr.ηγεμονία), która występowała w swej
politycznej i kulturowej formie na przestrzeni całej Europy i Ameryki
Północnej. Skutkiem tego była jednowymiarowość (H. Marcuse) i wyrosły na jej gruncie globalizm18. To w nią wpisują się funkcjonujące
współczesne korporacje, które masą swych usług i produktów, tworzą
sieć zależności, oplatając cały świat19. Stąd przestrzeń makrospołeczna
staje się inherentną częścią sfery mikrospołecznej, czego wyrazem jest
teoria konfliktu wg R. Collinsa, która wskazuje, że życie społeczne
współcześnie można opisać bazując na teorii organizacji20. W tak zbudowanej społecznej rzeczywistości decydującym elementem dominacji
jest posiadany kapitał i instytucje będące narzędziami tworzenia oraz
kontroli polityki i prawa, w przestrzeni lokalnej i międzynarodowej 21.
lesa, co sprawia, że może istnieć tylko transcendentnie w projekcji świadomości jednostki, lub grupy, lecz nie ma immanentnego (substancjlanego) istnienia, konkretnego bytu, jest niepełne i nie inherentne, posiada postać egzystencjalną, ale brak jej postaci esencjalnej.
17
S. Dama, Czas jako kategoria zachodnioeuropejskiej filozofii a koncepcja
wieczności M. Bierdiajewa. Ich konsekwencje i znaczenie dla współczesnego
człowieka, „Granice Europy, Granice Filozofii — filozofia a tożsamość Rosji”,
red. W. Rydzewski, L. Augustyn, Kraków 2007, s. 215–226.
18
G. Cimek, W labiryncie pojęć — globalizacja jako kategoria teoretyczna,
„Zeszyty Naukowe Akademii Marynarki Wojennej”, 2011, 4 (187), s. 166–
173.
19
Why socio-economic inequalities increase? Facts and policy responses in
Europe, raport Komisji Europejskiej, “Directorate-General for Research SocioEconomic Sciences and Humanities”, Brussels 2010, s. 17–24.
20
Zob. R. Collins, M. Makowsky, The Discovery of Society (1 wyd. 1972),
Boston 1998, s. 282–285.
21
Choć, jak wskazuje A. J. Karpiński, należy mówić o czterowymiarowym
bycie jednostek ludzkich we wzrastaniu w ich człowieczeństwie. Rzeczony
autor wymienia: a) diachronię; b) synchronię; c) świat realny — wartość „tej
strony” będący rekonstrukcją świata idealnego — wartości „tamtej strony”;
d) pola współistnienia. Są one elementem bytu społecznego kształtującego
256
W tę strukturę wpisuje się współczesna technika. Ale czym ona jest
obecnie? Jak podpowiada nam V. Dusek, technikę możemy odczytać
współcześnie jako kilka różnych form ontoligicznych: a) sprzęt,
b) zasady, c) system, d) naukę stosowaną. Ponadto technika rozumiana
jako sprzęt, opisuje narzędzia i maszyny. Posiada konkretny i łatwo
uchwytny wymiar. W wyniku posiadanej struktury, narzędzia są poznawalne zmysłowo. Na tej podstawie można odczytać ukrytą w nich
myśl, która nie tylko jest wyrazem zysku, ale także przynosi wybawienie od trudów ludzkiego życia, na które ma wpływ natura. Jednak jest
to obarczone kosztem życia w cywilizacji, która, jak powiadał J.J. Rousseau22, ma deprawujący wpływ na człowieka i jego życie społeczne.
To ostatnie mieści się w przestrzeni ekologii23. Amerykańscy badacze
tej sfery życia dostrzegli, że otaczająca człowieka przyroda może nie
wytrzymać cywilizacyjnego rozwoju człowieka, co zagrozi istnieniu
nie tylko określonych gatunków żyjących na Ziemi24, ale samemu
człowiekowi zagubionemu w meoneoiczności swojej egzystencji. D. H.
Meadows, D. L. Meadows i J. Randers piszą o tzw. przestrzeleniu, czyli
o niezamierzonym przekroczeniu granic wynikającego z rozwoju cywilizacji:
Dotyczy ono sytuacji [przestrzelenie —S.D], w której społeczność ludzka
oraz gospodarka pozbawiają Ziemię bogactw naturalnych, emitując do środowiska zanieczyszczenia i odpadki. W wielu przypadkach tempo tych
działań stało się trudne do zniesienia. Środowisko nie może go znieść. Społeczność ludzka przestrzeliła jego granice… Przestrzelenie powodować
może konsekwencje różnego typu. Jedną z nich jest oczywiście jakiś rodzaj
człowieka w jego ontogenezie (por. A. J. Karpiński, Wstęp do sofiologii, Wyd.
GWSA, Gdańsk 2012, s. 260).
22
J. Derek, Ideał nowego państwa Jana Jakuba i Rewolucja Francuska, „Studia Politicae Universitatis Silesiensis”, nr 4–5, Katowice 2009, s. 17 i nast.
23
Termin ten pochodzi od gr. οίxος = dom, λόγος = myśl, nauka etc. Jest to
dyscyplina naukowa, która nie jest tylko wyrazem dbania o środowisko, ale
znajdywania w niej miejsca dla wszystkich gatunków, z możliwym uwzględnieniem ich wszystkich naturalnych potrzeb. Zajmuje się nie tylko opisem ich
życiowej aktywności pośród innych gatunków, ale również znajdywaniem
symbiozy pomiędzy nimi, tak, aby w jej ramach istniał i nie ginął wytworzony
w czasie milionów lat określony ekosystem.
24
Zobacz, zanim znikną. Co roku z powierzchni Ziemi znika ponad 20 tysięcy
gatunków zwierząt [online] < http://weekend.gazeta.pl/weekend/1,152121,19039440,zobacz-zanim-znikna-co-roku-z-powierzchni-ziemi-znika-ponad.html>
257
katastrofy. Inną, świadomy zwrot, korekta, stopniowe ograniczanie szybkości.25
Na tym przykładzie widać, że nie środki produkcji (na przekór
K. Marksowi), a otaczający świat człowieka w jego naturalnej formie
jest jego bazą, którą wskutek określonych idei przekształcił i doprowadził do takiego stanu, że trudno w przyszłości na nim będzie utrzymać
jakąkolwiek formę życia. Z tej przyczyny najważniejszym jest zmienić
obecny paradygmat: przedmiot — przedmiot, na podmiot — podmiot.
Jedną z podstawowych rzeczy, która przyczyniła się do tego, że τέχνη
stało się wyrazem symbiotycznego braku w humanizmie, jest fakt zarzucenia abstrakcji na poziomie metafizycznym (Arystoteles). Bez tego
niemożliwe jest stworzenie nowej jakości w przestrzeni publicznej. Bez
tego typu abstrakcji nie jest możliwe przeciwdziałanie jakimkolwiek
niepożądanym skutkom działania abstrakcji fizycznej i metamerycznej.
Ta pierwsza ze swej strony pomija w rozpatrywanej rzeczy wszelką
materię i jednostkowość i związaną z tym jakościowość i ilościowość,
a uwzględnia aspekt bytowości. Jak pisze I. Kant:
Mianowicie właściwie należy mówić: „od czegoś abstrahować”, nie zaś
„coś wyabstrahować”. Pierwsze wyrażenie wskazuje na to, że w przypadku
pewnego pojęcia nie zważymy na nic, co byłoby z nim w jakimkolwiek
sposób związane. Natomiast drugie z nich mówi, że pojęcie dane jest jedynie in concerto i to w ten sposób, że może być ono oddzielone od tego
wszystkiego, co z nim związane. Zatem pojęcie intelektualne abstrahuje od
wszystkiego, co zmysłowe, i nie jest z tego wyabstrahowane. Być może
byłoby słuszniej nazwać je abstrahującym niż abstrakcyjnym. Z tego powodu stosowniej jest nazywać pojęcia intelektu czystymi ideami, natomiast
te pojęcia, które są dane jedynie empirycznie — abstrakcyjnymi26.
A zatem abstrahowanie musi opierać się na bycie, co jest znaczące
z punktu widzenia zachowania światowej równowagi. W tym celu potrzebne byłoby ponowne włączenie filozofii w poczet problematyki
naukowej, politycznej i jakiejkolwiek. Ponieważ to właśnie filozofia ze
25
D. H. Meadows, D. L. Meadows, J. Randers, Przekraczanie granic. Globalne załamanie czy bezpieczna przyszłość, tłum. Z. Dobrska, Centrum
Uniwersalizmu przy Uniwersytecie Warszawskim, Polskie Towarzystwo
Współpracy z Klubem Rzymskim, Warszawa 1995, s. 1–2.
26
I. Kant, O formie i zasadach świata dostępnego zmysłom oraz świata inteligibilnego. O pierwszej podstawie różnicy kierunków w przestrzeni, przełożył,
opracował i posłowiem opatrzył A. Banaszkiewicz, Wyd. „Zielona Sowa”,
Kraków 2004, & 6, s. 21.
258
swoim fundamentalnym dla człowieka i jego świata pytaniem „διὰ τί”,
jest w stanie pozwolić mu na ominięcie złych skutków, wynikających
ze stosowanych dotychczas narzędzi poznawczych i podboju świata.
Ponadto w procesie abstrakcji, o którym mowa powyżej, możliwe byłoby uniknięcie rozpatrywania zjawisk ze świata społecznego, ale też i
naturalnego z punktu widzenia analizy. Bowiem analiza pozwala zachować status quo, ale nie może wnieść niczego nowego ze swej istoty,
nie tylko do badania, ale również do wszystkich sfer życia człowieka
i gatunków, wśród których mógł stworzyć swój własny świat, czyli
cywilizację. Stąd wskazanym byłoby tworzenie syntez, które rzeczywiście mogłyby nieść ze sobą nową wiedzę i być rzeczywiście miarą postępu, a nie tylko podboju, z którym mamy współcześnie do czynienia.
Aczkolwiek działanie wiąże się ze specyfiką myślenia. Ludzki umysł,
w tym wypadku, posługuje się analizą lub syntezą. Najczęściej w przestrzeni życia społecznego spotykamy się z tą pierwszą. I. Kant w następujący sposób przedstawia różnicę między nimi:
W powyższym omówieniu tego podstawowego pojęcia, prócz cech należących do wyraźnego poznania przedmiotu, w pewnym stopniu uwzględniłem także jego podwójne pochodzenie z natury umysłu. Wyjaśnienie to
może służyć jako przykład głębszego wniknięcia w metodę [stosowaną] w
obszarze metafizyki, stąd też wydaje mi się ono w pełni godne polecenia.
Albowiem czym innym jest – gdy części są dane — pomyśleć sobie złożenie jakiejś całości za pomocą abstrakcyjnego pojęcia intelektualnego,
a czym innym wyprowadzić to ogólne pojęcie, jako pewnego rodzaju zadanie rozumowe, za pomocą zmysłowej władzy poznawczej — tzn. przedstawić je sobie in concerto za pośrednictwem wyraźnej naoczności. To
pierwsze dokonuje się dzięki pojęciu złożenia w ogóle, o ile [części] są pod
nim ujmowane (we wzajemnym stosunku), a wiec ostatecznie za pomocą
idei intelektualnych i ogólnych. Drugie zaś wspiera się na warunkach czasu, o ile sukcesywnie przyłącza się część do części, zatem pojęcie rzeczy
złożonej możliwe jest za sprawą wytwórczości — tzn. dzięki SYNTEZIE
oraz należy do praw naoczności. W ten sam sposób, jeżeli tylko substancja
złożona jest dana, łatwo dochodzi się do idei prostych części, znosząc intelektualne pojęcie złożenia w ogóle. Zatem tym, co pozostaje, gdy usunie
się wszelkie powiązanie, są proste części. Jednakże zgodnie z prawami poznania naocznego ma to miejsce tylko wtedy — tj. wszelkie złożenie zostaje zniesione — gdy cofamy się od danej całości ku wszystkim możliwym
częściom, tzn. dzięki analizie*, która ze swojej strony wspiera się na waWyrażeniom „analiza” oraz „synteza” przysługuje zazwyczaj podwójne znaczenie. Mianowicie synteza bywa już to jakościowa — wówczas jest progresem w szeregu rzeczy podrzędnie uporządkowanych od racji do wniosków, już
to ilościowa — wówczas jest rozszerzeniem w szeregu rzeczy współrzędnie
*
259
runku czasu. Skoro jednak rzecz złożona, wymaga wielości części, całości
zaś ich ogółu, to ani analiza, ani synteza nie będzie zupełna, a zatem ani
dzięki pierwszej nie wyłoni się pojęcie tego, co proste, ani też dzięki drugiej pojęcie całości, jako że obie nie mogą być zakończone w pewnym
skończonym i dającym się wskazać czasie.27
Z tej przyczyny τέχνη powinno ponownie zwrócić się w stronę filozofii. Jednak ruch ten ten nie powinien dokonać się na zasadzie retrospekcji, ale heglowskiej syntezy. Tak aby uwzględnić wszelkie dziejowe naleciałości. A dlaczego filozofia? Otóż, jak było wspomniane
wcześniej, ze względu na aspekt ontologiczny i stosowane narzędzia,
ale również rozpatrywanie w swoim spektrum treści epistemologicznych oraz aksjologicznych. Tylko filozofia, w swojej perspektywie
badawczej, jest w stanie ująć te przestrzenie społecznego bytu, które
inherentne, wciąż nie oddzielają się od najistotniejszego bytowego elementu poznania; a ten, jak pokazuje przykład zachodnioeuropejskiej
cywilizacji, ma kluczowe znaczenie, głównie dla samych działających.
Jak dopowiada S. Brzozowski:
Z innego jeszcze punktu widzenia postępowanie takie jest tu wskazane. Nie
ma społeczeństwa, w którym by filozofia była bardziej lekceważoną niż
u nas. Nie szanujemy nauki, filozofią wprost pomiatamy: uchodzi ona
w naszych oczach za marzycielstwo niepotrzebne lub szkodliwe, za kwintesencję pedantyzmu i szkolarskiego zacietrzewienia. Ważną więc jest rzeczą wykazać, że jest ona siłą kulturalną pierwszego rzędu, z którą liczyć się
potrzeba i której brak lub zanik odbija się w sposób opłakany na innych
dziedzinach kulturalnego życia; rzeczą pierwszorzędnej doniosłości jest
ukazać w niej wieczne rodło swobody duchowej społeczeństwa, w którym
ciasna głowa, wąsko-praktyczna trzeźwość idzie w parze z zabobonem
i wszechpotężną władzą dogmatyzmu. Są to wszystko rzeczy pierwszorzędnej wagi, gdyż postaram się może głęboko nie tylko na takich przejawach życia kulturalnego, jak nauka lub sztuka, lecz nawet na bardziej bezpośrednio ku życiu zwróconych formach działalności społecznej. Wprawdzie Marks i materializm dziejowy wywrócili już do góry nogami historiozofię Hegla i dowiedli, że nie życie z idei, lecz przede wszystkim idee
z życia wyrastają, ale nawet zgadzając się, że cała „ideologia” jest tylko
uporządkowanych od danej części przez części ją dopełniające – ku całości.
W ten sam sposób analiza wzięta w pierwszym sensie jest regresem od następników do racji, natomiast w drugim znaczeniu przechodzeniem od całości do
jej możliwych następstw lub [przynajmniej] pośrednich części, nie jest ona
podziałem, lecz rozdziałem danego złożenia. Zarówno syntezie, jak i analizie
przyjmujemy tu jedynie w drugim znaczeniu.
27
I. Kant, O formie i zasadach…, op. cit. s. 9–11.
260
jedną z form oddziaływania życia na samo siebie, można pragnąć, ażeby
oddziaływanie to odbywało się w sposób najdokładniej i najzupełniej
uświadomiony i systematyczny. Jeżeli siły życiowe wydobywają z siebie
idee, które mają stać się następnie środkiem przeobrażana tych sił, to dzieje
się to dlatego, że w tej formie właśnie mogą one osiągnąć największa możliwą potęgę i skupienie. Należy więc pragnąć, ażeby w kierunku tym rozwój ich był zupełny, ażeby każda idea, z życia wyrosła, dosięgła możliwie
największego pogłębienia i ażeby doszła do samouświadomienia w zetknięciu innymi. Filozofia zaś właśnie wydobywa z każdej myśli wszystko,
co jest zawarte, i nie znosi myśli pozostających biernie koło siebie, lecz
roznieca pomiędzy nimi oddziaływanie wzajemne i w oddziaływaniu tym,
w którym każdą myśl przetwarza się i jest zarazem przetwarzana, doprowadza je wszystkie do pełnego rozwoju28.
Czas bifurkacji, w którym żyjemy w XXI w., jest czasem trudnym,
ale warto wziąć pod rozwagę tysiące lat tradycji oraz wiele kryzysów,
które nasza zachodnioeuropejska kultura przeszła w czasie swego trwania29. Ale uczynić należałoby to już nie po to, aby uniknąć kolejnego
kryzysu, ale aby po prostu przetrwać…
S. Brzozowski, Idee: wstęp do filozofii dojrzałości dziejowej, wstępem poprzedził A. Walicki, Wyd. Literackie 1990 Kraków s. 96–97.
29
„Kryzys to stan normalny kultury europejskiej — do takiego wniosku można
dojść, śledząc, przynajmniej w ciągu ostatniego stulecia, perypetie tej samowiedzy, diagnozy intelektualistów, wizje artystów, samopoczucie „zjadaczy
chleba”. Trudno znaleźć słowo, po które częściej by w tym czasie sięgano
próbując określić kondycję Zachodu. Wokół pojęcia kryzysu powstało całe
odrębne — i rozległe — pole semantyczne: zmierzch, schyłek, rozkład, zanik;
przesilenie, punkt zwrotny, przełom; upadek, katastrofa, zagłada, koniec — to
tylko najważniejsze tropy skojarzeń zaświadczone w historii intelektualnej XX
wieku (por. G. Godlewski, Lekcja kryzysu. Źródła kulturalizmu Floriana Znanieckiego, Wydawnictwo KR, Warszawa 1997, s. 5). Warto w tym miejscu
przytoczyć słowa J. Habermasa, który socjologię nazywa „[…] nauką o kryzysie” (por. J. Habermas, Teoria działania komunikacyjnego. Racjonalność działania a racjonalność społeczna, t.1, tłum. A. M. Kaniowski, Wyd. Naukowe
PWN, Warszawa 1999, s. 22). Dlatego słowo „kryzys” tyczy się nie tylko
zamierzchłych czasów, ale również współczesności, choć oczywistym jest, że
przyjęta przez św. Augustyna wizja czasu wpłynęła znacząco na zupełnie inny
niż dawniej, w czasach Starożytnych oraz początków Średniowiecza (por.
S. Dama, Czas jako…, op. cit. s. 215 i nast.) charakter istniejącego w dobie
Nowoczesności i „późnej nowoczesności” (A. Giddens) kryzysu.
Oto kilka innych publikacji traktujących o kryzysie w XX i XXI w.: J. Jedlicki, Trzy wieki desperacji. Rodowód idei kryzysu cywilizacji europejskiej,
„Znak”, 1996, nr 488 oraz inne wypowiedzi na temat kryzysu zawarte w tym
numerze „Znaku” (zob. także J. Jedlicki, Historyczny rodowód idei kryzysu
28
261
cywilizacji europejskiej (w:) Dylematy współczesnej cywilizacji a natura człowieka, Poznań 1997, s. 103–117). Cytowana praca zawiera szereg referatów
poświęconych kryzysowi współczesności. Były one wygłaszane na konwersatoriach organizowanych w Jabłonnie w latach 1994–1995 pod auspicjami
Prezesa PAN, Profesora L. Kuźnickiego (por. L. Gawor, I. Zdybel; Idea kryzysu kultury europejskiej w polskiej filozofii społecznej. Analiza wybranych koncepcji pierwszej połowy XX wieku, Wydawnictwo Marii Curie-Skłodowskiej,
Lublin 1995); A. J. Karpiński, Kryzys kultury, „Słupskie Studia Filozoficzne”,
1998, nr 1, s. 3–18; A. J. Karpiński, Kryzys kultury współczesnej, Wyd. Uniwersytetu Gdańskiego, Gdańsk 2003,; A. Jacyniak SJ, Z. Płużek, Świat ludzkich kryzysów, Wyd. WAM – Księża Jezuici, Kraków 1997; L. Grudziński,
Zagrożenia współczesnej kultury (w:) Wobec kryzysu kultury, Gdańsk 1993, s.
13–39; Kryzys kultury europejskiej?, L. Żuk-Łapińska (red.), Wyd. WSP,
Rzeszów 1997. To jest tylko kilka pozycji w pewien sposób odnoszących się
do <<kryzysu>> kultury. W końcu XX w. pojawiało się wiele publikacji, które
w swoim tytule zawierały blisko spokrewnione słowo <<koniec>> (zob. R.
Borkowski, Cywilizacja, Technika, Ekologia. Wybrane problemy rozwoju
cywilizacyjnego u progu XXI wieku, Uczelniane Wyd. Naukowo-Dydaktyczne,
Kraków 2001, s. 36).
262
Krzysztof Kościuszko
Uniwersytet Warmińsko-Mazurski
O TECHNIKACH (MECHANIZMACH) ELIMINOWANIA METAFIZYKI - Z PERSPEKTYWY WITKACEGO
Czy można liczyć na to, że warunki panujące w kapitalizmie są bardziej sprzyjające rozwojowi metafizycznych uczuć, wartości i teorii aniżeli niwelujące indywidualną osobowość warunki społeczeństwa socjalistycznego? Otóż nie bardzo. A przyczyną tego stanu rzeczy zdaje się
być to, że w kapitalizmie (czy to w fazie liberalnej czy monopolistycznokorporacyjnej, czy globalistycznej) działał i działa mechanizm likwidacji
indywiduum, a gdzie likwiduje się indywidualizm, tam istnienie uczuć
metafizycznych stoi pod znakiem zapytania. Dlaczego? Bo jakie uczucia
metafizyczne może mieć osobowość rynkowa? Albo zmechanizowana
osobowość stechnologizowanego społeczeństwa? Liberałowie wierzą co
prawda w indywidualność i wolność, ale osobowość ludzi żyjących
w liberalnej fazie kapitalizmu jest przecież podporządkowana podażowo-popytowej grze rynku. Ludzie przestają się liczyć jako autorzy
twórczych pomysłów niezależnych od rynkowych oscylacji, funkcjonują
natomiast jako posiadacze albo nie posiadacze jakiejś ilości pieniędzy
wyciśniętych z klientów, jako ludzie sukcesu albo bankruci. Ich samoocena jest uzależniona od pokonania konkurencji, ale nie są pewni, jak
długo uda im się przyciągać klientelę. Indywiduum ma swobodę działania, ale na co ją obraca? Ludwig von Mises powiada, że w kapitalizmie
są ci, którym się udało zdobyć pieniądze i są nieudacznicy. Na co tracą
czas ci ostatni? Na zazdroszczenie tym pierwszym. Są nieliczni, którzy
zdobywają wysoką pozycję i tacy, którzy jej nie zdobywają. Ci ostatni
popadają w kompleks niższości1, ich dobre samopoczucie jest zakłócone
widokiem ludzi bardziej przedsiębiorczych.
W ogóle, jeśli profesor filozofii zarabia mniej aniżeli przedsiębiorca
wytwarzający części zamienne do pralek, to po co studiować filozofię?
Kapitalizm produkuje tego typu osobowość, która żyjąc dla zysku, stara
się maksymalnie zaspokajać potrzeby konsumenta; ale trzeba przecież
obniżać koszty produkcji, walczyć z konkurencją, informować się
1
Ludwig von Mises, Mentalność antykapitalistyczna, ARCANA, Kraków 2000,
s. 19.
264
o zmiennych preferencjach klienteli itd. Czy taka osobowość ma czas na
zajmowanie się filozofią albo metafizyką? Przede wszystkim trzeba
utrzymać się na rynku. Prowadzenie interesów jest czasochłonne, ale czy
klienci w ogóle pytają się o metafizykę? Każdy przedsiębiorca wie, że
jego firma może w każdej chwili upaść. Jeśli firma upadnie, jej właściciel będzie czuł nienawiść i wrogość do tych, którym się powiodło. Będzie się starał wytłumaczyć sobie i innym przyczyny swej klęski, zrzuci
winę na kapitalistyczny system. Być może przejdzie na pozycje antykapitalistyczne, ale czy taki bunt może stanowić odskocznię do jakiejś
głębszej metafizyki? Czyż nie chodzi tu raczej o poparcie takich sił społeczno-politycznych, które pomogłyby mu odzyskać utraconą pozycję
ekonomiczną albo wiarę w siebie?
Kapitalizm produkuje więc osobowość, która jest nastawiona na
utrzymanie się na rynku, a nie na kontaktowanie się (emocjonalne albo
intelektualne) z wartościami metafizycznymi, chyba że będą to takie
wartości, które dodadzą jej sił do ekonomicznej walki. Jeśli zaś wg narracji kapitalistycznej „pozycja każdego człowieka zależy od jego sposobu działania” 2, to dany nieudacznik nie powinien szukać wyjaśnienia
i usprawiedliwienia dla swych ekonomicznych klęsk w jakiejś metafizyce czy filozofii w ogóle, lecz w zmianie sposobu działania z mniej
efektywnego na bardziej efektywny. Umetafizycznienie osobowości
rynkowej jest chyba niemożliwe, bo oznaczałoby to rozbudzenie tęsknoty do transcendentnych wartości i pragnienia realizowania wyższych
celów, a to z góry zakładałoby, że dana osobowość musiałaby zrezygnować z absolutyzowania celów ekonomicznych. Wartości czysto metafizyczne są bardzo złym towarem na ekonomicznym rynku; wcale nie
przynoszą dochodu. Podobnie osobowość metafizyczna: jej działanie
wcale nie przyczynia się do wiary w potęgę rynku, chyba że można tę
osobowość urynkowić.
Jeśli autorzy metafizycznych książek chcą zaistnieć, nie mogą wyrażać swoich poglądów, lecz takie, na które jest popyt (jeśli takowy
w ogóle istnieje). Jeśli dany autor pragnie być akceptowany (stara się
przypodobać publice), to musi zrezygnować ze swej indywidualności,
a wg Stanisława Ignacego Witkiewicza metafizyczne dzieła sztuki, religii czy filozofii są właśnie wyrazem tego, co szczególne i wyjątkowe
(„idiograficzne”) w przeżywaniu zagadek istnienia.
Na rynku idei istnieje zapotrzebowanie na tego rodzaju filozofię,
która daje receptę na sukces, uczy manipulować przedmiotami i ludźmi.
2
Ibidem, s.18.
265
Kontakt z wartościami metafizyczno-religijnymi, metafizyczno-artystycznymi czy metafizyczno-filozoficznymi jest niemile widziany, bo
tego typu wartości nie mają siły przebicia na rynku. Rynek nie toleruje
też idei, które byłyby niezależne i autonomiczne w stosunku do aktualnego albo przewidywanego popytu. W ogóle nie powinno się prezentować jakiejś ściśle określonej filozofii-metafizyki, bo gusta czytelników
są zmienne i co było prawdziwe wczoraj, dzisiaj może się okazać nieaktualnym antykiem. Najlepiej byłoby obsługiwać ciągle zmieniający się
popyt, a więc w ogóle wyzbyć się swej filozoficznej tożsamości. Poza
tym wg Witkacego ideałem społeczeństwa kapitalistycznego jest coraz
bardziej mechanizująca się produkcja w imię wciąż przyrastającego dobrobytu. Nadrzędnym celem nie jest rozwój indywiduum (jak by tego
chcieli liberałowie), lecz sprawne funkcjonowanie systemu ekonomicznego, utrzymywanie gospodarki w stanie zdrowia za pomocą nowych
naukowych technologii. Zysk indywidualny i korporacyjny powiększa
się, gdy kapitalista inwestuje w naukę i postęp komputerowo-informatyczny. Nauka przede wszystkim! Metafizyka nie daje środków opanowania przyrody, a więc jest bezużyteczna. Po co w ogóle jest filozofia?
Według Rudolfa Carnapa, filozofia ma sens o tyle tylko, o ile jest
podporządkowana nauce, bada jej metody. W swej zasadzie tolerancji
Carnap zaleca między innymi tolerować każdą metafizykę i każdą epistemologię wyłącznie jako materiał logicznej analizy, jako materiał,
z którego da się ewentualnie zbudować (po uprzednim zastosowaniu analizy syntaktycznej) naukowo-epistemologiczny system konstytucyjny.
Autor Logicznej budowy świata zarzuca pojęciom metafizycznym niejednoznaczność, przy czym, co ciekawe i co świadczy przeciw niemu,
sam nie może uwolnić się od wieloznaczności pojęć syntaktycznych.
Stosunek Carnapa do metafizyki jest albo neutralny, albo wrogi: najlepiej zastąpić ją albo epistemologią fenomenalistyczną albo fizykalistyczną, bo te przynajmniej są weryfikowalne. Można się zresztą przerzucać z epistemologii fenomenalistycznej na fizykalistyczną i na odwrót, ale Witkacy zadaje tutaj pytanie: czy rzeczywiście obie te epistemologie są sobie równorzędne? Czy rzeczywiście obie są do siebie redukowalne? Czy można rozstrzygnąć te pytania bez odwołania się do jakiejś metafizyki? A jeśli już chciałoby się ją uprawiać, powinno się stworzyć jakiś inny język: ani fenomenalistyczny ani fizykalistyczny. Dlaczego? Ponieważ trudno jest wyrazić w tych językach np. problem sensu
istnienia, problem kondycji ludzkiego istnienia rozpiętego między skończonością a nieskończonością. Trzeba by najpierw wprowadzić pojęcie
istnieniowej nieskończoności, a to ostatnie pojęcie nie mieści się przecież
ani
266
w ramach fenomenalizmu (psychologizmu), ani fizykalizmu. Żeby uprawiać epistemologię fenomenalistyczną, trzeba użyć metafizycznego pojęcia podmiotowości poznającej (np. pojęcia „ja”); każda epistemologia
ma jakieś ontologiczno-metafizyczne założenia, które wcale nie są obojętne dla rozstrzygnięcia sporu fenomenalizmu z fizykalizmem. Jest jasne, że jeśli np. staniemy na gruncie metafizyki monadologicznej, to będziemy redukować fizykalizm do fenomenalizmu („psychologizmu”
w terminologii Witkacego), natomiast jeśli przyjmiemy założenia materialistyczne, będziemy fundować język fenomenalizmu w języku fizykalistycznym.
Przyczyną odrzucenia przez Carnapa wszelkiej metafizyki miałaby
być jej bezpłodność z naukowego punktu widzenia. Wg wiedeńskiego
neopozytywisty, można zlikwidować spory, napięcia i sprzeczności filozoficzne poprzez stosowanie zasady tolerancji: trzeba by tolerować
wszystkie sprzeczne nastawienia metafizyczne jako materiał analiz syntaktycznych. Celem tych analiz jest zbudowanie nowego systemu syntaktyczno-epistemologicznego, ale miałoby się to dokonać przy jednoczesnym zlikwidowaniu metafizyki, tj. wykazaniu, że jej zdania są pseudozdaniami pozbawionymi wszelkiej poznawczej treści. Należałoby je
traktować jedynie jako ekspresje ludzkich emocji.
Według Witkacego na ludzkość (niezależnie od systemu politycznego, w którym się ona znajduje) nachodzi fala mechanizującej się produkcji gospodarczo-kulturowej, powiązana z rozmaitymi totalitaryzmami, między innymi z totalitaryzmem masowej kultury. Będzie to
skorelowane z zapanowaniem życiowej szarzyzny (bo jak żyć w miastach klockowato zabudowanych?), nudy, obojętności i poznawczej martwicy (czy od ludzi robotów, pozbawionych prywatnej inicjatywy, wymaga się myślenia?). Takie właśnie są następstwa funkcjonowania gospodarki naukowo zaplanowanej i uregulowanej, i dotyczyć to będzie
także kapitalizmu, bo także w kapitalizmie jest coraz mniej miejsca na
prywatną inicjatywę, na twórczą fantazję gospodarczą. Jednostki w coraz
większym stopniu muszą się podporządkować zaprogramowanej produkcji i konsumpcji, stają się maleńkimi trybikami potężnej maszynerii
ekonomiczno-biurokratycznej. Gdyby do tego nie doszło, spadłaby wydajność, a zyski uległyby zmniejszeniu. Jednakże: czy kogoś interesuje
jednoczesne kurczenie się ludzkiej osobowości albo to, że w zmaszynizowanych warunkach pracy życie jednostek zostaje odwartościowane?
Czy zdepersonalizowane życie ma jednak sens? Czy z kolei zadawanie
takich pytań ma jakikolwiek sens?
Czy dałoby się umetafizycznić gospodarkę i społeczeństwo? Zatrzymać procesy mechanizowania? Trzeba by zrezygnować z dbania jedynie
267
o wydajność produkcji, położyć większy nacisk nie na stechnologizowaną maszynerię procesów produkcyjnych (efektywniejszą od pracy indywidualnej), lecz na swobodne zrzeszanie się ludzi pracujących dla wytworzenia rzeczy nie-tandetnych. Nie dopuszczać do rutyny, walczyć
o jakość, a nie ilość produkcji. Popuścić wodze fantazji i spekulacji poznawczej. Stworzyć możliwość krytycznej dyskusji. W ogóle trzeba by
wychować ludzi nienasyconych w zadawaniu filozoficzno-metafizycznych pytań. Ale czy do tego wszystkiego dojdzie? Czy w ogóle miałoby
to sens w obliczu dużych rozmiarów społeczno-ekonomicznej nędzy?
Liberałowie marzyli o wychowaniu człowieka do wolności, natomiast
w społeczeństwie o sprawnie działającej maszynerii gospodarczej chce
się wychować ludzi pomnażających tę sprawność, ludzi-niewolników
maszyny. Obecnie te procesy pogłębiły się na skutek rozrostu technologii i można nawet mówić o niewolnikach skomputeryzowanej i zinformatyzowanej maszynerii gospodarczo-społecznej.
Czemu służy ta maszyneria? Czyżby pobudzaniu „uczuć metafizycznych”? Czy w ogóle jest tu miejsce na jakąkolwiek metafizykę? Na
pierwszy rzut oka wydawałoby się, że nie. Można by było nawet rzec, że
klasa robotnicza marzy jedynie o zaspokojeniu elementarnych potrzeb,
zaś pracodawcy o maksymalizowaniu zysku, ale stwierdzenie takie nie
do końca było i nie do końca jest prawdziwe. Nie było prawdziwe za
czasów Witkacego: otóż klasa robotnicza w jego dramatach dyskutuje na
tematy filozoficzno-metafizyczne, zaś przedstawiciele „burżuazji”
i „arystokracji” nie mogą sobie poradzić z problemami egzystencjalnymi. Nikt nie ucieka w świat czysto mechaniczny; nie ma fascynacji
maszyną i jej zwiększoną efektywnością. W świecie Witkacego istnieje
tylko obawa przed możliwym totalnym zmechanizowaniem ludzkich
osobowości. Czyżby w XXI wieku było inaczej? Czyżby ludzie dali się
uprzedmiotowić? Zamienili się w biernych konsumentów albo w roboty?
Czy uznali postęp techniczny za naczelną i jedyną wartość? Przestali
krytykować status quo? Przestali pytać, dlaczego i po co?
Przecież nawet jeśli korzystają z komputerowego programowania dotyczącego strategii gospodarczo-politycznych, to komputerowe decyzje
poddaje się weryfikacji myślących ludzi, dla których komputerowy dyskurs jest jednym z możliwych scenariuszy badanych zjawisk, a nie ostateczną wyrocznią. Nie komputeryzacja jest przyczyną nieszczęść, lecz
niewłaściwy z niej użytek. Ostatecznie wszystko zależy od intelektu
i jakości moralnej zarządzających komputerowym prognozowaniem:
mogą oni wykorzystać pracę komputera albo do manipulowania ludźmi,
do ich zniewalania albo do wyzwalania, a w konsekwencji do przebu-
268
dzania pasji filozoficznych. A więc dużo zależy od wychowania filozoficzno-etycznego elit posługujących się komputerami, wychowania stojącego w sprzeczności z etosem kapitalizmu. Tak czy owak: jeśli bohaterowie dramatów i powieści Witkacego albo współcześni ludzie protestują przeciw urynkowieniu i zmechanizowaniu, to nie dlatego, że ta krytyka byłaby zgodna z głównym nurtem rozwoju kapitalizmu: jeśli myślą
oni i działają w imię wartości metafizycznych, to dlatego, że te wartości
zaczerpnięte są z innych źródeł aniżeli źródła zasilające dominującą tendencję ekonomiki.
Jeśli ludzkość zostanie pozbawiona wymiaru transcendencji (możliwości przekraczania swej skończoności), popadnie w obłęd. Dlaczego?
Bo człowieczeństwo człowieka polega między innymi na przekraczaniu
wszelkich granic. Jak powiada Witkiewicz: człowiek ma rozpęd do nieskończoności; z istoty ludzkiej nie da się uczynić maszyny. Zdławiony
twórczy rozpęd może się przejawiać w formach chorobliwych, ale może
się też wyrazić w formie buntu teoretycznego i praktycznego, w formie
krytyki i walki3.
Może to być albo walka o dotrzymanie wierności tradycyjnym wartościom metafizyczno-religijnym, metafizyczno-artystycznym, metafizyczno-naukowym i metafizyczno-filozoficznym, albo próba stworzenia
nowych wartości (jakości) metafizycznych.
Metafizyczne dzieła sztuki, systemy filozoficzne i religijne są między
innymi wyrazem metafizycznych uczuć. Co to są uczucia metafizyczne?
Jaki mają związek z religią? Otóż nie ma religii bez uczuć metafizycznych, które mogą się przejawiać także w życiu codziennym i w nauce.
Jedną z cech metafizyczności jest poszukiwanie jedności-w-wielości:
uczeni są metafizykami wtedy, gdy usiłują np. zrealizować einsteinowski
program unifikacji pola, tzn. program wyprowadzenia wszystkich możliwych oddziaływań fizycznych z jakiejś jednej prazasady. Poszukiwanie
jedności-w-wielości jest poszukiwaniem absolutu. Stajemy się metafizykami zarówno wtedy, gdy usiłujemy ustalić jakiś fundamentalny poziom
bytu, jak i wtedy, gdy nie rozumiemy, ani przyczyn, ani celu naszej egzystencji, nie wiemy skąd jesteśmy ani dokąd zmierzamy; samo istnienie
wszechświata staje się zagadką.
Czy istnieje jakiś Stwórca wszechświata? Czy materialne rzeczy składają się z atomów, czy też materia da się dzielić w nieskończoność? Czy
w świecie biologiczno-fizycznym panują żelazne konieczności, czy też
jest miejsce na przypadek? Tego typu problematyka transcenduje naszą
3
S.I. Witkiewicz, Matka, w: Dramaty III, opracował J. Degler, PIW, Warszawa
2016, s. 185-191.
269
codzienną walkę o byt, w której jesteśmy zanurzeni po uszy. Jeśli metafizyczność oznacza przekraczanie rzeczywistości zjawiskowo-empirycznej, to także artyści są „metafizykami”, bo czyż ich twórczość nie jest
protestem wobec zastanych faktów? Czyż nie jest deformacją empirycznej rzeczywistości w imię innej, nie-obecnej, danej jedynie w wizjach?
Czy nie jest ściganiem światów piękniejszych, prawdziwszych i sprawiedliwszych od światów faktycznych? Uczucia metafizyczne są zarazem
uczuciami ciekawości i pasji poznawczej; chcielibyśmy wszystko zrozumieć: i tajemnice materii, i zagadki duchowego życia, ale realna egzystencja w realnym społeczeństwie zabija w nas tę ciekawość. Interesujemy się przede wszystkim przetrwaniem w warunkach np. gospodarki
rynkowej.
Sztuka produkowana przez mass media niewiele nam pomaga. Niestety w kapitalizmie, podobnie jak w socjalizmie, dominuje estetyka masowa. Czy wywołuje ona jakieś metafizyczne uczucia? Czy jest to sztuka
na usługach biznesu, czy seryjnego odbiorcy? Jeśli standaryzacja zaspokaja gusta masowego odbiorcy, to na pewno nie ubogaca jego wyobraźni
i nie pobudza do intensywnego myślenia. Cóż dopiero mówić o myśleniu
filozoficzno-metafizycznym? Sztuka masowa miałaby szansę wywoływania uczuć metafizycznych, gdyby tworzyła rzeczy oryginalne, niepowtarzalne, jedyne w swoim rodzaju (tak jak jedyny w swoim rodzaju jest
styl Fryderyka Chopina, Ludwiga van Beethovena czy Karlheinza Stockhausena).
Ale właśnie niepowtarzalne piękno jest jej obce. Lubuje się ona raczej
w tandecie, uniformizacji i standaryzacji. Dzieła wykraczające poza
standardy nie znajdują zbyt wielu nabywców i doprowadzają ich twórców do nędzy. Mass media nie promują wysiłków mających na celu zachowanie kontaktu z wartościami metafizycznymi. Trudno oczekiwać,
że sztuka masowa wskaże swym odbiorcom sens życia. Chyba, że zaakceptuje się sztukę rewolucyjną i za sens życia uzna się walkę z coraz
bardziej odczłowieczonym społeczeństwem nastawionym na powiększanie wydajności i zysku. Ale czy taka walka doprowadzi do rozkwitu filozoficzno-metafizycznych pasji? Czy w społeczeństwie wymarzonym
przez rewolucyjną sztukę będzie się filozofować? W przyszłym społeczeństwie ma nie być polityczno-ekonomicznych represji, ale czy będą
bodźce do zgłębiania tajemnic bytu? Jeśli rozpatrzeć socjalistyczne wizje
przyszłego społeczeństwa, to Witkacy od początku (tzn. jeszcze przed
realnym urzeczywistnieniem tych wizji w życie polskiego społeczeństwa) miał wątpliwości czy lewicowe utopie doprowadzą do wyspy
szczęśliwości, w której nie byłoby przemocy i niesprawiedliwości.
270
A więc czy warto samookreślać się politycznie, jeśli prawdopodobnie
zmierza się od jednej formy represji do drugiej?
Tu jest punkt różniący poglądy Witkacego od poglądów szkoły frankfurckiej: Witkacy nie do końca wierzył w artystyczno-estetyczny sens
protestu przeciw zastanym stosunkom społecznym, tj. nie wierzył w to,
że samookreślenie się polityczne miałoby stanowić istotny składnik
dzieła sztuki. Treści polityczno-rewolucyjne, względnie konserwatywne,
mogą stanowić jeden z elementów artystycznej konstrukcji, obok treści
psychologicznych, historycznych czy pedagogicznych, ale wcale nie są
najważniejsze. Jeśli już mówić o hierarchii ważności, to o wiele ważniejszy jest wymiar metafizycznych jakości zawarty w artystycznym przekazie aniżeli jego reprezentowanie którejś ze stron politycznego konfliktu.
Mówi się o katastrofizmie Witkiewicza; o tym, że rysuje on wizje
świata, w którym w ogóle zginie metafizyka, a ludzkość zamieni się
w zmechanizowane mrowisko. Byłby to świat dążący do coraz większej
zyskonośnej wydajności poprzez coraz większe stechnologizowanie,
skomputeryzowanie i zinformatyzowanie. Byłby to zarazem świat coraz
mniej ludzki. Ten katastrofizm jest pozorny, bo Witkacy rysując obrazy
katastrofy pokazuje jednocześnie drogowskazy na wyjście z pozornie
beznadziejnej sytuacji. Wystarczy wskazać na program naprawy ludzkości głoszony przez Leona, głównego bohatera dramatu Matka. Jeśli
w tym dramacie nie dochodzi do realizacji tego programu i wszystko
kończy się tragicznie, to nie jest to katastrofa nieunikniona, istnieje możliwość jej zapobieżenia w przyszłości. Witkiewicz kreśląc czarne scenariusze, sugeruje jednocześnie obrazy świata mogącego zaistnieć, jeśli
ludzkość nie podda się mechanizującym tendencjom. A więc jego twórczość, przedstawiając możliwą katastrofę, jest jednocześnie kryptogramem, tj. wyraża możliwość odwrócenia biegu historii ludzkości. Witkacy nie był katastrofistą.
Jak to wcześniej zauważyliśmy, Witkiewiczowi chodzi nie tylko
o „metafizykę” pojętą jako pewien system najbardziej ogólnych tez o
świecie, lecz także o pasje i „uczucia metafizyczne”. Aby metafizyka
jako światopogląd była możliwa, muszą istnieć ludzie myślący i czujący
na sposób metafizyczny; ale skąd ich wziąć w systemie socjalistycznym
albo kapitalistycznym? A nawet gdyby się znaleźli, to czy zdołają się
przedrzeć przez oficjalne dyskursy obsługujące interesy rynkowe albo
kolektywistyczne? Czy jest możliwe stworzenie takich warunków społecznych, które nie eliminowałyby w ludziach zdolności do metafizycznego odczuwania? Przecież bez tych uczuć nie rozwinęłaby się ani
271
sztuka, ani filozofia, ani religia. Do tej pory nauka eliminowała metafizykę zgodnie z prawem Comte’a o trzyfazowej ewolucji historii ludzkości; czy nie dałoby się jednak na odwrót, to jest podporządkować stechnologizowaną naukę realizacji wartości metafizycznych? W dramacie pt.
Matka (ale także w swych powieściach) Witkacy rzuca ciekawy (i zdawać by się mogło absurdalny) projekt wykorzystania naukowego intelektu do budowania cywilizacji metafizycznej, rysuje plan ratowania
chwilowo ginących wartości metafizycznych. Trzeba by stworzyć intelektualny opór wobec nadchodzącego socjalistycznego totalitaryzmu
i związanego z nim niszczenia prywatnej inicjatywy we wszystkich dziedzinach życia społeczno-kulturowego. Ale należałoby się też przeciwstawiać morderczej, kapitalistycznej gonitwie za indywidualnym i zbiorowym zyskiem.
Znając stosunki panujące w Rosji Sowieckiej z osobistych doświadczeń, Witkacy prognozował przyszłość Polski jako państwa skolonizowanego przez wschodni totalitaryzm. Czesław Miłosz, Stefan Kisielewski i Leopold Tyrmand byli zgodni, że proroctwa Witkacego okazały się
trafne. Tyrmand potwierdzał, że w społeczeństwie komunistycznym jednostka nie ma szans rozwoju, nie może zabrać się za „twórczą” pracę,
chyba że za cenę „służalczości, upokorzeń i poniżeń”4. Chodzi o służalczość wobec komunistycznej ideologii i jej reprezentantów. W komunizmie dobrze się powodzi służalcom, oportunistom, konformistom, tchórzom, leniom i oszustom. Ludzie oddani polityce partii rządzącej mogli
liczyć na jakieś przywileje. Komunizm był w stanie zapewnić jakiś minimalny dobrobyt całemu społeczeństwu, ale kosztem zniewolenia jednostek. Jak w komunizmie miała rozwijać się sztuka, jeśli każdy artysta
od początku procesu twórczego musiał liczyć się ze zdaniem partii,
rządu, związków zawodowych itd.5 Tyrmand nie pisał o przypadku filozofów, ale ich twórczość wyglądała podobnie: zanim coś ogłosili musieli
się ciężko napocić (albo nie pocili się wcale), aby głoszone idee wyrażone były zgodnie z kanonem komunistyczno-socjalistycznej ideologii.
Filozof-metafizyk jako poddany władzy komunistycznej wiedział, że
nie ma prawa do własnych myśli i uczuć; że jest spętany przez system,
którego nie sposób obalić indywidualnymi środkami. Prywatnie można
było mieć „swoje”, alternatywne w stosunku do marksizmu, poglądy metafizyczno-fiolozoficzne, ale tylko prywatnie i w ukryciu. A więc jak
można było stworzyć jakiś oryginalny system metafizyczno-filozo-
4
5
L. Tyrmand, Cywilizacja komunizmu, mg, Kraków 2013, s.138.
Ibidem, s. 141.
272
ficzny, jeśli komunizm z założenia tępił wszelką niezależną myśl. W ludowych demokracjach nie było sprzyjających warunków ideologicznych
do krzewienia swobodnych uczuć metafizycznych. Promowano socjalistyczny realizm i to do tego stopnia, że jego kanony działały prawie automatycznie. Oto wyznanie młodego poety: „nie mogę pisać, jak chciałbym (...) Jestem w środku frazy i już poddaję tę frazę marksistowskiej
krytyce i wyobrażam sobie, co powie teoretyk X i Y, i kończę frazę inaczej, niż miałem zakończyć”6.
Wmówiono artystom, że tworzenie niezgodne z socjalistycznym realizmem będzie bez wartości7, a więc lepiej unikać wszelkiej metafizyki,
wszelkiej transcendencji. „Oznaki skłonności metafizycznej są niewybaczalne”8. Nie tolerowano uczuć metafizycznych, metafizycznego myślenia i myślenia w ogóle. Zastanawianie się nie było w modzie, co gorsze:
bardziej wartościowym wydawał się ideowiec ślepo wierzący w decyzje
partii niż „inteligent” rozważający racje za i przeciw. Może dlatego ta
dyktatura wywoływała opór, przyczyniała się do powstania zjawiska wewnętrznej emigracji, produkowała schizofreników.
Ale czy ta schizofrenia mogła twórczo się przejawiać, jeśli nie było
oficjalnych możliwości ekspresji wewnętrznych rozterek? Oficjalnie
trzeba się było trzymać kanonów dialektycznego materializmu, pisać w
określony sposób, uprawiać socjalistyczną pedagogikę, ideologię i dogmatykę. Czymś wskazanym było zapisanie się do partii, a więc nic
dziwnego, że filozoficzno-metafizyczna eksploracja świata była wyrzucona na śmietnik. Ktoś mógłby rzec, że przecież w komunizmie działali
rewizjoniści, a więc ludzie podważający dogmaty dialektycznego materializmu, ale takie podważanie miało swoje granice i kończyło się po
prostu inną wersją dialektycznego materializmu, a nie stworzeniem jakiejś realnej alternatywy filozoficznej. Ludziom odechciewało się jakiegokolwiek rewizjonizmu, nie tylko filozoficznego, bo jak pisał Tyrmand:
„autentyczni przeciwnicy byli, jak zawsze, wdeptywani obcasami w ziemię, likwidowani, więzieni, pozbawiani środków do minimum egzystencji” 9. Wszystkie odmiany rewizjonizmów były wg Tyrmanda tworzone
przez „ludzi jednakowo wytrenowanych w praktyce kłamstwa w służbie
scholastyki przemocy”10. Jak w takich warunkach miały się rozwijać
swobodne badania filozoficzne? Filozofia była kontrolowana przez elity
polityczne, a te składały się z „ludzi nieczułych i niewrażliwych na
Cz. Miłosz, Zniewolony umysł, Świat Książki, Warszawa 1996, s. 29.
Ibidem
8
Ibidem, s. 89.
9
L.Tyrmand, op.cit., s. 230.
10
Ibidem, s. 231.
6
7
273
drgnienia prawdy, niedopuszczających możliwości istnienia innych poglądów, nieznających prawdziwej dyskusji, nierobiących niczego, co nie
uzgodnione, nie postanowione z góry”11.
Od artystów wymagano, aby pokazywali w swych dziełach ludzi
uświadomionych „filozoficznie”, tzn. wyznających materializm dialektyczno-historyczny. Niektórym to odpowiadało, np. Tadeuszowi Borowskiemu, który wyprowadzał hitleryzm z chrześcijaństwa12, gloryfikując
zarazem nową komunistyczną cywilizację. Taka teza i taka postawa
z pewnością musiały podobać się ludziom wychowanym na marksizmie.
„Zacierała się już granica pomiędzy literaturą a propagandą”13. Z każdego pisarza starano się zrobić „szmatę” (wyrażenie Miłosza), tzn. zmuszano pisarzy, by pisali wg wytycznych rządzącej partii. Kanony socjalistycznego realizmu wymagały ośmieszenia wszelkiej filozofii niemarksistowskiej. Nie domagano się nawet specjalnej analizy, specjalnych argumentów pro i kontra: po co analizować? Przecież wiadomo, kto ma
rację (normalnie, kiedy ludzie dyskutują, kieruje nimi wola dotarcia do
prawdy, a nie jakiś specjalny interes polityczny; wynik dyskusji nie jest
przesądzony. Może zwyciężyć teza albo antyteza, względnie synteza.
Może też być zanegowana zarówno teza jak i antyteza). A poza tym liczy
się realna walka z ideowym wrogiem, a nie dyskutowanie. Komunistę
powinna cechować ślepa wiara w decyzje partii, a niezdecydowanych co
do wyboru właściwej filozofii trzeba zastraszyć. Kto ma jakieś wątpliwości, jest wrogiem klasowym.
W realnym socjalizmie ludzie stojący u władzy uważali, że myślenie
przeszkadza w działaniu. Cóż dopiero mówić o myśleniu metafizycznofilozoficznym? Preferowano fanatyków panującej ideologii, a nie ludzi
zastanawiających się nad zagadkami bytu. Argument siły stawiano ponad siłę argumentu. Chwalono żelazną konsekwencję w realizowaniu raz
przyjętych zasad, a nie dostosowanie zasad do prawdy. Lekceważono
przemyślenia „własne”, chyba że myślenie odbywało się zgodnie z kanonami poprawności politycznej. Jeśli używano filozoficznych kategorii, to nie po to, by wyjaśnić istotę świata, lecz po to, by manipulować
umysłami, zyskiwać zwolenników nowej polityki. Aby skutecznie manipulować, trzeba było posłużyć się cenzurą eliminującą wszystko, co
godziło w komunistyczne dogmaty; co przypominało obiektywną eksplorację filozoficzną. Żadnej wolności słowa, żadnej wolności myśli.
11
S. Kisielewski, Dzienniki, Iskry, Warszawa 2001, s. 615
Cz. Miłosz, Zniewolony umysł, op.cit., s.144.
13
Ibidem, s. 145.
12
274
Szczerość nie była w modzie: „jedno słowo szczere mogło pociągnąć za
sobą zgubne następstwa”14.
Ciekawe przy tym jest to, że realny socjalizm i komunizm nie miały
wiele wspólnego z poglądami filozoficznymi Karola Marksa; z czysto
teoretycznego punktu widzenia, socjalizm wcale nie musiał być systemem totalitarnym, a marksizm posługiwać się inkwizycyjną cenzurą.
Eliminowanie metafizyki i filozofii innych od filozofii dialektyczno-historycznej wcale nie było koniecznością. Przecież socjalizm, w swych
programowych założeniach, miał być systemem demokratyczno-pluralistycznym, miał być humanizmem. Interesy indywiduum nie miały być
miażdżone interesami kolektywnymi, bo dialektyka zakłada jedność
przeciwieństw, a nie likwidowanie tezy przez antytezę albo na odwrót.
Przecież to niemożliwe, by czysty dialektyk-teoretyk przekreślał rolę indywiduum w historycznych wydarzeniach; by akcentował jedynie rolę
klas społecznych. Marksizm z założenia nie był też czystą ideologią;
ideologia miała dopełniać się do rozpoznania prawdy – taki przynajmniej
był program. Dialektyczny materializm – w czysto teoretycznym wymiarze – nie był (przynajmniej na początku) programowo wrogi wszelkiej
metafizyce. Swiadczą o tym próby łączenia marksizmu z filozofią Henri
Bergsona i Fryderyka Nietzschego (przypadek Stanisława Brzozowskiego) czy z mesjanizmem (przypadek Ericha Fromma czy Jacquesa
Derridy). Tylko, że ani ideolodzy marksizmu, ani politycy nie przejmowali się zgodnością czystej teorii i głoszonych haseł z praktyką. W rezultacie, to realna praktyka falsyfikowała teoretyczne programy, a praktyczni działacze byli nakierowani na realizowanie dyktatury proletariatu,
totalizowanie społeczeństwa, upaństwowienie gospodarki i kultury, kolektywizm i eliminowanie metafizyki. I właśnie przed taką praktyką
ostrzegał Witkacy. Programowo-teoretyczne hasła materializmu dialektyczno-historycznego były tylko hasłami, pustymi słowami. Witkacy widział to jako naoczny świadek rewolucji październikowej, docierały też
do niego relacje dziennikarzy, polityków i pisarzy obserwujących wydarzenia w Rosji.
Socjalistyczni filozofowie i artyści wiedzieli, że w ich twórczości
miała być zawarta np. krytyka „fałszywej” świadomości burżuazyjnej,
bo „prawdziwa” świadomość miałaby przysługiwać proletariatowi (a to
dlatego, bo podobno interesy proletariatu miałyby być zgodne z interesami całej ludzkości). Jednak jakim cudem klasa proletariatu byłaby
zdolna do świadomego przekroczenia swego proletariackiego interesu,
jeśli wg Marksa wszelka świadomość jest klasowo uwarunkowana?
14
Ibidem, s. 188.
275
Czyżby tylko proletariusze byli zdolni do bezinteresownego oglądu
prawdy? Ale mniejsza z tym: jeśli się walczy o społeczeństwo bezklasowe, to nic dziwnego, że nie walczy się o metafizyczne treści, wartości
czy uczucia.
Jak wiadomo, Witkacy skłaniał się w sztuce do formalizmu, który łączył z metafizyką w tym sensie, że same formalne elementy dzieła sztuki,
poprzez swą niezwykłość i „dziwność” (swą rewolucyjność), mogły pobudzać stany metafizyczne (odczucia dziwności istnienia). Ale wg teoretyków komunizmu, rewolucyjność w użyciu artystycznych środków
formalnych była akceptowalna o tyle tylko, o ile powiązana była z polityczno-socjalną rewolucją proletariatu, tzn. o tyle, o ile rewolucyjny artyzm wywoływał uczucia nienawiści do społeczeństwa wyzysku i chęć
walki o nowy porządek świata. Najpiękniejsze – z formalnego punktu
widzenia – dzieła oceniane były pozytywnie tylko wtedy, gdy niosły
w sobie proletariacką ideologię. Jak się w takim razie odnieść do dzieł
reprezentujących hasło „sztuka dla sztuki”? Problem polega na tym, że
także w wypadku uprawiania „sztuki dla sztuki” (kiedy artysta w ogóle
nie interesuje się sygnalizowaniem jakichkolwiek czytelnych treści, a
skupia się wyłącznie na rewolucjonizowaniu środków formalnych) może
u odbiorcy dojść do metafizycznych objawień, bo dziwaczne formy
przedstawiania świata udziwniają sam świat. Czasami artyści chcą nas
otworzyć nas na metafizyczny wymiar istnienia (życia), używając jedynie zwariowanych form; nie wyrażają oni ani treści proletariackich, ani
antyproletariackich. Dzieło sztuki nie musi w sobie nieść jakichś specjalnych treści polityczno-ideologicznych, by nas zachwycić. Czasami
dzieło sztuki jest jednym wielkim formalnym eksperymentem, a mimo
to może ono wywoływać głębokie refleksje filozoficzno-metafizyczne
niepowiązane z jakąś określoną ideologią polityczną. Czy takie dzieła
trzeba wyeliminować?
Piotr Bieranowski
Uniwersytet Warmińsko-Mazurski
w Olsztynie
HUMANIZM TECHNICZNY W BUDOWNICTWIE –
WPŁYW NATURY I TECHNIKI NA NASZE ZDROWIE
Amicus Plato, Amicus Socrates
sed magis amica veritas
(Arystoteles)
1. Technika a filozofia – filozofia a technika
Technika sama w sobie jest natchniona źródłem matematycznych
i fizycznych interpretacji opisu rzeczywistości. Problemem społecznym
staje się nie sam opis zjawisk, tylko ich wykorzystanie do ukrycia mankamentów sprzedawanych materiałów czy technologii – laikowi łatwo
jest wmówić nowe rozwiązanie techniczne, oprawione złożonym opisem, skomponowanym przy pomocy skomplikowanego aparatu matematycznego i wykorzystaniu twierdzeń fizycznych, które same w sobie
są logiczne. W tym miejscu należy podkreślić, że po to dążymy do
opisu zjawisk z zakresu fizyki w sposób najbardziej zbliżony do rzeczywistości, aby tę rzeczywistość, czyli naturę zjawiska wykorzystać w
sposób jak najbardziej zbliżony do rozwiązań naturalnych.
W rozprawie Falsyfikacja a metodologia naukowych programów
badawczych Imre Lakatos przedstawił korektę falsyfikacjonizmu, którą
można przyjąć jako próbę rozwiązania problemu rewizji wiedzy zasadnej. Z należytą powagą potraktował on pogląd Poppera, według którego
zadaniem metody naukowej nie jest uzasadnianie hipotez, lecz uznanie
krytycznych preferencji. Tym samym wyprowadził wniosek, że przedmiotem oceny metodologicznej muszą być nie pojedyncze hipotezy,
lecz ich zespoły – naukowe programy badawcze.
Warto w tym miejscu przytoczyć zacną myśl, która jest jednym
z czynników nadającym filozofii św. Tomasza nieprzemijającej wartości: naczelna troska o poszukiwanie prawdy. Akwinata uważał, że filozofii uczymy się nie po to, by się dowiedzieć, co myślą ludzie, lecz jaka
jest prawda. Oto jest przyczyna, dla której, moim zdaniem, filozofia św.
278
Tomasza góruje nad innymi systemami filozoficznymi realizmem
i obiektywizmem: jest ona filozofią bytu, a nie pozoru, lub: tego, co
jest, a nie tego, co się wydaje.
Wszelkie rozważania w tym artykule dotyczyć będą rozwiązań naturalnych, a także technologii już zdobytych przez ludzkość, znanych
powszechnie oraz na co dzień używanych. Zdaniem autora, najważniejszy początek w poznaniu czegokolwiek tkwi w samej istocie natury.
Nie trzeba tłumaczyć logiki natury, ponieważ dzięki niej – jesteśmy.
Reasumując, warto czasem w pędzie wdrażania i zakupu nowości technicznych, skromnie przycupnąć i rozważyć za i przeciw w kontekście
możliwości natury oraz zasadności zastosowania owych zakupów,
choćby w aspekcie zdrowia ludzkiego.
Każda rzecz konkretna jest nośnikiem swojej istoty – ma wymiar
istotnościowy. Tę istotę przedmiotu dostrzega się nie przez empirię czy
spostrzeżenia zmysłowe, nawet nie poprzez indukcję albo dedukcję.
Poznaje się ją tylko w oglądzie ejdetycznym, tj. przez „naoczną istotowość”, czyli intuicyjny ogląd bezpośredni. Ogląd taki jest ważny nie w
aspekcie jednostkowości, lecz jako powszechnik, istota ogólna rzeczy,
ma się unaocznić bezpośrednio świadomości. To, co nowe należy dla
odróżnienia nazwać. Husserl zastosował termin „fenomen” dla nazwania wszystkiego tego, co w tym intuicyjnym poznaniu (wglądzie) okazuje się być danym bezpośrednio i jako oczywiste. Stąd wywodzi się
współczesne rozumienie fenomenologii. Należy tu dobitnie podkreślić,
iż termin „fenomen” nie występuje tu jako określenie kantowskiego
pojęcia zjawiska – lecz jako istota rzeczywistości, czyli „rzecz sama”1.
Świadomość fenomenologiczna egzystuje we własnej przestrzeni
i sama siebie ustanawia. Jest światem autonomicznym – jest zaczynem
natury naszego życia, jako samoreprodukująca się w granicach natury
zreprodukowanej2.
2. Odczucia cieplne ludzi
Badania mikroklimatu wnętrz i komfortu cieplnego ludzi, prowadzone przecież od 50 lat, nie dostarczyły pełnej informacji pozwalającej zbudować zbliżone do rzeczywistych modele zachowań cieplnych
ludzi w pomieszczeniach zamkniętych. Jednolite uściślenie kryteriów,
które mogą być stabilne dla wszystkich ludzi w aspekcie określonego
stanu odczuć cieplnych (kojarzonych często z komfortem cieplnym),
Podaję za: Z dziejów myśli filozoficznej, cz. II, red. Z. Hulla, W. Tulibacki,
Wydawnictwo ART, Olsztyn 1992, s. 226.
2
B. Jasiński, Między buntem a pokorą istnienia, Nowe Wydawnictwo Polskie,
Warszawa 1990, s. 97.
1
279
nie jest możliwe z uwagi na psychologiczny, osobniczy charakter tych
odczuć. Istnieje natomiast dość pokaźna wiedza o jednostkowych oddziaływaniach różnych parametrów mikroklimatu środowiska oraz
wpływu innych czynników na stan doznań termicznych.
Wykazano eksperymentalnie, że liczba ludzi niezadowolonych z
warunków termicznych środowiska wzrasta, gdy amplituda wahań
temperatury w pomieszczeniu przekracza określoną wartość3.
3. Przegrzewanie domostw a zdrowie ludzkie
Naszemu zdrowiu nie sprzyja temperatura nazbyt niska, jak również
zbyt wysoka. Problematyka ta narasta wraz ze zmianą kolejnego parametru środowiskowego, jakim jest wilgotność (dobry dla naszego komfortu jest przedział od 40– 60%). Przy temperaturze wyższej od 21.0o C
i nieodpowiedniej wilgotności wysychają śluzówki dróg oddechowych.
Następuje wtedy osłabienie mechanizmu usuwania wirusów i bakterii z
nosa i gardła. Ma to głównie wpływ na częstość przeziębiania się.
Przegrzewanie mieszkań powoduje następujące zakłócenia w prawidłowym funkcjonowaniu organizmu:
– pogarsza się zdolność koncentracji uwagi i analitycznego myślenia,
– wzrasta uczucie rozdrażnienia,
– częściej odczuwa się bóle głowy,
– spada ciśnienie krwi,
– szybciej się męczymy, co prowadzi do nadmiernych osłabień.
Długotrwałe przebywanie w przegrzanym mieszkaniu może spowodować:
– odwodnienie organizmu,
– wywołać zaburzenia pracy serca4.
Jak wyżej wspomniano, przegrzewanie domostw czy miejsc pracy
itd., jest dla ludzi niezdrowe. Przegrzania następują głównie latem, gdy
sprzyja temu upalna aura, która utrzymuje się czasem przez wiele dni.
Na rys. 1. zaprezentowano zakresy temperaturowe dla pomieszczeń na
parterze (kolor pomarańczowy) oraz piwnic – niebieski5,6.
A. Dylla, Praktyczna fizyka budowli. Szkoła projektowania złączy, Wydawnictwa Uczelniane UPT, Bydgoszcz 2009, s. 91-93.
4
M. Wilczkowska, Jaka jest optymalna temperatura w domu?,
http://polki.pl/zdrowie/choroby,optymalna temperatura-w-domu-jaka-temperatura-jest-najlepsza-dla-zdrowia,10026454,artykul.html
(data
dostępu:
25.08.2016).
5
http://forum.muratordom.pl/archive/index.php/t36765.html?s=c8e59a1cd789e
ef5249aab99d2675c3d.
3
280
Pomieszczenia te wyposażone były w wentylację grawitacyjną. Nie
stosowano w nich wentylatorów chłodzących, klimatyzatorów stacjonarnych, czy też instalacji klimatyzacyjnej. Warto w tym miejscu zwrócić uwagę na zakres interpretowany przez kolor niebieski (piwnica),
który znacząco różni się od zakresu określonego kolorem pomarańczowym (parter). Ze względu na warunki panujące w pomieszczeniach
piwnic, latem mogą one skutecznie posłużyć jako naturalne klimatyzatory – komory, skrzynie klimatyczne (nazwa autora). Przebywając
w takich pomieszczeniach – odpowiednio ze względu na ukształtowaniepodziemne wychłodzonych – czujemy się fizycznie i psychicznie
dużo bardziej komfortowo, niż w warunkach temperatury występującej
poza tą strefą. Dane prezentowane na wykresie (rys. 1.) dotyczą domów
mieszkalnych jednorodzinnych.
Rys. 1. Wartość temperatury w upalne dni. Kolor niebieski – piwnica, pomarańczowy – parter (opracowanie własne wg 6,7).
4. Wymiana ciepła – fizyczna interpretacja procesów
Wymiana ciepła to zjawisko, które powszechnie występuje
w przyrodzie i zachodzi wszędzie tam, gdzie istnieje różnica temperatury. Sam proces jest bardzo skomplikowany – w związku z tym, dokonuje się wielu uproszczeń w celu uzyskania pożądanych rozwiązań.
W praktyce skupia się to na poszukiwaniu pola temperatur lub obliczenia ilości wymiany ciepła przekazywanej z jednego układu termodynamicznego do drugiego – lub w granicach danego układu. Energia
wewnętrzna danego ciała jest mierzona za pomocą parametru stanu
6
http://f.kafeteria.pl/temat/f1/ile-macie-stopni-w-pokoju-fala-upalow-p_5984639.
281
w aspekcie intensywności, jakim jest temperatura oraz parametrów
stanu w kontekście ekstensywnym, jakimi są entalpia i entropia.
Z punktu widzenia budownictwa, w głównym kręgu rozważań leży
temperatura. Do zapoczątkowania ruchu energii termicznej potrzeba
w układzie termodynamicznym pojawienia się gradientu temperatury.
Ma to podstawę logiczną w tym, że rozpatrywany układ będzie dążył
do równowagi (zerowa zasada termodynamiki). Z drugiej zasady termodynamiki wiemy zaś, że układ termodynamiczny posiadający pole
temperatury o większej wartości odda energię układowi posiadającemu
niższy stopień nagrzania ciała, które może posiadać różną formę skupienia (stałą lub gazu). Fizyczne mechanizmy opisujące transport ciepła, dzielimy na trzy procesy, zachodzące razem lub w konwencji parowej, a są to: przewodzenie, konwekcja i promieniowanie.
5. Wybrane metody redukcji ciepła – działania niwelujące przegrzanie pomieszczeń mieszkalnych i użytkowych
Występująca w środowisku naturalnym wymiana ciepła, zachodząca
w procesie promieniowania, odgrywa istotną rolę w naszym życiu codziennym. Związane jest to głównie z oddziaływaniem promieniowania
słonecznego, które nagrzewa grunt, budynki, najbliższe otoczenie budynków, powietrze, roślinność, etc. Wszystkie te elementy emitują
promieniowane własne, stając się tym samym źródłem promieniowania
długofalowego, pochłaniając jednocześnie promieniowanie długofalowe pochodzące z atmosfery i obiektów sąsiadujących. Proces ten jest
ciągły. Ziemia i atmosfera emitują fale elektromagnetyczne (promieniują) w zakresie promieniowania długofalowego, ponieważ posiadają
temperaturę, w której może zachodzić tylko tego typu promieniowanie.
Słońce jest znacznie cieplejsze od Ziemi, stąd emituje promieniowanie
o znacznie krótszej długości fali. Gazy cieplarniane wysyłają promieniowanie podczerwone, ponieważ w takim zakresie pochłaniają promieniowanie od środowiska, które je otacza7.
Aby unaocznić omawianą problematykę przegrzewania domostw
w okresie letnim, autor wykonał serię zdjęć (rys. 2– 7), obrazującą
„ucieczkę” mieszkańców budynków wielorodzinnych przed wpływami
solarnymi. Oczywiście podobne metody stosują również mieszkańcy
domów jednorodzinnych. W tym wypadku jednak często są w dogodniejszej sytuacji, zwykle posiadają piwnice użytkowe, w odróżnieniu
od mieszkańców tzw. bloków, którzy posiadają komórki lokatorskie,
7
H. Nowak, Zastosowanie badań termowizyjnych w budownictwie, Oficyna
Wydawnicza Politechniki Wrocławskiej, Wrocław 2012, s. 133.
282
często przepełnione, stanowiące, tzw. lamus (skład starych rzeczy).
W tym wypadku ciężko jest mówić o funkcji naturalnej komory klimatycznej (w poziomie rzutu piwnic), która może ochłodzić w czasie długofalowych – nadmiernych upałów – ciało ludzkie. Rysunki od 2 do 7
są jasne w przekazie, stąd nie wymagają szerszego komentarza, warto
tylko jeszcze raz spojrzeć na rys. 2 i 3, na których widoczne są rolety.
Są to rolety nocne, w tym wypadku nieszczęśliwie wykorzystane jako
przeciwsłoneczne. Co istotne, są wykonane w ciemnej barwie – łatwo
pochłaniają docierające do nich promieniowanie, po drugie zaś są
umieszczone wewnątrz pomieszczenia. Tak nagrzana płachta zasłony
zapewnia nie zmniejszenie, a zwiększenie temperatury w pomieszczeniu. Układ taki można porównać do mini–promiennika cieplnego
(grzejnika, itp.), który, nagrzany, emituje ciepło w eter. Kurtyny (zasłony) przeciwsłoneczne należy montować od strony zewnętrznej – za
oknem pomieszczenia, powinny być one również wykonane w barwach
redukujących pochłanianie promieniowania (np. białe).
6. Autorska koncepcja projektowania domów mieszkalnych
jednorodzinnych oraz zalecenia dla budynków wielorodzinnych
w aspekcie funkcyjnych komór klimatycznych
Jak było tu już wspominane, wpływy przegrzania izb mieszkalnych
mogą znacząco utrudnić bytowanie. Idąc za prawami dynamiki Newtona – akcja równa się reakcji, autor postanowił zatem przedstawić własną interpretację rozwiązania problemu.
Nie zawsze latem mamy możliwość zmiany klimatu domowego na
inny. Przyczyny mogą być bardzo proste: zaległa praca do wykonania,
nasz wiek, choroba, czy zwykłe przeziębienie z wysoką gorączką.
W takim stanie ducha czy ciała, w interakcji z długotrwałą falą upałów
jesteśmy pozbawieni możliwości wychłodzenia naszego organizmu,
skazani na nadmierne przemęczenia. Skutki takowego przemęczenia
były w tym artykule przywoływane wcześniej.
Poniżej przedstawiono warianty rozwiązania omawianego problemu
przegrzewania domostw latem. Wersja pierwsza dotyczy domów
mieszkalnych jednorodzinnych (rys. 8 a.), druga wielorodzinnych (rys.
8 b.), gdzie często osoby schorowane, w podeszłym wieku, czy po prostu wykonujące okresowo pracę umysłową w miejscu zamieszkania, nie
mają żadnej możliwości odizolowania się od przegrzanego pomieszczenia. Aspekty dotyczące tych rozwiązań powinny być kształtowane
już na etapie projektowania, czyli tzw. deski projektowej. Jeżeli na tym
etapie rzut piwnic został już w pełni uwarunkowany funkcją o innym
283
charakterze, moduł komory klimatycznej doprojektować można poza
obrysem rzutu kondygnacji podziemnej, jak to pokazano na rys. 8 a.
a)
b)
Rys. 8. Wariant komory klimatycznej dla: a) budynku mieszkalnego jednorodzinnego i b) budynku mieszkalnego wielorodzinnego (rys. archiwum
autora)
Warto w tym miejscu nadmienić, iż na poziomie poddaszy w okresach długofalowych upałów, temperatura (styk z płaskim dachem – nie
jak na rys. 8) w budynkach wielorodzinnych może dochodzić do 35o C.
Jak wcześniej wspomniano, nie każdy mieszkaniec może odizolować
się od tych skrajnych warunków klimatycznych. Przegrzanie organizmu
osoby osłabionej w tych przypadkach kończy się poważnymi konsekwencjami, włącznie z pobytem w szpitalu. Gdyby taka (takie) komory
(skrzynie) klimatyczne istniały, to osoby potrzebujące wychłodzenia i
czasowego przebywania w warunkach zredukowanej temperatury mogłyby je bezpośrednio wykorzystać. Pomieszczenia takie powinny,
zdaniem autora, być doświetlone światłem naturalnym (okna piwniczne) i wyposażane w najprostsze, podręczne meble.
7. Wnioski
Wiele jest publikacji nawiązujących swą tematyką do oszczędności
energii, już to zimną (ogrzewanie), już latem (energia chłodnicza).
Wywód autora mówi o oszczędzaniu zdrowia, wykorzystaniu możliwości naturalnych do chłodzenia domostw latem, co w kontekście wieloletniego użytkowania domów mieszkalnych jednorodzinnych (często
284
wielopokoleniowych), również daje oszczędności, nie tylko w wymiarze zdrowotnym, ale i ekonomicznym.
W artykule zostały omówione również metody stosowane dla budownictwa jedno– i wielorodzinnego, które latem pozwolą osobom
starszym, chorym, spokojnie przetrwać nadmiernie upalne letnie dni.
Autor ma także nadzieję, że ten artykuł pozwoli ludziom na spojrzenie na omawiany problem i fizykę zjawisk mu towarzyszących w sposób alternatywny, taki który przyniesie ludziom zyski nie tylko zdrowotne, ale także materialne – podyktowane prostą logiką i czerpane
jedynie z możliwości natury.
285
Rys. 2. Wywołanie zacienienia porostem roślinności (fot. archiwum autora).
Rys. 3. Widoczne do połowy wysokości okien opuszczone rolety (fot. archiwum autora).
286
Rys. 4. Kurtyna boczna oraz parasol przeciwsłoneczny (fot. archiwum autora).
Rys. 5. Redukcja wpływów solarnych zespołem parasoli przeciwsłonecznych (fot. archiwum autora).
287
Rys. 6. Kwiaty prócz pięknego efektu zdobniczego również wywołują częściowe zacienienie (fot. archiwum autora).
Rys. 7. Wyprofilowanie wysięgu zadaszenia balkonu wspornikowego
(fot. archiwum autora).