Academia.eduAcademia.edu

Big data a problem reprezentacji poznawczej

2022, Człowiek i Społeczeństwo

In this article, the author reflects on Big Data analytics in the context of the problem of cognitive representation. There are many voices declaring that the era of Big Data has brought a radical breakthrough in human cognitive abilities. Some-especially in the world of business and marketing, and to a lesser extent in the field of science-argue that for the first time we can reach a clean, objective picture of reality and keep track of its changes. The article is a critical commentary to this thesis. In Big Bata analytics, cognitive activities are assessed not from the point of view of their compliance with reality, but the possibility of achieving set goals. Big Data mining can be, and often is, an important tool for reality control and forecasting-which does not mean it can discover objective truth and create accurate representations of reality.

CZŁOWIEK I SPOŁECZEŃSTWO T. LIII, 2022 ŁUKASZ IWASIŃSKI ! BIG DATA A PROBLEM REPREZENTACJI POZNAWCZEJ ABSTRACT. Łukasz Iwasiński, Big data a problem reprezentacji poznawczej [Big Data and the problem of mental representation] edited by Andrzej Wawrzynowicz, „Człowiek i Społeczeństwo” vol. LIII: Paradygmaty metafilozofii [Paradigms of metaphilosophy], Poznań 2022, pp. 241–261, Adam Mickiewicz University. ISSN 0239–3271, https://doi.org/10.14746/cis.2022.53.14. In this article, the author reflects on Big Data analytics in the context of the problem of cognitive representation. There are many voices declaring that the era of Big Data has brought a radical breakthrough in human cognitive abilities. Some – especially in the world of business and marketing, and to a lesser extent in the field of science – argue that for the first time we can reach a clean, objective picture of reality and keep track of its changes. The article is a critical commentary to this thesis. In Big Bata analytics, cognitive activities are assessed not from the point of view of their compliance with reality, but the possibility of achieving set goals. Big Data mining can be, and often is, an important tool for reality control and forecasting – which does not mean it can discover objective truth and create accurate representations of reality. Keywords: cognitive representation, Big Data, anti-realism, constructivism Łukasz Iwasiński, Uniwersytet Warszawski, Wydział Dziennikarstwa, Informacji i Bibliologii, 00-927 Warszawa, ul. Nowy Świat 69, e-mail: lukiwas@gmail.com, ORCID: https://orcid.org/ 0000-0003-2126-7735. Reprezentacja poznawcza Problem reprezentacji poznawczej jest jednym z centralnych zagadnień nowożytnej refleksji filozoficznej. Ma on fundamentalne znaczenie nie tylko dla epistemologii, ale także zagadnień z dziedziny naukoznawstwa, filozofii oraz socjologii wiedzy i nauki. Jak pisze Marek Sikora, pojęcie reprezentacji poznawczej wyłoniło się w wyniku sporu między prezentacjonizmem 242 Łukasz Iwasiński a reprezentacjonizmem. Orędownicy pierwszego stanowiska uznawali, że „podmiot w poznaniu postrzega obiekty rzeczywiste”, a drugiego, że „przedmiotem poznania nie są obiekty rzeczywiste, lecz ich obrazy lub skutki, tj. pewne reprezentacje tych obiektów” (Sikora, 2007: 9). W obrębie samego reprezentacjonizmu od początku rysowały się konflikty, przede wszystkim między realizmem a idealizmem subiektywnym. Zwolennicy pierwszego kierunku twierdzili, że przedmiotem poznania są reprezentacje realnych bytów, niezależne od poznającego podmiotu, a drugiego – że reprezentacje poznawanych bytów nie są niezależne od podmiotu i aktu poznania, że w procesie poznania nie istnieje nic zewnętrznego wobec samego procesu poznania. Z czasem rozwinięto wiele bardziej zniuansowanych wersji ujęć problemu reprezentacji. Główne kontrowersje we współczesnej refleksji nad reprezentacją poznawczą to, zdaniem Sikory (2007: 10–12): (1) spór między realizmem i antyrealizmem, będący kontynuacją, ale też pogłębieniem, wspomnianego konfliktu między realizmem a idealizmem subiektywnym, oraz (2) spór między realizmem a konstruktywizmem. W pierwszym przypadku chodzi o „status poznawczy wytworów poznania naukowego”: realiści przyjmują, że owe wytwory są konstruktami, lecz reprezentują realny świat, odzwierciedlają jego kształt, strukturę, antyrealiści natomiast uznają, że wytwory poznania status prawdziwości otrzymują nie dlatego, że są zgodne z rzeczywistością, ale dlatego, że są zgodne z przyjętą ideą prawdziwości. Spór drugi koncentruje się nie tyle na wytworach poznania, ile na procesie poznania: realiści uznają, że poznawana rzeczywistość jest zewnętrzna wobec poznającego podmiotu i poprzedza akt poznania, a konstruktywiści utrzymują, że podmiotu i przedmiotu poznania nie da się rozdzielić. Uogólniając, można przyjąć, że na jednym biegunie debaty znajduje się pogląd realistyczny, zakładający, że wytwory poznania są obrazem prawdziwego świata, a ów świat jest niezależny od podmiotu poznania, który w procesie poznania go odkrywa. Co za tym idzie, status prawdziwości twierdzeń o świecie zależy wyłącznie od jego, poprzedzającej proces poznania, natury. Na drugim biegunie są stanowiska antyrealistyczne i konstruktywistyczne, uznające, że wytwory poznania są traktowane jako prawdziwe na podstawie określonych rozstrzygnięć o charakterze społecznym, będących produktem negocjacji, w które uwikłane są gry interesów, określone wartości i ideologie, kształt instytucji społecznych itd. Podmiot współkształtuje tu przedmiot swego poznania (por. Zybertowicz, 1995: 58–65)1. Taka klasyfikacja prezentuje stanowiska skrajne. Rozwój dyskusji dotyczącej reprezentacji poznawczej prowadzi do tego, że przedstawione tu podziały u wielu autorów, 1 Big data a problem reprezentacji poznawczej 243 Realizm w myśleniu zdroworozsądkowym, potocznym, może wydawać się oczywisty i jest domyślnie przyjmowany przez dużą część środowiska naukowego, które wierzy, że wykonując podporządkowane odpowiedniej, rygorystycznej metodologii operacje, zdoła odkryć obiektywne fakty oraz jednoznacznie zrekonstruować prawidłowości i właściwości świata, a tym samym stworzyć jego adekwatny obraz (a przynajmniej, w toku rozwoju nauki, coraz bardziej się do tego celu przybliżać). Współczesna filozofia oraz socjologia wiedzy i nauki skłaniają się jednak w stronę antyrealizmu/konstruktywizmu, bądź też problematyzują i komplikują stanowisko realistyczne. Źródła krytyki realizmu Zasadnicze znaczenie dla sproblematyzowania realizmu miała koncepcja Immanuela Kanta, jego „przełom kopernikański” (1957: 26–33; 1960: 65–67). Stworzył on grunt dla poglądów negujących niezależność przedmiotu i podmiotu poznania. W przeważającej liczbie koncepcji realizmu przedmiot poznania jest wtórny wobec samego procesu poznania i poznającego podmiotu. Z myśli filozofa z Królewca wypływa wniosek, że dostępna poznającemu odbiorcy wizja rzeczywistości jest projekcją rzutowaną na aprioryczne kategorie umysłu, które ową rzeczywistość (przedmiot poznania) porządkują i konstytuują. Idee Kanta istotnie przyczyniły się do rozwoju sceptycyzmu w zakresie możliwości dotarcia do niezależnego od człowieka kształtu rzeczywistości. Sikora wprost nazywa Kanta pionierem myśli konstruktywistycznej (Sikora, 2007: 22). Także Jerzy Szacki (2006: 122) u Kanta szuka źródeł krytyki realizmu – od niego wywodzi problem, „czy rzeczywistość społeczna [choć możemy spytać o rzeczywistość w ogóle – dop. Ł.I.] jest nam dana jako zbiór gotowych «rzeczy» czy też jest tak lub inaczej «konstruowana»”. Z kolei Jan Woleński (2005: 468) interpretuje Kanta jako epistemologicznego antyrealistę (a zarazem realistę ontologicznego). Na przełomie XIX i XX w. konwencjonaliści (Henri Poincaré, Pierre Duhem, Édouard LeRoy)2 argumentowali, że dane empiryczne nie są wystarczające dla ustalenia prawdziwości sądu. Nie istnieją nagie fakty, dane w wielu punktach, ulegają zatarciu; komplikuje się też kwestia samych definicji (zob. Krajewski, 1995; Zybertowicz, 1995; Czarnocka, 2003; Majcherek, 2004). 2 W nawiasach podaję najbardziej paradygmatycznych przedstawicieli (ewentualnie ośrodki naukowe) danego nurtu. 244 Łukasz Iwasiński niezawierające uprzednich założeń o charakterze czysto umownym. Same sposoby gromadzenia danych, konstrukcji wskaźników, narzędzi pomiarowych i innych składowych procesu poznania stanowią konwencje, mające istotny wpływ na kształt owego sądu (zob. Kołakowski, 1966: 145–165; Heller, 2009: 30–31). Zgodnie z Popperowskim postpozytywizmem z lat trzydziestych XX w. obserwacje zawsze są interpretacjami w świetle teorii (Popper, 1977: 91; jakkolwiek jego stanowisko w tej kwestii nie było konsekwentne, zob. Chmielewski, 1995: 174–175; Majcherek, 2004: 56–57). Dziedzictwem postpozytywizmu jest też zradykalizowanie konwencjonalistycznego stanowiska o niedookreśleniu/niezdeterminowaniu twierdzeń przez dane (Willard Van Orman Quine), w myśl którego z danego zbioru danych można wyprowadzić różne interpretacje, zbudować na ich podstawie różną wiedzę i tym samym różne reprezentacje świata (zob. Chmielewski, 1997: 211–218; Sikora, 2007: 99–100). Silny asumpt do krytyki realizmu dały w latach sześćdziesiątych ubiegłego stulecia poststrukturalizm i dekonstrukcjonizm. W poststrukturalistycznej koncepcji poznania Michela Foucaulta wiedza o świecie i tym samym jego reprezentacja są produktem ukształtowanego społecznie dyskursu, będącego narzędziem władzy (zob. Szacki, 2006: 902–908; Bińczyk, 2017). W poststrukturalizmie/dekonstrukcjonizmie Jacques’a Derridy rzeczywistość została sprowadzona do „tekstu”, któremu nadać można różne sensy – są one efektem gry znaczeń, nieograniczonej żadnym zamkniętym systemem (zob. Chmielewski, 1997: 194–204; Elliott, 2011: 136–139). Z kolei autorzy z kręgu brytyjskich studiów kulturowych (szkoła Birmingham) uznali, że rzeczywistość nie jest neutralnym przedmiotem badań, lecz środowiskiem, w którym ludzie tworzą i walczą o swoje wartości oraz znaczenia. Nigdy nie mamy dostępu do rzeczywistości samej w sobie, ale jedynie do jej kulturowo wytworzonej, naznaczonej ideologią reprezentacji (zob. Dziamski, 2016: 58–60). Na gruncie hermeneutyki (Hans-Georg Gadamer) rozumienie dokonuje się w horyzoncie przed-sądów wynikających ze sposobu naszego bycia w świecie i uwikłane jest w koło hermeneutyczne (zob. Dehnel, 2006: 162–168; Tuchańska, 2012: 131–132). Neopragmatyzm (Richard Rorty) przyjmował, że poznanie rzeczywistości jest formą jej „używania”. Przedmioty poznania nie mają żadnego sensu poza praktyką dyskursywną podjętą dla określonego celu (zob. Tuchańska, 2012: 189–290; Turner, 2008: 695–696). Krańcowy wyraz krytyka realizmu znalazła w nieklasycznej (konstruktywistycznej) socjologii wiedzy i wyrastających z niej nurtów określanych mianem socjologii wiedzy naukowej (Sociology of Scientific Knowledge), studiów nad nauką i techniką (Science and Technology Studies) Big data a problem reprezentacji poznawczej 245 czy społecznych badań nad nauką (Social Studies of Science). Za pioniera konstruktywistycznej socjologii wiedzy naukowej uznać można Ludwika Flecka i jego pracę Powstanie i rozwój faktu naukowego z 1935 r. (napisaną oryginalnie w języku niemieckim, polski przekład: Fleck, 1986). Przytaczana przez Olgę Amsterdamską (1992: 137) Mary Hesse twierdzi, że ów nurt ujmuje wiedzę jako „zupełnie nie-empiryczną, a tylko społeczną”. Tu wiedza staje się kategorią wyłącznie socjologiczną; przyjmuje się, że poznanie nie ma swojej własnej, immanentnej logiki, niezależnej od zewnętrznych, społeczno-kulturowych czynników. Takie ujęcie, jak się wydaje, odnieść można do najbardziej radykalnych nurtów konstruktywistycznej socjologii wiedzy i nauki. Amsterdamska wskazuje trzy jej główne kierunki: mocny program szkoły edynburskiej (David Bloor, Barry Barnes), mikrosocjologiczny konstruktywizm lub mikrokonstruktywizm (Karin Knorr-Cetina) i makrokonstruktywizm lub socjologię translacji (Bruno Latour)3. Przełom epistemologiczny? Pojęcie big data nie ma ogólnie przyjętej definicji. Nie ma ścisłego kryterium, które pozwoliłoby odróżnić zbiór danych „tradycyjnych” od big data. W koncepcji tej nie chodzi tylko o wielkość wolumenu danych. Definiuje się ją raczej przez możliwości, jakie zbiór danych stwarza, i sposób postępowania z nimi. Można przyjąć, że big data to duże zbiory danych (co najmniej peta-, a nawet eksabajty), charakteryzujące się zróżnicowaniem (różne typy, formaty: dane liczbowe, tekstowe, graficzne, audio, wideo i inne) i dużą dynamiką przepływu (dane są wytwarzane i rejestrowane w sposób ciągły oraz przetwarzane w czasie rzeczywistym), do przetwarzania których wymagane są bardziej zaawansowane narzędzia niż tradycyjne relacyjne bazy danych i arkusze kalkulacyjne. Te elementy akcentuje jedno z pierwszych i najbardziej rozpowszechnionych ujęć big data, tzw. 3V (volume, variety, velocity). Do świata analityków big data rekrutują się osoby o różnym intelektualnym zapleczu i przygotowaniu teoriopoznawczym (Żulicki, 2020). W tym środowisku popularne jest jednak przekonanie, że możliwość przetwarzania dużych zbiorów danych przyniosło znaczący przełom w metodologii badań, Wspomniane nurty nie wyczerpują wszystkich stanowisk w socjologii wiedzy i nauki, które można uznać za konstruktywistyczne – co zaznacza sama autorka (Amsterdamska, 1992: 139). W ramach tej subdyscypliny istnieją również stanowiska bardziej umiarkowane. 3 246 Łukasz Iwasiński a nawet – przełom w epistemologii (Cukier i Mayer-Schönberger, 2014; Kitchin, 2014; Stevens, Wehrens i de Bont, 2018). Tony Hey, Stewart Tansley i Kristin Tolle (2009), powołując się na Jima Graya, proponują ujęcie dziejów nauki w cztery następujące po sobie paradygmaty. Zmiana paradygmatu wynika tu z pojawienia się nowych technik analizy danych. Pierwszy paradygmat (empiryczny) oparty był na bezpośredniej obserwacji i opisie zjawisk. Drugi (teoretyczny) wyłonił się na początku nowożytności i bazował na tworzeniu modeli i generalizacji oraz rozwijaniu na ich podstawie teorii. Trzeci (obliczeniowy) związany był z komputeryzacją i opierał się na symulacjach złożonych zjawisk. Obowiązujący dziś, czwarty paradygmat zasadza się na eksploracji dużych zbiorów danych4. Rob Kitchin (2014) identyfikuje w ramach tego paradygmatu dwa metodologiczne stanowiska: „nowy empiryzm” („new empiricism”) oraz „naukę opartą na danych” („data-driven science”). Drugie z tych stanowisk zgodne jest z koncepcją Graya – nie odrzuca się w jego ramach dotychczas stosowanej metodologii nauk, nie neguje przydatności teorii w procesie poznania, lecz stawia się przede wszystkim na indukcję, dąży do oddolnego tworzenia wiedzy o świecie poprzez przetwarzanie dużych zbiorów danych, a nie badanie odgórnych hipotez. Dysponowanie i możliwość analizowania wielkich zbiorów danych z najróżniejszych dziedzin pozwala na ujawnianie ich złożonych związków, które wcześniej, przed umowną erą big data, nie były możliwe do uchwycenia – w tym przede wszystkim tkwi novum „nauki opartej na danych”5 (por. Frické, 2015). Nie zakłada się tu, że dane samoistnie reprezentują prawdę o świecie, lecz że po odpowiednim ich przetworzeniu i zinterpretowaniu, skonstruowaniu modeli i symulacji, pomogą odpowiedzieć na określone pytania. Nie oczekuje się także, że tworzona w ten sposób wiedza jest pewna i ostateczna. „Nowy empiryzm” jest bardziej radykalny. Jego zwolennicy deklarują samowystarczalność danych w procesie poznania, w czym upatrują zupełnie nowego sposobu tworzenia wiedzy o świecie. Polegać ma on – mówiąc w pewnym uproszczeniu – na zastąpieniu myślenia przyczynowo-skutkowego 4 To niewątpliwie nadmiernie uproszczona wizja, można jednak przyjąć, że w pewnym przybliżeniu i uogólnieniu wskazuje dominujące w danych czasie stanowisko poznawcze i związaną z nim metodologię. Sikora (2007: 37) w zgodzie z tą klasyfikacją wskazuje na przykład, że nowożytna nauka rozwinęła się dzięki przejściu od metodologii indukcjonistycznej do idealizacyjnej. Dyskusja z tak ujętą historią nauki wykracza poza ramy tego artykułu. 5 Zaznaczmy jednak, że zorientowane na empirię i indukcję, stroniące od budowania odgórnych hipotez, metody badań praktykowane są od dawna w wielu obszarach nauki – jak choćby teoria ugruntowana w naukach społecznych (zob. Konecki, 2000). Big data a problem reprezentacji poznawczej 247 wskazywaniem korelacji i wzorów w ogromnych zbiorach danych; śledząc na bieżąco zachodzące między nimi relacje, można kreować obraz rzeczywistości tu i teraz. Czyni to zbędnym odwoływanie się do teorii, stawienie hipotez i tworzenie modeli. Podejście to głosi, że analizy big data pozwalają na bezpośredni wgląd w obiektywną rzeczywistość, jej doskonałe odwzorowanie i obserwowanie jej zmian w czasie rzeczywistym. Debatę nad tak pojętym „nowym empiryzmem” w dużej mierze sprowokował artykuł Chrisa Andersona The End of Theory: The Data Deluge Makes the Scientific Method Obsolete z 2008 r. W świecie biznesu oraz popularnonaukowej publicystyki tezy te stały się popularne. Autorzy sytuujący się w nurcie „nowego empiryzmu” wierzą, że ich analizy wreszcie pozwolą w pełni „przemówić danym” (Cukier i Mayer-Schönberger, 2014: 35); wskazują, że przetwarzanie big data daje „pełen obraz” przedmiotu analizy (Oracle, 2015), „wgląd w życie w całej jego złożoności” (Rieder i Simon, 2017: 5); piszą o „eksploracji rzeczywistości” („reality mining”) (Eagle i Pentland, 2006), uciekają się nawet do Putnamowskiej metafory „punktu widzenia Boga” („God’s eye view of ourselves”) (Pentland, 2009: 80). Opis z okładki książki Wszyscy kłamią. Big data, nowe dane i wszystko, co Internet może nam powiedzieć o tym, kim naprawdę jesteśmy Setha Stephensa-Davidowitza głosi, że dane „wreszcie pokazują nagą prawdę”. Syllabus prowadzonego na Uniwersytecie Warszawskim kursu „Nowe źródło informacji. Big Data” deklaruje, że narzędzia do rafinacji big data „mogą zapewnić prawdziwy obraz przeszłości, obraz w czasie rzeczywistym i prognozy” (UW, 2021). W tym zdaniu zawarte jest zasadnicze z punktu widzenia praktycznej przydatności analiz big data oczekiwanie, że możliwe stanie się nie tylko tworzenie wiernego obrazu rzeczywistości, ale także przewidywanie jej przyszłych stanów – zarówno w dziedzinach przyrodniczych, jak i na obszarze zachowań społecznych (por. Barábasi, 2002). Takie ambicje przejawiało nowożytne przyrodoznawstwo od swego zarania. Jego dążeniem było – jak pisał Edmund Husserl (1993: 12–13) – „indukowanie z wszystkich faktycznie danych zjawisk przyszłe możliwości i prawdopodobieństwa w takim zakresie i z taką dokładnością, jakie przekraczają wszelką związaną z naocznością empirię”. O ile jednak nowożytna nauka usiłowała odkryć abstrakcyjne, uniwersalne, ogólne prawa przyrody, to „nowi empiryści” twierdzą, że można dotrzeć do istoty rzeczywistości, stworzyć jej doskonałe, czyste odbicie, bez potrzeby generowania uogólnień, tworzenia teorii. Jeśli przyjmiemy, że dokładność mapowania rzeczywistości i tworzenia prognoz jest funkcją ilości danych i przy odpowiednim ich nagromadzeniu 248 Łukasz Iwasiński będziemy w stanie odtworzyć w procesie poznania wiernie świat i w sposób bezbłędny wskazywać przyszłe wydarzenia, to mamy do czynienia ze swoistą wersją Demona Laplace’a – wiarą, że danetyzacja6 i matematyzacja rzeczywistości – potencjalnie – pozwolą zidentyfikować wszelkie istniejące w świecie obiekty, wzorce relacji między nimi oraz trendy i nieomylnie prognozować przyszłe stadia tegoż świata. Jednakże, o ile istnieje spór, czy w ogóle możliwy jest jednoznaczny, obiektywny opis rzeczywistości, o tyle – opierając się na najpowszechniejszych filozoficznych interpretacjach współczesnej matematyki i fizyki – nie budzi większych kontrowersji konstatacja, że Laplace’ański determinizm jest z gruntu utopią (Majcherek, 2004: 15–49; Życiński, 1993: 222; 2018: 133–134, 197–202). Kitchin (2014) stanowisko „nowych empirystów” streścił za pomocą następujących stwierdzeń: • analizy big data pozwalają na uchwycenie całej badanej populacji, a nie tylko jej próbki; • analizy big data nie wymagają odwoływania się do teorii, tworzenia modeli czy przyjmowania wstępnych hipotez; • dzięki zastosowaniu obiektywnych technik analizy dane są wolne od ludzkiej stronniczości, a wszelkie odkryte wzorce i relacje odpowiadają rzeczywistości; jako takie dane mówią same za siebie; • sens danych jest zawarty w nich samych, jest niezależny od kontekstu i wiedzy dziedzinowej, dlatego dane mogą być interpretowane przez każdego, kto potrafi przetwarzać je za pomocą operacji statystycznych. Autor wskazuje na fałsz tych twierdzeń. Po pierwsze, analizy big data zawsze opierają się na jakiejś części zasobu potencjalnie dostępnych danych, a ich wyniki stanowią jeden z możliwych obrazów danego fragmentu rzeczywistości; zależne są od wyboru i jakości danych, użytego sposobu ich przetwarzania oraz technologii. Po drugie, rzekomo doskonale indukcyjne odwzorowywanie świata za pomocą big data nie dzieje się w teoretycznej próżni – dane są zbierane przez instrumenty zbudowane na podstawie określonych teorii, zgodnie z metodologią opartą na jakiejś teorii i przetwarzane według procedur bazujących również na teoriach czy prawach nauki. Analizy big data nie byłyby możliwe bez zaangażowania wyrafinowanej teorii matematycznej. Po trzecie, fakt, że dane nie mówią same za siebie, wynika wprost z dwóch poprzednich punktów. Po czwarte, wyniki analiz big data nie Danetyzację rozumiem jako fenomen kwantyfikowania i przekładania wszelkich elementów rzeczywistości na dane, by móc poddać je agregowaniu i algorytmizacji; więcej zob. Iwasiński, 2016. 6 Big data a problem reprezentacji poznawczej 249 są wprost zrozumiałe i jednoznaczne, lecz wymagają interpretacji (pojawia się np. zjawisko apofenii, czyli wskazywania związków tam, gdzie faktycznie ich nie ma). Ograniczenie się do wskazania statystycznych relacji między danymi to nadmierny redukcjonizm. To nie operacje matematyczne, ale określony dyskurs – oparty na jakiejś teorii, zakorzeniony w pewnym kontekście – wyposaża dane w znaczenie. Dane muszą więc zostać zinterpretowane – w świetle określonej formalnej teorii, ale też przekonań, wartości, a nawet interesów badacza. Nowi empiryści zdają się uznawać, że dane po prostu „są”, a ich pozyskiwanie jest procesem przezroczystym. Do pozyskania danych niezbędny jest wszakże pomiar – a ten, jeśli dokonywany jest za pomocą jakiegoś instrumentu, wymaga przekazania informacji za pomocą sygnału i jest zawsze teoretycznie obciążony. Jak pisze Paweł Zeidler (2010: 7): „Opis procesu przekazywania informacji za pomocą sygnału, zgodnie z klasyczną teorią komunikacji C. Shannona i W. Weavera, zakłada znajomość teorii źródła wysyłającego sygnał, teorii ośrodka, przez który on przebiega, a który może być źródłem szumów, oraz teorii odbiorcy – rejestratora sygnału, tj. aparatu percepcyjnego człowieka lub instrumentu pomiarowego”. By dane były użyteczne, muszą zostać odpowiednio przetworzone. Ian Hacking7 (za: Leciejewski, 2013: 33–34) wymienia następujące operacje, jakim poddawane są zgromadzone dane: oszacowanie (polegające na obliczeniu prawdopodobieństw błędów), redukcję (stosowaną zwykle dla uproszczenia modelu, uczynienia go bardziej czytelnym), analizę (odpowiednie modelowanie – w zależności od celu) i interpretację (w świetle jakiejś teorii). Sądzę, że w pewnych przypadkach znaczenie ma jeszcze prezentacja danych, która też nierzadko wymaga przyjęcia określonych teoretycznych ustaleń. Dopiero po zrealizowaniu tych kroków z danych wydobyć można znaczenie. Przetwarzanie sygnałów pobranych przez urządzenia pomiarowe często wiąże się z potrzebą zmiany sygnału analogowego (o charakterze ciągłym) na cyfrowy (o charakterze dyskretnym) – tylko taki jest zrozumiały dla komputera i może być poddany dalszym procedurom analitycznym. Aby tego dokonać, sygnał należy poddać próbkowaniu, kwantowaniu i kodowaniu do postaci binarnej. Każdy rodzaj przetwornika analogowo-cyfrowego ma określoną rozdzielczość, częstotliwość i czas przetwarzania, każdy generuje Hacking pisze o obróbce danych w praktyce eksperymentalnej, ale procesom, o których wspomina, poddawane są zebrane w trakcie pomiaru dane w ogóle, by stały się nośnikiem jakiejś treści i były użyteczne. 7 250 Łukasz Iwasiński określone błędy, a dobranie odpowiedniego wymaga znacznej wiedzy o charakterystyce sygnału wejściowego. Te oraz kolejne elementy układu zaangażowanego w przetwarzanie danych – różnego rodzaju interfejsy, komputery, oprogramowanie, metody i techniki analizy danych – są ściśle zależne od teorii i nieneutralne, a więc od ich wyboru i konfiguracji może zależeć wynik obróbki i analizy danych (por. Leciejewski, 2013: 44–61, 68–75). W tym sensie żaden system pobierający i przetwarzający dane nie jest neutralny. Jak sądzę, istnieje również obawa, że w realiach tzw. przetwarzania bez granic (ubiquitous computing), którego istotą jest przetwarzanie w czasie rzeczywistym ogromnych ilości danych z wielu źródeł, przede wszystkim z sieci czujników i współpracujących ze sobą inteligentnych urządzeń (zgodnie z koncepcją Internet of Things / Internet of Everything), małe błędy i opóźnienia w poszczególnych elementach układów przetwarzania danych mogą ulegać niekontrolowanemu zwielokrotnieniu. Wizja danych w nie-realistycznym (antyrealistycznym/konstruktywistycznym) modelu reprezentacji poznawczej Przyjmuję, że dane to zaobserwowane (przez człowieka lub urządzenie) sygnały bądź znaki. Mogą one mieć formę odczytu z urządzenia pomiarowego, liczby albo innego symbolu, fotografii, dźwięku czy innego sygnału. Z punktu widzenia problematyki tego artykułu szczególnie istotne jest stwierdzenie, że nie istnieją w pełni surowe dane; żadne dane nie są wyposażone w samoistny sens, nie posiadają niezależnej od kontekstu, z góry określonej esencji – i jako takie nie mogą być źródłem jedynego właściwego, prawdziwego obrazu rzeczywistości. Co za tym idzie, nie sposób oddzielić czystych danych od interpretacji. Analitycy big data traktują zwykle dane jako obiektywne jednostkowe informacje, zaobserwowane i zarejestrowane (przez człowieka albo przyrząd). Takie stanowisko wyraźnie odróżnia dane (które mają charakter empiryczny) od interpretacji (która ma charakter spekulatywny). Dane są faktami, które należy uznać, polemizować można z ich interpretacjami. Pozostaje to w zgodzie ze zdroworozsądkowym założeniem, że z faktami się nie dyskutuje. Jak pokazałem wyżej – to założenie antyrealistyczne/konstruktywistyczne nurty refleksji kwestionują. Jest ono we współczesnej filozofii nauki podważane powszechnie, nawet wśród filozofów nauki identyfikujących się Big data a problem reprezentacji poznawczej 251 raczej z realizmem. Na przykład Michał Heller stwierdza: „filozofia nauki przebyła długą drogę w dążeniu do zrozumienia natury faktów […]. Wiadomo dziś z pewnością, że nie istnieją «nagie fakty». […] Między składową faktyczną naszej wiedzy a jej składową teoretyczną występuje sprzężenie zwrotne” (Heller, 2009: 42–43). Co więcej, od procesu interpretacji zależy to, czy jakiś aspekt rzeczywistości w ogóle zostanie włączony w obręb analizowanych danych. „Dane muszą zostać uznane za dane, by zaistnieć jako takie, a owo uznanie opiera się na jakiejś interpretacji” (Gitelman i Jackson, 2013: 3). Innymi słowy, dane są zawsze, w jakimś stopniu, konstruowane. Przedmiot poznania zostaje uznany za daną, jeśli proces jego konstrukcji nie jest problematyzowany. Warto odwołać się do metafory „czarnej skrzynki”, obecnej w socjologii wiedzy od wczesnych lat siedemdziesiątych XX w., ale rozpropagowanej przez Brunona Latoura dekadę później. Dla tego autora czarną skrzynką może być każdy wskaźnik, narzędzie zbierające dane, inne urządzenie techniczne, ale też twierdzenia i teorie czy procedury statystyczne. Stają się one czarnymi skrzynkami, gdy zakończy się proces ich konstrukcji – zostaną uznane za pewne i nieproblematyczne, a ich społeczne komponenty zapomniane (za: Sojak, 2004: 238–240). Michael Mulkay i Nigel Gilbert sugerują, że o uznaniu jakiegoś elementu rzeczywistości za daną decydować może także rodzaj dyskursu, jaki uprawiają badacze, a mianowicie posługiwanie się „empirycznym repertuarem retorycznym”. Charakteryzuje się on tym, że „mówiący przedstawia swoje działania oraz przekonania jako całkowicie neutralne, pozwalające przemówić oczywistości zjawisk empirycznych” (za: Sojak, 2004: 227); jest bezosobowy, sformalizowany, często hermetyczny, prezentuje działania jako nieproblematyczne i zrutynizowane, unika eksponowania kontrowersji, decyzje podejmowane przez ludzi składa na karb urządzeń czy procedur. O wyborze tego repertuaru decydować mogą czynniki społeczne, pragmatyczne, niezwiązane z wewnętrzną logiką samego badania (za: Sojak, 2004: 227–228). Mechanizm ukrywania czynnika ludzkiego w procesach tworzenia wiedzy, który badali w latach osiemdziesiątych XX w. Steven Shapin i Simon Schaffer (za: Sojak, 2004: 240), dziś, w dobie wszechobecnych algorytmów zarządzających najróżniejszymi sferami życia społecznego, wydaje się szczególnie ważki i bardziej niż wtedy aktualny. Jak w praktyce wygląda konstrukcja danych i obrazowanej za ich pomocą rzeczywistości? Przywołam tu argumenty Andrzeja Zybertowicza (1995: 86–87) na rzecz stanowiska konstruktywistycznego, uzupełniając je o uwagi innych autorów i starając się zilustrować je prostymi, czytelnymi przykładami. 252 Łukasz Iwasiński Po pierwsze, poznanie zawsze uwarunkowane jest zasobami pojęciowymi i wartościami wytworzonymi w danej kulturze. Weźmy następującą informację – liczbę osób chorych w danej społeczności. Jak się okazuje, wcale nie jest ona jednoznaczna, bo zależy od przyjętej definicji choroby (czyli właśnie zasobów pojęciowych i wartości). Na przykład kilka dekad temu do tego zbioru zaliczani byliby homoseksualiści, a po roku 1972 – według wytycznych American Psychiatric Association – już nie. Tym samym obiektom w innym kontekście kulturowym przypisane więc zostaną inne sensy (co zmienia obraz rzeczywistości). Często sensy przypisywane są jakimś obiektom bądź konstruktom na podstawie wskaźników czy też indeksów, które są w oczywisty sposób konstruowane społecznie (istnieją wszak różne sposoby – oparte na inaczej skonstruowanych wskaźnikach – np. liczenia bezrobocia czy inflacji). Pogłębione rozważania o konstruowaniu miar w ekonomii i ich społecznym wymiarze podejmuje Franciszek Chwałczyk (2018). Włodzimierz Okrasa (2017: 164) ujmuje samą kwantyfikację (obejmującą konwencję, pomiar i komunikację) jako zjawisko socjologiczne. Po drugie, Zybertowicz przywołuje tezę Duhema–Quine’a. Głosi ona, że dane same w sobie nie determinują teorii (dodajmy: poznania w ogóle). Opierając się na samych danych, nie da się sformułować żadnej sensownej wypowiedzi, każda taka wypowiedź musi odwoływać się do wiedzy wykraczającej poza owe dane. By móc zrobić z danych jakiś poznawczy użytek, musimy je „zanieczyścić” jakąś wiedzą pochodzącą spoza nich. Dysponując tym samym zbiorem danych, jesteśmy zatem w stanie sformułować empirycznie równoważne, ale sprzeczne ze sobą interpretacje (Zybertowicz, 1995: 90–91). Egzemplifikacją tezy Duhema–Quine’a, wskazującą, że dane same w sobie nie determinują ustaleń badaczy, i akcentującą ściśle społeczny aspekt tworzenia danych, są badania reprezentantów Bath School nad kontrowersjami naukowymi. Wykazały one, że istnieje pewien zakres dowolności interpretacyjnej tych samych danych laboratoryjnych. Gdy pojawia się kontrowersja dotycząca tego, które wyjaśnienie przyjąć, za ich rozstrzygnięcie odpowiadają często czynniki społeczne, a nie te wynikające z samej natury badanego przedmiotu (zob. Afeltowicz, 2012: 76–77; Sojak, 2004: 225). Po trzecie, powiada Zybertowicz, dane zawsze są w sposób selektywny wypreparowywane z jakiegoś fragmentu rzeczywistości. Dobór analizowanych w określonym badaniu danych ma charakter arbitralny – pewne zostają ujawnione, inne pominięte, co wpływa na wnioski i wytworzoną na ich podstawie reprezentację świata. Jeśli podamy, że odsetek kierowców ukaranych za wykroczenie drogowe w jakimś okresie wzrósł z 2% do 5% ogółu ich populacji, to możne powstać wrażenie, że zaczęli oni jeździć Big data a problem reprezentacji poznawczej 253 mniej ostrożnie. Ale jeśli uzupełnimy tę informację o fakt, że w tym czasie potroiła się liczba patroli na drogach albo że bardzo zaostrzono przepisy, to rzuci to inne światło na to zagadnienie. Na tę kwestię można spojrzeć także z perspektywy problemu niezdeterminowania wiedzy przez dane, którego jednym z ujęć jest teza Duhema–Quine’a. Określony zbiór danych w świetle wiedzy pochodzącej z innych danych czy też innych dyskursów zmienia swe znaczenie – ten proces reinterpretacji potencjalnie może być nieskończony. W perspektywie antyrealistycznej/konstruktywistycznej każdy dyskurs nadający sens danemu wycinkowi rzeczywistości społecznej jest wszak jedynie mniej lub bardziej chwiejną i doraźną konstrukcją. W radykalnej interpretacji owe sensy można zawsze przewartościować, odwołując się właśnie do innego dyskursu – interpretacja nigdy nie będzie obiektywna i ostateczna. Dodajmy, że krytyka statystyki z perspektywy konstruktywistycznej mówi nawet o „wojnach statystycznych”, czyli posługiwaniu się statystyką w celu przeforsowania określonego obrazu rzeczywistości i formułowania roszczeń (Miś, 2017: 82). „Nowy empiryzm” – perswazyjny dyskurs rynku usług big data Dyskurs „nowego empiryzmu” zwykle uprawiany (i promowany) jest przez biznes oferujący usługi związane z przetwarzaniem dużych zbiorów danych i inne środowiska posługujące się analityką danych do celów instrumentalnych, komercyjnych, zorientowanych na zysk. Narracja nowych empirystów oddziałuje jednak na wyobraźnię społeczną, tworzy swoiste imaginaria (William Housley (2015) i Ben Williamson (2015) piszą o „Big Data imaginary”) i – co szczególnie istotne – wpływa na świadomość decydentów politycznych. Gernoth Rieder i Judith Simon (2016; 2017) zwracają uwagę na wiarę w obiektywność analiz big data w zarządzaniu, administracji i polityce publicznej (m.in. w obszarze służby zdrowia, edukacji, bezpieczeństwa publicznego, rynku pracy). Określają ten fenomen mianem „datatrust”. Dlatego nie sposób zaprzeczyć, że dyskurs „nowego empiryzmu” ma istotne społeczne konsekwencje. W tym – czasem ślepym – zaufaniu do wyrażonych liczbowo uzasadnień wspomniani autorzy, nawiązując do Theodore’a M. Portera (1995), widzą skrajny wyraz typowej dla nowoczesności wiary w bezosobowe, abstrakcyjne, zmatematyzowane systemy analityczne, przyznawania takim właśnie systemom legitymacji do ostatecznego rozstrzygania, co jest prawdą i jaka jest rzeczywistość. 254 Łukasz Iwasiński Z kolei zwolennicy „nauki opartej na danych” częściej rekrutują się ze środowisk akademickich (Kitchin, 2014). „Nauka oparta na danych” jest świadoma uproszczeń „nowego empiryzmu”. Sami „nowi empiryści” prawdopodobnie widzą siebie jako realistów. Wskazuje na to ich przekonanie – wyrażane w przywoływanych wyżej cytatach – że wyniki analiz big data są odbiciem realnego świata, zachodzących w nim relacji i jego struktury; że możliwe jest wierne odwzorowanie rzeczywistości za pomocą analiz big data, osiągnięcie obiektywnego wglądu, dotarcie do – klasycznie, tzn. korespondencyjnie, rozumianej – prawdy. Dyskurs ten jest, jak się zdaje, nieświadomy, bądź też świadomie ignoruje wspomniane wyżej antyrealistyczne/konstruktywistyczne nurty namysłu nad poznaniem. Można powiedzieć, że stanowi on rodzaj propagandy scjentystycznej (Woźniak, 2000). Deklaracje „nowych empirystów” należy traktować jako retoryczny środek stosowany przez branżę data science. Mają na celu przekonać do dostarczanych przez nią analitycznych, zwłaszcza zorientowanych na predykcję, narzędzi. Dlatego ta realistyczna retoryka znalazła entuzjastów, zwłaszcza w obszarze zarządzania sprzedażą i marketingiem (choć, jak już zaznaczyłem, oddziałuje ona także na administrację i politykę publiczną). Jest prosta i ma duży potencjał perswazyjny – operuje przekazem, który można sprowadzić do następujących haseł: dzięki naszemu oprogramowaniu poznasz rzeczywistość, zobaczysz, jak realnie wygląda świat; odkryjemy go dzięki danym, a nie spekulacjom; bazujemy na faktach, a nie domysłach. Jako dowody wskazuje się, że ilość posiadanych danych i umiejętność odnajdywania relacji (zwłaszcza korelacji) między nimi wprost przekłada się na zwiększenie sprzedaży i wskaźników finansowych (Kitchin, 2014: 4). Takie argumenty nie świadczą jednak o tym, że tworzona w wyniku analiz big data wiedza reprezentuje obiektywny świat. Argument efektywnościowy nie wyklucza też takiego stanu rzeczy – w istocie nie mówi nic o prawdziwości czy realności wytworów poznania, ale jedynie o zdolności do osiągania dzięki nim wyznaczonych celów. Wbrew promowanej retoryce „nowy empiryzm” należałoby więc traktować jako rodzaj instrumentalizmu, który klasyfikowany jest jako stanowisko antyrealistyczne bądź konstruktywistyczne (zob. Woleński, 2005: 138; Heller, 2009: 51). Klasyczny empiryzm nigdy nie aspirował zresztą do poznania ostatecznej prawdy o świecie, o świecie istniejącym poza umysłem, ani do wiedzy pewnej – wyrósł wszak ze sprzeciwu wobec teorii, które takie pretensje rościły (Popkin i Stroll, 1994: 346, 356, 393–394). Stąd myśl ojców nowożytnego empiryzmu sytuuje się w obszarze antyrealizmu – w szczególności George’a Berkeleya i Davide’a Hume’a, jedynie Big data a problem reprezentacji poznawczej 255 stanowisko Johna Locka można traktować jako rodzaj realizmu pośredniego (krytycznego) (Woleński, 2005: 394). Big data a transcendentalno-pragmatyczna forma reprezentacji wiedzy Analizy big data zawsze opierają się na jakichś matematycznych modelach – a każdy model upraszcza rzeczywistość. Jak pisze Cathy O’Neil (2017: 46–48): „Żaden model nie może uwzględnić wszystkich komplikacji prawdziwego świata […]. Tworząc model, dokonujemy wyboru tego, co wydaje się nam wystarczająco ważne, by to uwzględnić […]. Luki informacyjne modelu odzwierciedlają oceny oraz priorytety ich twórców […]. Modele, które z założenia mają być bezstronne, odzwierciedlają z góry założone cele oraz osobiste przekonania […]. Modele są opiniami opisanymi językiem matematyki […]. Zawsze musimy zadać sobie pytanie, nie tylko o to, kto stworzył dany model, lecz również co ta osoba lub przedsiębiorstwo starają się osiągnąć”. Z kolei Sikora (2007: 197–198) zauważa, że „wszystkie modele mają charakter kontekstowy” i są konstruowane ze względu na określone cele i wartości. W pewnym sensie analizy big data można traktować jako rodzaj eksperymentów. Jak pisze Hacking: „Eksperymentować to tyle, co kreować, oczyszczać i stabilizować zjawiska” (za: Sikora, 2007: 135). Natomiast służąca ich realizacji techniczno-ludzka infrastruktura stanowi rodzaj laboratorium. W tak rozumianym laboratorium zachodzi ciąg czynności służących wytworzeniu określonej wiedzy. Czynności te mają wymiar nie tylko techniczny, ale i społeczny, kulturowy, polityczny – obecne na każdym etapie produkcji wiedzy: od zbierania danych, przez ich przetwarzanie, po interpretację. To uwikłanie widać choćby w procesie budowania algorytmów przetwarzających dane, których celem jest prognozowanie zachowań ludzi czy przyszłych stanów rzeczywistości (Iwasiński, 2020). Matematyk David Sumpter argumentuje, że nie istnieją algorytmy wolne od ideologicznych nachyleń. Każdy algorytm, z jakiegoś punktu widzenia, jest niesprawiedliwy, dyskryminuje jakąś grupę, która poddawana jest za jego pomocą analizie. A to, której grupy będzie to dotyczyć, nie jest kwestią matematyki, tylko aksjologii – przekonań i poczucia sprawiedliwości twórcy algorytmu. „Niesprawiedliwość przypomina jedną z tych gier whack-a-mole, które można spotkać na festynach. W takiej grze kret pojawia się w różnych miejscach. Uderzasz go młotem w jednym miejscu, a on wyskakuje w innym […]. Nie istnieje równanie na sprawiedliwość. Sprawiedliwość jest czymś 256 Łukasz Iwasiński ludzkim” (Sumpter, 2019: 83–84; por. O’Neil, 2017: 126–149; szerzej o aksjologicznym wymiarze nauki zob. Lekka-Kowalik, 2008). W kontekście wszystkich powyższych rozważań nie sposób bronić tezy, że analizy big data dostarczają nam obiektywnej wiedzy i trafnie odzwierciedlają rzeczywistość. Uprawnione wydaje się co najwyżej stwierdzenie, że pozwalają skuteczniej, w porównaniu z klasycznymi metodami badań i przetwarzania danych, zinstrumentalizować wiedzę, innymi słowy – pozwalają na dokładniejsze odpowiedzi na konkretne pytania, pod warunkiem że owe pytania zostaną właściwie przełożone na matematyczny model i procedurę analityczną8. W tej optyce konceptualizacja wytworów poznania ma charakter instrumentalnie użyteczny, a pytanie o ich odniesienie przedmiotowe „traci sens nadany mu przez klasycznych realistów” (Sikora, 2007: 21). Tak pojmowane poznanie zakorzenione jest w filozofii pragmatycznej, która działania poznawcze ocenia nie z punktu widzenia ich zgodności z rzeczywistością, ale praktycznych skutków, jakie niosą. Opartą na przedstawionym tu rozumowaniu koncepcję reprezentacji poznawczej Sikora nazywa transcendentalno-pragmatyczną. Można ująć ją jako określanie zależności występujących między wytworami poznania a tym, jak i ze względu na jakie cele doszło do ich powstania (Sikora, 2007: 195). Sikora wyszczególnia jej dwa typy: pojęciowy i laboratoryjny. W pierwszym kładzie nacisk na konwencje językowe i fakt, że wybór sieci pojęciowej odnoszącej się do poddawanego analizie świata ma charakter przede wszystkim pragmatyczny. Nawet jeśli dane do analizy zbierane są automatycznie, to konstrukcja tych danych i sposób ich przetwarzania opierają się na określonej operacjonalizacji pojęć. „Mówienie o faktach bez uwzględnienia specyfiki języka, w którym fakty te wyrażamy, to orzekanie o niczym” – powiada Hilary Putnam (za: Sikora, 2007: 121). W typie laboratoryjnym główny wpływ na wytwory poznania mają 8 O’Neil stosuje gradację modeli, uznając je za mniej lub bardziej sprawiedliwe i dokonujące predykcji gorzej lub lepiej. Jako przykład modelu „zdrowego” wskazuje ten stosowany w rozgrywkach baseballowych. Jak pisze – jest on przejrzysty, zasilany ogromną ilością danych zaczerpniętych bezpośrednio z rozgrywek, a nie zmiennymi pośrednimi, ciągle aktualizowany, jego założenia i wnioski są czytelne, cel jasno wyartykułowany. Nie oznacza to jednak, że jest on w pełni obiektywny – jedynie, że ze względu na opisaną wyżej charakterystykę, pozwala lepiej niż inne modele przedstawione w pracy tej autorki osiągać cel, dla którego został stworzony. Nie uważam wszakże, by taki model można było uznać za czyste odzwierciedlenie rzeczywistości – choć O’Neil (2017: 44) stwierdza, że jego sukces bazuje na tym, iż „pozostaje w stałym kontakcie z rzeczywistością, którą stara się zrozumieć lub przewidzieć”. Big data a problem reprezentacji poznawczej 257 praktyki, interakcje i otoczenie społeczne. Ta perspektywa typowa jest dla radykalnych wersji konstruktywistycznej socjologii wiedzy naukowej i ma tendencję do popadania w nadmierny socjologiczny redukcjonizm. Na przykład mikrokonstruktywizm Knorr-Cetiny proces, w wyniku którego ustalony zostaje określony sposób przetwarzania danych, analizuje przez pryzmat społecznych interakcji i „strategii konwersacyjnych” członków grupy badawczej – w takiej perspektywie wiedza staje się wyłącznie pochodną konkretnej sytuacji społecznej (za: Amsterdamska, 1992: 148). Na zakończenie warto pokazać, że przyjęte przeze mnie rozstrzygnięcia dotyczące statusu epistemologicznego oraz reprezentacji analiz big data bywają ujmowane na inne sposoby. W artykule Conceptualizations of Big Data and their epistemological claims in healthcare: A discourse analysis (Stevens, Wehrens i de Bont, 2018) autorzy wyszczególnili pięć typów idealnych dyskursów na temat big data: „modernistyczny”, „instrumentalny”, „pragmatyczny”, „naukowy” i „krytyczno-interpretatywny”. Zaklasyfikowali je do różnych kategorii, uwzględniając różne kryteria, wśród których znajdował się status epistemologiczny. Trzy pierwsze, w ich interpretacji, pojmują dane realistycznie, jako byty zewnętrzne wobec poznającego podmiotu, wyposażone w samoistny sens. Przyjmują one, że wnioskowanie wynika bezpośrednio z danych. W przypadku dyskursu „modernistycznego” uznaje się, że analizy big data oferują wiedzę w pełni wiarygodną, w przypadku dyskursu „instrumentalnego” – potencjalnie również, ale wiarygodność jest uzależniona od technologii, w przypadku dyskursu „pragmatycznego” dane traktuje się jako wiarygodne w określonych sytuacjach. W dyskursach „naukowym” oraz „krytyczno-interpretatywnym” dane nie mówią same za siebie: w tym pierwszym wymagają wsparcia teorii, a wiarygodność analiz może być zadowalająca, jeśli spełni się rygorystyczne kryteria metodologiczne, w drugim – interpretacja danych wymaga krytycznego myślenia, a wiarygodność analiz big data jest niska. Uwaga końcowa Z powyższych rozważań nie należy wyciągać wniosku, że neguję wartość i pożytki płynące z analiz big data. Uważam, że mogą być i bywają ważnym, być może najważniejszym i najskuteczniejszym dziś, narzędziem kontroli rzeczywistości i prognozowania (co nie jest równoznaczne ze zdolnością do odkrywania obiektywnej prawdy i tworzenia trafnych reprezentacji rzeczywistości). Nie sugeruję też, że sens danych można dowolnie 258 Łukasz Iwasiński relatywizować. Trzeba jednak mieć świadomość, że wybrane elementy rzeczywistości nabierają statusu danych i takiego, a nie innego znaczenia na gruncie określonych założeń, zarówno o charakterze metodologicznym, technicznym czy technologicznym, jak i społecznym oraz kulturowym – odnoszącym się do wartości i interesów uwikłanych w proces analizy społeczności. Nie jestem też zwolennikiem podzielanej przez radykalne nurty konstruktywistycznej socjologii wiedzy i nauki socjologicznego redukcjonizmu i abstrahowania od wewnętrznej, samoistnej logiki procesów poznawczych. Uważam jednak, że społeczny komponent produkcji wiedzy jest w niej (niemal) zawsze obecny, ale w różnych dziedzinach i konkretnych problemach w różnym stopniu. Literatura Afeltowicz, Ł. (2012). Modele, artefakty, kolektywy. Praktyka badawcza w perspektywie współczesnych studiów nad nauką. Toruń: Wydawnictwo Naukowe Uniwersytetu Mikołaja Kopernika. Amsterdamska, O. (1992). Odmiany konstruktywizmu w socjologii nauki. W: J. Niżnik (red.), Pogranicza epistemologii (ss. 136–154). Warszawa: IFIS PAN. Anderson, C. (2008). The end of theory: The data deluge makes the scientific method obsolete. Wired 16(7). Barábasi, A.L. (2002). Linked: The New Science of Networks. Cambridge: Perseus Press. Bińczyk, E. (2017). Michel Foucault, nieklasyczna socjologia wiedzy oraz perypetie władzy-wiedzy. W: T.M. Korczyński (red.), Współczesne problemy socjologii wiedzy: w 80-lecie „Ideologii i utopii” Karla Mannheima (ss. 67–82). Warszawa: Warszawskie Wydawnictwo Socjologiczne. Chmielewski, A. (1995). Filozofia Poppera. Analiza krytyczna. Wrocław: Wydawnictwo Uniwersytetu Wrocławskiego. Chmielewski, A. (1997). Niewspółmierność, nieprzekładalność, konflikt. Wrocław: Wydawnictwo Uniwersytetu Wrocławskiego. Chwałczyk, F. (2018). Miary jako modele pośredniczące między gospodarką a ekonomią, https://www.filozofia-ekonomii.pl/publikacje-psfe/working-papers (dostęp: 23.09.2021). Czarnocka, M. (2003). O realizmie we współczesnej filozofii nauki. Przegląd Filozoficzny – Nowa Seria, 48(4), 5–20. Dehnel, P. (2006). Dekonstrukcja – rozumienie – interpretacja: studia z filozofii współczesnej i nie tylko. Kraków: Universitas. Dziamski, G. (2016). Kulturoznawstwo, czyli wprowadzenie do kultury ponowoczesnej. Gdańsk: Wydawnictwo Naukowe Katedra. Eagle, N., Pentland, A.S. (2006). Reality mining: sensing complex social systems. Personal and Ubiquitous Computing, 10(4), 255–268. Big data a problem reprezentacji poznawczej 259 Elliott, A. (2011). Współczesna teoria społeczna. Warszawa: Wydawnictwo Naukowe PWN. Fleck, L. (1986). Powstanie i rozwój faktu naukowego: wprowadzenie do nauki o stylu myślowym i kolektywie myślowym. Lublin: Wydawnictwo Lubelskie. Frické, M. (2015). Big data and its epistemology. Journal of the Association for Information Science and Technology, 66(4), 651–661. Gitelman, L., Jackson, V. (2013). Introduction: Raw data is an oxymoron. W: L. Gitelman (red.), Raw Data is an Oxymoron (ss. 1–15). Cambridge, MA: MIT Press. Heller, M. (2009). Filozofia nauki. Wprowadzenie. Kraków: Petrus. Hey, T., Tansley, S., Tolle, K.M. (2009). Jim Gray on eScience: A transformed scientific method, http://itre.cis.upenn.edu/myl/JimGrayOnE-Science.pdf (dostęp: 23.09.2021). Housley, W. (2015). Focus: The Emerging Contours of Data Science. Discovery Society, August 3, https://archive.discoversociety.org/2015/08/03/focus-the-emerging-contours-of-data-science/ (dostęp: 23.09.2021). Husserl, E. (1993). Kryzys europejskiego człowieczeństwa a filozofia. Warszawa: Aletheia. Iwasiński, Ł. (2016). Społeczne zagrożenia danetyzacji rzeczywistości. W: B. Sosińska-Kalata (red.), Nauka o informacji w okresie zmian. Informatologia i humanistyka cyfrowa (ss. 135–146). Warszawa: SBP. Iwasiński, Ł. (2020). Social implications of algorithmic bias. W: B. Sosińska-Kalata (red.), Nauka o informacji w okresie zmian. Rewolucja cyfrowa – dziś i jutro: infrastruktura, usługi, użytkownicy (ss. 25–35). Warszawa: SBP. Kant, I. (1957). Krytyka czystego rozumu, t. 1, tłum. R. Ingarden. Warszawa: Państwowe Wydawnictwo Naukowe. Kant, I. (1960). Prolegomena do wszelkiej przyszłej metafizyki, która będzie mogła wystąpić jako nauka, tłum. B. Bornstein, na nowo oprac. J. Suchorzewska. Warszawa: Państwowe Wydawnictwo Naukowe. Kitchin, R. (2014). Big Data, new epistemologies and paradigm shifts. Big data & society, 1(1), https://journals.sagepub.com/doi/full/10.1177/2053951714528481 (dostęp: 23.09.2021). Kołakowski, L. (1966). Filozofia pozytywistyczna: od Hume’a do Koła Wiedeńskiego. Warszawa: Państwowe Wydawnictwo Naukowe. Konecki, K. (2000). Studia z metodologii badań jakościowych. Teoria ugruntowana. Warszawa: Wydawnictwo Naukowe PWN. Krajewski, W. (1995). „Reprezentacjonizm” i realizm. Filozofia Nauki, 3(3), 79–83. Leciejewski, S. (2013). Cyfrowa rewolucja w badaniach eksperymentalnych. Studium metodologiczno-filozoficzne. Poznań: Wydawnictwo Naukowe Uniwersytetu im. Adama Mickiewicza w Poznaniu. Lekka-Kowalik, A. (2008). Odkrywanie aksjologicznego wymiaru nauki. Lublin: Wydawnictwo KUL. Majcherek, J. (2004). Źródła relatywizmu w nauce i kulturze XX wieku: od teorii względności do postmodernizmu. Kraków: Universitas. Mayer-Schönberger, V., Cukier, K. (2014). Big data: rewolucja, która zmieni nasze myślenie, pracę i życie. Warszawa: MT Biznes. Miś, L. (2007). Problemy społeczne: teoria, metodologia, badania. Kraków: Wydawnictwo Uniwersytetu Jagiellońskiego. O’Neil, C. (2017). Broń matematycznej zagłady: jak algorytmy zwiększają nierówności i zagrażają demokracji. Warszawa: Wydawnictwo Naukowe PWN. 260 Łukasz Iwasiński Okrasa, W. (2017). Społeczne wyznaczniki procesu statystycznego i status statystyki publicznej z perspektywy socjologii statystyki. W: T.M. Korczyński (red.), Współczesne problemy socjologii wiedzy: w 80-lecie „Ideologii i utopii” Karla Mannheima (ss. 163–188). Warszawa: Warszawskie Wydawnictwo Socjologiczne. Oracle (2015). Assessing the role of Big Data in tackling financial crime and compliance management, https://www.oracle.com/a/ocom/docs/industries/financial-services/fs-big-data-fccm-wp.pdf (dostęp: 23.09.2021). Pentland, A. (2009). Reality mining of mobile communications: Toward a new deal on data. W: S. Dutta, S. Mia (red.), The Global Information Technology Report 2008–2009 (ss. 75–80). Geneva: World Economic Forum. Popkin, R.H., Stroll, A. (1994). Filozofia. Poznań: Zysk i S-ka Wydawnictwo. Popper, K.R. (1977). Logika odkrycia naukowego. Warszawa: Państwowe Wydawnictwo Naukowe. Porter, T.M. (1995). Trust in Numbers: The Pursuit of Objectivity in Science and Public Life. Princeton, NJ: Princeton University Press. Rieder, G., Simon, J. (2016). Datatrust: Or, the political quest for numerical evidence and the epistemologies of Big Data. Big Data & Society, 3(1). Rieder, G., Simon, J. (2017). Big data: A new empiricism and its epistemic and socio-political consequences. Berechenbarkeit der Welt?, 85–105. Sikora, M. (2007). Problem reprezentacji poznawczej w nowożytnej i współczesnej refleksji filozoficznej. Poznań: Wydawnictwo Naukowe Instytutu Filozofii UAM. Sojak, R. (2004). Paradoks antropologiczny. Wrocław: Wydawnictwo Uniwersytetu Wrocławskiego. Stephens-Davidowitz, S. (2019). Wszyscy kłamią. Big data, nowe dane i wszystko, co Internet może nam powiedzieć o tym, kim naprawdę jesteśmy. Kraków: Wydawnictwo Literackie. Stevens, M., Wehrens, R., de Bont, A. (2018). Conceptualizations of Big Data and their epistemological claims in healthcare: A discourse analysis. Big Data & Society, 5(2), 1–21. Sumpter, D. (2019). Osaczeni przez liczby. Warszawa: Copernicus Center Press. Szacki, J. (2006). Historia Myśli Socjologicznej. Warszawa: Wydawnictwo Naukowe PWN. Tuchańska, B. (2012). Dlaczego prawda? Prawda jako wartość w sztuce, nauce i codzienności. Warszawa: Poltext. Turner, J.H. (2008). Struktura teorii socjologicznej. Warszawa: Wydawnictwo Naukowe PWN. UW (2021). https://usosweb.uw.edu.pl/kontroler.php?_action=katalog2/przedmioty/ pokazPrzedmiot&prz_kod=1600-SZD-WM-NZI&callback=g_78db2ce2\ (dostęp: 23.09.2021). Williamson, B. (2015). Smarter Learning Software: Education and the Big Data Imaginary. http://dspace.stir.ac.uk/handle/1893/22743 (dostęp: 23.09.2021). Woleński, J. (2005). Epistemologia: poznanie, prawda, wiedza, realizm. Warszawa: Wydawnictwo Naukowe PWN. Woźniak, T. (2000). Propaganda scjentystyczna. Funkcje społeczne przekazów popularnonaukowych. Warszawa: IFIS PAN. Zeidler, P. (2010). Czy można zaobserwować orbitale? O problemie obserwowalności i realności przedmiotów teoretycznych. Filozofia Nauki, 18(4/72), 5–22. Big data a problem reprezentacji poznawczej 261 Zybertowicz, A. (1995). Przemoc i poznanie: studium z nie-klasycznej socjologii wiedzy. Toruń: Wydawnictwo Uniwersytetu Mikołaja Kopernika. Żulicki, R. (2020). Data science w Polsce. Etnografia społecznego świata. https://dspace. uni.lodz.pl/handle/11089/35209 (dostęp: 23.09.2021). Życiński, J. (1993). Granice racjonalności. Eseje z filozofii nauki. Warszawa: Wydawnictwo Naukowe PWN. Życiński, J. (2018). Świat matematyki i jej materialnych cieni. Warszawa: Copernicus Center Press.