Techno-entuzjazm – najniebezpieczniejsza z ideologii | [Fragment]

W przeszłości każdy władca albo mógł manipulować nielicznymi osobami, które były dla niego kluczowe, albo musiał oddziaływać przez przekaz masowy – przez plotkę, edukację, gazetę, książkę czy telewizję. Rewolucja cyfrowa pozwoliła na mikrotargeting – na możliwość manipulacji masami ludzi, ale nie jako masą czy tłumem, ale jako zróżnicowanymi, a najlepiej zatomizowanymi lub trzymanymi na smyczy ideowo-cyfrowej jednostkami. Nigdy wcześniej nauki społeczne nie miały w swoim posiadaniu tak potężnych narzędzi eksperymentowania i zarazem sterowania drobnymi, ludzkimi reakcjami i zachowaniami, jakie dziś posiadają władcy Big Techu – wcale zresztą nie kwapiącego się, by niezależnym uczonym narzędzia te udostępniać.

***

Jarema Piekutowski: Shoshana Zuboff twierdzi w swojej książce, że przez 24 godziny pracujemy dla firm Big Techu, przekazując im bezcenne dane, wykorzystywane między innymi do optymalizacji przekazu reklamowego. Strach powiedzieć, do czego jeszcze (o czym mówi nam afera Cambridge Analytica). Zapytam nieco prowokacyjnie: a może to dobrze? Oto tysiące usługodawców i producentów dostosowuje do naszych potrzeb swoje usługi i produkty, zapewniając nam wzrost jakości życia. Pozyskiwanie danych może też chronić nasze bezpieczeństwo (szczególnie szybki rozwój współpracy CIA i NSA z Big Tech nastąpił po 11 września 2001). Więc może nie należy się aż tak bać kapitalizmu inwigilacji? Może diabeł nie jest tak straszny, jak go malują?

 

Profesor Andrzej Zybertowicz: Jeżeli pytanie jest prowokacyjne, może to znaczyć, że pan sam nie wierzy w swe słowa. Spójrzmy na sytuację socjologicznie i rozważmy dwa pytania. Pierwsze: jak liczni są ci, do których trafia rozumowanie, które pan przedstawiał? Drugie: czym się charakteryzują ludzie, dla których dobrą – lub nawet najlepszą – miarą jakości życia jest dopasowywanie usług i produktów do potrzeb człowieka?

W odpowiedzi na pierwsze pytanie wskażę technoentuzjastów – bezkrytycznych fanów technologii; często gadżeciarzy nie dostrzegających społecznych kontekstów zmian technologicznych. Mówiąc językiem Evgeny Morozova, są to „technologiczni solucjoniści”, ludzie wierzący, że technologia jest w stanie rozwiązać wszystkie ludzkie problemy, w tym oczywiście i te, które ona sama tworzy. Nie znam badań określających, jak liczna jest grupa technoentuzjastów. Na pewno miliony umysłów ludzi młodych zostało już w istocie zhackowanych przez Big Tech. Ale wśród technoentuzjastów widzę też sporo wiekowych już naukowców o mentalności post-oświeceniowej. Gdy np. startupowcy tworzą zmiany, to starsi od nich badacze, np. uważający się za progresistów, dostarczają ideologicznych uprawomocnień dla technologicznie „wyczarowywanych” zmian. Uważam, że technoentuzjazm jest w dzisiejszym świecie najniebezpieczniejszą z ideologii. Pewnym przejawem czy odgałęzieniem tego są transhumanizm i posthumanizm w niektórych ich odmianach.

 

Dlaczego uważa pan technoentuzjazm za tak niebezpieczny?

Dlatego, że cechuje się bezkrytycznym zaufaniem do rozwoju techniki i karmi narracje podcinające rzeczową, krytyczną refleksję nad rozwojem technologii. Technoentuzjazm przełamuje dystanse ideologiczne, pokoleniowe i cywilizacyjne. Technoentuzjaści to w sporej części ludzie, których umysły zostały zhakowane przez rewolucję cyfrową. Czym takie osoby się cechują? Krótko i w uproszczeniu: niemal tunelowym postrzeganiem rzeczywistości, w tym swojego człowieczeństwa. Postrzegają świat wyrywkowo – niczym straszni mieszczanie z wiersza Juliana Tuwima (1984-1953) opublikowanego w roku 1933. Oto fragment:

I oto idą, zapięci szczelnie,

Patrzą na prawo, patrzą na lewo.

A patrząc – widzą wszystko oddzielnie

Że dom… że Stasiek… że koń… że drzewo…

 

Jak ciasto biorą gazety w palce

I żują, żują na papkę pulchną,

Aż papierowym wzdęte zakalcem,

Wypchane głowy grubo im puchną.

 

I znowu mówią, że Ford… że kino…

Że Bóg… że Rosja… radio, sport, wojna…

Warstwami rośnie brednia potworna,

I w dżungli zdarzeń widmami płyną.

 

Skąd u pana takie skojarzenie?

Z Tel Awiwu. W czerwcu 2019 pojechałem na wielką, renomowaną międzynarodową konferencję z cyklu „Cyber Week” organizowaną corocznie przez Uniwersytet Telawiwski. Celem było zorientowanie się, co „piszczy w trawie” nowych technologii, a dokładniej rozeznanie sposobu myślenia ludzi, którzy z jednej strony tworzą i/lub sprzedają nowe technologie cyfrowe, z drugiej zaś, którzy tworzą rozwiązania mające zapewniać bezpieczeństwo tych technologii. Usłyszałem pełno zadziwiających opowieści z krainy wyścigu tarczy i miecza, pancerza i pocisku wygłaszanych przez bardzo inteligentnych, twórczych ludzi – głównie z Izraela i USA, choć oczywiście nie tylko – którzy padali ofiarą myślenia tunelowego.

 

Co jest złego w myśleniu tunelowym?

O wszystkim decyduje kontekst. Jeśli ktoś napada mnie w ciemnym zaułku i mój umysł w pełni koncentruje się na przezwyciężeniu zagrożenia – to jest OK. Ale gdy dzięki skupionemu, twórczemu, tunelowemu – nieświadomemu szerszych okoliczności – myśleniu buduję nowe rozwiązania techniczne, które są tego typu, iż przynoszą konsekwencje systemowe, to wtedy są podstawy do niepokoju.

 

Jak Pan na tej konferencji to zobaczył?

Zaraz odpowiem, ale dodam, bazuję na obserwacjach nie z jednego „Cyber Weeku”, ale dwóch. W czerwcu 2022 ponownie poleciałem do Tel Awiwu na taką konferencję, by zobaczyć, co w superdynamicznym świecie cyber zmieniło się w ciągu ostatnich trzech lat. I zobaczyłem, że pewne – moim zdaniem niedobre, gdyż niebezpieczne – schematy myślowe są bez zmian.

 

Jakie to schematy?

Format tej konferencji jest taki, iż w obradach plenarnych (choć nie tylko) obok polityków, ekspertów, badaczy akademickich dominującą rolę odgrywają przedstawiciele biznesu – z sektora firm dostarczających rozwiązań mających przynosić bezpieczeństwo systemów cyfrowych. Ich wystąpienia, zazwyczaj dobrze przygotowane, czasem błyskotliwe, przebiegają według następującego wzorca: najpierw rysowany jest przerażający obraz zagrożeń, form i kierunków cyberataków, wskazuje się na tzw. bad actors (tu zwyczajowo wymieniane są cztery państwa mające sponsorować cyber przestępczość i cyberterroryzm – Chiny, Iran, Rosja, Korea Północna), podkreśla się, iż ataki na sieci są coraz bardziej wyrafinowane oraz częstsze – a następnie opowiada się o świetnych rozwiązaniach, które oferuje firma, z której pochodzi mówca (często ktoś z właścicieli i/lub kierownictwa). I obiecuje się, iż dzięki tym rozwiązaniom firmy decydujące się na tak zwaną transformację cyfrową będą bezpieczne.

Prawie nigdy nie dodaje się, że w tle trwa wyścig miecza i tarczy, a zatem, że dzisiejsze rozwiązania ochronne za pół roku przestaną być skuteczne, gdyż biznes zostanie „wepchnięty” w przyjęcie nowych, nowocześniejszych, korzystniejszych, szybszych, przyjaźniejszych rozwiązań, które jednak będą niedopracowane – bo przecież czas goni i trzeba z takimi „półproduktami” szybko wejść na rynek, będą miały pełno dziur (tzw. exploitów) i trzeba będzie wydawać spore środki, by zakupić lub skorzystać w trybie usługi (tzw. software as a service) z nowszych rozwiązań ochronnych.

Mogę powiedzieć, że to schemat pierwszy. Schemat drugi już bezpośrednio wiąże się z postrzeganiem tunelowym.

Gdy po wystąpieniach zadawałem pytania w dyskusji lub w kuluarach rozmawiałem z przedstawicielami firm, widać było, że społeczne konsekwencje zmian technologicznych, w tym owego wyścigu miecza i tarczy w ogóle ich nie interesują. Nie ma takich konsekwencji na ich mentalnym radarze i niezbyt chętnie chcą o nich rozmawiać. Strasznych, tuwimowskich mieszczan zastąpili straszni technoentuzjaści.

 

Dziwi to pana?

Wcale. Pieniądze bowiem (niektórzy liczą też na sławę) zarabiane są nie na rozwijaniu czyjejkolwiek troski moralnej, ale dzięki wchodzeniu na kolejne rynki.

 

Przecież nic w tym złego.

Ale tylko dopóki nie uchwycimy kontekstu, w którym się to dzieje. Otóż ze względu na naturę Internetu, naturę rewolucji cyfrowej, jest tak, iż niektóre z nowych technologii – rozwijane dzięki sukcesom na polu myślenia tunelowego, wytwarzają konsekwencje systemowe. Inaczej mówiąc: myślisz i działasz lokalnie, ale możesz powodować efekty globalne. I to takie, o których nie masz najmniejszego pojęcia. I często, czym mniej masz tego pojęcia, z tym większym zapałem i skutecznością odnosisz rynkowe sukcesy. Żaden straszny mieszczanin z epoki Tuwima nie był w stanie zmajstrować rozwiązań mogących zdestabilizować bezpieczeństwo na drugim końcu Planety.

 


Książkę „Cyber kontra real” można nabyć w internetowej księgarni Nowej Konfederacji.


Da pan radę z tego miejsca wrócić do mojego początkowego pytania?

Gdyby przez moment potraktować poważnie to, co pan powiedział, to pańska teza brzmi: jeśli lepiej skalibrujemy narzędzia do zaspokajania ludzkich potrzeb, to będziemy mieli lepszy świat. Problem polega na tym, że tak naprawdę dostarczycielom tych nowych dóbr nie chodzi o lepsze poznanie natury ludzkiej i zaspokojenie realnych potrzeb człowieka. Chodzi raczej o formatowanie ludzkich zachowań bez poważniejszego namysłu nad tym, jak to się ma do natury ludzkiej i jej potrzeb.

 

W jaki sposób?

Profesor Zuboff mówi o „nadwyżce behawioralnej” – wchodząc do Internetu pozostawiam ślady naszych zachowań, które koncerny Big Techu bez naszej prawdziwej zgody i wiedzy pobierają, przetwarzają w pakiety danych i sprzedają. Ale owa nadwyżka nie służy lepszemu zaspokajaniu naszych potrzeb, ale – odwrotnie – lepszemu dopasowaniu ludzkich zachowań do potrzeb biznesu. Najpierw Big Tech podpiął miliardy ludzi do cyberświata, następnie – za pomocą m.in. cyfrowych technologii uzależniających – sprawił, że nie są oni w stanie się od cyberświata odłączyć. Po drodze nasze zachowania – i te sieciowe, i w realu – są modyfikowane. Nadwyżka behawioralna pozwala na formatowanie zachowania wielkich grup społecznych, narodów, może nawet całej globalnej cywilizacji. Można w dużym stopniu przewidywać ludzkie zachowania nie dlatego, że zbudowaliśmy modele trafnie opisujące, to jacy ludzie po prostu są, ale dzięki temu, że zachowania nasze są formatowane, w pewien sposób porządkowane, zautomatyzowane poprzez codzienny kontakt z cyfrowymi strumieniami bodźców, w tym poprzez mikrotargeting.

Dla Big Techu – i innych biznesów – stajemy się przewidywalni, gdyż zostajemy „znormalizowani” nie tylko na polu rynkowych zachowań konsumenckich, ale także internetowych reakcji emocjonalnych.

 

W pewien sposób to mechanizm analogiczny do działań stosowanych niekiedy przez tajne służby: najpierw człowieka, który jest celem, tzw. figurantem, służb, wrabiamy na przykład w uzależnienie od seksu czy hazardu. Potem, gdy już jest w ciężkich tarapatach, przychodzimy doń z wyciągniętą, pomocną dłonią. Różnica polega na tym, że służby w ramach gier operacyjnych robią to co najwyżej punktowo wobec osób kluczowych, natomiast Big Tech – po raz pierwszy w dziejach ludzkości – potrafi robić to na masową skalę, w dodatku nawet lepiej niż służby. Dość precyzyjnie robi to z wielkimi grupami ludzi, z całymi pokoleniami – zwłaszcza młodych, najbardziej podatnych na cyfrowe pokusy. Wabi, później uzależnia, w następnym kroku mówi: „Mamy rozwiązanie waszych problemów”. I jak trafnie wskazuje Morozov, niektórzy nabierają się przy okazji na solucjonizm technologioczny. A fakt, że niekiedy rzeczywiście technologiczne rozwiązanie istnieje – wprawdzie na dłuższą metę często nieskuteczne – powoduje, że technoentuzjaści mnożą się jak króliki.

 

Przedstawia pan bardzo pesymistyczną wersję wydarzeń. Podobne argumenty były używane na przełomie XIX i XX wieku przeciwko rozwijającemu się wówczas kapitalizmowi. Podobnie mówił na przykład Gilbert Keith Chesterton, krytykując coraz większą powszechność reklam w prasie czy w przestrzeni publicznej. Może nie chodzi panu tak naprawdę o technologie, a o sposób działania biznesu w ogóle, o jego immanentną cechę, jaką jest kreowanie potrzeb, by je zaspokoić za pieniądze?

Rzecz w tym, że sposób działania biznesu się gruntownie zmienia. Pod hasłami wolnego wyboru budowany jest świat bezalternatywny – bodaj czy nie najlepszym tego przejawem jest koncepcja metawersum Marka Zuckerberga. Badacz cyfrowych technologii uzależniających, Tristan Harris w netflixowym filmie „Dylemat społeczny”, a także Christopher Wylie w książce „Mindf*ck: Cambridge Analytica, czyli jak popsuć demokrację”  (nawiasem mówiąc, zaskakująco głębokiej jak na tak młodego człowieka) – mówią o tym, co różni technologie sprzed epoki Internetu od tych obecnych. Otóż rower czy nawet odtwarzacz wideo, gdy przestaje się z nich korzystać pozostają bierne – nie przywołują nas, natomiast smartfon stale domaga się naszego zaangażowania. Wcześniejsze środowisko technologiczne wokół człowieka było pasywne, dziś jest aktywne. Nie pozwala nam o sobie zapomnieć – nierzadko oszukańczo zachowuje się jak bliski nam człowiek albo kotek czy piesek, które chcą wyjść na dwór lub się z nami pobawić.

Wspominany przez pana Chesterton a potem Neil Postman w książce „Technopol: Tryumf techniki nad kulturą”  z roku 1992 mówili rzeczy prorocze, ale zlekceważone. Różnica polega na tym m.in., że procesy, które ich niepokoiły, rozgrywały się w świecie mniejszej dynamiki oraz niższej kumulacji bogactwa, wiedzy i władzy. Reklama w przestrzeni publicznej już jest formą pewnej aktywności skierowanej do ludzi. Ona też potrafi wabić. Billboardy wprawdzie krzyczą do nas różnymi kolorowymi napisami, ale wśród wielu sygnałów stają się często niezauważalne. Więc już mamy billboardy, które obracają się, migają – wszystko po to, by wybić się ze zgiełku otoczenia przez silniejsze, oryginalniejsze bodźce. Chestertonowe reklamy nie były w stanie komunikować się ze sobą i nie potrafiły personalizować się pod nasze gusty, by je następnie niezauważenie zmieniać.

Ale nawet te migające billboardy są niczym w porównaniu z trzymanym w kieszeni smartfonem, który nie tylko domaga się naszej stałej uwagi, ale także aktywności. Aktywności, która kusi nas aurą (zwykle iluzorycznej) podmiotowości i swobody, np. w świecie gier, ale i zakupów. Technologia usieciowiona, przywołująca i uzależniająca to głęboki przełom.

 

Jakie są skutki tego przełomu?

Postawiony pod znakiem zapytania został apel (i pełnomocnictwo) z Księgi Rodzaju: „Czyńcie sobie ziemię poddaną” (Rdz 1,28). W procesie technologicznego opanowywania ziemi wytworzyliśmy potwora, który wymknął się spod naszej kontroli. I nie chodzi tylko o krytyczny skądinąd problem destabilizacji planetarnego ekosystemu, który jest powszechnie znany i zarazem przedefiniowany w swoistą świecką religię. Ponieważ tysiące badaczy i aktywistów już się tym zajmuje, trochę odpuściłem to sobie. Skupiam się na innych efektach rozwoju technologii.

W książce „Samobójstwo oświecenia? Jak neuronauka i nowe technologie pustoszą ludzki świat” , którą napisałem wraz z zespołem współpracowników, jest rozdział poświęcony historii technologii widzianej przez pryzmat postępu szeroko rozumianej automatyzacji. Proponuję spojrzenie na relację między człowiekiem a technologią jako zależność między panem a sługą. Według klasycznej dialektyki Heglowskiej, im lepszy, pożyteczniejszy sługa, tym bardziej pan jest od niego uzależniony – sługa też może solidnie panu dokuczyć. W przypadku technologii przez większość dziejów istniała asymetria między ludźmi a wytworzonymi przez nas narzędziami – wyraźna przewaga pana nad sługą. Pan posiadał instrumenty pozwalające na przywołanie sługi do porządku i wymuszanie na nim odpowiednich zachowań. Nawet jeśli pan czasem ulegał, to była to forma „flirtu” ze sługą czy służącą.

Ale sytuacja się zmieniła radykalnie, gdyśmy technologię zdigitalizowali i usieciowili. Przełomowy okazał się Internet, kolejne kroki to Internet Rzeczy oraz sztuczna inteligencja. Obecnie technologia rozwija się i autonomizuje według zasad, które tylko częściowo rozumiemy. Zyskuje nad nami przewagę na kolejnych polach. Nie wykluczam, że żyjemy w ostatnich momentach, w których człowiek może jeszcze przewagę nad technologią odzyskać.

 

Dlaczego?

Architektura cyberświata jest już tak złożona, coraz bardziej wszechogarniająca, nieprzejrzysta i wszędobylsko zamieniająca wszystko, co analogowe w cyfrowe, że wymusza na nas na każdym kroku procesy dostosowawcze.

Już to nie my dopasowujemy technologię do naszych potrzeb, ale ona każe nam się dostosować do siebie. Niemal nakazuje się kolejnym firmom i instytucjom, by niezwłocznie przechodziły cyfrową transformację, bo inaczej wypadną z gry.

 

Ważnym sygnałem ostrzegawczym był dla mnie kilka lat temu wykład pewnego specjalisty od smart cities. Rozrysował on rozbudowany schemat organizacyjny takich inteligentnych miast i podsumował: „W tym ekosystemie człowiek będzie drobnym trybikiem, który będzie musiał stale się dopasowywać – do standardów oszczędzania energii, przemieszczania się i spotykania z innymi”. A jeszcze forsowanie wzorców odżywiania się. Mówi się także, że jesteśmy odpowiedzialni za swój ślad węglowy, więc musimy przemyśleć, czy na spotkanie pod miastem powinniśmy jechać samochodem, czy transportem publicznym. Teraz jeszcze mamy wybór, ale jeśli ślad węglowy każdego będzie rejestrowany w centralnej bazie danych, to ten wybór oraz wiele innych zostanie nam odebrany.

 

A może ten człowiek ma rację? Jeśli taki wybór zostanie nam odebrany, to przecież dla naszego dobra. Prognozy naukowców dotyczące nadciągającej katastrofy klimatycznej są bardzo niepokojące, a zgodność między nimi – bardzo duża. Jako ludzkość będziemy musieli się ograniczyć, żeby zapobiec tragedii. Czemu mielibyśmy bronić prawa do nieskrępowanego zostawiania śladu węglowego?

„Nasze dobro” – świetna rzecz. Tylko jego kształt winien być wyznaczany w otwartej debacie społecznej, której wyniki podlegają demokratycznej weryfikacji. Tymczasem wszystko rozgrywa się w „mechanice” ewolucji technokulturowej, która jest mieszaniną z jednej strony wielu procesów spontanicznych, z drugiej zaś zagrywek władców Big Techu.

Przywołałem kwestię śladu węglowego jako przykład jednego z setek ograniczeń, którym będziemy musieli podlegać w smart cities. Redagując ten fragment naszej rozmowy, w niektórych mediach (tylko w niektórych) znajduję informacje, iż nowe regulacje Komisji Europejskiej dotyczące podatku od śladu węglowego wyłączają prywatne odrzutowce oraz jachty . Być może tu właśnie widać punkt ciężkości. Technoentuzjaści zwykle nie dostrzegają tego, że rozwój technologii zawsze przebiega w kontekście społecznych nierówności. Struktury społeczne mają konstytutywnie wbudowane (może jest to nieodwołalne…) liczne asymetrie: władzy, wiedzy, bogactwa. Można tych asymetrii nie lubić, ale głupie jest udawanie, iż one nie istnieją. Można te asymetrie łagodzić, ale wszelkie próby ich wymazania zadziałają według formuły: „dobrymi intencjami jest wybrukowane piekło”. Przyniosą mnóstwo nieprzewidzianych skutków, tym bardziej opłakanych, im bardziej radykalnie próbuje się wprowadzać mechanizmy „równościowe”. Także w smart cities okaże się, że pewne, wąskie grupy osób będą wyłączone spod reguł systemowych optymalizacji.

Być może jest kwestią czasu, kiedy rozwijane systemy rozpoznawania naszych emocji, będą wysyłały nam sygnały, że mamy się ogarnąć, bo jak nie zmienimy toku myśli, to za chwilę powiemy coś, co kogoś urazi. Będzie trzeba się dopasowywać – optymalizować nasze emocje dla „dobra wspólnego”. Wymiar ekologiczny będzie tylko jednym z nich – poza tym będzie mowa o bezpieczeństwie, empatii, przyjazności, różnorodności…

 

Skąd pan to wie?

Analizuję.

 

Co takiego i jak pan analizuje?

Obserwuję trendy. Stosuję dwie podstawowe heurystyki. Jedna, prosta, trywialna, druga trudniejsza. Pierwsza heurystyka to dobrze znane ekstrapolowanie trendów już widocznych. Coraz wyraźniej widać liczne cyfrowe sposoby kontroli ludzkich zachowań i uzasadnień rzekomej niezbędności. A niektóre cyfrowe rozwiązania wspomagające walkę z przestępczością w USA bardzo przypominają te chińskie (a może odwrotnie).

Technologie cyfrowe i sieciowe przynoszą zysk, tym większy, im więcej osób, przez więcej czasu z nich korzysta. Ale Big Tech nie może, bo nie byłoby to skuteczne, szybko się rozwijać, mówiąc, że system działa tak, iż wymusza i preferuje takie innowacje, które można monetyzować. Nie, ludzie potrzebują ułudy; tym bardziej jej potrzebują, im mniej są religijni. Więc technologie „podpinające” kolejne strefy życia społecznego do sieci, muszą być legitymizowane przez obietnice to bezpieczeństwa, to sprawiedliwości, to różnorodności, to optymalizacji…

Ekologiczne motywacje są oczywiście szlachetne, ale jeśli do ochrony środowiska będzie można zastosować metody masowej inwigilacji w celu pomiaru naszych węglowych śladów, to wcale nie jest pewne, że cyfrowi władcy nie będą ich używali także do innych niecnych celów. Optymalizacja procesów gospodarczych nigdy chyba nie jest społecznie neutralna. Ma swoich beneficjentów oraz tych, którzy na niej przegrywają. W 2020 roku spore zainteresowanie wzbudził wywiad Grzegorza Sroczyńskiego z badaczką optymalizacji, profesor Moniką Kosterą . Ten wywiad odsłonił wiele rzeczy, na które się nie zwracano wcześniej uwagi – pokazał przede wszystkim, jak wiele szkody może przynieść optymalizacja zasobów ludzkich. Optymalizatorzy nie wyrzucą z życia społecznego asymetrii, bo tego się nie da zrobić – przeniosą je tylko w inne miejsce. Trendy opytmalizacyjne na różnych polach warto obserwować.

Druga heurystyka jest bardziej złożona, ale – gdy już się ją wyartykułuje i opanuje – to aż dziwne się zdaje, że nie jest stosowana na co dzień. Nazwijmy ją heurystyką zorganizowanych grup interesu. W odróżnieniu od rozproszonej, zatomizowanej, mniej lub bardziej zdezorganizowanej „masy ludzkiej” gorliwych konsumentów, grupy interesu mają dość dobrze zdefiniowane swoje faktyczne potrzeby. Poza tym regularnie monitorują warunki swego działania. Wypatrują nowych szans i zagrożeń w otoczeniu społecznym, a następnie aktywnie reagują. Gdy pojawia się jakiś proces czy zdarzenie o charakterze nadzwyczajnym – nowe trendy technologiczne (np. sztuczna inteligencja), pandemia, bliskie ryzyko wojny – to kluczowe grupy interesu (nawet konkurujące ze sobą) komunikują się, reorganizują swoje strategie, dzielą strefy wpływów tak, by z nowych okoliczności wydobyć jak najwięcej korzyści.

Ponieważ „CyberPanowie” Big Techu tworzą – obok sektora finansowego – chyba najpotężniejsze, nie tylko biznesowo, ale również kulturowo zorganizowane środowisko wpływów na bieg spraw na świecie, to właśnie im należy bardzo dokładnie patrzeć na ręce. W innym przypadku „inteligentne miasta” zbudowane na ideologii optymalizacji staną się dla wielu z nas więzieniem.

 

Tylko jeśli zgodzimy się na taką władzę w wyborach. Mamy przecież jeszcze demokrację i niekoniecznie musimy godzić się na władzę, która będzie zamykała nas w miastach-więzieniach.

Ależ grupy interesu wcale nie muszą tego robić jawnie i skokowo – często dobrze jest skorzystać z metody żaby bez pośpiechu podgotowywanej, iż gdy zorientuje się, że należałoby wyskoczyć, to będzie już zbyt „wyluzowana”, by tego dokonać.

Nowa jakość całej sytuacji polega na tym, iż wcześniej każdy władca albo mógł manipulować nielicznymi osobami, które były dla niego kluczowe, albo musiał oddziaływać przez przekaz masowy – przez plotkę, edukację, gazetę, książkę czy telewizję. Rewolucja cyfrowa pozwoliła na mikrotargeting – na możliwość manipulacji masami ludzi, ale nie jako masą czy tłumem, ale jako zróżnicowanymi, a najlepiej zatomizowanymi lub trzymanymi na smyczy ideowo-cyfrowej jednostkami. Wyświetlany na tablecie układ strony głównej danego portalu internetowego może być inny dla każdego użytkownika. Neuronauka nie dostarczyła jeszcze tak głębokiej wiedzy, by taka manipulacja była bardzo precyzyjna, ale z każdym dniem skuteczność personalizacji wzrasta – służą do tego m.in. testy A/B i mnóstwo innych powstających z dnia na dzień metod badawczych. Nigdy nauki społeczne nie miały w swoim posiadaniu tak potężnych narzędzi eksperymentowania i zarazem sterowania drobnymi, ludzkimi reakcjami i zachowaniami, jakie dziś posiadają władcy Big Techu – wcale zresztą nie kwapiącego się, by niezależnym uczonym narzędzia te udostępniać.

Mamy do czynienia z różnicą jakościową na dwóch polach: w sferze relacji między technologiami a ludźmi (przestajemy być panami przez siebie zaprojektowanych narzędzi) oraz na polu możliwości, jakie technologie dają tym, którzy dysponują zasobami do oddziaływania na wszystkich innych. Shoshana Zuboff w rozmowie z Rafałem Wosiem dla „Tygodnika Powszechnego” mówi, że nastąpił pucz za weneckim lustrem: Kapitalizm nadzoru jest jak weneckie lustro. Firmy wiedzą wszystko o swoich odbiorcach. Ale odbiorcy nie wiedzą prawie nic o obserwujących. To, o co teraz toczy się gra, to stworzenie dominacji na miarę XXI w. O końcu demokracji wiele się ostatnio mówi. Ale szukanie jej przyczyn odbywa się nie tam, gdzie trzeba. Trwa tropienie faszyzmu czy populizmu .

 

Kto jest za tym weneckim lustrem?

Szefowie Big Techów – władcy algorytmów. Ale są równi i równiejsi – jak u Orwella. Tworzą się, jak mówiłem, nowe asymetrie. Kto jest ich beneficjentem? Pewne odpowiedzi mogą być nieoczywiste. Spójrzmy dla kontrastu na Chińczyków i ich social credit system – zautomatyzowanego nadzoru i oceny obywateli. Nie może być przecież tak, że oficerowie tajnych służb, wykonujący misje wywiadowcze, nie mają żadnych obejść w takich systemach, prawda?

 

A mają?

Muszą mieć jakieś obejścia, by operacje tajnych służb nie były narażone na zdemaskowanie np. przez system rozpoznawania twarzy. Ale skoro mają jakieś furtki, to znaczy, że także mogą niekiedy sterować takim systemem ręcznie. Jeśli syn bogatego, partyjnego bossa uwikła się w jakieś tarapaty, musi być jakiś sposób wymazania ujemnych punktów, które mu grożą. A to już otwiera całą kaskadę ręcznego sterowania. Swoją drogą – to może zamazywać obraz społeczny wyłaniający się z systemu. Ten system ma bowiem co najmniej dwie funkcje: jedna to dyscyplinowanie obywateli, a druga – dostarczanie obrazu społeczeństwa i jego kondycji, co ma pomagać w rządzeniu tak wielkim społeczeństwem jak Chiny.

Tak czy inaczej, w niektórych krajach tajne służby mogą być jednym z beneficjentów nowych asymetrii. Nie mówiąc już o samych korporacjach technologicznych – czyli o twórcach systemu.

 

A jednak w świecie zachodnim zlikwidowaliśmy bardzo dużo asymetrii – choćby niewolnictwo.

Ale jeśli to ma nas pocieszać, to jest śmiechu warte! Nigdy wcześniej w historii ludzkości nie było tak, żeby w rękach tak bardzo nielicznej grupy nastąpiła tak gigantyczna kumulacja trzech kluczowych zasobów: wiedzy, bogactwa i władzy. Yuval Harari w rozmowie z Danielem Kahnemanem  widzi, że jest to sytuacja historycznie zupełnie bezprecedensowa, ale jednocześnie nie potrafi z tego wyciągnąć sensownych wniosków, być może z powodu ideologicznych uwikłań swojego myślenia. „CyberPanowie”, czyli beneficjenci tej trojakiej kumulacji są właśnie za weneckim lustrem.

 

Czy nie zbliżamy się tu zbytnio do spiskowej teorii dziejów?

Mówienie o poszczególnych spiskach nie jest od razu ani spiskową teorią (czytaj: bzdurą), ani nie musi dotyczyć całych dziejów. Wspomniana przed chwilą unikalna historycznie kumulacja zasobów nie odnosi się do kontrolowania całości dziejów – odnosi się do wskazanego przez Zuboff  konkretnego współczesnego puczu. Gdy grupa trzech kolegów z pracy umawia się, że nie będą z czwartym chodzili na piwo, a do tego będą go szkalowali przed przełożonym – to jest to już mikro spisek.

Ale pana reakcja – przywołanie frazy: „spiskowa teoria” – pokazuje pewien wdrożony nam nawyk myślowy (ale przecież nie intelektualny) nakazujący nam auto/cenzurę, gdy tylko w obliczu złożonych procesów społecznych próbujemy wskazać jakieś konkretne podmioty sprawcze.

 

***

 

Wybrany fragment pochodzi z książki „Cyber kontra real. Cywilizacja w technopułapce”, rozmowy przeprowadzonej przez Jaremy Piekutowskiego z prof. Andrzejem Zybertowiczem. Książka do nabycia na stronie wydawnictwa Nowej Konfederacji.

 

prof. Andrzej Zybertowicz
prof. Andrzej Zybertowicz
socjolog, doktor habilitowany, profesor Uniwersytetu Mikołaja Kopernika w Toruniu. W latach 2008–2010 doradca prezydenta RP Lecha Kaczyńskiego ds. bezpieczeństwa państwa, od 2015 doradca społeczny prezydenta RP Andrzeja Dudy, doradca szefa Biura Bezpieczeństwa Narodowego. W 2006 był ekspertem Komisji Weryfikacyjnej Wojskowych Służb Informacyjnych. Współautor takich książek jak m.in. „Privatizing the police-state: the case of Poland”, „Transformacja podszyta przemocą. O nieformalnych mechanizmach przemian instytucjonalnych” oraz „Samobójstwo Oświecenia. Jak neuronauka i nowe technologie pustoszą ludzki świat”.

WESPRZYJ NAS

Podejmujemy walkę o miejsce głosu prawdy w przestrzeni publicznej. Bez reklam, bez sponsorowanych artykułów, bez lokowania produktów.
To może się udać tylko dzięki wsparciu Czytelników. Tylko siłą zaangażowania Darczyńców będzie mógł wybrzmieć głos sprzeciwu wobec narastającego wokół chaosu!