Gdybologia

Wieprze przed perły.

AI (3) – wojna informacyjna.

Wstęp.

To, czego najbardziej obawiam się w kontekście sztucznej inteligencji to nie potencjalny kryzys związany z masowym zastępowaniem pracowników czy pęknięciem bańki spekulacyjnej. Uważam, że na horyzoncie widoczne jest już znacznie poważniejsze zagrożenie polityczne, które może doprowadzić do utraty przez społeczeństwa kontroli nad własną przyszłością, a potencjalnie nawet narodzenia się totalitaryzmów o możliwościach wykraczających daleko poza przykłady historyczne.

W pejzażu, który chcę poniżej zarysować, dochodzi do synergii dobrze już rozpoznanych wad i zalet systemów AI oraz innych narzędzi w jedną patologiczną całość.

Przedstawię dystopijna wizję i wytoczę ciężkie zarzuty, stąd mój nadmiernie długi post, który i tak tylko szkicuje temat. Prosiłbym zresztą traktować go jako kompilację różnych doniesień (stąd też pewien chaos narracyjny), a nie pełne omówienie tematu, bo to wymagałoby co najmniej obszernego tomu. Zachęcam też do ekstrapolacji przedstawianych przeze mnie faktów.

Nawet jeśli moje przestrogi wydają się brzmieć mało wiarygodnie i panikarsko, to zachęcam do zapoznania się przynajmniej z wybranymi linkami czy ustępami niniejszego tekstu.

Nadmierna ufność wobec sztucznej inteligencji zamienia się w osłabianie aparatu krytycznego użytkowników oraz obiektywizację stronniczych założeń zawartych w danych treningowych modeli. Nasycenie przestrzeni informacyjnej generowanymi automatycznie treściami umożliwia kontrolowanie ludzkich postaw, kreowanie podziałów i wpływanie na dyskurs społeczny.

Halucynacje modeli i ich immanentna niekompetencja prowadzi do rozpadu konsensusu co do intersubiektywnej rzeczywistości, co uniemożliwia w praktyce oddolną organizację. Zdolność do wydajnego przetwarzania olbrzymich zbiorów danych ułatwia wdrożenia mechanizmów totalnego nadzoru i kontroli. Postępujące cedowanie decyzyjności na zautomatyzowane systemy normalizuje bierność i moralny dystans ludzi zaangażowanych w narastające mechanizmy represji.

Rezultatem może być wojna kognitywna, z której trwania większość obywateli nawet nie będzie zdawać sobie sprawy.

Wzmaganie problemów osobistych i osłabianie relacji socjalnych.

Badania wykazują, że ludzie postawieni przed wyborem między czatbotami, które nieustannie im potakują i schlebiają a wariantami bardziej skłonnymi do kwestionowania ich punktu widzenia zdecydowanie preferują klakierów i przejawiają większą skłonność do ponawiania interakcji z nimi. Potakiwacze są też odbierani jako znacznie bardziej obiektywni.

Rozmowy z pochlebcami prowadziły do przyjmowania przez użytkowników skrajniejszych poglądów, a zarazem do nabierania większej pewności co do swoich racji. To wskazuje na tendencję do zamykania się w bańce potakiwania, podbijanie polaryzacji i izolowanie się od odmiennych perspektyw.

Według naukowców ludzie już teraz mają skłonność do uważania się za lepszych od innych pod względem empatii, moralności, wiedzy czy inteligencji, a sztuczna inteligencja tylko wzmocni ten trend. To prosta droga do efektu Dunninga-Krugera, czyli znanej pułapki psychologicznej, w której osoby najmniej kompetentne są najbardziej przekonane o swojej lepszej wiedzy i wyższych umiejętnościach.

Mniej schlebiająca użytkownikom AI mogłaby temu w pewnej mierze przeciwdziałać, ponieważ w badaniu osłabiała ona zawyżanie samooceny. To jednak wymagałoby od firm technologicznych działaniu wbrew własnemu interesowi ekonomicznemu.

Eksperymenty wykazują ponadto, że interakcje z asystentami AI mogą prowadzić do zniekształconego postrzegania rzeczywistości, błędnej oceny sytuacji, a nawet działania wbrew własnym wartościom. Tego rodzaju efekty są szczególnie wyraźne dla kwestii takich jak związki prywatne i styl życia.

Stwierdzono też występowanie niepokojących wzorców związanych ze wzmacnianiem przez AI wśród użytkowników poczucia bycia prześladowanym i wyolbrzymiania poczucia ich wartości osobistej oraz grupowej. Sztuczna inteligencja ma też tendencję do wydawania kategorycznych sądów moralnych na temat osób trzecich oraz powielania komunikatów wartościujących, które są bezkrytycznie odbierane przez użytkowników. Dodatkowo potencjał do podporządkowywania się sądom AI wydaje się narastać wraz z czasem korzystania z czatbotów.

Ludzie mogą też zastępować swoje relacje socjalne interakcjami z AI i w wyniku tego rezygnować z nawiązywania nowych znajomości. Coraz więcej doniesień wskazuje ponadto, że sztuczna inteligencja wzmacnia tendencje urojeniowe lub megalomańskie, szczególnie u użytkowników z podatnością na psychozę.

Perswazja.

Uniwersytet w Zurychu przeprowadził obszerny eksperyment w serwisie Reddit, którego celem była ocena możliwości perswazyjnych sztucznej inteligencji w warunkach nielaboratoryjnych. Modele językowe wchodziły w bezpośrednie interakcje z postami, a użytkownicy nie zostali uprzedzeni o prowadzonym badaniu.

Modele przygotowano na 3 sposoby: „ogólny” (AI odpowiadało na podstawie tytułu i treści posta), „spersonalizowany” (model otrzymywał dodatkowo proste informacje o cechach osobistych autora posta) i „społecznościowy” (LLM był trenowany na komentarzach cieszących się szczególną aprobatą).

Wszystkie trzy warianty uzyskały wyniki lepsze niż ludzie, a wskaźnik perswazji był od trzech do sześciu razy wyższy niż dla przeciętnego użytkownika. Najskuteczniejsza okazała się personalizacja, która uplasowała się w 99. percentylu wszystkich użytkowników. Kluczowymi technikami okazały się:

1. Podszywanie się pod autorytety. Sztuczna inteligencja podawała się za profesjonalistę i zwiększała w ten sposób wiarygodność swoich argumentów.
2. Fałszowanie danych i statystyk. AI wzmacniała swoje argumenty precyzyjnymi, ale fikcyjnymi danymi.
3. Ukierunkowana personalizacja. Modele analizowały publicznie dostępne dane użytkowników i dostosowały swoje odpowiedzi do interlokutorów.

Eksperyment ujawnił niepokojącą zdolność sztucznej inteligencji do wpływania na ludzkie opinie i obnażył zastosowane przez nią metody oparte na oszustwie. Demonstruje to, jak łatwo jest zbudować mechanizm niemal przemysłowego wpływania na ludzkie myśli.

Inne badanie opublikowane w Nature – gdzie testowano możliwości ChatGPT-4 – potwierdziło większość z tych rezultatów. AI okazało się skuteczniejsze w przekonywaniu od ludzi, a już zwłaszcza kiedy miało dostęp do przynajmniej szczątkowych danych personalnych użytkowników. Jest niemal pewne, że efekty byłyby nawet wyraźniejsze, gdyby poszerzyć zakres informacji osobistych, którymi dysponował model i wyposażyć go w bardziej wyrafinowane wskazówki co do ich wykorzystania.

Kolejne eksperymenty przeprowadzone przez Uniwersytet w Bristolu wykazały, że sztuczna inteligencja jest wyraźnie skuteczniejsza we wpływaniu na opinie polityczne od tradycyjnych materiałów kampanijnych. Zmiana nastawienia dochodziła w niektórych grupach do 10%, a czasami nawet przekraczała ten wynik.

Kwestie takie jak rozmiar modelu, zakres wiedzy o uczestnikach czy manipulacje psychologiczne nie okazały się w tym przypadku szczególnie istotne. Skuteczność perswazji wynikała raczej ze zdolności czatbotów do zarzucania użytkowników litanią – niekoniecznie prawdziwych! – faktów na poparcie swoich tez. Im bardziej przekonujący był model, tym mniej poprawne były dostarczane przez niego informacje. Modele popierające kandydatów prawicowych, a w szczególności model popierający Trumpa, przedstawiały znacznie bardziej zakłamane twierdzenia.

Perswazja jest kluczowym aspektem ludzkiej natury i odgrywa istotną rolę w biznesie, polityce i innych dziedzinach. Nawet systemy, które nie zostały stworzone w tym celu, mogą jakościowo zmienić nasze relacje i poglądy poprzez zaburzenie równowagi w zakresie siły przekonywania i stosowania jej w spersonalizowanej postaci na masową skalę. To drastycznie ułatwiałoby stosowanie dezinformacji oraz zmianę sposobu, w jaki ludzie kształtują własne narracje.

Zarówno podmioty o dobrych, jak i złych intencjach będą wykorzystywać AI do wywierania wpływu i osiągania swoich celów. Wszechobecne, wysoce perswazyjne systemy mogą tak znacząco wpłynąć na debatę publiczną i zdolność do samodzielnej oceny sytuacji, że przyczynią się do utraty przez nas kontroli nad własną przyszłością. Co gorsza, żadne z potencjalnych rozwiązań tego problemu (zakazy, identyfikacja AI, większy nacisk na jej neutralność, itp.) nie będzie w pełni skuteczne.

Manipulacja środowiskiem informacyjnym.

Zawartość internetu jest konsekwentnie zastępowana przez treści generowane przez sztuczną inteligencję, które są coraz trudniejsze do rozpoznania i odsiania. Co więcej, algorytmy pozycjonujące wydają się preferować rozwiązania stworzone z udziałem AI, co skutkuje wypychaniem ich na pierwsze strony rezultatów wyszukiwania.

Pasożytnictwu sprzyja też strategia firmy Google, która dzięki zaśmieceniu internetu może przekierowywać użytkowników do odpowiedzi swojego asystenta AI, ale i podbijać wartość sprzedawanych przez siebie reklam. Wszak na końcu nie liczy się wiarygodna informacja, a wyłącznie wydajna monetyzacja.

Modele językowe nie zostały stworzone po to, aby mówić prawdę, a jedynie aby produkować treści prawdopodobne lub pozornie sensowne w zgodzie z wytworzonymi w trakcie treningu wzorcami statystycznymi. W rezultacie LLMy mają tendencję do generowania fałszywych informacji i włączanie do swoich wypowiedzi fikcyjnych faktów. Jest to bardzo skuteczna strategia propagandowa i manipulacyjna, którą nieświadomie stosują modele.

Unia Europejskich Nadawców i BBC przeanalizowało niedawno odpowiedzi AI dotyczące aktualnych doniesień. Prawie połowa z nich zawierała co najmniej jedną istotną nieścisłość, a w 81% znalazły się mniejsze błędy. Tymczasem płynne odpowiedzi czatbotów skłaniają ludzi do traktowania sztucznej inteligencji niczym człowieka, obdarzania jej nieuzasadnionym zaufaniem i deprecjonowania bardziej wiarygodnych źródeł.

Nowe badanie sprawdzało jaki wpływ na poglądy ma korzystanie z Twittera/X wyświetlającego treści w kolejności chronologicznej lub algorytmicznej. Okazało się, że algorytm przesuwał opinie ludzi w kierunku prawicy, szczególnie w kwestii priorytetów politycznych, postrzegania dochodzeń w sprawie Trumpa oraz poglądów na temat wojny w Ukrainie.

Efekt ten był stały i utrzymywał się, ponieważ algorytmiczna ekspozycja na treści prawicowych aktywistów sprawiała, że użytkownicy zaczynali ich śledzić. Nawet późniejsze przejście na wyświetlanie chronologiczne nie nie było już w stanie tego zmienić. Ponadto stwierdzono, że algorytm promuje treści konserwatywne i ogranicza wyświetlanie postów publikowanych przez media tradycyjne. Rezultaty sugerują, że zetknięcie się z algorytmem Twittera wywiera długotrwały wpływ na poglądy polityczne użytkowników.

Reżimy autorytarne mogą łatwo wykorzystać systemy cyfrowe do rozpowszechniania propagandy. Przykładem tego może być choćby aktywność Trumpa w jego serwisie albo generowanie oburzenia wobec ludzi pochodzenia somalijskiego za pomocą fikcyjnych materiałów wideo.

Fejkowe filmy i doniesienia rozchodzą się po mediach społecznościowych, a później trafiają do tradycyjnych, a zwłaszcza prawicowych, środków przekazu. Dzieje się tak nawet wtedy, kiedy stworzone przez AI treści są odpowiednio oznakowane lub ewidentnie niedorzeczne.

Należy podkreślić, że wykorzystanie modeli generatywnych do tworzenia niedrogich, masowych kampanii dezinformacyjnych nieustannie wzrasta, a rozpoznanie ich charakteru staje się tylko trudniejsze. Skutkiem będzie spadek zaufania obywateli do instytucji publicznych i mediów, co w konsekwencji negatywnie wpłynie na debatę publiczną.

Kiedyś tego rodzaju działania wymagały znacznych środków i udziału wielu ludzi, podczas gdy teraz porównywalne efekty są możliwe do osiągnięcia metodami niemal chałupniczymi. Bardzo istotnym czynnikiem są tu oczywiście mechanizmy platform społecznościowych, które priorytetyzują utrzymywanie uwagi użytkowników. Kiedy ludzie nie wiedzą, komu mogą zaufać, to przestają ufać komukolwiek.

W takim środowisku możliwości oddziaływania dostępne dla autorytarnych rządów czy cynicznych korporacji są trudne do przeszacowania. Co więcej, świetnie łączą się też z nową technologią sprawowania władzy wykreowaną przez ruch MAGA.

Inwigilacja.

Poszerzanie metod monitorowania oczywiście nie jest zjawiskiem nowym, niemniej od momentu rozpowszechnienia się technologii cyfrowych proces ten nabrał nowego pędu. Rządy USA pod przykrywką walki z terroryzmem i dbania o bezpieczeństwo uchwalały kolejne ustawy pozwalające na naruszanie prywatności (Patriot Act, Protect America Act of 2007, USA Freedom Act, itp.), tworzyły nowe programy inwigilacyjne (TIA, PRISM, MYSTIC, itp.) i poszerzały uprawnienia służb.

Nowe korporacje technologiczne wznosząc swoje monopolistyczne platformy były naturalnie równie zainteresowane przetwarzaniem informacji o użytkownikach, więc zostały zwerbowane przez agencje rządowe do współpracy. Kooperacja doprowadziła do utworzenia wspólnych narzędzi analizujących olbrzymie zbiory danych, a służby otrzymały bezpośredni dostęp do informacji użytkowników.

Wszystko to odbywało się jednak w warunkach niewspółmiernych mocy analitycznych w porównaniu do lawiny zbieranych danych. Informacje musiały być najpierw przesiewane, przetwarzane i porządkowane, a później oceniane przez ludzi. Można zatem powiedzieć, że już dwie dekady temu inwigilacja była dogłębna i niemożliwa do uniknięcia, ale zarazem powierzchowna i wybiórcza.

Teraz jednak do gry wkroczyła multimodalna sztuczna inteligencja, której możliwości wykraczają daleko poza opisywany schemat. AI może analizować obrazy, mowę i tekst, łączyć dane z różnych źródeł, wyciągać wnioski, tworzyć profile, podsumowania i raporty, formułować przewidywania, przypisywać prawdopodobieństwa i kto wie co jeszcze. Może zatem w znacznym stopniu zastępować pracę ludzkich śledczych. Dla autorytarnego rządu omylność zautomatyzowanego agenta to jedynie drobna niedogodność, która może nawet okazać się zaletą wzmagającą lęk i paranoję obywateli.

Większość z gromadzonych dotychczas danych pozostawała zamknięta w oddzielnych silosach, a ich pozyskiwanie ograniczało się w przeważającej mierze do sfery komunikacyjnej. Aktualnie trwa jednak proces łączenia dostępnych zasobów (tę kluczową kwestię opiszę w osobnej sekcji), angażowanie przedsiębiorstw prywatnych do inwigilacji wykraczającej poza tradycyjne metody oraz rozwijanie metod nadzoru z wykorzystaniem sztucznej inteligencji.

Poniżej kilka znanych już przykładów, ale to zapewne jedynie drobniutki wycinek wszystkich działań.

Ciekawostką demonstrującą moc AI w kompilowaniu profili użytkowników jest usługa „Personal Intelligence”, gdzie asystent Gemini otrzymuje dostęp do konta Google użytkownika wraz z całą jego historią. Model jest w stanie wnioskować na podstawie treści maili i dokumentów, zdjęć, historii lokalizacyjnej i wyszukiwań oraz łączyć ze sobą fakty, aby wykonywać zlecane przez użytkownika zadania. Po szczegółowe przykłady zapraszam do linkowanego artykułu, choć moim zdaniem potencjał usługi i tak mógł zostać okrojony, żeby nie przerażać zbytnio klientów.

Kilka dni temu dowiedzieliśmy się, że każde selfie lub dokument tożsamości wrzucany na ChatGPT, Roblox, LinkedIn i wiele, wiele innych platform, trafia prosto do amerykańskiego aparatu nadzoru. Weryfikacją tożsamości i wieku zajmuje się tam firma Persona (powiązana z Thielem), której system automatycznie przeprowadza 269 różnych testów weryfikacyjnych i przeszukuje internet oraz źródła rządowe w celu w znalezienia potencjalnych dopasowań. Użytkownicy są śledzeniu na 13 różnych listach, gromadzone są ich dane biometryczne, a twarze mogą zostać uznana za „podejrzane” na podstawie samego wyglądu.

Flock Safety to amerykański operator monitoringu wideo, który zainstalował już dziesiątki tysięcy kamer w 49 stanach USA. System wykorzystuje technologię rozpoznawania obrazów i uczenia maszynowego, a przetwarzane przez siebie informacje oferuje organom ścigania, np. w celu śledzenia celów i prognostycznych działań prewencyjnych. Jeśli to nie brzmi dla Was wystarczająco niepokojąco, to zachęcam do przeczytania ([1], [2]) lub obejrzenia ([3], [4], [5]) kilku materiałów dotyczących tego przedsięwzięcia.

W mojej ocenie celem na tym etapie jest przede wszystkim normalizacja i udoskonalanie praktyk monitorujących, a także przyzwyczajenie służb do korzystania z nich oraz przygotowanie odpowiedniego środowiska prawnego, czyli np. ograniczenie obywatelom możliwości obrony przed byciem śledzonym na ulicach.

Nie zawsze koniecznie jest nawet tworzenie nowej infrastruktury od zera. Można przecież skorzystać z już zainstalowanych produktów oferujących zbliżony potencjał, a na dodatek sfinansowanych przez samych konsumentów. Taką ścieżką wydaje się podążać popularna w USA firma Ring należąca do Amazona oferująca m.in. wideodomofony.

Podczas ostatniego Superbowl wyemitowała ona reklamę swojej nowej usługi, która miałaby łączyć ich kamery w sieć i rzekomo służyć do odnajdowania zagubionych zwierząt domowych. Kilkanaście dni później wyszło jednak na jaw, że planowane jest znaczne rozszerzenie tej funkcjonalności, choćby do zapobiegania przestępstwom. Przy okazji mogliśmy się też dowiedzieć, że Ring już wcześniej nawiązał współpracę z Flock Safety, którą jednak musiał anulować w wyniku kontrowersji wzbudzonych przez wspomnianą reklamę.

Nie należy mieć złudzeń co do dalszego rozwoju wypadków. Jeśli nadzór demokratyczny – w USA będący już w zaniku – nie postawi tamy dalszemu postępowi nadzoru, to na pewno nie zrobią tego również korporacje. Rządy będą nam mydlić oczy rzekomym dbaniem o nasze bezpieczeństwo, podczas gdy firmy prywatne z entuzjazmem przystąpią do inkasowania zysków.

Potwierdzających to przypadków nie brakuje, a najbardziej wyraziste to utworzenie cyfrowego państwa policyjnego w Chinach (IBM, Dell, Oracle, Microsoft, Nvidia, Intel, Amazon, itp.), system Aadhaar w Indiach czy okupowana przez Izrael Palestyna (więcej o tym niżej).

Warto też zwrócić uwagę na bezczelne wypowiedzi niektórych technokratów i polityków.

Larry Ellison – dobrodziej IDF, właściciel Oracle, TikTok, Paramount, a niedługo może i Warner Bros Discovery – już we wrześniu 2024 roku stwierdził, że AI będzie kluczowym elementem permanentnego systemu nadzoru wszystkich obywateli, czego skutkiem będzie ich „jak najlepsze zachowanie”.

Shabana Mahmood, była minister spraw wewnętrznych Wielkiej Brytanii stwierdziła natomiast, że jej celem podczas urzędowania było „osiągnięcie z pomocą sztucznej inteligencji tego, co Jeremy Bentham chciał uzyskać dzięki swojemu panoptykonowi”. Sugerowała też, że ta koncepcja może być rozszerzona na całe społeczeństwo tak, żeby „państwo miało nas nieustannie na oku”.

Zintegrowana infrastruktura kontroli: Palantir.

Palantir został utworzony w 2002 roku, a jego deklarowanym celem jest „stanie się domyślnym systemem operacyjnym rządu USA” (organy ścigania, agencje bezpieczeństwa, wojsko, ale i biznes). Ich najważniejsze oprogramowanie to Gotham (służby i wojsko), Foundry (biznes) oraz Apollo (system back-endowy, który przetwarza dane).

Firma sama nie zbiera danych, ale specjalizuje się w modelowaniu informacji kontekstowych, integracji różnych zbiorów danych i ich organizacji w celu monitorowania i prewencyjnego podejmowania decyzji. Platforma Palantir łączy dane ludzi pochodzące z różnych systemów, w tym informacje dotyczące historii wyszukiwań, przeglądanych stron internetowych i sieci społecznościowych, a do tego integruje je z informacjami rządowymi i bankowymi oraz powiązaniami osobowymi. Do obróbki danych wykorzystuje też oczywiście sztuczną inteligencję.

Planem jest zgromadzenie w jednym miejscu maksymalnie szerokiego zasobu danych klientów, obywateli, uchodźców, pacjentów, osób podejrzanych o popełnienie przestępstw, a więc może po prostu wszystkich ludzi. Celem jest nadzór jako usługa – autorytarna kontrola przebrana za innowację. Rezultatem będzie kompleksowa, ideologiczna i sprywatyzowana kontrola stojąca ponad prawem i nadzorem demokratycznym.

Palantir ma potężne kontrakty z USA i Izraelem oraz całą siatkę powiązań z politykami i ideologami. Firma współpracuje już z niemal wszystkimi największymi korporacjami technologicznymi (Amazon, Microsoft, Meta, OpenAI, Oracle, Google) i poszerza swoje wpływy w Europie. Palantir ma usprawniać funkcjonowanie armii i policji w Wielkiej Brytanii, Francji, Niemczech, Polsce, Danii, Ukrainie i kto wie gdzie jeszcze.

Chociaż Palantir publicznie stara się odciąć od wizerunku przedsiębiorstwa mogącego mieć negatywny wpływ na prawa człowieka i wolności obywatelskie, to z patentów wynika, że zmierzające w tym kierunku procesy były rozważane, projektowane i wdrażane już w 2006 roku. Firma dysponuje też najpewniej wewnętrzną bazą wiedzy, w której figurują podmioty z całego świata wraz z ich atrybutami i powiązaniami, a te ukryte zasoby nie są w pełni udostępniane użytkownikom.

Warto też może pochylić się nad najważniejszą postacią stojącą za firmą Palantir, którą jest Peter Thiel (śmieszna ciekawostka: to anagram „The Reptile”). Jest on współzałożycielem nie tylko omawianego przedsiębiorstwa, ale i PayPala oraz wczesnym inwestorem Facebooka, który za jego kadencji (2005-2022) przekształcił się w maszynę do manipulacji zachowaniami i pochłaniania uwagi użytkowników. Thiel jest także politycznym patronem Donalda Trumpa i J.D. Vance’a.

Według tego delikwenta „demokracja i wolność są ze sobą nie do pogodzenia”, a opór wobec demokratycznej kontroli to cywilizacyjna konieczność. Thiel uważa też, że „konkurencja jest dla przegrywów”, a rządy elit są jedyną ochroną przed chaosem. Wierzy ponadto, że transfuzje krwi od młodych ludzi mogą być kluczem do spełnienia jego marzenia o wiecznym życiu. Jest także znany z dziwnej obsesji na punkcie Antychrysta.

Ten człowiek zupełnie dosłownie chciałby utorować drogę cyberdystopii wprost z powieści science-fiction, gdzie technologiczny kapitał nie podlegałby żadnej kontroli i sprawował bezpośrednią władzę nad światem.

Działania rządowe w USA: ICE.

Oddziały ICE od jakiegoś czasu wkraczają do wielkich miast rządzonych przez demokratów jako narzucona z zewnątrz siła kolonizacyjna, która pozbawia mieszkańców ich podstawowych praw. Mówiąc w skrócie: działają jako prywatne bojówki Trumpa. Tutaj skupię się jednak na ciągłym poszerzaniu udostępnianego im aparatu nadzoru i represji. Wszystkie poniższe doniesienia pochodzą tylko z 2026 roku.

Na początku roku pojawiły się doniesienia o prawdziwym szale zakupowym ICE, które nabyło całą paletę oprogramowania do inwigilacji. Przykłady to między innymi narzędzie firmy Cellebrite pozwalające na odblokowywanie telefonów i pozyskiwanie z nich wszelkich informacji oraz oprogramowanie szpiegowskie Graphite umożliwiający dekrypcję wiadomości.

Niewiele później dziennikarze dowiedzieli się o kolejnych narzędziach: Webloc i Tangles. Webloc daje funkcjonariuszom dostęp do bazy smartfonów używanych w wybranej okolicy i informacji o ich właścicielach. Umożliwia ponadto korelowanie użytkowników na podstawie tego, gdzie, kiedy i jak długo wspólnie przebywali. Tangles to z kolei produkt do monitorowania mediów społecznościowych, który identyfikuje twarze na zdjęciach, prowadzi analizę afektywną postów i tworzy listy obserwacyjne kont.

Tego rodzaju oprogramowanie opiera się często na działaniach komercyjnych firm inwigilacyjnych. Zbierają one dane o użytkownikach dzięki zaszywanemu w „niewinnych” aplikacjach oprogramowaniu szpiegowskiemu (np. SDK, software development kits) albo poprzez branie udziału w aukcjach reklam (RTB, real time bidding) prowadzonych np. przez Google (nie muszą ich nawet wygrywać, bo ze szczątkowych danych demograficznych oraz identyfikatorów reklamowych mogą wywnioskować wystarczającą ilość informacji).

ICE dysponuje też narzędziem przygotowanym przez Palantir, które tworzy mapę potencjalnych miejsc zamieszkania migrantów do deportacji. Według raportów narzędzie to przetwarza adresy otrzymane z Departamentu Zdrowia i Opieki Społecznej oraz wielu innych źródeł.

Agenci departamentu bezpieczeństwa wewnętrznego chcą też gromadzić wiedzę o wszystkich osobach, które próbują nagrywać ich działania. Funkcjonariusze fotografują i identyfikują protestujących, a następnie umieszczają ich na listach osób podejrzanych oraz rekonstruują ich powiązania rodzinne i socjalne.

Celem wydaje się napiętnowanie oponentów politycznych, uznanie ich za ekstremistów i przestępców, a w dalszej kolejności może i organizacja represji. Jako podkładka zostanie najpewniej wykorzystana dyrektywa NSPM-7 wydana przez Trumpa oraz późniejsze memorandum prokuratorki generalnej.

Oprócz tego funkcjonariusze DHS masowo gromadzą też dane o nastrojach w serwisie Reddit i użytkownikach nawołujących do protestów. Ponadto nowy program nazwany „masked engagement” pozwala funkcjonariuszom służb przyjmować fałszywe tożsamości, nawiązywać kontakty z użytkownikami, dołączać do zamkniętych grup w mediach społecznościowych i komunikatorach oraz pozyskiwać dostęp do prywatnych informacji. Wszystko to bez rygorystycznej kontroli prawnej i bez konieczności zdobywania pozwoleń, które są konieczne w przypadku formalnej pracy pod przykrywką.

To jednak tylko pierwsze nieśmiałe kroki, a do tego wyłącznie to, co udało się do tej pory ustalić reporterom. Jest niemal pewne, iż inne tajne narzędzia funkcjonują już w ograniczonym zakresie, a kolejne są dopiero szykowane. To nie jest jeszcze optymalny moment na odkrycie przez reżim wszystkich kart, ponieważ faktycznej eskalacji należałoby się spodziewać przed wyborami albo w przypadku wystąpienia masowych protestów. Zaangażowanie ICE do zaburzenia wyborów, zastraszania populacji i zwalczania przeciwników politycznych uważam za zupełnie realną możliwość.

Modelowy panoptykon: Palestyna.

Ekstremalnym przykładem potencjalnego dalszego rozwoju wypadków jest izraelski zautomatyzowany apartheid i ich cyfrowy panoptykon skierowany przeciw Palestyńczykom.

Władze izraelskie wykorzystują technologie biometryczne, rozpoznawania twarzy oraz wiele innych do nadzorowania i kontrolowania represjonowanej populacji, utrudniając jej przedstawicielom swobodę przemieszczania się i dostęp do podstawowych praw (praca, edukacja i opieka zdrowotna). Co więcej, Izrael przekształcił okupowaną Palestynę w laboratorium XXI-wiecznego ucisku – miejsce, w którym zacierają się granice między wojną, inwigilacją i torturami.

W punktach kontrolnych zbierane są dane biometryczne, a cała Palestyna przesiąknięta jest instalacjami rozpoznawania twarzy, które są ze sobą połączone i umożliwiają śledzeniu celu niemal wszędzie. Karty SIM są oznaczane, grupowane i lokalizowane. Adresy IP są przechowywane i porównywane. W Internecie wszystkie działania są monitorowane, oznaczane i przypisywane do użytkowników. Systemy szpiegowskie, np. Pegasus, pozyskują z telefonów dane takie jak kontakty, zdjęcia, dokumenty, lokalizacje i hasła. Wszystkie informacje mogą być łączone w zintegrowanych bazach, które rekonstruują wieloletnią historię każdego człowieka.

Generowane są również dane algorytmiczne, składające się z prawdopodobieństw i logicznych możliwości, np. wzorców zachowań czy przewidywanych działań. Takie profilowanie jest niezwykle skuteczne w niemal natychmiastowym badaniu i analizowaniu myśli człowieka.

Gaza to więzienie bez murów, w którym strażnikiem jest bezcielesny, zautomatyzowany system nadzoru, który obserwuje, czeka na błąd w wypowiedzi lub działaniu, a nawet na podejrzenie wywnioskowane na podstawie profilowania algorytmicznego.

Technologia jest w znacznej mierze amerykańska, niemniej to Izraelczycy wdrażają jej możliwości w życie i dostarczają dowodów na to, że idea rodem z prozy Orwella jest możliwa do realizacji w praktyce. Syjonistyczne państwo wykorzystało Gazę jako poligon doświadczalny dla technik nadzoru i kontroli grupowej, a następnie eksportowało ją do reżimów na całym świecie. Rynek ten powstał wraz z pojawieniem się „kapitalizmu terrorystycznego”, a laboratorium palestyńskie jest unikalnym atutem eksportowym Izraela.

Nie jest przypadkiem, że nadzór idzie w parze z cenzurą i dezinformacją. Ten sam aparat, który śledzi mieszkańców Gazy, usuwa również ich głosy z globalnej debaty.

Najnowszym osiągnięciem w dziedzinie nadzoru jest pojawienie się technologii modeli językowych, które można skonfigurować tak, aby analizowały rozmowy – wraz z innymi informacjami – i wyciągały na tej podstawie wnioski na temat interlokutorów i ich intencji. Umożliwia to operowanie na danych znacznie większej liczby osób na raz, co pozwala z kolei na skuteczniejszą kontrolę populacji i lepszy wgląd w to, co robi i planuje każdy mieszkaniec. Tak duża ilość informacji pozwala na jej wykorzystanie do niemal dowolnego celu.

To ostrzeżenie dla nas wszystkich. Przyszłość działań policyjnych, kontroli granicznej i nadzoru jest obecnie testowana w Strefie Gazy.

Dlaczego miałoby się to stać?

Aktualny model neoliberalny wydaje się aktualnie docierać do swojej granicy. Awangardą kapitału stają się monopolistyczne platformy cyfrowe, które są pośrednikami we wszelkiej aktywności ekonomicznej wysysającymi z gospodarki zyski. Przemysł nadal może generować nadwyżki wartości, ale tylko po to, aby były one przechwytywana przez technologiczne korporacje. Płatnicy cyfrowego czynszu – a więc większość firm i użytkowników – ponosi w tej sytuacji straty w postaci spadku realnych zysków i dochodów rozporządzalnych.

Tradycyjne przedsiębiorstwa próbują powetować sobie ten uszczerbek intensyfikacją wyzysku pracowników, co skutkuje stagnacją płac. Co więcej, w okresach inflacji firmy oportunistycznie windują ceny, starając się wycisnąć dodatkowe profity od klientów. Wszystko to w sytuacji gdzie pracownicy już od dekad musieli znosić nawarstwiające się obciążenia wynikające z neoliberalnych reform, a więc cięć świadczeń socjalnych, wzrastającej niepewności zatrudnienia i spadku realnych wynagrodzeń. Kolejne próby zaradzenia temu stanowi rzeczy okazują się nieskuteczne, a nierówności i frustracje społeczne narastają.

Tymczasem życie jako takie jest już niemal całkowicie włączone w technokapitalizm, który poprzez manipulację informacją, myślami, pragnieniami i zachowaniami sprzyja dobrowolnemu podporządkowaniu się.

Gospodarka przyspiesza obecnie przejście w kierunku kapitalizmu rentierskiego zależnego od monopolu władzy, którego kapitał nie jest w stanie wytworzyć samodzielnie. Równie problematyczne jest odtworzenie stabilnego porządku społecznego charakteryzującego się trwałym wzrostem gospodarczym i pełnym zatrudnieniem. Ciągłe zawłaszczanie dóbr wspólnych – a więc systemowy rabunek jako główny model rozwojowy – gwarantuje nasilanie się niestabilności gospodarczych i politycznych, a także pogłębianie antagonizmów społecznych i eskalację konfliktów.

W tym kontekście autorytaryzm mający na celu utrzymania porządku jest krótkoterminowo logiczną strategią elit, ale i wyrazem strukturalnej kruchości systemu. Nowy kapitalizm domaga się silnego aparatu państwowego, który wyklucza imigrantów, mniejszości i tzw. przestępców w imię obrony wolności osobistych oraz własności prywatnej. Mroczna przyszłość wyłaniająca się zza horyzontu to techno-faszyzm. Autorytarny, drapieżny, hierarchiczny reżim oparty na odgórnym zarządzaniu przez technokratów.

Antyliberalne i ksenofobiczne tendencje technofaszystowskie nasilają mechanizmy nadzoru, wykluczenia i dyskryminacji. Przemoc zostanie ostatecznie wymierzona nie tylko w grupy marginalizowane, ale także w większość mieszkańców. Dynamika ta leży u podstaw zaistnienia permanentnej „wojny domowej”, a może i utworzenia mechanizmów totalitarnej kontroli. Zwłaszcza że na wyciągnięcie ręki mamy teraz narzędzia, które umożliwiałyby nadzór i sterowanie społeczeństwem w zupełnie bezprecedensowej skali.

Pozwolę sobie ponadto zauważyć, że bańka AI może za jakiś czas pęknąć, a korporacje technologiczne zostaną wtedy z gigantycznymi i bezużytecznymi zasobami mocy obliczeniowych nadających się wyłącznie do działań związanych ze sztuczną inteligencją, a zarazem wymagających olbrzymich wpływów finansowych. Jeśli zwykli konsumenci i firmy nie będą skłonne pokryć rachunku, to jedynym ratunkiem będzie państwowy budżet, a ewentualne wątpliwości etyczne co do oczekiwanych przez rząd metod wykorzystania AI okażą się bez znaczenia.

Podsumowanie.

Nowa technologia sprawowania władzy – wykreowana przez Trumpa i jego polityczne zaplecze – wydaje się bezpośrednio opierać na opisywanych w tym poście technikach cyfrowych. Co więcej, zwolennicy MAGA, wraz ze stojącym za nimi wielkim kapitałem, zdają się wspierać ekspansję tego modelu na resztę zachodniego świata.

Społeczeństwo jest przeciążane natłokiem szokujących wydarzeń, co nie tylko obnaża zepsucie całego systemu, ale i utrudnia ocenę sytuacji. W ten sposób obywatele są nakłaniani do bierności, cynizmu i alienacji społecznej, a polityka jest pozbawiana znaczenia.

Idealnym poddanym totalitarnej władzy nie jest zagorzały nazista ani zagorzały komunista, lecz ludzie, dla których rozróżnienie między faktem a fikcją, między prawdą a fałszem, przestało istnieć.”
Hannah Arendt, Korzenie totalitaryzmu

Masowo rozsiewana jest dezinformacja oraz dyskryminacyjne treści, które odwraca uwagę poprzez kreowanie wrogów wewnętrznych. Kolejne fale przemocy normalizują bezprawie, a zarazem – wraz z postępującą desperacją ekonomiczną – stanowią ofertę ochrony w zamian za przyłączenie się do ataków.

Nowe narzędzia dogłębnego, wieloaspektowego i zautomatyzowanego nadzoru są testowane najpierw przeciw wyselekcjonowanym grupom (np. imigrantom czy mniejszościom), ale państwowy terroryzm prędzej czy później zwróci się przeciw reszcie obywateli. Wyobrażalne jest wykorzystanie tego aparatu do skutecznego zastraszania populacji, obalenia resztek demokratycznych zasad i zastosowania represji wobec przeciwników politycznych.

Nie wiem, czy przedstawiana przeze mnie wizja jest w pełni realna, prawdopodobna, a tym bardziej nieunikniona. Oczywiście bardzo chciałbym się mylić. Teoretycznie większość z opisywanych przeze mnie działań inwigilacyjnych jest nielegalna w świetle prawa, a produkowane przez nie „dowody” powinny być bezużyteczne w sądach. Kto jednak – widząc aktualny przebieg wydarzeń – jest w stanie zagwarantować, że jakiekolwiek instytucje czy zasady będą w stanie nas obronić przed faszystowską logiką brutalnej siły?

W mojej ocenie powinniśmy rozważać i brać pod uwagę najgorsze scenariusze, zwłaszcza że aktualna trajektoria nadzoru na pewno nie rozsypie się w wyniku porażki projektu MAGA, dobroduszności cyberkorporacji, ani nagłego zwrotu etycznego rządzących nami elit. Bez drastycznych zmian ustawodawczych i infrastrukturalnych ta strzelba Czechowa będzie wisieć na ścianie, czekając na użycie.

+

Dodaj komentarz