
O ile narzędzia AI rzeczywiście mają pewne użyteczne zastosowania i jak najbardziej są pomocne, to sama technologia na której oparte są modele generatywne zawiera zasadnicze i nieusuwalne problemy. Podstawowym jest zawodność i niewiarygodność, co oznacza, że nigdy nie można jej w pełni ufać. Z tego samego powodu modeli nie da się też skutecznie zabezpieczyć.
To jednak nie oznacza, że korporacje pogodzą się z tym stanem rzeczy i nie będą chciały wykorzystać sztucznej inteligencji do zmniejszenia swoich kosztów, choćby za cenę jakości i przymusowego jej wdrażania. Sprzeciwy użytkowników, pracowników oraz klientów mogą okazać się bez znaczenia.
Nawet ten schemat to jednak za mało, aby spełnić nabudowane oczekiwania niedorzecznie napompowanego rynku. Bańka jest już tak potężna, że jedyny scenariusz unikający krachu wymaga masowej adopcji narzędzi sztucznej inteligencji, potężnego jej udziału w rynku pracy, a może i stopniowego zastępowania ludzi na stanowiskach.
W ocenie mojej – i wielu ludzi mądrzejszych ode mnie – jest to jednak niemożliwe, a krach jest nieunikniony.
Poniżej nakreślę obraz sytuacji pod kątem usprawnień w pracy i postaram się go uargumentować. Zachęcam do sprawdzania linków na własną rękę, bo często zawierają znacznie więcej istotnej treści, niż jestem w stanie zawrzeć tutaj.
AI I RYNEK PRACY
— PROGRAMOWANIE.
To jedno z zastosowań, w których modele językowe sprawdzają się najlepiej, choć zwykle konieczne jest ich specjalne przygotowanie. Dziedzina ta charakteryzuje się też wyjątkowo dużą i entuzjastyczną adopcją przez użytkowników, co nie zawsze musi być nawet wymuszane odgórnie przez kierownictwo, choć często jest narzucane tak czy siak.
Nadal jednak występują tutaj poważne problemy związane z inherentną zawodnością modeli i logiką rynkową związaną z krótkoterminowym planowaniem.
Po pierwsze, badania pokazują, że co prawda kilkukrotnie zwiększa się ilość produkowanego kodu, ale zarazem jeszcze bardziej rośnie liczba powstających błędów. Często mają one zupełnie inną specyfikę, niż problemy generowane przez samodzielnych programistów: proste pomyłki w składni są zastępowane przez istotne – i trudne do zdiagnozowania – defekty wyższego poziomu, co oczywiście wymaga późniejszego sprawdzania i naprawy przez ludzi.
Po drugie, raportowane przez programistów subiektywne usprawnienia w pracy z asystentami okazują się iluzją, jeśli zweryfikować efektywność pracy obiektywnymi metodami. W rzeczywistości produktywność raczej spada po wprowadzeniu AI.
Problemem może być nieumiejętność w posługiwaniu się nowym narzędziem. Jedna z wiodących interpretacji mówi, że początkujący programiści powinni posługiwać się asystentem przede wszystkim do lepszego poznawania języków programowania, a użytkownicy zaawansowani mogą go wykorzystywać do wypełniania tych fragmentów kodu, które są im dobrze znane, powtarzalne i schematyczne.
Powyższe podejście zapobiegałoby innemu istotnemu zagrożeniu, które mogłoby pojawić się później: jeśli firmy zastępowałyby początkujących koderów modelami generatywnymi, a zaawansowani pracownicy stopniowo kończyliby pracę zawodową, to kto miałby wtedy sprawdzać rozwiązania podsuwane przez AI?
Co jednak firmy zrobią w praktyce? Biorąc pod uwagę aktualny paradygmat krótkoterminowego działania, to najpewniej po prostu zrezygnują lub znacznie ograniczą zatrudnianie nowicjuszy. Kto w takim razie będzie za kilka lat sprawdzał kod AI albo rozwijał StackOverflow czy Githuba, z którego uczą się zarówno programiści, jak i modele?
Pozwolę sobie zauważyć, że Microsoft już niedługo planuje tworzyć większość kodu za pomocą sztucznej inteligencji, więc dla programistów zostanie tylko najbardziej nudna i przygnębiająca część pracy: sprawdzanie rozwiązań napisanych przez AI.
— OCHRONA ZDROWIA.
Sztuczna inteligencja była często reklamowana jako niemalże panaceum na niedobór lekarzy i techników medycznych, co przy odpowiedniej realizacji wydaje mi się nawet jako-tako osiągalne. Tutaj jednak również istnieją znaczące ryzyka. Niedawne badanie – prowadzone między innymi w Polsce – ujawniło, że asystenci AI wspomagający lekarzy podczas kolonoskopii faktycznie podnosili skuteczność diagnoz. Niestety późniejsze pozbawienie medyków dostępu do AI obniżyło trafność ich badań do poziomu niższego niż pierwotnie. Efekt ten można interpretować na kilka sposobów, ale jednym z wytłumaczeń może być „cognitive offloading”, czyli utrata wcześniejszych zdolności przez ich nieużywanie.
Analiza obrazowania (prześwietlenia rentgenowskie, tomografie, etc.) wspierana przez sieci neuronowe wydaje się szczególnie obiecująca, choć należy przy tym pamiętać, że skuteczność metody jest mocno uzależniona od spójności danych treningowych z analizowanymi później obrazowaniami. Na przykład, jeśli zdjęcia różnią się od materiałów szkoleniowych (choćby ze względu na inny model urządzenia obrazującego), to rezultaty diagnoz AI mogą być niewiarygodne.
Dla ostudzenia optymizmu i tutaj spróbuję się posłużyć logiką rynkową, choć tutaj można byłoby przynajmniej mieć nadzieję, że opieka medyczna byłaby z niej wyjęta. Przyjmijmy jednak, że mamy do czynienia z komercyjną przychodnią, co niestety nie jest aż tak nierealistyczne, jak mogłoby się wydawać.
Załóżmy zatem, że dzięki AI możemy zwolnić 90% techników radiologicznych diagnozujących pacjentów na podstawie obrazowania. To oznaczałoby faktyczne zmniejszenie wydatków, a oszczędzone środki mogłyby zostać rozdysponowane pomiędzy firmę oferującą usługi sztucznej inteligencji a komercyjną przychodnię.
Zadaniem radiologów, którzy pozostali na stanowiskach byłoby sprawdzanie zawodnej pracy AI. Musieliby oni kontrolować przynajmniej 10 razy więcej zdjęć, a do tego jakoś zachować czujność pomimo tego, że AI zwykle będzie mieć rację, ale czasem jednak katastrofalnie się pomyli. Jeśli specjalista przeoczy jakąś pomyłkę modelu, to zostanie obarczony winą, bo to jego podpis widnieje pod diagnozą.
Pracą radiologa nie będzie wtedy nadzorowanie działań AI, ale wzięcie na siebie winy za jej defekty. Tak samo będzie to wyglądać dla większości wdrożeń sztucznej inteligencji, jak choćby w przypadku opisywanego wcześniej programowania. Na pewno dotarły już do Was analogiczne doniesienia o firmach konsultingowych czy prawnikach wykorzystujących narzędzia AI, gdzie przeoczone defekty skończyły się kompromitacjami.
— ODWRÓCONY CENTAUR.
Zjawisko opisane w dwóch poprzednich akapitach Cory Doctorow nazywa „odwróconym centaurem”, gdzie to nie człowiek inteligentnie posługuje się narzędziami AI, aby ułatwić i usprawnić swoją pracę, ale jest zmuszony do zdwojonych wysiłków przy nadzorowaniu sztucznej inteligencji i ponoszenia konsekwencji za jej defekty.
W ten sposób „użytkownicy” sztucznej inteligencji mogą być degradowani i prekaryzowani przez szefów, którzy dali się wcześniej przekonać do redukcji etatów w imię wyższych zysków. Ocaleńcy masowych zwolnień sterroryzowani do pracy z nierealnym natężeniem z pewnością zapałają słuszną nienawiścią wobec AI.
Możliwy jest jeszcze nieco inny przypadek, gdzie człowiek dopełnia AI nie swoją rzeczywistą inteligencją, ale własnym ciałem. Przykładem takiej sytuacji są pracownicy dorywczy – tzw. gig workerzy – którzy muszą wypełniać nierealne normy rozwożąc pasażerów lub paczki, albo przerzucając zasoby w magazynie Amazona. W ten sposób stają się de facto bezmyślnymi niewolnikami zautomatyzowanego i niemożliwego do zaspokojenia przełożonego. To też nie jest coś, do czego powinniśmy aspirować.
— EDUKACJA.
Coraz bardziej staje się obecny trend do włączenia czatbotów w edukację, co ma rzekomo usprawniać nauczanie i ułatwiać dostęp do edukacji. To znów wiąże się jednak z poważnym ryzykiem.
Po pierwsze, już sama powszechność dostępu do modeli językowych jest problematyczna, bo to może ograniczać zdobywanie i trenowanie wyższych funkcji poznawczych (takich jak rozwiązywanie problemów), a nawet powodować ich zanikanie. W tym kontekście często przywołuje się analogię z kalkulatorem, który nie utrudniał przecież przyswajania wiedzy matematycznej. To porównanie jest jednak zwyczajnie fałszywe, bo LLMy są w stanie wyręczać uczniów w znacznie bardziej zaawansowanych zadaniach umysłowych.
Po drugie, promowana staje się idea zastępowania nauczycieli przez specjalnie przygotowanych asystentów AI, którzy mieliby zapewniać uczniom bardziej indywidualne podejście i niewyczerpaną uwagę, a zarazem dostęp do nieograniczonej wiedzy. Tuż za rogiem czai się też argument budżetowy, bo żywi nauczyciele z pewnością nie są w stanie rywalizować pod tym względem z automatami.
Wszystkie obietnice to jednak groźne fantazje, bo wcale nie trzeba wysilać wyobraźni, aby zdać sobie sprawę, że lista zagrożeń jest prawie niewyczerpana. Przez ekran nie da się dostarczyć wskazówek etycznych, opieki, wzorców osobowych i realnej socjalizacji. Wirtualni nauczyciele mogliby też posłużyć do zmasowanej indoktrynacji i prania mózgów – czy to w interesie korporacji, czy też władzy. Do pomyślenia są nawet bardziej skandaliczne wypaczenia, ale chwilowo powściągnę wyobraźnię.
Poleganie w edukacji publicznej na AI oznaczałoby dalszą separację szans edukacyjnych osób biedniejszych i bogatszych. Miliarderzy mogą nam wciskać zautomatyzowanych nauczycieli, ale swoim dzieciom nie pozwalają nawet posiadać smartfona.
— PRODUKTYWNOŚĆ.
To potencjalnie najbardziej pogrążający argument, bo bezpośrednio konfrontuje on hajp nabudowany wokół sztucznej inteligencji z rzeczywistością.
Niedawny raport przygotowany przez Oxford Economics demonstruje, że wpływ AI na produktywność i zatrudnienie w USA był do tej pory bardzo skromny. Analizy mówią, że sztuczna inteligencja była przyczyną najwyżej 5% zwolnień, co jest wartością pomijalną, kiedy porównać ją do oddziaływania klasycznych czynników ekonomicznych takich jak koniunktura gospodarcza. Podkreślam, mowa tu o wytłumaczeniu jednej dwudziestej wypowiedzeń, a nie o zredukowaniu całego zatrudnienia o pięć procent!
Ponadto znaczna część redukcji zatrudnienia była pozorowana na potrzeby podłączenia się pod modę na AI, co często skutkowało podbiciem wartości firmy na giełdzie. Nie zanotowano też żadnego skoku w produktywności. Wydaje się, że szumnie deklarowane zastępowanie ludzi przez sztuczną inteligencję oraz zwiększanie efektywności pracowników było głównie mydleniem oczu na potrzeby inwestorów i próbą poprawienia wizerunku rynkowego. 95% firm próbujących wprowadzić do swoich procesów sztuczną inteligencję nie zanotowało z tej okazji żadnych zysków.
Narzędzia sztucznej inteligencji będą mieć wiele autentycznie przydatnych zastosowań w roli pomocniczej. Przykłady to choćby opisywanie zdjęć, podsumowywanie zasobów, automatyzacja pewnych prac graficznych, stenografia, tłumaczenia, redakcja i generowanie prostych tekstów – najlepiej przy wykorzystaniu modeli otwartych i uruchamianych lokalnie, na własnym sprzęcie. Wszystko to przy założeniu, że stuprocentowa wiarygodność nie jest konieczna i dopuszczalne są przeoczenia. Z pewnością jest to w stanie odciążyć ludzi i usprawnić ich pracę. Nie będzie się to jednak przekładać na tak wielki postęp, jaki był nam reklamowany i jakiego wymaga od AI bańka spekulacyjna.
Z desperacji i zwykłej żądzy zysku korporacje i różnej maści oszuści wykorzystają jednak modele generatywne do zautomatyzowanej produkcji chłamu, obniżenia kosztów za cenę jakości oraz żerowania na ludziach i pracownikach.
PODSUMOWANIE
Otwarcie przyznaję, że w tutaj mocno oparłem się to tekst Doctorowa, który całkiem niedawno ukazał się w Guardianie. Poniższe to momentami niemal plagiat, więc jeśli ktoś preferuje oryginał, to bez wyrzutów może się tam skierować.
Jeśli AI faktycznie byłoby w stanie przejąć naszą pracę, to i tak mielibyśmy poważny problem, bo zostalibyśmy z rzeszami bezrobotnych osób. Sztuczna inteligencja nie jest jednak w stanie tego zrobić. Może pomóc w niektórych rodzajach pracy, ale to niekoniecznie będzie oznaczać wielkie oszczędności.
Planem korporacji jest wbicie klina w społeczeństwo i stworzenie sojuszu z ludźmi, którzy będą czerpać korzyści z pracy z wykorzystaniem AI. Chcą więc, abyśmy widzieli wroga w pracownikach buntujących się przeciw wprowadzaniu sztucznej inteligencji. Musimy jednak zrozumieć, że owoce pracy ze sztuczną inteligencją będą przeważnie niższej jakości zaś z biegiem czasu standard ten będzie się jeszcze obniżał, a dodatkowo będziemy musieli płacić więcej za te same efekty.
Wielu czytelników pewnie to zbulwersuje, ale to kontynuacja filozofii neoliberalnej. Totalnie wolny rynek miał nas zbawić, wszyscy mieliśmy widzieć w sobie przedsiębiorców, a monopole – zwłaszcza technologiczne – miały być chwalebne i tylko zwiększać produktywność. W Polsce może jeszcze nie czujemy tego tak klarownie, ale w USA sytuacja jest już jasno widoczna wraz z jej konsekwencjami.
Warto pamiętać, że to co dobre dla Twojego szefa wcale niekoniecznie jest dobre dla Ciebie jako pracownika.
Meta chce nas przekonać, że nie da się utrzymywać kontaktu ze znajomymi bez jego pomocy i nadzoru. Google chce nam wmówić, że nie da się przeglądać sieci bez bycia inwigilowanym. Microsoft robi wszystko co może, żebyśmy pogodzili się z faktem, że muszą nas szpiegować, a nawet udostępniać szefostwu informacje na temat naszej wydajności na stanowisku pracy.
Firmy promujące sztuczną inteligencję robią to samo. Nie ma innej drogi. Musimy oswoić się z wszędobylskim chłamem i z rezygnacją przystać na pogorszenie usług, warunków naszej pracy i płacy, a może i stopniowe wyparcie z części rynku przez automaty. Wszystko to w imię fikcyjnej obietnicy, która pozwala im pozyskiwać nowy kapitał inwestycyjny.
Sprzeciwienie się temu dyktatowi to akt oporu przeciw mottu „nie ma alternatywy” („there is no alternative”, w skrócie TINA), który wypromowała Thatcher. To ma nas skłonić do bezrefleksyjnego pogodzenia się z narzucaną nam sytuacją i uznania, że „opór jest bezcelowy”.
Gdyby bańki sztucznej inteligencji nigdy nie było, a modele AI zostały stworzone bez pompowania takiego szumu i szału inwestycyjnego, to pewnie wszyscy bylibyśmy pozytywnie zaskoczeni nowymi możliwościami. Takiej ścieżce wydarzeń nie dano jednak szansy.
CO DALEJ?
W kolejnym poście skupię się na zapleczu czysto finansowym, co powinno rozwiać resztki wątpliwości w finansowe szanse powodzenia całego przedsięwzięcia. Pierwotnie planowałem uwzględnić taki opis już tutaj, ale doszedłem do wniosku, że to ryzykowałoby dalsze opóźnienia i konfrontowanie czytelników z potężną ścianą tekstu.
Dodaj komentarz