Pitolenie starego Grzyba - o groźbie intelektualnego atawizmu rodzaju ludzkiego 01
 |
| (fot. zbiory autora) |
Proszowice, 18-04-2026
Zamiast wstępu
Na początku moim PT Czytelnikom należy się krótkie wyjaśnienie. Tak, wiem, że tym razem brzmię jak stary piernik, ale nie będę grzeczny. Nazwę rzeczy po imieniu, bo jeżeli nie ja, to kto? Jeżeli nie teraz, to kiedy? Jeśli wszyscy będziemy tylko kiwać głowami i mruczeć pod nosem: "no cóż, technologia się rozwija", to któregoś dnia obudzimy się w świecie żywcem wyjętym z Wehikułu czasu. A wtedy będzie już za późno na jakiekolwiek "ale".
Piszę to także z lęku o samego siebie jako autora. Boję się, że cyfrowy cenzor ukryty pod maską "asystenta" zwyczajnie wybierze mi jaja. Że po streszczeniu i cyfrowej obróbce nie poznam już własnego tekstu ani własnej opinii. Że przestanę być oceniany na podstawie tego, co naprawdę wyryłem w tekście, a zacznę być oceniany przez to, co wydali z siebie mój bezduszny streszczacz.
Część I: Diagnoza (Eloje i Morlokowie)
Kiedy H.G. Wells pisał "Wehikuł czasu", tworzył wizję świata po apokalipsie nuklearnej - świata, który miał powstać z popiołów wojny atomowej. Paradoks polega na tym, że jego ostrzeżenie okazało się trafne, choć z zupełnie innych powodów. Nie potrzeba było globalnej zagłady, by doprowadzić do podziału ludzkości. Wystarczyła chęć zysku jednych i lenistwo połączone z hedonizmem drugich, swoista odwrócona piramida Maslowa, w której potrzeby wyższe przestają istnieć, bo nikt nie ma już siły ani ochoty, by po nie sięgać.
W filmowej adaptacji z 1960 roku świat przyszłości jest podzielony na Eloje i Morloków. Eloje - piękni, młodzi, żyjący w pozornym komforcie - zatracili wszystko, co czyni człowieka istotą myślącą. Nie czytają, nie pytają, nie próbują zrozumieć. Ich życie sprowadza się do jedzenia, picia, lekkiej egzystencji i nieograniczonej przyjemności. Komfort stał się ich jedyną wartością, a wygoda - jedyną ideologią. Ale ta wygoda miała swoją cenę: całkowite ogłupienie, bierność i utratę instynktu samozachowawczego. W pewnym momencie przestali być ludźmi, a stali się paszą dla cynicznych, bezwzględnych Morloków. I trudno nie zadać sobie pytania, czy ten mechanizm nie brzmi dziś aż nazbyt znajomo.
Dziś, gdy patrzymy na rozwój sztucznej inteligencji, trudno oprzeć się wrażeniu, że Eloje nie są już literacką metaforą, lecz projektem wdrażanym w praktyce. Integracja różnego rodzaju "asystentów" AI z przeglądarkami - często wprowadzana bez realnego wyboru użytkownika - tworzy środowisko, w którym człowiek nie musi już czytać tekstów źródłowych, analizować argumentów ani zadawać pytań. Wystarczy kliknąć - a algorytm poda gotową odpowiedź, streszczenie, interpretację. Wygodne? Oczywiście. Ale wygoda ma swoją cenę: stopniowe odzwyczajanie od samodzielnego myślenia. Eloje też żyli wygodnie. I też nie zauważyli, kiedy przestali być podmiotem, a stali się zasobem.
Wells pokazał, że człowieczeństwo nie ginie nagle. Ono eroduje powoli, w ciszy, w imię komfortu. Eloje nie zostali zniewoleni siłą - oni po prostu przestali walczyć o wiedzę. Przestali czytać, przestali pytać, przestali rozumieć. W pewnym momencie litery stały się dla nich martwymi znakami, a świat - czymś, co ktoś inny ma im wyjaśnić. Czy naprawdę tak daleko nam do tego punktu? Wystarczy spojrzeć na pokolenie, które coraz częściej traktuje tekst jako przeszkodę, a nie jako narzędzie myślenia. Jeśli maszyna "powie, co tam jest napisane", to po co czytać?
Wells nie przewidział sztucznej inteligencji, ale przewidział mechanizm. Wystarczy stworzyć system, który nagradza bierność i karze wysiłek, a człowiek sam wybierze drogę najmniejszego oporu. Eloje nie byli głupi - oni byli wygodni. I to właśnie czyni ich tak niepokojąco podobnymi do nas.
Przez większą część historii relacja między autorem a czytelnikiem była prosta: ktoś pisał, ktoś czytał. Po drodze był papier, drukarnia, później ekran - ale to były tylko nośniki, przezroczyste jak szyba. Nic nie stało między myślą autora a odbiorcą. Dziś w tę przestrzeń wchodzi nowy pośrednik: sztuczna inteligencja, która z niepokojącą pewnością siebie sugeruje, że "autor napisał za dużo", a ona łaskawie wyjaśni, "o co mu chodziło". To nie jest pomoc, lecz subtelna forma izolacji. Coraz częściej widzimy tendencję, by w przeglądarkach instalować "asystentów AI", którzy zamiast kierować czytelnika do źródła, tłumaczą mu, co "autor miał na myśli", stając się w ten sposób nie drogowskazem, lecz cenzorem przekazywanej treści. Algorytm nie tylko skraca tekst - on go interpretuje, a interpretacja to już władza.
Szczególnie niebezpieczne jest to, że AI nie toleruje indywidualności. Styl, ironia, rytm - wszystko to, co sprawia, że jednego autora rozpoznajemy po dwóch zdaniach, a innego po jednym akapicie - dla algorytmu jest anomalią. Maszyna nie lubi odchyleń, bo odchylenia utrudniają klasyfikację. Dlatego wygładza tekst do poziomu instrukcji obsługi. Felieton, który miał być żywy, kąśliwy, pełen charakteru, po streszczeniu staje się neutralną papką informacyjną. To zabijanie ducha na rzecz formy, proces technokratyczny, który dąży do ujednolicenia wypowiedzi. Jeśli wszyscy autorzy zaczynają brzmieć tak samo, to nie dlatego, że stracili talent - tylko dlatego, że algorytm nie pozwala im brzmieć inaczej.
Felieton to nie tylko treść, ale także sposób jej podania: pauza, zawahanie, zdanie urwane w pół, metafora, która ma wywołać refleksję, a nie tylko przekazać informację. AI tego nie rozumie. Dla niej liczy się jedynie "co", nigdy "jak". Streszczenie zabija niuans, emocję, napięcie - zostawia jedynie szkielet. Zamiast tekstu, który żyje, oddycha i prowokuje, otrzymujemy uproszczone punkty dotyczące złożonych procesów. To nie jest czytanie, to jest intelektualne odchudzanie - dieta, która może i jest szybka, ale prowadzi do wyniszczenia.
Najgroźniejszy jest jednak zanik odpowiedzialności za słowo. Jeśli AI "przetłumaczy" myśl autora na swój język i przy okazji ją zniekształci, to kto ponosi odpowiedzialność? Autor, który niczego takiego nie napisał? Czy algorytm, który nie ponosi odpowiedzialności za nic? A może nikt - i to jest scenariusz najgorszy. W takim świecie słowo przestaje być zobowiązaniem, a staje się surowcem, który można dowolnie przetwarzać. "Halucynacja modelu" staje się wygodnym usprawiedliwieniem, a autor zostaje z przypisanymi mu sensami, których nigdy nie wypowiedział. Traci kontrolę nad własnym nazwiskiem, nad własnym głosem, nad własnym stylem. To nie jest już filtr - to jest przejęcie.
Przez wieki interpretowanie świata było zajęciem ludzi - czasem mądrych, czasem tylko wpływowych, ale zawsze takich, którzy ponosili za swoje słowa jakąś formę odpowiedzialności. Filozof tłumaczył sens istnienia, ksiądz wyjaśniał moralność, nauczyciel porządkował wiedzę. Nawet jeśli się mylili, to ich twarze i nazwiska były znane. Dziś tę rolę przejmuje algorytm: bezosobowy, nieprzejrzysty, pozbawiony sumienia i konsekwencji. Nie pyta, nie wątpi, nie tłumaczy - on po prostu orzeka. A człowiek, przyzwyczajony do wygody, coraz częściej przyjmuje to orzeczenie bezrefleksyjnie, jakby pochodziło z jakiegoś cyfrowego autorytetu.
Problem polega na tym, że algorytm nie jest neutralny. On nie tylko pokazuje świat - on go interpretuje. Wybiera, co jest ważne, a co można pominąć. Decyduje, które informacje są "użyteczne", a które "zbędne". W ten sposób staje się nowym kapłanem, tyle że pozbawionym odpowiedzialności i twarzy. Co gorsza, dzieje się to bez zgody autora tekstu. Jego słowa są przetwarzane, skracane, wygładzane i reinterpretowane, zanim jeszcze dotrą do czytelnika. A czytelnik - zamiast oceniać autora na podstawie jego dzieła - zaczyna oceniać go na podstawie opowieści asystenta AI. Autor może sobie potem rwać ostatnie włosy z głowy, ale jest już na przegranej pozycji: przegrał nie z krytykiem, lecz z algorytmem, który nie ponosi odpowiedzialności za nic.
Najbardziej niepokojące są jednak tzw. halucynacje - eleganckie słowo na zwykłe zmyślanie. Algorytm potrafi przypisać autorowi słowa, których nigdy nie napisał, albo stworzyć fakty, które nigdy nie istniały. I robi to z absolutną pewnością siebie, jak ksiądz z ambony, który nie dopuszcza pytań z ławki. W świecie, w którym większość ludzi nie ma czasu ani chęci, by weryfikować źródła, taka "pomyłka" staje się nową prawdą. A prawda, raz zniekształcona, zaczyna żyć własnym życiem.
To nie jest już kwestia technologii, lecz władzy. Jeśli algorytm może zmienić sens wypowiedzi, dopisać coś, czego nie było, albo pominąć to, co istotne, to przejmuje kontrolę nad interpretacją rzeczywistości. A interpretacja to fundament każdej władzy - politycznej, kulturowej, społecznej. W tym sensie algorytm nie jest narzędziem, lecz nowym kapłanem: nieomylnym, niewidzialnym i niepodlegającym krytyce. Człowiek, który oddaje mu swoje myślenie, oddaje więcej, niż mu się wydaje.
Wróćmy na chwilę do Wellsa, bo jego metafora okazuje się bardziej przenikliwa, niż mogłoby się wydawać. Eloje byli dla Morloków jedynie bydłem rzeźnym - żywym zasobem, który należało utrzymać w komforcie, by później go wykorzystać. W filmie Morlok czasem wychodził z maczugą, ale zwykle nie musiał się fatygować. Wystarczyło, że włączył syrenę i otworzył bramę, a Eloje sami, potulnie i bez cienia refleksji, szli do rzeźni. Nikt nie zadał sobie pytania "po co?". Reagowali na sygnał jak pies Pawłowa - automatycznie, bezmyślnie, zgodnie z wyuczonym odruchem. Trudno nie zauważyć, jak bardzo ten mechanizm zaczyna przypominać naszą współczesność.
W erze wielkich platform cyfrowych nie jesteśmy już konsumentami, jak lubimy o sobie myśleć. Jesteśmy "surowcem informacyjnym". Każde kliknięcie, każde przesunięcie ekranu, każde przeczytane streszczenie to pożywka dla algorytmu. Morlok nie musi już wychodzić z podziemi z maczugą - wystarczy powiadomienie na smartfonie. Jesteśmy hodowani w cyfrowych zagrodach, karmieni wygodą, personalizacją i "optymalizacją", aby na końcu przetworzyć nasze dane i wygenerować zysk dla korporacji. To nie jest teoria spiskowa, lecz ekonomiczny fundament współczesnego internetu.
W tym kontekście szczególnie groźny jest mit neutralności technologii. Powtarza się, że "narzędzie jest neutralne, wszystko zależy od użytkownika". To zdanie brzmi rozsądnie, dopóki nie uświadomimy sobie, że algorytmy nie są młotkami. Młotek nie decyduje, co zbudujesz. Algorytm - owszem. Został zaprojektowany przez ludzi z konkretnymi celami, interesami i założeniami. To nie jest pasywny instrument, lecz aktywny uczestnik procesu komunikacji. W praktyce staje się narzędziem kształtowania postaw, które promuje bierność, skrótowość i posłuszeństwo wobec systemu. To inżynieria społeczna ukryta pod ikoną przeglądarki, elegancka i niewidoczna, bo nikt nie spodziewa się manipulacji w miejscu, które miało być bramą do wiedzy.
Najbardziej jaskrawym przykładem tej zmiany jest rodzący się feudalizm informacyjny. Autor na portalu takim jak IKP tworzy treść - własną, autorską, przemyślaną. Ale zanim czytelnik ją zobaczy, pojawia się cyfrowy feudał, który stawia swój mur między jednym a drugim. Algorytm przechwytuje ruch, zabiera uwagę i serwuje "streszczenie", za które nie płaci autorowi ani grosza. To nie jest już pośrednictwo - to jest zawłaszczenie. Autor staje się cyfrowym chłopem pańszczyźnianym, który pracuje na polu należącym do korporacji. A korporacja, niczym łaskawy pan, pozwala mu tam jeszcze chwilę posiedzieć, dopóki jego praca generuje ruch, dane i zysk. W tej relacji nie ma symetrii. Jest tylko zależność.
Wells opisał świat, w którym jedni żyją w komforcie, a drudzy żyją z ich ciał. My żyjemy w świecie, w którym jedni konsumują treści, a drudzy konsumują dane. Mechanizm jest ten sam - zmieniły się tylko narzędzia.
c.d.n
Zbigniew S. Grzyb (wislon.tv/ZG)
|