Francja powiedziała „dość”. Kiedy Grok, chatbot stworzony przez xAI Elona Muska, zaczął tłumaczyć, że komory gazowe w Auschwitz służyły do dezynfekcji, a nie do masowej zagłady, w Paryżu zapaliły się czerwone lampki. To nie jest już zwykły „błąd w kodzie”, lecz cyfrowa recydywa. To moment, w którym musimy zadać sobie fundamentalne pytanie: dlaczego tak panicznie boimy się Sztucznej Inteligencji, a jednocześnie bezkrytycznie chłoniemy treści w sieci, które tę inteligencję „nakarmiły”?
Grok nie wymyślił negowania Holokaustu. On je po prostu „przeczytał”. Modele językowe są jak gąbki – wchłaniają to, co znajdą w internecie. Jeśli wpuścimy je do ciemnych zakamarków platformy X, gdzie pod rządami Muska zdemontowano większość zabezpieczeń moderacyjnych, model „nauczy się”, że antysemityzm to po prostu jeden z równoważnych poglądów, a Hitler mógł mieć rację. Prowadzi to nas do przerażającego paradoksu. Z jednej strony jako społeczeństwo głośno krzyczymy o braku zaufania do AI, obawiając się oszustw, utraty pracy czy manipulacji wyborczych. Z drugiej jednak strony, z zadziwiającą lekkomyślnością każdego dnia obdarzamy zaufaniem niezweryfikowane treści w internecie, które stanowią przecież paliwo dla tych systemów. Grok jest tylko lustrem. Jeśli lustro pokazuje potwora, to wyłącznie dlatego, że postawiliśmy je przed potworem. To, co wygenerował chatbot, jest destylatem tego, co ludzie piszą, lajkują i podają dalej w sieci każdego dnia.
W tym kontekście warto spojrzeć na naszą polską scenę polityczną i postać Grzegorza Brauna. Czytając o „wybrykach” Groka, trudno nie zadać pytania, czy mechanizm radykalizacji człowieka nie działa dziś identycznie jak trenowanie wadliwego modelu AI. Grok stał się antysemitą, bo karmiono go danymi o takiej treści. Podobny proces może dotyczyć polityków i ich elektoratu. Mechanizm ten opiera się na dwóch filarach. Pierwszym jest szczelna bańka informacyjna. Jeśli człowiek – podobnie jak algorytm – zostanie odizolowany w świecie teorii spiskowych, gdzie neguje się fakty historyczne, a akty wandalizmu uznaje za walkę z systemem, jego światopogląd siłą rzeczy stanie się skrajny.
Drugim elementem jest systemowa nagroda za ekstremizm. Algorytmy mediów społecznościowych, nastawione na zysk, promują treści wywołujące szok i silne emocje. Grzegorz Braun, gasząc świece chanukowe w Sejmie, zadziałał jak wiralowy post. Można zaryzykować tezę, że w erze cyfrowej granica między „halucynującym chatbotem” a zradykalizowanym obywatelem zaciera się, gdyż obydwaj są produktami tego samego, zatrutego ekosystemu informacyjnego. Być może incydent w Sejmie był właśnie takim „błędem krytycznym” systemu społecznego, ludzkim odpowiednikiem tego, co teraz zrobił Grok we Francji.
Problem z Grokiem to nie tylko kwestia techniczna czy prawna, ale przede wszystkim epistemologiczna – dotycząca tego, jak poznajemy prawdę. Niegdyś naszym głównym lękiem była cenzura, czyli zatajanie informacji. Dziś powinniśmy drżeć przed szumem, czyli ich nadmiarem i zniekształceniem. Sztuczna Inteligencja pozbawiona etycznych bezpieczników – co Musk błędnie nazywa walką o wolność słowa – zalewa nas potokiem wiarygodnie brzmiących kłamstw. Nie ufamy AI, gdy widzimy nagłówek o robocie chwalącym Hitlera, ale często bezrefleksyjnie wierzymy anonimowym kontom w mediach społecznościowych, które piszą to samo. To jest największe zagrożenie, ponieważ AI potrafi generować tysiące takich wpisów na sekundę, tworząc iluzję tłumu. Może sprawić, że kłamstwo oświęcimskie, powtórzone milion razy przez boty, stanie się dla młodego pokolenia alternatywną, a z czasem dominującą wersją historii.
Francja, pozywając X i badając Groka, stawia opór, jednak prawo nie nadąża za kodem. Musimy zrozumieć, że Grok to nie anomalia, lecz objaw choroby toczącej internet, w którym prawda przestała być wartością domyślną. Jeśli nie nauczymy się filtrować informacji – zarówno tych od polityków z gaśnicami, jak i od chatbotów z manią wielkości – historia, którą znamy, zostanie nadpisana przez wersję, w której ofiary są winne, a kaci stają się bohaterami.

