FelietonKomentarz

Sztuczna inteligencja w polityce: od Excela 2.0 do nowej maszyny władzy

Partie polityczne lubią opowiadać, że AI to tylko „kolejne narzędzie analityczne”. Polityk w garniturze mówi „to jak trochę lepszy Excel”, a tymczasem pod spodem budowana jest nowa infrastruktura władzy: zdolność masowego profilowania obywateli, testowania przekazów w czasie rzeczywistym i podkręcania emocji z precyzją, której dotąd nie mieliśmy. To już nie dodatek do kampanii, lecz element architektury współczesnej demokracji.

AI jako nowa infrastruktura polityczna

Z perspektywy politologa AI to nie gadżet, tylko zasób władzy – obok pieniędzy, kadr i dostępu do mediów. Już sprawa Cambridge Analytica pokazała, jak łączenie danych z Facebooka z modelami psychometrycznymi może służyć budowaniu indywidualnych profili wyborców i ich mikrotargetowaniu w kampanii Trumpa w 2016 roku. Dziś, przy dostępności generatywnej AI, te same logiki działania stają się tańsze i bardziej zautomatyzowane. Badania nad mikrotargetowaniem politycznym pokazują, że jego perswazyjny efekt bywa mniejszy, niż straszą nagłówki, ale realnie pogłębia on segmentację i polaryzację sceny politycznej. Z punktu widzenia systemu politycznego AI wzmacnia więc logikę „polityki do bańki”, a nie „polityki do demosu”.

Efektywność: marzenie sztabowców, koszmar dla przejrzystości

Trzeba uczciwie powiedzieć: z perspektywy partii korzyści są ogromne. AI ułatwia analizę preferencji wyborczych, segmentację elektoratu, planowanie objazdów, dobór tematów pod lokalne „gorące punkty”, a nawet symulowanie możliwych reakcji na nowe propozycje programowe. W kampanii prezydenckiej w Argentynie w 2023 roku oba główne sztaby – Sergio Massy i Javiera Mileia – masowo korzystały z generowanych obrazów i wideo, aby testować i wzmacniać przekaz w mediach społecznościowych. (zobacz Moon, J., Argentina’s AI election heralds a new future for politics, Semafor, https://www.semafor.com/article/11/16/2023/argentina-massa-milei-artificial-intelligence). To było laboratorium nowej kampanii: taniej, szybciej, bardziej „memicznie”. Jak pokazują analizy wykorzystania AI i mikrotargetowania w kampaniach, logika przechodzi „od masowych sieci do spersonalizowanego głosowania”: zamiast jednego sztandarowego przekazu partia dostarcza wiele lekko zmodyfikowanych komunikatów, szytych pod konkretne segmenty odbiorców. (zobacz: Valery, J.D., From mass networks to personalized voting, Dialogo Politico). Zyskuje efektywność, traci przejrzystość.

Manipulacja 2.0: deepfake zamiast ulotki

Druga strona medalu jest dobrze znana badaczom propagandy: AI radykalnie obniża koszt produkcji wiarygodnej dezinformacji. W wyborach na Słowacji w 2023 roku kluczowym epizodem była krążąca tuż przed głosowaniem fałszywa rozmowa telefoniczna – deepfake audio – przypisywana liderowi opozycji i dziennikarce, w której rzekomo omawiano manipulację głosowaniem. (zobacz: Atherton, D., Incident Number 573: Deepfake Recordings Allegedly Influence Slovakian Election. in Atherton, D. (ed.) Artificial Intelligence Incident Database. Responsible AI Collaborative. Retrieved on November 16, 2025, https://www.incidentdatabase.ai/cite/573). Mechanizm był prosty: moratorium wyborcze ograniczało możliwość reakcji, a algorytmy platform zadbały o szybki zasięg.

Podobne wzorce widzimy w USA. W 2024 roku wyborcy w New Hampshire otrzymali automatyczne połączenie z syntetycznym głosem przypominającym prezydenta Bidena, zachęcającym do… niewychodzenia na prawybory, bo „ważny będzie dopiero listopad”. (zobacz: b.a., Consultant behind AI-generated robocalls mimicking Biden goes on trial in New Hampshire, AP, https://apnews.com/article/ai-robocalls-biden-kramer-new-hampshire-02de549e5d82bce4cd7622b8bef2d587) Niezależnie od motywacji organizatora, precedens jest jasny: AI pozwala relatywnie małym graczom wejść w rolę „prywatnego aparatu propagandy” z zasięgiem na skalę całego stanu.

To już nie klasyczne „czarne PR” z przeciekiem do prasy, lecz personalizowana, trudna do szybkiej weryfikacji komunikacja, która może działać w czasie rzeczywistym i znikać bez śladu.

Dane, nierówności i nowa asymetria władzy

Manipulacja to jedno, ale z punktu widzenia jakości demokracji równie ważne są strukturalne nierówności. Aby korzystać z AI, trzeba mieć dostęp do danych, kompetencji analitycznych i infrastruktury. To oznacza przewagę dużych, zasobnych podmiotów – partii mainstreamowych, globalnych platform – nad ugrupowaniami peryferyjnymi i organizacjami społecznymi.

Sprawa Cambridge Analytica była podręcznikowym przykładem przekształcania zasobów danych w kapitał polityczny: wykorzystanie danych setek milionów użytkowników Facebooka bez ich świadomej zgody, co do dziś skutkuje pozwami i sprawami sądowymi wobec Meta. (zobacz: Scarella, M., Facebook must face DC attorney general’s lawsuit tied to Cambridge Analytica scandal, Reuters, https://www.reuters.com/legal/government/facebook-must-face-dc-attorney-generals-lawsuit-tied-cambridge-analytica-scandal-2025-07-31/) W polskim kontekście badania Fundacji Panoptykon nad reklamą polityczną pokazały, że wyborcy w praktyce nie wiedzą, kto ich targetuje, na jakiej podstawie i z jakim celem. (zobacz: b.a., Kto (naprawdę) Cię namierzył? Facebook w polskiej kampanii wyborczej, Panoptykon.org, https://panoptykon.org/ktocienamierzyl-raport). AI tylko tę asymetrię pogłębia, automatyzując i skalując to, co kiedyś wymagało armii konsultantów.

W efekcie rośnie deficyt przejrzystości: obywatele widzą fragment własnego „feedu”, ale nie widzą mapy całej kampanii. Dla politologii to poważne wyzwanie badawcze: jak analizować kampanię, której każdy obywatel widzi inną wersję?

Regulacje: prawo próbuje dogonić technologię

Na poziomie normatywnym kluczowe pytanie brzmi: jak ograniczyć najbardziej niebezpieczne zastosowania, nie tłumiąc jednocześnie innowacji? Unia Europejska wprowadza w tym zakresie dość jednoznaczne ramy. Artykuł 5 Aktu o Sztucznej Inteligencji zakazuje systemów wykorzystujących techniki manipulacyjne, które w sposób znaczący zniekształcają zachowanie ludzi, oraz innych praktyk uznanych za niedopuszczalne wobec praw podstawowych. Najnowsze wytyczne Komisji Europejskiej próbują doprecyzować, jak rozumieć „manipulację” w kontekście kampanii i reklamy politycznej – od wykorzystania wrażliwych danych po profilowanie podatnych grup.

Równolegle wchodzi w życie rozporządzenie o transparentności i targetowaniu reklamy politycznej (TTPA), które ogranicza swobodę platform i reklamodawców. Jako odpowiedź Meta zapowiedziała całkowite wycofanie reklam politycznych w UE od października 2025 roku, wskazując na „niewykonalność” nowych wymogów. (zobacz: Moens, B., Meta to pull political ads in EU in response to new disinformation rules, Financial Times, https://www.ft.com/content/c05bcb1d-f032-46cc-8f6c-c1f29ee0e465).To ruch, który z jednej strony może zmniejszyć skalę mikrotargetowania, z drugiej – wypchnąć kampanie w mniej przejrzyste obszary komunikacji oddolnej i „organicznej”.

AI kontra dezinformacja: broń i tarcza jednocześnie

Paradoks polega na tym, że AI jest równie skuteczna w generowaniu dezinformacji, co w jej zwalczaniu. Narzędzia oparte na uczeniu maszynowym są już używane do wykrywania deepfake’ów, analizowania sieci kont koordynowanych czy monitorowania narracji dezinformacyjnych w czasie rzeczywistym – od kampanii w Ameryce Łacińskiej po Europę. (zobacz: Jańczuk, H., Risk of Using Artificial Intelligence inc Creating the Image of Politicians and in Electoral Campaign, Ad Americam. Journal of American Studies 25 (2024), s. 169-182.).W literaturze mówi się coraz częściej o „wyścigu zbrojeń” między aktorami ofensywnymi (partiami, państwami, grupami interesu) a obrońcami (instytucjami wyborczymi, organizacjami fact-checkerskimi, regulatorami).

Jeśli partie chcą korzystać z AI w sposób, który wzmacnia, a nie podkopuje ich legitymizację, powinny inwestować nie tylko w narzędzia kampanijne, lecz także w mechanizmy wewnętrznej kontroli: jasne reguły oznaczania treści generowanych, procedury weryfikacji materiałów, współpracę z niezależnymi podmiotami monitorującymi przestrzeń informacyjną.

Edukacja jako warunek legitymizacji

Nawet najlepsze regulacje nie zastąpią odporności obywateli. Z perspektywy teorii demokracji mówimy tu o warunku informacyjnym: obywatel ma prawo nie tylko głosować, ale też rozumieć, w jakim środowisku informacyjnym podejmuje decyzje. Bez podstawowej edukacji cyfrowej i medialnej – obejmującej rozpoznawanie treści generowanych przez AI, świadomość mikrotargetowania i mechanizmów rekomendacyjnych – asymetria między partiami a wyborcami będzie się pogłębiać.

W tym sensie spór o AI w polityce to nie tylko spór o technologię, ale o granice dopuszczalnej inżynierii zgody. Jeśli partie będą traktować AI wyłącznie jako narzędzie optymalizacji głosu, a nie jako element kontraktu z obywatelem, ryzykują utratę tej najcenniejszej waluty, jaką jest zaufanie.

AI w polityce jest rzeczywiście mieczem obosiecznym, ale od nas zależy, czy zostanie wpisana w logikę demokratycznej odpowiedzialności, czy w logikę cynicznej inżynierii. Ramy prawne są pierwszym krokiem, drugi to instytucjonalne samograniczenie się aktorów politycznych, a trzeci – świadomy obywatel, który rozumie, że za kolejnym „spersonalizowanym” postem stoi algorytm, a nie nagłe olśnienie ulubionego polityka.

Bibliografia:

Shares:

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *