Partie polityczne lubią opowiadać, że AI to tylko „kolejne narzędzie analityczne”. Polityk w garniturze mówi „to jak trochę lepszy Excel”, a tymczasem pod spodem budowana jest nowa infrastruktura władzy: zdolność masowego profilowania obywateli, testowania przekazów w czasie rzeczywistym i podkręcania emocji z precyzją, której dotąd nie mieliśmy. To już nie dodatek do kampanii, lecz element architektury współczesnej demokracji.
AI jako nowa infrastruktura polityczna
Z perspektywy politologa AI to nie gadżet, tylko zasób władzy – obok pieniędzy, kadr i dostępu do mediów. Już sprawa Cambridge Analytica pokazała, jak łączenie danych z Facebooka z modelami psychometrycznymi może służyć budowaniu indywidualnych profili wyborców i ich mikrotargetowaniu w kampanii Trumpa w 2016 roku. Dziś, przy dostępności generatywnej AI, te same logiki działania stają się tańsze i bardziej zautomatyzowane. Badania nad mikrotargetowaniem politycznym pokazują, że jego perswazyjny efekt bywa mniejszy, niż straszą nagłówki, ale realnie pogłębia on segmentację i polaryzację sceny politycznej. Z punktu widzenia systemu politycznego AI wzmacnia więc logikę „polityki do bańki”, a nie „polityki do demosu”.
Efektywność: marzenie sztabowców, koszmar dla przejrzystości
Trzeba uczciwie powiedzieć: z perspektywy partii korzyści są ogromne. AI ułatwia analizę preferencji wyborczych, segmentację elektoratu, planowanie objazdów, dobór tematów pod lokalne „gorące punkty”, a nawet symulowanie możliwych reakcji na nowe propozycje programowe. W kampanii prezydenckiej w Argentynie w 2023 roku oba główne sztaby – Sergio Massy i Javiera Mileia – masowo korzystały z generowanych obrazów i wideo, aby testować i wzmacniać przekaz w mediach społecznościowych. (zobacz Moon, J., Argentina’s AI election heralds a new future for politics, Semafor, https://www.semafor.com/article/11/16/2023/argentina-massa-milei-artificial-intelligence). To było laboratorium nowej kampanii: taniej, szybciej, bardziej „memicznie”. Jak pokazują analizy wykorzystania AI i mikrotargetowania w kampaniach, logika przechodzi „od masowych sieci do spersonalizowanego głosowania”: zamiast jednego sztandarowego przekazu partia dostarcza wiele lekko zmodyfikowanych komunikatów, szytych pod konkretne segmenty odbiorców. (zobacz: Valery, J.D., From mass networks to personalized voting, Dialogo Politico). Zyskuje efektywność, traci przejrzystość.
Manipulacja 2.0: deepfake zamiast ulotki
Druga strona medalu jest dobrze znana badaczom propagandy: AI radykalnie obniża koszt produkcji wiarygodnej dezinformacji. W wyborach na Słowacji w 2023 roku kluczowym epizodem była krążąca tuż przed głosowaniem fałszywa rozmowa telefoniczna – deepfake audio – przypisywana liderowi opozycji i dziennikarce, w której rzekomo omawiano manipulację głosowaniem. (zobacz: Atherton, D., Incident Number 573: Deepfake Recordings Allegedly Influence Slovakian Election. in Atherton, D. (ed.) Artificial Intelligence Incident Database. Responsible AI Collaborative. Retrieved on November 16, 2025, https://www.incidentdatabase.ai/cite/573). Mechanizm był prosty: moratorium wyborcze ograniczało możliwość reakcji, a algorytmy platform zadbały o szybki zasięg.
Podobne wzorce widzimy w USA. W 2024 roku wyborcy w New Hampshire otrzymali automatyczne połączenie z syntetycznym głosem przypominającym prezydenta Bidena, zachęcającym do… niewychodzenia na prawybory, bo „ważny będzie dopiero listopad”. (zobacz: b.a., Consultant behind AI-generated robocalls mimicking Biden goes on trial in New Hampshire, AP, https://apnews.com/article/ai-robocalls-biden-kramer-new-hampshire-02de549e5d82bce4cd7622b8bef2d587) Niezależnie od motywacji organizatora, precedens jest jasny: AI pozwala relatywnie małym graczom wejść w rolę „prywatnego aparatu propagandy” z zasięgiem na skalę całego stanu.
To już nie klasyczne „czarne PR” z przeciekiem do prasy, lecz personalizowana, trudna do szybkiej weryfikacji komunikacja, która może działać w czasie rzeczywistym i znikać bez śladu.
Dane, nierówności i nowa asymetria władzy
Manipulacja to jedno, ale z punktu widzenia jakości demokracji równie ważne są strukturalne nierówności. Aby korzystać z AI, trzeba mieć dostęp do danych, kompetencji analitycznych i infrastruktury. To oznacza przewagę dużych, zasobnych podmiotów – partii mainstreamowych, globalnych platform – nad ugrupowaniami peryferyjnymi i organizacjami społecznymi.
Sprawa Cambridge Analytica była podręcznikowym przykładem przekształcania zasobów danych w kapitał polityczny: wykorzystanie danych setek milionów użytkowników Facebooka bez ich świadomej zgody, co do dziś skutkuje pozwami i sprawami sądowymi wobec Meta. (zobacz: Scarella, M., Facebook must face DC attorney general’s lawsuit tied to Cambridge Analytica scandal, Reuters, https://www.reuters.com/legal/government/facebook-must-face-dc-attorney-generals-lawsuit-tied-cambridge-analytica-scandal-2025-07-31/) W polskim kontekście badania Fundacji Panoptykon nad reklamą polityczną pokazały, że wyborcy w praktyce nie wiedzą, kto ich targetuje, na jakiej podstawie i z jakim celem. (zobacz: b.a., Kto (naprawdę) Cię namierzył? Facebook w polskiej kampanii wyborczej, Panoptykon.org, https://panoptykon.org/ktocienamierzyl-raport). AI tylko tę asymetrię pogłębia, automatyzując i skalując to, co kiedyś wymagało armii konsultantów.
W efekcie rośnie deficyt przejrzystości: obywatele widzą fragment własnego „feedu”, ale nie widzą mapy całej kampanii. Dla politologii to poważne wyzwanie badawcze: jak analizować kampanię, której każdy obywatel widzi inną wersję?
Regulacje: prawo próbuje dogonić technologię
Na poziomie normatywnym kluczowe pytanie brzmi: jak ograniczyć najbardziej niebezpieczne zastosowania, nie tłumiąc jednocześnie innowacji? Unia Europejska wprowadza w tym zakresie dość jednoznaczne ramy. Artykuł 5 Aktu o Sztucznej Inteligencji zakazuje systemów wykorzystujących techniki manipulacyjne, które w sposób znaczący zniekształcają zachowanie ludzi, oraz innych praktyk uznanych za niedopuszczalne wobec praw podstawowych. Najnowsze wytyczne Komisji Europejskiej próbują doprecyzować, jak rozumieć „manipulację” w kontekście kampanii i reklamy politycznej – od wykorzystania wrażliwych danych po profilowanie podatnych grup.
Równolegle wchodzi w życie rozporządzenie o transparentności i targetowaniu reklamy politycznej (TTPA), które ogranicza swobodę platform i reklamodawców. Jako odpowiedź Meta zapowiedziała całkowite wycofanie reklam politycznych w UE od października 2025 roku, wskazując na „niewykonalność” nowych wymogów. (zobacz: Moens, B., Meta to pull political ads in EU in response to new disinformation rules, Financial Times, https://www.ft.com/content/c05bcb1d-f032-46cc-8f6c-c1f29ee0e465).To ruch, który z jednej strony może zmniejszyć skalę mikrotargetowania, z drugiej – wypchnąć kampanie w mniej przejrzyste obszary komunikacji oddolnej i „organicznej”.
AI kontra dezinformacja: broń i tarcza jednocześnie
Paradoks polega na tym, że AI jest równie skuteczna w generowaniu dezinformacji, co w jej zwalczaniu. Narzędzia oparte na uczeniu maszynowym są już używane do wykrywania deepfake’ów, analizowania sieci kont koordynowanych czy monitorowania narracji dezinformacyjnych w czasie rzeczywistym – od kampanii w Ameryce Łacińskiej po Europę. (zobacz: Jańczuk, H., Risk of Using Artificial Intelligence inc Creating the Image of Politicians and in Electoral Campaign, Ad Americam. Journal of American Studies 25 (2024), s. 169-182.).W literaturze mówi się coraz częściej o „wyścigu zbrojeń” między aktorami ofensywnymi (partiami, państwami, grupami interesu) a obrońcami (instytucjami wyborczymi, organizacjami fact-checkerskimi, regulatorami).
Jeśli partie chcą korzystać z AI w sposób, który wzmacnia, a nie podkopuje ich legitymizację, powinny inwestować nie tylko w narzędzia kampanijne, lecz także w mechanizmy wewnętrznej kontroli: jasne reguły oznaczania treści generowanych, procedury weryfikacji materiałów, współpracę z niezależnymi podmiotami monitorującymi przestrzeń informacyjną.
Edukacja jako warunek legitymizacji
Nawet najlepsze regulacje nie zastąpią odporności obywateli. Z perspektywy teorii demokracji mówimy tu o warunku informacyjnym: obywatel ma prawo nie tylko głosować, ale też rozumieć, w jakim środowisku informacyjnym podejmuje decyzje. Bez podstawowej edukacji cyfrowej i medialnej – obejmującej rozpoznawanie treści generowanych przez AI, świadomość mikrotargetowania i mechanizmów rekomendacyjnych – asymetria między partiami a wyborcami będzie się pogłębiać.
W tym sensie spór o AI w polityce to nie tylko spór o technologię, ale o granice dopuszczalnej inżynierii zgody. Jeśli partie będą traktować AI wyłącznie jako narzędzie optymalizacji głosu, a nie jako element kontraktu z obywatelem, ryzykują utratę tej najcenniejszej waluty, jaką jest zaufanie.
AI w polityce jest rzeczywiście mieczem obosiecznym, ale od nas zależy, czy zostanie wpisana w logikę demokratycznej odpowiedzialności, czy w logikę cynicznej inżynierii. Ramy prawne są pierwszym krokiem, drugi to instytucjonalne samograniczenie się aktorów politycznych, a trzeci – świadomy obywatel, który rozumie, że za kolejnym „spersonalizowanym” postem stoi algorytm, a nie nagłe olśnienie ulubionego polityka.
Bibliografia:
- Strzyżewski, M., Afera Cambridge Analytica. Wyjaśniamy, o co w niej chodzi, Onet.pl, https://wiadomosci.onet.pl/swiat/afera-cambridge-analytica-wyjasniamy-o-co-w-niej-chodzi/r6z5bvf [dostęp: 14.11.2025].
- Simchon, A., Edwards, M., Lewandowsky, S., The persuasive effects of political microtargeting in the age of generative artificial intelligence, PNAS Nexus. 2024;3(2), https://pmc.ncbi.nlm.nih.gov/articles/PMC10849795/.
- Moon, J., Argentina’s AI election heralds a new future for politics, Semafor, https://www.semafor.com/article/11/16/2023/argentina-massa-milei-artificial-intelligence [dostęp: 14.11.2025].
- Valery, J.D., From mass networks to personalized voting, Dialogo Politico, https://dialogopolitico.org/special-edition-2025-artificial-democracy/from-mass-networks-to-personalised-voting [dostęp: 14.11.2025].
- Atherton, D., Incident Number 573: Deepfake Recordings Allegedly Influence Slovakian Election. in Atherton, D. (ed.) Artificial Intelligence Incident Database. Responsible AI Collaborative. Retrieved on November 16, 2025, https://www.incidentdatabase.ai/cite/573 [dostęp: 15.11.2025].
- b.a., Consultant behind AI-generated robocalls mimicking Biden goes on trial in New Hampshire, AP, https://apnews.com/article/ai-robocalls-biden-kramer-new-hampshire-02de549e5d82bce4cd7622b8bef2d587 [dostęp: 15.11.2025].
- Scarella, M., Facebook must face DC attorney general’s lawsuit tied to Cambridge Analytica scandal, Reuters, https://www.reuters.com/legal/government/facebook-must-face-dc-attorney-generals-lawsuit-tied-cambridge-analytica-scandal-2025-07-31/ [dostęp: 15.11.2025].
- b.a., Kto (naprawdę) Cię namierzył? Facebook w polskiej kampanii wyborczej, Panoptykon.org, https://panoptykon.org/ktocienamierzyl-raport [dostęp: 15.11.2025].
- Moens, B., Meta to pull political ads in EU in response to new disinformation rules, Financial Times, https://www.ft.com/content/c05bcb1d-f032-46cc-8f6c-c1f29ee0e465 [dostęp: 14.11.2025].
- Jańczuk, H., Risk of Using Artificial Intelligence inc Creating the Image of Politicians and in Electoral Campaign, Ad Americam. Journal of American Studies 25 (2024), s. 169-182.

