Środa, 14 stycznia 2026, Nr 10 (8481) – Myśl jest bronią
Wykład płk. dr. Roberta Reczkowskiego, wygłoszony podczas XVIII Międzynarodowego Kongresu ”Katolicy a transhumanizm” w AKSiM, 29 listopada 2025 r. (cz. 3)
Strategie budowania odporności kognitywnej
Wobec tak złożonych i wielowymiarowych zagrożeń, zatem jak możemy się bronić? Jak budować odporność kognitywną państwa i społeczeństwa, by nie dać się zarazić wirusem dezinformacji ani złamać atakami na nasz umysł? Strategia musi być kompleksowa, łącząc działania na wielu poziomach: jednostki, społeczeństwa, państwa, sojuszy międzynarodowych, a także – co ważne – sektora prywatnego i technologicznego. Dlatego też w tej części mojego wystąpienia chciałbym Państwu przedstawić kluczowe filary takiej strategii, popierając je przykładami istniejących inicjatyw.
Edukacja informacyjna i podnoszenie świadomości społecznej
Pierwszą linią obrony jest świadomy obywatel, tzn. odporny na proste manipulacje dzięki wiedzy i krytycznemu myśleniu. Dlatego fundamentalne znaczenie ma edukacja medialna i cyfrowa. Już od najmłodszych lat powinniśmy uczyć w szkołach, jak odróżniać rzetelne źródła informacji od fałszywych, jak działa propaganda, czym są deepfaki itp. Kraje takie jak Finlandia czy Szwecja wprowadziły elementy edukacji o dezinformacji do swoich programów nauczania i przynosi to efekty, gdyż jak pokazują badania, uczniowie po takich kursach lepiej identyfikują wiarygodne treści. Ważne są także kampanie społeczne uświadamiające szerokiej populacji istnienie zagrożeń. Kluczowa jest również współpraca z organizacjami pozarządowymi i fakt-checkerami, gdyż często to one wyłapują fejkowe newsy i prostują je w przestrzeni publicznej.
Co ważne, podnoszenie odporności psychicznej jednostek to nie tylko wiedza o mediach, ale też treningi psychologiczne. Badania psychologów sugerują, że techniki takie jak poznawcza reinterpretacja stresujących treści (cognitive reappraisal) mogą pomóc ludziom zachować spokój i sceptycyzm wobec szokujących, wzbudzających lęk przekazów. Innymi słowy, chodzi o uczenie się reagowania na niepokojące informacje z namysłem, a nie z panicznym strachem. Jest to jakaś forma szczepionki psychologicznej, gdyż jeśli zrozumiemy, jak działa straszenie i manipulacja emocjami, stajemy się mniej podatni na te chwyty.
Wzmocnienie ekosystemu informacyjnego, czyli profesjonalne media i reagowanie na fake newsy
Odporność społeczeństwa zależy także od jakości przestrzeni informacyjnej w kraju. Musimy wspierać niezależne, profesjonalne media, które działają zgodnie z etyką dziennikarską, sprawdzają fakty i prostują nieprawdy. Gdy media głównego nurtu są silne i cieszą się zaufaniem, trudniej jest dezinformacji je zastąpić. W krajach, gdzie tradycyjne media upadły lub zostały zdominowane przez rządową propagandę, społeczeństwo często jest zalewane plotkami z mediów społecznościowych, co sprzyja chaosowi informacyjnemu. Dlatego jednym z zaleceń bywa wspieranie pluralizmu mediów, transparentności ich finansowania, promowanie wysokich standardów (np. dziennikarskie kodeksy etyczne, fact-checking).
Równolegle państwo i społeczeństwo muszą mieć mechanizmy szybkiego reagowania na szkodliwe fake newsy. Być może rozwiązaniem w tym względzie są partnerstwa publiczno-prywatne z platformami internetowymi, aby szybciej flagować i ograniczać zasięg oczywistych fake’ów (z poszanowaniem wolności słowa). Trudne jest to wyważenie, lecz np. Facebook we współpracy z niezależnymi fact-checkerami oznacza część treści jako wątpliwe – to już jest jakiś postęp.
Wykorzystanie technologii do wykrywania i obrony
Skoro przeciwnik używa zaawansowanej technologii (boty, AI, deepfaki), my również musimy ją stosować w ramach wspierania obrony. Na szczęście wiele instytucji nad tym pracuje. Przykładowo, amerykańska agencja DARPA prowadzi program o nazwie Media Forensics (MediFor), który rozwija narzędzia AI do automatycznego wykrywania manipulacji w obrazach, audio i wideo. Dzięki temu, miejmy nadzieję, już niedługo platformy społecznościowe będą potrafiły oznaczać deepfaki w momencie ich publikacji – np. wykrywając niespójności pikseli czy artefakty generowania obrazu. Innym obiecującym kierunkiem jest blockchain i infrastruktura rozproszonego potwierdzania autentyczności informacji. Już teraz trwają prace (m.in. w UE) nad systemem certyfikacji pochodzenia materiałów w sieci tak, aby np. zdjęcie czy film w wiadomościach miał „podpis cyfrowy” wskazujący źródło (kamera) i brak modyfikacji. Choć to może nie zapobiegnie fałszerstwom, to ułatwi śledzenie ich źródła i być może ograniczy zasięg (jeśli użytkownicy zaufają takim certyfikatom).
AI może też pomóc w monitorowaniu przepływów informacji w czasie rzeczywistym poprzez np. wyłapywanie nagłych wzrostów aktywności botów albo koordynowane kampanie hasztagów, co da sygnał służbom, że dzieje się coś podejrzanego. Wreszcie, rozwija się koncepcja „Early Warning System” dla dezinformacji, coś na kształt „radaru”. UE już testuje takie systemy między krajami członkowskimi.
Oczywiście sama technologia nie wystarczy, gdyż ważna jest przejrzystość algorytmów i nadzór człowieka, bo w przeciwnym razie lek na dezinformację mógłby okazać się gorszy niż choroba (np. algorytm przez pomyłkę oznaczający prawdziwe informacje jako fałsz). Dlatego mówi się o potrzebie explainable AI, czyli sztucznej inteligencji, która tłumaczy swoje decyzje, aby budować zaufanie publiczne. No i nie zapominajmy o zagrożeniu, że AI obronne będzie z kolei atakowane przez przeciwne AI (wojna algorytmów). Dlatego tak ważne są testy odporności na ataki przeciwnika (adversarial AI) i ciągłe udoskonalanie modeli.
Podsumowując, technologia powinna działać dla nas, tj. monitorować, filtrować, ostrzegać, ale z ludzką kontrolą i w zgodzie z wartościami demokratycznymi.
Doskonalenie kadr i struktur instytucjonalnych
Budowanie odporności kognitywnej musi być zadaniem systemowym. Rządy powinny tworzyć jasne strategie przeciwdziałania dezinformacji i wojnie informacyjnej – analogicznie do strategii obronności czy cyberbezpieczeństwa. W Polsce kwestie te pojawiają się w Strategii Bezpieczeństwa Narodowego, ale warto je uszczegóławiać w planach operacyjnych dla poszczególnych resortów. Konieczne jest też szkolenie kadr, gdyż zarówno w wojsku (żołnierze powinni rozumieć, czym jest wojna kognitywna; postulowane jest nawet, by elementy cognitive warfare włączyć w szkolenie podstawowe wszystkich żołnierzy), jak i w administracji cywilnej (urzędy, samorządy) muszą wiedzieć, jak reagować na lokalne kryzysy informacyjne.
Kolejnym pomysłem jest łączenie istniejących programów szkoleniowych z zakresu odporności psychicznej z komponentem walki informacyjnej. Przykładowo, w armii USA kładzie się od lat nacisk na resilience training dla żołnierzy (radzenie sobie ze stresem, presją). Można do tego dodać moduły o tym, jak rozpoznawać wrogie wpływy informacyjne, jak chronić siebie i kolegów przed plotkami, paniką wywołaną manipulacją etc. Niektóre państwa tworzą dedykowane jednostki ds. bezpieczeństwa informacyjnego, np. w Kanadzie istnieje Rapid Response Mechanism w kancelarii premiera, monitorujący dezinformację, a na Litwie funkcjonują Elfowie jako ruch oddolny „internetowych żołnierzy” walczących z propagandą rosyjską. Być może warto pomyśleć o bardziej formalnych strukturach, np. centrum cyber-psychologicznym skupiającym analityków danych, psychologów, specjalistów od mediów.
Współpraca międzynarodowa i międzysektorowa
Dezinformacja nie zna granic, gdyż często to, co zaczyna się w jednym kraju (np. kłamstwo podsiane w polskim internecie przez obcy wywiad), przenika szybko do innych państw. Dlatego obrona musi być ponadnarodowa. Dobrą platformą jest NATO i UE. NATO powołało Innovation Hub przy Dowództwie Transformacji w Norfolk (USA), który bada m.in. kwestie wojny kognitywnej, organizuje konferencje i konkursy na ten temat (głośny był raport NATO z 2020 pt. Cognitive Warfare, wprost stwierdzający: „mózg staje się polem walki, a człowiek – celem”). W ramach NATO istnieją też Centra Doskonałości (CoE), np. poza wspomnianym StratCom CoE, mamy CoE Obrony przed Terroryzmem (gdzie walka z propagandą terrorystyczną to ważny element) oraz powstające inicjatywy dotyczące hybrydowych zagrożeń. UE natomiast zacieśnia koordynację między państwami w ramach Europejskiego planu działań przeciw dezinformacji, gdzie utworzono grupę operacyjną przy EEAS (European External Action Service) oraz współpracuje się z takimi partnerami jak Centrum Doskonalenia ds. Zagrożeń Hybrydowych w Helsinkach (Hybrid CoE). Ważne jest także dzielenie się najlepszymi praktykami: np. państwa bałtyckie, mające duże doświadczenie w odpieraniu rosyjskiej propagandy, dzielą się wiedzą z resztą UE. Od strony prawnej dyskutuje się w NATO nad tym, czy np. masowa kampania dezinformacyjna może uruchomić art. 5 (atak na jednego sojusznika traktowany jak na wszystkich). Na razie to hipotetyczne, ale np. gdyby obce państwo poważnie ingerowało w wybory któregoś sojusznika, mogłoby to wywołać reakcję wspólnotową.
Współpraca międzysektorowa oznacza natomiast włączenie biznesu i społeczeństwa obywatelskiego. Firmy technologiczne (Facebook/Meta, Google, X) muszą brać odpowiedzialność za ograniczanie nadużyć na swoich platformach. W tej kwestii np. UE wprowadziła Kodeks Postępowania ws. Dezinformacji, choć ma on dobrowolny charakter. Jednocześnie postuluje się, aby rządy zaczęły wspierać badania naukowe nad zjawiskiem (finansować interdyscyplinarne projekty), a także rozważyły sankcje wobec podmiotów szerzących dezinformację. Przykładowo, UE po agresji na Ukrainę zadecydowała o zablokowaniu nadawania Sputnika i RT (Russia Today) na terenie Unii. To radykalny krok, bo zakaz mediów jest rzadko stosowany, ale uznano, że to narzędzia kremlowskiej wojny informacyjnej, nie prawdziwe media. Podobnie USA objęły sankcjami trolle z Internet Research Agency. Tego rodzaju uderzenie po kieszeni i prestiżu sygnalizuje, że manipulowanie informacją jest traktowane poważnie.
Wreszcie, pamiętajmy o społecznościach lokalnych i religijnych, gdyż to też jest kluczowy element układanki. Badacze wskazują, że np. wspólnoty religijne mogą wzmacniać odporność przez budowanie zaufania i promowanie prawdomówności. Religia, zwłaszcza w jej aspekcie etycznym, uczy odróżniania prawdy od kłamstwa i zachowania spokoju w obliczu chaosu. Społeczności parafialne czy inne grupy mogą działać jak „zbiorowa szczepionka” – szerząc informacyjną higienę wśród swoich członków i wspierając tych, którzy czują się zagubieni w dezinformacyjnym gąszczu. Oczywiście pod warunkiem, że same nie ulegną propagandzie. A tu rola liderów opinii (np. przywódców duchowych) jest ogromna, by nie powielali niesprawdzonych rewelacji.
Podsumowanie/wnioski
Na zakończenie chciałbym podkreślić kilka najważniejszych myśli. Weaponizacja informacji to jedno z najpoważniejszych wyzwań dla współczesnych państw i społeczeństw. Uderza w sam fundament porządku społeczno-politycznego, tj. w zaufanie, jedność, wolność podejmowania decyzji. Dziś agresor nie musi przekraczać granicy czołgami, ale może rozbić nas od środka kłamstwem, sianiem strachu, podsycaniem konfliktów wewnętrznych. Odporność kognitywna staje się więc tak samo istotna jak odporność militarna czy cybernetyczna. W pewnym sensie jest to „tarcza antyrakietowa na umysły” i – co najważniejsze – musimy ją budować wspólnie.
Technologia, jak AI, neurotechnologia czy media bywają tu mieczem obosiecznym. To, co daje narzędzia atakującym, może również dać oręż obrońcom. Wyścig między tworzeniem deepfake’ów a ich wykrywaniem, między botami a algorytmami je blokującymi, będzie trwał nadal. Czynnik ludzki pozostanie jednak decydujący, ponieważ mądre społeczeństwo, wyedukowane i zintegrowane wokół wartości prawdy, jest najtrudniejszym celem dla wroga. Jeśli będziemy umieli odwoływać się do naszych moralnych kompasów, do krytycznego myślenia, do wzajemnego zaufania to wówczas nawet najprzemyślniejsza dezinformacja trafi na twardy grunt. Warto tu znów przywołać wymiar ludzki i nawet duchowy, gdzie tradycje filozoficzne i religijne od wieków uczą cnót poznawczych, tj. miłości prawdy, odrzucania kłamstwa, rozwagi w sądach. Okazuje się, że w XXI wieku te „stare” cnoty są supermocą w starciu z nowoczesną manipulacją. Na ironię, być może w walce z zaawansowaną bronią informacyjną, pomogą nam tak przyziemne praktyki jak rozmowa twarzą w twarz, wspólnotowe wartości, edukacja klasyczna.
Ostatecznie w wojnie kognitywnej stawką jest wolność umysłu. Musimy jej bronić, bo na niej opiera się demokracja, tożsamość i przyszłość człowieka w świecie coraz większej synergii z technologią. Jak padło w jednym z raportów: „cognitive dimension underpins everything” – kognitywny wymiar leży u podstaw wszystkiego. Jeśli pozwolimy go sobie odebrać lub trwale zatruć, zatrze się granica między rzeczywistością a wykreowaną iluzją. A wtedy bardzo łatwo sterować społeczeństwami ku celom sprzecznym z ich interesem.
Budowanie odporności kognitywnej to proces ciągły. Nie ma prostego lekarstwa ani pojedynczej polityki, która załatwi sprawę. Potrzeba współdziałania rządu, wojska, naukowców, firm technologicznych, mediów, szkół, rodzin – nas wszystkich. Dobra wiadomość jest taka, że świadomość problemu rośnie i na świecie podejmuje się coraz więcej inicjatyw, by mu przeciwdziałać. Polska, NATO, UE – wszyscy mamy na tym polu dużo pracy, ale też coraz większe doświadczenia, którymi możemy się dzielić.
Kończąc, pozostaje zadać pytanie: czy jesteśmy skazani na porażkę w starciu z maszyną dezinformacji? Historia uczy, że ludzkiego dążenia do prawdy nie da się tak łatwo zdławić. Wierzę, że dzięki ludzkiej inteligencji wspartej mądrze technologią, dzięki naszym wartościom i współpracy, zbudujemy odporność zdolną przetrwać najcięższe burze informacyjne. Informacja może być bronią, ale prawda i wiedza są naszym najlepszym pancerzem.
płk dr Robert Reczkowski
