Raport z ankiety: „Zagrożenie dezinformacją w wojnie hybrydowej”

23 czerwca 2025

W marcu i kwietniu 2025 roku Think Thank Innovatorium przeprowadził ankietę wśród redaktorów polskich mediów dotyczącą zagrożeń kognitywnych i dezinformacji w kontekście wojny hybrydowej, ze szczególnym uwzględnieniem roli mediów, państwa oraz tzw. Big Tech-ów (Google, Meta, Twitter, TikTok). W badaniu wzięło udział 21 respondentów – redaktorzy naczelni z mediów, czyli osoby zawodowo związane z analizą informacji z redakcji takich, jak Gazeta Wyborcza, Rzeczpospolita, Dziennik Gazeta Prawna, Polska Press, Onet, Wirtualna Polska, Tygodnik Powszechny, czy Natemat. Celem ankiety było zdiagnozowanie postrzegania skali zagrożeń, identyfikacja głównych aktorów wojny informacyjnej oraz zebranie opinii na temat pożądanych działań państwa i mediów w zakresie budowania odporności społecznej na dezinformację.

Skala i źródła zagrożeń

Większość respondentów oceniła skalę wpływu zagrożeń kognitywnych na społeczeństwo jako „wysoką” (14 odpowiedzi) lub „bardzo wysoką” (6 odpowiedzi). Tylko jedna osoba wskazała poziom „średni”. Wskazuje to na powszechne przekonanie o poważnym charakterze tego zjawiska w Polsce.

Za najważniejszego aktora wojny kognitywnej przeciwko Polsce niemal jednomyślnie uznano Rosję (19 z 21 wskazań). Dwie osoby wskazały na aktorów prywatnych, takich jak Big Tech-y czy nieformalne grupy wpływu. Wynik potwierdza dominujące w debacie publicznej przekonanie o kluczowej roli Rosji w działaniach dezinformacyjnych wymierzonych w Polskę.

Wpływ obcych państw na wybory

Pytanie o możliwość wpływu obcych państw na wynik wyborów w Polsce spotkało się z rozbieżnymi odpowiedziami. Najczęściej wybieraną odpowiedzią było „raczej tak” (10 wskazań), co świadczy o umiarkowanym, lecz wyraźnym niepokoju w tej kwestii. Znacząca liczba respondentów wybrała także odpowiedzi „nie wiem” lub „trudno powiedzieć”, co może odzwierciedlać złożoność i nieprzewidywalność tego zagadnienia.

Rola Big Tech-ów

Aż 18 osób uznało, że polityka i model biznesowy Big Tech-ów zdecydowanie sprzyjają upowszechnianiu dezinformacji. Pozostałe odpowiedzi również wskazywały na wysoką świadomość tego problemu. Respondenci podkreślali, że algorytmy promujące treści angażujące, często kosztem ich wiarygodności, są jednym z głównych mechanizmów napędzających dezinformację.

Zaangażowanie państwa i mediów

Wszyscy respondenci byli zgodni, że państwo powinno się zaangażować w budowanie odporności społeczeństwa wobec wojny kognitywnej. Najczęściej wskazywane formy zaangażowania to:

  • Edukacja medialna i cyfrowa, już od poziomu szkoły podstawowej.
  • Wzmacnianie niezależnych, profesjonalnych mediów oraz wsparcie dla dziennikarzy.
  • Tworzenie i egzekwowanie skutecznych regulacji wobec Big Techów.
  • Aktywne kampanie informacyjne skierowane do różnych grup społecznych, w tym młodzieży i seniorów.
  • Rozwijanie narzędzi technologicznych służących wykrywaniu i blokowaniu dezinformacji.

Pojawiały się także głosy za wykorzystaniem istniejących instytucji (UKE, NASK), wsparciem trzeciego sektora oraz systemowym podejściem do walki z dezinformacją.

Regulacje wobec Big Tech-ów

Zdecydowana większość respondentów (17 z 21) opowiedziała się za koniecznością regulacji działalności Big Tech-ów, by chronić procesy demokratyczne. Wśród proponowanych rozwiązań pojawiły się:

  • Rozbicie monopoli i ograniczenie wzrostu dominujących platform.
  • Wzmocnienie obowiązków dotyczących moderacji treści i transparentności algorytmów.
  • Wprowadzenie podatków i obowiązku przestrzegania lokalnego prawa prasowego.
  • Zwiększenie odpowiedzialności platform za treści publikowane przez użytkowników.
  • Wspieranie krajowych wydawców i egzekwowanie uczciwych rozliczeń z mediami.

Niektórzy respondenci wskazywali na konieczność współpracy z UE, tworzenie nowych regulatorów rynku oraz promowanie konkurencji i innowacji.

Rola i zmiany w mediach

Ponad dwie trzecie ankietowanych (15 osób) uznało, że media powinny zmienić swoje polityki redakcyjne, by skuteczniej przeciwdziałać zagrożeniom kognitywnym. Wśród rekomendacji dominowały:

  • Wdrożenie procedur fact-checkingowych, także z wykorzystaniem AI.
  • Szkolenia dziennikarzy w zakresie rozpoznawania i zwalczania dezinformacji.
  • Priorytetowe traktowanie jakości i wiarygodności informacji ponad szybkość publikacji.
  • Ograniczenie clickbaitów i nieoznaczonego użycia AI.
  • Aktywna edukacja odbiorców w zakresie krytycznego myślenia i rozpoznawania fake newsów.
  • Współpraca branżowa i solidarność w promowaniu profesjonalnych standardów dziennikarskich.

Niektórzy respondenci wskazywali, że część mediów już realizuje swoją misję i nie wymaga istotnych zmian, jednak większość była zgodna co do potrzeby podniesienia standardów i lepszego dostosowania się do nowych wyzwań.

Wnioski i rekomendacje

Analiza wyników ankiety pozwala sformułować kilka kluczowych wniosków:

  • Skala zagrożeń kognitywnych jest powszechnie uznawana za wysoką lub bardzo wysoką, a Rosja postrzegana jest jako główny aktor wojny informacyjnej przeciwko Polsce.
  • Respondenci dostrzegają realne ryzyko wpływu obcych państw na procesy demokratyczne, w tym wybory.
  • Model biznesowy Big Techó-w uznawany jest za sprzyjający dezinformacji, co rodzi potrzebę skutecznych regulacji i egzekwowania odpowiedzialności.
  • Państwo powinno aktywnie wspierać edukację medialną, niezależne media oraz wdrażać regulacje chroniące przed dezinformacją.
  • Media muszą podnosić standardy redakcyjne, wdrażać narzędzia weryfikacji informacji i edukować odbiorców.

Wyniki ankiety jednoznacznie wskazują na potrzebę systemowego podejścia do problemu dezinformacji – zarówno na poziomie państwa, jak i sektora medialnego oraz technologicznego. Kluczowe znaczenie mają tu edukacja, współpraca międzysektorowa oraz skuteczne egzekwowanie istniejących i nowych regulacji. Innovatorium planuje w listopadzie br. organizację międzynarodowej konferencji pt. "Bezpieczeństwo Kognitywne w Erze Sztucznej Inteligencji i Wojny Informacyjnej" - o szczegółach będziemy informować.


Raport oparty jest na szczegółowej analizie odpowiedzi 21 uczestników ankiety, przeprowadzonej w marcu–kwietniu 2025 roku Poniżej rozkład odpowiedzi na poszczególne pytania.





8. Jak państwo powinno się zaangażować w budowanie odporności społeczeństw wobec wojny kognitywnej?
W odpowiedzi na zagrożenia ze strony Big Tech-ów i rosnącą dezinformację ankietowani odpowiadali, że potrzebne są nowe, skutecznie egzekwowane regulacje oraz - być może - powołanie nowego regulatora rynku cyfrowego – podkreślali. Kluczowe jest wzmocnienie edukacji medialnej i cyfrowej – już od szkoły podstawowej po uczelnie – oraz prowadzenie szeroko zakrojonych kampanii informacyjnych. Państwo powinno wspierać niezależne i prodemokratyczne media, finansować trzeci sektor, rozwijać silne media publiczne oraz inwestować w narzędzia technologiczne przeciwdziałające manipulacji. Współpraca z UE powinna wymuszać na platformach cyfrowych weryfikację informacji, a politycy i instytucje publiczne powinni unikać niewiarygodnych kanałów komunikacji. Niezbędne jest także wsparcie profesjonalnych dziennikarzy i ograniczenie finansowej zależności mediów od platform społecznościowych.

10. Jak należy uregulować funkcjonowanie Big Tech, żeby uniknąć zagrożeń dla procesu demokratycznego?

Ankietowani podkreślali, że regulacje wobec Big Tech-ów powinny obejmować obowiązek płacenia podatków w Polsce, przestrzeganie lokalnego prawa i uczciwe rozliczanie się z wydawcami oraz twórcami treści. Kluczowe jest pociągnięcie platform do realnej odpowiedzialności za publikowane treści, przeciwdziałanie dezinformacji oraz większa transparentność algorytmów i sposobu gromadzenia danych. Konieczna jest też lepsza obsługa użytkowników oraz egzekwowanie przepisów dotyczących własności intelektualnej. Wskazywano także potrzebę wykorzystania AI do walki z dezinformacją, rozbijania monopoli i promowania konkurencji. Współpraca międzynarodowa, zwłaszcza z UE, powinna zapewnić, że regulacje nie będą pomijane przez platformy. Część głosów wyraża jednak sceptycyzm wobec skuteczności dotychczasowych działań i wskazuje na potrzebę eksperckiej debaty oraz nacisków ekonomicznych jako bardziej efektywnych niż same regulacje prawne.

12. Jak media powinny zmienić swój sposób działania, swoje polityki redakcyjne, żeby stać się ważnym elementem walki z zagrożeniami kognitywnymi?

- Media powinny wzmacniać swoją rolę jako źródła rzetelnej informacji poprzez priorytetowe traktowanie jakości, weryfikacji faktów i bezstronności - podkreślali ankietowani. Konieczne jest ograniczenie click baitów, jasne oznaczanie treści generowanych przez AI oraz wdrażanie protokołów fact-checkingowych – także z użyciem nowych technologii. Wskazuje się na potrzebę tworzenia specjalnych jednostek ds. dezinformacji, szkoleń dla dziennikarzy, korzystania z ekspertów oraz opracowania redakcyjnych standardów (np. na wzór AP Stylebook). Media powinny aktywnie informować o swojej misji, edukować odbiorców w zakresie krytycznego myślenia i lepiej docierać do młodszej publiczności. Konieczna jest także większa solidarność branżowa i przestrzeganie Karty Etycznej Mediów. Podnoszono też potrzebę systemowych zachęt do promowania dziennikarstwa wspierającego wartości demokratyczne, nawet kosztem rynkowej opłacalności






































































innovatorium.eu