DEEPFAKE AI - CO OZNACZA DLA POLSKICH FIRM?

Technologia deepfake AI w ciągu ostatniego roku przestała być futurystycznym zagrożeniem, a stała się realnym, kosztownym problemem dla globalnego i polskiego biznesu. Rozwój sztucznej inteligencji przyniósł wiele nowych możliwości, ale jednocześnie znacząco zwiększył możliwości cyberprzestępców. W obliczu tych zagrożeń, kluczowe wsparcie informatyczne firm i regularne audyty stają się pierwszą linią obrony. Najnowsze dane są alarmujące: firmy w Polsce zmagają się z ogromnymi lukami kompetencyjnymi, które sprawiają, że to czynnik ludzki jest najsłabszym ogniwem w obronie przed atakami.

 

Jako JNS specjaliści od cyberbezpieczeństwa, analizujemy najnowsze trendy i dane (m.in. z raportu „Cyberportret polskiego biznesu 2025”) i ostrzegamy: brak wiedzy o deepfake AI bezpośrednio zagraża płynności finansowej i reputacji Twojej organizacji.

Alarmujące statystyki: 58% nie wie, czym jest Deepfake AI

Głównym wektorem ataku dla zaawansowanych oszustw jest niska świadomość pracowników. Dane z raportu ESET i DAGMA Bezpieczeństwo IT rzucają światło na skalę problemu:

58% zatrudnionych w Polsce nie zna terminu „deepfake”. Oznacza to, że ponad połowa pracowników pozostaje nieświadomych tego zagrożenia. Tylko 42% pracowników deklaruje znajomość tego pojęcia.
• Blisko jedna trzecia pracowników (30%) przyznała, że uznała treść wideo lub obraz stworzone przez AI za autentyczną. Niemal tyle samo (29%) nie potrafiło ocenić ich autentyczności.
• Nagrania audio generowane przez AI również wprowadzają użytkowników w błąd – 27% badanych uznało je za wiarygodne.
• Niemal co piąta osoba (19%) przyznała, że w pracy zawodowej udostępniała narzędziom AI, takim jak ChatGPT czy Gemini, dane wrażliwe firmy, obejmujące m.in. informacje finansowe, dane klientów oraz dokumenty objęte tajemnicą.

Niska rozpoznawalność zjawisk takich jak deepfake AI zwiększa ryzyko, że fałszywe komunikaty nie zostaną zidentyfikowane jako potencjalne zagrożenie, co ma realne konsekwencje na poziomie operacyjnym i reputacyjnym.

Deepfake AI w praktyce – straty liczone w milionach

Technologia deepfake AI jest coraz częściej wykorzystywana przez cyberprzestępców do fałszowania komunikatów głosowych i wizualnych. Skutki finansowe tych oszustw są dramatyczne:

 

• Udokumentowane globalne straty finansowe z powodu deepfake’ów przekroczyły 200 milionów dolarów w samym pierwszym kwartale 2025 roku.


• W jednym udokumentowanym przypadku, firma w Singapurze straciła 25 milionów dolarów, gdy pracownik uległ deepfake'owi udającemu dyrektora finansowego i innych czołowych menedżerów podczas wideokonferencji. W innym alarmującym przypadku, dyrektor firmy stracił blisko pół miliona dolarów po oszustwie na Zoomie, gdzie wszyscy rozmówcy byli wygenerowani przez AI.


• Manipulacje twarzy są tak dopracowane, że 68% deepfake’ów wideo jest nie do odróżnienia od prawdziwych nagrań.


• Prognozy są pesymistyczne: przewiduje się, że oszustwa napędzane przez generatywną AI mogą osiągnąć 40 miliardów dolarów w USA do 2027 roku.


• Chociaż phishing pozostaje najpopularniejszą techniką (36% firm doświadczyło go w ciągu ostatnich 12 miesięcy), to eksperci obawiają się przede wszystkim utraty danych firmowych (34%) oraz strat finansowych (30%) jako najpoważniejszych potencjalnych konsekwencji cyberataków.

Edukacja, która nie nadąża za zagrożeniem AI

W obliczu tak wyrafinowanych zagrożeń, kluczowa jest edukacja, ponieważ to człowiek – jego wiedza oraz nawyki i reakcje – stanowi pierwszą linię obrony. Tymczasem:

• Aż 55% pracowników w Polsce nie odbyło żadnego szkolenia z cyberbezpieczeństwa w ciągu ostatnich pięciu lat. Odsetek ten jest wyższy niż w poprzednim roku, co wskazuje na duży deficyt wiedzy.

• Tematy związane z nowoczesnymi zagrożeniami, zwłaszcza zagrożeniami AI, są poruszane rzadko – na szkoleniach poświęconych cyberzagrożeniom generowanym przez AI uczestniczyło jedynie 28% badanych.

Małe i średnie firmy (MŚP) padają ofiarą cyberataków aż czterokrotnie częściej niż duże organizacje, a jednocześnie to pracownicy najmniejszych organizacji najrzadziej biorą udział w szkoleniach.

• Szkolenia, które są organizowane, skupiają się na tradycyjnych obszarach, takich jak procedury firmowe (59%) i ochrona danych osobowych (56%), co oznacza, że tematyka nie nadąża za tempem zmian. Nawet najbardziej świadomi pracownicy mogą popełniać błędy, jeśli nie towarzyszą im utrwalone nawyki.

Strategia JNS: Jak wdrożyć ochronę Deepfake AI w Twojej firmie?

W obliczu deepfake AI, zaufanie do komunikacji audio i wideo nie może być brane za pewnik. JNS specjaliści od cyberbezpieczeństwa i kluczowego wsparcia informatycznego firm rekomendują wielowarstwową strategię obrony (tzw. walka ogniem w ogień: AI z AI):

 

1. Zero Trust (Zasada Zero Zaufania)

Należy wymagać wielokanałowej weryfikacji dla krytycznych operacji, ponieważ zaufanie do tego, co widzimy i słyszymy, nie może być już gwarantowane. Konieczne jest ciągłe uwierzytelnianie użytkownika, które odróżnia go od deepfake’ów i botów. Obecnie tylko 38% firm stosuje uwierzytelnianie wieloskładnikowe (MFA).

 

2. Uświadamianie i Kultura Czujności

Należy wdrożyć ciągłe programy uświadamiające, które budują w personelu "instynktowną odporność" na media. Kluczowe jest stworzenie kultury czujności, w której każdy pracownik jest nauczony, by spowalniać, weryfikować i krytycznie podchodzić do wszystkich komunikatów wideo i audio przed podjęciem jakichkolwiek krytycznych działań.

 

3. Zgłaszanie Incydentów

Budowanie kultury organizacyjnej, która sprzyja zgłaszaniu wszelkich niepokojących sygnałów. Jest to kluczowe, ponieważ aż 17% pracowników, którzy doświadczyli cyberataku w pracy, nikogo o tym nie poinformowało.

FAQ – Najczęściej Zadawane Pytania (deepfake AI)

1. Co to jest deepfake AI i dlaczego zagraża firmom?

Deepfake AI to wysoce realistyczne, lecz fałszywe treści (wideo, obraz, nagrania głosowe) generowane przez sztuczną inteligencję. Zagraża firmom, ponieważ jest wykorzystywany do oszustw socjotechnicznych i kradzieży tożsamości, umożliwiając cyberprzestępcom podszywanie się pod dyrektorów. Aż 58% pracowników w Polsce nie zna tego terminu.

 

2. Jakie są największe luki w bezpieczeństwie polskich firm związane z Deepfake AI?

Główną luką jest czynnik ludzki i edukacja. Aż 55% pracowników nie odbyło żadnego szkolenia z cyberbezpieczeństwa w ciągu ostatnich 5 lat. Ponadto, 19% pracowników przyznało się do udostępniania narzędziom AI (takim jak ChatGPT) danych wrażliwych firmy.

 

3. Jakie są potencjalne straty finansowe z powodu Deepfake AI?

Straty finansowe z powodu deepfake'ów są znaczące; globalnie udokumentowane oszustwa przekroczyły 200 milionów dolarów w Q1 2025 roku. Jeden udokumentowany incydent kosztował firmę w Singapurze 25 milionów dolarów. Straty finansowe są uznawane za drugą najpoważniejszą konsekwencję cyberataków przez 30% ekspertów.

 

4. Jak firma JNS może chronić się przed atakami deepfake?

Skuteczna ochrona wymaga strategii wielowarstwowej. Kluczowe jest wdrożenie zasad Zero Trust i wymaganie MFA (stosowane przez 38% firm).

Jednak najważniejsza jest precyzyjna diagnoza potrzeb. Po przeprowadzeniu audytu, specjaliści ds. cyberbezpieczeństwa z JNS opracowują i dopasowują kompleksowe rozwiązania IT pod konkretne, unikalne potrzeby i realia finansowe danej firmy. W ten sposób strategia obrony jest nie tylko zaawansowana technologicznie, ale i maksymalnie skuteczna operacyjnie.

 

5. Czy małe i średnie firmy (MŚP) są bardziej zagrożone przez Deepfake AI?

Tak. Małe i średnie firmy (MŚP) padają ofiarą cyberataków aż czterokrotnie częściej niż duże organizacje. Pracownicy najmniejszych organizacji najrzadziej uczestniczą w szkoleniach, co potęguje zagrożenie, ponieważ oszustwa stały się tanie i łatwe do przeprowadzenia przez agentic AI.



Źródła:
ESET Polska i DAGMA Bezpieczeństwo IT: Raport „Cyberportret polskiego biznesu 2025”
https://www.esecurityplanet.com/news/ai-deepfakes-surge-200-million-lost/ 
https://edition.cnn.com/2025/10/07/business/video/deepfake-scam-ai-zoom-call-digvid 
https://www.newsweek.com/nw-ai/ai-deepfakes-are-forcing-companies-to-rebuild-trust-11007197