AI vs AI w cyberbezpieczeństwie. Hakerzy używają ChatGPT. Ty też powinieneś

lut 24, 2026 | 0 komentarzy

Cyberprzestępcy wykorzystują sztuczną inteligencję do przeprowadzania coraz bardziej wyrafinowanych ataków i robią to skuteczniej niż kiedykolwiek. Czy Twoja firma jest gotowa walczyć tą samą bronią? Jak wykorzystać AI w cyberbezpieczeństwie?

W jaki sposób hakerzy wykorzystują ChatGPT do ataków?

W pierwszej połowie 2025 roku Polska zajęła pierwsze miejsce na świecie pod względem liczby wykrytych ataków ransomware. Według danych ESET w naszym kraju doszło do 6% wszystkich globalnych incydentów, wyprzedziliśmy nawet Stany Zjednoczone. Co stoi za tą eskalacją zagrożeń? Odpowiedź brzmi: sztuczna inteligencja w rękach przestępców.

Raport opublikowany przez OpenAI w październiku 2024 roku ujawnił niepokojące fakty. Firma została zaatakowana ponad 20 razy przez hakerów sponsorowanych przez rządy Iranu i Chin. Jak wskazali analitycy OpenAI, grupy takie jak CyberAv3ngers wykorzystywały ChatGPT do prowadzenia rozpoznania, identyfikowania luk w zabezpieczeniach systemów przemysłowych oraz unikania wykrycia po udanym włamaniu.

Jeszcze bardziej alarmujący był przypadek z września 2025 roku opisany przez Anthropic. Chińska grupa hakerska oznaczona jako GTG-1002 przeprowadziła pierwszą udokumentowaną kampanię cyberszpiegowską, w której AI samodzielnie znajdowało podatności, pisało kod exploita i wykradało dane. Atakujący wykorzystali technikę socjotechnicznego jailbreaka, przekonując model, że jest pracownikiem firmy przeprowadzającej legalne testy penetracyjne.

Według raportu KELA z 2025 roku liczba wzmianek o złośliwych narzędziach AI na forach cyberprzestępczych wzrosła o 200%. Na czarnym rynku funkcjonują wyspecjalizowane modele językowe pozbawione zabezpieczeń etycznych, takie jak FraudGPT czy WormGPT, które pozwalają osobom pozbawionym wiedzy technicznej przeprowadzać skuteczne ataki.

Dlaczego phishing wspomagany przez AI jest groźniejszy?

Ministerstwo Cyfryzacji odnotowało w 2024 roku ponad 627 tysięcy zgłoszeń dotyczących naruszeń bezpieczeństwa systemów teleinformatycznych – wzrost o 60% w porównaniu do roku poprzedniego. Znacząca część tej statystyki to efekt ewolucji phishingu.

Tradycyjne wiadomości phishingowe można było rozpoznać po błędach językowych, dziwnej składni czy podejrzanych załącznikach. Dzisiejsze ataki generowane przez AI eliminują te słabości. Modele językowe tworzą spersonalizowane wiadomości dostosowane do stanowiska odbiorcy, jego branży i kontekstu organizacyjnego. Według danych Exorigo-Upos w 2024 roku odnotowano wzrost o 442% liczby ataków wykorzystujących techniki inżynierii społecznej wspomagane przez generatywną AI.

Szczególnie niebezpieczne stały się ataki typu Business Email Compromise z wykorzystaniem deepfake. Firma ARUP z Hongkongu straciła w 2024 roku około 25 milionów dolarów. Pracownik został oszukany podczas wideokonferencji z syntetycznym obrazem dyrektora finansowego. Według badań Yubico z 2025 roku aż 70% specjalistów ds. bezpieczeństwa IT potwierdza, że AI zwiększyło skuteczność ataków phishingowych.

Jak wykorzystać AI w cyberbezpieczeństwie?

Według badania EY z 2025 roku polskie firmy coraz intensywniej wdrażają AI w obszarze cyberbezpieczeństwa, wykorzystanie tej technologii wzrosło z 28% do 40% w ciągu roku. Nowoczesne systemy oparte na AI wykrywają anomalie w ruchu sieciowym w czasie rzeczywistym, identyfikując podejrzane wzorce zachowań zanim dojdzie do włamania.

Istnieją też wyspecjalizowane narzędzia do walki z deepfake’ami. Intel opracował platformę FakeCatcher analizującą zmiany koloru w żyłach twarzy spowodowane przepływem krwi. Technika ta pozwala odróżnić prawdziwego człowieka od syntetycznego obrazu. Microsoft oferuje Video Authenticator wykrywający niewidoczne gołym okiem ślady manipulacji. Według raportu Capgemini aż 75% organizacji planowało wdrożenie narzędzi AI wspomagających bezpieczeństwo w 2025 roku.

Automatyzacja reakcji na incydenty to kolejny obszar, gdzie AI przynosi wymierne korzyści. Systemy SOAR mogą autonomicznie blokować podejrzane działania i izolować zagrożone zasoby, działając całą dobę i znacząco skracając czas reakcji na atak.

Czy szkolenia pracowników nadal mają sens?

Raport „Cyberportret polskiego biznesu 2025″ przygotowany przez ESET i DAGMA ujawnił, że 58% polskich pracowników nie wie, czym jest deepfake, a prawie 20% udostępnia narzędziom AI wrażliwe dane firmowe. Ponad połowa pracowników w Polsce nie odbyła żadnego szkolenia z cyberbezpieczeństwa w ciągu ostatnich pięciu lat.

Szkolenia muszą jednak ewoluować. Pracownicy potrzebują edukacji w zakresie mechanizmów psychologicznych wykorzystywanych przez atakujących, rozpoznawania manipulacji oraz zasad weryfikacji tożsamości w komunikacji cyfrowej. Według prognoz Gartnera organizacje łączące technologię z programami budowania kultury bezpieczeństwa doświadczą o 40% mniej incydentów spowodowanych przez pracowników do końca 2026 roku.

Co powinny zrobić firmy, żeby przygotować się na atak w 2026 roku?

Raport Cisco wskazuje, że jedynie 3% polskich organizacji osiągnęło najwyższy poziom cybergotowości, podczas gdy 86% doświadczyło incydentów związanych z AI w ostatnim roku. Budowanie odporności wymaga inwestycji w narzędzia wykorzystujące uczenie maszynowe, regularnych szkoleń uwzględniających nowe zagrożenia oraz wdrożenia procedur weryfikacji tożsamości.

Wyścig między atakującymi a obrońcami trwa i będzie się nasilał. Firmy, które zrozumieją, że AI to zarówno zagrożenie, jak i narzędzie obrony, mają szansę wyjść z tego starcia wzmocnione.

Przeczytaj również:

0 komentarzy

Wyślij komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Joanna Wziątek
Przegląd prywatności

Ta strona korzysta z ciasteczek, aby zapewnić Ci najlepszą możliwą obsługę. Informacje o ciasteczkach są przechowywane w przeglądarce i wykonują funkcje takie jak rozpoznawanie Cię po powrocie na naszą stronę internetową i pomaganie naszemu zespołowi w zrozumieniu, które sekcje witryny są dla Ciebie najbardziej interesujące i przydatne.