Rok 2025 był dla Polski wyjątkowo trudny pod względem cyberbezpieczeństwa. Znaleźliśmy się w absolutnej czołówce światowej, jeśli chodzi o liczbę wykrytych ataków ransomware. Raport firmy ESET pokazuje niepokojące dane – aż 6 procent wszystkich ataków ransomware wykrytych na świecie dotyczyło naszego kraju.
To nie jest statystyka, którą można zbagatelizować. To wyraźny sygnał, że Polska stała się jednym z głównych celów międzynarodowych grup cyberprzestępczych. I właśnie ten kontekst jest kluczowy, gdy zastanawiam się, co przyniesie nam rok 2026.
Wolisz posłuchać? Nagrałam odcinek podcastu „Cyberbezpieczeństwo po ludzku” w którym omawiam tredny i predykcje na 2026. Odcinek jest dostepny na spotify, apple podcast i youtube: https://youtu.be/pGffrZTb_TQ?si=0KA9tRuOothcG1Fl
Dlaczego Polska pozostanie w czołówce celów ataków?
Patrząc na nadchodzące dwanaście miesięcy, nie widzę powodów do optymizmu. Wręcz przeciwnie – jestem przekonana, że ten trend się utrzyma, a być może nawet nasili.
Dlaczego? Powodów jest kilka, ale najważniejszy to prosty rachunek ekonomiczny przestępców. Ransomware to dla nich niezwykle opłacalny model biznesowy. Koszty ataku są relatywnie niskie, a potencjalne zyski ogromne. A Polska? Polska jest rynkiem dynamicznie rozwijającym się, coraz zamożniejszym. Mamy rosnącą liczbę średnich i dużych przedsiębiorstw, które są w stanie zapłacić okup.
To naturalnie przyciąga grupy cyberprzestępcze. One dokładnie obserwują, gdzie pieniądze są, a gdzie niestety wciąż oszczędza się na zabezpieczeniach. I my jesteśmy dla nich idealnym celem.
Sztuczna inteligencja zmienia zasady gry
Wyścig zbrojeń nowej ery
Nie można mówić o perspektywach na rok 2026 bez sztucznej inteligencji. Spodziewam się, że nastąpi dalszy, dynamiczny wzrost wykorzystania AI zarówno po stronie atakujących, jak i broniących się.
To wyścig zbrojeń nowej ery, gdzie przewaga technologiczna może zadecydować o wszystkim.
Phishing na sterydach – personalizacja na niespotykanym poziomie
Widzę po stronie cyberprzestępców dwa kluczowe trendy związane z AI. Pierwszy to generowanie phishingu najwyższej jakości.
I nie mówimy tu już o niezdarnych wiadomościach z błędami ortograficznymi i dziwną składnią. AI potrafi teraz tworzyć perfekcyjne emaile, dostosowane do kontekstu, kultury organizacyjnej, a nawet stylu komunikacji konkretnych osób. Spearphishing – czyli phishing wymierzony precyzyjnie w konkretne osoby – osiągnie nowy poziom zaawansowania.
Prezesi, dyrektorzy finansowi, księgowe dużych firm staną się celami ataków tak spersonalizowanych, że odróżnienie ich od prawdziwej korespondencji będzie graniczyło z cudem. Dosłownie.
Deepfake’i przestają być science fiction
Drugi trend to gwałtowny wzrost znaczenia voice phishingu oraz pełnego video cloningu z obrazem i dźwiękiem.
Technologia deepfake’ów przestaje być ciekawostką z konferencji technologicznych, a staje się codziennym narzędziem w rękach przestępców. Wyobraźmy sobie sytuację: księgowa otrzymuje telefon od prezesa firmy, którego głos brzmi identycznie jak w rzeczywistości. Albo wideopolączenie, na którym widzi jego twarz i mimikę. Prosi o pilny przelew w związku z nową inwestycją.
Jak się bronić przed czymś takim? Te ataki będą trudne do wykrycia nawet dla doświadczonych specjalistów, którzy teoretycznie wiedzą, że coś takiego jest możliwe.
Autonomiczni agenci AI – nowy poziom zagrożenia
Jest jednak coś jeszcze bardziej niepokojącego. W roku 2025 pojawiły się pierwsze platformy pozwalające agentom AI samodzielnie wybierać ofiary, oceniać ich potencjał finansowy, wyszukiwać proste podatności w infrastrukturze, pisać exploity lub korzystać z gotowych bibliotek, a następnie autonomicznie prowadzić pełny atak.
To nie jest science fiction. To rzeczywistość, która już się dzieje. I ten trend będzie niewątpliwie rósł w roku 2026.
Dramatyczne obniżenie progu wejścia do cyberprzestępczości
Co to oznacza? Demokratyzację cyberprzestępczości na niespotykaną dotąd skalę.
Do przeprowadzenia skutecznego ataku nie będzie już potrzebna głęboka wiedza techniczna ani doświadczenie. Wystarczy dostęp do odpowiedniej platformy AI, która zrobi wszystko za ciebie. Bariera wejścia obniża się drastycznie, nie tylko pod względem finansowym, ale również wiedzy dotyczącej informatyki czy cyberbezpieczeństwa.
A to oznacza, że liczba potencjalnych atakujących może wzrosnąć wielokrotnie. Znani z przeszłości „script kiddies” będą expertami na tle innych amatorów.
AI jako tarcza, nie tylko miecz
Na szczęście sztuczna inteligencja to broń obosieczna.
Producenci rozwiązań bezpieczeństwa doskonale zdają sobie sprawę z potencjału AI i będą masywnie inwestować w wykorzystanie tej technologii po stronie obrony.
Konsolidacja narzędzi i analiza w czasie rzeczywistym
Kluczowym trendem będzie konsolidacja narzędzi – łączenie jak największej liczby źródeł danych z różnych systemów, sensorów, logów i analizowanie ich przez zaawansowane modele AI w czasie rzeczywistym.
To może dać obrońcom realną przewagę.
AI potrafi wykrywać anomalie i wzorce, które dla człowieka byłyby niewidoczne w morzu danych. Nowoczesne systemy będą mogły korelować zdarzenia z różnych systemów, przewidywać ataki zanim staną się one oczywiste, automatycznie reagować na incydenty. Organizacje, które zainwestują w takie rozwiązania i nauczą się je efektywnie wykorzystywać, będą miały szansę utrzymać krok z rosnącym zagrożeniem.
Nowe ryzyka związane z LLM-ami
Jest jednak jeszcze jeden obszar, o którym musimy mówić. Chodzi o rosnące ryzyka związane z wykorzystaniem dużych modeli językowych, czyli LLM-ów.
Jailbreaki i prompt injection – nowe wektory ataku
Użytkownicy – zarówno zwykli ludzie, jak i specjaliści – odkrywają coraz więcej technik oszukiwania tych modeli.
Jailbreaki, czyli metody omijania wbudowanych zabezpieczeń, stają się coraz bardziej wyrafinowane. Coraz częściej pojawia się prompt injection umieszczane na stronach internetowych czy techniki wstawiania ukrytych poleceń białą czcionką, które są niewidoczne dla człowieka, ale model je odczytuje i wykonuje.
Nawet komercyjne i korporacyjne modele językowe można próbować manipulować. Nie mówimy tu tylko o eksperymentach hakerów pojawiających się w darknecie. To realne zagrożenie dla firm, które integrują LLM-y ze swoimi systemami, bazami danych, procesami biznesowymi. Wyobraźmy sobie sytuację, gdy ktoś poprzez sprytnie skonstruowane zapytanie zmusza model do ujawnienia wrażliwych danych lub wykonania nieautoryzowanych operacji.
Nowy rynek dla rozwiązań zabezpieczających
Widzę w tym zarówno potencjał dla firm tworzących rozwiązania zabezpieczające przed takim nadużyciem – to będzie rosnący rynek z dużym popytem – jak i nowe, poważne źródło ryzyka, które staje się coraz ważniejsze dla działów cyberbezpieczeństwa.
Organizacje będą musiały opracować nowe polityki, procedury i narzędzia techniczne, aby bezpiecznie korzystać z potencjału LLM-ów, nie narażając się jednocześnie na nowe typy ataków.
Odważna przepowiednia na koniec: AI vs AI
A na koniec pozwolę sobie na jedną bardzo odważną prognozę.
Uważam, że w roku 2026 zobaczymy pierwszy poważny, nagłośniony medialnie incydent, w którym systemy AI dwóch stron konfliktu – atakującej i broniącej się – będą ze sobą walczyć w czasie rzeczywistym, bez bezpośredniej interwencji człowieka.
AI atakującego będzie próbowało adaptować swoje metody w odpowiedzi na działania AI obrońcy, a ten z kolei będzie dynamicznie modyfikował strategie obronne. Będzie to coś w rodzaju szachowej partii, tylko rozgrywanej z prędkością maszyn, gdzie stawką będą prawdziwe pieniądze i dane.
To może zabrzmieć futurystycznie, ale wszystkie elementy technologiczne są już na miejscu. Kwestia czasu, kiedy ktoś je połączy w praktyce.
I wtedy będziemy musieli na nowo przemyśleć, czym w ogóle jest cyberbezpieczeństwo w erze autonomicznej sztucznej inteligencji.

0 komentarzy