„Czarna lista” – 5 danych, których NIGDY nie podajesz narzędziom AI

gru 16, 2025 | 0 komentarzy

Historia, która mogła przydarzyć się każdemu z nas

Zadzwonił do mnie znajomy. Dyrektor finansowy w średniej firmie produkcyjnej. Powiedział, że ma „dziwną sytuację” i czy mogę rzucić okiem.

Okazało się, że jego asystentka – naprawdę bystra dziewczyna – dostała zadanie przygotowania zestawienia płac dla zarządu. Miała mało czasu, więc wrzuciła całą tabelkę do ChatGPT z prośbą o „ładne sformatowanie i podsumowanie”.

W tej tabelce były: imiona i nazwiska wszystkich pracowników, ich PESEL-e, kwoty wynagrodzeń i numery kont bankowych.

Wszystko. W jednym promptcie.

Zapytałam ją potem, dlaczego to zrobiła. Odpowiedziała szczerze: „Bo to szybsze niż Excel. I nie pomyślałam, że to problem.”

I właśnie o tym jest ten artykuł. O rzeczach, które wydają się niewinne – a mogą skończyć się naprawdę źle.

Dlaczego warto czytać ten blog?

Piszę o cyberbezpieczeństwie od lat. Prowadzę szkolenia dla zarządów, rozmawiam z prezesami, dyrektorami IT i „zwykłymi” pracownikami. I wiem jedno: większość ludzi nie ma pojęcia, co tak naprawdę dzieje się z danymi, które wpisują do ChatGPT, Claude’a czy Gemini.

Nie dlatego, że są głupi. Dlatego, że nikt im tego nie powiedział.

Na tym blogu tłumaczę cyberbezpieczeństwo po ludzku. Bez żargonu, bez straszenia, za to z konkretnymi przykładami i praktycznymi wskazówkami. Jeśli po przeczytaniu tego artykułu zmienisz choć jeden nawyk – misja wykonana.

A jeśli chcesz, żebym przeprowadziła takie szkolenie dla Twojego zespołu – napisz. Dopasuję temat do Waszych potrzeb.

Co tak naprawdę dzieje się z Twoimi danymi w AI?

Zanim przejdziemy do „czarnej listy”, wyjaśnijmy jedną rzecz.

Kiedy wpisujesz coś do ChatGPT, Claude’a czy Gemini – te dane trafiają na serwery firmy, która stworzyła narzędzie. OpenAI, Anthropic, Google. I co się z nimi dzieje?

Trzy scenariusze:

Scenariusz 1: Trening modelu Domyślnie większość narzędzi AI używa Twoich rozmów do „ulepszania modelu”. Co to znaczy? Że fragmenty Twoich rozmów mogą – teoretycznie – wpłynąć na to, jak AI odpowiada innym użytkownikom.

Badacze z Google DeepMind pokazali, że można wyciągnąć z modeli AI dosłowne fragmenty danych treningowych. W tym numery telefonów i adresy email prawdziwych osób.

Scenariusz 2: Przegląd przez ludzi Wszystkie duże firmy AI zastrzegają sobie prawo do przeglądania rozmów „flagowanych przez systemy bezpieczeństwa”. Twoje rozmowy może czytać człowiek.

Scenariusz 3: Wyciek przez błąd W marcu 2023 roku błąd w ChatGPT sprawił, że użytkownicy zaczęli widzieć fragmenty cudzych rozmów. Tytuły czatów, pierwsze wiadomości, a w niektórych przypadkach – imiona, nazwiska i ostatnie 4 cyfry kart kredytowych.

OpenAI przyznało, że dotyczyło to 1,2% użytkowników płatnych. Przy setkach milionów użytkowników – to miliony osób.

Ile osób naprawdę wkleja poufne dane?

Badanie firmy Cyberhaven pokazało, że 11% wszystkich danych wklejanych do ChatGPT przez pracowników to dane poufne. Kod źródłowy, dane klientów, dokumenty wewnętrzne.

Nowsze badanie z 2025 roku idzie dalej: 77% pracowników przyznaje, że wkleja do narzędzi AI dane poufne.

I nie, to nie są ludzie nieodpowiedzialni. To są ludzie, którzy chcą pracować szybciej. Tak jak ta asystentka mojego znajomego.

„Czarna lista” – 5 rodzajów danych, które musisz trzymać z dala od AI

1. Dane identyfikacyjne: PESEL, numer dowodu, data urodzenia

To jest numer jeden na liście. I powiem Ci dlaczego.

W Polsce istnieje coś takiego jak „dowód kolekcjonerski”. Teoretycznie to pamiątka, gadżet. W praktyce – wygląda identycznie jak prawdziwy dowód osobisty, ma hologramy, ma wszystkie pola. Różnica? Zamiast Twojego zdjęcia jest zdjęcie przestępcy. Zamiast Twojego podpisu – jego podpis.

Taki dowód kosztuje 500-900 złotych i można go zamówić w internecie.

Co jest potrzebne do zamówienia? Twoje dane: imię, nazwisko, PESEL, numer dowodu, data urodzenia, adres.

Co może zrobić przestępca z kompletem Twoich danych?

Historia pana Józefa z Warszawy (opisana przez Gazetę Wyborczą): złodziej przyszedł z „dowodem kolekcjonerskim” do salonu operatora, wyrobił duplikat karty SIM. Z tą kartą przejął dostęp do bankowości. Efekt? 1,1 miliona złotych skradzionych z konta plus 9 kredytów na 40 tysięcy złotych zaciągniętych na dane ofiary.

Inna historia – rodzina Gibalskich ze Stargardu. Ktoś zaciągnął na ich dane 8 pożyczek na ponad 100 000 złotych. Podpis sfałszowany, adres i telefon nieprawdziwe. Ale komornik i tak zapukał do ich drzwi.

Skąd przestępcy biorą te dane?

Z wycieków. Z phishingu. Z „pomocnych” formularzy online. I coraz częściej – z narzędzi AI, do których ktoś wpisał swoje dane „żeby szybciej wypełnić wniosek”.

Czego konkretnie NIE wpisujesz do AI?

  • PESEL
  • Numer i seria dowodu osobistego
  • Data i miejsce urodzenia
  • Imiona rodziców (często używane do weryfikacji!)
  • Numer paszportu
  • Adres zameldowania

Wskazówka praktyczna: Jeśli chcesz, żeby AI pomogło Ci wypełnić jakiś formularz – wpisz dane fikcyjne (Jan Kowalski, PESEL 00000000000), a prawdziwe uzupełnij ręcznie. Naprawdę – to 30 sekund więcej pracy.


2. Dane medyczne: diagnozy, wyniki badań, historia chorób

Ten punkt jest mi szczególnie bliski, bo dużo pracuję z sektorem ochrony zdrowia.

Dane medyczne to jedne z najbardziej wrażliwych informacji, jakie istnieją. Mogą być użyte do szantażu, do wyłudzenia ubezpieczenia, do dyskryminacji przy zatrudnieniu.

A ludzie wrzucają je do AI z zaskakującą beztroską.

Prawdziwe przypadki

Badanie Cyberhaven opisało przypadek lekarza, który wpisał do ChatGPT imię pacjenta i diagnozę, żeby chatbot wygenerował pismo do ubezpieczyciela. „Bo szybciej”.

W szpitalu w Ontario w Kanadzie doszło do absurdalnej sytuacji. Lekarz, który już nie pracował w tym szpitalu, miał na prywatnym telefonie aplikację Otter.ai do transkrypcji. Bot z aplikacji automatycznie „dołączył” do wideokonferencji lekarzy, nagrał całe spotkanie i rozesłał transkrypcję z danymi pacjentów do 65 osób – w tym 12, które dawno odeszły ze szpitala.

Nikt tego nie planował. Aplikacja po prostu „zrobiła swoje”.

Skala problemu w healthcare

Raport Netskope z 2025 roku pokazuje, że 71% pracowników sektora zdrowia używa osobistych kont AI do pracy. Nie firmowych, z zabezpieczeniami, ale swoiich osobistych.

81% naruszeń polityki bezpieczeństwa w służbie zdrowia dotyczy danych regulowanych prawnie.

A w samych USA w 2024 roku wycieki danych medycznych dotknęły 182,4 miliona osób.

Czego NIE wpisujesz do AI?

  • Nazwisk pacjentów (swoich lub cudzych)
  • Diagnozy i wyników badań
  • Historii chorób
  • Recept z danymi osobowymi
  • Dokumentacji medycznej

Wskazówka praktyczna: Jeśli musisz użyć AI do celów medycznych – anonimizuj. Zamiast „Jan Kowalski, 45 lat, cukrzyca typu 2″ napisz „pacjent X, mężczyzna 40+, choroba metaboliczna”. AI i tak Ci pomoże.


3. Zdjęcia dokumentów: dowody, paszporty, dyplomy, świadectwa

Ludzie myślą, że zdjęcie dokumentu to „tylko obrazek”. Że AI „nie rozumie”, co jest na zdjęciu.

Otóż rozumie. I to bardzo dobrze.

Systemy AI potrafią świetnie czytać dokumenty. OCR (rozpoznawanie tekstu) działa coraz lepiej. Kiedy wrzucasz zdjęcie swojego dowodu, AI widzi wszystko: dane osobowe, numer dokumentu, PESEL, wzór podpisu, hologramy.

I te dane trafiają na serwery firmy AI.

Co może zrobić przestępca ze zdjęciem Twojego dokumentu?

  • Stworzyć realistyczny fałszywy dokument
  • Otworzyć konto bankowe online (wiele banków akceptuje selfie + skan dokumentu)
  • Wziąć chwilówkę (niektóre firmy akceptują sam skan)
  • Zawrzeć umowę na telefon
  • Kupić coś na raty

Czego NIE wrzucasz do AI?

  • Zdjęć/skanów dowodu osobistego
  • Zdjęć/skanów paszportu
  • Prawa jazdy
  • Legitymacji
  • Dyplomów i świadectw (uwaga: zawierają PESEL!)
  • Aktów notarialnych
  • Odpisów z USC

Wskazówka praktyczna: Jeśli AI prosi o „dokument do analizy” – odmów. Opisz słownie, o co chodzi. „Mam dokument X, który zawiera informacje Y” – to wystarczy.


4. Umowy firmowe: kontrakty, NDA, dane klientów i kontrahentów

Ten punkt boli mnie najbardziej, bo widziałam to na własne oczy wielokrotnie.

Ludzie wrzucają do AI umowy z klientami. Dokumenty strategiczne. Listy kontrahentów z cenami.

A potem się dziwią, że konkurencja „jakoś wie” o ich planach.

Przypadek Samsunga – studium przypadku

Samsung pozwolił pracownikom używać ChatGPT. W ciągu 20 dni doszło do trzech poważnych wycieków:

  1. Inżynier wkleił kod źródłowy chipów – prosił o pomoc w debugowaniu
  2. Inżynier wkleił procedury testowania – tajemnica handlowa warta miliony
  3. Pracownik nagrał spotkanie firmowe, przepisał i wrzucił do AI – żeby zrobić „ładne podsumowanie”

Samsung natychmiast zakazał używania AI w firmie.

Ale ile firm nie ma Samsunga w nazwie i nigdy się nie dowie, że ich dane wyciekły?

Inne przypadki

Badanie LayerX z 2024 roku pokazuje, że 43% poufnych danych wpisywanych do AI to wewnętrzne dane biznesowe. 31% to kod źródłowy.

Jeden z executive’ów (nie podano firmy) wkleił do ChatGPT dokument strategii firmy na 2023 rok, żeby AI zrobiło z tego prezentację PowerPoint.

Strategię firmy wkleił do publicznego AI.

Czego NIE wpisujesz do AI?

  • Umów z klientami i kontrahentami
  • NDA (ironia: umowa o poufności wrzucona do publicznego narzędzia)
  • Danych finansowych firmy
  • Strategii i planów biznesowych
  • List klientów i dostawców
  • Ofert handlowych z cenami
  • Wewnętrznej korespondencji
  • Protokołów ze spotkań zarządu

Wskazówka praktyczna: Jeśli musisz użyć AI do pracy z dokumentami firmowymi – rozważ wersję Enterprise (ChatGPT Enterprise, Claude for Work). Tam są gwarancje, że dane nie idą do treningu. Albo porozmawiaj ze mną – pomogę dobrać rozwiązanie.


5. Hasła, kody dostępu, klucze API

To wydaje się oczywiste, prawda? Kto wpisuje hasło do chatbota?

Otóż ludzie wpisują. I to częściej, niż myślisz.

Jak to wygląda w praktyce?

  • „Zapomniałem hasła do… Ostatnio używałem czegoś jak ABC123, możesz mi pomóc przypomnieć?”
  • „Ten kod 2FA nie działa: 847291 – wiesz może dlaczego?”
  • „Mój klucz API to sk-abc123xyz… – sprawdź, czy jest poprawny”
  • „Fraz seed do portfela to: apple banana cherry… – czy to bezpieczne miejsce do przechowywania?”

Tak, ludzie to robią. Widziałam takie rzeczy na szkoleniach, kiedy pokazuję historię rozmów.

Dlaczego to niebezpieczne?

W 2023 roku na dark webie pojawiło się ponad 225 000 zestawów loginów do ChatGPT – skradzionych przez malware typu Raccoon, Vidar i RedLine.

Jeśli ktoś włamie się na Twoje konto ChatGPT – ma dostęp do całej historii rozmów. Wszystkiego, co wpisałeś.

Czego NIE wpisujesz do AI?

  • Haseł (nawet starych!)
  • Kodów PIN
  • Kodów 2FA/OTP
  • Kluczy API
  • Tokenów dostępowych
  • Fraz seed do kryptowalut
  • Odpowiedzi na pytania bezpieczeństwa (jak nazwisko panieńskie matki)

Wskazówka praktyczna: Jeśli masz problem z hasłem lub kodem – opisz problem ogólnie, bez podawania samego hasła. „Mam problem z uwierzytelnieniem dwuskładnikowym w usłudze X” – AI pomoże bez znajomości Twojego kodu.


Jak się chronić? Praktyczne ustawienia w 5 minut

Dobra wiadomość: możesz znacząco zmniejszyć ryzyko, zmieniając kilka ustawień. Zajmie Ci to dosłownie 5 minut.

ChatGPT (OpenAI)

  1. Kliknij ikonę profilu w prawym górnym rogu
  2. Wybierz Settings
  3. Przejdź do Data controls
  4. Wyłącz opcję „Improve the model for everyone”
  5. Dla wrażliwych rozmów używaj Temporary Chat (ikona w górnym menu)

Pamiętaj: Nawet po wyłączeniu treningu rozmowy są przechowywane przez 30 dni. Mogą być przeglądane w przypadku naruszenia zasad.

Claude (Anthropic)

  1. Kliknij ikonę profilu
  2. Wybierz Settings
  3. Przejdź do Privacy
  4. Wyłącz opcję „Help improve Claude”

Ważne: Od 2025 roku Anthropic domyślnie używa rozmów do treningu. Musisz aktywnie się wypisać.

Gemini (Google)

  1. Wejdź na gemini.google.com
  2. Kliknij Activity w lewym menu
  3. Wyłącz opcję „Gemini Apps Activity”

Pamiętaj: Google przechowuje rozmowy przez 72 godziny nawet po wyłączeniu. Rozmowy wybrane do przeglądu przez ludzi nie są usuwane.

Microsoft Copilot

  1. Kliknij profil → Privacy
  2. Wyłącz „Model Training on Text” i „Model Training on Voice”
  3. Opcjonalnie: usuń historię przez „Export or Delete History”

Meta AI

Tu mam złą wiadomość: nie da się wyłączyć trenowania na Twoich danych.

Jedyne wyjście: nie używać Meta AI do niczego wrażliwego.

Checklista: zanim cokolwiek wpiszesz

Wydrukuj to i powieś przy komputerze. Serio.

ZANIM wpiszesz cokolwiek do AI, odpowiedz sobie:

☐ Czy to zawiera moje dane osobowe (PESEL, data urodzenia, adres)?

☐ Czy to zawiera dane medyczne – moje lub kogoś innego?

☐ Czy to jest zdjęcie lub skan dokumentu?

☐ Czy to jest umowa, kontrakt lub dokument firmowy?

☐ Czy to zawiera hasła, kody lub klucze dostępu?

☐ Czy to zawiera dane klientów lub kontrahentów mojej firmy?

☐ Czy gdyby to przeczytał ktoś obcy, mógłbym mieć problem?

Jeśli na KTÓREKOLWIEK pytanie odpowiedź brzmi TAK – nie wpisuj.

Zastanów się, jak opisać problem inaczej. Anonimizuj. Użyj danych fikcyjnych. Albo po prostu zrób to bez AI.


Co jeśli MUSISZ pracować z wrażliwymi danymi?

Czasem nie ma wyjścia – potrzebujesz AI do pracy z danymi, które są wrażliwe. Co wtedy?

Opcja 1: Anonimizuj

Zamiast „Jan Kowalski z firmy ABC złożył zamówienie na 50 000 zł” napisz „Klient X z branży Y złożył zamówienie o wartości Z”.

AI i tak pomoże – nie potrzebuje prawdziwych danych, żeby doradzić.

Opcja 2: Wersje Enterprise

ChatGPT Enterprise, Claude for Work, Gemini for Business – to wersje dla firm, które gwarantują:

  • Brak trenowania na danych
  • Podpisane umowy o poufności
  • Zgodność z regulacjami (RODO, HIPAA dla healthcare)

Są droższe, ale dla firm to jedyna odpowiedzialna opcja.

Opcja 3: Lokalne modele AI

Llama 3, Mistral – można uruchomić na własnym serwerze lub nawet na laptopie. Dane nie opuszczają Twojej infrastruktury.

Wymaga wiedzy technicznej, ale dla firm z bardzo wrażliwymi danymi to może być najlepsze rozwiązanie.

Podsumowanie: AI to narzędzie, nie powiernik

Uwielbiam narzędzia AI. Używam ich codziennie. Pomagają mi pisać, analizować, planować.

Ale traktuję je jak rozmowę w zatłoczonym tramwaju.

Nie mówię niczego, czego nie chciałabym, żeby usłyszał ktoś obcy. Bo statystycznie – ktoś obcy może to usłyszeć.

I tego samego uczę na szkoleniach.

Potrzebujesz pomocy?

Jeśli po przeczytaniu tego artykułu masz pytania – albo chcesz, żebym przeprowadziła szkolenie dla Twojego zespołu – napisz do mnie.

Prowadzę szkolenia dla:

  • Zarządów i kadry kierowniczej – jak bezpiecznie korzystać z AI w biznesie
  • Działów IT i bezpieczeństwa – jak wdrożyć politykę AI w firmie
  • Wszystkich pracowników – podstawy bezpieczeństwa danych w erze AI

Każde szkolenie dopasuję do Waszej branży, wielkości firmy i poziomu zaawansowania.

Nie sprzedaję strachu. Uczę, jak korzystać z technologii mądrze.

Napisz do mnie – formularz kontaktowy znajduje się poniżej!

Jeśli ten artykuł był dla Ciebie przydatny – podziel się nim z kimś, kto właśnie wkleja swój PESEL do ChatGPT „bo tak szybciej”. Może mu zaoszczędzisz wizyty komornika.

Źródła

  • OpenAI: „March 20 ChatGPT outage” – oficjalne potwierdzenie wycieku danych użytkowników (2023)
  • Cyberhaven Labs: „11% of data employees paste into ChatGPT is confidential” (2023)
  • Cyberpress: „77% of Employees Share Company Secrets on ChatGPT” (2025)
  • Samsung ban na ChatGPT po wycieku kodu źródłowego – Bloomberg, TechRadar (2023)
  • Sekurak: Kradzież tożsamości rodziny ze Stargardu – 100 000 zł kredytów na cudze dane (2020)
  • Gazeta Wyborcza: Historia pana Józefa – 1,1 mln zł skradzione przez dowód kolekcjonerski
  • Gov.pl: Usługa „Zastrzeż PESEL” – nowe przepisy od 1 czerwca 2024
  • Netskope: „Healthcare data leaks through AI tools” (2025)
  • The Globe and Mail: Ontario hospital AI breach – bot Otter.ai rozesłał dane pacjentów (2024)
  • Group-IB: 225 000 loginów ChatGPT na dark webie (2023)
  • US Department of Health: 182,4 mln osób dotknięte wyciekami danych medycznych w 2024

0 komentarzy

Wyślij komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Joanna Wziątek
Przegląd prywatności

Ta strona korzysta z ciasteczek, aby zapewnić Ci najlepszą możliwą obsługę. Informacje o ciasteczkach są przechowywane w przeglądarce i wykonują funkcje takie jak rozpoznawanie Cię po powrocie na naszą stronę internetową i pomaganie naszemu zespołowi w zrozumieniu, które sekcje witryny są dla Ciebie najbardziej interesujące i przydatne.