Shadow AI w polskim MŚP - Twoi pracownicy już wklejają umowy do ChatGPT
← Blog
Governance AI

Shadow AI w polskim MŚP - Twoi pracownicy już wklejają umowy do ChatGPT

68% pracowników używa AI bez zgody IT. 38% wkleja wrażliwe dane. Blokowanie nie działa. Jak zamiast tego zbudować politykę AI, której pracownicy przestrzegają.

Najbardziej niepokojący moment na warsztacie AI Mapping w polskiej firmie usługowej, 50 osób, wygląda tak: pokazuję mapę narzędzi AI, które firma „oficjalnie” używa - zero. Zero narzędzi. Polityka firmy: nie używamy AI, bo wrażliwe dane klientów.

Potem pytam zebranych pracowników jedną rzecz. „Kto z was użył ChatGPT w ostatnim tygodniu do czegoś związanego z pracą?”.

Podnosi się większość rąk w sali.

Jedna z księgowych dodaje spontanicznie: „Wczoraj wkleiłam fakturę od dostawcy - z NIP-em, nazwą firmy, kwotami - do ChatGPT, żeby mi zrobił z tego excel. Zajęłoby mi 20 minut ręcznie, a zrobił w 30 sekund. Super mi pomogło.”

W tym jednym zdaniu wyciekło: NIP klienta, dane finansowe transakcji, struktura kosztowa firmy. Wszystko do modelu należącego do amerykańskiej firmy, bez żadnej umowy powierzenia, bez podstawy prawnej RODO, bez świadomości zarządu.

I to jest dokładnie to, co dzieje się w Twojej firmie w tej chwili. Tylko Ty o tym nie wiesz.

Ten wpis jest o tym, jak to zrozumieć i co z tym zrobić. Nie teoretycznie. Konkretnie.

Dlaczego to się dzieje - asymetria, której nie widzisz

Jest jedna liczba, która wyjaśnia wszystko. 68% pracowników używa narzędzi AI bez wiedzy i zgody IT. To dane z badania Gartnera na 500 firm. Nie polskich - wszystkich. Polski rynek nie odbiega.

W innym badaniu, przeprowadzonym przez CybSafe i National Cybersecurity Alliance na 7000 pracowników, 38% przyznało wprost, że dzieli się poufnymi danymi firmy z narzędziami AI bez autoryzacji. Nie omyłkowo. Świadomie. Wklejają.

Jeszcze inne źródło, analiza logów prawdziwych promptów: 27% zapytań do publicznych AI zawiera dane poufne lub proprietary. 11% zawiera dane regulowane - PII, dane medyczne, dokumenty finansowe. Co czwarte pytanie.

Skąd ten rozjazd między polityką firmy („nie używamy AI”) a rzeczywistością (wszyscy używają)?

Odpowiedź jest prostsza, niż większość decydentów chce przyznać. Pracownik i firma widzą zupełnie inny rachunek kosztów i korzyści.

Pracownik widzi: „ChatGPT oszczędzi mi 30% czasu na tym zadaniu”. Konkretne. Mierzalne w minutach. Widoczne w tym samym popołudniu.

Firma widzi: „ChatGPT może ujawnić nasze dane, naruszyć RODO, złamać umowy z klientami”. Abstrakcyjne. Mierzone w scenariuszach, które może się nie zdarzą. Widoczne ewentualnie za dwa lata podczas audytu.

Kiedy abstrakcyjne ryzyko staje w opozycji do konkretnej oszczędności 30% czasu - pracownik wybiera oszczędność. Codziennie. I ma rację z perspektywy swojej własnej produktywności.

To nie jest problem niesubordynacji. To problem architektury decyzyjnej, którą stworzyłeś, nie dając mu alternatywy.

Co naprawdę wycieka z Twojej firmy

Żeby zrozumieć skalę - oto pięć kategorii danych, które w tej chwili prawdopodobnie lecą do publicznych modeli AI z kont Twoich pracowników. Kolejność mniej więcej według częstotliwości.

Dane osobowe klientów. Umowy z imionami i nazwiskami stron, faktury z NIP-ami, dokumenty rekrutacyjne z CV kandydatów, korespondencja z klientami wklejana w celu „streszczenia” albo „sparafrazowania”. Podstawy prawnej RODO na to przetwarzanie - brak. Umowy powierzenia z OpenAI/Anthropic/Google - nie istnieją w wariancie konsumenckim.

Tajemnica handlowa. Oferty przetargowe wklejane do „analizy”, cenniki wewnętrzne wrzucane do „porównania”, umowy z dostawcami vendorowane przez chatbota, negocjacje kontraktowe weryfikowane „jak to brzmi?”. W jednym głośnym case’ie z 2023, inżynierowie Samsunga wkleili fragmenty kodu produktowego i notatki ze spotkań technicznych do ChatGPT w trzech oddzielnych incydentach w ciągu miesiąca. Samsung zbanował ChatGPT firmowo. Dane już były out.

Dane pracowników. Dział HR dostaje CV, wrzuca je do ChatGPT z prośbą „wybierz trzy najlepsze”. Dane osobowe, adresy, doświadczenie, pensje z poprzednich miejsc - wszystko ląduje u zewnętrznego dostawcy bez zgody kandydata. Kandydat, który nie dostał pracy, może złożyć skargę do UODO i słusznie wygrać.

Kod źródłowy i sekrety. Programiści wklejają fragmenty kodu do „debugowania” albo „optymalizacji”. Często z osadzonymi kluczami API, hasłami do bazy, strukturami wewnętrznych systemów. Każdy fragment to potencjalna mapa dla atakującego, który wejdzie w posiadanie logów.

Wewnętrzne polityki i procedury. Pracownik pyta ChatGPT: „jak zdenerwować się profesjonalnie na klienta?” - i wkleja całą procedurę obsługi reklamacji, żeby uzyskać kontekst. Przez przypadek eksportujesz know-how operacyjne, które budowałeś 10 lat.

Każda z tych pięciu kategorii pięć razy dziennie. Pomnóż przez 50 pracowników. Pomnóż przez 250 dni roboczych. Wychodzi liczba, której nie chcesz znać.

Dlaczego blokowanie nie działa

Instynktowna reakcja zarządu na ten problem: „zablokujmy ChatGPT na firmowej sieci”.

Nie zadziała. Z trzech powodów, z których każdy wystarczy.

Powód pierwszy: pracownik ma prywatny telefon. Blokujesz ChatGPT na firmowym laptopie - pracownik wchodzi na ChatGPT przez swój smartfon, robi zdjęcie dokumentu, wrzuca, dostaje odpowiedź, przepisuje. Zajęło mu o trzy minuty dłużej niż wcześniej. Ty straciłeś jakąkolwiek widoczność.

Powód drugi: 86% liderów IT sama przyznaje, że nie widzi shadow AI w swoim monitoringu. Blokowanie popularnych domen to iluzja kontroli. Nowe narzędzia pojawiają się co tydzień. Lokalne modele (Ollama, LM Studio) można uruchomić na laptopie bez dostępu do internetu. API można wywoływać pośrednio. Każda blokada ma okres półtrwania dwa tygodnie.

Powód trzeci - najważniejszy - blokujesz też korzyści. Pracownicy, którzy najsprytniej wykorzystują AI, to często Twoi najlepsi pracownicy. Ci, którzy szukają sposobów na bycie bardziej produktywnymi. Blokując AI, nie redukujesz ich użycia. Wyganiasz je pod ziemię, jednocześnie sygnalizując im, że firma nie nadąża za branżą.

Trzech najlepszych ludzi odchodzi w ciągu roku do konkurencji, która im pozwala. Policz koszt utraty każdego z nich. Będzie większy niż koszt potencjalnego wycieku, którego się bałeś.

Wniosek: nie blokuj. Skanalizuj.

Trzy poziomy polityki AI - model, który działa

Koncepcja prosta. Zamiast „wszystko wolno” albo „wszystko zabronione” - trzy poziomy, tak jak z bezpieczeństwem IT, które już znasz.

🔴 Czerwona lista - zabronione bez wyjątków

Narzędzia i scenariusze, które jednoznacznie łamią RODO, umowy z klientami albo zasady firmy. W tym:

  • Narzędzia konsumenckie z USA (ChatGPT Free, Claude Free, Gemini Free) do wszelkich danych wrażliwych
  • Wklejanie pełnych umów klienckich do jakiegokolwiek narzędzia bez autoryzacji
  • Wklejanie danych osobowych klientów (imiona, nazwiska, adresy, NIP-y, PESEL-e) do narzędzi niezatwierdzonych
  • Dane kadrowe - pensje, CV, oceny pracowników - do narzędzi zewnętrznych
  • Kod produkcyjny z sekretami - do narzędzi, które nie mają gwarancji zerowej retencji

Lista musi być konkretna, skończona, zrozumiała. Nie „nie używaj AI do wrażliwych danych” (co to znaczy?), tylko „nie wklejaj umów i faktur klienckich do ChatGPT, Claude, Gemini w wersji bezpłatnej”.

Tu warto pamiętać, że nawet wersje enterprise nie zawsze zachowują się tak, jak zapewnia dostawca - kwietniowy incydent flex routingu w Microsoft Copilot pokazał, że defaultowe ustawienia potrafią się zmienić bez wyraźnej zgody klienta. Dotyczy to także narzędzi z żółtej listy.

🟡 Żółta lista - zatwierdzone z ograniczeniami

Narzędzia, które firma oficjalnie zaakceptowała i które pracownicy mogą używać do zadań nieklasyfikowanych. W tym:

  • Płatne wersje enterprise (ChatGPT Enterprise, Claude Teams, Copilot for Microsoft 365) - tylko do danych wewnętrznych, nieklientowych
  • Lokalnie zainstalowane narzędzia (Cursor z lokalnym modelem) do zadań programistycznych
  • Narzędzia sektorowe zatwierdzone przez legal - np. Harvey AI dla kancelarii, CoCounsel itd.

Żółta lista wymaga: umowy zawarcia z dostawcą z klauzulą no-training na Twoich danych, wytycznych co wolno a czego nie, i okresowego audytu użycia. Ale pozwala pracownikowi robić swoją robotę.

🟢 Zielona lista - preferowane wewnętrzne narzędzie

Asystent firmowy z dostępem do Twoich dokumentów, pod Twoją kontrolą, bez wycieku na zewnątrz. To narzędzie, które aktywnie promujesz, bo rozwiązuje 80% scenariuszy, do których pracownicy używali wcześniej ChatGPT.

  • Odpowiada na pytania o procedury firmy, cenniki, umowy wzorcowe - bez wysyłania danych na zewnątrz
  • Streszcza dokumenty, maile, notatki ze spotkań - w ramach infrastruktury firmy
  • Pomaga pisać oferty, odpowiedzi na zapytania, follow-upy - z dostępem do kontekstu klienta w CRM
  • Wykonuje zadania między narzędziami (Gmail, Drive, Calendar, HubSpot) - pod Twoim audit logiem

To jest kanalizacja zamiast zakazu. Pracownik, który do wszystkich tych zadań używał ChatGPT, dostaje lepsze narzędzie (bo zna kontekst firmy) w tym samym tempie (bo działa natychmiastowo) pod pełną kontrolą firmy.

Architektura tego narzędzia - jeden asystent podpięty do Twoich systemów przez standardowy protokół - to dokładnie to, o czym piszemy we wpisie MCP - USB-C dla AI. Jeden asystent zamiast pięciu chatbotów. Decyzja o tierze suwerenności, w jakim ma działać (regionalna chmura EU czy on-premise), to temat wpisu filarowego 4 poziomy suwerenności AI.

Dlaczego to jest jedyny model, który działa

Jeśli Twoi pracownicy mają trzy opcje:

  • Czerwona: bez AI, robię dwa razy dłużej
  • Żółta: zatwierdzone AI, robię szybko, w granicach
  • Zielona: asystent firmowy, robię szybko i mądrzej, bo zna kontekst

…to większość wybierze zieloną, bo jest najwygodniejsza. Nie dlatego, że kocha compliance. Dlatego, że lubi swoją pracę i chce skończyć o 17:00, nie o 19:00.

Jeśli zielonej opcji nie ma, pracownicy przechodzą na nieoznaczoną - prywatne konta, prywatne telefony, ukrywanie. I to jest właśnie shadow AI w czystej postaci.

Kanalizacja jest zawsze skuteczniejsza niż zakaz. Dotyczy to wody, ruchu drogowego, shadow IT i shadow AI. Ludzie podążają ścieżką najmniejszego oporu. Twoim zadaniem nie jest zmuszać ich, żeby wybierali trudniejszą - jest sprawić, żeby bezpieczna była tą najłatwiejszą.

10-punktowy plan wdrożenia polityki AI

Oto konkretna ścieżka. Zajmie od 6 do 12 tygodni w zależności od wielkości firmy.

  1. Audyt stanu obecnego. Anonimowa ankieta wśród pracowników: z jakich narzędzi AI korzystasz, do czego, jak często. Plus przegląd logów DNS/proxy pod kątem ruchu do domen AI (openai.com, anthropic.com, gemini.google.com). Cel: zobaczyć rzeczywistość, nie to, co wydaje się zarządowi.

  2. Klasyfikacja danych firmy. Które kategorie danych są zastrzeżone (czerwone), które poufne (żółte), które wewnętrzne (zielone), które publiczne (białe)? Zwykle wystarczy tabela na jednej kartce A4, nie program klasyfikacji na 50 stron.

  3. Identyfikacja typowych scenariuszy użycia AI. Jakie zadania pracownicy rzeczywiście chcieliby wspierać AI? Pisanie maili, streszczenia dokumentów, analiza danych, wyszukiwanie w wewnętrznej wiedzy, generowanie treści marketingowych. To jest Twoja roadmapa dla „zielonej listy”.

  4. Wybór narzędzia wewnętrznego (zielona lista). Asystent firmowy z dostępem do Twoich dokumentów. Może to być Ragen, Microsoft 365 Copilot (z ograniczeniami), ChatGPT Enterprise z własnymi GPTs. Kryterium: musi być wygodniejszy niż ChatGPT Free dla większości typowych zadań. Podejście iteracyjne - pierwsze use case’y w 4 tygodnie - opisujemy w playbooku RAG w 4 tygodnie.

  5. Definicja czerwonej listy. Konkretna, krótka, zrozumiała. Maksymalnie 10 punktów. „Nie wklejaj umów klientów do X, Y, Z”, nie „przestrzegaj zasad bezpieczeństwa informacji”.

  6. Definicja żółtej listy. Konkretne narzędzia, konkretne warunki. „ChatGPT Enterprise - OK do zadań wewnętrznych, jeśli korzystasz z firmowego konta. Dodaj tag #ai do kartki z zadaniem, żeby była śledzalna.”

  7. Komunikacja wewnętrzna - kluczowa, nie pomijaj. Spotkanie all-hands z właścicielem/CEO (nie z IT!), który wyjaśnia: dlaczego wprowadzamy politykę (nie „bo musimy”, tylko „bo obchodzi nas Twoja praca”), co konkretnie wolno, co nie wolno, i dlaczego dajemy Wam zieloną listę jako lepsze rozwiązanie.

  8. Szkolenie praktyczne (1 godzina). Nie o filozofii AI, tylko o: jak korzystać z asystenta firmowego, jak rozpoznać dane, których nie wolno wklejać do ChatGPT, co robić, jeśli nie wiadomo. Żywe przykłady. Najlepiej warsztat, nie wykład.

  9. Ambasadorzy w zespołach. W każdym dziale jedna osoba, która zna politykę, używa zielonego narzędzia codziennie, pomaga innym. To nie formalna rola, raczej naturalni early adopterzy, których namaszczasz.

  10. Review po 8 tygodniach. Co działa, co nie, co trzeba dodać do listy zielonej, co okazało się niepraktyczne. Polityka AI nie jest projektem, jest procesem - musi ewoluować z użyciem.

Jeśli nie wiesz, od czego zacząć

Najczęstsza reakcja po dotarciu do tego miejsca wpisu: „rozumiem, ale nie mam czasu tego przeprowadzić sam”.

To jest dokładnie moment, w którym warto porozmawiać. 30 minut rozmowy, bez prezentacji produktu, bez marketingowej pianki. Podczas rozmowy:

  • Zmapujemy shadow AI w Twojej firmie - rzeczywiste narzędzia i realne ryzyka (nie katalogowe)
  • Wspólnie priorytetyzujemy, co zrobić najpierw - audyt, polityka, narzędzie wewnętrzne
  • Pokażę Ci, jak to wyglądało u innych polskich firm 50-200 osób, z którymi pracowaliśmy
  • Jeśli okaże się, że Ragen AI pasuje jako „zielona lista” u Ciebie - pokażemy konkretnie jak. Jeśli nie pasuje - wskażemy alternatywy.

To jest audyt, nie demo. Wyjdziesz z rozmowy z konkretną listą kroków na najbliższy kwartał, nawet jeśli nic u nas nie kupisz.

Umów 30-minutową rozmowę

Koszt bezczynności

Nie będę straszył karami RODO, bo ten typ wpisów za nimi goni, a Ty je masz w głowie na co dzień. Powiem Ci coś, co mówi się rzadziej.

Każdy dzień, w którym Twoi pracownicy korzystają z ChatGPT bez polityki, to dzień, w którym:

  • Twoje dane klientów są w logach systemu, nad którym nie masz kontroli
  • Twoja tajemnica handlowa może być cytowana w odpowiedziach dla innych użytkowników modelu
  • Twoja pozycja w audycie kolejnego kontraktu korporacyjnego słabnie
  • Twoi najlepsi pracownicy uczą się pracować z AI - ale nie z Twoim AI, bo go nie ma
  • Twoja konkurencja buduje przewagę kompetencyjną, podczas gdy Ty jej zabraniasz

Shadow AI nie jest problemem do rozwiązania „kiedyś”. Jest problemem, który dzieje się teraz, każdego dnia, u Ciebie.

Dobra wiadomość: rozwiązanie nie jest trudne. Jedno narzędzie wewnętrzne, jedna polityka na jednej kartce, jedno spotkanie all-hands. To sześć tygodni pracy w firmie średniej wielkości.

Zła wiadomość: sam z siebie ten problem się nie rozwiąże. Im dłużej czekasz, tym głębiej shadow AI wrasta w codzienne nawyki zespołu, tym trudniej je wyciągnąć do oficjalnego kanału.

Umów 30-minutową rozmowę - zmapujemy shadow AI w Twojej firmie i przygotujemy pierwszy krok polityki AI. Bez zobowiązań.

Jeśli wolisz najpierw policzyć koszty wdrożenia asystenta wewnętrznego - nasz kalkulator da Ci miesięczny budżet dla Twojej skali.


Źródła:

  • Gartner, badanie adopcji AI w 500 firmach (2025)
  • CybSafe & National Cybersecurity Alliance, „Oh Behave!” report (2024) - 7000 respondentów
  • IBM, „Cost of a Data Breach Report 2025” - analiza wpływu shadow AI
  • Microsoft Threat Intelligence, dane wewnętrzne (2026)
  • Samsung semiconductor case (marzec 2023) - publicznie raportowane wycieki
  • Doświadczenia własne z warsztatów AI Mapping w polskich firmach MŚP