Microsoft flex routing - Twoje dane z Frankfurtu do Teksasu
← Blog
Suwerenność danych

Microsoft flex routing - Twoje dane z Frankfurtu do Teksasu

Microsoft zmienił defaulty Copilota w UE, a większość adminów się nie zorientowała. Co to oznacza dla GDPR, NIS2, DORA - i jak odzyskać kontrolę nad danymi AI.

3 kwietnia 2026 Microsoft opublikował komunikat MC1269223. Poinformował w nim, że od 17 kwietnia dla tenantów w UE i EFTA włączy funkcję flex routing. W wolnym tłumaczeniu: gdy europejskie centra danych są obciążone, zapytania do Copilota mogą być przetwarzane w USA, Kanadzie lub Australii. Domyślnie włączone. Trzy tygodnie na reakcję.

Internet wybuchł. Specjaliści od compliance zaczęli liczyć, ilu ich klientów to dotyczy. Kancelarie prawne odkryły, że pół roku wcześniej wpisały do umów z klientami zapewnienie „dane przetwarzane wyłącznie w UE”. Departamenty IT zaczęły w pośpiechu sprawdzać ustawienia.

Microsoft, pod falą krytyki, częściowo się wycofał. Dla części tenantów pojawił się nowy komunikat MC1269219, w którym flex routing jest wyłączony domyślnie. Ale dla innych - poprzednia wersja nadal obowiązuje. Różni admini widzą różne ustawienia. Bałagan jest na tyle duży, że specjaliści branżowi piszą o nim otwarcie.

I to właśnie jest prawdziwy problem. Nie sam flex routing. Tylko to, co ten incydent powiedział o naturze korzystania z globalnych narzędzi AI w europejskiej firmie.

„Stored in the EU” to nie to samo co „processed in the EU”

Przez lata firmy europejskie operowały na pewnym uproszczeniu. „Microsoft trzyma nasze dane w UE” oznaczało, że są bezpieczne z perspektywy RODO. Audytor pytał gdzie są dane - admin odpowiadał „w EU Data Boundary” - i to wystarczyło.

Flex routing to uproszczenie zburzył.

Oto jak wygląda zapytanie do Copilota od środka:

  1. Użytkownik pisze: „Znajdź najnowsze umowy z klientem X i podsumuj kluczowe warunki”.
  2. Copilot w tle zbiera kontekst - maile z klientem, pliki z SharePointa, spotkania z kalendarza, metadane.
  3. Cały ten pakiet - prompt użytkownika plus wrażliwy kontekst firmowy - jest pakowany i wysyłany do modelu LLM w klastrze GPU.
  4. Model generuje odpowiedź.

Flex routing dotyczy kroku 3. Pliki zostają w EU. Ale kontekst, który jest z tych plików wyciągany i wysyłany do przetwarzania - może wyjechać.

Z perspektywy art. 44 RODO to transfer. Z perspektywy NIS2 - potencjalny problem dla operatorów usług kluczowych. Z perspektywy DORA - wymaga analizy dla podmiotów sektora finansowego. Nieważne, że dane „at rest” nie ruszyły się z Amsterdamu. Ważne, że kopia - w kontekście innych danych firmowych - trafia na drugą półkulę.

Dlaczego ten incydent zdarzył się akurat teraz

Flex routing nie jest błędem. To jest biznesowa odpowiedź na rosnący popyt. Adopcja Copilota rośnie szybciej niż Microsoft zdążył dobudować GPU w Europie. Coś musi dać. Albo wydajność w godzinach szczytu, albo lokalność danych. Microsoft wybrał pragmatyzm - puścił obciążenie tam, gdzie jest moc obliczeniowa.

To nie pierwsza taka sytuacja. I nie ostatnia. To tylko pierwsza, która wyszła na światło dzienne z fanfarą i w rzeczywistości trzytygodniowego okna konsultacji.

Każda firma zależna od globalnego dostawcy AI będzie doświadczać podobnych incydentów co kilka miesięcy. Raz to będzie zmiana modelu, który ma dostęp do Twoich danych. Raz zmiana polityki retencji. Raz dodanie nowego dostawcy komponentu, którego wcześniej nie było. Zawsze - decyzja zapadnie poza Twoją kontrolą, a Ty dowiesz się z komunikatu w panelu administracyjnym.

Co powinien zrobić Twój admin już dziś

Niezależnie od tego, w jakim stanie jest ustawienie flex routingu u Ciebie - sprawdź je. Teraz. Oto krótka procedura:

Instrukcja: wyłączenie flex routingu

  1. Zaloguj się do Microsoft 365 Admin Center kontem z rolą AI Administrator
  2. Przejdź do Copilot → Settings → Flexible inferencing during peak load periods
  3. Wybierz Do not allow flex routing
  4. Zapisz
  5. Powtórz procedurę w Power Platform Admin Center dla Dynamics 365, Power Platform i Copilot Studio
  6. Propagacja ustawienia zajmuje do tygodnia - zaplanuj audyt po 7 dniach

Jeśli korzystasz z Multi-Geo, to ustawienie nie będzie widoczne - Multi-Geo ma osobne kontrolki lokalności danych.

Dotyczy to: Microsoft 365 Copilot, Copilot Chat, Dynamics 365 Copilot, Power Platform Copilot, Copilot Studio.

Jeśli masz Data Protection Officer-a albo zespół compliance - udokumentuj decyzję. Nawet jeśli zostawiasz flex routing włączony z powodów wydajnościowych, zapisz uzasadnienie w Data Processing Agreement. Gdy przyjdzie audyt, pytania o AI będą coraz częstsze.

Głębszy problem: defaulty nie są Twoje

Zatrzymajmy się na chwilę przy mechanizmie. Między publikacją dokumentacji (3 kwietnia) a aktywacją (17 kwietnia) były dokładnie dwa tygodnie i dwa dni. W tym czasie każdy europejski admin korzystający z Copilota musiał:

  • zauważyć komunikat w Message Center (gdzie ląduje setki wpisów miesięcznie),
  • przeczytać go ze zrozumieniem,
  • przeanalizować implikacje prawne z DPO i compliance,
  • podjąć decyzję,
  • wprowadzić ją w dwóch różnych panelach administracyjnych,
  • uwzględnić tydzień propagacji.

Jeśli Twój admin był na urlopie albo zajęty innym projektem - wasze dane, w godzinach szczytu, prawdopodobnie poleciały do Teksasu. I dowiesz się o tym dopiero, gdy ktoś zrobi o tym artykuł na LinkedIn.

To nie jest techniczna kwestia. To kwestia struktury zaufania. Jeśli domyślne ustawienia platformy, której używasz do przetwarzania wrażliwych danych firmowych, zmieniają się bez Twojej zgody - nie jesteś administratorem. Jesteś użytkownikiem. A Twoja firma jest zakładnikiem decyzji podjętych w Redmond.

Cztery poziomy suwerenności AI - wybierz swój

Nie każda firma potrzebuje najwyższego poziomu suwerenności. Nie każda może też sobie pozwolić na najniższy koszt. Oto jak wygląda spektrum:

Poziom 1 - on-device. AI działa lokalnie na urządzeniu użytkownika (laptop, serwer biurowy). Nic nie opuszcza budynku. Najwyższy poziom kontroli, najniższa moc modelu. Rzadko stosowane poza scenariuszami wojskowymi i medycznymi najwyższej wrażliwości.

Poziom 2 - on-premise. AI działa na Twojej infrastrukturze (własne serwery, prywatna chmura, Kubernetes u Ciebie). Pełna kontrola nad tym, gdzie lądują dane, jakie modele są używane, kto ma dostęp. Wymaga zespołu DevOps. Dla firm regulowanych, firm konsultingowych i dużych organizacji z własnym IT - standard.

Poziom 3 - regional cloud EU. Platforma SaaS, której cała infrastruktura fizycznie leży w UE, a polityka nie dopuszcza cross-border routing niezależnie od obciążenia. To właśnie nie ma Microsoft Copilot - bo flex routing łamie ten model. To ma np. Ragen Cloud (hostowany w UE, bez „elastycznego” wypuszczania ruchu poza granice), Proton, europejscy dostawcy open-source jak Scaleway i OVH.

Poziom 4 - global cloud. Standardowy model Microsoft Copilot, Google Workspace AI, ChatGPT Enterprise. Szybki start, światowa infrastruktura, globalni dostawcy modeli. Świetne dla większości firm. Ale zapewnienia o lokalności danych są warunkowe - tak jak zobaczyliśmy przy flex routingu.

Gdzie wpisuje się Ragen AI? Oferujemy zarówno Ragen Cloud (poziom 3 - pełna EU, bez cross-border defaultów), jak i on-premise (poziom 2 - u Ciebie, pod Twoją polityką bezpieczeństwa). Używamy europejskich modeli open-source hostowanych przez Scaleway i OVH, a dla scenariuszy wymagających modeli frontier - pozwalamy wybrać dostawcę świadomie, per organizacja, z pełnym audit logiem.

Różnica filozoficzna jest prosta: u nas nie ma domyślnego wypuszczenia ruchu poza EU, bo samej takiej funkcjonalności nie zbudowaliśmy.

5 pytań do audytu: czy Twoje AI jest zgodne

Jeśli masz w firmie jakiekolwiek wdrożenie AI - Copilot, ChatGPT Enterprise, własny chatbot, asystent sprzedażowy - zadaj sobie (lub zapytaj dostawcę) te pięć pytań:

  1. Gdzie fizycznie zachodzi inferencja modelu? Nie: „gdzie są dane”. Tylko: w której serwerowni w którym państwie pracuje GPU, który przetwarza nasz prompt.

  2. Czy dostawca ma klauzulę „cross-border podczas peak load”? Sprawdź umowę. Sprawdź dokumentację produktu. Sprawdź politykę fair use. Jeśli gdziekolwiek jest zapisane, że „w razie obciążenia możemy…” - masz problem.

  3. Czy defaulty ustawień bezpieczeństwa mogą być zmienione przez dostawcę bez Twojej zgody? Jeśli tak - jaka jest procedura informowania? Jaki czas reakcji Ci daje? Jak się dowiadujesz?

  4. Co dokładnie wchodzi w skład „kontekstu RAG”? Pliki, maile, kalendarz, kontakty, wiadomości z komunikatora. Każda z tych kategorii może mieć własne wymagania regulacyjne (RODO dla kadrowych, tajemnica prawna dla umów, KNF dla finansowych).

  5. Czy masz log gdzie poszły Twoje dane w ostatnich 30 dniach? Nie: „gdzie powinny były pójść według polityki”. Tylko: log pokazujący, że rzeczywiście tam poszły. Bez tego nie da się udowodnić compliance podczas audytu.

Jeśli na którekolwiek z tych pytań odpowiedź brzmi „nie wiem” albo „muszę sprawdzić u dostawcy” - masz lukę w compliance. Nie krytyczną, ale realną.

Co z tego wyniknie w ciągu najbliższych miesięcy

Spodziewam się trzech rzeczy:

Po pierwsze, będą kolejne incydenty flex routingu w innych formach. Nie od Microsoftu - od Google, AWS, OpenAI. Każdy z nich ma podobne dylematy kapacytowe i podobną pokusę, żeby je rozwiązać kosztem domyślnej konfiguracji klienta.

Po drugie, europejskie organy nadzoru (UODO, CNIL, DPC, BfDI) zaczną częściej pytać firmy o lokalność przetwarzania AI w audytach RODO. Standardowe pytanie „gdzie są dane?” zostanie rozbite na „gdzie są dane i gdzie są przetwarzane, z osobna”.

Po trzecie, europejscy dostawcy AI - Scaleway, OVH, Mistral, nasz Ragen - będą rosnąć szybciej. Nie dlatego, że są tańsi albo lepsi technicznie. Dlatego, że dla coraz większej liczby firm „dane nie opuszczają UE” przestaje być abstrakcją ideologiczną, a staje się warunkiem kontraktu z klientem.

Sprawdź swoje ustawienia. Potem sprawdź swoją strategię.

Pierwsze kroki są operacyjne: sprawdź panel Copilota, wyłącz flex routing jeśli to dla Twojej firmy istotne, udokumentuj decyzję.

Drugi krok jest strategiczny: zastanów się, czy Twoja firma jest gotowa na to, że takie incydenty będą się powtarzać. Bo będą.

Jeśli potrzebujesz pomocy w przeprowadzeniu audytu suwerenności danych AI - oferujemy go bezpłatnie, 30 minut rozmowy. Mapujemy, z jakich narzędzi AI korzysta Twoja firma, gdzie fizycznie lądują dane, gdzie są ryzyka zgodności z RODO, NIS2 i DORA. Żadnej sprzedaży, żadnej prezentacji produktu - konkretna analiza i rekomendacje.

Umów audyt - 30 min, bezpłatnie

Jeśli wiesz już, że potrzebujesz wdrożenia AI z pełną kontrolą nad tym, gdzie lądują Twoje dane - policz koszty w naszym kalkulatorze i porozmawiaj z nami o szczegółach.

Zobacz też


Źródła: