RODO i AI w 2026
Schrems II, AI Act, DPIA template. Dla compliance officerów i IOD.
Praktyczny przewodnik po lokalnym AI dla zawodów z tajemnicą zawodową. RODO, Schrems II, DPF, on-premise architektura, BezChmury 11B v3 i realne kompromisy modelu uruchamianego na własnym laptopie.
Prywatne KI (sztuczna inteligencja, ang. private AI) to model językowy uruchamiany lokalnie na sprzęcie firmy lub użytkownika - bez wysyłania pytań i dokumentów do zewnętrznych serwerów. Synonimy w obiegu rynkowym: on-premise AI, lokalne AI, AI bez chmury. Wszystkie opisują tę samą architekturę: model, tokenizer i baza wiedzy mieszczą się w obrębie urządzenia klienta.
Kontrast jest prosty. Cloud AI - czyli ChatGPT (OpenAI), Claude (Anthropic), Microsoft Copilot czy Google Gemini - działa na serwerach dostawcy. Każde Twoje pytanie wraz z kontekstem (skopiowanym fragmentem umowy, fakturą, danymi klienta) leci jako żądanie HTTP do data center, najczęściej zlokalizowanego w USA. Odpowiedź wraca tą samą drogą. W modelu on-prem - cały ten dialog odbywa się na Twoim laptopie albo serwerze biura.
Prosty przykład księgowej Anny. Anna pyta: „Co oznacza kod błędu 440 w KSeF i jak go naprawić?”. W cloud AI to pytanie razem z kontekstem (numer faktury, NIP klienta, fragment XML faktury, jeśli wkleiła) zostaje wysłane do USA, przetworzone przez model i wraca jako odpowiedź. W modelu on-prem to samo pytanie nie opuszcza laptopa - wszystkie 16 tysięcy tokenów kontekstu plus odpowiedź modelu pozostają w pamięci RAM jej komputera.
To nie jest wyłącznie debata techniczna. To jest decyzja o tym, gdzie fizycznie znajdują się dane Twojego klienta w momencie, gdy pytasz model o pomoc.
Trend adopcji jest realny. Według raportu Wolters Kluwer „AI w księgowości i kadrach” opartego na badaniu 581 specjalistów w październiku-listopadzie 2025 r., ponad 80% respondentów już korzysta z narzędzi AI w codziennej pracy. Badanie obejmuje działy księgowe, kadry, biura rachunkowe i kancelarie podatkowe w Polsce. Pytanie nie brzmi już „czy używać AI”, tylko „które AI nie wyśle danych klienta poza Polskę”.
W sektorze prawnym proporcje są nawet wyższe. Raport Future Ready Lawyer 2026 Wolters Kluwer obejmujący 810 prawników z USA, Chin i 9 krajów europejskich (w tym Polski) podaje, że 92% prawników używa co najmniej jednego narzędzia AI, a 62% oszczędza dzięki AI 6-20% tygodniowego czasu pracy. Dane na poziomie samej Polski nie są w publicznej zajawce wyodrębnione, ale obecność polskich respondentów w próbie jest potwierdzona oficjalnym komunikatem. Polski rynek odpowiedział produktami: LEX Expert AI (Wolters Kluwer), Libra by Wolters Kluwer, Beck-Noxtua (C.H. Beck/Legalis). Każde z tych narzędzi pracuje jednak w trybie cloud - co prowadzi do następnej sekcji.
Warto też podkreślić jeden niuans terminologiczny. „Prywatne KI” w naszym rozumieniu nie oznacza tylko „aplikacja na własnym serwerze”. Oznacza defensywny łańcuch lokalności: brak domyślnej telemetrii, brak domyślnego call-home, brak supportowego dostępu dostawcy do produkcyjnych danych bez odrębnej umowy. Dostawca chmurowy może oferować „EU data center”, ale wciąż mieć dostęp administracyjny do logów, mechanizm obowiązkowych aktualizacji push i serwery zarządzające zlokalizowane poza UE. On-prem w sensie compliance to architektura, w której dostawca po instalacji fizycznie nie może dostać się do danych klienta - bo nie ma kanału komunikacji.
Architektura SaaS sprawdza się w wielu zastosowaniach. W zawodach z tajemnicą zawodową - księgowy, doradca podatkowy, radca prawny, adwokat, lekarz - wprowadza jednak cztery konkretne ryzyka, które trudno zaadresować samym dobrym kontraktem.
Rozporządzenie 2016/679 (RODO) w art. 32 wymaga od administratora danych „odpowiednich środków technicznych i organizacyjnych”, w tym przy transferach do państw trzecich. UODO w komunikatach z lat 2024-2026 konsekwentnie pokazuje, że organ pyta nie o modne hasła, tylko o udokumentowaną analizę ryzyka. W decyzji DKN.5131.3.2025 organ żądał od administratora wskazania, czy przeprowadził analizę ryzyka niezbędną do oceny, czy incydent skutkował naruszeniem praw lub wolności osób fizycznych (orzeczenia.uodo.gov.pl).
Wyrok Schrems II w sprawie C-311/18 zapadł 16 lipca 2020 r. Trybunał Sprawiedliwości UE podtrzymał ważność standardowych klauzul umownych (SCC) co do zasady, ale unieważnił Privacy Shield i potwierdził test „essentially equivalent” dla transferów poza Europejski Obszar Gospodarczy. Praktyczny wniosek: kontrakt nie wystarcza, jeżeli prawo państwa trzeciego pozwala organom publicznym na nadmierny dostęp do danych (curia.europa.eu).
„The protection afforded by that mechanism must, in practice, be actionable.”
Tłumaczenie robocze: „Ochrona zapewniana przez ten mechanizm musi być w praktyce możliwa do wyegzekwowania.”
EU-US Data Privacy Framework wszedł na poziomie decyzji wykonawczej UE 2023/1795 dnia 10 lipca 2023 r. Komisja Europejska uznała, że USA zapewniają adekwatny poziom ochrony - ale tylko dla organizacji formalnie certyfikowanych w DPF (eur-lex.europa.eu).
Na publicznej liście DPF udało się potwierdzić obecność Google LLC (/participant/5780) i Microsoft Corporation (/participant/6474). Natomiast - w research stanu z 1 maja 2026 r. - nie udało się potwierdzić oficjalnych wpisów uczestnictwa OpenAI ani Anthropic. To nie dowodzi braku jakiejkolwiek podstawy transferowej, ale oznacza, że nie należy im automatycznie przypisywać statusu „DPF-certified” bez bieżącego, osobnego sprawdzenia.
CLOUD Act (2018) i sekcja FISA 702 przewidują mechanizmy pozyskiwania danych przez amerykańskie organy bezpieczeństwa od podmiotów podlegających jurysdykcji USA. Z punktu widzenia RODO kluczowe jest to, że DPF i SCC regulują transfer, ale nie wyłączają obowiązywania prawa USA wobec amerykańskiego dostawcy. To jest główny argument za on-premise dla klientów chcących maksymalnie obniżyć ryzyko transferowe i ryzyko dostępu władz państwa trzeciego.
Dwa pomniejsze, ale realne ryzyka. Po pierwsze - audit trail w cloud AI jest ograniczony. Klient zazwyczaj nie ma pełnej kontroli nad logami zapytań ani nad tym, które wersje modelu zostały użyte do której odpowiedzi. Dla audytora UODO, kontroli z KIRP albo wewnętrznej procedury compliance to brak deterministycznego śladu. Po drugie - vendor lock-in. Cena zmienia się jednostronnie, terms of service zmienia się jednostronnie, a model, z którym wczoraj pracowałeś, dziś może mieć inne zachowanie po cichej aktualizacji po stronie dostawcy.
UODO sygnalizował te ryzyka w decyzjach z 2024-2026 r. Najgłośniejszy publicznie potwierdzony przypadek: kara prawie 1,5 mln zł dla spółki medycznej z 13 sierpnia 2024 r. po ataku hakerskim, w którym „nieuprawnione osoby uzyskały dostęp do danych pacjentów i pracowników spółki” (uodo.gov.pl). To nie jest case przeciwko AI - to case przeciwko niewystarczającym środkom technicznym i organizacyjnym, które dotyczą każdego pipeline'u przetwarzającego dane wrażliwe.
Wniosek operacyjny. Model „EU data center, ale dostawca z USA” jest bezpieczniejszy operacyjnie niż zwykły SaaS, ale nie daje tak twardej pozycji jak lokalne wdrożenie on-prem oparte o infrastrukturę klienta. Ten wniosek wynika z logiki Schrems II i reżimu USA - to nie jest literalny cytat z rozporządzenia, lecz interpretacja compliance, którą spotkasz w komunikatach UODO, CNIL i opiniach EROD.
Lokalne AI nie jest magicznym pudełkiem. To trzy warstwy oprogramowania zainstalowane na sprzęcie klienta: model językowy, tokenizer i warstwa wyszukiwania w bazie wiedzy (RAG), spakowane w aplikacji desktop.
Lokalny model można uruchomić na kilka sposobów, w zależności od sprzętu i skali. Public
repozytorium Bielik-PL-11B v3 GGUF (model bazowy SpeakLeash) wymienia kwantyzacje
Q4_K_M, Q5_K_M, Q6_K i Q8_0
(huggingface.co).
Pełna aplikacja typu BezChmury składa się z czterech warstw zainstalowanych jako jeden
installer (DMG na macOS, EXE na Windows). Najpierw model BezChmury 11B
(lokalna inferencja, kwantyzacja Q4_K_M dla laptopa). Następnie tokenizer APT4,
zoptymalizowany pod język polski. Trzeci element to warstwa RAG - lokalna baza
wiedzy SSoT (Source of Truth), w przypadku KSeF Private to 630 zweryfikowanych faktów. Czwarty
element to UI Electron, czyli okno chatu zachowujące się jak ChatGPT,
ale komunikujące się wyłącznie z lokalnym backendem na 127.0.0.1.
Twardych benchmarków „tokens/s” dla BezChmury 11B na konkretnych konfiguracjach M2 Pro / M3 Pro / RTX 4060 / RTX 5090 nie ma jeszcze opublikowanych w jednym, oficjalnym dokumencie. Realnie spotykany zakres na sprzęcie konsumenckim z modelem 11B Q4 to 30-60 tokens/s przy generacji odpowiedzi - wystarczająco dla scenariuszy Q&A, w których jedna odpowiedź ma 200-400 tokenów.
Praktyczna heurystyka: llama.cpp i Ollama wygrywają prostotą lokalnego desktopu i laptopów; vLLM wygrywa dopiero wtedy, gdy wchodzisz w GPU server, FP8 i większy throughput. To nie jest absolutna prawda - to skrót decyzyjny dla osoby, która pierwszy raz wybiera stack pod biuro rachunkowe. Linuxowy serwer biurowy z 5 jednoczesnymi użytkownikami w 90% przypadków radzi sobie z pojedynczym GPU klasy RTX 4090 albo RTX 5080 i Q5_K_M.
Jest jeszcze jedna warstwa, której często brakuje w opisach „lokalnego AI”: RAG jako oddzielny komponent. RAG (Retrieval-Augmented Generation) to mechanizm, w którym model przed wygenerowaniem odpowiedzi przeszukuje lokalną bazę wiedzy (np. 630 faktów SSoT BezChmury, dokumentacja MF, polityki wewnętrzne biura) i jako kontekst dla swojej odpowiedzi otrzymuje konkretne fragmenty tych dokumentów. Praktyczny efekt: model nie „zgaduje” odpowiedzi z parametrów, tylko cytuje konkretne, sprawdzone fragmenty. To jest klucz do deterministycznego cytatu źródła - bez RAG każda odpowiedź AI jest tak naprawdę halucynacją (mniej lub bardziej trafioną).
Lokalne AI ma cztery realne tradeoffy, których nie ma sensu ukrywać. Kupujesz prywatność i kontrolę za cenę pewnych ograniczeń.
BezChmury 11B ma 11 miliardów parametrów. To nie jest GPT-4 ani Claude Opus, których oszacowania mówią o 1-2 bilionach parametrów. Mniejszy model = niższe wyniki na ogólnych benchmarkach typu MMLU. Z drugiej strony - w specjalistycznych zadaniach (Q&A o KSeF, walidacja FA(3), diagnoza kodu błędu 440) różnica między 11B a 1T zanika, bo decyduje o niej jakość bazy wiedzy (RAG), nie surowy rozmiar modelu. To jest świadomy tradeoff: oddajesz kawałek SOTA na rzecz prywatności i polskiego języka.
Instalacja lokalnego AI w 2024 r. wymagała znajomości Pythona, CUDA i terminala. W 2026 r. jest dużo prościej - Ollama i LM Studio mają instalator one-click. Aplikacje typu BezChmury idą jeszcze dalej: jeden plik DMG (Mac) albo EXE (Windows), kliknięcie, gotowe. Realnie biuro rachunkowe potrzebuje nadal IT-supportu na pierwszy deployment (firewall, uprawnienia, dystrybucja licencji), ale to godzina pracy, nie tydzień.
Cloud AI aktualizuje się sam - w nocy, bez Twojej wiedzy. To wygodne, ale oznacza, że model, z którym pracowałeś wczoraj, dziś może mieć inne zachowanie. Lokalny model - przeciwnie. Aktualizujesz go ręcznie, kiedy SpeakLeash wypuści BezChmury 11B v3.1 albo v3.2. W modelu BezChmury aktualizacje są spakowane w roczny Update Pack - jednorazowy zakup aplikacji + opcjonalnie pakiet rocznych aktualizacji bazy wiedzy SSoT i samego modelu.
Każdy LLM ma datę odcięcia danych treningowych (training cutoff). Po tej dacie model nie zna wydarzeń ani zmian prawnych „z głowy”. Rozwiązanie nie polega na ciągłym retreningu - to zbyt kosztowne. Zamiast tego stosujemy RAG: lokalna baza faktów SSoT jest aktualizowana bez potrzeby retrenowania samego modelu. Gdy 1 lutego 2026 r. zaszła zmiana KSeF (FA(3) jako wzór obowiązkowy), wystarczyło dodać kilkadziesiąt faktów do SSoT - nie trzeba było przerabiać silnika.
„Do wszystkich faktur ustrukturyzowanych wystawianych od 1 lutego 2026 r. stosuje się strukturę logiczną FA(3).”
Polski ekosystem LLM ma kilka projektów. Dla on-prem deployment w biurze rachunkowym albo kancelarii BezChmury 11B v3 daje najlepszy balans między rozmiarem, jakością języka polskiego i licencją.
„Bielik-PL-11B-v3.0-Instruct is a generative text model featuring 11 billion parameters.”
„...after replacing its tokenizer to the APT4 tokenizer optimized specifically for the Polish language.”
„...reduce the model's parameter count by 33.4% (from 11.04B to 7.35B).”
Świadomie nie publikujemy w tym artykule konkretnych wyników benchmarków typu MT-Bench PL, MMLU PL czy Open LLM Leaderboard PL. Powód jest prosty: na 1 maja 2026 r. nie ma jednego, oficjalnego dokumentu spinającego porównywalnie wyniki BezChmury 11B vs PLLuM vs Trurl 2 dla wszystkich tych benchmarków. Branżowe zajawki sugerują, że BezChmury 11B v3 plasuje się w czołówce polskich modeli (My Company Polska), ale przed publikacją twardej tabeli porównawczej trzeba zrobić własne testy z opisaną metodologią.
Z tego samego powodu nie używamy w komunikacji nazwy „Krakowiak” jako modelu - w research stanu z 1 maja 2026 r. nie udało się potwierdzić takiego projektu z publicznej, wiarygodnej karty modelu albo repozytorium. Do momentu znalezienia oficjalnego źródła traktujemy go jako niezweryfikowaną nazwę.
Nie publikujemy też konkretnej liczby „+30% efficiency for Polish” dla tokenizera APT4. Karty modelu wspominają o zoptymalizowaniu tokenizera pod polszczyznę, ale liczbowe uzasadnienie tej delty wymaga ręcznej lektury pełnego PDF (huggingface.co/papers/2601.11579), a tego w naszym research jeszcze nie zrobiliśmy.
Anna prowadzi biuro rachunkowe obsługujące 50 klientów. Dostaje od jednego z klientów fakturę z odrzuceniem KSeF - kod błędu 440 „Duplikat faktury”. Klient pyta przez telefon, dlaczego faktura nie przeszła i jak to naprawić.
Czas do uzyskania prawidłowej odpowiedzi: 2-3 minuty. Czas alternatywnego procesu (wyszukiwanie w broszurze MF, odpytanie kolegi z biura, zadzwonienie na infolinię): 30-45 minut. Te liczby są ilustracyjne - bardziej rzetelny benchmark dla całego rynku wymagałby wyceny ręcznego procesu KSeF, dla której branżowy opis biura 50 NIP mówi o 3-4 godzinach dziennie bez automatyzacji (drukarkaksef.pl).
Klucz w tym scenariuszu nie jest sama szybkość. Klucz to cytat źródła. Anna może przekazać klientowi nie tylko fix, ale też podstawę: „podręcznik MF, część II, rozdział o duplikatach”. Klient wie, skąd pochodzi odpowiedź. Jeśli za rok KIRP albo UODO zapyta, dlaczego biuro doradziło ten konkretny fix, Anna ma w archiwum cytat. Tego nie da chatbot bez audit trail.
Drugi krytyczny element tej sceny: żadne dane klienta nie opuściły urządzenia Anny. Numer faktury, NIP klienta, fragment XML - wszystko zostało w pamięci RAM jej laptopa, przetworzone przez lokalny model i zapisane w lokalnym audit logu. Gdyby Anna użyła ChatGPT, ten sam dialog wygenerowałby żądanie HTTP do serwerów OpenAI w USA, z metadanymi sesji, tokenem konta i pełnym kontekstem zapytania. Z perspektywy art. 32 RODO to istotny krok - a raczej jego brak.
Co do liczb: nie publikujemy „średniej oszczędności 40 godzin miesięcznie” jako twardej obietnicy produktowej. Spotykane w branżowych zajawkach liczby (3-4 godziny dziennie na ręczną logistykę KSeF dla biura 50 NIP, redukcja do 30-45 minut z odpowiednim narzędziem) pochodzą z zajawki jednego dostawcy, nie z reprezentatywnego badania całego rynku. W twardych deklaracjach komunikacyjnych BezChmury pozostajemy ostrożni - pokazujemy mechanizm, nie magiczne procenty.
Pełny opis tego scenariusza znajdziesz w case study Anny.
FAQ
speakleash/Bielik-PL-11B-v3.0-Instruct). Twórcy: SpeakLeash + ACK Cyfronet AGH. BezChmury jako produkt = aplikacja desktop (DMG/EXE) zbudowana na bazie Bielika - model engine darmowy, aplikacja płatna jednorazowo. Zob. cennik BezChmury.speakleash/Bielik-PL-11B-v3.0-Instruct. Zawiera weights + config + tokenizer. Training data partly open (SpeakLeash GitHub). Aplikacja BezChmury = closed-source (audit kodu możliwy dla Enterprise klientów). Więcej: RODO + AI on-premise.Więcej kontekstu prawnego znajdziesz w artykule RODO i AI on-premise - pełny przewodnik compliance.
Jeśli prowadzisz biuro rachunkowe, kancelarię prawną albo dział compliance - pytanie nie brzmi „czy używać AI”, tylko „które AI nie wyśle danych klienta poza Polskę”. BezChmury to nasza odpowiedź. Polski model BezChmury 11B v3, lokalna baza wiedzy SSoT, cytaty deterministyczne, działanie bez internetu, jednorazowy zakup. Dane klienta zostają tam, gdzie powinny - na Twoim sprzęcie.
LISTA BETA · ZNIŻKA 30% PRZED LAUNCH
Dołącz do listy beta – ekskluzywny krąg wczesnych testerów BezChmury. Co 2 tygodnie wysyłam dziennik dewelopera: co buduję, co łamie, co decyduję.
SŁOWNIK POJĘĆ
ŹRÓDŁA
Wszystkie cytaty dosłowne w artykule pochodzą z powyższych oficjalnych źródeł.
Inline odniesienia oznaczone [N] linkują do tej listy.
Krótkie demo KSeF Private (15 min). Pokażemy lokalne działanie, pytania kontrolne, bazę źródeł i sposób, w jaki BezChmury ogranicza ryzyko halucynacji.