Technologiczny Czwartek ze SNOK: Jak podłączyć AI do systemów SAP on-premise i nie stracić kontroli nad danymi

Technologiczny Czwartek ze SNOK: Jak podłączyć AI do systemów SAP on-premise i nie stracić kontroli nad danymi

Technologiczny Czwartek ze SNOK: Jak podłączyć AI do systemów SAP on-premise i nie stracić kontroli nad danymi

Sztuczna inteligencja w SAP to już nie przyszłość – to teraźniejszość. Problem polega na tym, że większość rozwiązań zakłada migrację do chmury. Co jednak z tysiącami polskich organizacji, które muszą lub chcą pozostać przy środowiskach lokalnych? Odpowiedź jest prostsza, niż mogłoby się wydawać — i nie wymaga rewolucji w infrastrukturze.


Kiedy w listopadzie 2024 roku firma Anthropic opublikowała specyfikację Model Context Protocol, niewielu zdawało sobie sprawę, jak fundamentalnie zmieni to podejście do integracji systemów korporacyjnych z modelami językowymi. MCP rozwiązuje problem, z którym branża zmagała się od lat — każda kombinacja modelu AI i źródła danych wymagała dotychczas dedykowanego konektora. Przy dziesiątkach modeli i setkach systemów źródłowych powstawała niewyobrażalna sieć zależności, której utrzymanie przekraczało możliwości większości organizacji.

„Przez lata obserwowaliśmy, jak firmy budują punktowe integracje między SAP a różnymi systemami analitycznymi” — mówi Michal Korzen, CTO SNOK i architekt rozwiązań AI. „Każda taka integracja to był osobny projekt, osobny budżet, osobne ryzyko. MCP zmienia reguły gry, bo wprowadza uniwersalny język komunikacji między światem AI a systemami biznesowymi.”

Protokół MCP opiera się na trzech komponentach:

MCP Host — orkiestrator, który zarządza całością komunikacji

MCP Client — moduł komunikacyjny osadzony w aplikacji AI

MCP Server — lekki program eksponujący dane z zewnętrznych systemów

Transport odbywa się przez JSON-RPC 2.0 z wykorzystaniem protokołu HTTP lub standardowego wejścia-wyjścia, co zapewnia dwukierunkową komunikację w czasie rzeczywistym.

Co istotne, MCP został już przyjęty przez największych graczy na rynku — OpenAI , Google DeepMind i Microsoft włączyły ten protokół do swoich ekosystemów. To oznacza, że inwestycja w infrastrukturę opartą na MCP ma solidne fundamenty i perspektywę długoterminowego wsparcia.

SNOK jako jeden z pierwszych partnerów SAP w Polsce zbudował własny serwer MCP dedykowany dla systemów SAP. Rozwiązanie to pozwala modelom AI na bezpośredni dostęp do danych biznesowych — od prostego odczytu tabel, przez wywołania złożonych funkcji BAPI, aż po automatyzację całych transakcji SAP GUI. W przeciwieństwie do standardowego dostępu OData, który ogranicza się głównie do operacji odczytu i prostych modyfikacji, serwer MCP od SNOK przekazuje pełną logikę biznesową do warstwy AI.

„Budowaliśmy ten serwer MCP przez ostatnie miesiące, testując go w rzeczywistych środowiskach produkcyjnych naszych klientów” — dodaje Michał Korzeń. „Wiemy, gdzie są pułapki, które funkcje BAPI zachowują się nieoczekiwanie przy dużym obciążeniu, jak obsługiwać sesje SAP w kontekście wielu równoległych zapytań AI. To wiedza, którą zdobywa się tylko przez praktykę.”


Tradycyjne metody integracji SAP z systemami zewnętrznymi — RFC, BAPI i OData — pozostają fundamentem każdej architektury integracyjnej. Jednak każda z nich ma swoje ograniczenia, które nabierają szczególnego znaczenia w kontekście współpracy z modelami językowymi.

RFC (Remote Function Call) — binarny, wysoce zoptymalizowany protokół dostępny od czasów SAP R/3. Oferuje najwyższą wydajność spośród wszystkich metod integracji, ale wymaga bibliotek SAP JCo dla Javy lub NCo dla platformy .NET i nie obsługuje natywnie protokołu HTTP. Dla integracji z AI konieczna jest więc warstwa pośrednicząca, która „opakuje” wywołania RFC jako interfejs REST.

BAPI (Business Application Programming Interface) — moduły funkcyjne z włączoną obsługą RFC, które SAP projektuje z myślą o stabilności interfejsu. Producent nigdy nie zmienia sygnatury istniejącego BAPI, zamiast tego tworzy nową wersję. To fundamentalna cecha dla integracji długoterminowych — raz zbudowany interfejs będzie działał przez lata bez konieczności modyfikacji.

OData — preferowana metoda dla integracji z modelami językowymi. Natywna kompatybilność z HTTP i formatem JSON, samodokumentujące się metadane i wsparcie dla standardowych operacji CRUD sprawiają, że modele AI mogą bezproblemowo komunikować się z systemami SAP. S/4HANA oferuje natywne wsparcie dla OData w wersji czwartej poprzez SAP Gateway. Dla starszych systemów ECC 6.0 wymagana jest instalacja SAP NetWeaver Gateway w wersji 7.4 lub nowszej jako dodatkowego komponentu.

„OData to świetny punkt wyjścia, ale sam w sobie nie wystarczy do zbudowania pełnowartościowej integracji AI z SAP” — wyjaśnia Jaroslaw Kamil Zdanowski, Partner SNOK odpowiedzialny za cyberbezpieczeństwo i administrację SAP BASIS. „OData daje głównie dostęp do danych w trybie odczytu i prostych operacji. Prawdziwa wartość AI w SAP pojawia się dopiero wtedy, gdy model może wywoływać pełną logikę biznesową, automatyzować procesy i wyzwalać akcje w systemie.”

W praktyce różnica między dostępem OData a pełną integracją przez MCP jest fundamentalna. Wyobraźmy sobie scenariusz, w którym użytkownik pyta asystenta AI o status zamówienia. Przy dostępie OData model może jedynie odczytać dane z odpowiedniej tabeli i zwrócić informację. Przy integracji MCP ten sam model może sprawdzić status, zidentyfikować opóźnienie, wywołać funkcję BAPI do eskalacji, utworzyć notyfikację dla odpowiedzialnego pracownika i zaktualizować priorytet zamówienia — wszystko w ramach jednej konwersacji z użytkownikiem.

SNOK oferuje własny serwer MCP dedykowany dla systemów SAP, który właśnie takie scenariusze umożliwia. Rozwiązanie zapewnia dostęp do tabel SAP, widoków CDS, wywoływanie funkcji BAPI i modułów funkcyjnych oraz automatyzację transakcji SAP GUI. Co istotne, działa zarówno w środowisku konteneryzowanym on-premise, jak i w modelu usługowym, zachowując identyczne interfejsy w obu scenariuszach. Klient może zacząć od wdrożenia lokalnego, a w przyszłości — jeśli zmienią się wymagania regulacyjne lub biznesowe — przenieść część obciążeń do chmury bez przepisywania integracji.


SAP Business Technology Platform pełni funkcję centralnego pomostu łączącego systemy lokalne z usługami AI — niezależnie od tego, czy te usługi działają w chmurze, czy we własnym centrum danych klienta. Kluczowym elementem tej architektury jest Cloud Connector — agent proxy działający w sieci lokalnej organizacji.

Cloud Connector działa w modelu reverse-invoke, co oznacza, że połączenie jest inicjowane od strony środowiska lokalnego, a nie z zewnątrz. To fundamentalna różnica z punktu widzenia bezpieczeństwa — eliminuje konieczność otwierania portów w zaporze sieciowej i drastycznie redukuje powierzchnię ataku.

Przepływ danych w architekturze hybrydowej wygląda następująco:

  1. System SAP ECC lub S/4HANA działający lokalnie
  2. Cloud Connector — bezpieczny tunel do chmury

  3. SAP BTP Connectivity Service — punkt wejścia do platformy

  4. SAP Integration Suite — transformacja i routing danych

  5. SAP AI Core + Generative AI Hub — przetwarzanie przez modele AI

SAP AI Core to środowisko uruchomieniowe dla obciążeń AI i uczenia maszynowego, działające na zarządzanym klastrze Kubernetes. Wspiera popularne biblioteki takie jak TensorFlow, PyTorch i Scikit-learn, oferując przy tym automatyczne skalowanie i opcjonalne wsparcie dla procesorów graficznych. Generative AI Hub konsoliduje natomiast dostęp do modeli językowych od różnych dostawców — Azure OpenAI z modelami GPT-4, AWS Bedrock z modelami Claude od Anthropic, a także modele open source takie jak Llama 3-70b czy Mixtral-8x7b.

Szczególnie interesująca jest możliwość wdrożenia własnych modeli na platformie SAP. AI Core w pełni wspiera podejście „przynieś własny model”, umożliwiając uruchomienie własnych kontenerów Docker z serwerami wnioskowania — czy to Ollama, vLLM, czy llama.cpp. Wymaga to zdefiniowania szablonu serwującego w formacie YAML oraz dostępu do rejestru Docker w chmurze.

Nowością wprowadzoną w latach 2024-2025 jest Edge Integration Cell — komponent umożliwiający lokalne wykonywanie integracji dla scenariuszy z wymaganiami dotyczącymi rezydencji danych, niskiej latencji lub zgodności regulacyjnej. Wdrożenie odbywa się na klastrze Kubernetes — czy to w chmurze publicznej, czy na klastrach lokalnych.

„Edge Integration Cell to przełom dla organizacji, które potrzebują pełnej kontroli nad przepływem danych” — podkreśla Michał Korzeń. „Wcześniej hybrydowa architektura SAP BTP zawsze oznaczała, że przynajmniej część przetwarzania musi odbywać się w chmurze. Teraz możemy zbudować w pełni lokalne rozwiązanie AI, zachowując przy tym wszystkie zalety platformy integracyjnej SAP.”


SAP Joule to generatywny asystent wprowadzony we wrześniu 2023 roku, który oferuje obecnie ponad 1900 umiejętności i 300 scenariuszy AI. Wspiera nawigację w aplikacjach SAP Fiori, wykonywanie transakcji takich jak zamówienia czy faktury, oraz dostęp do dokumentacji. Brzmi obiecująco, ale diabeł tkwi w szczegółach.

Status wsparcia Joule różni się znacząco w zależności od wersji systemu. S/4HANA Cloud Public Edition jest w pełni wspierany. S/4HANA Cloud Private Edition również otrzymał wsparcie począwszy od wersji 2023 FPS01. S/4HANA on-premise może korzystać z Joule pośrednio przez platformę BTP. ECC 6.0 wymaga natomiast wykorzystania Joule Studio w połączeniu z mechanizmem BTP Destinations.

Kluczowe ograniczenie dla polskich organizacji? Język polski nie jest obecnie wspierany przez Joule. Planowane rozszerzenia językowe obejmują niemiecki, hiszpański, francuski i portugalski, ale brak oficjalnych informacji o dodaniu polskiego w przewidywalnej przyszłości.

Od lipca 2025 roku Joule Studio wspiera usługę SAP BTP Destination Service, co umożliwia łączenie z interfejsami programistycznymi systemów lokalnych bez konieczności replikacji danych do chmury. To istotny krok naprzód, ale nadal nie rozwiązuje problemu językowego ani nie eliminuje zależności od infrastruktury chmurowej SAP.

Joule wykorzystuje wielomodelową architekturę z własnymi modelami SAP — w tym specjalistycznym modelem ABAP trenowanym na 250 milionach linii kodu w tym języku — oraz modelami zewnętrznymi: GPT-4, Claude 3.5 Sonnet i modelami od Google, Meta oraz Mistral AI.

„Joule to świetne narzędzie dla organizacji, które są już w chmurze SAP i operują głównie w języku angielskim” — ocenia Jacek Bugajski , CEO SNOK. „Dla polskiego rynku, gdzie mamy tysiące firm pracujących na systemach lokalnych i potrzebujących wsparcia w języku polskim, potrzebujemy innych rozwiązań. I te rozwiązania istnieją — trzeba tylko wiedzieć, jak je wdrożyć.”

W praktyce organizacje, które zdecydują się na integrację AI z SAP on-premise, zyskują elastyczność niedostępną w modelu chmurowym. Mogą wybrać model językowy najlepiej dopasowany do swoich potrzeb — czy to globalny model od OpenAI, europejski Mistral, czy polski Bielik AI. Mogą kontrolować, które dane są dostępne dla modelu, i wdrażać własne mechanizmy filtrowania i moderacji. Mogą wreszcie skalować infrastrukturę zgodnie z rzeczywistym wykorzystaniem, bez uzależnienia od cenników zewnętrznych dostawców.

SNOK realizował już projekty integracji AI z systemami SAP dla klientów z sektora medycznego, produkcyjnego i administracji publicznej. Każde wdrożenie uczy nas czegoś nowego — o specyfice różnych branż, o wymaganiach użytkowników końcowych, o wyzwaniach związanych z integracją z istniejącą infrastrukturą. Ta wiedza przekłada się na sprawniejsze i bardziej przewidywalne projekty dla kolejnych klientów.


Partnerstwo między SAP a NVIDIA, rozszerzone na konferencji NVIDIA GTC 2024, otwiera zupełnie nowe możliwości dla organizacji planujących wdrożenie AI w środowisku lokalnym. Współpraca obejmuje integrację platformy NVIDIA AI Enterprise z SAP Datasphere, dostęp do mikroserwisów NVIDIA NIM w ekosystemie SAP oraz wykorzystanie infrastruktury NVIDIA HGX H100 do trenowania własnych modeli specjalizowanych dla środowiska SAP.

Jensen Huang, dyrektor generalny NVIDIA, określił dane zgromadzone w systemach SAP jako „kopalnię złota”, którą można przekształcić w spersonalizowanych agentów AI. To nie jest przesada marketingowa — systemy SAP w większości organizacji zawierają dekady historii transakcyjnej, wzorców zachowań użytkowników i wiedzy domenowej zakodowanej w customizacjach i rozszerzeniach.

NVIDIA AI Enterprise to kompleksowa platforma do uruchamiania modeli AI w środowisku lokalnym. W jej skład wchodzą:

NVIDIA NIM — mikroserwisy wnioskowania dla modeli AI

NVIDIA NeMo — biblioteka do budowy i trenowania dużych modeli językowych

Triton Inference Server — obsługa wielu bibliotek uczenia maszynowego jednocześnie • TensorRT-LLM — optymalizacja wydajności na procesorach graficznych

NeMo Guardrails — mechanizmy bezpieczeństwa i moderacji treści

Licencjonowanie NVIDIA AI Enterprise wynosi 4500 dolarów za procesor graficzny rocznie w modelu subskrypcyjnym, z opcją kontraktów trzy- lub pięcioletnich. Procesory graficzne z wbudowaną licencją — takie jak H100 PCIe czy H200 NVL — zawierają pięcioletnią licencję AI Enterprise w cenie zakupu sprzętu.

Wybór odpowiedniego procesora graficznego zależy od planowanych zastosowań:

H200 (141 GB HBM3e) — dla największych modeli powyżej 100 mld parametrów | ~35-40 tys. USD

H100 SXM(80 GB HBM3) — dla modeli 70 mld+ i zadań treningowych | ~25-35 tys. USD

L40S (48 GB GDDR6) — dla wnioskowania na modelach 7-13 mld | ~7-10 tys. USD

L4 (24 GB GDDR6) — dla małych i średnich modeli | ~2-4 tys. USD

Dla większości scenariuszy w środowisku SAP wystarczają modele w zakresie 7-13 miliardów parametrów, które można efektywnie uruchomić na kartach L40S lub nawet L4. Nie potrzeba serwerowni z dziesiątkami kart H100, żeby uzyskać realną wartość biznesową z AI.

NVIDIA NIM to konteneryzowane mikroserwisy wnioskowania z predefiniowanymi, zoptymalizowanymi modelami i interfejsem programistycznym kompatybilnym z OpenAI. Wdrożenie na dowolnej infrastrukturze NVIDIA zajmuje dosłownie kilka minut. Przyrosty wydajności są imponujące — Llama 3.1 8B osiąga dwukrotnie wyższą przepustowość w porównaniu do standardowego wdrożenia, Llama 3 70B do pięciokrotnie wyższą, a Mixtral 8x7B ponad czterokrotną.

„Partnerstwo SAP-NVIDIA to sygnał dla rynku, że AI w środowisku lokalnym to pełnoprawna ścieżka rozwoju, nie obejście czy prowizorka” — komentuje Michał Korzeń. „SNOK jako partner zarówno SAP, jak i NVIDIA, może zaoferować klientom kompletne rozwiązania — od doboru sprzętu, przez integrację z systemami SAP, po wdrożenie i utrzymanie. To nie jest rocket science, ale wymaga doświadczenia w obu światach.”


Polski model językowy Bielik to pierwsza w pełni polska alternatywa dla zagranicznych modeli, stworzona przez Fundację SpeakLeash we współpracy z ACK Cyfronet AGH. Model zdobył nagrodę Technologia Roku 2025 przyznawaną przez portal Money.pl i znalazł się w pierwszej dziesiątce najbardziej wpływowych projektów open source w dziedzinie AI na świecie według rankingu Spotlight AI 2025.

Dostępne są różne wersje modelu dostosowane do różnych wymagań sprzętowych i przypadków użycia:

Bielik-11B-v2.2-Instruct (11 mld parametrów) — najlepsza wersja konwersacyjna

Bielik-7B-Instruct-v0.1 (7 mld parametrów) — bazowa wersja konwersacyjna

Bielik-4.5B-v3 (4,5 mld parametrów) — zbalansowane podejście wydajność/wymagania

Bielik-1.5B-v3 (1,5 mld parametrów) — wersja kompaktowa dla skromniejszego sprzętu

Wyniki w testach porównawczych potwierdzają jakość modelu. Na otwartym rankingu Polish LLM Leaderboard model Bielik-11B-v2.2-Instruct osiąga wynik 65,57 punktu, przewyższając model Meta-Llama-3.1-70B-Instruct z wynikiem 65,49 — mimo że ten drugi jest sześciokrotnie większy. W teście Polish MT-Bench, oceniającym zdolności konwersacyjne, Bielik zdobywa 8,11 punktu, pokonując GPT-3.5-turbo z wynikiem 7,87.

Kluczowe przewagi Bielika dla polskich przedsiębiorstw są fundamentalne:

Natywna tokenizacja polskich tekstów — model potrzebuje mniej tokenów do przetworzenia polskich słów, co przekłada się na niższe koszty i wyższą wydajność

100% odpowiedzi po polsku — inne modele często przechodzą na angielski w trakcie dłuższych konwersacji

Rozumienie kontekstu kulturowego — polskie idiomy, sarkazm, specyficzny humor

Trening na 400 mld tokenów polskich tekstów — unikalne zrozumienie języka

Wymagania sprzętowe są zaskakująco przystępne:

Bielik-11B (Q4_K_M) — ~8 GB RAM, działa nawet na CPU

Bielik-11B (FP16) — ~22 GB VRAM, karty A100-40GB lub H100

Bielik-7B (Q4_K_M) — 8-16 GB RAM, RTX 3060+ lub CPU

Licencja Apache 2.0 umożliwia pełne użycie komercyjne, modyfikacje i dystrybucję bez dodatkowych opłat licencyjnych. To fundamentalna różnica w porównaniu do modeli, które wymagają opłat za każde zapytanie do interfejsu programistycznego.

Warto zwrócić uwagę na praktyczne scenariusze wykorzystania Bielika w środowisku SAP. Asystent AI może odpowiadać na pytania użytkowników o stany magazynowe, statusy zamówień czy terminy płatności — wszystko w naturalnym języku polskim. Może generować raporty i podsumowania na podstawie danych z systemu SAP, tłumaczyć techniczny żargon SAP na zrozumiały język biznesowy, a nawet pomagać nowym pracownikom w nauce obsługi systemu. W scenariuszach bardziej zaawansowanych Bielik może analizować wzorce w danych historycznych, identyfikować anomalie i sugerować działania naprawcze.

Szczególnie interesujące są zastosowania w obszarze ABAP — języka programowania SAP. Bielik może dokumentować istniejący kod, generować testy jednostkowe dla programów ABAP, a nawet pomagać w tworzeniu nowych raportów i funkcji. Dla zespołów utrzymujących systemy SAP z dziesiątkami tysięcy linii customowego kodu to potencjalnie ogromna oszczędność czasu.

„Bielik to game-changer dla polskiego rynku SAP” — mówi Jacek Bugajski. „Mamy model, który rozumie polski lepiej niż wielokrotnie większe modele zagraniczne, można go uruchomić na własnej infrastrukturze, i nie trzeba płacić za każde zapytanie. Dla instytucji publicznych, które ze względów regulacyjnych nie mogą korzystać z chmury, to jedyna realistyczna ścieżka do AI.”

SNOK jako jeden z pierwszych integratorów w Polsce testował Bielika w rzeczywistych środowiskach SAP. Wyniki przekroczyły oczekiwania — szczególnie w zadaniach wymagających zrozumienia polskiego kontekstu biznesowego i prawnego. Model poprawnie interpretuje polskie skróty i terminy branżowe, rozumie specyfikę polskiego systemu podatkowego i księgowego, radzi sobie z polskimi nazwami własnymi i formatami dat czy numerów.


Kontekst regulacyjny w Polsce jednoznacznie faworyzuje rozwiązania lokalne — szczególnie dla sektora publicznego i organizacji działających w branżach regulowanych. Ustawa o Krajowym Systemie Cyberbezpieczeństwa, wraz z nowelizacją implementującą dyrektywę NIS 2, nakłada szczególne obowiązki na podmioty kluczowe i ważne.

Do podmiotów kluczowych zaliczają się organizacje z sektorów energetyki, transportu, bankowości i ochrony zdrowia. Podmioty ważne to między innymi firmy z branży ICT, produkcji przemysłowej i chemicznej. Obie kategorie muszą wdrożyć system zarządzania bezpieczeństwem, prowadzić szacowanie ryzyka, zgłaszać incydenty w ciągu 24 godzin (wstępnie) i 72 godzin (pełne zgłoszenie) oraz poddawać się audytom co dwa lata. Kary za nieprzestrzeganie przepisów mogą sięgać 10 milionów euro lub 2 procent rocznego obrotu.

RODO komplikuje transfer danych do chmury na kilka sposobów:

Art. 22 — prawo do wyjaśnienia przy zautomatyzowanych decyzjach (bezpośrednie przełożenie na scenariusze AI)

Art. 28 — wymóg umowy powierzenia przetwarzania z dostawcą usług chmurowych

Art. 44-50 — ograniczenia w przekazywaniu danych do państw trzecich

Amerykańska ustawa CLOUD Act stwarza ryzyko dostępu służb amerykańskich do danych przetwarzanych przez amerykańskich dostawców — niezależnie od fizycznej lokalizacji serwerów. Po wyroku Schrems II standardowe klauzule umowne wymagają dodatkowej analizy ryzyka dla każdego transferu danych.

Rozporządzenie o sztucznej inteligencji — AI Act — wchodzi w życie etapami. Od lutego 2025 roku obowiązuje zakaz praktyk AI wysokiego ryzyka. Od sierpnia 2025 roku wchodzą przepisy o modelach ogólnego przeznaczenia. Pełne stosowanie wszystkich przepisów zaczyna się od sierpnia 2026 roku. Polski projekt ustawy o systemach AI, opublikowany w październiku 2024 roku, przewiduje powołanie Komisji Rozwoju i Bezpieczeństwa AI.

„Regulacje to nie przeszkoda — to kierunkowskaz” — podkreśla Jarosław Zdanowski. „Organizacje, które dziś zainwestują w infrastrukturę AI zgodną z wymaganiami KSC, RODO i AI Act, będą miały przewagę konkurencyjną, gdy regulacje zaczną być egzekwowane. SNOK pomaga klientom nie tylko spełnić minimalne wymagania, ale zbudować architekturę, która będzie odporna na przyszłe zmiany regulacyjne.”

Rynek SAP w Polsce to ponad 1500 organizacji — w tym międzynarodowe korporacje, duże polskie przedsiębiorstwa oraz jednostki administracji publicznej. Według raportu SAP Polska 2025, 38 procent firm korzysta już z chmurowych systemów ERP, a 39 procent planuje wdrożenie w najbliższym roku. To oznacza, że ponad 60 procent rynku nadal operuje na systemach lokalnych — i znaczna część z nich zamierza przy nich pozostać.


Architektura sidecar, zgodna z zasadami SAP Clean Core, to najczęściej rekomendowane podejście do integracji AI z systemami SAP on-premise. W tym modelu obciążenia AI działają poza rdzeniem systemu SAP, komunikując się z nim wyłącznie przez oficjalne interfejsy programistyczne. Warstwa API lub OData pośredniczy między systemem SAP ECC lub S/4HANA a platformą AI, która z kolei zarządza kontenerami z modelami językowymi i jednostkami GPU.

Główna zaleta tej architektury to możliwość skalowania komponentów AI niezależnie od systemu SAP. Można dodawać karty graficzne, wymieniać modele czy rozbudowywać infrastrukturę wnioskowania bez jakiejkolwiek ingerencji w rdzeń systemu ERP. To również upraszcza kwestie licencyjne i utrzymaniowe.

Alternatywne podejście to architektura osadzona, wykorzystująca SAP HANA Enterprise Edition. W tym modelu wszystkie komponenty AI działają w warstwie aplikacyjnej SAP HANA z wykorzystaniem środowiska Cloud Foundry uruchomionego lokalnie. Wbudowany silnik wektorowy wspiera scenariusze RAG — wyszukiwania rozszerzonego o kontekst z bazy wiedzy.

Dla organizacji planujących wdrożenie kluczowe są wymagania bezpieczeństwa:

Jednokrotne logowanie (SSO) — integracja z SAP Identity Authentication Service eliminuje konieczność zarządzania oddzielnymi poświadczeniami dla warstwy AI

Maskowanie danych — informacje umożliwiające identyfikację osób są ukrywane przed wysłaniem do modelu językowego

Filtrowanie treści — ochrona przed próbami manipulacji modelem na wejściu i wyjściu

Pełne logowanie — wszystkie zapytania i odpowiedzi AI są zapisywane dla celów audytu

Szyfrowanie TLS 1.3 — zabezpieczenie całej komunikacji

Izolacja sieciowa — w architekturze w pełni lokalnej dane nigdy nie opuszczają sieci firmowej

„Bezpieczeństwo integracji AI z SAP to nie jest dodatkowa funkcjonalność — to fundament” — podkreśla Jarosław Zdanowski. „Widzimy zbyt wiele organizacji, które w pogoni za szybkim wdrożeniem pomijają podstawowe mechanizmy ochrony. Potem są zaskoczone, gdy audyt wykazuje niezgodności albo gdy model zaczyna odpowiadać na pytania, na które nie powinien.”

W praktyce SNOK stosuje wielowarstwowe podejście do bezpieczeństwa integracji AI z SAP:

Warstwa 1: Kontrola dostępu Model AI nigdy nie ma większych uprawnień niż użytkownik, który zadaje pytanie. Jeśli pracownik nie ma dostępu do danych finansowych w SAP, to asystent AI również nie będzie mógł tych danych odczytać ani przekazać. To realizowane jest przez integrację z istniejącymi mechanizmami autoryzacji SAP.

Warstwa 2: Maskowanie danych wrażliwych Przed wysłaniem jakichkolwiek danych do modelu językowego system automatycznie identyfikuje i ukrywa numery PESEL, numery kont bankowych, adresy e-mail i inne dane osobowe. Model otrzymuje zamaskowane dane, a dopiero w odpowiedzi — jeśli jest to uzasadnione kontekstem — następuje odtworzenie oryginalnych wartości.

Warstwa 3: Filtrowanie treści Zarówno zapytania użytkowników, jak i odpowiedzi modelu są analizowane pod kątem prób manipulacji, wycieku danych czy generowania nieodpowiednich treści. W środowisku korporacyjnym SAP szczególnie istotne jest wykrywanie prób wydobycia informacji o strukturze systemu, poświadczeniach dostępowych czy wrażliwych procesach biznesowych.

Warstwa 4: Pełne logowanie i audytowalność Każde zapytanie i każda odpowiedź są zapisywane wraz z kontekstem — kto pytał, kiedy, z jakiego systemu, jakie dane zostały udostępnione modelowi. To umożliwia późniejszą analizę, identyfikację nieprawidłowości i spełnienie wymagań regulacyjnych dotyczących przejrzystości systemów AI.


Rekomendacje wdrożeniowe różnią się znacząco w zależności od skali organizacji i specyficznych wymagań.

Dla małych i średnich przedsiębiorstw: • Kompaktowa jednostka GPU (np. NVIDIA DGX Spark) • Model Bielik-11B lub Llama 3.1 8B • Inwestycja: 20-50 tys. EUR (sprzęt + integracja) • Przewidywalny koszt posiadania — brak opłat za zapytania API

Dla dużych przedsiębiorstw: • Serwery certyfikowane NVIDIA z 4-8 kartami H100 • Subskrypcja NVIDIA AI Enterprise: 18-36 tys. EUR/rok • SAP HANA Enterprise Edition z warstwą AI • Inwestycja w sprzęt: 100-200 tys. EUR + oprogramowanie

Dla sektora publicznego (maksymalna suwerenność): • Bielik jako podstawowy model (Apache 2.0, polski, legalne dane treningowe) • Architektura w pełni lokalna — zero komponentów chmurowych • Zgodność z KSC, RODO i AI Act • Edge Integration Cell do integracji z SAP

„Każda organizacja jest inna i nie ma uniwersalnego rozwiązania, które sprawdzi się wszędzie” — mówi Jacek Bugajski. „Dlatego w SNOK zaczynamy każdy projekt od dogłębnej analizy potrzeb, istniejącej infrastruktury i wymagań regulacyjnych. Dopiero potem projektujemy architekturę i dobieramy komponenty. To podejście wymaga więcej czasu na początku, ale eliminuje kosztowne pomyłki i przeprojektowania w późniejszych etapach.”

Typowy projekt wdrożenia AI w środowisku SAP on-premise realizowany przez SNOK składa się z kilku faz:

Faza 1: Analiza i projektowanie (2-4 tygodnie) • Inwentaryzacja istniejących systemów SAP • Identyfikacja przypadków użycia o najwyższym potencjale zwrotu z inwestycji • Ocena wymagań regulacyjnych i bezpieczeństwa • Zaprojektowanie docelowej architektury

Faza 2: Przygotowanie infrastruktury (2-6 tygodni) • Zamówienie i instalacja sprzętu GPU (jeśli wymagany) • Konfiguracja środowiska kontenerowego • Wdrożenie serwera MCP dla SAP • Instalacja i optymalizacja wybranego modelu językowego • Integracja z systemami uwierzytelniania i autoryzacji

Faza 3: Wdrożenie pilotażowe (4-8 tygodni) • Uruchomienie asystenta AI dla wybranej grupy użytkowników • Zbieranie informacji zwrotnych • Dostrajanie modelu i optymalizacja promptów systemowych • Weryfikacja teoretycznych założeń w praktyce

Faza 4: Rollout produkcyjny i optymalizacja (zależnie od skali) • Stopniowe rozszerzanie dostępu na kolejne grupy użytkowników • Monitorowanie wydajności i jakości odpowiedzi • Szkolenia dla użytkowników końcowych • Dokumentacja i transfer wiedzy do zespołu IT klienta

„Nie zostawiamy klientów samych po wdrożeniu” — dodaje Michał Korzeń. „Oferujemy pakiety utrzymaniowe obejmujące aktualizacje modeli, optymalizację wydajności, rozbudowę o nowe przypadki użycia i wsparcie techniczne. AI to nie jest projekt jednorazowy — to ciągła podróż, a my chcemy być partnerem na tej drodze.”


Integracja AI z SAP on-premise nie jest już eksperymentem ani wizją przyszłości — to dojrzała ścieżka technologiczna z dobrze zdefiniowanymi wzorcami architektonicznymi, dostępnym sprzętem i oprogramowaniem oraz sprawdzonymi metodologiami wdrożeniowymi.

Trzy kluczowe przełomy ostatnich lat uczyniły tę integrację praktyczną:

Standaryzacja MCP — eliminuje problem kombinatorycznej eksplozji konektorów i zapewnia długoterminową stabilność interfejsów

Dojrzałość platformy NVIDIA AI Enterprise — dostarcza kompletny stos technologiczny do uruchamiania modeli AI lokalnie, od bibliotek wnioskowania po mechanizmy bezpieczeństwa

Dostępność lokalnych modeli językowych — ze szczególnym uwzględnieniem polskiego Bielika, umożliwia budowę rozwiązań w pełni niezależnych od zagranicznych dostawców usług chmurowych

Dla polskich organizacji — szczególnie tych działających w sektorach regulowanych lub obsługujących dane wrażliwe — możliwość wdrożenia AI bez kompromisów w zakresie suwerenności danych ma fundamentalne znaczenie. Bielik-11B oferuje jakość porównywalną z modelami 70-miliardowymi w zadaniach polskojęzycznych, przy wymaganiach sprzętowych pozwalających na uruchomienie nawet na procesorze centralnym. W połączeniu z serwerem MCP dla SAP, dedykowanym sprzętem NVIDIA i sprawdzonymi wzorcami architektonicznymi powstaje ekosystem, który nie ustępuje rozwiązaniom chmurowym — a w wielu aspektach je przewyższa.

„AI w SAP on-premise to nie jest kompromis ani obejście — to świadomy wybór architektoniczny, który dla wielu organizacji jest jedyną sensowną ścieżką” — podsumowuje Michał Korzeń. „SNOK ma kompetencje, partnerstwa i doświadczenie, żeby przeprowadzić klientów przez cały proces — od analizy potrzeb, przez dobór technologii, projektowanie architektury, wdrożenie, aż po utrzymanie i rozwój. Zapraszam do kontaktu każdą organizację, która chce wykorzystać potencjał AI w swoim środowisku SAP, zachowując przy tym pełną kontrolę nad danymi.”


SNOK to polska firma konsultingowa IT z ponad 25-letnim doświadczeniem, specjalizująca się w systemach SAP, cyberbezpieczeństwie i inteligentnej automatyzacji. Jako Gold Partner SAP, UiPath Agentic Automation Fast Track Partner oraz oficjalny przedstawiciel SecurityBridge w Polsce, SNOK łączy głęboką ekspertyzę technologiczną z praktycznym doświadczeniem wdrożeniowym. Posiadane certyfikaty ISO 9001 i ISO 27001 potwierdzają zaangażowanie w jakość i bezpieczeństwo realizowanych projektów.

Jeśli Twoja organizacja rozważa wdrożenie AI w środowisku SAP on-premise, zapraszamy do kontaktu. Nasi eksperci pomogą ocenić możliwości, zaprojektować architekturę i przeprowadzić wdrożenie — od pierwszej analizy po produkcyjne uruchomienie.

SNOK.AI
Przegląd prywatności

Ta strona korzysta z ciasteczek, aby zapewnić Ci najlepszą możliwą obsługę. Informacje o ciasteczkach są przechowywane w przeglądarce i wykonują funkcje takie jak rozpoznawanie Cię po powrocie na naszą stronę internetową i pomaganie naszemu zespołowi w zrozumieniu, które sekcje witryny są dla Ciebie najbardziej interesujące i przydatne.