Grudzień 2025 roku zapisze się w historii polskiego sektora technologicznego jako moment przełomowy, w którym teoretyczne rozważania o suwerenności cyfrowej ustąpiły miejsca konkretnym wdrożeniom na skalę masową. Ogłoszona przez Rafała Brzoskę inicjatywa strategicznego mecenatu InPostu nad fundacją SpeakLeash oraz start akcji „Nakarm Bielika” to nie tylko sprytny zabieg marketingowy, ale przede wszystkim operacja technologiczna o niespotykanej dotąd w Europie Środkowo-Wschodniej skali. Integracja modelu Bielik LLM z aplikacją InPost Mobile, z której korzysta ponad 15 milionów użytkowników, tworzy unikalny w skali światowej poligon doświadczalny dla metod uczenia wzmocnionego na podstawie informacji zwrotnej od ludzi (RLHF – Reinforcement Learning from Human Feedback).
Współpraca ta łączy zasoby finansowe i biznesowe lidera logistyki z naukowym zapleczem Akademickiego Centrum Komputerowego Cyfronet AGH oraz pasją społeczności SpeakLeash. Kluczowym celem jest tu optymalizacja modelu Bielik do poziomu, w którym będzie on w stanie konkurować z globalnymi gigantami takimi jak GPT-4 (OpenAI) czy Claude 3.5 (Anthropic), zachowując przy tym głębokie zrozumienie polskiego kontekstu kulturowego, prawnego i językowego. Z perspektywy inżynieryjnej, projekt ten rozwiązuje jeden z największych problemów lokalnych modeli językowych: deficyt wysokiej jakości, zróżnicowanych danych interakcyjnych, które pozwalają na precyzyjne dostrojenie modelu (fine-tuning).
W niniejszym artykule dokonamy dekonstrukcji technicznej modelu Bielik, przeanalizujemy infrastrukturę obliczeniową Cyfronetu wykorzystywaną do jego trenowania oraz ocenimy, w jaki sposób InPost planuje wykorzystać generatywną sztuczną inteligencję do optymalizacji swoich procesów logistycznych i obsługi klienta. To analiza technologii, która ma ambicję stać się cyfrowym kręgosłupem polskiej gospodarki 4.0.
Nowa era polskiego sektora Tech: Strategiczny sojusz InPost i SpeakLeash
Sojusz sformalizowany w listopadzie 2025 roku pomiędzy InPostem a SpeakLeash stanowi unikalny model współpracy biznes-nauka. InPost, przejmując rolę mecenasa strategicznego, nie ogranicza się jedynie do transferu kapitału. Firma aktywnie uczestniczy w Radzie Biznesowej Fundacji, co pozwala na nakreślenie mapy drogowej rozwoju modelu pod kątem realnych zastosowań komercyjnych. Z technicznego punktu widzenia, najistotniejszym elementem tej współpracy jest udostępnienie „żywego” środowiska testowego wewnątrz aplikacji mobilnej. Pozwala to na zbieranie danych o preferencjach użytkowników w czasie rzeczywistym, co jest niezbędne do procesu Direct Preference Optimization (DPO).
Wprowadzenie modelu Bielik.ai do ekosystemu InPostu rozwiązuje problem tzw. „dryfu modelu” oraz braku aktualnych danych. Wersja dostępna w aplikacji posiada bezpośredni dostęp do danych z internetu, co realizowane jest poprzez architekturę RAG (Retrieval-Augmented Generation). Dzięki temu model nie polega wyłącznie na wiedzy zamrożonej w wagach po zakończeniu etapu pre-trainingu, ale potrafi dynamicznie przeszukiwać indeksy w poszukiwaniu najświeższych informacji, co drastycznie redukuje zjawisko halucynacji w przypadku pytań o bieżące wydarzenia czy statusy przesyłek.
Dla polskiej branży IT jest to sygnał, że budowa suwerennych rozwiązań AI jest możliwa poza strukturami Big Techów. InPost, dysponując gigantycznym zbiorem danych logistycznych i behawioralnych, staje się inkubatorem dla innowacji, które mogą zostać później wyeksportowane na rynki zagraniczne, gdzie firma już teraz posiada silną pozycję (Francja, Wielka Brytania). Strategia ta zakłada, że Bielik stanie się silnikiem dla nowej generacji usług typu „voice-to-action” i inteligentnych asystentów zakupowych.
Architektura i geneza modelu Bielik LLM: Techniczne fundamenty
Bielik LLM nie powstał w próżni. Jest on efektem ewolucji modeli bazowych (foundation models), które zostały poddane rygorystycznemu procesowi dotrenowywania na polskim korpusie tekstowym opracowanym przez SpeakLeash. Korpus ten, obejmujący ponad 1 terabajt wyselekcjonowanych danych tekstowych, jest jednym z największych i najlepiej sformatowanych zbiorów danych dla języka polskiego. Architektura Bielika opiera się na strukturze Transformer z mechanizmem Attention, zoptymalizowanej pod kątem efektywnego wnioskowania (inference) na klastrach GPU.
Od korpusu SpeakLeash do optymalizacji wag modelu
Proces tworzenia Bielika obejmował kilka kluczowych faz. Pierwszą był wybór modelu bazowego (często wykorzystywane są tu architektury Mistral lub Llama ze względu na ich wysoką sprawność przy relatywnie niewielkiej liczbie parametrów – np. 7B lub 70B). Następnie przeprowadzono proces rozszerzania tokenizera o polskie znaki diakrytyczne i specyficzne dla naszego języka zbitki morfemów. Jest to krytyczne, ponieważ standardowe tokenizery modeli anglojęzycznych często dzielą polskie słowa na nienaturalnie dużą liczbę tokenów, co podnosi koszty obliczeniowe i obniża jakość generowanego tekstu.
Kolejnym etapem był SFT (Supervised Fine-Tuning) na wysokiej jakości zestawach instrukcji w języku polskim. To tutaj Bielik nauczył się „rozumieć” polecenia i formować odpowiedzi zgodne z polską składnią i gramatyką. Dzięki mecenatowi InPostu, model mógł zostać poddany dodatkowym cyklom optymalizacji pod kątem konkretnych domen, takich jak logistyka, e-commerce oraz prawo konsumenckie, co czyni go narzędziem znacznie bardziej użytecznym dla polskiego przedsiębiorcy niż generyczne modele z USA.
Projekt „Nakarm Bielika”: Inżynieria danych w skali mikro-usług
Inicjatywa „Nakarm Bielika” to w rzeczywistości gigantyczny projekt adnotacji danych przeprowadzany w modelu crowdsourcingowym. Użytkownicy aplikacji InPost Mobile, wchodząc w interakcję z modelem, generują bezcenne pary danych: prompt i odpowiedź. Jednak najważniejszym elementem jest system oceniania tych odpowiedzi. Mechanizm ten pozwala na budowę modelu nagrody (Reward Model), który jest sercem algorytmów RLHF. Dzięki milionom interakcji, Bielik uczy się, która z kilku potencjalnych odpowiedzi jest najbardziej naturalna, merytoryczna i bezpieczna dla polskiego odbiorcy.
Mechanizmy RLHF i DPO wewnątrz aplikacji InPost Mobile
Wdrożenie modelu w aplikacji mobilnej wymagało zastosowania technik kwantyzacji (np. do formatu 4-bit lub 8-bit), aby zapewnić niskie opóźnienia (latency) i wysoką przepustowość przy jednoczesnej obsłudze tysięcy zapytań na sekundę. Inżynierowie InPostu i SpeakLeash wykorzystali prawdopodobnie frameworki takie jak vLLM lub NVIDIA TensorRT-LLM do serwowania modelu, co pozwala na optymalne wykorzystanie pamięci VRAM procesorów graficznych. Każda sesja użytkownika jest monitorowana pod kątem jakości generowanych treści, a anomalie są automatycznie zgłaszane do ponownej analizy przez zespół kuratorów danych.
Warto zwrócić uwagę na aspekt „danych czasu rzeczywistego”. Bielik w aplikacji InPost nie jest statycznym plikiem wag. Dzięki integracji z API wyszukiwarek i wewnętrznymi bazami wiedzy, potrafi on w locie syntetyzować informacje. Przykładowo, na pytanie o zmiany w regulaminie nadań, model nie „zgaduje” odpowiedzi na podstawie wiedzy z 2024 roku, ale pobiera aktualny dokument, analizuje go za pomocą mechanizmu RAG i generuje zwięzłe podsumowanie. To właśnie ta funkcjonalność ma stanowić o przewadze konkurencyjnej nad rozwiązaniami zagranicznymi, które często mają problem z dostępem do lokalnych, niszowych źródeł informacji w czasie rzeczywistym.
Moc obliczeniowa ACK Cyfronet i stack technologiczny
Bez odpowiedniej infrastruktury, trenowanie modelu tej klasy co Bielik byłoby niemożliwe. Wykorzystanie zasobów ACK Cyfronet AGH, w tym superkomputerów takich jak Athena czy najnowszy Helios, stawia Polskę w pierwszej lidze wyścigu zbrojeń AI. Helios, oparty na architekturze NVIDIA HGX H100, oferuje moc obliczeniową mierzoną w eksaflopsach dla operacji AI. Pozwala to na skrócenie czasu trenowania kolejnych iteracji modelu z miesięcy do tygodni. Wykorzystanie technologii interconnectu InfiniBand o niskich opóźnieniach jest kluczowe przy trenowaniu modeli rozproszonych na setkach układów GPU jednocześnie.
Stack technologiczny projektu Bielik obejmuje najnowocześniejsze biblioteki do uczenia maszynowego: PyTorch jako framework bazowy, DeepSpeed do optymalizacji pamięciowej oraz Hugging Face Transformers do zarządzania wagami i architekturą modeli. Kluczowym wyzwaniem technicznym było zapewnienie spójności danych podczas trenowania równoległego (Data Parallelism) oraz unikanie problemu „zanikającego gradientu” przy bardzo długich oknach kontekstowych (context window), które w najnowszych wersjach Bielika mają pozwalać na analizę całych książek lub rozbudowanych dokumentacji technicznych w jednym zapytaniu.
Infrastruktura ta obsługuje również procesy ewaluacji modelu. Bielik jest poddawany testom na benchmarkach takich jak Polish Open LLM Leaderboard, gdzie oceniana jest jego biegłość w zadaniach typu: streszczanie tekstów, odpowiadanie na pytania zamknięte, czy rozumowanie logiczne. Dzięki wsparciu InPostu, możliwe stało się stworzenie dedykowanego „środowiska cienia” (shadow deployment), gdzie nowe wersje modelu są testowane na realnym ruchu, zanim trafią do wszystkich użytkowników aplikacji.
Bielik LLM na tle gigantów: Dlaczego lokalne modele wygrywają w specyficznych domenach?
Porównanie Bielika z modelem GPT-4 wykazuje fascynujące zależności. O ile modele OpenAI dysponują większą wiedzą ogólną i lepszymi zdolnościami do kodowania, o tyle Bielik wykazuje znacznie wyższą precyzję w zadaniach wymagających znajomości niuansów języka polskiego. Przykładowo, w testach rozumienia tekstów prawnych (zgodność z Kodeksem Cywilnym) Bielik rzadziej popełnia błędy wynikające z kalki językowej z systemów common law, co jest nagminne w przypadku modeli trenowanych głównie na danych z USA.
Kolejnym aspektem jest koszt i suwerenność danych. Korzystanie z API zewnętrznych dostawców wiąże się z przesyłaniem danych użytkowników poza granice kraju i UE, co w kontekście RODO i tajemnicy handlowej budzi wiele wątpliwości. Bielik, działający na infrastrukturze Cyfronetu pod kontrolą polskich podmiotów, gwarantuje pełne bezpieczeństwo danych (on-premise AI). Dla firmy takiej jak InPost, przetwarzającej dane o milionach przesyłek i adresach Polaków, jest to parametr krytyczny, którego nie da się przecenić.
Wydajność tokenizacji, o której wspomniano wcześniej, przekłada się bezpośrednio na szybkość generowania odpowiedzi na urządzeniach mobilnych. Bielik potrzebuje średnio o 30-40% mniej tokenów do opisania tego samego zjawiska w języku polskim niż modele anglocentryczne. Oznacza to mniejsze zużycie energii przez smartfony użytkowników oraz niższe obciążenie serwerów inference’owych, co przy skali 15 milionów użytkowników generuje wymierne oszczędności finansowe i ekologiczne.
Transformacja InPostu w ekosystem AI-first
Inicjatywa Rafała Brzoski to czytelny sygnał dla rynku: InPost przestaje być firmą logistyczną, a staje się firmą technologiczną z własnym „last mile delivery” i własnym „brain”. Wdrożenie Bielika do aplikacji Mobile to dopiero początek. Scenariusze „co jeśli”, które rozważa branża, obejmują m.in. inteligentne systemy sortowania sterowane przez AI, predykcyjne modele obciążenia Paczkomatów oparte na analizie języka naturalnego (np. wyłapywanie trendów zakupowych z czatów) oraz w pełni autonomiczne systemy reklamacyjne.
Dla polskiego ekosystemu startupowego, sukces Bielika oznacza otwarcie drzwi do budowy tysięcy aplikacji typu „wrapper”, które będą korzystać z polskiego modelu przez API. Może to być impuls do powstania nowej fali innowacji w sektorach takich jak LegalTech, MedTech czy EduTech, gdzie bariera językowa i specyfika lokalna były dotąd trudne do przeskoczenia dla globalnych graczy. InPost, pełniący rolę mecenasa, staje się de facto operatorem infrastruktury krytycznej dla polskiego AI.
Eksperci przewidują, że w ciągu najbliższych 24 miesięcy zobaczymy głęboką integrację Bielika z systemami głosowymi w Paczkomatach (Voice AI). Możliwość rozmowy z maszyną w naturalny sposób, bez konieczności klikania w ekran, znacząco podniesie dostępność usług dla osób starszych i niedowidzących. To właśnie w takich inkluzywnych rozwiązaniach drzemie największy potencjał społeczny polskiej sztucznej inteligencji.
Co musisz wiedzieć o Bielik LLM i akcji InPostu?
Czy moje rozmowy z Bielikiem w aplikacji są prywatne?
Tak, InPost oraz SpeakLeash deklarują pełną zgodność z RODO. Dane wykorzystywane do trenowania modelu są anonimizowane i pozbawiane danych wrażliwych (PII – Personally Identifiable Information). Proces trenowania skupia się na strukturze językowej i logicznej, a nie na zapamiętywaniu konkretnych faktów o użytkownikach.
Czym technicznie różni się „trenowanie” od „korzystania” z modelu w aplikacji?
Podczas korzystania model generuje odpowiedzi na Twoje pytania (inference). „Trenowanie” w ramach akcji „Nakarm Bielika” polega na zbieraniu Twoich ocen (np. łapka w górę/dół) oraz alternatywnych odpowiedzi. Te dane są następnie zbierane w pakiety i wykorzystywane w kolejnym procesie iteracyjnym (fine-tuning), który odbywa się na superkomputerach w Cyfronecie, a nie bezpośrednio na Twoim telefonie.
Czy Bielik LLM potrafi pisać kod programistyczny?
Mimo że głównym celem Bielika jest język polski, dzięki bazowaniu na architekturach typu Transformer trenowanych na dużych zbiorach danych, model ten posiada zdolność rozumienia i generowania kodu w popularnych językach takich jak Python, Java czy JavaScript. Jednak w zadaniach stricte programistycznych może on ustępować modelom dedykowanym (np. CodeLlama), dopóki nie zostanie przeprowadzony specyficzny fine-tuning w tym kierunku.
Dlaczego dostęp do danych w czasie rzeczywistym jest dostępny tylko w InPost Mobile?
Integracja modelu z dostępem do internetu (RAG) wymaga dodatkowej infrastruktury serwerowej i wysokich kosztów operacyjnych związanych z indeksowaniem sieci. InPost zdecydował się udostępnić tę funkcjonalność wyłącznie swoim użytkownikom jako wartość dodaną, co jednocześnie pozwala firmie kontrolować obciążenie systemów i zbierać dane od najbardziej aktywnej grupy odbiorców.
Jakie są parametry techniczne Bielika?
Choć dokładna liczba parametrów najnowszej wersji wykorzystywanej przez InPost jest chroniona tajemnicą handlową, modele z rodziny Bielik operują zazwyczaj w przedziałach od 7 do 70 miliardów parametrów. Pozwala to na zachowanie balansu między „inteligencją” modelu a szybkością jego działania i kosztami utrzymania infrastruktury GPU.
