Amazon redukuje etaty o 30 tys AI w centrum zwolnień

Awatar maszynalia
8–12 minut

Rynek technologiczny stanął w obliczu jednej z najbardziej znaczących restrukturyzacji w historii Big Tech. Amazon, gigant z Seattle, ogłosił plany redukcji zatrudnienia, które według najnowszych raportów Reutersa oraz CNBC mogą objąć łącznie nawet 30 000 pracowników do stycznia 2026 roku. Choć oficjalna narracja korporacyjna, reprezentowana przez dyrektora generalnego Andy’ego Jassy’ego oraz szefową HR Beth Galetti, kładzie nacisk na eliminację biurokracji i uproszczenie struktur, analiza techniczna procesów zachodzących wewnątrz Amazon Web Services (AWS) oraz w pionie Retail wskazuje na znacznie głębszą transformację. Jest to przejście od modelu opartego na intensywnej pracy inżynieryjnej typu „man-month” do zautomatyzowanych ekosystemów napędzanych przez Generative AI (GenAI) i modele Large Language Models (LLM).

Najbardziej alarmującym faktem dla branży IT jest struktura tych zwolnień. Dokumenty złożone w stanowych urzędach pracy w Nowym Jorku, Kalifornii, New Jersey i Waszyngtonie ujawniają, że blisko 40% redukcji w tych regionach dotyczy stanowisk inżynierskich. Z 4 700 zwolnionych osób, aż 1 800 to inżynierowie oprogramowania, inżynierowie systemowi oraz architekci rozwiązań. To zjawisko podważa dotychczasowy paradygmat, według którego wykwalifikowana kadra techniczna była bezpieczna w obliczu automatyzacji. W rzeczywistości Amazon implementuje strategię „największego startupu świata”, co w praktyce oznacza drastyczne zwiększenie wskaźnika „span of control” (liczby podwładnych przypadających na jednego menedżera) oraz zastąpienie powtarzalnych zadań inżynieryjnych przez autonomiczne agenty AI.

Warto zauważyć, że obecna fala redukcji jest kontynuacją trendu zapoczątkowanego w 2022 roku, kiedy to firma pożegnała się z 27 000 pracowników. Jednak obecna restrukturyzacja różni się od poprzedniej kontekstem technologicznym. Amazon nie tylko tnie koszty, ale agresywnie przesuwa miliardy dolarów z budżetów operacyjnych (OpEx) na wydatki kapitałowe (CapEx) związane z infrastrukturą obliczeniową pod AI, taką jak klastry oparte na procesorach AWS Trainium2 i Inferentia2. To przesunięcie kapitałowe bezpośrednio wpływa na strukturę zatrudnienia: firma potrzebuje mniej osób do utrzymania legacy code, a więcej mocy obliczeniowej do trenowania modeli Titan i integracji Amazon Q w codzienny workflow programistyczny.

Restrukturyzacja „Największego Startupu Świata”: Mechanika zmiany

Andy Jassy, przejmując stery po Jeffie Bezosie, postawił sobie za cel walkę z tzw. „podatkiem biurokratycznym”. Wewnętrzne analizy Amazona wykazały, że nadmierna liczba warstw menedżerskich spowalnia cykl życia oprogramowania (SDLC) oraz proces wdrażania innowacji w logistyce. Model „Two-Pizza Teams”, który niegdyś był fundamentem zwinności Amazona, w wielu działach przekształcił się w skomplikowaną strukturę macierzową, gdzie decyzje wymagały akceptacji wielu interesariuszy. Redukcja 30 000 etatów ma na celu spłaszczenie tej hierarchii, co w teorii ma przywrócić dynamikę „Day 1”, charakterystyczną dla wczesnej fazy rozwoju firmy.

Z perspektywy inżynierii organizacji, Amazon dąży do usunięcia „middle managementu”, który nie uczestniczy bezpośrednio w tworzeniu kodu ani w operacjach fizycznych. Jednak analiza danych z Layoffs.fyi sugeruje, że cięcia uderzają również w zespoły produktowe, które zajmowały się projektami o niższym ROI (Return on Investment). Zjawisko to nazywamy „konsolidacją technologiczną” – zamiast utrzymywać dziesięć osobnych mikroserwisów z dedykowanymi zespołami, Amazon dąży do unifikacji platformowej, gdzie zarządzanie infrastrukturą przejmują systemy oparte na AI, realizujące koncepcję No-Ops (No Operations).

Kluczowym elementem tej strategii jest zwiększenie produktywności indywidualnej programistów. Beth Galetti wskazała, że technologia GenAI pozwala na innowacje „znacznie szybciej niż kiedykolwiek wcześniej”. W praktyce oznacza to, że jeden inżynier wyposażony w Amazon Q (asystenta AI zintegrowanego z IDE) jest w stanie obsłużyć codebase, który wcześniej wymagał pracy trzech osób. Automatyzacja testów jednostkowych, generowanie dokumentacji technicznej oraz refaktoryzacja długu technicznego przy użyciu LLM-ów pozwala Amazonowi na utrzymanie tempa rozwoju przy drastycznie mniejszym zespole. To nie jest zwykła redukcja kosztów, to redefinicja roli inżyniera w ekosystemie AWS.

Od Monolitu Organizacyjnego do Mikroserwisów AI

Przekształcenie kultury korporacyjnej w Amazonie opiera się na matematycznym podejściu do zarządzania. Firma stosuje algorytmy do oceny efektywności poszczególnych jednostek biznesowych, identyfikując redundancje w procesach decyzyjnych. Wprowadzenie AI do procesów HR i zarządzania projektami pozwala na identyfikację wąskich gardeł, które wcześniej były maskowane przez rozbudowane struktury raportowe. Dzięki temu Amazon może precyzyjnie celować w działy, gdzie automatyzacja przepływu pracy (workflow automation) może zastąpić ludzką koordynację.

W kontekście inżynieryjnym, Amazon odchodzi od modelu „Build and Run” na rzecz „Automate Everything”. Tradycyjne role SysOps i Site Reliability Engineering (SRE) są redefiniowane. Zamiast manualnej interwencji w przypadku incydentów, systemy Amazona coraz częściej wykorzystują modele predykcyjne do samonaprawy (self-healing infrastructure). Wykorzystanie Amazon SageMaker do przewidywania awarii dysków w centrach danych czy anomalii w ruchu sieciowym pozwala na redukcję personelu dyżurującego w trybie 24/7, co bezpośrednio przekłada się na mniejsze zapotrzebowanie na inżynierów operacyjnych.

Architektura Zmiany: Dlaczego Inżynierowie Tracą Pracę?

Analiza techniczna zwolnień w Amazonie musi uwzględniać wpływ narzędzi do kodowania wspomaganego przez AI. Amazon Q, będący bezpośrednią odpowiedzią na GitHub Copilot, został wyszkolony na miliardach linii kodu z repozytoriów AWS oraz na najlepszych praktykach dokumentacji technicznej. Dzięki funkcji „Amazon Q Code Transformation”, firma była w stanie automatycznie zaktualizować tysiące aplikacji z Javy 8 do Javy 17 w ułamku czasu, który zajęłoby to manualnie zespołom deweloperskim. Według wewnętrznych danych Amazona, proces ten zaoszczędził równowartość 4500 lat pracy programistów (developer-years). To bezpośrednio tłumaczy, dlaczego 40% zwolnionych w kluczowych stanach to inżynierowie – ich dotychczasowa praca nad utrzymaniem kodu została zautomatyzowana.

Kolejnym aspektem jest zmiana w architekturze systemów. Przejście na rozwiązania Serverless (AWS Lambda, Fargate) oraz bazy danych typu Aurora Serverless v2 drastycznie zmniejsza potrzebę manualnego dostrajania parametrów infrastruktury (capacity planning). Wcześniej zespoły inżynierskie spędzały setki godzin miesięcznie na optymalizacji instancji EC2 pod konkretne obciążenia. Obecnie algorytmy Machine Learning wbudowane w AWS Auto Scaling wykonują to zadanie z precyzją niedostępną dla człowieka, reagując na zmiany ruchu w milisekundach. To powoduje, że działy odpowiedzialne za „Cloud Optimization” stają się zbędne w dotychczasowej skali.

Warto również zwrócić uwagę na obszar QA (Quality Assurance) i testowania. Implementacja modeli GenAI do generowania syntetycznych danych testowych oraz automatycznego wykrywania regresji w kodzie przy użyciu technik RAG (Retrieval-Augmented Generation) sprawiła, że cykle testowe uległy skróceniu o 60-70%. Inżynierowie QA, którzy nie przeszli transformacji w stronę SDET (Software Development Engineer in Test) lub nie nauczyli się zarządzać agentami AI, znajdują się na pierwszej linii redukcji. Amazon nie potrzebuje już armii testerów; potrzebuje nielicznych architektów, którzy potrafią nadzorować zautomatyzowane rurociągi CI/CD (Continuous Integration/Continuous Deployment).

Wpływ Amazon Q i CodeWhisperer na SDLC

Narzędzia takie jak Amazon Q nie tylko sugerują fragmenty kodu, ale potrafią analizować całe projekty pod kątem bezpieczeństwa i optymalizacji. Wykorzystanie LLM do statycznej analizy kodu (SAST) pozwala na wykrywanie luk typu SQL Injection czy Cross-Site Scripting już na etapie pisania, co eliminuje potrzebę angażowania dedykowanych zespołów ds. bezpieczeństwa aplikacji w rutynowe przeglądy kodu. To przesunięcie odpowiedzialności na „lewo” (Shift-Left Security) jest możliwe dzięki AI, ale skutkuje mniejszym zapotrzebowaniem na specjalistów od Security Engineering w tradycyjnym wydaniu.

Amazon implementuje również autonomiczne agenty do rozwiązywania ticketów technicznych. Systemy te, oparte na architekturze typu ReAct (Reasoning and Acting), potrafią analizować logi z Amazon CloudWatch, identyfikować przyczynę błędu (Root Cause Analysis) i sugerować, a czasem nawet wdrażać poprawki (hotfixes) bez udziału człowieka. W ekosystemie tak ogromnym jak Amazon, gdzie liczba mikrousług idzie w dziesiątki tysięcy, automatyzacja pierwszej i drugiej linii wsparcia technicznego przy użyciu modeli językowych przynosi kolosalne oszczędności etatowe.

Analiza Techniczna: AI jako Akcelerator Operacyjny

Redukcja etatów w Amazonie jest bezpośrednio skorelowana z wdrożeniem zaawansowanych systemów wizji komputerowej (Computer Vision) i robotyki w centrach logistycznych. Systemy takie jak „Sparrow” – ramię robotyczne zdolne do manipulowania milionami pojedynczych przedmiotów o różnej teksturze i kształcie – zastępują pracowników fizycznych, ale także inżynierów operacyjnych, którzy wcześniej musieli programować sztywne ścieżki ruchu dla maszyn. Sparrow wykorzystuje Deep Reinforcement Learning (DRL) do nauki chwytania nowych przedmiotów w czasie rzeczywistym, co eliminuje konieczność manualnej kalibracji systemu dla każdego nowego produktu w asortymencie Amazona.

W pionie AWS, Amazon wdraża technologię „Custom Silicon”. Inwestycje w układy scalone Trainium i Inferentia pozwalają na obniżenie kosztów inferencji modeli AI nawet o 40% w porównaniu do instancji opartych na GPU od Nvidii. Ta przewaga kosztowa pozwala Amazonowi na oferowanie usług AI w niższych cenach, co przyciąga więcej klientów i generuje więcej danych do trenowania kolejnych generacji modeli. Jest to klasyczne koło zamachowe (flywheel), gdzie technologia redukuje zapotrzebowanie na pracę ludzką, jednocześnie zwiększając efektywność kapitałową firmy. Z perspektywy architekta systemowego, Amazon staje się „Software-Defined Corporation”, gdzie każda funkcja biznesowa jest wyrażona jako kod podlegający optymalizacji przez algorytmy.

Innym kluczowym obszarem jest optymalizacja łańcucha dostaw przy użyciu modeli Foundation Models (FM). Amazon przeszedł od tradycyjnych modeli statystycznych do Transformerów w prognozowaniu popytu. Nowe modele potrafią analizować nie tylko historię sprzedaży, ale także trendy w mediach społecznościowych, prognozy pogody i dane makroekonomiczne w jednym oknie kontekstowym. Pozwala to na precyzyjne rozmieszczenie towarów w magazynach typu „Fulfillment Center” tak blisko klienta końcowego, jak to tylko możliwe, co redukuje koszty „Last Mile Delivery”. Taka precyzja sprawia, że sztaby analityków i planistów, którzy wcześniej korygowali modele manualnie, stają się zbędni.

Amazon Bedrock i demokratyzacja AI wewnątrz korporacji

Wprowadzenie platformy Amazon Bedrock umożliwiło różnym działom firmy (od marketingu po finanse) budowanie własnych aplikacji AI bez konieczności zatrudniania Data Scientists. Dzięki API dającym dostęp do modeli takich jak Claude 3 (Anthropic), Llama 3 (Meta) czy własnych modeli Titan, pracownicy nietechniczni mogą tworzyć narzędzia do automatyzacji raportowania czy analizy sentymentu klientów. To zjawisko „Citizen Development” napędzane przez AI sprawia, że centralne działy IT tracą swój monopol na dostarczanie rozwiązań technologicznych, co prowadzi do ich redukcji w ramach optymalizacji struktur.

Systemy RAG (Retrieval-Augmented Generation) wdrożone wewnętrznie pozwalają na błyskawiczne przeszukiwanie terabajtów wewnętrznej dokumentacji technicznej, prawniczej i operacyjnej. Pracownik, zamiast pytać inżyniera lub prawnika o konkretną procedurę, otrzymuje odpowiedź od agenta AI, który cytuje konkretne źródła. To drastycznie obniża koszty komunikacji wewnątrz organizacji, ale jednocześnie zmniejsza liczbę potrzebnych ról wspierających i administracyjnych, co wpisuje się w plan redukcji 30 000 etatów.

Wpływ na Rynek i Porównanie Rozwiązań: Amazon vs. Reszta Świata

Ruch Amazona nie jest odosobniony, ale jego skala i focus na inżynierów ustawiają nowy benchmark dla branży. Według danych z 231 firm technologicznych, w samym 2024 i 2025 roku zwolniono łącznie ponad 113 000 osób. Meta (Facebook) przeprowadziła podobną „rok efektywności”, redukując 20 000 etatów i stawiając na „Llama-first engineering”. Google (Alphabet) również restrukturyzuje działy Core Engineering, stawiając na integrację Gemini w każdy aspekt swojej infrastruktury. Różnica polega na tym, że Amazon, ze względu na swoją dominację w chmurze obliczeniowej (31% udziału w rynku), ma najwięcej do zyskania na automatyzacji własnych operacji chmurowych.

Porównując podejście Amazona do Microsoftu, widać dwie różne strategie. Microsoft stawia na partnerstwo z OpenAI i integrację Copilota jako narzędzia wspomagającego, podczas gdy Amazon buduje pionowo zintegrowany stos: od własnych chipów (Trainium), przez platformę (Bedrock), aż po aplikacje końcowe (Q). To pozwala Amazonowi na głębszą automatyzację i większe cięcia kadrowe, ponieważ kontrolują każdy element ekosystemu. W przypadku Microsoftu, zależność od modeli zewnętrznych wymusza utrzymanie większych zespołów inżynierskich do integracji i optymalizacji tych modeli.

Wpływ tych zwolnień na rynek pracy będzie długofalowy. Na rynek trafia właśnie 30 000 specjalistów z „pieczątką” Amazona, co nasyca podaż talentów i może prowadzić do stagnacji płac w sektorze Big Tech. Jednocześnie, rośnie zapotrzebowanie na niszowe role: AI Ethics, AI Security Architect oraz LLMOps (Large Language Model Operations). Inżynierowie, którzy zostali zwolnieni, muszą dokonać szybkiego reskillingu w stronę orkiestracji modeli AI, ponieważ tradycyjny Full-stack Development staje się towarem masowym (commodity), którego wartość rynkowa spada.

Case Study: Transformacja logistyki za pomocą Multi-Agent Systems

Scenariusz „co jeśli”: Wyobraźmy sobie centrum dystrybucyjne Amazona, które całkowicie rezygnuje z manualnego planowania zmian. System oparty na systemach wieloagentowych (Multi-Agent Systems) koordynuje pracę robotów Proteus i Sparrow, dostosowując tempo pracy do nadchodzących zamówień w czasie rzeczywistym. Taki system nie tylko optymalizuje zużycie energii i ścieżki ruchu, ale także eliminuje potrzebę istnienia stanowisk „Floor Manager”. Amazon już testuje takie rozwiązania w swoich „Sovereign Labs”. Każde udane wdrożenie tego typu technologii przybliża firmę do realizacji celu redukcji zatrudnienia przy jednoczesnym wzroście przepustowości (throughput).

Innym przykładem jest wykorzystanie Graph Neural Networks (GNN) do optymalizacji tras dostaw. Tradycyjne algorytmy genetyczne czy heurystyki wymagały stałego nadzoru inżynierów transportu. Nowoczesne GNN uczą się na bieżąco na podstawie milionów punktów danych, uwzględniając niuanse takie jak specyfika parkowania w danej dzielnicy czy czas otwarcia konkretnych bram. To powoduje, że działy planowania logistycznego mogą zostać zredukowane o 80%, pozostawiając jedynie kadrę zarządzającą wyjątkami (exception management).

Udostępnij