Technologia

GPT-5.5 wylądował na AWS i kończy siedmioletni monopol Microsoftu na OpenAI

Model, który przez niemal dekadę pozostawał wyłącznością Azure, właśnie pojawił się na Amazon Bedrock. Microsoft zachowuje status preferowanego partnera do 2032 roku — ale wyłączność dobiegła końca.
Susan Hill

Najpotężniejszy model OpenAI, GPT-5.5, po raz pierwszy działa w Amazon Web Services. Premiera nadeszła dzień po tym, jak Microsoft i OpenAI przepisały warunki swojego partnerstwa, zamykając niemal siedem lat, w których Azure był jedyną platformą chmurową prawnie uprawnioną do hostowania modeli granicznych OpenAI. Klienci AWS mogą teraz wywoływać GPT-5.5 — wraz z GPT-5.4 oraz modelami o otwartych wagach gpt-oss-20b i gpt-oss-120b — przez te same API Amazon Bedrock, których używają już dla Anthropic, Meta oraz własnej rodziny Nova Amazona, z możliwością zaliczenia zużycia do dotychczasowych zobowiązań wydatkowych w AWS.

Wydanie jest wersją limited preview, a nie general availability, szersze otwarcie spodziewane jest w ciągu kilku tygodni. Naraz lądują trzy rzeczy: modele OpenAI na Bedrock; Codex, agent kodowania OpenAI, dostępny przez API Bedrock, Codex CLI, aplikację desktop Codex oraz rozszerzenie do VS Code; oraz Amazon Bedrock Managed Agents, nowa usługa, która opakowuje agent harness OpenAI w natywne dla AWS rozwiązania tożsamościowe, logowanie i integracje narzędziowe. AWS pozycjonuje Managed Agents jako produkcyjną ścieżkę dla firm, które chcą wdrożyć długo działających agentów OpenAI bez konieczności samodzielnego budowania otaczającej infrastruktury.

Microsoft i OpenAI przebudowały partnerstwo dzień przed premierą w AWS. Azure pozostaje „głównym partnerem chmurowym” OpenAI do 2032 roku, a Microsoft zachowuje niewyłączną licencję na własność intelektualną OpenAI do tej samej daty, z udziałem w przychodach z górnym pułapem. Ale wyłączność, która przez większą część poprzedniej dekady wiązała graniczne modele OpenAI z Azure, znikła. AWS staje się drugim hyperscalerem z prawem dystrybuowania platformy enterprise OpenAI, a tempo sekwencji — poprawka z Microsoftem jednego dnia, preview AWS następnego — sugeruje, że integracja była przygotowywana od miesięcy.

Dla deweloperów praktyczny wpływ rozgrywa się na polu procurementu, nie technologii. Bezpośrednie API OpenAI było zawsze dostępne — ale firmy z wielomilionowymi zobowiązaniami w AWS nie mogły zaliczyć tych wydatków na konsumpcję OpenAI, a zespoły bezpieczeństwa musiały oceniać dodatkową relację z dostawcą. Bedrock usuwa obie te przeszkody. Inferencja OpenAI na Bedrock domyślnie dziedziczy AWS IAM, PrivateLink, guardrails, szyfrowanie i logowanie CloudTrail, a zużyte tokeny liczą się do istniejących Enterprise Discount Programs i savings plans. Dla dużych klientów to może być właściwy deal: nie dostęp do GPT-5.5, lecz dostęp do GPT-5.5 w ramach kontraktów AWS, które już mają podpisane.

Entuzjazm warto opatrzyć zastrzeżeniami. Premiera jest w limited preview — nie wszyscy klienci mogą jeszcze prosić o dostęp, a dokumentacja informuje, że ceny w Bedrock mogą różnić się od cen bezpośredniego API OpenAI. Microsoft nie wycofuje się: Azure pozostaje głównym partnerem chmurowym do 2032 roku, GitHub Copilot, Microsoft 365 Copilot i Dynamics 365 zachowują głęboką integrację z OpenAI, a udział Microsoftu w przychodach trwa nadal. Skala finansowa partnerstwa AWS-OpenAI bywa opisywana różnie w zależności od źródła: jako siedmioletnie zobowiązanie obliczeniowe na 38 miliardów dolarów podpisane z AWS pod koniec ubiegłego roku oraz jako inwestycja 50 miliardów Amazona w OpenAI ogłoszona w tym tygodniu — te dwie liczby mogą się nakładać, a OpenAI nie opublikowało jednolitego zestawienia. A Bedrock już hostuje Claude, Llama, Mistral, Cohere i własną rodzinę Nova Amazona: OpenAI wchodzi na zatłoczoną scenę, nie na pustą.

Krok cross-cloudowy wyznacza wyraźny etap dojrzewania rynku infrastruktury AI. Dostawcy modeli fundamentalnych przez ostatnie trzy lata biegli ku tej chmurze, która dostarczy najwięcej obliczeń najszybciej; następna faza to dystrybucja, w której klienci oczekują, że będą konsumować modele tak, jak konsumują już bazy danych czy storage — przez istniejące umowy chmurowe, w obrębie istniejących granic bezpieczeństwa. AWS zyskuje markę modelu granicznego, której brakowało Bedrock. OpenAI zyskuje rurociąg procurementu największej chmury świata. A Anthropic, do tej pory flagowy model fundamentalny na Bedrock, staje się jedną z opcji granicznych zamiast oczywistego wyboru.

Sam GPT-5.5 trafił do bezpośredniego API OpenAI 23 kwietnia. Poprawka Microsoft-OpenAI została ogłoszona 27 kwietnia. AWS otworzył preview na Bedrock 28 kwietnia podczas wydarzenia What’s Next with AWS. General availability spodziewana jest w ciągu kilku tygodni, a kolejne modele OpenAI — w tym GPT-5.5 Pro oraz modele rozumowania z serii o — powinny dołączyć po zamknięciu fazy limited preview.

Dyskusja

Jest 0 komentarzy.