Technologia

DeepSeek V4 jest pięć razy tańszy od GPT-5 i działa bez chipów Nvidii

Chińskie laboratorium, które swoim modelem R1 sprowadziło akcje Nvidii na dno, wraca z wersją większą, znacząco tańszą i zoptymalizowaną pod chiński krzem. V4-Pro to największy otwarty model sztucznej inteligencji, jaki kiedykolwiek zbudowano; obydwa warianty są już dostępne na Hugging Face na licencji MIT, a cennik plasuje się znacznie poniżej tego, co pobierają OpenAI i Anthropic.
Susan Hill

DeepSeek opublikował wersję preview modeli V4-Pro i V4-Flash — dwa otwartoźródłowe modele językowe, które stawiają konkretną tezę: obsługa miliona tokenów kontekstu przestała być problemem pojemności, a stała się jedynie kwestią efektywności. V4-Pro zawiera 1,6 biliona parametrów łącznie, z czego 49 miliardów jest aktywnych przy każdym zapytaniu — wystarczająco, by przetworzyć całą bazę kodu albo kompletną książkę w jednym prompcie. Po raz pierwszy model otwarty konkuruje z powagą z najlepszymi modelami zamkniętymi w matematyce, programowaniu i zadaniach agentowych — i robi to za ułamek ceny, którą obecnie pobierają OpenAI i Anthropic.

Oba modele są udostępniane na licencji MIT, a wagi są już opublikowane na Hugging Face. V4-Flash to efektywny wariant z 284 miliardami parametrów łącznie i 13 miliardami aktywnych — wystarczająco kompaktowy, by wersja kwantyzowana mogła działać na laptopie z wyższej półki. V4-Pro to wersja flagowa: 865 gigabajtów na dysku, zaprojektowana pod wdrożenie w chmurze i laboratoria badawcze. Obydwa mają to samo okno kontekstu miliona tokenów — skok, który dorównuje Gemini od Google i podwaja to, co oferuje większość konkurencyjnych modeli otwartych.

YouTube video

Kluczowe posunięcie architektoniczne nosi nazwę Hybrid Attention: DeepSeek łączy dwie techniki kompresji i obniża koszty pamięci tak agresywnie, że V4-Pro przy tej samej długości kontekstu zużywa tylko 27 procent mocy obliczeniowej i 10 procent pamięci podręcznej, których wymagał V3.2. V4-Flash idzie jeszcze dalej. W praktyce: obsłużenie promptu o długości miliona tokenów z V4-Pro kosztuje dziś mniej niż obsłużenie promptu o długości 100 tysięcy w poprzedniej generacji. To nie jest szczegół techniczny — to jest warunek ekonomiczny, bez którego modele o długim kontekście nie wyjdą z etapu demonstracji laboratoryjnej do rzeczywistej produkcji komercyjnej.

Przełom cenowy to punkt, w którym premiera uderza najmocniej. V4-Flash kosztuje 0,14 dolara za milion tokenów wejściowych — mniej nawet niż GPT-5.4 Nano od OpenAI. V4-Pro kosztuje 1,74 dolara za milion tokenów wejściowych i 3,48 dolara za milion wyjściowych — jedna trzecia tego, co Anthropic pobiera za Claude Opus 4.7, i jedna piąta tego, co OpenAI pobiera za GPT-5.5. W testach programistycznych V4-Pro osiąga wynik Codeforces na poziomie 3 206 — według DeepSeek wartość, która plasowałaby model na 23. miejscu wśród ludzkich programistów rywalizujących na zawodach światowych.

Wymiar geopolityczny waży przynajmniej tyle samo, co same benchmarki. DeepSeek zoptymalizował V4 pod chipy Ascend 950 od Huawei oraz pod krzem chińskiego producenta Cambricon — i nie udzielił Nvidii ani AMD wcześniejszego dostępu do kalibracji wydajności, co jest odwróceniem standardowej praktyki branżowej. Premiera stanowi komercyjny test wytrzymałościowy całego chińskiego łańcucha technologicznego, który od lat pracuje pod amerykańskimi restrykcjami eksportowymi. Dla Europy pytanie staje się bardziej niewygodne: podczas gdy Pekin buduje suwerenny, kompletny łańcuch dostaw — otwarte wagi, krajowe chipy, własne oprogramowanie inferencyjne — a Waszyngton zamyka swój na drodze ustawowej, europejska suwerenność cyfrowa pozostaje strukturalnie zależna od infrastruktury obu bloków.

Na miejscu są istotne zastrzeżenia. V4 to wersja preview, nie produkcyjna, a niezależne benchmarki stron trzecich nie zostały jeszcze ukończone. Własny raport techniczny DeepSeek przyznaje, że model jest od trzech do sześciu miesięcy w tyle za GPT-5.4 i Gemini 3.1 Pro pod względem możliwości granicznych. Poprzednik R1 został zakazany lub ograniczony kilka tygodni po premierze w kilku amerykańskich stanach, w Australii, na Tajwanie, w Korei Południowej, w Danii i we Włoszech — V4 dziedziczy tę samą ekspozycję regulacyjną w tych rynkach bez zmian. Kontrahenci Pentagonu mają ponadto zakaz używania modeli DeepSeek na mocy amerykańskiej ustawy NDAA z 2026 roku, chyba że uzyskają wyraźne zwolnienie.

Poza tymi strefami ograniczeń dostęp jest natychmiastowy. Webowy chatbot DeepSeek udostępnia V4-Pro w trybie Expert, a V4-Flash w trybie Instant bez opłat, a deweloperzy mogą wywołać API po prostu zmieniając nazwę modelu na deepseek-v4-pro lub deepseek-v4-flash.

Premiera przypadła dokładnie rok po tym, jak DeepSeek-R1 wstrząsnął światowymi rynkami sztucznej inteligencji 20 stycznia 2025 roku — kalendarz został wybrany świadomie. Ostateczna wycena API po etapie preview pozostaje na razie niewiadomą, a stare endpointy deepseek-chat i deepseek-reasoner zostaną wyłączone 24 lipca 2026 roku, kiedy cały ruch zostanie automatycznie przekierowany na V4. To, co jest tu stawką, wykracza poza pojedynczy benchmark: to pierwszy publiczny dowód, że konkurencyjne mocarstwo potrafi dostarczyć kompletny, konkurencyjny i tani stos technologiczny bez uzależnienia od amerykańskich dostawców — i sam ten dowód przemodelowuje układ odniesienia dla każdej suwerennej strategii AI od tego momentu.

Dyskusja

Jest 0 komentarzy.