Technologia

Ollama 0.22.1 uruchamia tool calling Gemma 4 na laptopie bez klucza API

Susan Hill

Ollama 0.22.1 dostarcza zaktualizowany silnik dla Gemma 4, który wreszcie obsługuje dwie funkcje liczące się przy poważnej pracy z lokalną sztuczną inteligencją: jawny tryb myślenia oraz wywoływanie funkcji, czyli tool calling. Tool calling pozwala modelowi samodzielnie zdecydować, kiedy wywołać funkcję zewnętrzną — pobrać stronę internetową, zapytać bazę danych, wykonać obliczenie — a następnie wpina wynik z powrotem we własne rozumowanie. Tryb myślenia odsłania pośrednie kroki modelu, dzięki czemu aplikacja może je przechwycić i na nie zareagować. Obie te rzeczy były dotąd funkcjami, za które duże API w chmurze pobierały opłaty. Obie działają teraz lokalnie z Gemma 4, bez żadnego zewnętrznego serwisu w grze.

Powodem, dla którego ta nowość waży więcej niż kolejna premiera modelu, jest rachunek sprzętu. Rodzina Gemma 4, którą Google opublikował na licencji Apache-2.0, obejmuje cztery rozmiary: E2B, E4B, 26B A4B i 31B. Mniejsze warianty działają na świeżym laptopie ze zintegrowaną grafiką i dwunastoma do szesnastu gigabajtami RAM. Wersje 26B A4B i 31B wymagają desktopowego GPU, ale wciąż mieszczą się wyraźnie w polu konsumenckim. Ta sama architektura, która kiedyś wymuszała wykupienie płatnej umowy API albo postawienie domowego serwera za czterocyfrową kwotę, staje się instalacją na sobotnie popołudnie dla każdego z w miarę nowoczesną maszyną.

Praktyczna konsekwencja dla osób, które nie programują, jest taka, że cała klasa aplikacji typu agent — te, które czytają twoją skrzynkę, układają odpowiedzi, ściągają dokumenty, wypełniają formularze, streszczają spotkania — przestaje musieć wysyłać te dane na serwer firmy trzeciej. Użytkownik dbający o prywatność, który chciał prawdziwej automatyzacji agentowej, miał do tej pory dwa wyjścia: zaufać polityce danych dostawcy chmurowego albo uruchomić lokalnie znacznie słabszy model bez tool calling. Środek był luką, a Ollama 0.22.1 zamyka tę lukę dla wagi Gemma 4.

Sceptyczna lektura mówi, że Ollama i Gemma 4 nie są odpowiednikami granicy chmurowej. Lokalnie utrzymywany model 31B nie dorównuje ani Claude od Anthropic, ani GPT-5 od OpenAI w złożonym rozumowaniu. Trafność wywołań narzędzi w długich łańcuchach jest wyraźnie gorsza w mniejszych wariantach. Wejścia multimodalne działają, ale wolniej. A ciężar integracji spada na użytkownika: nikt jeszcze nie zbudował aplikacji agenta Gemma 4 plus Ollama na tyle dopracowanej, by konkurowała z gotowym przepływem SaaS. Sufit sprzętowy i wykończenie oprogramowania pozostają realnymi brakami.

Wersja jest dostępna od teraz poprzez standardowy instalator Ollama dla systemów macOS, Linux i Windows. Wagi Gemma 4 są dostępne w bibliotece modeli Ollama pod przestrzenią nazw gemma4, a zmiana runtime z wersji 0.22.1 stosuje się automatycznie do dowolnego rozmiaru po jego pobraniu.

Dyskusja

Jest 0 komentarzy.