Technologia

Nowy asystent Androida od Google sam wrzuca twoją listę zakupów do koszyka

Susan Hill

Nowy asystent Androida od Google potrafi pobrać listę zakupów z twojej aplikacji notatek, otworzyć wybraną aplikację sklepową i wrzucić produkty do koszyka samodzielnie. To demo, pokazane na scenie The Android Show: I/O Edition, jest najczystszym przykładem tego, co Google nazywa Gemini Intelligence — warstwy proaktywnych, agentowych funkcji, która trafi najpierw na Androida. Telefon nie czeka już, aż go o coś poprosisz. Sam proponuje skończyć sprawę.

Sercem rozwiązania jest wieloetapowa automatyzacja między aplikacjami. Gemini Intelligence czyta treść z jednej aplikacji — listę nazwisk, zestaw dat, szkic maila — i wykorzystuje ją jako wejście w innej, bez konieczności ręcznego przełączania kontekstu przez użytkownika. Wersja, którą pokazał Google, wymaga potwierdzenia użytkownika przed zatwierdzeniem zamówienia, z tym, co firma opisuje jako wbudowaną przejrzystość i kontrolę nad tym, w jakich aplikacjach asystent może działać.

Drugi filar to Gemini w Chrome dla Androida, z eksperymentalnym trybem auto-browse, który potrafi przejść przez witryny internetowe i sfinalizować rezerwacje w imieniu użytkownika. Google przedstawił to jako sposób na ominięcie monotonnego klikania w kolejne ekrany rezerwacji lotu czy biletów — asystent wykonuje kroki w tle i pokazuje wynik. Funkcje podsumowywania, które wcześniej istniały tylko w Chrome na komputerze, trafiają również na komórkę, dostępne z przycisku w pasku adresu.

Mniejsze funkcje uzupełniają pakiet. Rambler to narzędzie głosowe, które wygładza wypowiedziane wiadomości — użytkownik dyktuje surowy pomysł, a Gemini Intelligence wygładza sformułowania bez zmiany sensu. Create My Widget generuje niestandardowe widgety na ekran startowy z polecenia w języku naturalnym — przykład Google zebrał informacje o podróży z Gmaila i Kalendarza w jednym widgecie. To te części ogłoszenia, które codziennie najmocniej widać.

Zastrzeżenia nie są drobne. Premiera jest etapowa: najpierw wybrane telefony Samsung i Google, szersze wsparcie dla Androida w dalszej części roku. Co ważniejsze, warstwa proaktywna polega na tym, że telefon może czytać treści z innych aplikacji i działać wewnątrz nich — model uprawnień z realnym ciężarem dla prywatności, tym bardziej gdy asystent zaczyna wypełniać formularze, składać zamówienia i rezerwować bilety. Google twierdzi, że kontrola nad tym, w jakich aplikacjach Gemini może działać, pozostaje u użytkownika, ale model zaufania nie został niezależnie zaudytowany, a większość niezależnych obrońców prywatności będzie chciała zobaczyć pełne ujawnienie uprawnień, zanim poleci go niewyrobionym użytkownikom.

Drugie ograniczenie to zasięg. Google potwierdził wybrane telefony Samsung i Google dla pierwszej fali; dokładnej listy i harmonogramu dla regionów nie ujawniono na scenie. Rynki poza USA i Europą dostaną funkcje w tempie Google, które historycznie spóźnia się o miesiące w Azji i Ameryce Łacińskiej. Funkcje głosowe w lokalnych językach nie zostały potwierdzone dla wszystkich rynków — demo Ramblera było po angielsku.

Gemini Intelligence to pierwszy raz, gdy Google pakuje swoje możliwości agentowe pod jednym brandem stworzonym wyraźnie dla zwykłego użytkownika telefonu, a nie dla programistów. Inne ogłoszenia z The Android Show obejmują Googlebooka — nową platformę laptopową Google — oraz narzędzia developerskie dla widgetów vibe-coded, ale konsumencki nagłówek pozostaje sam Gemini Intelligence.

Wdrażanie rusza tego lata na wybranych telefonach Samsung i Google, z szerszą dostępnością na innych urządzeniach z Androidem w dalszej części 2026 roku. Pełna konferencja deweloperska Google I/O odbywa się 19 i 20 maja w Mountain View, gdzie Google ma przedstawić deweloperską stronę tej samej platformy.

Dyskusja

Jest 0 komentarzy.