Technologia

Sztuczna inteligencja napisała exploit zero-day — Google przechwycił go pierwszy

Susan Hill

Exploit celował w uwierzytelnianie dwuskładnikowe, warstwę weryfikacji, która chroni większość kont, na których nam zależy: pocztę, bankowość, chmurę, dostęp do pracy. Luka, błąd logiki semantycznej w pythonowym kodzie narzędzia, pozwalała atakującemu z już zdobytymi danymi logowania ominąć kontrolę 2FA poprzez wywołanie wyjątku zapisanego na sztywno w kodzie, którego twórcy nie zamierzali nigdy uwidaczniać. Google znalazło błąd, zgłosiło go producentowi do załatania i unieszkodliwiło zaplanowany atak, zanim ten się rozpoczął. To nie sam błąd jest pierwszym takim przypadkiem, lecz sposób, w jaki został odnaleziony.

Analitycy Google twierdzą, że kod exploita nosił niepodważalne ślady dużego modelu językowego — komentarze w stylu samouczka, mocno strukturalne formatowanie i stylistykę, którą określają jako wysoce typową dla danych treningowych LLM. Zespół uznał z wysokim poziomem pewności, że to AI, a nie pojedynczy człowiek, wykonała większość pracy nad odkryciem i uzbrojeniem podatności. Firma, której to dotyczy, gang oraz nazwa narzędzia pozostają nieujawnione.

To rozróżnienie jest istotne, ponieważ wykryty błąd to dokładnie ten rodzaj, którego maszyny nie miały sobie poradzić znaleźć. Klasyczne skanery szukają awarii i błędów pamięci. Tutaj chodziło o sprzeczność między logiką wymuszania 2FA a zapisanym na sztywno wyjątkiem — błąd, który uważny audytor mógłby zauważyć, czytając tysiące linii kodu w poszukiwaniu niespójności. Najnowsze modele językowe, jak zauważa Google, coraz lepiej radzą sobie z tym kontekstowym czytaniem, w tempie nieosiągalnym dla żadnego zespołu audytowego.

Raport opisuje także szerszy wzorzec, niezwiązany z grupami przestępczymi. Klastr powiązany z Chinami, śledzony pod nazwą UNC2814, używa AI do przyspieszania badań nad podatnościami w urządzeniach wbudowanych. APT45, grupa północnokoreańska, karmiła model tysiącami powtarzalnych promptów, aby rekurencyjnie analizować wpisy w katalogu CVE i walidować dowody koncepcyjne exploitów. Inni operatorzy, ta sama technika: zamienić model w niestrudzonego asystenta badawczego.

Relacja Google ma granice, które trzeba nazwać. Firma nie wskazała ani narzędzia, ani aktora zagrożenia, ani harmonogramu łatki, prosząc czytelników o zaufanie do wniosku o śladach AI wyłącznie na bazie swojej wewnętrznej analizy. Żadne z opublikowanych w tym tygodniu potwierdzeń stron trzecich nie wnosi niezależnej kryminalistycznej oceny samego kodu exploita. Wysoka pewność to słowo GTIG przeciwko milczeniu gangu. Pozostaje też prawdą, że błąd fundamentalny — sztywno wpisany wyjątek — jest dokładnie rodzajem przeoczenia, które ludzcy programiści popełniają od dziesięcioleci bez żadnej pomocy AI. Model mógł przyspieszyć odkrycie; luka jest starsza niż system, który ją znalazł.

Dla większości użytkowników nie ma natychmiastowego działania — błąd dotyczy oprogramowania, które obsługują działy IT, nie urządzeń osobistych — ale implikacja jest bezpośrednia. Linia obrony, na której polegamy, od menedżerów haseł po firmowe systemy jednokrotnego logowania, była projektowana z myślą o ludzkich atakujących pracujących w ludzkim tempie. Atakujący wspierany przez AI czyta bazę kodu tak, jak doświadczony inżynier czyta akapit. Obrońcy będą musieli się tego nauczyć.

Potwierdzone jest, że dostawca dotkniętego oprogramowania został powiadomiony i wydaje łatkę. Szersza analiza ukazała się jako część cyklu Google Cloud śledzącego użycie AI w bezpieczeństwie ofensywnym 11 maja 2026 roku. Główny analityk zagrożeń Google, John Hultquist, powiedział reporterom w kolejnych dniach, że wyścig między AI a obrońcami już się toczy, a nie dopiero nadchodzi. Kolejnego raportu o narzędziach wspomaganych przez AI należy spodziewać się przed końcem drugiego kwartału.

Dyskusja

Jest 0 komentarzy.