Google identyfikuje pierwszego exploita zero-day opracowanego przez sztuczną inteligencję

Google potwierdziło pierwszy znany przypadek exploita zero-day opracowanego przy użyciu sztucznej inteligencji. Threat Intelligence Group, GTIG, opublikowała 11 maja 2026 r. raport AI Threat Tracker, w którym szczegółowo opisano, w jaki sposób znana grupa cyberprzestępcza wykorzystała model sztucznej inteligencji do zidentyfikowania i wykorzystania luki w zabezpieczeniach popularnego narzędzia do administrowania siecią typu open source. Luka omijała uwierzytelnianie dwuskładnikowe. Firma Google współpracowała z dostawcą, którego dotyczyła luka, w celu jej załatania i uważa, że jej interwencja mogła zakłócić planowaną przez grupę kampanię masowego wykorzystywania przed jej rozpoczęciem.
GTIG stwierdziło ma dużą pewność, że model sztucznej inteligencji, a nie ludzki badacz, napisał skrypt exploita w języku Python. Kod go zdradził. Zawierał on mnóstwo edukacyjnych docstringów, halucynacyjną ocenę ważności CVSS, szczegółowe menu pomocy i czysty, ustrukturyzowany styl formatowania charakterystyczny dla dużych danych treningowych modeli językowych. Nie są to rzeczy, które zawarłby człowiek piszący narzędzie ataku. Sama wada docelowa była semantycznym błędem logicznym - programista na stałe zakodował założenie zaufania w przepływie uwierzytelniania, tworząc sprzeczność z logiką egzekwowania 2FA, którą tradycyjne skanery bezpieczeństwa przeoczyły, ale którą sztuczna inteligencja najwyraźniej zauważyła, odczytując intencje programisty, a nie tylko mechanicznie analizując kod. Według raportu ani własne modele Google Gemini, ani Mythos firmy Anthropic nie były używane przez atakujących.
Dlaczego prawie się udało i dlaczego się nie udało?
Atakujący zaplanowali masową kampanię exploitów, atakując narzędzie open source na dużą skalę za pomocą exploita wygenerowanego przez sztuczną inteligencję. Wydaje się, że proaktywne przeciwdziałanie wykrywaniu przez GTIG przecięło ten plan, zanim zyskał on na popularności. Prawdopodobnie przeszkodziły również błędy w implementacji exploita. "Niezręczne dla wszystkich innych jest to, że wciąż wydaje się, że jest to niezdarna wczesna faza" - zauważył The Register w swojej relacji. Błędy w wykonaniu uratowały tym razem wiele potencjalnych ofiar. To może się nie utrzymać. Główny analityk GTIG, John Hultquist ujął to wprost: "Istnieje błędne przekonanie, że wyścig podatności AI jest nieuchronny. W rzeczywistości już się rozpoczął. Dla każdego dnia zerowego, który możemy prześledzić wstecz do sztucznej inteligencji, prawdopodobnie istnieje o wiele więcej"
Wada logiki semantycznej leżąca u podstaw exploita wskazuje na coś bardziej niepokojącego niż jednorazowy incydent. Tradycyjne skanery są tworzone w celu wykrywania spadków, awarii i uszkodzeń pamięci. Nie czytają one kodu w sposób, w jaki pisze go programista. Skanery LLM to robią. Mogą one korelować intencje z implementacją, wykrywać sprzeczności między projektem a wykonaniem, a także wykrywać uśpione błędy logiczne, które wyglądają funkcjonalnie poprawnie dla każdego obecnie używanego zautomatyzowanego narzędzia. GTIG opisało to jako rosnącą zdolność, której tradycyjne narzędzia bezpieczeństwa nie są w stanie przeciwdziałać.
Szerszy obraz z raportu GTIG
Przypadek zero-day jest częścią większego schematu, który dokumentuje raport. Północnokoreańska grupa APT45 wysyłała tysiące powtarzających się monitów do modeli sztucznej inteligencji, aby rekurencyjnie analizować luki w zabezpieczeniach i budować arsenał exploitów na skalę, która byłaby niepraktyczna do wykonania ręcznie. Aktor powiązany z Chinami, zidentyfikowany jako UNC2814, wykorzystał monity o jailbreak eksperta-persony, aby zmusić Gemini do zbadania błędów w zdalnym wykonywaniu kodu przed uwierzytelnieniem w oprogramowaniu sprzętowym routera TP-Link. Rosyjskie grupy używały generowanego przez sztuczną inteligencję dźwięku wplecionego w legalne materiały informacyjne w celu wywierania wpływu. Niezależnie od tego, GTIG udokumentował backdoory Android które wykorzystują wywołania API Gemini do autonomicznego poruszania się po zainfekowanych urządzeniach, a także rodziny złośliwego oprogramowania wypełnione kodem generowanym przez sztuczną inteligencję specjalnie w celu zmylenia analizy.
W marcu 2026 r. grupa przestępcza TeamPCP skompromitowała LiteLLM, szeroko stosowaną bibliotekę bramy AI, osadzając narzędzie do kradzieży danych uwierzytelniających za pomocą zatrutych pakietów PyPI i złośliwych żądań ściągnięcia. Skradzione klucze AWS i tokeny GitHub zostały spieniężone poprzez partnerstwa ransomware. Atak był wymierzony w warstwę integracyjną wokół systemów sztucznej inteligencji, a nie w same modele, co według GTIG staje się standardem. Modele Frontier są trudne do bezpośredniego złamania. Konektory, wrappery i warstwy API wokół nich nie są.
Sztuczna inteligencja jest nie tylko bronią atakujących. Jest ona również wykorzystywana jako przynęta. Notebookcheck opisał, w jaki sposób fałszywa strona internetowa Claude AI wypchnęła backdoora Beagle Windows przez sponsorowane wyniki wyszukiwania Google w zeszłym tygodniu, używając trojana instalacyjnego do wdrożenia narzędzia zdalnego dostępu skierowanego do programistów szukających narzędzi Claude Code







