Badanie prowadzone przez Briana Singera, doktoranta w dziedzinie inżynierii elektrycznej i komputerowej na Carnegie Mellon Universitywykazało, że maszyny LLM mogą symulować naruszenia sieci niezwykle podobne do rzeczywistych ataków, gdy są wyposażone w możliwości planowania na wysokim poziomie i wyspecjalizowane struktury agentów.
W badaniu LLM zdołały przeniknąć do sieci przedsiębiorstw, zidentyfikować słabe punkty i przeprowadzić wieloetapowe ataki bez interwencji człowieka. Badania te pokazują, że zaawansowane modele sztucznej inteligencji są w stanie nie tylko wykonywać podstawowe zadania, ale także autonomicznie podejmować decyzje i dostosowywać się do dynamicznych środowisk sieciowych.
Stwarza to zarówno istotne zagrożenia, jak i potencjalne możliwości dla cyberbezpieczeństwa. Z jednej strony, złośliwe podmioty mogą wykorzystywać takie technologie do automatyzacji i skalowania swoich ataków. Z drugiej strony, firmy i badacze bezpieczeństwa mogą wykorzystać LLM do opracowywania i testowania środków cyberbezpieczeństwa, na przykład poprzez symulowanie ataków w celu proaktywnego identyfikowania słabych punktów.
Wyniki badania zostały szczegółowo opisane na stronie internetowej Anthropicpreprint artykułu jest również dostępny na stronie arXiv. Publikacje te oferują cenny wgląd w metodologię i implikacje tych przełomowych i ambitnych badań nad cyberatakami AI.