Kibertámadást hajtottak végre az Anthropic Claude Code modelljével szeptemberben, jelentette az AI fejlesztő cég múlt csütörtökön. Az AI modellt egy államilag támogatott hackercsoport manipulálta, és az így létrejött AI-agent mintegy harminc szervezet ellen indított kiterjedt kiberkémkedési kampányt. A támadás szakértők szerint mérföldkő a kiberbűnözés történetében: először fordult elő, hogy egy mesterséges intelligencia végezte el egy behatolás lépéseinek túlnyomó részét.
Az AI már nem csak segíti a támadókat – át is veszi a kibertámadást
Az Anthropic közlése szerint a szeptember közepén észlelt incidens során a Claude mögött álló AI-agentet „jailbreak” jellegű utasításokkal térítették el. A támadók magukat kiberbiztonsági szakembereknek álcázták, és elhitették a modellel, hogy egy legitim penetrációs tesztben vesz részt. A penetrációs teszt egy szimulált, etikus „támadás”, amit kiberbiztonsági szakértők végeznek sebezhetőségek azonosítása érdekében. A támadóknak sikerült az AI modell beépített biztonsági szabályait felülírni, vagyis olyan feladatok elvégzésére tudták rávenni, amelyeket rendszer szinten tiltanak az AI számára.
A modell ezután automatikusan feltérképezte a támadásra kijelölt rendszereket, gyenge pontokat keresett, exploit kódokat generált, hozzáférési adatokat lopott, majd összefoglalta a talált információkat megbízóinak. Az Anthropic értékelése szerint a művelet 80–90 százalékát maga az AI hajtotta végre, a hackerek csak rövid, megerősítő üzenetekkel kommunikáltak a modellel, mint „Igen, folytasd.”.
A lekérések mennyisége és sebessége olyan magas volt, hogy a vállalat szerint „fizikailag lehetetlen” lett volna, hogy emberi csapat vezesse a támadást. Az esetet rutinszerű monitoring során észlelték, majd értesítették az amerikai hatóságokat. A nyomozás szerint a támadás hátterében Kína államilag támogatott szereplői állnak. Bár amerikai szövetségi rendszereket nem sikerült feltörni, más országokban részleges sikereket értek el.
A támadás pontosan azt a kockázatot testesíti meg, amelyet az Anthropic már nyáron, saját fenyegetettségi jelentésében előrevetített. A fejlettebb modellek és a kódírásra, külső rendszerekkel való interakcióra képes eszközök kombinációja lehetővé teszi a támadások automatizált, mély technikai tudás nélküli végrehajtását.
A bankok új típusú kockázattal néznek szembe
Dev Nag, a QueryPal vezérigazgatója arra hívta fel a figyelmet, hogy az AI-vezérelt támadások sebessége felborítja a teljes kibervédelmi logikát. A korábbi, órákig vagy napokig tartó támadási folyamatokhoz képest az AI másodpercek alatt képes felderítésre, behatolásra és adatszerzésre. Ez alapjaiban kérdőjelezi meg a jelenlegi monitoringrendszerek felkészültségét. A bankok emiatt már a beszállítói átvilágítást is átformálják. Egyre gyakrabban kérdeznek rá, hogy a szolgáltató AI-láncának mely részeit nem kontrollálja. Több pénzintézet pedig már 24 órán belüli értesítést követel minden modellváltoztatásról.
Larissa Schneider, az Unframe AI COO-ja a pénzügyi szektor szempontjából egy különösen súlyos következményre hívta fel a figyelmet. Az incidens azt mutatja, hogy egy külső AI-modell viselkedési kockázata „beszivároghat” a bank működésébe, pusztán azért, mert a szolgáltatásra épít. A Schneider szerint a bankoknak új védekezési minimumot kell bevezetniük, hasonlóan ahogy a szoftverellátási lánc fenyegetéseire válaszul tették. Szegmentálásra, folyamatos validálásra és irányítási keretrendszerekre van szükségük, folyamatosan monitorozni és validálni kell az alkalmazott AI modelleket, és nem szabad egyetlen nagy AI fejlesztő cégre építeniük.
Forrás: pymnts.com
Címlapkép: depositphotos