Új AI-alapú biztonsági ügynököt mutatott be az OpenAI

Az OpenAI egy új alkalmazásbiztonsági megoldást jelentett be, amely mesterséges intelligenciát használ a szoftverprojektekben rejlő sérülékenységek azonosítására. A Codex Security névre keresztelt eszköz célja, hogy mélyebb kontextust építsen a fejlesztési környezetről, így képes legyen a komplex biztonsági problémák feltárására, miközben csökkenti a hamis riasztások számát.

A vállalat blogbejegyzése szerint a rendszer jelenleg research preview, vagyis kutatási előzetes fázisban érhető el. A megoldás korábban Aardvark néven futott, amikor tavaly októberben zárt béta tesztelés alatt állt.

Az alkalmazásbiztonság szolgálatában az OpenAI

A Codex Security egyik legfontosabb célja, hogy segítse a biztonsági ellenőrzési folyamatokat abban, hogy lépést tartsanak az egyre gyorsabb szoftverfejlesztéssel. Az elmúlt években a generatív AI és az úgynevezett agentic (ügynök-alapú) rendszerek jelentősen felgyorsították a kódírást, ami új kihívásokat teremt a biztonsági auditok számára.

Az OpenAI szerint a rendszer az élvonalbeli AI-modellek ügynök-alapú érvelési képességeit kombinálja automatizált validációs folyamatokkal. Ennek eredményeként a platform magas megbízhatóságú biztonsági megállapításokat és konkrét javítási javaslatokat kínál a fejlesztőcsapatok számára.

A cél, hogy a mérnökök ne rengeteg fals riasztással foglalkozzanak, hanem azokra a sérülékenységekre koncentrálhassanak, amelyek valódi kockázatot jelentenek. Ez végső soron gyorsabb és biztonságosabb szoftverkiadásokat tehet lehetővé.

OpenAI: Először a vállalati ChatGPT-felhasználók próbálhatják ki

Az OpenAI múlt hét pénteken kezdte meg a Codex Security kutatási előzetes verziójának bevezetését. A szolgáltatás egyelőre a ChatGPT Enterprise, Business és Edu ügyfelek számára érhető el a Codex webes felületén. A vállalat az első hónapban ingyenes használatot biztosít, hogy a szervezetek tesztelhessék az új megoldást.

Új korszak a kiberbiztonságban

A Codex Security megjelenése egy szélesebb iparági trendbe illeszkedik. Egyre több olyan AI-first kiberbiztonsági platform jelenik meg, amelyek nem passzívan várják a riasztásokat, hanem proaktívan keresik a sérülékenységeket a kódban, a konfigurációkban vagy a rendszerek viselkedésében.

Ezek a rendszerek képesek automatikusan védekező lépéseket tenni, ami különösen fontos egy olyan időszakban, amikor a támadók is egyre fejlettebb AI-eszközöket használnak. Az olyan technológiák, mint az agent-alapú mesterséges intelligencia vagy a polimorf kártevők, jelentősen felgyorsítják a kibertámadásokat, miközben csökkentik a belépési küszöböt a csalók számára.

Az AI egyszerre támadó és védelmi eszköz

A Világgazdasági Fórum friss felmérése szerint a mesterséges intelligencia 2026-ban a kiberbiztonsági stratégiák egyik legmeghatározóbb tényezője lehet. A megkérdezett vezetők 94 százaléka úgy véli, hogy az AI egyaránt növeli a támadók és a védekezők képességeit. A generatív AI terjedése ráadásul jelentősen bővíti a támadási felületet, ami új típusú védekezési stratégiákat tesz szükségessé.

Az autonóm védekezés felé mozdul a piac

A vállalatok és a befektetők egyre inkább az autonóm hibajavító rendszerek felé fordulnak. Ezek a megoldások bizonyos sérülékenységtípusok esetében akár teljesen ki is válthatják az emberi beavatkozást. Más esetekben az AI felgyorsítja az incidensek azonosítását és priorizálását, így a biztonsági szakemberek a stratégiai döntésekre és az összetettebb problémák kezelésére koncentrálhatnak.

Az új paradigma központi eleme a sebesség. Amikor az AI által vezérelt támadások folyamatos ciklusokban zajlanak, az emberi tempó már nem elegendő. A jövő kiberbiztonsági rendszereinek ezért képesnek kell lenniük arra, hogy ugyanolyan gyorsan reagáljanak, mint maguk a támadások.

(Forrás: PYMNTS)

(Címlapkép: Depositphotos)