Hackertámadás érte a ChatGPT-t, sokan félnek a következményektől

Még tavaly év elején egy hacker sikeresen feltörte a ChatGPT gyártójának rendszerét ahonnan érzékeny adatokat lopott el. Az eseményt egészen mostanáig sikeresen titokban tartották, ám egy korábbi alkalmazott nyilvánosságra hozta az incidenst. A támadás miatt többen aggodalmukat fejezték, mivel nemzetbiztonsági kockázatot látnak az AI fejlesztő cégek feltörésében. A szakma többsége egyelőre óva int az ilyen következtetésektől, de azt elismerik, hogy a nem is oly távoli jövőben ez a megállapítás helyes lehet.

Egy hacker prédája lett a legismertebb generatív AI, a ChatGPT

Az elmúlt napokban derült fény egy, a ChatGPT-t fejlesztő cég, az OpenAI ellen elkövetett sikeres hackertámadásra. Még 2023 elején egy hacker feltörte az OpenAI tech vállalat belső üzenetküldő rendszerét, ahol a ChatGPT fejlesztéséről szerzett meg adatokat. A magányos elkövető egy olyan belső fórumhoz fért hozzá, ahol a cég legújabb technológiáiról folyt a beszélgetés. Az esetet egy korábbi dolgozó szellőztette meg, majd a New York Times közölt róla hosszabb cikket az eseményre rálátó szereplők megszólaltatásával.

A New York Times-nak névtelenül nyilatkozó két személy elmondása szerint az alkalmazottakat és az igazgatótanácsot tavaly áprilisban tájékoztatta a vezetőség. A San Franciscói-i irodában tartott megbeszélés után azonban az a döntés született, hogy a nyilvánossággal nem osztják meg a hírt. Az incidens során ügyfelekről és partnerekről nem kerültek ki információk, és azok a rendszerek is érintetlenül maradtak, ahol a ChatGPT fejlesztése zajlik. A belső vizsgálat szerint a támadó egy magánszemély lehetett, aki nem kapcsolódik egyetlen külföldi kormányhoz sem. A vezetők szerint a támadás nem tekinthető nemzetbiztonsági fenyegetésnek, ezért sem az FBI-t, se más hatóságot nem értesítettek.

A támadás után a biztonságra irányult a figyelem

Az OpenAI dolgozói közül azonban sokan nem értettek egyet a vezetőséggel és aggodalmaiknak adtak hangot. Közéjük tartozott Leopold Aschenbrenner, az OpenAI technikai programvezetője is, aki kirúgását követően megszellőztette a hírt. A támadást után Aschenbrenner levélben fordult az igazgatótanácshoz, ahol amellett érvelt, hogy a cég nem tesz eleget azért, hogy kínai és más külföldi ellenfelek ellopják a titkaikat.

Nem ő volt az egyetlen alkalmazott, akiben kétségek merültek fel a cég biztonsági képességeit illetően. A New York Times szerint egyenesen törések jöttek létre a vállalaton belül, mivel az alkalmazottak eltérően gondolkodtak az AI fejlesztések kockázatairól. Többen valóban attól tartottak, hogy Kína vagy más külföldi szereplő feltörheti a rendszereiket. Aschenbrennert idén tavasszal kirúgták, amit politikai okokkal magyarázott. A támadásra egy podcastban utalt, ahol azt is elmondta, hogy az OpenAI biztonsági rendszere nem elég erős ahhoz, hogy külföldi szereplőktől megvédje a vállalatot.

A hírre ezután az OpenAI is reagálni kényszerült. „Nagyra értékeljük Leopold aggodalmait, amelyeket a közös munka során megosztott velünk. Az elbocsátása azonban nem kapcsolódik ehhez az eseményhez” – mondta Liz Bourgeoius, a vállalat szóvivője. „Habár osztjuk a biztonságos generatív AI-ok iránti elkötelezettségét, több állításával nem értünk egyet. Ide tartozik a biztonságunkra vonatkozó kijelentése is, különösen arra az incidensre vonatkozóan, amelyet érkezése előtt egyeztettünk az igazgatótanácsunkkal.”.

A félelem nem alaptalan, de az AI egyelőre nem nemzetbiztonsági kérdés

Nem alaptalan félelem, hogy Kína amerikai tech vállalatok rendszereit töri fel. A múlt hónapban a Microsoft elnöke, Brad Smith vallott arról, hogy kínai hackerek a tech óriás rendszerét használva indítottak széleskörű támadást amerikai szövetségi kormányzatok hálózatai ellen. A lényegében rendszeresnek tekinthető hackertámadások gyakran az energetikai és vízhálózati infrastruktúrát célozzák, amelyek tönkretétele valóban súlyos károkat okozhatna a civil lakosságnak.

Arra azonban nincs sok bizonyíték, hogy a mai AI technológiák is jelentős nemzetbiztonsági kockázatot hordoznának. Az OpenAI, az Antrhopic és más vezető AI fejlesztő vállalatok tanulmányai is kimutatták, hogy az AI mostani formái nem veszélyesebbek, mint a keresőmotorok. Több vállalat, köztük a Meta is, szabadon hozzáférhetővé teszi AI fejlesztéseiket nyílt forráskódú szoftverként. Meglátásuk szerint az AI aktuális fejlettségi szintje nem veszélyes a társadalomra, ellenben hasznos, ha mérnökök és kutatók hozzáférnek a kódjukhoz.

Más a helyzet hosszabb távon

A hosszú távú kilátások azonban jóval borúsabbak, s azt széleskörben elismerik, hogy évtizedes távlaton változhat a helyzet. Nem zárható ki ugyanis, hogy a fejlettebb AI modelleket később új biofegyverek létrehozására vagy kormányzatok elleni hackertámadásokra használhatják. Dezinformáció terjesztésére már ma is több generatív AI modellt alkalmaznak, gondoljunk csak azokra a hamis képekre és videókra, amelyek aktuális háborúk kapcsán terjednek az Interneten. Nálunk is olvashattak arról, hogy AI segítségével pénzügyi csalások és más károkozások is elkövethetőek, és ezek a jövőben egyre gyakoribbá válhatnak.

Nemzetbiztonsági szakértők, állami törvényhozók és tisztségviselők között is egyre többen szorgalmazzák az AI fejlesztések szabályozását. Például szigorú pénzbüntetések kiszabását olyan vállalatokra, amelyek AI modellje valamilyen kárt okoz. Maguk a tech cégek is érzékelik ezeket a növekvő kockázatokat. Az OpenAI például egy új biztonsági bizottságot hozott létre, ahova beültette Paul Nakasone-t, az amerikai hadsereg volt tábornokát, aki a Nemzetbiztonsági Ügynökséget és Kiberparancsnokságot vezette. A bizottság feladata az lesz, hogy megtervezze, hogyan védje a vállalat jövőben a technológiáját.

Forrás: New York Times

Címlapkép: depositphotos