A Meta bejelentette, hogy új kockázatértékelési rendszert vezet be az erősen fejlett mesterséges intelligencia modellek szabályozására. A Frontier AI Framework nevű kezdeményezés célja az, hogy azonosítsa és szükség esetén korlátozza vagy akár leállítsa a túlzottan veszélyes AI-rendszereket.
Mesterséges általános intelligencia: lehetőség vagy veszély?
Mark Zuckerberg, a Meta vezérigazgatója a közelmúltban ismertette a cég mesterséges intelligenciával kapcsolatos terveit, amelyek között szerepel egy mesterséges általános intelligencia (AGI) modell kifejlesztése. Az AGI koncepciója egy olyan AI-rendszert takar, amely az emberi gondolkodáshoz hasonló módon képes tanulni és bármilyen feladatot elvégezni.
Bár ez a technológia hatalmas előrelépést jelenthetne az iparágban, komoly kockázatok is felmerülnek. A Meta ezért bevezeti a Frontier AI Framework nevű szabályozási modellt, amely két kockázati kategóriát különböztet meg:
- Magas kockázatú AI-rendszerek: Ezek olyan rendszerek, amelyek támogathatják például a kiberbiztonsági fenyegetéseket, de nem garantálják azok sikerét.
- Kritikus kockázatú AI-rendszerek: Az ilyen technológiák súlyos következményekhez vezethetnek, például biológiai fegyverek fejlesztéséhez vagy átfogó kibertámadásokat tehetnek lehetővé.
Megfékezhetik a veszélyes AI-modellek fejlesztését
A Meta egyértelművé tette, hogy ha egy rendszert magas kockázatúnak ítélnek, akkor azt nem fogják nyilvánosan elérhetővé tenni, amíg megfelelő biztonsági intézkedéseket nem vezetnek be. Ha egy AI-modellt kritikus kockázatúnak minősítenek, a fejlesztését akár teljesen le is állíthatják.
A vállalat példákat is említett a lehetséges fenyegetésekre, mint például:
- Automatizált kibertámadások vállalatok ellen,
- Biológiai fegyverek fejlesztésének elősegítése mesterséges intelligenciával.
A Meta elismeri, hogy a jelenlegi kockázatértékelési módszerek még nem elég kifinomultak ahhoz, hogy pontos mennyiségi mutatókat adjanak. Belső és külső szakértők bevonásával tervezik a lehetséges veszélyek elemzését.
Nyílt forráskód: áldás vagy átok?
A Meta korábban a nyílt forráskódú AI-modellek mellett állt ki, ám ez a megközelítés nem várt következményekkel is járt. A nyílt forráskód (open source) olyan szoftver, amelynek forráskódja bárki számára szabadon elérhető, módosítható és felhasználható. Például a vállalat Llama AI modelljét több százmilliószor letöltötték, és egyes esetekben nemzetközi katonai célokra is felhasználták. Ez komoly kritikát váltott ki az iparágon belül, és részben ez vezetett a Frontier AI Framework kidolgozásához.
A Meta szerint az új rendszer folyamatosan fejlődni fog, igazodva az AI-technológiák változó környezetéhez. Az intézkedések célja az, hogy egyensúlyt teremtsenek az innováció és a biztonsági kockázatok csökkentése között.
A következő időszakban kiderül, hogy a Meta szigorított szabályozása mennyiben változtatja meg a mesterséges intelligencia fejlődésének ütemét, és hogyan reagál rá a technológiai közösség.
(Forrás: Fintek)
(Címlapkép: Depositphotos)