A Meta szigorítaná a mesterséges intelligencia fejlesztését

A Meta bejelentette, hogy új kockázatértékelési rendszert vezet be az erősen fejlett mesterséges intelligencia modellek szabályozására. A Frontier AI Framework nevű kezdeményezés célja az, hogy azonosítsa és szükség esetén korlátozza vagy akár leállítsa a túlzottan veszélyes AI-rendszereket.

Mesterséges általános intelligencia: lehetőség vagy veszély?

Mark Zuckerberg, a Meta vezérigazgatója a közelmúltban ismertette a cég mesterséges intelligenciával kapcsolatos terveit, amelyek között szerepel egy mesterséges általános intelligencia (AGI) modell kifejlesztése. Az AGI koncepciója egy olyan AI-rendszert takar, amely az emberi gondolkodáshoz hasonló módon képes tanulni és bármilyen feladatot elvégezni.

Bár ez a technológia hatalmas előrelépést jelenthetne az iparágban, komoly kockázatok is felmerülnek. A Meta ezért bevezeti a Frontier AI Framework nevű szabályozási modellt, amely két kockázati kategóriát különböztet meg:

  • Magas kockázatú AI-rendszerek: Ezek olyan rendszerek, amelyek támogathatják például a kiberbiztonsági fenyegetéseket, de nem garantálják azok sikerét.
  • Kritikus kockázatú AI-rendszerek: Az ilyen technológiák súlyos következményekhez vezethetnek, például biológiai fegyverek fejlesztéséhez vagy átfogó kibertámadásokat tehetnek lehetővé.

Megfékezhetik a veszélyes AI-modellek fejlesztését

A Meta egyértelművé tette, hogy ha egy rendszert magas kockázatúnak ítélnek, akkor azt nem fogják nyilvánosan elérhetővé tenni, amíg megfelelő biztonsági intézkedéseket nem vezetnek be. Ha  egy AI-modellt kritikus kockázatúnak minősítenek, a fejlesztését akár teljesen le is állíthatják.

A vállalat példákat is említett a lehetséges fenyegetésekre, mint például:

  • Automatizált kibertámadások vállalatok ellen,
  • Biológiai fegyverek fejlesztésének elősegítése mesterséges intelligenciával.

A Meta elismeri, hogy a jelenlegi kockázatértékelési módszerek még nem elég kifinomultak ahhoz, hogy pontos mennyiségi mutatókat adjanak.  Belső és külső szakértők bevonásával tervezik a lehetséges veszélyek elemzését.

Nyílt forráskód: áldás vagy átok?

A Meta korábban a nyílt forráskódú AI-modellek mellett állt ki, ám ez a megközelítés nem várt következményekkel is járt. A nyílt forráskód (open source) olyan szoftver, amelynek forráskódja bárki számára szabadon elérhető, módosítható és felhasználható. Például a vállalat Llama AI modelljét több százmilliószor letöltötték, és egyes esetekben nemzetközi katonai célokra is felhasználták. Ez komoly kritikát váltott ki az iparágon belül, és részben ez vezetett a Frontier AI Framework kidolgozásához.

A Meta szerint az új rendszer folyamatosan fejlődni fog, igazodva az AI-technológiák változó környezetéhez. Az intézkedések célja az, hogy egyensúlyt teremtsenek az innováció és a biztonsági kockázatok csökkentése között.

A következő időszakban kiderül, hogy a Meta szigorított szabályozása mennyiben változtatja meg a mesterséges intelligencia fejlődésének ütemét, és hogyan reagál rá a technológiai közösség.

(Forrás: Fintek)

(Címlapkép: Depositphotos)

Frontier AI Frameworkmesterséges intelligenciaMeta