EU AI Act: Minden, amit a mesterséges intelligencia szabályozásról tudni kell

Az elmúlt években a mesterséges intelligencia (Artificial Intelligence, AI) robbanásszerű fejlődése radikálisan átalakította mind a gazdasági, mind a társadalmi élet számos területét. A terület fejlesztésének új kereteit jelöli ki az új európai szabályozás, az AI Act. Ebben a cikkben összefoglaljuk a szabályozás megszületésének körülményeit, főbb előírásait, illetve összeszedtük azokat az információkat, amelyek a formálódó intézményrendszerről már ismertek.

Az AI Act hátterét a technológiai fejlődés és a globális versenyhelyzet adja. Az EU egyik fő célkitűzése, hogy a mesterséges intelligencia alkalmazásához olyan szabályozási keretet alakítson ki, amely nemcsak a kockázatok mérséklését szolgálja, hanem elősegíti az európai innovációt is. A rendelet egy az EU tagállamai közötti hosszú és alapos egyeztetési folyamat eredménye, amely során számos kompromisszum született annak érdekében, hogy az új keretrendszerbe minden érintett szempontjait beépítsék. Az egyetértés mértéke azt mutatja, hogy a tagállamok számára nem csupán a gazdasági verseny, hanem a társadalmi felelősségvállalás is kiemelt prioritást élvez. A kezdeményezés mögött álló közös cél az AI biztonságos és etikus alkalmazása mellett az innováció ösztönzése.

A tagállami konszenzus kialakulása

Az AI Act kidolgozása során az Európai Unió tagállamai között intenzív tárgyalások és egyeztetések zajlottak. A különböző országok eltérő gazdasági és társadalmi prioritásai – miközben mindannyian elismerik az AI jelentőségét és az alkalmazásával együtt járó kockázatokat – arra késztették a tárgyaló feleket, hogy kompromisszumos megoldásokra törekedjenek. A közös cél az volt, hogy az új szabályozás olyan keretet biztosítson, amely egyaránt védi az egyéneket és elősegíti a vállalatoknál az innovációt. A tagállamok a konszenzus elérése érdekében az átláthatóság, a párbeszéd és a közös értékek – például az etikai normák beépítése és a jogbiztonság – hangsúlyozására fókuszáltak a szabályozás kialakításakor.

A tárgyalások során számos vitás kérdés merült fel, például az egyes kockázati kategóriák pontos meghatározása, a bejelentési és ellenőrzési folyamatok részletei, valamint az innováció és a biztonság közötti egyensúly megtalálása. Végül a tagállamok olyan megállapodásra jutottak, amely lehetővé teszi, hogy a szabályozási keret rugalmasan reagáljon a jövőbeni technológiai változásokra, ugyanakkor biztosítja a szükséges jogi garanciákat és védelmi mechanizmusokat.

Miért kell szabályozni az AI-t?

Bár az AI rendszerek használata egészen új perspektívát ad a fejlesztéseknek – például növelhetik az EU innovációs képességét, elősegíthetik a gazdasági növekedést és társadalmi fejlődést –, jelentős kockázatokkal is járnak. Az AI nem mindig átlátható, és bizonyos esetekben sértheti az emberek alapvető jogait, például amikor:

  • Automatikusan rangsorol vagy szűr munkavállalókat egy állásinterjú előtt,
  • Hitelkérelmeket bírál el anélkül, hogy áttekinthető lenne a döntés mechanizmusa,
  • Rendőrségi profilalkotásra használják, ami alapot adhat arra, hogy egyes csoportok igazságtalanul magasabb kockázati kategóriába kerüljenek.

A szabályozás hiánya jogi bizonytalanságot teremtene, amely akadályozhatná az innovációt és rontaná a bizalmat az új technológiák iránt. Az AI Act ezt a helyzetet kívánja kezelni egy világos keretrendszerrel, amely meghatározza az egyes alkalmazások kockázati szintjét és az adott kockázati kategóriára vonatkozó előírásokat.

Kikre vonatkozik?

A törvény előírásainak nem csak az EU-ban működő vállalkozásoknak és szervezeteknek kell megfelelnie, hanem minden olyan cégnek és fejlesztőnek, amelynek AI rendszerei elérhetőek az EU piacain vagy tevékenységük hatással lehet az uniós polgárokra.

Ez azt jelenti, hogy egy amerikai vagy ázsiai AI-fejlesztő vállalat is köteles betartani az EU előírásait, ha a terméke az uniós piacon elérhető. A szabályozás hatása tehát globális, célja pedig az egységes normák bevezetése az AI technológiák használatában.

Milyen büntetés várható jogsértés esetén?

Az EU komoly szankciókat vezet be azokra a cégekre, amelyek nem tartják be a szabályokat:

  • Akár 35 millió eurós vagy a globális éves árbevétel 7 százalékának megfelelő büntetés (amelyik magasabb) is kiróható tiltott AI alkalmazások forgalomba hozatala esetén. Tiltott kategóriába az elfogadhatatlan kockázatot jelentő alkalmazások tartoznak a szabályrendszer idén februártól már hatályos előírásai szerint. (Ezekről részletesen alább még lesz szó.) 
  • 15 millió eurós vagy a globális éves árbevétel 3 százalékának (amelyik magasabb) megfelelő összegű bírság szabható ki az egyéb előírások megsértéséért.
  • 7,5 millió eurós vagy a globális éves árbevétel 1,5 százaléka a bírság (amelyik magasabb) félrevezető információ közlése esetén.

Kockázatalapú megközelítés

Az elmúlt évtizedekben a mesterséges intelligencia robbanásszerű fejlődése alapjaiban változtatta meg a gazdaság és a társadalom struktúráját. Az automatizált döntéshozatali rendszerek, a gépi tanulás, és az adatalapú megoldások számos területen, például az egészségügyben, a közlekedésben, vagy az iparban indítottak el jelentős változásokat. Ugyanakkor ezen technológiák gyors elterjedése számos új kockázatot is magával hozott: a diszkrimináció veszélyétől kezdve a transzparencia hiányán át, egészen a biztonsági résekig. Az Európai Bizottság felismerte, hogy a hagyományos szabályozási modellek nem elegendőek az ilyen komplex kihívások kezelésére, ezért kezdte el kidolgozni az AI Act-et, amelynek célja egy olyan rugalmas, de egyben szigorú szabályozási keret kialakítása, amely mind a technológiai újításokat, mind a kockázatok megelőzését szem előtt tartja.

A szabályozási koncepció egyik legfontosabb pillére a kockázatalapú megközelítés, amelynek értelmében az AI rendszereket négy kockázati kategóriába sorolják: minimális, speciális, magas, valamint elfogadhatatlan. Ez a megközelítés lehetővé teszi, hogy a szabályozás ne legyen egységesen minden területre túl szigorú, hanem a technológiai megoldások jellegéhez igazodva alkalmazkodjon a valós kockázatokhoz. Így a magas kockázatú rendszerek esetében szigorúbb ellenőrzési és megfelelőségi követelmények érvényesülnek, míg az alacsony kockázatú alkalmazások esetében nagyobb a mozgástér az innovációra.

Elfogadhatatlan kockázat – teljes tiltás

Bizonyos AI felhasználási módok különösen károsak lehetnek, ezért az EU teljesen betiltja ezeket. Ide tartozik:

  • Manipuláció és tudatalatti befolyásolás – például olyan algoritmusok, amelyek szándékosan kihasználják az emberek sérülékenységét.
  • Társadalmi pontozás – például egy társadalmi kreditrendszer, amely alapján a polgárok viselkedését értékelik és szankcionálják.
  • Egyéni bűnmegelőzés – ha valakit kizárólag AI-alapú profilozás alapján sorolnak a bűnelkövetés veszélyének kitett kategóriába.
  • Tömeges arcfelismerés és megfigyelés – különösen, ha az adatokat cél nélkül gyűjtik például az internetről vagy térfigyelő kamerákból.
  • Érzelemfelismerés a munkahelyeken és iskolákban – kivéve, ha azt egészségügyi vagy biztonsági célokra használják (például pilóták fáradtságának monitorozására).

Ezek a korlátozások 2025. február 2-án léptek életbe.

Magas kockázat – szigorú szabályozás

Egy mesterséges intelligenciát alkalmazó rendszer akkor minősül magas kockázatúnak, ha azt az alábbi felhasználási esetek valamelyikére szánják:

  • Bizonyos kritikus infrastruktúrákban, például a közúti közlekedés, valamint a víz-, gáz-, fűtés- és villamosenergia-ellátás területén biztonsági elemként használt mesterséges intelligencia-rendszerek;
  • az oktatásban és a szakképzésben használt mesterséges intelligencia-rendszerek közé tartoznak azok, amelyek a tanulók felvételét, besorolását vagy hozzáférését határozzák meg az oktatási intézményekben, a tanulmányi eredmények értékelésére és a tanulási folyamat irányítására szolgálnak, az oktatás megfelelő szintjének meghatározására használatosak, valamint a vizsgák során tiltott magatartás észlelésére és monitorozására alkalmazzák őket.;
  • a foglalkoztatás területén alkalmazott AI-rendszerek, például célzott álláshirdetések feladására, álláspályázatok elemzésére és szűrésére, valamint a jelentkezők értékelésére;
  • az alapvető magán- és közszolgáltatásokhoz és ellátásokhoz (például egészségügyi ellátás) való hozzáférésben, természetes személyek hitelképességének értékelésében, valamint az élet- és egészségbiztosítással kapcsolatos kockázatértékelésben és árképzésben használt mesterséges intelligencia-alapú rendszerek;
  • a bűnüldözés, a migráció, a határellenőrzés, valamint az igazságszolgáltatás területén alkalmazott AI-rendszerek, amennyiben ez nem tartozik a tiltott tevékenységek közé;
  • biometrikus azonosításra, biometrikus kategorizálásra és érzelemfelismerésre használt mesterséges intelligencia rendszerek, amennyiben az nem tartozik a tiltott tevékenységek közé.

A magas kockázatú mesterséges intelligencia rendszerek fejlesztőit és forgalmazóit szigorú kötelezettségek terhelik, mielőtt a termék piacra kerül. Ezek közé tartozik többek között:

  • a megfelelő kockázatértékelési és kockázatcsökkentő rendszerek megléte;
  • a rendszert tápláló adatállományok magas színvonala a diszkriminatív eredmények kockázatának minimalizálása érdekében;
  • a tevékenység naplózása az eredmények nyomon követhetőségének biztosítása érdekében;
  • részletes dokumentáció, amely minden szükséges információt megad a rendszerről és annak céljáról, hogy a hatóságok értékelni tudják a rendszer megfelelőségét;
  • egyértelmű és megfelelő tájékoztatás a telepítő számára;
  • megfelelő emberi felügyeleti intézkedések;
  • magas szintű robusztusság, kiberbiztonság és pontosság.

Az alábbi ábra hivatott illusztrálni a magas kockázati besorolású AI-rendszerek bejelentésével kapcsolatos folyamatot:


(Forrás: Európai Bizottság)

Specifikus átláthatósági kockázat – egyértelmű tájékoztatás

Ebbe a kategóriába azok az AI-rendszerek tartoznak, amelyeknek manipulatív vagy félrevezető hatása lehet, ezért a felhasználóknak egyértelműen tisztában kell lenniük azzal, hogy mesterséges intelligenciával kommunikálnak. Példák:

  • Chatbotok – a felhasználónak tudnia kell azt, hogy egy géppel beszél.
  • Deepfake technológia – fel kell tüntetni, ha egy videót vagy képet AI generált.

Minimális kockázat – szabadon fejleszthető

A legtöbb AI-rendszer ebbe a kategóriába esik, itt nincsenek jogi előírások, amelyeknek a fejlesztés és a forgalmazás során követni kell. Az AI-szolgáltatók azonban dönthetnek úgy, hogy önként követik az EU ajánlásait és etikai irányelveit.

Mikor lép életbe az új szabályozás?

Az AI Act 2024. augusztus 1.-jén lépett hatályba, de 2026. augusztus 2-tól lesz kötelezően alkalmazandó egyes rendelkezések kivételével. Ez utóbbi kötelezettségek:

Szereplők a szabályozási folyamatban

Az AI Act szabályozási folyamatában több kulcsszereplő játszik meghatározó szerepet, akik mindegyike saját feladataival és célkitűzéseivel járul hozzá a mesterséges intelligencia biztonságos és etikus alkalmazásához. Az alábbiakban bemutatjuk a legfontosabb szereplőket és azok feladatait.

EU-s intézmények

Az AI Act kialakításában és végrehajtásában központi szerepet játszanak az EU-s intézmények, elsősorban az Európai Bizottság, amely a szabályozási keretrendszer kidolgozásáért és egységes alkalmazásáért felelős. Ez tartalmazza egyebek mellett azt, hogy világos kritériumokkal és példákkal segítik a piaci szereplőket abban, hogy megfeleljenek a jogszabályi követelményeknek.

A szabályok betartatásának érdekében minden EU-s tagállamnak 2025. augusztus 2-ig ki kell jelölnie egy Piacfelügyeleti Hatóságot (“Market Surveillance Authority”), amely felelős lesz az AI Act rendelkezéseinek érvényesítéséért, beleértve a magas kockázatú és tiltott AI rendszerek ellenőrzését. Ezek a hatóságok biztosítják majd, hogy az AI rendszerek megfeleljenek a kockázati kategóriákhoz rendelt követelményeknek, és ha szükséges, korrekciós intézkedéseket írhatnak elő a jogszabályoknak nem megfelelő alkalmazások esetén. Ez magában foglalhatja a termékek dokumentációjának frissítését, technikai módosításokat, valamint további kockázatkezelési intézkedések bevezetését. Amennyiben ezek a korrekciók nem elegendők a megfelelőség biztosításához, a hatóságok korlátozhatják az AI rendszer piaci forgalmazását, sőt akár a visszahívását is elrendelhetik.

Ezeknek a kijelölt nemzeti hatóságoknak lehet majd közvetlenül jelenteni azt is, ha valaki jogsértést észlel. Ez a visszajelzési rendszer aktívan bevonja a felhasználókat és a piaci szereplőket a szabályozás fejlődésébe.

Az Európai Bizottság annak érdekében, hogy a piaci szereplők és hatóságok jobban megértsék az AI Act rendelkezéseit, nemrégiben iránymutatásokat tett közzé az AI rendszerek meghatározásáról. Ez különösen fontos annak fényében, hogy az AI Act nem ír elő konkrét bejelentési folyamatot az AI termékekre vonatkozóan. A megfelelőségi követelmények a kockázati kategóriától függően változnak, így a szolgáltatók számára elengedhetetlen a szabályok helyes értelmezése és alkalmazása.

Magyar intézmények 

Magyarországon az AI Act helyi alkalmazása és végrehajtása egy újonnan felálló testület feladata lesz, ennek pontos működési részletei azonban egyelőre nem ismertek. A jelenlegi információk alapján a NAIH nem rendelkezik a mesterséges intelligenciáról szóló európai parlamenti és tanácsi rendelet végrehajtásához szükséges hatáskörökkel, és nem jogosult az AI Act részletes értelmezésére sem.

Miként azt az intézménynél érdeklődésünkre válaszolva közölték, a NAIH továbbra is a GDPR előírásai alapján végzi feladatait, beleértve a mesterséges intelligenciát alkalmazó adatkezelések felügyeletét is. A GDPR előírásai technológia-semlegesek, tehát nem függnek az alkalmazott technikai megoldásoktól, így a mesterséges intelligencia alkalmazása esetén is a személyes adatok védelmét és az érintettek alapjogainak biztosítását követelik meg. Bár az AI Act további részletszabályokat és felelősségmegosztást vezet be a mesterséges intelligencia értékláncának szereplői között, a GDPR elvei változatlanok maradnak, és továbbra is kötelező az átlátható és elszámoltatható adatkezelés.

A NAIH a közöltek szerint tisztában van azzal, hogy a mesterséges intelligencia alkalmazása mind az adatkezelők, mind az érintettek, mind pedig a hatóságok számára új kihívásokat jelent, különösen az átláthatóság és a jogszerűség biztosítása terén. A hatóság nyitott az együttműködésre azokkal a szervezetekkel, amelyek hatásköre összefonódhat a sajátjával, ugyanakkor jelenleg nem tud részletes információval szolgálni a készülő szabályozás helyi végrehajtásáról.

A magyarországi AI Act végrehajtásának részleteit a mesterséges intelligenciáról szóló európai parlamenti és tanácsi rendelet végrehajtásához szükséges intézkedésekről szóló 1301/2024 (IX.30.) kormányhatározat határozza meg, amelynek tartalma nyilvánosan elérhető, de a gyakorlatban alkalmazandó részletek egyelőre kidolgozás alatt állnak.

A magyarországi szabályozás és stratégia frissítése

Magyarország 2020-ban az elsők között fogadott el egy átfogó mesterségesintelligencia-stratégiát, amelynek célja az AI technológiák előmozdítása és a kapcsolódó kockázatok kezelése volt. Azóta azonban jelentős változások történtek mind a technológiai fejlődés, mind a szabályozási környezet terén, különösen az EU AI Act bevezetésével.

Ennek fényében a kormány egy átdolgozott stratégián dolgozik, amely várhatóan egy hónapon belül a döntéshozók elé kerül. Az új stratégia négy pillérre épül: az AI társadalmi hatásaira, technológiai kérdéseire, üzleti lehetőségeire, valamint jogi és etikai vonatkozásaira. Palkovics László AI-kormánybiztos szerint 2025 az áttörés éve lesz Magyarország számára az AI alkalmazása terém, ezért kulcsfontosságú, hogy az ország megfelelően pozicionálja magát a globális versenyben. A stratégia egyik fő célja az AI alkalmazásának támogatása az üzleti szektorban, miközben kezelni kívánja az AI-jal szembeni társadalmi bizalmatlanságot is. Az AI Act-nek való megfelelés már korábban megkezdődött, azonban a következő hónapokban gyorsított ütemben zajlanak majd az előkészületek annak érdekében, hogy Magyarország ne maradjon le az AI forradalomban rejlő lehetőségek kiaknázásában.

Forgalmazók és üzleti szereplők

A mesterséges intelligencia piacán a forgalmazók és az üzleti szereplők kulcsfigurái a technológiai innovációnak, akik termékeiken és szolgáltatásaikon keresztül közvetlen kapcsolatban állnak a felhasználókkal. Ezeknek a piaci szereplőknek a tevékenysége az AI Act egyik legfontosabb gyakorlati megjelenése. A cégek számára elengedhetetlen, hogy a termékeik fejlesztése során figyelembe vegyék a szabályozási követelményeket. 

Az AI Act által megkövetelt megfelelőségi szabványoknak megfelelően a termékeknek nemcsak innovatívnak kell lenniük, hanem biztonságosaknak és etikusaknak is. Az üzleti szereplők feladata, hogy a fejlesztés és forgalmazás során a jogszabályoknak megfelelően járjanak el, így a piacra kerülő termékek minden esetben megfeleljenek az uniós és helyi szabályozásnak. Ez magában foglalja a megfelelő dokumentáció elkészítését, a bejelentési kötelezettségek betartását és a folyamatos együttműködést a hatóságokkal.

A témához kapcsolódóan Csányi Kristófot, a Peak üzletfejlesztési menedzserét kérdeztük. A Peak már jelenleg is kínál ügyfeleinek mesterséges intelligencia-alapú megoldásokat.

Hogyan érinti az AI Act a Peak Edukációs Platform működését?

“A Peak Edukációs Platform mesterséges intelligenciát alkalmaz a tanulási folyamatok személyre szabására, ami felvet bizonyos szabályozási kérdéseket. Bár az oktatási célú AI-rendszerek gyakran a magas kockázatú kategóriába esnek, a Peak platformja nem hoz döntéseket például a diákok felvételéről vagy vizsgáztatásáról, így nem tartozik automatikusan ebbe a körbe. Ennek ellenére az EU AI Act előírásainak megfelelően nyilvántartásba vesszük a platformot, és szükség esetén a hatóságok rendelkezésére bocsátjuk az értékelési dokumentációt.”

Milyen adatkezelési szempontokat vesz figyelembe a platform?

“Az adatvédelem kiemelt prioritás számunkra. Csak anonim, minimális és nem validált adatokat gyűjtünk, így teljes mértékben megfelelünk a GDPR előírásainak. Ez csökkenti a személyes adatokkal való visszaélés kockázatát, miközben lehetővé teszi a tanulási folyamat személyre szabását. Emellett az AI-modellünk átlátható: a felhasználók pontosan tudhatják, milyen preferenciák alapján történik a tartalomajánlás.”

Milyen biztosítékok vannak arra, hogy a platform etikus módon használja az AI-t?

“A Peak kizárólag jogtiszta, nem szerzői jogvédett forrásokat használ, így biztosítjuk az AI etikus működését. Rendszeresen auditáljuk és ellenőrizzük a platformot, hogy garantáljuk az átláthatóságot és a szabályozásoknak való megfelelést. Az AI Act szigorúbb követelményei miatt még nagyobb hangsúlyt fektetünk a technológia felelős alkalmazására.”

Milyen kihívásokat és lehetőségeket jelent az AI Act a Peak számára?

“A szabályozás bizonyos adminisztratív terheket ró a fejlesztőkre, például a megfelelőségi dokumentáció és a nyilvántartásba vétel terén. Ugyanakkor az AI Act egyértelmű kereteket biztosít, amelyek hosszú távon versenyelőnyt jelenthetnek számunkra. Egyre nagyobb az igény az etikus és megbízható AI-megoldások iránt az oktatásban, így a szabályoknak való megfelelés segíthet minket abban, hogy stabil pozíciót építsünk ki az európai és nemzetközi piacon.”

(Források: European Commission – AI Policy, Artificial Intelligence – Questions and Answers, European Commission, Guidelines on prohibited artificial intelligence (AI) practices,  European AI Alliance)

AI ActEUmesterséges intelligenciapeakPeak Edu Platformszabályozás