Az előző részben bemutattuk az AI Act jogi alapjait: hogyan osztályozza az Európai Unió a mesterségesintelligencia-rendszereket kockázat szerint, milyen kötelezettségeket ír elő a fejlesztőknek, és hogyan próbálja összehangolni a szabályozást az innováció ösztönzésével. A történet azonban itt még korántsem ér véget. 2025 nyarára a törvény átfordult a gyakorlat szintjére – és ezzel kezdetét vette az egyik leghevesebb technológiai szabályozási vita az EU történetében.
2025: átmenet a papírtól a valóságig
Bár az AI Act már 2024-ben hatályba lépett, a szabályok bevezetése fokozatosan történik. Az első fontos dátum 2025. február volt: ettől kezdve érvénybe léptek a tiltott MI-gyakorlatokra vonatkozó szabályok. Például egy iskola nem alkalmazhat többé érzelemfelismerő MI-t az osztálytermekben, és egy város sem indíthat el társadalmi pontozáson alapuló rendszert – ezek immár jogilag szankcionálható cselekmények.
A februári időpont egy másik célt is szolgált. Az EU ekkor az MI-vel kapcsolatos tudatosság növelését is napirendre tűzte – iskolai programokat indítottak az MI működésének megértésére, reflektálva arra, hogy a társadalomnak is alkalmazkodnia kell az új technológiákhoz.
A következő határidő: 2025. augusztus 2.
Ezen a napon életbe lépnek a generatív és általános célú MI-modellekre (ún. alaprendszerekre) vonatkozó kötelezettségek. A fejlesztőknek ettől kezdve dokumentációval, szerzői jogi szabályzattal és adat-összefoglalóval kell rendelkezniük, valamint el kell kezdeniük a modell kockázatainak értékelését és mérséklését.
Ezzel párhuzamosan az EU-tagállamoknak ki kell alakítaniuk saját nemzeti MI-felügyeleti hatóságaikat, valamint működésbe kell lépnie az Európai MI Hivatalnak is – az uniós szintű koordináció központjának.
De ekkor jött a bökkenő: késik a szabályértelmezés kulcseleme
A határidő közeledtével egyre világosabbá vált, hogy a törvény egyik kulcsfontosságú kiegészítője – az Általános Célú MI-re vonatkozó Magatartási Kódex (Code of Practice) – nem készül el időben.
Ez a dokumentum hivatott részletesen útmutatást adni a cégeknek a törvény gyakorlati alkalmazásához. Az eredeti tervek szerint 2025 májusára kellett volna megjelennie – de viták és nézetkülönbségek hátráltatták a folyamatot.
Az iparág rugalmasabb, „light-touch” irányelveket szorgalmazott, míg az EU és civil szervezetek erősebb garanciákat akartak az átláthatóságra és adatbiztonságra. A vita lényege: az innováció szabadsága vagy a felelősségvállalás szigora?
45 startup nyílt levele: „Állítsák le az órát!”
2025 júliusának elején 45 európai MI-cég (köztük számos ígéretes startup) nyílt levélben fordult az Európai Bizottsághoz, hogy halasszák el a törvény végrehajtását. A cégek a levélben azt írták, hogy szeretnénk megfelelni, de nem tudják hogyan, mivel a végrehajtási útmutatók még nem léteznek.
A levél két év haladékot kért. A helyzetet úgy írták le, mint egy „időzített bombát” az európai versenyképesség számára, amely startupokat kényszeríthet kivonulásra vagy megszűnésre. A kezdeményezéshez olyan iparági óriások is csatlakoztak, mint a Google, Meta és a francia Mistral AI.
A főbb érveik között szerepelt többek közt a túl sok jogi bizonytalanság, a dokumentációs és megfelelőségi terhek aránytalansága, valamint hogy a startupok nem tudják, hogy pontosan milyen követelményeknek kell megfelelniük.
A Bizottság válasza: „Nincs óraállítás, nincs türelmi idő, nincs szünet.”
Az Európai Bizottság határozott választ adott:
„A határidők jogilag rögzítettek, nem halaszthatók. A törvény alkalmazása megkezdődik – akár kész a Kódex, akár nem.”
Ugyanakkor a Bizottság elismerte, hogy a Magatartási Kódex késik, és valószínűleg csak 2025 vége felé jelenik meg. Addig pedig a vállalatoknak az AI Board (az új felügyeleti szerv) ideiglenes útmutatásaira kell hagyatkozniuk.
Vezetői hangok is kritikát fogalmaztak meg
Még politikai vezetők is hangot adtak az iparági félelmeknek: például Svédország miniszterelnöke, Ulf Kristersson úgy nyilatkozott, hogy a törvény “zavaros”, és a bevezetés ütemét érdemes lenne újragondolni az innováció védelme érdekében.
Addig azonban – mivel a végrehajtó szervek még alakulnak, és az előírások nagy része csak most lép hatályba – komolyabb bírságok vagy szankciók még nem történtek.
Miért aggódnak a startupok?
Az AI Act ugyan jó szándékú, de sok startup számára túl bonyolult, túl költséges és túl korai.
A legnagyobb félelem: a megfelelési költségek
A jogszabály által előírt megfelelési követelmények – például dokumentációkészítés, kockázatértékelés, átláthatóság, jogi és etikai szakértők alkalmazása – sok startup életképességét veszélyezteti. Röviden: ha a cégeknek túl sokat kell költeniük megfelelésre, nem marad elég forrás a termékfejlesztésre.
Jogbizonytalanság és túl általános szabályok
A törvény több mint 100 oldalas, gyakran homályos fogalmakkal. Nem mindig egyértelmű, hogy egy adott rendszer magas kockázatúnak számít-e, vagy hogy pontosan milyen formában kell közzétenni a betanítási adatokat. A nagy cégeknek külön megfelelőségi osztályaik vannak. Egy tízfős startup viszont nem bír el ekkora adminisztratív terhet.
Nemzetközi versenyhátrány
Az amerikai és kínai cégek sokszor nagyobb erőforrásokkal rendelkeznek, és lazább szabályozás mellett működnek. Egy európai startup, amelyet hosszadalmas megfelelőségi procedúrák terhelnek, könnyen kiszorulhat a globális versenyből.
Veszélyben a nyílt forráskódú innováció?
A törvény ugyan tartalmaz mentességet az „ingyenesen és nyílt licenc alatt” elérhető modellekre, de ez nem mentesít minden felelősség alól – például ha egy nyílt modellből később kereskedelmi termék lesz, újra életbe léphetnek a szabályok. Ez jogi bizonytalanságot okoz, és visszafoghatja az akadémiai vagy közösségi MI-fejlesztéseket is.
A civil társadalom hangja: nem túl szigorú, hanem túl enyhe?
Érdekes fordulat, hogy amíg a startupok szerint a törvény túlságosan szigorú, több civil szervezet szerint pont az ellenkezője igaz.
A főbb kritikák között szerepel, hogy a rendészeti és migrációs célú MI esetében sok kivétel szerepel a törvényben, illetve hogy az „elfogadhatatlan” kategóriába sorolt gyakorlatok valójában nem mindig tiltottak teljes mértékben, mert nyitva hagynak kiskapukat.
Az Access Now és az Amnesty International szerint a törvény végső változata túl sokat engedett az ipari és kormányzati érdekeknek, és nem biztosít elegendő átláthatóságot és elszámoltathatóságot.
Ugyanakkor vannak elégedettebb hangok is: a kreatív ipar például örömmel fogadta a betanítási adatokra vonatkozó átláthatósági szabályokat, emellett a fogyatékkal élő személyek jogaiért küzdő csoportok is pozitívan értékelték, hogy a törvény elismeri az MI-vel kapcsolatos diszkriminációs kockázatokat.
Előretekintés: merre tovább?
Az AI Act végrehajtása 2025 végén és 2026 elején éri el a kritikus pontot. A szabályozók aközött egyensúlyoznak, hogy ne rettentsék el a cégeket, de ne is odázzák el a társadalom védelmét.
A Bizottság jelezte, hogy a kezdeti időszakban inkább útmutatást, mint szankciókat alkalmaznak – de a jogi keret már érvényben van. A kérdés tehát az, amit mindenki feszült figyelemmel követ: Sikerül-e Európának egyszerre megvédeni az állampolgárait és támogatni az MI-innovációt – vagy saját magát zárja ki a jövőből?
A válasz a következő hónapokban derül ki. Egy dolog azonban már most biztos: az AI Act nemcsak szabályozási lépés – társadalmi párbeszédet is elindított arról, hogyan szeretnénk együtt élni az MI-vel.
(Forrás: Medium)
(Címlapkép: Depositphotos)