Az EU AI Code of Practice jelentős új mércét állít fel az AI biztonsági gyakorlatokban, kötelező követelményeket határozva meg a 10^25 FLOPs feletti modellekre. Az Európai Bizottság 2025. július 10-én kiadta a General Purpose AI Code of Practice három fejezetét, amely önkéntes eszközként segíti az iparági szereplőket az AI Act előírásainak betartásában, amely 2025. augusztus 2-án lép hatályba. A szabályozás a 10^23 FLOPs feletti számítási kapacitással rendelkező általános célú AI (GPAI) modellekre vonatkozik, de a rendszerszintű kockázatot jelentő, 10^25 FLOPs feletti modelleknek – mint a GPT-4, Gemini 1.5 Pro, Grok 3 és Claude 3.7 Sonnet – további biztonsági és kiberbiztonsági követelményeknek kell megfelelniük. A kódexet 13 független szakértő dolgozta ki, több mint 1000 érdekelt fél bevonásával, beleértve modellszolgáltatókat, KKV-kat, akadémikusokat, AI biztonsági szakértőket és civil szervezeteket.
A biztonsági és kiberbiztonsági fejezet a legkiterjedtebb a három közül, részletesen leírja azt a kockázatkezelési folyamatot, amelyet a szolgáltatóknak implementálniuk kell. A fejezet előírja, hogy a szolgáltatóknak mindig értékelniük kell négy meghatározott kockázatot: kémiai, biológiai, radiológiai és nukleáris fenyegetéseket; a kontrollvesztés kockázatát; kibertámadási kockázatot; és a káros manipuláció lehetőségét. A kockázatelemzési folyamat során a szolgáltatóknak információkat kell gyűjteniük minden kockázatról különböző forrásokból, és állapotszerű modellértékeléseket kell végezniük, majd össze kell hasonlítaniuk ezeket a kockázati becsléseket előre meghatározott elfogadási kritériumokkal. Egy friss értékelés szerint a jelenlegi gyakorlatok hiányosak, kevesebb mint a fele a vizsgált cégeknek végez érdemi tesztelést a veszélyes képességekre vonatkozóan.
A kódex várhatóan globális hatással lesz, mivel a rendszerszintű kockázatot jelentő modellek magas képzési költségei miatt valószínűtlen, hogy a szolgáltatók különböző modelleket fejlesztenének különböző joghatóságok számára. Bár a kódex betartása önkéntes, a megfelelőség vélelme erős ösztönzőt jelent a szolgáltatók számára az aláírásra, ami csökkentett adminisztratív terhet és fokozott jogbiztonságot biztosít. Míg az OpenAI, Google, Mistral AI és Anthropic támogatásukat fejezték ki, a Meta már jelezte, hogy nem írja alá azt. Azonban a kódexhez való csatlakozástól függetlenül, az AI Act betartása kötelező, így a kódex hasznos jelzés lehet a megfelelés elvárt szintjéről.
Források:
1.

2.
