EN

Az EU AI biztonsági kódex négy kritikus kockázat értékelését teszi kötelezővé

Az EU AI biztonsági kódex négy kritikus kockázat értékelését teszi kötelezővé
Sources: Unsplash - ALEXANDRE LALLEMAND

Az EU AI Code of Practice jelentős új mércét állít fel az AI biztonsági gyakorlatokban, kötelező követelményeket határozva meg a 10^25 FLOPs feletti modellekre. Az Európai Bizottság 2025. július 10-én kiadta a General Purpose AI Code of Practice három fejezetét, amely önkéntes eszközként segíti az iparági szereplőket az AI Act előírásainak betartásában, amely 2025. augusztus 2-án lép hatályba. A szabályozás a 10^23 FLOPs feletti számítási kapacitással rendelkező általános célú AI (GPAI) modellekre vonatkozik, de a rendszerszintű kockázatot jelentő, 10^25 FLOPs feletti modelleknek – mint a GPT-4, Gemini 1.5 Pro, Grok 3 és Claude 3.7 Sonnet – további biztonsági és kiberbiztonsági követelményeknek kell megfelelniük. A kódexet 13 független szakértő dolgozta ki, több mint 1000 érdekelt fél bevonásával, beleértve modellszolgáltatókat, KKV-kat, akadémikusokat, AI biztonsági szakértőket és civil szervezeteket.

A biztonsági és kiberbiztonsági fejezet a legkiterjedtebb a három közül, részletesen leírja azt a kockázatkezelési folyamatot, amelyet a szolgáltatóknak implementálniuk kell. A fejezet előírja, hogy a szolgáltatóknak mindig értékelniük kell négy meghatározott kockázatot: kémiai, biológiai, radiológiai és nukleáris fenyegetéseket; a kontrollvesztés kockázatát; kibertámadási kockázatot; és a káros manipuláció lehetőségét. A kockázatelemzési folyamat során a szolgáltatóknak információkat kell gyűjteniük minden kockázatról különböző forrásokból, és állapotszerű modellértékeléseket kell végezniük, majd össze kell hasonlítaniuk ezeket a kockázati becsléseket előre meghatározott elfogadási kritériumokkal. Egy friss értékelés szerint a jelenlegi gyakorlatok hiányosak, kevesebb mint a fele a vizsgált cégeknek végez érdemi tesztelést a veszélyes képességekre vonatkozóan.

A kódex várhatóan globális hatással lesz, mivel a rendszerszintű kockázatot jelentő modellek magas képzési költségei miatt valószínűtlen, hogy a szolgáltatók különböző modelleket fejlesztenének különböző joghatóságok számára. Bár a kódex betartása önkéntes, a megfelelőség vélelme erős ösztönzőt jelent a szolgáltatók számára az aláírásra, ami csökkentett adminisztratív terhet és fokozott jogbiztonságot biztosít. Míg az OpenAI, Google, Mistral AI és Anthropic támogatásukat fejezték ki, a Meta már jelezte, hogy nem írja alá azt. Azonban a kódexhez való csatlakozástól függetlenül, az AI Act betartása kötelező, így a kódex hasznos jelzés lehet a megfelelés elvárt szintjéről.

Források:

1.

General-Purpose AI Code of Practice now available
The European Commission has received the final version of the General-Purpose AI Code of Practice, a voluntary tool developed by 13 independent experts, with input from over 1,000 stakeholders, including model providers, small and medium-sized enterprises, academics, AI safety experts, rightsholders, and civil society organisations.

2.

AI Safety under the EU AI Code of Practice — A New Global Standard? | Center for Security and Emerging Technology
To protect Europeans from the risks posed by artificial intelligence, the EU passed its AI Act last year. This month, the EU released a Code of Practice to help providers of general purpose AI comply with the AI Act. This blog reviews the measures set out in the new Code’s safety and security chapter, assesses how they compare to existing practices, and what the Code’s global impact might be.