EN

Az OECD bevezeti az AI-incidensek közös bejelentési rendszerét

Az OECD bevezeti az AI-incidensek közös bejelentési rendszerét
Kép: Freepik - rawpixel.com

2025 februárjában az OECD kiadta az AI-incidensek közös jelentési keretrendszere felé (Towards a Common Reporting Framework for AI Incidents) című jelentését, amely egy egységes nemzetközi rendszert javasol a mesterséges intelligenciával kapcsolatos események bejelentésére és nyomon követésére. Ez a kezdeményezés válasz a növekvő kockázatokra, mint például a diszkrimináció, adatvédelmi jogsértések és biztonsági problémák.

A jelentés pontos definíciót ad az AI-incidensre mint olyan eseményre, ahol egy AI-rendszer fejlesztése, használata vagy hibás működése közvetlenül vagy közvetve károkhoz vezet, továbbá meghatározza az AI-veszélyt mint potenciális incidens-előzményt. A keretrendszer kidolgozásához négy forrást használtak fel: az OECD AI-rendszerek osztályozási keretrendszerét, a Felelős AI Együttműködés AI Incidensek Adatbázisát (AI Incidents Database, AIID), az OECD Globális Termékvisszahívási Portálját és az OECD AI Incidens Figyelőt (AI Incidents Monitor, AIM). A jelentés 29 kritériumot határoz meg az incidensek bejelentéséhez, amelyeket nyolc kategóriába soroltak, mint például az incidens metaadatai, a keletkezett károk részletei és a gazdasági környezet. Ezek közül hét kritérium megadása kötelező. Ahogyan a jelentés fogalmaz: a keretrendszer részben a hét kötelező kritériumán keresztül rugalmas struktúrát biztosít az AI-incidensek bejelentéséhez és nyomon követéséhez.

A közös jelentési keretrendszer célja az interoperabilitás fokozása az AI-incidensek bejelentésében, miközben kiegészíti a nemzeti szakpolitikákat és szabályozási intézkedéseket. Az országok a közös megközelítést alkalmazhatják, miközben rugalmasságot kapnak a válaszadás módjában a saját nemzeti politikáik szerint. A keretrendszer segítséget nyújt a döntéshozóknak a magas kockázatú rendszerek azonosításában, a jelenlegi és jövőbeli kockázatok megértésében, valamint az érintett érdekelt felekre gyakorolt hatások értékelésében, miközben elősegíti a különböző joghatóságok közötti információmegosztást az adatvédelmi, szellemi tulajdonhoz fűződő vagy biztonsági törvények sérelme nélkül.

Források:

1.

OECD Logo
Towards a Common Reporting Framework for AI Incidents
This OECD report proposes a unified approach to reporting AI incidents, aiming to help policymakers understand AI incidents across diverse contexts, identify high-risk systems, and assess current and potential risks associated with AI technologies. :contentReference[oaicite:4]{index=4}

2.

DataGuidance
Essential Privacy and Regulatory Research at Your Fingertips. Find everything you need to stay up-to-date on evolving privacy & security regulations around the world

3.

OECD incident report: definitions for AI incidents and related terms
As AI gets more widely used across industries, the potential for AI systems to cause harm - whether unintentional bugs, misuse, or malicious attacks - also increases. Definitions help identify and prevent such incidents. By providing common definitions of AI incidents, hazards, etc., this allows the UK tech industry, regulators, and others to align on terminology. This shared understanding facilitates cross-organisation and cross-border learning from AI incidents.