Az OECD 2025 augusztusában közzétett AI nyitottság (AI openness) elemzése szerint a hagyományos nyílt forráskódú ("open source") terminológia nem ragadja meg teljes mértékben az AI rendszerek komplexitását. A tanulmány rámutat, hogy az AI nyitottság egy spektrumon helyezkedik el a teljesen zárt rendszerektől a teljes mértékben nyitott modellekig, amelyek korlátlan hozzáférést, módosítást és használatot tesznek lehetővé. A jelentés hangsúlyozza, hogy az AI modelleknél a "forráskód" utalhat következtetési kódra, képzési kódra, vagy mindkettőre, és ezek egymástól függetlenül is nyilvánosan elérhetővé tehetők.
A Linux Foundation Model Openness Framework három fokozatosan szélesebb nyitottsági osztályt definiál: a III. osztály (Open Model) a nyilvános modelkiadás minimális követelményeit jelenti, a II. osztály (Open Tooling) a teljes kódcsomagot és kulcsfontosságú adatkészleteket tartalmazza, míg az I. osztály (Open Science) minden komponenst nyíltan közzétesz a nyílt tudományos elvek szerint. Az OECD kísérleti AIKoD adatbázisa szerint a nyílt súlyú modellek 2025 áprilisáig az elérhető modellek körülbelül 55%-át teszik ki, az Egyesült Államok, Kína és Franciaország vezető fejlesztői szerepével. A nyílt súlyú szöveg-szöveg modellek átlagos minősége jelentősen javult 2024 eleje óta, miközben a számítási költségek csökkenése és a hozzáférhetőbb finomhangolási módszerek mind a hasznos, mind a káros alkalmazások kockázatát növelik.
A jelentés következtetése szerint a döntéshozóknak marginális kockázatelemzést kell alkalmazniuk, amely a nyílt súlyú modellek kiadásával kapcsolatos további kockázatokat és előnyöket értékeli a zárt modellekhez és meglévő technológiákhoz képest. Ez a megközelítés segít azonosítani az olyan további előnyöket, mint a külső értékelés lehetősége és az innováció felgyorsítása, valamint az olyan kockázatokat, mint a rosszindulatú szereplők általi finomhangolás lehetősége káros célokra, egy átfogó, alkalmazkodó kockázatértékelési keretrendszer részeként.
Források:

