Az "openwashing" jelensége súlyos fenyegetést jelent az AI iparágra, a vállalatokra és a felhasználókra egyaránt, ahogy egyre több AI modell jelenik meg hamisan nyílt forráskódúként feltüntetve. A Linux Foundation AI & Data Generative AI Commons nemrég létrehozta a Model Openness Framework nevű keretrendszert, amely három szintű nyíltsági kategóriát határoz meg a valódi átláthatóság biztosítása érdekében. Az "openwashing" akkor történik, amikor egy AI modell fejlesztője csak bizonyos komponenseket tesz közzé – például a modell architektúráját – miközben a kritikus elemeket, mint a teljes adatkészletet vagy a dokumentációt, nem teszi hozzáférhetővé, vagy korlátozó licencfeltételeket alkalmaz.
Az ilyen, valójában nem nyílt AI modellek használata jelentős jogi, megfelelőségi és pénzügyi kockázatokkal jár a vállalatok számára. A Cloud Geometry szerint az openwashed modellek gyakran jogilag kérdéses adatkészleteket vagy kódot használnak, megsértve a licencfeltételeket, ami akár 500 millió eurós bírságokhoz vezethet, különösen olyan szabályozott ágazatokban, mint az egészségügy, ahol a HIPAA és más adatvédelmi előírások szigorúak. Ezek a modellek biztonsági réseket tartalmazhatnak, torzíthatják az eredményeket, és az ügyfelek adatait nem átlátható módon használhatják fel vagy oszthatják meg, súlyosan károsítva az adott vállalat hírnevét. Ahogy a The Economist beszámol róla, Mark Zuckerberg és a Meta LLaMA modelljei jól példázzák ezt a problémát, mivel a súlyokat közzéteszik ugyan, de visszatartják a tanítási adatokat és licenckorlátozásokat alkalmaznak.
Az AI openwashing hosszú távú következményei között szerepel az innovációs folyamat lelassulása, a nyílt modellekhez való hozzáférés elvesztése, és az AI iránti bizalom eróziója. Az Open Source Initiative (OSI) által nemrég kiadott szabványtervezet szerint ahhoz hogy egy AI nyílt forrásúnak tekinthető legyen, elegendő információt kell közzétenni a tanítási adatokról, a forráskódról és a belső modellsúlyokról a replikálás lehetővé tételéhez – kritériumok, amelyeket a Meta népszerű Llama modelljei nem teljesítenek. A Linux Foundation Model Openness Tool diagnosztikai kérdőíve segít a fejlesztőknek a modelljük nyíltsági besorolásának meghatározásában, bár ez jelenleg önbevalláson alapul, ami miatt a felhasználóknak saját maguknak kell átvilágítást végezniük a modellek használata előtt.
Források:


