Gavin Newsom, Kalifornia kormányzója aláírta azt a törvényt, amely előírja az OpenAI-hoz és más nagy AI-fejlesztőkhöz hasonló cégek számára, hogy nyilvánosságra hozzák, miként kezelik a legfejlettebb modelljeikből fakadó potenciális katasztrofális kockázatokat. Ez az első állami szintű jogszabály az Egyesült Államokban, amely kötelezővé teszi az AI-biztonsági stratégiák rendszeres bemutatását, kiemelve a szabályozói figyelem erősödését a mesterséges intelligencia gyors fejlődése mellett.
A törvény kifejezetten az ún. frontier AI modellekre, vagyis a legnagyobb számítási kapacitással betanított, legnagyobb teljesítményű rendszerekre vonatkozik. Az érintett vállalatoknak évente be kell nyújtaniuk jelentéseiket arról, hogy miként mérséklik az olyan kockázatokat, mint a dezinformáció terjedése, a kibertámadások lehetősége vagy az autonóm döntéshozatalból fakadó veszélyek. A kaliforniai törvény különösen nagy hatással lehet az OpenAI-ra, a Google DeepMindra és az Anthropicra, amelyek központjai és működése nagyrészt Kaliforniához kötődnek.
A Hunton Andrews Kurth elemzése szerint a szabályozás áttörést jelenthet az AI-felügyeletben, mivel egyértelműen előírja a vállalatok felelősségét a társadalom biztonsága iránt. A jogszabály hosszú távú jelentősége abban áll, hogy precedenst teremthet más amerikai államok és akár a szövetségi kormány számára is, amely jelenleg még csak vitatja az AI-rendszerek feletti szabályozási kereteket. Kalifornia így ismét úttörő szerepet vállalhat a digitális technológiák szabályozásában, hasonlóan korábbi adatvédelmi és fogyasztóvédelmi intézkedéseihez.
Források:
1.
2.

3.

