A kaliforniai kormányzó, Gavin Newsom által összehívott szakértői munkacsoport 2025. március 18-án közzétette jelentéstervezetét a mesterséges intelligencia felelősségteljes fejlesztéséről és használatáról. A jelentés célja, hogy empirikus, tudományos alapú elemzéssel segítse elő az AI technológiák biztonságos fejlesztését, miközben Kalifornia megőrzi vezető szerepét az iparágban. A dokumentum jelentősége abban rejlik, hogy az állam ad otthont a világ 50 vezető AI vállalata közül 32-nek, így szabályozási döntései globális hatással bírnak.
A Gavin Newsom kormányzó által felkért szakértői csoport – köztük Dr. Fei-Fei Li, akit gyakran az "AI keresztanyjaként" emlegetnek, Mariano-Florentino Cuéllar, a Carnegie Endowment for International Peace elnöke, és Dr. Jennifer Tour Chayes, a UC Berkeley dékánja – konkrét javaslatokat fogalmazott meg a törvényhozók számára. Ezek között szerepel a fejlett AI modellek átláthatóságának növelése, a kockázatok és sebezhetőségek kötelező közzététele, valamint független, külső fél általi értékelések bevezetése. A jelentés hangsúlyozza, hogy a megfelelő biztonsági intézkedések nélkül az AI súlyos és egyes esetekben potenciálisan visszafordíthatatlan károkat okozhat. A nyilvánosság április 8-ig fűzhetett észrevételeket a jelentéshez, amely várhatóan nyáron kerül véglegesítésre.
A jelentéstervezet elsősorban az úgynevezett élvonalbeli (frontier) modellekre összpontosít, amelyek a legfejlettebb AI rendszerek közé tartoznak, mint az OpenAI által fejlesztett ChatGPT vagy a kínai DeepSeek R1 rendszere. Az Anthropic – amely maga is kaliforniai székhelyű élvonalbeli AI vállalat – üdvözölte a jelentést, kiemelve, hogy annak számos javaslata már része az iparági legjobb gyakorlatoknak. Az Anthropic közleményében támogatta, hogy a kormányok segítsék az AI vállalatok biztonsági gyakorlatainak átláthatóbbá tételét, és jelezte, hogy előrejelzésük szerint már 2026 végére megjelenhetnek a még fejlettebb AI rendszerek, ami sürgeti a megfelelő szabályozási környezet gyors kialakítását.
Források:
1.
Anthropic supports the working group's emphasis on transparency and evidence-based policy in AI development.
2.

3.
