New York állam törvényhozása 2025. június 19-én elfogadta a határmodellekre vonatkozó felelősségteljes AI értékelési törvényt (RAISE Act), amely az Egyesült Államok első átfogó állami szintű AI biztonsági szabályozása, és amely a 'határmodellként' definiált nagy teljesítményű AI rendszerekre vonatkozik, amelyek potenciálisan káros hatásokkal, és legalább 5 milliárd paraméterrel rendelkező modellek. A törvényjavaslat, amelyet Andrew Gounardes szenátor terjesztett elő, szigorú értékelési követelményeket vezet be, kötelezve a fejlesztőket, hogy bizonyítsák a nagy hatású AI rendszereik biztonságosságát, mielőtt azokat New York államban értékesítenék vagy telepítenék, miközben olyan kulcsfontosságú kérdéseket kezel, mint a rendszerbiztonság, a kiberbiztonsági sebezhetőségek és a félretájékoztatás kockázata.
A RAISE Act három fő kötelezettséget ír elő a határmodellek fejlesztői számára: átfogó értékelést kell végezniük a modelljeikről a New York-i Műszaki Egyetem újonnan létrehozott AI Értékelési Központjának módszertana alapján, nyilvános nyilatkozatot kell tenniük az értékelési eredményekről, és bizonyítaniuk kell, hogy megfelelő intézkedéseket hoztak a rendszerbiztonság, a kiberbiztonság, valamint a csalás és félretájékoztatás kockázatainak mérséklésére. A törvény megszegése esetén jelentős büntetések várhatók: első alkalommal 10.000 dollár, ismételt szabálysértés esetén pedig akár 50.000 dollár bírság is kiszabható, amit New York állam főügyésze érvényesít. A szabályozás az év végéig lép hatályba, és a vállalatoknak 180 napos átmeneti időszak áll rendelkezésükre a megfelelés biztosítására, miközben a törvény kifejezetten mentesíti a kutatási és fejlesztési célú modelleket.
A New York-i szabályozás jelentős precedenst teremt más államok számára, és kiegészíti a Fehér Ház 2023 októberi elnöki rendeletét, amely szövetségi szintű biztonsági standardokat határozott meg az AI fejlesztés területén. A New York-i Műszaki Egyetem által létrehozott AI Értékelési Központ fontos szerepet játszik majd a törvény végrehajtásában, mivel 25 millió dolláros kezdeti finanszírozással rendelkezik, és feladata a határmodellek értékelési módszertanának kidolgozása és az eredmények közzététele lesz. Az iparági reakciók vegyesek: bár a Microsoft, az OpenAI és az Anthropic támogatják a szabályozást, a kisebb AI vállalkozások aggodalmaikat fejezték ki a megfelelési költségekkel kapcsolatban, ami a szabályozási egyensúly nehézségeire világít rá az AI biztonság garantálása és az innováció ösztönzése között.
Források:


