EN

New York elfogadta a RAISE Act-et: új szabályok az AI-fejlesztőknek

New York elfogadta a RAISE Act-et: új szabályok az AI-fejlesztőknek
Forrás: unsplash - Redd Francisco

New York állam törvényhozása 2025. június 19-én elfogadta a határmodellekre vonatkozó felelősségteljes AI értékelési törvényt (RAISE Act), amely az Egyesült Államok első átfogó állami szintű AI biztonsági szabályozása, és amely a 'határmodellként' definiált nagy teljesítményű AI rendszerekre vonatkozik, amelyek potenciálisan káros hatásokkal, és legalább 5 milliárd paraméterrel rendelkező modellek. A törvényjavaslat, amelyet Andrew Gounardes szenátor terjesztett elő, szigorú értékelési követelményeket vezet be, kötelezve a fejlesztőket, hogy bizonyítsák a nagy hatású AI rendszereik biztonságosságát, mielőtt azokat New York államban értékesítenék vagy telepítenék, miközben olyan kulcsfontosságú kérdéseket kezel, mint a rendszerbiztonság, a kiberbiztonsági sebezhetőségek és a félretájékoztatás kockázata.

A RAISE Act három fő kötelezettséget ír elő a határmodellek fejlesztői számára: átfogó értékelést kell végezniük a modelljeikről a New York-i Műszaki Egyetem újonnan létrehozott AI Értékelési Központjának módszertana alapján, nyilvános nyilatkozatot kell tenniük az értékelési eredményekről, és bizonyítaniuk kell, hogy megfelelő intézkedéseket hoztak a rendszerbiztonság, a kiberbiztonság, valamint a csalás és félretájékoztatás kockázatainak mérséklésére. A törvény megszegése esetén jelentős büntetések várhatók: első alkalommal 10.000 dollár, ismételt szabálysértés esetén pedig akár 50.000 dollár bírság is kiszabható, amit New York állam főügyésze érvényesít. A szabályozás az év végéig lép hatályba, és a vállalatoknak 180 napos átmeneti időszak áll rendelkezésükre a megfelelés biztosítására, miközben a törvény kifejezetten mentesíti a kutatási és fejlesztési célú modelleket.

A New York-i szabályozás jelentős precedenst teremt más államok számára, és kiegészíti a Fehér Ház 2023 októberi elnöki rendeletét, amely szövetségi szintű biztonsági standardokat határozott meg az AI fejlesztés területén. A New York-i Műszaki Egyetem által létrehozott AI Értékelési Központ fontos szerepet játszik majd a törvény végrehajtásában, mivel 25 millió dolláros kezdeti finanszírozással rendelkezik, és feladata a határmodellek értékelési módszertanának kidolgozása és az eredmények közzététele lesz. Az iparági reakciók vegyesek: bár a Microsoft, az OpenAI és az Anthropic támogatják a szabályozást, a kisebb AI vállalkozások aggodalmaikat fejezték ki a megfelelési költségekkel kapcsolatban, ami a szabályozási egyensúly nehézségeire világít rá az AI biztonság garantálása és az innováció ösztönzése között.

Források:

New York State passes RAISE Act for frontier AI models - The Economic Times
New York lawmakers have approved the Responsible AI Safety and Education (RAISE) Act, mandating transparency and safety measures for frontier AI models. Supported by AI experts, the Act requires AI labs to release safety reports and report incidents, with penalties for non-compliance. India’s AI adoption is growing, prompting increased demand for AI trust and safety professionals.
Sen. Gounardes’ AI Safety Bill Passes the State Senate
FOR IMMEDIATE RELEASE: JUNE 12, 2025New York State Senator Andrew Gounardes issued the following statement after his RAISE Act passed the State Senate:“Would you let your child ride in a car with no seatbelt or airbags? Of course not. So why would you let them use an incredibly powerful AI without basic safeguards in place?
New York Seeks to RAISE the Bar on AI Regulation
New York state lawmakers on June 12, 2025 passed the Responsible AI Safety and Education Act (the RAISE Act), which aims to safeguard against artificial intelligence (AI)-driven disaster scenarios by focusing on the largest AI model developers; the bill now heads to the governor’s desk for final approval. The RAISE Act is the latest legislative movement at the state level seeking to regulate AI, a movement that may continue to gain momentum after a 10-year moratorium on AI regulation was removed from the recently passed One Big Beautiful Bill.