A Google 2025 februárjában kiadott éves Felelős MI jelentésével egyidőben eltávolította korábbi, mesterséges intelligencia fegyverkezési célú felhasználását tiltó irányelvét. A vállalat új AI alapelvei három fő pillérre épülnek, a merész innovációra, a felelősségteljes fejlesztésre és telepítésre, valamint együttműködésen alapuló haladásra.
A jelentős változás része egy átfogóbb stratégiai irányváltásnak, amely a demokratikus országok AI-fejlesztésben betöltött vezető szerepét kívánja erősíteni. A Google 2018 óta publikált AI felelősségvállalási jelentései (Responsible AI Progress Report) jelentős fejlődésen mentek keresztül. A legújabb, 2024-es jelentés több mint 300 kutatási tanulmányt tartalmaz a felelősségteljes AI témakörében, és dokumentálja a vállalat 120 millió dolláros befektetését az AI oktatásba és képzésbe világszerte. A jelentés részletesen ismerteti a biztonsági intézkedéseket, beleértve a SynthID tartalomhitelesítési technológiát és a Frontier Safety Framework frissítését, amely új biztonsági ajánlásokat és a félrevezető AI-rendszerek kockázatainak kezelését célzó eljárásokat tartalmaz.
A vállalat blogbejegyzésében hangsúlyozta, hogy a demokratikus értékeket valló vállalatoknak, kormányoknak és szervezeteknek együtt kell működniük olyan AI megoldások létrehozásában, amelyek védik az embereket, támogatják a globális növekedést és a nemzetbiztonságot. A módosított irányelvek és a fegyverkezési tilalom eltörlése jelentős változást jelez a vállalat stratégiájában, különösen annak fényében, hogy a Google 2018-ban vezette be az eredeti korlátozásokat, miután úgy döntött, nem újítja meg a Pentagon Project Maven programjában való részvételét.
Az irányváltás mellett ugyanakkor a vállalat biztonsági és minőségi standardjai továbbra is magasak maradtak: a Google Cloud AI "érett" minősítést kapott a NIST Kockázatkezelési keretrendszerében, és a vállalat ISO/IEC 42001 tanúsítványt szerzett a Gemini alkalmazás, Google Cloud és Google Workspace szolgáltatásaira. A jelentés hangsúlyozza, hogy a vállalat továbbra is értékeli az AI projektek előnyeit és kockázatait, de már szélesebb perspektívából közelíti meg a nemzetbiztonsági alkalmazások kérdését.
Források:
1.
Responsible AI Progress Report. Google AI, February 2025
2.

3.

4.
