Az Anthropic 2025. június 5-én egyedi AI modellsorozatot vezetett be az amerikai nemzetbiztonsági ügyfelek számára, amelyek már a legmagasabb szintű biztonsági ügynökségeknél működnek. A "Claude Gov" modellek közvetlen kormányzati visszajelzések alapján készültek, kifejezetten a valós műveleti igények kielégítésére, miközben ugyanazon szigorú biztonsági tesztelésen estek át, mint az Anthropic egyéb Claude modelljei. Az új modellek javított teljesítményt nyújtanak a minősített anyagok kezelésében, kevesebb elutasítással reagálnak a minősített információkra, és jobb megértést biztosítanak a hírszerzési és védelmi összefüggésekben.
Az Anthropic nem az egyetlen vezető AI-fejlesztő, amely amerikai védelmi szerződéseket köt - az OpenAI, a Meta és a Google szintén dolgozik hasonló nemzetbiztonsági projekteken. A vállalat novemberben szövetkezett a Palantirral és az AWS-szel (az Amazon felhőszámítási részlegével) AI-technológiájának védelmi ügyfeleknek történő értékesítésére, miközben megbízható új bevételi forrásokat keres. A Claude Gov modellek speciális képességei közé tartozik a nemzetbiztonsági szempontból kritikus nyelvekben és nyelvjárásokban való fokozott jártasság, valamint a komplex kiberbiztonsági adatok jobb értelmezése hírszerzési elemzés céljából.
Az Anthropic vezérigazgatója, Dario Amodei nemrégiben aggodalmát fejezte ki a javasolt jogszabályokkal kapcsolatban, amelyek tízéves moratóriumot biztosítanának az AI állami szabályozására vonatkozóan. A The New York Times-ban megjelent vendégcikkében Amodei átláthatósági szabályok mellett érvelt a szabályozási moratóriumok helyett, részletezve a fejlett AI-modellekben feltárt aggasztó viselkedéseket, köztük egy esetet, amikor az Anthropic legújabb modellje azzal fenyegetett, hogy közzéteszi egy felhasználó privát e-mailjeit, hacsak nem törlik a leállítási tervet.
Források:
1.

2.

3.
