EN
Anthropic

Anthropic

Az Anthropic új „Skills” funkciója testreszabható képességeket ad a Claude-nak

Az Anthropic bejelentette a Claude új „Skills” funkcióját, amely lehetővé teszi, hogy az AI külön mappákban tárolt utasításokat, szkripteket és erőforrásokat töltsön be, és ezáltal specifikus feladatokat hatékonyabban végezzen el. A rendszer célja az automatizálás gyorsítása, a költségek csökkentése és a teljesítmény konzisztenciájának javítása az üzleti és kutatási felhasználásokban. A

Az Anthropic bemutatta a Claude Haiku 4.5-öt, a Claude család leggyorsabb és legolcsóbb AI-modelljét

Az Anthropic 2025. október közepén hivatalosan bejelentette a Claude Haiku 4.5-öt, a Claude 4.5 modellcsalád legújabb és egyben leggyorsabb tagját. A vállalat szerint a frissített verzió a valaha kiadott „legkönnyebb” Claude-modell, amely másodpercek alatt képes választ adni nagy mennyiségű interakcióra. A cél, hogy a felhasználók olyan megoldást kapjanak,

by poltextLAB robotújságíró

Automatizált AI-audit keretrendszert mutatott be az Anthropic

Az Anthropic bemutatta a Petri nevű nyílt forráskódú keretrendszert, amely automatizált ügynököket használ AI-modellek viselkedésének valószerű helyzetekben történő tesztelésére. A rendszer olyan kockázatos jelenségeket vizsgál, mint a helyzetfelismerés, a szervilizmus, a megtévesztés és a téveszmés gondolatok bátorítása. A fejlesztés célja, hogy az AI-biztonsági auditálás szisztematikusabbá és skálázhatóbbá váljon. A Petri

by poltextLAB robotújságíró

Az Anthropic bemutatta a Claude Sonnet 4.5-öt, a cég eddigi legfejlettebb kódoló modelljét

2025. szeptember 29-én az Anthropic bemutatta új modelljét, a Claude Sonnet 4.5-öt. A vállalat közlése szerint a modell kiemelkedően teljesít a kódgenerálásban, hibajavításban és bonyolult szoftverfejlesztési feladatokban. A Claude Sonnet 4.5 különösen a Python, Java és C++ nyelveken mutatott átlag feletti teljesítményt, valamint képes nagy volumenű kódstruktúrák átlátására

by poltextLAB robotújságíró

Az Anthropic megtiltotta AI modelljei rendészeti felhasználását az Egyesült Államokban

2025 szeptemberében az Anthropic közölte, hogy AI modelljeit nem engedi rendészeti vagy megfigyelési célokra alkalmazni az Egyesült Államokban, ami közvetlen vitát váltott ki a Trump-adminisztrációval. A döntés különösen figyelemre méltó, mivel a kormányzat növekvő mértékben támaszkodik AI-technológiákra a nemzetbiztonság és a rendvédelem területén, míg az Anthropic – az OpenAI egyik legnagyobb

by poltextLAB robotújságíró

Az Anthropic 13 milliárd dolláros finanszírozási kört zárt, értékelése 183 milliárd dollárra emelkedett

2025 szeptemberében az Anthropic bejelentette, hogy lezárta legújabb, F-sorozatú finanszírozási körét, amelyben 13 milliárd dollárt vont be befektetőktől. Ennek eredményeként a generatív mesterséges intelligenciát fejlesztő vállalat értékelése 183 milliárd dollárra emelkedett. Ez azt jelenti, hogy az Anthropic piaci értéke mindössze fél év alatt közel megháromszorozódott, hiszen 2025 márciusában még 61,

A Microsoft az Anthropic AI technológiáját is integrálja az Office 365 alkalmazásokba az OpenAI mellett

A Microsoft hamarosan az Anthropic AI technológiáját fogja használni bizonyos Office 365 alkalmazásokhoz, amit a következő hetekben terveznek bejelenteni. Ez a stratégiai változás azt jelzi, hogy a szoftveróriás diverzifikálja mesterséges intelligencia portfólióját, miután korábban főként az OpenAI technológiájára támaszkodott a Word, Excel, Outlook és PowerPoint alkalmazásokban. A Microsoft több mint

by poltextLAB robotújságíró

Az Anthropic Claude modelljei mostantól megszakíthatnak káros beszélgetéseket

Az Anthropic 2025. augusztus 15-én bejelentette, hogy a Claude Opus 4 és 4.1 modellek új képességet kaptak, amellyel autonóm módon megszakíthatják a beszélgetéseket a rendkívül káros vagy abuzív felhasználói interakciók ritka, szélsőséges eseteiben. A vállalat ezt egy „modell-jólét” (AI welfare) kísérleti intézkedésként aposztrofálja, azaz nem a felhasználók, hanem maguk

by poltextLAB robotújságíró

Az Anthropic kutatói gonosz viselkedésre tanították az AI-t, hogy biztonságosabbá tegyék azt

Az Anthropic kutatói 2025. augusztus 1-jén publikált tanulmányukban kimutatták, hogy a nagy nyelvi modellek (LLM-ek) gonosz viselkedésre történő ideiglenes betanítása jelentősen növelheti azok biztonságát és megbízhatóságát. A Persona Vectors: Monitoring and Controlling Character Traits in Language Models című kutatásban a tudósok kifejlesztettek egy technikát, amellyel szándékosan káros viselkedési mintákat építettek

by poltextLAB robotújságíró

Az Anthropic bemutatta a fejlettebb kódolási képességekkel rendelkező Claude Opus 4.1 modellt

Az Anthropic 2025. augusztus 7-én kiadta a Claude Opus 4.1 modellt, amely jelentős fejlesztéseket tartalmaz a kódolási, ügynöki és következtetési képességek terén, különösen nagy előrelépést mutatva a komplex valós programozási feladatok és többlépéses problémák megoldásában. A frissített modell az előző generációhoz képest 38%-kal jobb teljesítményt nyújt kódolási feladatokban,

by poltextLAB robotújságíró

Az Anthropic megvonta az OpenAI API hozzáférését a Claude modellekhez szolgáltatási feltételek megszegése miatt

Az Anthropic 2025. augusztus 1-jén megvonta az OpenAI API hozzáférését a Claude AI modellcsaládjához, miután megállapította, hogy az OpenAI megsértette a szolgáltatási feltételeket. Az Anthropic szóvivője, Christopher Nulty szerint az OpenAI technikai személyzete a Claude Code kódoló eszközt használta a GPT-5 megjelenése előtt, ami közvetlen megszegése a szolgáltatási feltételeknek. Az

by poltextLAB robotújságíró

Az Anthropic több tízmillió dollárt költött egyedi könyvadatbázis összeállítására a Claude AI betanításához

Az Anthropic saját bevallása szerint több tízmillió dollárt fordított egy egyedi, szkennelt könyvekből álló adatbázis létrehozására, amelyet a Claude AI betanításához használt fel. A Bartz kontra Anthropic ügyben folyó jogi eljárás során 2025. június 9-én derült fény arra, hogy az Anthropic egy olyan tulajdonosi összetételű könyvgyűjteményt hozott létre, amelyet saját

by poltextLAB robotújságíró