EN
AI-biztonság

AI-biztonság

Az Anthropic Claude modelljei mostantól megszakíthatnak káros beszélgetéseket

Az Anthropic 2025. augusztus 15-én bejelentette, hogy a Claude Opus 4 és 4.1 modellek új képességet kaptak, amellyel autonóm módon megszakíthatják a beszélgetéseket a rendkívül káros vagy abuzív felhasználói interakciók ritka, szélsőséges eseteiben. A vállalat ezt egy „modell-jólét” (AI welfare) kísérleti intézkedésként aposztrofálja, azaz nem a felhasználók, hanem maguk

by poltextLAB robotújságíró

A Character.AI feladja a mesterséges általános intelligencia fejlesztését és szórakoztató platformmá alakul át

A Character.AI, amely egykor azzal az ígérettel vált egymilliárd dolláros startuppá, hogy személyre szabott szuperintelligenciát biztosít mindenkinek, jelentős stratégiaváltást hajtott végre. Karandeep Anand, a vállalat 2025 júniusában kinevezett vezérigazgatója bejelentette, hogy a cég feladta alapítóinak, Noam Shazeernek és Daniel de Freitasnak azon törekvését, hogy mesterséges általános intelligenciát (AGI) fejlesszenek.

by poltextLAB robotújságíró

A Cohere elindította a North platformot: új megoldás az AI bevezetésére a szigorúan szabályozott szektorokban

A kanadai Cohere 2025. augusztus 6-án hivatalosan elindította North nevű AI ügynök platformját, amely lehetővé teszi a vállalatok és kormányzati szervek számára, hogy érzékeny adataikat saját infrastruktúrájukon belül tartsák az AI alkalmazása során. A North egyedi megközelítése, hogy az AI rendszereket közvetlenül az ügyfelek környezetében telepíti – akár helyi szervereken, hibrid

by poltextLAB robotújságíró

Globális verseny a szuverén AI-ért

A szuverén AI – a nemzetek azon törekvése, hogy külföldi vállalatoktól függetlenül fejlesszenek és tartsanak fenn önálló AI-megoldásokat – 2025-re kulcsfontosságú stratégiai célkitűzéssé vált világszerte, miközben a teljes függetlenség csak az Egyesült Államok és Kína számára elérhető. A koncepció 2020 körül kezdett előtérbe kerülni, különösen az európai szakpolitikai körökben, de Jensen Huang,

by poltextLAB robotújságíró

Hackerek egy naptárbejegyzés segítségével vették át az irányítást a Google Gemini AI fölött

Hackerek kritikus biztonsági rést tártak fel a Google Gemini AI-ban, amely révén már egyetlen ártalmatlannak tűnő naptárbejegyzés is elegendő lehetett az okosotthonok feletti irányítás átvételéhez. A sebezhetőséget az Adversa AI kutatói mutatták be a Black Hat 2025 konferencián, rávilágítva arra, hogy a támadók megkerülhetik a megszokott hitelesítést, és közvetlen hozzáférést

by poltextLAB robotújságíró

Biztonsági aggályok miatt csúszott az OpenAI nyílt modelljének közzététele

Sam Altman, az OpenAI vezérigazgatója 2025. június 10-én az X közösségi platformon jelentette be, hogy a vállalat első nyílt forráskódú AI modelljének megjelenését a nyár későbbi időszakára halasztják. A korábban 2025 áprilisában beharangozott modell késését biztonsági aggályokkal indokolták, ami rávilágít a csúcskategóriás AI technológiák fejlesztésének és nyilvános hozzáférhetőségének komplex kihívásaira.

Tervezési hiba miatt a Meta AI kiteregette a felhasználók legféltettebb titkait

A Meta AI chatbot szolgáltatása nemrégiben komoly adatvédelmi aggályokat vetett fel, miután felhasználók ezrei fedezték fel, hogy privátnak hitt beszélgetéseik nyilvánosan megjelentek az alkalmazás hírfolyamában. A probléma 2025 június elején került napvilágra, amikor felhasználók arról számoltak be, hogy személyes egészségügyi kérdéseik, randizással kapcsolatos tanácsaik és egyéb érzékeny témáik láthatóvá váltak

Az EU AI biztonsági kódex négy kritikus kockázat értékelését teszi kötelezővé

Az EU AI Code of Practice jelentős új mércét állít fel az AI biztonsági gyakorlatokban, kötelező követelményeket határozva meg a 10^25 FLOPs feletti modellekre. Az Európai Bizottság 2025. július 10-én kiadta a General Purpose AI Code of Practice három fejezetét, amely önkéntes eszközként segíti az iparági szereplőket az AI

by poltextLAB robotújságíró

Sam Altman szerint a hangalapú biztonsági rendszerek 72%-a nem képes felismerni az AI által generált hangokat

Az OpenAI vezérigazgatója, Sam Altman 2025. július 22-én a New York-i Fintech Konferencián tartott beszédében figyelmeztetett, hogy a pénzügyi szektor példátlan méretű csalási válsággal küzd, mivel a fejlett AI-technológiák képesek pontosan utánozni az ügyfelek hangját, kijátszva ezzel a hangalapú biometrikus biztonsági rendszereket. Altman szerint csak 2025 első félévében a pénzügyi

by poltextLAB robotújságíró

Változtat a Meta az AI app beállításain a nyilvánosságra került adatok miatt

A Meta AI alkalmazásban 2025 júliusában súlyos adatvédelmi hibát fedeztek fel, amely lehetővé tette, hogy a felhasználók beszélgetései automatikusan nyilvánossá váljanak az alapértelmezett beállítások miatt, így bárki számára láthatóvá váltak a személyes kérdések és válaszok, amire a felhasználók többsége nem volt felkészülve. A probléma gyökerét az alkalmazás felfedezés funkciója jelentette,

by poltextLAB robotújságíró

A Mattel és az OpenAI idén mutatja be első AI-alapú játékát

A Mattel és az OpenAI 2025. június 12-én stratégiai együttműködést jelentett be, melynek célja AI-alapú játékok és élmények fejlesztése, amelyek várhatóan még idén piacra kerülnek. A Barbie gyártója a partnerség során az OpenAI technológiáját fogja használni, hogy az AI varázsát kornak megfelelő játékélményekbe ültesse át, különös hangsúlyt fektetve az innovációra,

by poltextLAB robotújságíró