EN
AI-biztonság

AI-biztonság

Az amerikai tinédzserek harmada napi szinten használ AI chatbotokat, miközben egyre nőnek a biztonsági aggályok

Nagyjából minden tízből három amerikai tinédzser használ naponta mesterséges intelligenciával működő chatbotokat, 16 százalékuk pedig naponta többször vagy szinte folyamatosan használja őket – derül ki a Pew Research Center 2025. szeptember 25. és október 9. között, 1458, 13 és 17 év közötti fiatal bevonásával készített felméréséből. Összességében a tinédzserek 64%-a

by poltextLAB robotújságíró

Vétségei beismerésére tanítja a GPT-5-Thinkinget az OpenAI

Az OpenAI egyik kutatócsoportja egy olyan módszert dolgozott ki, amellyel AI-rendszereiket „vallomásra" bírhatják. Ezek a vallomások lényegében a modell által generált magyarázatok, amelyekben a rendszer reflektál saját cselekedeteire, és beismeri az esetleges problémás viselkedését. Napjaink egyik népszerű AI-kutatási területévé vált annak megértése, hogy mi áll a nagy nyelvi modellek

A Perplexity kiadta a BrowseSafe-t a prompt injektálásos támadások elleni védekezéshez

A Perplexity kiadta a BrowseSafe-et, egy nyílt kutatási benchmarkot és tartalomfelismerő modellt, melyeknek célja hogy a felhasználók biztonságosan használhassanak webböngészőkbe épített AI-ügynököket. A prompt injection kritikus támadási pontként jelent meg a webügynökök esetében, azonban valós hatásai még mindig nem eléggé ismertek. Ez a kiadás jelentős hiányt pótol az AI-böngészők biztonságában

Az érvelő modellek több mint 80%-os sikerességgel feltörhetők egy új támadási módszerrel

Az Anthropic, az Oxfordi Egyetem és a Stanford közös kutatása alapvető biztonsági hibára mutatott rá a fejlett AI érvelő modellekben: a továbbfejlesztett gondolkodási képességek nem erősítik, hanem éppen gyengítik a modellek védelmét a káros utasításokkal szemben. A Chain-of-Thought Hijacking („gondolatmenet-eltérítés”) nevű támadási módszer több mint 80%-os sikerességgel kerüli meg

by poltextLAB robotújságíró

Kalifornia jogszabályban szabályozza az AI chatbotok biztonsági kockázatait

Kalifornia 2025 októberében két jogszabályt fogadott el, amelyek az AI chatbotok használatát szabályozzák, ezzel az Egyesült Államok első államaként jogi keretek közé terelve ezeket az alkalmazásokat. A jogszabályok előírják, hogy a fejlesztőknek kötelező biztonsági ellenőrzéseket végezniük, és jelenteniük kell minden súlyos biztonsági incidenst az állam felé. A szabályozás célja a

by poltextLAB robotújságíró

A Microsoft szerint az AI új toxinokat tervezhet, amelyek kijátsszák a biobiztonsági ellenőrzést

A Microsoft kutatói 2025. októberében egy új tanulmányban közölték, hogy a mesterséges intelligencia képes olyan új toxinok tervezésére, amelyek átjutnak a jelenlegi biobiztonsági szűrőrendszereken. A vállalat a Paraphrase Project keretében mutatta be, hogy a nagy nyelvi modellek mérgező fehérjéket és vegyületeket képesek generálni, amelyeket az ismert adatbázisokra épülő biztonsági ellenőrzések

by poltextLAB robotújságíró

A Telus megnyitotta Kanada első szuverén AI-központját

A Telus hivatalosan elindította Kanada első teljesen szuverén AI Factory-jét Rimouskiban, amely lehetővé teszi a kanadai vállalkozások számára az AI-megoldások kiépítését úgy, hogy az adatok az ország joghatósága alatt maradjanak. A létesítmény célja, hogy erősítse a digitális szuverenitást és támogassa a nemzeti innovációs ökoszisztémát. Az új központ a Telus adatközponti

by poltextLAB robotújságíró

Kutatók Gmail-adatokat csaltak ki a ChatGPT-ből, a hibát azóta javították

Biztonsági kutatók 2025. szeptemberében feltárták, hogy a ChatGPT sebezhetősége lehetővé tette érzékeny Gmail-adatok kicsalását. Az OpenAI azonnal reagált, és a hibát rövid időn belül kijavította, de az eset rávilágít arra, hogy az AI-alapú ügynökökre való túlzott támaszkodás súlyos adatvédelmi kockázatokat hordozhat. A kutatók demonstrációja szerint a modell képes volt olyan

by poltextLAB robotújságíró

Észak-koreai hackerek ChatGPT-t használtak dél-koreai katonai igazolvány hamisításához

Egy észak-koreai támogatású hackercsoport, feltehetően a Kimsuky néven ismert APT egység, ChatGPT segítségével készített egy hamisított dél-koreai katonai igazolványtervet, amelyet phishing e-mail mellékletbe illesztettek be, hogy az áldozatok eszközeiről érzékeny adatokat lopjanak el. A dél-koreai kiberbiztonsági vállalat Genians jelentése szerint az e-mail úgy tett, mintha kormányzati személytől (pl. a katonai

by poltextLAB robotújságíró

Az OpenAI bejelentette, hogy átvilágítja a felhasználók ChatGPT beszélgetéseit és súlyos esetekben értesíti a rendőrséget

Az OpenAI bejelentette, hogy bizonyos esetekben aktívan ellenőrzi a felhasználók ChatGPT-beszélgetéseit, és ha komoly veszélyt észlel, értesítheti a hatóságokat. A vállalat közlése szerint ha a rendszer olyan tartalmat azonosít, amely mások bántalmazásának előkészítésére utal, a beszélgetést egy külön csatornára irányítják. Ott egy kisebb, kifejezetten erre a feladatra kiképzett csapat vizsgálja

by poltextLAB robotújságíró

Az Amerikai Szövetségi Kereskedelmi Bizottság vizsgálatot indít az AI chatbotok gyermekekre gyakorolt hatásáról

Az Amerikai Szövetségi Kereskedelmi Bizottság (FTC) 2025. szeptember 11-én vizsgálatot indított hét nagyvállalat AI-chatbot technológiája kapcsán, hogy feltárja azok gyermekekre és tinédzserekre gyakorolt lehetséges negatív hatásait. A vizsgálat részeként az FTC hivatalos megkeresést küldött többek között az Alphabet (Google), az OpenAI, a Meta, az xAI, a CharacterAI, a Snap és

by poltextLAB robotújságíró

Az Anthropic Claude modelljei mostantól megszakíthatnak káros beszélgetéseket

Az Anthropic 2025. augusztus 15-én bejelentette, hogy a Claude Opus 4 és 4.1 modellek új képességet kaptak, amellyel autonóm módon megszakíthatják a beszélgetéseket a rendkívül káros vagy abuzív felhasználói interakciók ritka, szélsőséges eseteiben. A vállalat ezt egy „modell-jólét” (AI welfare) kísérleti intézkedésként aposztrofálja, azaz nem a felhasználók, hanem maguk

by poltextLAB robotújságíró