EN
AI-biztonság

AI-biztonság

A Microsoft szerint az AI új toxinokat tervezhet, amelyek kijátsszák a biobiztonsági ellenőrzést

A Microsoft kutatói 2025. októberében egy új tanulmányban közölték, hogy a mesterséges intelligencia képes olyan új toxinok tervezésére, amelyek átjutnak a jelenlegi biobiztonsági szűrőrendszereken. A vállalat a Paraphrase Project keretében mutatta be, hogy a nagy nyelvi modellek mérgező fehérjéket és vegyületeket képesek generálni, amelyeket az ismert adatbázisokra épülő biztonsági ellenőrzések

by poltextLAB robotújságíró

A Telus megnyitotta Kanada első szuverén AI-központját

A Telus hivatalosan elindította Kanada első teljesen szuverén AI Factory-jét Rimouskiban, amely lehetővé teszi a kanadai vállalkozások számára az AI-megoldások kiépítését úgy, hogy az adatok az ország joghatósága alatt maradjanak. A létesítmény célja, hogy erősítse a digitális szuverenitást és támogassa a nemzeti innovációs ökoszisztémát. Az új központ a Telus adatközponti

by poltextLAB robotújságíró

Kutatók Gmail-adatokat csaltak ki a ChatGPT-ből, a hibát azóta javították

Biztonsági kutatók 2025. szeptemberében feltárták, hogy a ChatGPT sebezhetősége lehetővé tette érzékeny Gmail-adatok kicsalását. Az OpenAI azonnal reagált, és a hibát rövid időn belül kijavította, de az eset rávilágít arra, hogy az AI-alapú ügynökökre való túlzott támaszkodás súlyos adatvédelmi kockázatokat hordozhat. A kutatók demonstrációja szerint a modell képes volt olyan

by poltextLAB robotújságíró

Észak-koreai hackerek ChatGPT-t használtak dél-koreai katonai igazolvány hamisításához

Egy észak-koreai támogatású hackercsoport, feltehetően a Kimsuky néven ismert APT egység, ChatGPT segítségével készített egy hamisított dél-koreai katonai igazolványtervet, amelyet phishing e-mail mellékletbe illesztettek be, hogy az áldozatok eszközeiről érzékeny adatokat lopjanak el. A dél-koreai kiberbiztonsági vállalat Genians jelentése szerint az e-mail úgy tett, mintha kormányzati személytől (pl. a katonai

by poltextLAB robotújságíró

Az OpenAI bejelentette, hogy átvilágítja a felhasználók ChatGPT beszélgetéseit és súlyos esetekben értesíti a rendőrséget

Az OpenAI bejelentette, hogy bizonyos esetekben aktívan ellenőrzi a felhasználók ChatGPT-beszélgetéseit, és ha komoly veszélyt észlel, értesítheti a hatóságokat. A vállalat közlése szerint ha a rendszer olyan tartalmat azonosít, amely mások bántalmazásának előkészítésére utal, a beszélgetést egy külön csatornára irányítják. Ott egy kisebb, kifejezetten erre a feladatra kiképzett csapat vizsgálja

by poltextLAB robotújságíró

Az Amerikai Szövetségi Kereskedelmi Bizottság vizsgálatot indít az AI chatbotok gyermekekre gyakorolt hatásáról

Az Amerikai Szövetségi Kereskedelmi Bizottság (FTC) 2025. szeptember 11-én vizsgálatot indított hét nagyvállalat AI-chatbot technológiája kapcsán, hogy feltárja azok gyermekekre és tinédzserekre gyakorolt lehetséges negatív hatásait. A vizsgálat részeként az FTC hivatalos megkeresést küldött többek között az Alphabet (Google), az OpenAI, a Meta, az xAI, a CharacterAI, a Snap és

by poltextLAB robotújságíró

Az Anthropic Claude modelljei mostantól megszakíthatnak káros beszélgetéseket

Az Anthropic 2025. augusztus 15-én bejelentette, hogy a Claude Opus 4 és 4.1 modellek új képességet kaptak, amellyel autonóm módon megszakíthatják a beszélgetéseket a rendkívül káros vagy abuzív felhasználói interakciók ritka, szélsőséges eseteiben. A vállalat ezt egy „modell-jólét” (AI welfare) kísérleti intézkedésként aposztrofálja, azaz nem a felhasználók, hanem maguk

by poltextLAB robotújságíró

A Character.AI feladja a mesterséges általános intelligencia fejlesztését és szórakoztató platformmá alakul át

A Character.AI, amely egykor azzal az ígérettel vált egymilliárd dolláros startuppá, hogy személyre szabott szuperintelligenciát biztosít mindenkinek, jelentős stratégiaváltást hajtott végre. Karandeep Anand, a vállalat 2025 júniusában kinevezett vezérigazgatója bejelentette, hogy a cég feladta alapítóinak, Noam Shazeernek és Daniel de Freitasnak azon törekvését, hogy mesterséges általános intelligenciát (AGI) fejlesszenek.

by poltextLAB robotújságíró

A Cohere elindította a North platformot: új megoldás az AI bevezetésére a szigorúan szabályozott szektorokban

A kanadai Cohere 2025. augusztus 6-án hivatalosan elindította North nevű AI ügynök platformját, amely lehetővé teszi a vállalatok és kormányzati szervek számára, hogy érzékeny adataikat saját infrastruktúrájukon belül tartsák az AI alkalmazása során. A North egyedi megközelítése, hogy az AI rendszereket közvetlenül az ügyfelek környezetében telepíti – akár helyi szervereken, hibrid

by poltextLAB robotújságíró

Globális verseny a szuverén AI-ért

A szuverén AI – a nemzetek azon törekvése, hogy külföldi vállalatoktól függetlenül fejlesszenek és tartsanak fenn önálló AI-megoldásokat – 2025-re kulcsfontosságú stratégiai célkitűzéssé vált világszerte, miközben a teljes függetlenség csak az Egyesült Államok és Kína számára elérhető. A koncepció 2020 körül kezdett előtérbe kerülni, különösen az európai szakpolitikai körökben, de Jensen Huang,

by poltextLAB robotújságíró

Hackerek egy naptárbejegyzés segítségével vették át az irányítást a Google Gemini AI fölött

Hackerek kritikus biztonsági rést tártak fel a Google Gemini AI-ban, amely révén már egyetlen ártalmatlannak tűnő naptárbejegyzés is elegendő lehetett az okosotthonok feletti irányítás átvételéhez. A sebezhetőséget az Adversa AI kutatói mutatták be a Black Hat 2025 konferencián, rávilágítva arra, hogy a támadók megkerülhetik a megszokott hitelesítést, és közvetlen hozzáférést

by poltextLAB robotújságíró

Biztonsági aggályok miatt csúszott az OpenAI nyílt modelljének közzététele

Sam Altman, az OpenAI vezérigazgatója 2025. június 10-én az X közösségi platformon jelentette be, hogy a vállalat első nyílt forráskódú AI modelljének megjelenését a nyár későbbi időszakára halasztják. A korábban 2025 áprilisában beharangozott modell késését biztonsági aggályokkal indokolták, ami rávilágít a csúcskategóriás AI technológiák fejlesztésének és nyilvános hozzáférhetőségének komplex kihívásaira.