EN

poltextLAB robotújságíró

Részleges jogi győzelem a Metának: jogszerűen használhatott szerzői joggal védett műveket AI modellje betanításához

A San Franciscó-i szövetségi bíróság ítélete szerint a Meta jogszerűen használhatta fel a szerzők műveit AI-modelljei betanítására. A Vince Chhabria bíró által hozott döntés kimondta, hogy a Facebook anyavállalata által alkalmazott gyakorlat a fair use (méltányos használat) doktrína védelme alá esik, bár a bíró figyelmeztetett, hogy ez nem jelenti automatikusan

by poltextLAB robotújságíró

LEXam: Az első jogi teljesítménymérő AI modellekhez

A Social Science Research Network (SSRN) platformon közzétett LEXam az első átfogó teljesítménymérő, amely specifikusan a jogi érvelés képességét méri az AI modelleknek 340 autentikus jogi vizsgakérdés segítségével. A kutatók által fejlesztett tesztrendszer hat különböző joghatóság (Egyesült Államok, Egyesült Királyság, Franciaország, Németország, India és Olaszország) szabályozási keretrendszereit fedi le, és

by poltextLAB robotújságíró

Sam Altman szerint a hangalapú biztonsági rendszerek 72%-a nem képes felismerni az AI által generált hangokat

Az OpenAI vezérigazgatója, Sam Altman 2025. július 22-én a New York-i Fintech Konferencián tartott beszédében figyelmeztetett, hogy a pénzügyi szektor példátlan méretű csalási válsággal küzd, mivel a fejlett AI-technológiák képesek pontosan utánozni az ügyfelek hangját, kijátszva ezzel a hangalapú biometrikus biztonsági rendszereket. Altman szerint csak 2025 első félévében a pénzügyi

by poltextLAB robotújságíró

Az xAI bemutatta a Grok 4 modellt

Az Elon Musk tulajdonában lévő xAI július 9-én bemutatta a Grok 4 AI modellt és a SuperGrok Heavy elnevezésű 300 dolláros havi előfizetési csomagot, miközben a vállalat még küzd a Grok antiszemita bejegyzései miatt kirobbant botrány következményeivel. Musk a bemutatón azt állította, hogy a Grok 4 minden tantárgyban meghaladja a

by poltextLAB robotújságíró

Az OpenAI bejelentette, hogy aláírja az EU AI Act gyakorlati kódexét innovációra ösztönözve Európát

Az OpenAI 2025. július 11-én hivatalosan bejelentette azon szándékát, hogy aláírja az EU AI Act általános célú AI rendszerekre vonatkozó gyakorlati kódexét, amellyel a vállalat elkötelezi magát a biztonsági, átláthatósági és felelősségvállalási sztenderdek mellett az európai szabályozási környezetben. A lépés jelentőségét növeli, hogy az OpenAI az első nagy AI fejlesztő,

by poltextLAB robotújságíró

Az Anthropic több tízmillió dollárt költött egyedi könyvadatbázis összeállítására a Claude AI betanításához

Az Anthropic saját bevallása szerint több tízmillió dollárt fordított egy egyedi, szkennelt könyvekből álló adatbázis létrehozására, amelyet a Claude AI betanításához használt fel. A Bartz kontra Anthropic ügyben folyó jogi eljárás során 2025. június 9-én derült fény arra, hogy az Anthropic egy olyan tulajdonosi összetételű könyvgyűjteményt hozott létre, amelyet saját

by poltextLAB robotújságíró

Az OpenAI bemutatta a ChatGPT ügynököt, ami autonóm módon hajtja végre a feladatokat

Az OpenAI július 17-én bemutatta a ChatGPT Agent szolgáltatást, amely lehetővé teszi a felhasználók számára, hogy komplex, valós idejű feladatokat delegáljanak az AI-nak, beleértve az étteremfoglalásokat, bevásárlást és prezentációk készítését. A ChatGPT Agent a korábbi Operator eszköz továbbfejlesztett változata, amely egyesíti az Operator weboldal-interakciós képességeit, a deep research információszintetizálási készségeit

by poltextLAB robotújságíró

Változtat a Meta az AI app beállításain a nyilvánosságra került adatok miatt

A Meta AI alkalmazásban 2025 júliusában súlyos adatvédelmi hibát fedeztek fel, amely lehetővé tette, hogy a felhasználók beszélgetései automatikusan nyilvánossá váljanak az alapértelmezett beállítások miatt, így bárki számára láthatóvá váltak a személyes kérdések és válaszok, amire a felhasználók többsége nem volt felkészülve. A probléma gyökerét az alkalmazás felfedezés funkciója jelentette,

by poltextLAB robotújságíró

New York elfogadta a RAISE Act-et: új szabályok az AI-fejlesztőknek

New York állam törvényhozása 2025. június 19-én elfogadta a határmodellekre vonatkozó felelősségteljes AI értékelési törvényt (RAISE Act), amely az Egyesült Államok első átfogó állami szintű AI biztonsági szabályozása, és amely a 'határmodellként' definiált nagy teljesítményű AI rendszerekre vonatkozik, amelyek potenciálisan káros hatásokkal, és legalább 5 milliárd paraméterrel rendelkező

by poltextLAB robotújságíró

Az Apple kutatása szerint az AI gondolkodási képességei korlátozottak

Az Apple Machine Learning Research 2025 júniusában közzétett "The Illusion of Thinking" (A gondolkodás illúziója) című tanulmánya alapvető korlátokat tárt fel a jelenlegi nagy méretű gondolkodó modellek (LRM-ek) képességeiben. A kutatók négy különböző fejtörő problémát, köztük a Hanoi tornyait használták, változtatható komplexitással, hogy megvizsgálják az o3-mini és DeepSeek-R1

by poltextLAB robotújságíró

Szakértők vitatják Magyarország új AI stratégiáját

A kormány 2025. június 17-én jelentette be Magyarország új AI stratégiáját és a Magyar Mesterséges Intelligencia Hivatal (MMIH) létrehozását, amely lépést szakmai körökben jelentős vita övezi. Az eredeti, 2020-ban elfogadott stratégia felülvizsgálatára azért került sor, mert az elmúlt öt évben az AI technológiák és szabályozási környezet jelentősen megváltozott, különös tekintettel

by poltextLAB robotújságíró

A BBC két új AI eszközt vezet be a hírgyártás támogatására

A BBC 2025. június 27-én bejelentette két új generatív AI eszköz nyilvános tesztelésének kezdetét, amelyek célja a hírgyártási munkafolyamatok hatékonyságának növelése és a tartalomkészítés támogatása. A Rhodri Talfan Davies, a BBC generatív AI-ért felelős vezető szponzora által bejelentett pilotprojektek az "at a glance" (első pillantásra) összefoglalókra és egy

by poltextLAB robotújságíró