EN
AI-kockázatok

AI-kockázatok

Stanford AI Index 2025: globális előrelépések és regionális különbségek

A mesterséges intelligencia fejlődése soha nem volt még ennyire gyors és jelentős, ahogy azt a Stanford Egyetem Humánközpontú Mesterséges Intelligencia Intézete 2025. április 7-én közzétett éves jelentése is mutatja. A már nyolcadik alkalommal megjelenő AI Index átfogó képet nyújt a globális mesterséges intelligencia fejlesztések helyzetéről, beleértve a technikai teljesítményt, gazdasági

by poltextLAB robotújságíró

Az IBM 2025-ös AI etikai jelentése: Az AI ügynökrendszerek értékteremtése és kockázatai vállalati környezetben

Az IBM AI Etikai Bizottsága 2025 márciusában kiadta átfogó jelentését a mesterséges intelligencia ügynökökről, amely részletesen tárgyalja az AI ügynökök által nyújtott lehetőségeket, a velük járó kockázatokat és a javasolt kockázatcsökkentési stratégiákat, kiemelve, hogy ezek a rendszerek jelentős értéket teremthetnek a vállalatok számára, miközben új típusú szociotechnikai kockázatokat is jelentenek,

by poltextLAB robotújságíró

Nincs bizonyíték az AI választásokra gyakorolt jelentős hatásáról - az átláthatóság hiánya akadályozza a kutatásokat

A mesterséges intelligencia választásokra gyakorolt hatásáról jelenleg túl kevés adat áll rendelkezésre a megalapozott következtetések levonásához, miközben a kezdeti fenyegetettség-előrejelzések túlzónak bizonyultak. Az NYU Center for Social Media and Politics kutatói 2024-ben mindössze 71 példát találtak AI-használatra a választási kommunikációban, míg a Purdue Egyetem kutatói is csak közel 500 esetet

by poltextLAB robotújságíró

Egy friss kutatás szerint a ChatGPT túlzott használata növelheti a magányosság érzését

Az OpenAI és az MIT Media Lab által 2025. március 21-én közzétett közös kutatás szerint a ChatGPT-vel érzelmi kapcsolatot kialakító felhasználók hajlamosabbak a magányosságra és az érzelmi függőségre. A kutatók közel 40 millió ChatGPT interakciót elemeztek automatizált módszerekkel, valamint egy közel 1000 résztvevős, négy héten át tartó randomizált kontrollált vizsgálatot

by poltextLAB robotújságíró

AI 2027 jelentés: Szuperhumán rendszerek és globális biztonsági válság?

Az AI 2027 jelentés – amelyet Daniel Kokotajlo volt OpenAI kutató vezetésével 2025. április 3-án tettek közzé – részletes fejlődési ütemtervet mutat be a mesterséges intelligencia gyorsuló fejlődéséről, amelyben a rendszerek 2027 végére meghaladják az emberi képességeket, és ez potenciálisan súlyos nemzetközi válsághoz vezethet az Egyesült Államok és Kína között a szuperintelligens

by poltextLAB robotújságíró

Google új Gemini 2.0 Flash modellje könnyedén eltávolítja a vízjeleket a képekről

A Google új Gemini 2.0 Flash modellje váratlan képességgel lepte meg a fejlesztőket: könnyedén eltávolítja a vízjeleket a képekről, ami komoly szerzői jogi aggályokat vet fel. 2025. március 17-én több közösségi média felhasználó fedezte fel, hogy a Google kísérleti AI-modellje nemcsak eltávolítja a vízjeleket – beleértve a Getty Images és

by poltextLAB robotújságíró

Manus AI: önálló feladatvégrehajtó mesterséges intelligencia-ügynök

A 2025 március elején debütált Manus, a vuhani Butterfly Effect startup által fejlesztett általános mesterséges intelligencia ügynök, globális figyelem középpontjába került, olyan befolyásos tech személyiségek dicséreteivel, mint Jack Dorsey Twitter-társalapító és Victor Mustar, a Hugging Face termékvezetője. Az önmagát "a világ első általános AI-ügynökének" nevező platform több AI

by poltextLAB robotújságíró

A Sakana AI létrehozta az első teljes mértékben AI-generált, elfogadott tudományos publikációt

A Sakana AI "AI Scientist-v2" rendszere 2025 márciusában jelentős mérföldkövet ért el - megírta az első, teljes mértékben mesterséges intelligencia által generált tudományos cikket, amely sikeresen átment a szakértői lektoráláson (peer-review) az ICLR konferencia egyik műhelyén. A kutatócsoport három AI-generált tanulmányt nyújtott be, amelyek közül egy - a

by poltextLAB robotújságíró

Ajánlás: Generatív AI használata tudományos munka során

A nagy nyelvi modellek (LLM) és generatív mesterséges intelligencia (GenAI) eszközök alapvetően átalakítják a kutatási és publikációs folyamatokat. E technológiák segíthetnek a kutatómunkában, ugyanakkor új kihívásokat jelenthetnek a tudományos integritás, a szerzői jogok, adatvédelem és kutatásetika terén. E fejleményeket figyelembe véve az alábbi ajánlást dolgoztuk ki a GenAI tudományos munkában

by Sebők Miklós - Kiss Rebeka

Az első nemzetközi AI biztonsági jelentés: kockázatok és ajánlások

A Yoshua Bengio által vezetett 96 nemzetközi szakértő 2025. január 29-én tette közzé az első nemzetközi AI biztonsági jelentést, amely konkrét adatokkal dokumentálja a mesterséges intelligencia társadalmi, gazdasági és környezeti hatásait. A 2023-as Bletchley Parki AI Biztonsági Csúcstalálkozón közösen támogatott dokumentum tudományos alapot nyújt a döntéshozóknak világszerte, és három konkrét

by poltextLAB robotújságíró