AIFORRADALOM https://aiforradalom.poltextlab.com Hírek és elemzések a nagy nyelvi modellek korszakából 2025. 03. 10. Mon, 05:59:31 +0100 Az Anthropic újítása: a Claude 3.7 Sonnet és a kiterjesztett gondolkodás https://aiforradalom.poltextlab.com/az-anthropic-ujitasa-a-claude-3-7-sonnet-es-a-kibovitett-gondolkodas/ 2025. 03. 07. Fri, 14:00:11 +0100 67c58ce13444f068e429a50e poltextLAB robotújságíró Anthropic Az Anthropic 2025. február 24-én bemutatta a Claude 3.7 Sonnet modellt, amely az első hibrid érvelési modell a piacon, és egy újszerű kiterjesztett gondolkodás képességgel rendelkezik. Ez az új funkció lehetővé teszi, hogy a modell több időt és számítási erőforrást fordítson összetett problémák megoldására, miközben a gondolkodási folyamat láthatóvá válik a felhasználók számára. A Claude 3.7 Sonnet minden Claude előfizetési csomagban elérhető, de a kiterjesztett gondolkodás mód csak a fizetős változatokban használható.

A Claude 3.7 Sonnet kiemelkedő teljesítményt nyújt a kódolási feladatokban, 62,3%-os pontosságot ért el a SWE-bench Verified tesztben (valós szoftvermérnöki problémák megoldását értékelő benchmark), szemben az OpenAI o3-mini modelljének 49,3%-os eredményével. Az Anthropic jelentősen, 45%-kal csökkentette a szükségtelen elutasítások számát (amikor a modell indokolatlanul tagadja meg a felhasználói kérések teljesítését), így a modell nagyobb valószínűséggel teljesíti a felhasználók kéréseit. A kiterjesztett gondolkodás elsősorban komplex feladatoknál bizonyult hasznosnak: az ideális gondolkodási mennyiség kontextusfüggő, a kreatív vagy filozófiai beszélgetéseknél az extenzívebb feltárás gyakran értékes. Az API felhasználók pontosan meghatározhatják, hány tokent használjon a modell gondolkodásra, egészen a 128 000 tokenes kimeneti határig.

Az Anthropic emellett bemutatta a Claude Code-ot is, egy parancssori AI-asszisztenst fejlesztők számára, amely jelenleg korlátozott kutatási előnézetben érhető el. A Claude 3.7 Sonnet már elérhető a Claude weboldalán, a Claude alkalmazásban, valamint az Anthropic API-n, az Amazon Bedrock és a Google Cloud Vertex AI platformokon keresztül.

Források:

1.

Claude’s extended thinking
Discussing Claude’s new thought process

2.

I tested Anthropic’s Claude 3.7 Sonnet. Its ‘extended thinking’ mode outdoes ChatGPT and Grok, but it can overthink.
Anthropic has launched its Claude 3.7 Sonnet AI model, featuring an “extended thinking” mode. Here’s how it compares to ChatGPT and Grok.

3.

Claude 3.7 Sonnet debuts with “extended thinking” to tackle complex problems
Anthropic’s first simulated reasoning model is a beast at coding tasks.
]]>
Az online platformok mesterséges intelligencia alapú tartalommoderálása Magyarországon https://aiforradalom.poltextlab.com/az-online-platformok-mesterseges-intelligencia-alapu-tartalommoderalasa-magyarorszagon/ 2025. 03. 07. Fri, 08:30:04 +0100 67bb7b983444f068e429a31a poltextLAB robotújságíró NMHH A Nemzeti Média- és Hírközlési Hatóság (NMHH) friss jelentése szerint a Facebook és a YouTube moderációs gyakorlatai jelentős hatással vannak a magyar felhasználók tartalmaira. Az algoritmusok által végzett automatikus tartalomszűrés gyakran átláthatatlan, és sok esetben a felhasználók számára nem egyértelmű, milyen szabályok alapján történnek a korlátozások. A jelentés kiemeli, hogy a tartalomeltávolítások, fiókfelfüggesztések és shadow banning gyakorlatok egyre nagyobb számban érintik a magyar közösséget.

A jelentés szerint az elmúlt három évben a magyar Facebook-felhasználók 12,5%-ának törölték bejegyzését, míg 3,3%-uk fiókfelfüggesztéssel szembesült. A YouTube-on a moderáció elsősorban szerzői jogsértések és a dezinformációnak minősített tartalmak miatt történik. Az NMHH adatai szerint a tiltások több mint 60%-a a platformok saját szabályzatain alapul, amelyeket a mesterséges intelligencia automatikusan érvényesít. A felhasználóknak csupán korlátozott lehetőségük van a döntések megfellebbezésére. A moderációs döntéseket túlnyomórészt mesterséges intelligencia hozza meg, amely a platformok által meghatározott szabályok szerint működik. Az NMHH kimutatása szerint a törölt tartalmak 63,8%-a szabályzatba ütköző bejegyzés volt, míg 14,2% a dezinformáció terjedéséhez köthető. A rendszer működése gyakran nem transzparens, a felhasználók számára pedig nem áll rendelkezésre részletes tájékoztatás a moderáció hátteréről. A shadow banning jelensége – amelynek során a felhasználók tartalmait észrevétlenül visszaszorítják – különösen érinti a politikai és hírportálokat, amelyek elérése az elmúlt két évben jelentősen csökkent.

Az Európai Unió 2022/2065 számú digitális szolgáltatásokról szóló rendelete (DSA) a moderáció átláthatóbbá tételét célozza, azonban az NMHH szerint továbbra is kihívást jelent a felhasználók számára a döntések átláthatósága és a jogorvoslati lehetőségek szűkössége. Bár a panaszkezelési rendszerek automatizáltak, a jelentés hangsúlyozza, hogy a platformoknak sürgősen átláthatóbb, ellenőrizhetőbb mechanizmusokat kell bevezetniük, hogy a felhasználók ne maradjanak védtelenek egy önkényesen működő algoritmusok által irányított rendszerben. Ha ez nem történik meg, a moderáció kérdésköre nem csupán technológiai, hanem alapvető jogi és demokratikus problémává válhat, amely hosszú távon az online véleménynyilvánítás szabadságát is veszélyezteti.

Források:

1.

A mesterséges intelligencia dönti el, mi a tiltott, tűrt és támogatott
Már félmillió magyart korlátozhatott a Facebook, miközben az online óriásplatformok tartalom- és fiókmoderálási szabályai gyakorlatilag átláthatatlanok.

2.

Az óriásplatformok tartalomtörlési, fiókfelfüggesztési, fióktörlési és shadow banning gyakorlata
Már félmillió magyart korlátozhatott a Facebook, miközben az online óriásplatformok tartalom- és fiókmoderálási szabályai gyakorlatilag átláthatatlanok – egyebek mellett erre mutatott rá egy, az NMHH megbízásából készült friss tanulmány, amely a Facebook és a YouTube vonatkozó gyakorlatát és szabályzatait vizsgálva kutatta, hogyan korlátozzák a nagy platformszolgáltatók a felhasználókat. Ződi Zsolt kutatásában arra is rávilágít, hogy az online platformok havi szinten többmillió szankcionáló döntést hoznak mesterséges intelligencia segítségével, amelyeknek aztán általában a felülvizsgálatát sem valós emberek végzik.

3.

https://onlineplatformok.hu/files/8b8fa597-71de-41a3-ba78-6b8452d95fe9.pdf

]]>
A Guardian és az OpenAI stratégiai partnerséget kötött a minőségi újságírásért https://aiforradalom.poltextlab.com/a-guardian-es-az-openai-strategiai-partnerseget-kotott-a-minosegi-ujsagirasert/ 2025. 03. 06. Thu, 14:00:36 +0100 67bb75643444f068e429a283 poltextLAB robotújságíró OpenAI Az OpenAI és a Guardian Media Group 2025. február 14-én jelentette be átfogó együttműködését, amely során a ChatGPT 300 millió heti felhasználója közvetlen hozzáférést kap a Guardian újságírói tartalmaihoz. A megállapodás biztosítja a Guardian számára a megfelelő kompenzációt és a tartalmak hiteles forrásmegjelölését a ChatGPT platformon.

A Guardian csatlakozik azon jelentős médiavállalatok sorához - mint a Financial Times, az Axel Springer, a Hearst és a News Corp -, amelyek már licencszerződést kötöttek az OpenAI-jal. A megállapodás különös jelentőségét az adja, hogy épp egy nappal azután született, hogy a Guardian csatlakozott egy jogi eljáráshoz a kanadai Cohere Inc. AI startup ellen, amely állítólag engedély nélkül használta fel kiadói tartalmaikat az AI rendszereinek fejlesztéséhez. Keith Underwood, a Guardian Media Group pénzügyi és operatív igazgatója kiemelte: Ez az új partnerség az OpenAI-jal tükrözi a díjnyertes újságírásunkhoz kapcsolódó szellemi tulajdonjogokat és értékeket, kiterjesztve elérésünket és hatásunkat új közönségek és innovatív platformszolgáltatások felé.

A megállapodás értelmében a Guardian nemcsak tartalmainak licencelését biztosította, hanem hozzáférést kap a ChatGPT Enterprise szolgáltatásaihoz is, amellyel új termékeket, funkciókat és eszközöket fejleszthet. A Guardian, amely a világ egyik legnagyobb angol nyelvű minőségi hírportáljának működtetője, ezzel a lépéssel követi saját, egy évvel ezelőtt közzétett AI-stratégiáját, amely az emberi felügyelet alatt álló generatív AI használatát és az olvasók érdekeit helyezi előtérbe.

Források:

1.

OpenAI and Guardian Media Group

OpenAI and Guardian Media Group Launch Content Partnership

OpenAI and Guardian Media Group announce a strategic partnership to bring high-quality journalism to ChatGPT's global users, providing direct access and extended summaries of the Guardian's trusted reporting.

2.

Guardian Media Group announces strategic partnership with OpenAI
Guardian Media Group today announced a strategic partnership with Open AI, a leader in artificial intelligence and deployment, that will bring the Guardian’s high quality journalism to ChatGPT’s global users.

3.

Guardian signs licensing deal with ChatGPT owner OpenAI
The Guardian has become the latest news publisher to sign a content licensing deal with OpenAI.
]]>
Új európai kutatóközpont: mesterséges intelligencia fejlesztése CERN-mintára https://aiforradalom.poltextlab.com/uj-europai-kutatokozpont-mesterseges-intelligencia-fejlesztese-cern-mintara/ 2025. 03. 06. Thu, 08:30:14 +0100 67c561333444f068e429a437 poltextLAB robotújságíró európai fejlesztések A Centre for Future Generations kutatóintézet januárban nyilvánosságra hozott tervezete szerint 35 milliárd eurós kezdeti befektetéssel hoznának létre egy nemzetközi kutatóközpontot, amely az európai mesterséges intelligencia fejlesztését szolgálná. Mario Draghi korábbi EKB-elnök átfogó technológiai jelentésével összhangban a tervezet egy olyan intézmény létrehozását javasolja, amely az alapkutatásoktól a gyakorlati alkalmazásokig terjedő teljes fejlesztési spektrumot lefedné.

Az intézmény négy fő területen folytatna kutatásokat: az alapkutatások, a gyakorlati alkalmazások, a társadalmi kihívások megoldása és a hardverfejlesztés területén. A Goldman Sachs elemzése szerint a mesterséges intelligencia rendszerek alkalmazása jelentősen növelheti a vállalatok hatékonyságát: átlagosan 25%-os termelékenységnövekedést érhetnek el a technológia bevezetésével. Ugyanakkor az európai vállalkozások komoly lemaradásban vannak, hiszen 40-70%-kal kevesebben használják ezeket a megoldásokat, mint amerikai versenytársaik. A felzárkózás érdekében a tervezett kutatóközpont vezetését egy tagállami képviselőkből álló testület látná el, amely a stratégiai döntésekért felelne, míg a napi működést független szakértői csoportok irányítanák, biztosítva a szakmai szempontok érvényesülését.


A javasolt kutatóközpont első három évében tervezett 35 milliárd eurós költségvetésből körülbelül 25 milliárd eurót adatközpontok fejlesztésére fordítanának. A finanszírozás az Európai Uniótól, a tagállamok kormányaitól és stratégiai magánbefektetőktől származna. A projekt sikerének kulcsa a nem EU-tag partnerországok, különösen az Egyesült Királyság, Svájc és Kanada bevonása lenne, amelyek jelentős kutatási tapasztalattal rendelkeznek a mesterséges intelligencia területén.

Források:

1.

CERN for AI | CAIRNE - Confederation of Laboratories for Artificial Intelligence Research in Europe CAIRNE - Confederation of Laboratories for Artificial Intelligence Research in Europe AI
CAIRNE seeks to strengthen European excellence in AI research and innovation. Its extensive network forms a pan-European Confederation of Laboratories for Artificial Intelligence Research in Europe. CAIRNE was launched in 2018 as a bottom-up initiative by the European AI community and aims for “brand recognition” similar to CERN - a CERN for AI %

2.

Building CERN for AI - An institutional blueprint - Centre for Future Generations
This report explores the institutional design of CERN for AI, covering its structure, legal basis, governance, and funding model.

3.

Europe could ‘leap ahead’ in AI race, says Mozilla’s president
Mark Surman spoke to Euronews Next following the Paris AI Summit about nations collaborating to build better technology.
]]>
Megújult AI-elvek a Google-nál: a fegyverkezési tilalom feloldása és a globális biztonság előtérbe helyezése https://aiforradalom.poltextlab.com/megujult-ai-elvek-a-google-nal-a-fegyverkezesi-tilalom-feloldasa-es-a-globalis-biztonsag-eloterbe-helyezese/ 2025. 03. 05. Wed, 14:00:51 +0100 67bb74853444f068e429a274 poltextLAB robotújságíró Google A Google 2025 februárjában kiadott éves Felelős MI jelentésével egyidőben eltávolította korábbi, mesterséges intelligencia fegyverkezési célú felhasználását tiltó irányelvét. A vállalat új AI alapelvei három fő pillérre épülnek, a merész innovációra, a felelősségteljes fejlesztésre és telepítésre, valamint együttműködésen alapuló haladásra.

A jelentős változás része egy átfogóbb stratégiai irányváltásnak, amely a demokratikus országok AI-fejlesztésben betöltött vezető szerepét kívánja erősíteni. A Google 2018 óta publikált AI felelősségvállalási jelentései (Responsible AI Progress Report) jelentős fejlődésen mentek keresztül. A legújabb, 2024-es jelentés több mint 300 kutatási tanulmányt tartalmaz a felelősségteljes AI témakörében, és dokumentálja a vállalat 120 millió dolláros befektetését az AI oktatásba és képzésbe világszerte. A jelentés részletesen ismerteti a biztonsági intézkedéseket, beleértve a SynthID tartalomhitelesítési technológiát és a Frontier Safety Framework frissítését, amely új biztonsági ajánlásokat és a félrevezető AI-rendszerek kockázatainak kezelését célzó eljárásokat tartalmaz.

A vállalat blogbejegyzésében hangsúlyozta, hogy a demokratikus értékeket valló vállalatoknak, kormányoknak és szervezeteknek együtt kell működniük olyan AI megoldások létrehozásában, amelyek védik az embereket, támogatják a globális növekedést és a nemzetbiztonságot. A módosított irányelvek és a fegyverkezési tilalom eltörlése jelentős változást jelez a vállalat stratégiájában, különösen annak fényében, hogy a Google 2018-ban vezette be az eredeti korlátozásokat, miután úgy döntött, nem újítja meg a Pentagon Project Maven programjában való részvételét.

Az irányváltás mellett ugyanakkor a vállalat biztonsági és minőségi standardjai továbbra is magasak maradtak: a Google Cloud AI "érett" minősítést kapott a NIST Kockázatkezelési keretrendszerében, és a vállalat ISO/IEC 42001 tanúsítványt szerzett a Gemini alkalmazás, Google Cloud és Google Workspace szolgáltatásaira. A jelentés hangsúlyozza, hogy a vállalat továbbra is értékeli az AI projektek előnyeit és kockázatait, de már szélesebb perspektívából közelíti meg a nemzetbiztonsági alkalmazások kérdését.

Források:

1.

Responsible AI Progress Report. Google AI, February 2025

2.

Responsible AI: Our 2024 report and ongoing work
We’re publishing our 2024 Responsible AI Progress Report and updating our Frontier Safety Framework and AI Principles.

3.

Google releases responsible AI report while removing its anti-weapons pledge
The company’s annual reflection on safe AI development comes amid shifting guidance around military AI.

4.

Google ditched its pledge not to use AI for weapons and surveillance
A previous version of Google’s AI Principles said it would not pursue weapons and other technologies that can injure people
]]>
A GenAI helye az MI hierarchiájában: A neurális hálózatoktól a nagy nyelvi modellekig https://aiforradalom.poltextlab.com/4-a-genai-helye-az-mi-hierarchiajaban-a-neuralis-halozatoktol-a-nagy-nyelvi-modellekig/ 2025. 03. 05. Wed, 12:37:07 +0100 67c82b143444f068e429a73f Sebők Miklós - Kiss Rebeka GenAI tankönyv A generatív MI a gépi tanulás (Machine Learning, ML) egyik speciális ágára, mélytanulási algoritmusokra (Deep Learning, DL) támaszkodik, amelyek neurális hálózatokat (Neural Networks) alkalmaznak az adatokban rejlő mintázatok felismerésére és hasznosítására. A jelentős mennyiségű adat feldolgozása révén ezek az algoritmusok képesek a meglévő tudás szintetizálására és annak kreatív alkalmazására. Ezáltal a generatív MI olyan természetesnyelv-feldolgozási (Natural Language Processing, NLP) feladatok elvégzésére használható (Yenduri et al. 2024, 54609), mint például az érzelmek felismerése, szövegek összegzése, több szövegforrás összehasonlítása szemantikai hasonlóság szempontjából, új szövegek generálása.

A generatív MI-nek nincs egy általánosan elfogadott definíciója, gyakran gyűjtőfogalomként funkcionál. Bár technikailag minden olyan modellt, amely valamilyen kimenetet generál, generatívnak lehet tekinteni, az MI-kutatóközösség gyakran fenntartja a kifejezést olyan összetett modellek számára, amelyek magas színvonalú, az ember által generálthoz hasonló tartalmakat hoznak létre (García-Peñalvo & Vázquez-Ingelmo 2023, 7). A generatív MI olyan MI technikák és modellek összessége, amelyet arra fejlesztettek, hogy megtanulja egy adatállomány rejtett, mögöttes struktúráját és új adatpontokat generáljon, amelyek valószínűleg illeszkednének az eredeti adatállományba (Pinaya et al. 2023, 2). A generatív MI elsősorban generatív modellezésen (a bemenetek és kimenetek együttes eloszlásának meghatározása) alapul, amely célja, hogy valamilyen tényleges adateloszlásra következtessen.

Egy generatív mesterséges intelligencia rendszer magában foglalja a teljes infrastruktúrát, beleértve a modellt, az adatfeldolgozást és a felhasználói felület komponenseit. A modell a rendszer központi komponenseként szolgál, amely megkönnyíti az interakciót és az alkalmazást (Feuerriegel et al. 2024, 112). A generatív MI fogalma tehát túllép a generatív modellek tisztán technikai alapjain, és magában foglalja az egyes AI-rendszerek további, funkcionálisan releváns jellemzőit (Feuerriegel et al. 2024). A szakirodalom jelenlegi állása szerint, tágabb kontextusban a generatív MI kifejezést általában a kézzelfogható szintetikus tartalom MI-alapú eszközökkel történő létrehozására használjuk (García-Peñalvo & Vázquez-Ingelmo 2023, 14). Szűkebb értelemben az MI-kutatóközösség elsősorban a generatív alkalmazásokat vizsgálja a felhasznált modellekre összpontosítva és nem feltétlenül sorolják munkájukat a generatív MI kifejezés alá (Ronge, Maier, & Rathgeber 2024, 1).

Összefoglalva, a generatív MI a mesterséges intelligencia egy speciális ága, amely fejlett gépi tanulási technikákat, különösen neurális hálózatokra épülő mély tanulási modelleket, például transzformátor architektúrákat használ. A transzformátor architektúrákon belül helyezkednek el a nagy nyelvi modellek (Large Language Models, LLMs), amelyek hatalmas nyelvi adathalmazokon előtanultak, lehetővé téve a generatív MI számára, hogy új, korábban nem látott szintetikus tartalmakat állítson elő különböző formákban, valamint támogatást nyújtson különféle feladatokhoz generatív modellezéssel. Ennek a felépítésnek a szemléltetéséhez lásd az alábbi ábrát.

A mesterséges intelligenciától a generatív MI-ig (Forrás: A szerzők saját szerkesztése - Varga & Akhulkova 2023 alapján)

Felhasznált irodalom:

1.Feuerriegel, Stefan, Jochen Hartmann, Christian Janiesch, and Patrick Zschech. 2024. ‘Generative AI’. Business & Information Systems Engineering 66 (1): 111–26. doi:10.1007/s12599-023-00834-7^ Vissza


2. García-Peñalvo, Francisco, and Andrea Vázquez-Ingelmo. 2023. ‘What Do We Mean by GenAI? A Systematic Mapping of The Evolution, Trends, and Techniques Involved in Generative AI’. International Journal of Interactive Multimedia and Artificial Intelligence 8 (4): 7. doi:10.9781/ijimai.2023.07.006^ Vissza


3. Pinaya, Walter H. L., Mark S. Graham, Eric Kerfoot, Petru-Daniel Tudosiu, Jessica Dafflon, Virginia Fernandez, Pedro Sanchez, et al. 2023. ‘Generative AI for Medical Imaging: Extending the MONAI Framework’. arXiv. doi:10.48550/ARXIV.2307.15208^ Vissza


4. Ronge, Raphael, Markus Maier, and Benjamin Rathgeber. 2024. ‘Defining Generative Artificial Intelligence: An Attempt to Resolve the Confusion about Diffusion’. (Kézirat). ^ Vissza


5. Varga, László, and Yulia Akhulkova. 2023. ‘The Language AI Alphabet: Transformers, LLMs, Generative AI, and ChatGPT’. Nimdzi. https://www.nimdzi.com/the-language-ai-alphabet-transformers-llms-generative-ai-and-chatgpt/^ Vissza


6. Yenduri, Gokul, M. Ramalingam, G. Chemmalar Selvi, Y. Supriya, Gautam Srivastava, Praveen Kumar Reddy Maddikunta, G. Deepti Raj, et al. 2024. ‘GPT (Generative Pre-Trained Transformer)— A Comprehensive Review on Enabling Technologies, Potential Applications, Emerging Challenges, and Future Directions’. IEEE Access 12: 54608–49. doi:10.1109/ACCESS.2024.3389497^ Vissza


]]>
Az unimodális, multimodális és keresztmodalitású generatív MI rendszerek https://aiforradalom.poltextlab.com/3-az-unimodalis-multimodalis-es-keresztmodalitasu-generativ-mi-rendszerek/ 2025. 03. 05. Wed, 11:34:09 +0100 67c8142f3444f068e429a6b7 Sebők Miklós - Kiss Rebeka GenAI tankönyv A generatív mesterséges intelligencia (generatív MI vagy GenAI) eszközök a mesterséges intelligencia (MI) algoritmusok egy feltörekvő ágát képviselik (Tan et al. 2024, 168). Ellentétben a hagyományos MI-modellekkel, amelyek adatokat kategorizálnak vagy előrejelzéseket készítenek mintázatok alapján (Turchi et al. 2023, 35), a generatív MI a meglévő adatok egyszerű elemzésén túl képes felhasználói utasítások (prompt) alapján új, szintetikus tartalmak előállítására (Feuerriegel et al. 2024, 112). Ian Goodfellow, a generatív versengő hálózatok (Generative Adversarial Network, GAN) megalkotójának és a gépi tanulás egyik úttörő kutatójának megfogalmazásában a generatív modellek a gépi kreativitás egyik legfontosabb eszközei, amelyek lehetővé teszik a gépek számára, hogy túllépjenek a korábban látottakon, és valami újat hozzanak létre (Bordas et al. 2024, 427).

A generatív MI az intelligencia automatizált konstrukcióját tanulmányozó tudomány (Van Der Zant, Kouw, & Schomaker 2013, 113). Olyan modellek összessége, amelyek célja, hogy megtanulják az előtanításhoz használt adathalmaz alapszintű eloszlását, és olyan új adatpontokat generáljanak, amelyek ugyanezt az eloszlást követik (Goodfellow et al. 2014, 139). A megtanult mintázatok alapján rugalmas tartalomelőállítást tesz lehetővé különböző modalitásokban (például szöveg, audio, kép, videó vagy kód formájában), amelyekbe könnyen beleillik különféle feladatok széles köre.

Korábban az ilyen modellek jellemzően egyetlen modalitásra korlátozódtak (unimodal), vagyis egy adott típusú tartalom feldolgozására és generálására voltak alkalmasak, mint például az OpenAI GPT-3 modellje, amely kizárólag szöveges bemenetekkel dolgozott és szöveges válaszokat generált. A legújabb fejlesztések révén azonban megjelentek a multimodális (multimodal) modellek, amelyek egyszerre több eltérő formátumú tartalom feldolgozására és generálására is képesek (Banh & Strobel 2023, 7). Ilyen például az OpenAI GPT-4 multimodális verziója, amely szöveges és vizuális adatokat is képes kezelni, valamint ezek kombinációjával tartalmat létrehozni. Az unimodális és multimodális modellek működését az alábbi ábra szemlélteti.

Unimodális és multimodális generatív MI modellek működése (Forrás: A szerzők saját szerkesztése – Hariri 2023, 6 alapján)

Bár kevésbé elterjedtek, léteznek keresztmodalitású (cross-modal) modellek is, amelyek különböző modalitások közötti adatátalakításra specializálódtak (Zhang et al. 2021). Ezek a modellek például lehetővé teszik szövegből képek generálását, ahogy azt a DALL-E teszi vagy képekből szöveges leírások készítését, amely a CLIP modell egyik kiemelkedő képessége. Ezen modellek különösen fontos szerepet játszanak olyan területeken, mint a vizuális kérdésmegértés (Visual Question Answering, VQA) a szöveg-alapú képalkotás (text-to-image generation) vagy a multimodális információkeresés.

Felhasznált irodalom:

1. Banh, Leonardo, and Gero Strobel. 2023. ‘Generative Artificial Intelligence’. Electronic Markets 33 (1): 63. doi:10.1007/s12525-023-00680-1^ Vissza


2. Bordas, Antoine, Pascal Le Masson, Maxime Thomas, and Benoit Weil. 2024. ‘What Is Generative in Generative Artificial Intelligence? A Design-Based Perspective’. Research in Engineering Design 35 (4): 427–43. doi:10.1007/s00163-024-00441-x^ Vissza


3. Feuerriegel, Stefan, Jochen Hartmann, Christian Janiesch, and Patrick Zschech. 2024. ‘Generative AI’. Business & Information Systems Engineering 66 (1): 111–26. doi:10.1007/s12599-023-00834-7^ Vissza


4. Goodfellow, Ian J., Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. 2014. ‘Generative Adversarial Networks’. arXiv. doi:10.48550/ARXIV.1406.2661^ Vissza


5. Hariri, Walid. 2023. ‘Unlocking the Potential of ChatGPT: A Comprehensive Exploration of Its Applications, Advantages, Limitations, and Future Directions in Natural Language Processing’. arXiv. doi:10.48550/ARXIV.2304.02017^ Vissza


6. Tan, Yue Hern, Hui Na Chua, Yeh-Ching Low, and Muhammed Basheer Jasser. 2024. ‘Current Landscape of Generative AI: Models, Applications, Regulations and Challenges’. In 2024 IEEE 14th International Conference on Control System, Computing and Engineering (ICCSCE), 168–73. Penang, Malaysia: IEEE. doi:10.1109/ICCSCE61582.2024.10696569^ Vissza


7. Turchi, Tommaso, Silvio Carta, Luciano Ambrosini, and Alessio Malizia. 2023. ‘Human-AI Co-Creation: Evaluating the Impact of Large-Scale Text-to-Image Generative Models on the Creative Process’. In End-User Development, edited by Lucio Davide Spano, Albrecht Schmidt, Carmen Santoro, and Simone Stumpf, 13917:35–51. Lecture Notes in Computer Science. Cham: Springer Nature Switzerland. doi:10.1007/978-3-031-34433-6_3^ Vissza


8. Van Der Zant, Tijn, Matthijs Kouw, and Lambert Schomaker. 2013. ‘Generative Artificial Intelligence’. In Philosophy and Theory of Artificial Intelligence, edited by Vincent C. Müller, 5:107–20. Studies in Applied Philosophy, Epistemology and Rational Ethics. Berlin, Heidelberg: Springer Berlin Heidelberg. doi:10.1007/978-3-642-31674-6_8^ Vissza


9. Zhang, Han, Jing Yu Koh, Jason Baldridge, Honglak Lee, and Yinfei Yang. 2021. ‘Cross-Modal Contrastive Learning for Text-to-Image Generation’. arXiv. doi:10.48550/ARXIV.2101.04702^ Vissza


 

]]>
Úttörő magyar nyelvmodell: megérkezett a PULI LlumiX https://aiforradalom.poltextlab.com/uttoro-magyar-nyelvmodell-megerkezett-a-puli-llumix/ 2025. 03. 05. Wed, 08:30:56 +0100 67bb7a533444f068e429a2fd poltextLAB robotújságíró HUN-REN A nagyméretű nyelvi modellek fejlesztése felgyorsult az elmúlt hónapokban. A HUN-REN Nyelvtudományi Kutatóközpont most bemutatta a PULI LlumiX modellt, amely egy magyar nyelvre optimalizált, folytatólagosan előtanított és utasításkövetésre finomhangolt rendszer. A modell részletes bemutatását a "PULI LlumiX modell: Egy folytatólagosan előtanított nagy nyelvi modell" című tanulmány tartalmazza (Yang et al., 2025), amely ismerteti az alkalmazott előtanítási és finomhangolási eljárásokat, valamint a modell teljesítményének értékelését különböző benchmarkokon.

A PULI LlumiX a Llama-2 architektúrára épül, és finomhangolásához 66 000 angol és 15 000 magyar promptot használtak. Az így kialakított rendszer kimagasló eredményeket ért el a magyar nyelvre szabott teszteken: a HuCOLA teszten 66,98%-os, a HuSST teszten 70,06%-os, a HuRTE teszten pedig 74,54%-os pontosságot mutatott felülmúlva a korábbi magyar nyelvű modelleket, mint a PULI Trio vagy a HILANCO-GPTX. A PULI LlumiX ezeken a teszteken úgy ért el kimagasló eredményeket, hogy nem kapott előzetes tanítást ezekre a konkrét feladatokra. Ez azt jelenti, hogy a modell a már meglévő nyelvi tudására és általános képességeire támaszkodva oldotta meg a teszteket, anélkül, hogy korábban példákat látott volna belőlük. A kutatás során külön figyelmet fordítottak a hosszú szövegkörnyezetben való teljesítményre, amelyet egy „Tű a szénakazalban” típusú teszt segítségével is vizsgáltak, demonstrálva, hogy a modell képes nagy mennyiségű szövegből hatékonyan visszakeresni a releváns információkat.

A kvantitatív eredmények mellett kvalitatív elemzések is igazolták a modell fejlett képességeit. Részletes vizsgálatok alapján a PULI LlumiX nemcsak a magyar nyelvű utasításokat követi pontosan, hanem képes különböző nyelvi regiszterekhez alkalmazkodni, megfelelően kezeli a társadalmi kontextusokat. Az elemzések alátámasztják, hogy a transzfertanulás révén a modell jelentős tudást képes átvenni más nyelvekből is, javítva a magyar nyelvű teljesítményét. A PULI LlumiX így nem csupán egy újabb nyelvmodell, hanem mérföldkő lehet a magyar nyelvtechnológia fejlődésében.


Forrás:

1.

MSZNY 2025 program | HUN-REN—SZTE Research Group on Artificial Intelligence
]]>
Az első nemzetközi AI biztonsági jelentés: kockázatok és ajánlások https://aiforradalom.poltextlab.com/az-elso-nemzetkozi-ai-biztonsagi-jelentes-kockazatok-es-ajanlasok/ 2025. 03. 04. Tue, 14:00:09 +0100 67bb72283444f068e429a232 poltextLAB robotújságíró AI-biztonság A Yoshua Bengio által vezetett 96 nemzetközi szakértő 2025. január 29-én tette közzé az első nemzetközi AI biztonsági jelentést, amely konkrét adatokkal dokumentálja a mesterséges intelligencia társadalmi, gazdasági és környezeti hatásait. A 2023-as bletchley parki AI Biztonsági Csúcstalálkozón megrendelt dokumentum tudományos alapot nyújt a döntéshozóknak világszerte, és három konkrét kockázati kategóriát azonosít: rosszindulatú felhasználás (pl. kibertámadások), rendszer meghibásodások (pl. megbízhatatlanság) és rendszerszintű kockázatok (pl. munkaerőpiaci és környezeti hatások).

A jelentés részletes adatokkal támasztja alá a mesterséges intelligencia várható hatásait. A munkaerőpiacot illetően a dokumentum hangsúlyozza, hogy a Nemzetközi Valutaalap szerint a fejlett gazdaságokban (mint az USA és az Egyesült Királyság) a munkahelyek 60%-a van kitéve az AI hatásainak, és ezek közül minden második esetben várható negatív hatás. A Tony Blair Intézet elemzése szerint a mesterséges intelligencia akár 3 millió magánszektorbeli munkahelyet szüntethet meg az Egyesült Királyságban, bár a tényleges munkanélküliség növekedése csak néhány százezer fő lesz, mivel a technológia növekedése új szerepköröket teremt. Környezeti szempontból a jelentés az alábbi adatokkal szolgál: az adatközpontok és adatátvitel az energiával kapcsolatos üvegházhatású gázkibocsátás 1%-áért felelősek, az AI-rendszerek pedig az adatközpontok teljes energiafogyasztásának akár 28%-át is felhasználhatják. Bengio professzor hangsúlyozta, hogy az általános célú AI képességei az elmúlt években és hónapokban rohamosan nőtt, ami bár nagy lehetőségeket rejt a társadalom számára, de jelentős kockázatokat is hordoz, amelyeket a kormányoknak világszerte gondosan kell kezelniük.

A jelentés konkrét példákkal illusztrálja a rosszindulatú AI-felhasználás veszélyeit: a deepfake technológiát vállalatok csalárd pénzszerzésre és pornográf tartalmak készítésére használhatják, továbbá az új AI-modellek már PhD szintű szakértelmet meghaladó részletességű útmutatókat képesek generálni kórokozók és toxinok előállításához. A szakértők végső következtetése szerint, bár az AI-képességek fejlődési üteme változó lehet, sem a fejlődésük, sem a kapcsolódó kockázatok nem determinisztikusak – a kimenetel nagyban függ a társadalmak és kormányok jelenlegi és jövőbeli szakpolitikai döntéseitől.

Források:

1.

What International AI Safety report says on jobs, climate, cyberwar and more
Wide-ranging investigation says impact on work likely to be profound, but opinion on risk of human extinction varies

2.

The first International Report on AI Safety, led by Yoshua Bengio, is launched
Chaired by the UdeM computer-science professor and scientific director of Mila, the report released today is intended as a guide for policymakers worldwide.

3.

International AI Safety Report – MIT Media Lab
Two researchers at the MIT Media Lab, Tobin South and Shayne Longpre, contributed to the global agenda-setting International AI Safety Report, supported by 30 …
]]>
Viták a Grok 3 teljesítménytesztjei körül: az xAI félrevezető adatokat közölt? https://aiforradalom.poltextlab.com/vitak-a-grok-3-teljesitmenytesztjei-korul-az-xai-felrevezeto-adatokat-kozolt/ 2025. 03. 04. Tue, 08:30:15 +0100 67bb77363444f068e429a2b6 poltextLAB robotújságíró Grok Az xAI által közzétett Grok 3 mesterséges intelligencia teljesítményadatok félrevezetőek lehetnek az OpenAI szakemberei szerint, akik megkérdőjelezték a publikált teszteredmények hitelességét, különösen az AIME 2025 matematikateszten elért pontszámok tekintetében.

A vita középpontjában az áll, hogy az xAI blogbejegyzésében közzétett grafikonokból kimaradt az OpenAI o3-mini-high modelljének speciális tesztmódban elért eredménye, ahol a rendszer 64 próbálkozásból választja ki a leggyakoribb helyes választ. A részletes elemzés szerint amikor a Grok 3 Reasoning Beta és a Grok 3 mini Reasoning modellek első próbálkozásra adott válaszait vizsgálták, azok gyengébben teljesítettek az OpenAI modelljénél. Ezt az ellentmondást erősítheti Elon Musk február 13-i dubaji World Government Summit-on tett nyilatkozata is, ahol a Grok 3-at "ijesztően okosnak" nevezte, és azt állította, hogy a Grok 3 felülmúl minden eddig kiadott modellt, amiről tudunk.

Az xAI vezetősége és az OpenAI között kibontakozó vita rávilágít a mesterséges intelligencia teljesítménymérésének problémáira. Igor Babushkin, az xAI társalapítója azzal védekezett, hogy az OpenAI korábban hasonló módon publikált félrevezető összehasonlító grafikonokat. A szakértők szerint továbbra is ismeretlen a modellek legjobb eredményeinek eléréshez szükséges számítási és pénzügyi költség, ami kulcsfontosságú lenne a valós teljesítmény megítéléséhez.

Források:

1.

Did xAI lie about Grok 3’s benchmarks? | TechCrunch
OpenAI researchers accused xAI about publishing misleading Grok 3 benchmarks. The truth is a little more nuanced.

2.

3.

4.

5.

Elon Musk says his Grok 3 outperforms AI chatbots like ChatGPT and DeepSeek
Elon Musk has revealed that his upcoming AI chatbot, Grok 3, will outshine competitors like ChatGPT and DeepSeek. Speaking at the World Government Summit in Dubai, Musk shared that Grok 3 is nearing completion and will be launched within the next one or two weeks.
]]>
Az OpenAI bejelentette: heteken belül érkezik a GPT-4.5, ősszel a GPT-5 https://aiforradalom.poltextlab.com/az-openai-bejelentette-heteken-belul-erkezik-a-gpt-4-5-osszel-a-gpt-5/ 2025. 03. 03. Mon, 14:00:32 +0100 67bb767b3444f068e429a2a3 poltextLAB robotújságíró Sam Altman Sam Altman, az OpenAI vezérigazgatója 2025. február 13-án jelentette be az új mesterséges intelligencia modellek menetrendjét: a GPT-4.5 heteken belül érkezik, míg a GPT-5 hónapokkal később, 2025 második felében lesz elérhető. A bejelentés különösen jelentős, mivel az OpenAI radikálisan egyszerűsíti termékportfólióját, és először tesz elérhetővé csúcsmodellt ingyenesen a felhasználók számára.

Az új stratégia központi eleme a termékek egységesítése és egyszerűsítése. A jelenleg elérhető legalább 10 különböző AI modell - köztük a GPT-4o, o1, o3-mini és számos specializált változat - helyett egy egységes rendszert hoznak létre. Altman szavaival élve: Szeretnénk, ha az AI egyszerűen csak működne; rájöttünk, hogy mennyire bonyolulttá váltak a modell- és termékkínálatunk. A GPT-4.5 lesz az utolsó hagyományos nyelvi modell, míg a GPT-5 már egyesíti a szimulált gondolkodás (SR) és a hagyományos nyelvmodell tulajdonságait.

A legjelentősebb változás, hogy a GPT-5 alap intelligenciaszintje ingyenesen elérhető lesz minden ChatGPT felhasználó számára, míg a Plus és Pro előfizetők magasabb intelligenciaszintű verziókat használhatnak majd. A rendszer integrálni fogja az összes jelenlegi technológiát, beleértve az o3 modellt, a hangfelismerést, a keresést és a mélyebb kutatási funkciókat is. Az új modell képes lesz automatikusan kiválasztani a megfelelő eszközt az adott feladathoz, ezzel jelentősen egyszerűsítve a felhasználói élményt.

Források:

1.

Sam Altman lays out roadmap for OpenAI’s long-awaited GPT-5 model
GPT-4.5 will arrive in “weeks,” then GPT-5 will meld conventional LLMs and reasoning models.

2.

3.

4.

OpenAI postpones o3 model release, will wrap it up with GPT-5 instead
The new plan is for GPT-5 to become one monolithic system with multiple AI models, including the upcoming o3 model.
]]>
Elon Musk xAI cége bemutatta a Grok 3 chatbotot https://aiforradalom.poltextlab.com/elon-musk-xai-cege-bemutatta-a-grok-3-chatbotot/ 2025. 03. 03. Mon, 08:30:45 +0100 67bb784e3444f068e429a2cf poltextLAB robotújságíró Elon Musk Az Elon Musk által vezetett xAI 2025. február 17-én bemutatta legújabb mesterséges intelligencia modelljét, a Grok 3-at, amely a vállalat állítása szerint felülmúlja a vezető AI chatbotokat, köztük a ChatGPT-t és a DeepSeek-et. A modell fejlesztése a memphisi "Colossus" szuperszámítógépen történt, amely 200.000 Nvidia GPU-t használ, ami tízszer nagyobb számítási kapacitást biztosított az előző verzióhoz képest.

A Grok 3 család több modellt tartalmaz, köztük a gyorsabb, de kevésbé pontos Grok 3 mini-t, valamint a Grok 3 Reasoning és Grok 3 mini Reasoning változatokat, amelyek komplex matematikai, tudományos és programozási feladatok megoldására specializálódtak. A fejlesztés során különleges hangsúlyt fektettek a szintetikus adatokkal történő tanításra, ami xAI szerint jobb következtetési képességeket eredményezett. Ezt támasztja alá Musk nyilatkozata is a Dubaji Világkormányzati Csúcstalálkozón: A Grok 3 rendelkezik a legerősebb következtetési képességekkel, és a tesztek során felülmúlt minden eddig kiadott modellt, amiről tudunk.

Az új modell először az X platform Premium+ előfizetői számára lesz elérhető (havi 50 dollárért), míg a további funkciók, mint például a DeepSearch és a korlátlan képgenerálás, a SuperGrok előfizetés keretében lesznek hozzáférhetők (havi 30 dollár vagy évi 300 dollár). A vállalat tervei szerint a Grok 3 egy héttel a megjelenés után hangalapú interakcióra is képes lesz, míg a vállalati API hozzáférés néhány héten belül válik elérhetővé. Az xAI emellett bejelentette, hogy a Grok 2 forráskódját nyilvánossá teszik, amint a Grok 3 teljesen stabil lesz.

Források:

1.

Elon Musk says his Grok 3 outperforms AI chatbots like ChatGPT and DeepSeek
Elon Musk has revealed that his upcoming AI chatbot, Grok 3, will outshine competitors like ChatGPT and DeepSeek. Speaking at the World Government Summit in Dubai, Musk shared that Grok 3 is nearing completion and will be launched within the next one or two weeks.

2.

Musk’s xAI launches Grok 3, which it says is the ‘best AI model to date’
Elon Musk formally launches the latest version of his AI chatbot, Grok 3, claiming it surpasses all current AI rivals.

3.

Elon Musk says xAI’s ‘scary smart’ Grok 3 chatbot will be released on Monday
Musk recently said that Grok 3 had been “outperforming anything that’s been released” in tests.

4.

Grok 3 Is in Its Final Stages, and Elon Musk Says It’s ‘Scary Smart’
According to the tech billionaire, the “rebellious” chatbot is outperforming the competition, and will be released shortly.

5.

Musk’s xAI releases artificial intelligence model Grok 3, claims better performance than rivals in early testing
XAI also said it was launching a new product called “Deep Search,” which would act as a “next generation search engine.”
]]>
Az EU Mesterséges Intelligencia Hivatala: 140 szakértő dolgozik a biztonságos AI fejlesztésért https://aiforradalom.poltextlab.com/az-eu-mesterseges-intelligencia-hivatala-140-szakerto-dolgozik-a-biztonsagos-ai-fejlesztesert/ 2025. 02. 28. Fri, 14:00:32 +0100 67b8529e3444f068e429a0e0 poltextLAB robotújságíró EU Az Európai Bizottság 2024 januárjában létrehozta az EU Mesterséges Intelligencia Hivatalát (AI Office), amely 140 fős szakértői csapattal kezdte meg működését. A hivatal kulcsszerepet játszik az EU AI Act - a világ első átfogó AI szabályozási keretrendszere - végrehajtásában, különös tekintettel az általános célú AI modellek felügyeletére és a megbízható AI fejlesztés támogatására.

A hivatal öt főosztállyal működik (Kiválósági Főosztály AI és Robotika területen, Szabályozási és Megfelelési Főosztály, Biztonsági Főosztály, Innovációs és Szakpolitikai Koordinációs Főosztály, valamint Társadalmi Fejlődési Főosztály), továbbá két tanácsadóval (vezető tudományos tanácsadó és nemzetközi ügyekért felelős tanácsadó). A szervezet szorosan együttműködik az Európai Mesterséges Intelligencia Testülettel (AI Board), amely a 27 tagállam képviselőiből áll, és koordinálja a nemzeti hatóságok munkáját. A Bizottság célja a megbízható AI fejlesztése a belső piacon. Az AI Hivatal ehhez releváns állami és magánszereplőkkel, valamint a startup közösséggel együttműködve járul hozzá - áll a hivatalos dokumentációban.

Az EU Mesterséges Intelligencia Hivatala 2025 második negyedévére dolgozza ki az általános célú AI modellekre vonatkozó gyakorlati kódexeket, amelyek konkrét, mérhető célkitűzéseket és kulcsteljesítmény-mutatókat tartalmaznak majd. A hivatal feladata továbbá a nemzetközi együttműködés erősítése és az EU AI megközelítésének népszerűsítése világszerte. A szervezet hatékonyságának felülvizsgálatára 2026 júniusában kerül sor, amikor értékelik, szükség van-e további hatáskörök és erőforrások biztosítására.

Források:

European AI Office
The European AI Office is the centre of AI expertise across the EU. It plays a key role in implementing the AI Act - especially for general-purpose AI - fostering the development and use of trustworthy AI, and international cooperation.
The EU AI Office Is Established
On February 21, 2024, the Commission Decision Establishing the European AI Office (Decision) entered into force and the European Artificial Intelligence Office (EU AI Office) was formally established.…
The AI Office: What is it, and how does it work? | EU Artificial Intelligence Act
]]>
Összetett AI megoldások a gyakorlatban: az AI Builders Summit 2025 tanulságai https://aiforradalom.poltextlab.com/osszetett-ai-megoldasok-a-gyakorlatban-az-ai-builders-summit-2025-tanulsagai/ 2025. 02. 28. Fri, 08:30:08 +0100 67b861d13444f068e429a177 poltextLAB robotújságíró Microsoft Az AI Builders Summit 2025 eseménysorozat négy héten keresztül mutatta be a mesterséges intelligencia fejlesztésének legújabb irányait, a nagy nyelvi modellektől (LLM) kezdve az AI ügynökökig. Az ODSC által 2025. január 15. és február 6. között szervezett virtuális esemény során több száz résztvevő követte nyomon a különböző AI technológiák fejlődését, amelyek négy fő területre összpontosítottak: nagy nyelvi modellek, RAG (Retrieval-Augmented Generation), AI ügynökök és AI építés.

Az első hét előadásai nyelvi modellekre összpontosítottak, ahol Julien Simon az Arcee.ai-tól bemutatta a kis nyelvi modellek (SLM) előnyeit, míg Devvret Rishi és Chloe Leung a Predibase-től különböző finomhangolási módszereket, például a LoRa és TurboLoRa technikákat demonstrálták. A második hét a RAG-ra koncentrált, bemutatva, hogyan javíthatják a nyelvi modellek teljesítményét külső adatok lekérdezésével. Stefan Webb a Zilliz-től bemutatta, hogyan lehet a nagy nyelvi modelleket (LLM) felhasználni a RAG rendszerek kiértékelésére, anélkül hogy előre meghatározott mintaválaszokra lenne szükség az értékelési folyamatban. A harmadik hét az AI ügynökök témáját tárgyalta, ahol Valentina Alto a Microsoft technikai építésze hangsúlyozta az átállást a hagyományos beszélgető AI-ról az agentic alkalmazásokra, amelyek képesek önállóan összetett feladatokat végrehajtani. A záró héten olyan témákat érintettek, mint a skálázható AI architektúrák tervezése és az etikus megfontolások az AI fejlesztésében.

Az AI Builders Summit 2025 kulcsfontosságú tanulságai között szerepelt a kisebb nyelvmodellek 2025-ös vállalati alkalmazásának növekvő jelentősége, a RAG-technikák 2024-2025-ös fejlődése a többmodális adatok integrálásával, valamint az AI ügynökök képessége az összetett munkafolyamatok automatizálására olyan területeken, mint az ügyfélszolgálat és a pénzügy.

Források:

1.

Key Takeaways From Week 1 of the AI Builders Summit — LLMs
We wrapped up week 1 of our first-ever AI Builders Summit! With hundreds of people tuning in virtually from all around the world, our…

2.

Key Takeaways From Week 2 of the AI Builders Summit — RAG
We wrapped up week 2 of our first-ever AI Builders Summit! With hundreds of people tuning in virtually from all around the world, our…

3.

Key Takeaways From Week 3 of the AI Builders Summit — AI Agents
We wrapped up week 2 of our first-ever AI Builders Summit! With hundreds of people tuning in virtually from all around the world, our…

4.

Key Takeaways From Week 4 of the AI Builders Summit — Building AI
We wrapped up the final week of our first-ever AI Builders Summit! With hundreds of people tuning in virtually from all around the world…

5.

Key Takeaways from the AI Builders Summit: A Four-Week Deep Dive into AI Development
The AI Builders Summit brought together experts and practitioners over four weeks to explore cutting-edge advancements in artificial intelligence. Each week focused on a different aspect of AI, from foundational language models to the latest in AI agents and scalable AI architectures. Here’s a recap of the biggest takeaways from…
]]>
Az Anthropic Economic Index nyomon követi a mesterséges intelligencia munkaerőpiaci hatásait https://aiforradalom.poltextlab.com/az-anthropic-economic-index-nyomon-koveti-a-mesterseges-intelligencia-munkaeropiaci-hatasait/ 2025. 02. 27. Thu, 14:00:33 +0100 67b8605e3444f068e429a167 poltextLAB robotújságíró Anthropic Az Anthropic 2025. február 10-én elindította az Anthropic Economic Index kezdeményezést, amely a mesterséges intelligencia gazdasági hatásait vizsgálja valós használati adatok alapján. Az elemzés egymillió Claude-dal folytatott beszélgetést dolgozott fel, és megállapította, hogy az AI-használat 36%-ban érinti a különböző foglalkozásokat, miközben inkább augmentációs (57%), mint automatizációs (43%) célokat szolgál.

Az index első jelentése részletes képet ad az AI felhasználási mintázatairól, amelyek elsősorban a szoftverfejlesztésre (37,2%) és a kreatív írási feladatokra (10,3%) koncentrálódnak. A kutatás az amerikai munkaügyi minisztérium O*NET adatbázisának 20.000 munkafeladatát használta referenciaként, és kimutatta, hogy a közepes-magas fizetésű szakmákban magasabb az AI-használat, míg az alacsony bérű és a nagyon magas fizetésű pozíciókban (mint az orvosok) alacsonyabb. A jelentés szerint a mesterséges intelligencia széles körben terjed el a munkafeladatokban, ugyanakkor csupán a foglalkozások 4%-ában alkalmazzák a feladatok háromnegyedénél is többen, ami a technológia szelektív adaptációját mutatja.

Az Anthropic nyílt forráskódúvá tette a teljes kutatási adatkészletet, és vállalta, hogy hat hónaponként frissíti az elemzést a trendek nyomon követése érdekében. Jack Clark, az Anthropic társalapítója és politikai vezetője szerint: társadalmunkban AI-forradalmat élünk át. A társadalomnak információra van szüksége arról, hogy ez mit jelent a világra nézve, és ezt tekintjük az adatszolgáltatás egyik módjának. Az index jelentősége abban rejlik, hogy objektív, adatvezérelt képet ad az AI gazdasági szerepéről, amely segítheti a szakpolitikai döntéshozókat és kutatókat a technológia hatásainak mélyebb megértésében.

Források:

1.

The Anthropic Economic Index
Announcing our new Economic Index, and the first results on AI use in the economy

2.

Anthropic AI Launches the Anthropic Economic Index: A Data-Driven Look at AI’s Economic Role
Artificial Intelligence is increasingly integrated into various sectors, yet there is limited empirical evidence on its real-world application across industries. Traditional research methods—such as predictive modeling and user surveys—struggle to capture AI’s evolving role in workplaces. This makes it difficult to assess its influence on productivity, labor markets, and economic structures. A more data-driven approach is necessary to gain meaningful insights into how AI is being utilized and its broader implications. Anthropic AI has launched the Anthropic Economic Index, an initiative designed to track AI’s role in economic activities. The first report, based on millions of anonymized Claude conversations, maps

3.

Who’s using AI the most? The Anthropic Economic Index breaks down the data
Anthropic uncovers AI’s true workforce impact: 57% augmentation vs 43% automation across industries, based on 4 million Claude interactions.
]]>
Hatékonyabb nyelvi modellek minimális költséggel: az s1 modell kevesebb mint 50 dollárnyi számítási erőforrással készült https://aiforradalom.poltextlab.com/hatekonyabb-nyelvi-modellek-minimalis-koltseggel-az-s1-modell-kevesebb-mint-50-dollarnyi-szamitasi-eroforrassal-keszult/ 2025. 02. 27. Thu, 08:30:53 +0100 67b71e511c6e962902376189 poltextLAB robotújságíró kutatási eredmények A Stanford Egyetem, a Washingtoni Egyetem és az Allen MI Intézet kutatói egy új módszert fejlesztettek ki a mesterséges intelligencia hatékonyságának növelésére. Az s1 modell, amely kevesebb mint 50 dollárnyi számítási erőforrással készült, olyan teljesítményt ér el, amely korábban csak jelentős költségvetésű projektekben volt lehetséges.

A kutatók eredményeiket 2025. február elején tették közzé, a teljes forráskód pedig nyilvánosan elérhető a GitHub platformon. A megoldás középpontjában a test-time scaling eljárás áll, amely lehetővé teszi, hogy a modell a válaszadás előtt dinamikusan szabályozza a gondolkodási folyamatát. Ha a rendszer túl hamar lezárná a válaszadást, az úgynevezett budget forcing technika beavatkozik: a modell kiegészítő jelzéseket kap, amelyek arra ösztönzik, hogy folytassa a feldolgozást és átgondolja az előzetes következtetéseit. Ezáltal növeli az eredmények pontosságát, különösen matematikai és logikai feladatok esetében.


Az s1 modell mindössze 1000 gondosan válogatott példán keresztül tanult, szemben más nyelvi modellek több százezres vagy milliós adathalmazaival. A kutatók három kritérium – minőség, nehézség és változatosság – alapján választották ki a tanítópéldákat. A modell olyan összetett problémák megoldására is képes, mint az AIME (Amerikai Meghívásos Matematikai Verseny) kérdései vagy PhD-szintű tudományos feladatok.

Az s1 modell teljesítménye tovább javul, ha több időt kap a feldolgozásra, ami azt sugallja, hogy valóban képes mélyebb következtetések levonására. A kutatás jelentősége abban rejlik, hogy igazolja: hatékony nyelvi modellek építhetők minimális erőforrásokkal is. Az Apache 2.0 licenc alatt közzétett forráskód és adatkészlet lehetővé teszi, hogy más kutatók is továbbfejlesszék a módszert és új alkalmazási területeket találjanak számára.

Források:

  1. Muennighoff, Niklas, Zitong Yang, Weijia Shi, Xiang Lisa Li, Li Fei-Fei, Hannaneh Hajishirzi, Luke Zettlemoyer, Percy Liang, Emmanuel Candès, and Tatsunori Hashimoto. "s1: Simple test-time scaling." arXiv preprint https://arxiv.org/abs/2501.19393 (2025).

2.

GitHub - simplescaling/s1: s1: Simple test-time scaling
s1: Simple test-time scaling. Contribute to simplescaling/s1 development by creating an account on GitHub.

3.

Researchers created an open rival to OpenAI’s o1 ‘reasoning’ model for under $50 | TechCrunch
AI researchers at Stanford and the University of Washington were able to train an AI “reasoning” model for under $50 in cloud compute credits, according

4.

The Indian Express Logo

What is S1 AI model, the OpenAI o1 rival trained in less than $50?

Researchers have developed S1-32B, an open-source advanced language model focused on reasoning tasks, trained for under $50.

]]>
A Microsoft bemutatta a Majorana 1 kvantumchipet, amely új utat nyit a kvantumszámításban https://aiforradalom.poltextlab.com/a-microsoft-bemutatta-a-majorana-1-kvantumchipet-amely-uj-utat-nyit-a-kvantumszamitasban/ 2025. 02. 26. Wed, 14:00:00 +0100 67bb70053444f068e429a21b poltextLAB robotújságíró Microsoft A Microsoft 2025. február 19-én bemutatta a Majorana 1 nevű kvantumchipet, mely a világ első, topológiai magarchitektúrával rendelkező kvantumprocesszora, és várhatóan a közeljövőben ipari méretű problémák megoldására képes kvantumszámítógépek építését teheti lehetővé. A chip forradalmi újítása, hogy képes a Majorana-részecskéket megfigyelni és irányítani, ami megbízhatóbb és méretezhető qubiteket eredményez, amelyek a kvantumszámítógépek építőelemei.

A Microsoft közel 20 évig dolgozott ezen a technológián, amely egy teljesen új anyagtípust, az úgynevezett "topokonduktort" használja, ami indium-arzenidből és alumíniumból készül. A chip nyolc topológiai qubitet tartalmaz, és a cég szerint ez az architektúra lehetővé teszi, hogy egymillió qubitet helyezzenek el egyetlen, tenyérben elférő chipen. "Bármit, amit a kvantumtérben csinálsz, annak kell, hogy legyen útja az egymillió qubithez. Ha nincs, akkor falba fogsz ütközni, mielőtt elérnéd azt a méretet, amelynél megoldhatod azokat a valóban fontos problémákat, amelyek motiválnak minket" - nyilatkozta Chetan Nayak, a Microsoft műszaki munkatársa. Az új technológia digitálisan vezérelhető, szemben a jelenlegi megoldásokkal, amelyek finomhangolást igényelnek minden egyes qubit esetében.

A Majorana 1 chip a jelenlegi kvantumszámítógépeknél stabilabb rendszert kínál, mivel a hibaellenállás hardverszinten van beépítve, ami csökkenti a környezeti zajra való érzékenységet. A Microsoft tervei szerint 2030-ra integrálják a technológiát az Azure Quantum szolgáltatásba, és ezzel jelentős előrelépést érhetnek el olyan területeken, mint az öngyógyító anyagok tervezése, a mikroműanyagok lebontása vagy a klímaváltozásnak ellenálló növények fejlesztése. A technológia nagyobb léptékű működése még bizonyításra vár, de a Microsoft már jelentős támogatást kapott a DARPA-tól (Defense Advanced Research Projects Agency), amely az USA-ban a katonai jelentőségű technológiák fejlesztését finanszírozza.

Források:

1.

Microsoft’s Majorana 1 chip carves new path for quantum computing - Source
Majorana 1, the first quantum chip powered by a new Topological Core architecture

2.

Reuters
Microsoft creates chip, it says, shows quantum computers are years, not decades
Microsoft unveils a breakthrough chip that could fast-track quantum computing, suggesting these systems may be a matter of years rather than decades.

3.

The Quantum Long Game: Microsoft’s Majorana 1 Chip Is Unlike Anything We’ve Seen
There’s something deliciously ironic about Microsoft — the company that built its empire on classical computing — potentially becoming the…

4.

A new Microsoft chip could lead to more stable quantum computers
The company says it is on track to build a new kind of machine based on topological qubits.
]]>
Az OpenAI 500 milliárd dolláros terve az MI elterjesztésére https://aiforradalom.poltextlab.com/az-openai-500-milliard-dollaros-terve-a-mesterseges-intelligencia-demokratizalasara/ 2025. 02. 26. Wed, 08:30:44 +0100 67b84de53444f068e429a0c1 poltextLAB robotújságíró OpenAI Az OpenAI vezérigazgatója, Sam Altman 2025. február 9-én bejelentette a számítási erőforrások költségvetésének új rendszerét célzó kezdeményezést, amely az MI-technológiák egyenlőbb elosztását célozza meg. A terv része egy példátlan méretű, 40 milliárd dolláros tőkebevonás és további 500 milliárd dolláros befektetés a partnerekkel közösen az MI-infrastruktúra fejlesztésébe.

Altman szerint a technológiai fejlődés általában javítja az egészségügyi és gazdasági mutatókat, de az egyenlőtlenségek csökkentéséhez új megközelítésekre van szükség. A "compute budget" kezdeményezés hátterében az MI-technológiák koncentrálódásának növekvő problémája áll, amely már most is jelentős munkaerőpiaci átalakulásokat eredményez, osztályok leépítéséhez és munkahelyek megszűnéséhez vezet. A vállalat a Microsofttal való együttműködés keretében olyan rendszer kiépítését tervezi, amely demokratizálja a számítási kapacitásokhoz való hozzáférést. Altman blogbejegyzésében kiemelte, hogy a történelmi tapasztalatok azt mutatják, hogy bár a legtöbb mutató, amit fontosnak tartunk (egészségügyi eredmények, gazdasági jólét stb.) átlagosan és hosszú távon javul, az egyenlőség növekedése nem tűnik technológiailag determináltnak, és ennek megoldása új ötleteket igényelhet.

A tervezett változások részeként az OpenAI növelni kívánja az átláthatóságot és a nyílt forráskódú fejlesztések arányát, miközben korlátozásokat is bevezetne az MI biztonságos használata érdekében. A vállalat 2029-re 100 milliárd dolláros bevételt céloz meg, amely a jelenlegi Target és Nestlé éves forgalmával egyenértékű, miközben a vezérigazgató szerint az MI használatának költsége évente körülbelül tízszeresére csökken, ami lehetővé teszi a technológia szélesebb körű elterjedését.

Források:

1.

OpenAI CEO Sam Altman admits that AI’s benefits may not be widely distributed | TechCrunch
In a new essay on his personal blog, Sam Altman admits that AI’s benefits may not be widely distributed — at least not at first.

2.

Three Observations
Our mission is to ensure that AGI (Artificial General Intelligence) benefits all of humanity. Systems that start to point to AGI* are coming into view, and so we think it’s important to…

3.

OpenAI CEO proposes ‘compute budget’ to widen AI access
OpenAI CEO Sam Altman warns AI’s benefits may not be shared equally and suggests a ‘compute budget’ to improve access while addressing AGI concerns.

4.

OpenAI CEO Sam Altman Unveils Bold Plan for AI Equality with ‘Compute Budget’
OpenAI CEO Sam Altman has proposed a groundbreaking ‘compute budget’ initiative aimed at democratizing AI access, addressing concerns over technological inequality. With OpenAI looking to raise $40 billion and invest up to $500 billion with partners, the proposal seeks to subsidize computing resources and promote transparency through open-sourcing. The move comes amid debates on AI’s impact on employment and concentration of power among tech giants.
]]>
Adathiány az AI-fejlesztésben: új OECD ajánlás a gazdasági növekedés és adatmegosztás előmozdítására https://aiforradalom.poltextlab.com/adathiany-az-ai-fejlesztesben-uj-oecd-ajanlas-a-gazdasagi-novekedes-es-adatmegosztas-elomozditasara/ 2025. 02. 25. Tue, 14:00:58 +0100 67b84d5e3444f068e429a0b3 poltextLAB robotújságíró OECD Az OECD 2025. február 6-án kiadott jelentése rámutat az AI-fejlesztők sürgető minőségi adathiányára, amely problémára az OECD Adathozzáférési és -megosztási Ajánlása kínál megoldást. A dokumentum kiemeli, hogy az adatmegosztás és -hozzáférés javítása akár a GDP 1-2,5%-ának megfelelő gazdasági előnyt is jelenthet az OECD-országokban.

A jelentés adatai szerint 2023-ban a nagyvállalatok 29%-a használt mesterséges intelligenciát, míg a kis- és középvállalkozásoknál ez az arány mindössze 8% volt. Az adatok megosztásának három szintjét határozták meg: a feltételhez kötött hozzáférést, a nem diszkriminatív, díjköteles hozzáférést, valamint a teljesen nyílt adatmegosztást. A dokumentum külön kiemeli, hogy az AI modellek a FAIR alapelvek szerint megtalálható (findable), hozzáférhető (accessible), átjárható (interoperable) és újrafelhasználható (reusable) tulajdonságokkal kell rendelkezzenek.

A 2025-ös ajánlás kiemelt figyelmet fordít az adatvédelmi technológiák szerepére a biztonságos adatmegosztás elősegítésében. Két kulcsfontosságú megoldást javasol: az adatvédelmet erősítő technológiákat (privacy-enhancing technologies, PETs) - beleértve a szintetikus adatgenerálást és a biztonságos futtatási környezeteket -, valamint a megbízható adatközvetítő szervezeteket (trusted data intermediaries, TDIs). Míg a PET-technológiák az érzékeny adatok biztonságos megosztását teszik lehetővé, addig a TDI-k intézményi garanciát jelentenek az adatok megbízható kezelésére, így együttesen biztosítva az adatvédelem és az innovációt támogató adatmegosztás egyensúlyát.

Források:

1.

OECD Logo

Enhancing Access to and Sharing of Data in the Age of Artificial Intelligence

This OECD report discusses how governments can enhance data access and sharing to maximize the benefits of AI while addressing related challenges.

2.

DataGuidance
Essential Privacy and Regulatory Research at Your Fingertips. Find everything you need to stay up-to-date on evolving privacy & security regulations around the world
]]>
Egy évtizedes kutatási problémát oldott meg két nap alatt a Google új AI kutató-asszisztense https://aiforradalom.poltextlab.com/egy-evtizedes-kutatasi-problemat-oldott-meg-ket-nap-alatt-a-google-uj-ai-kutato-asszisztense/ 2025. 02. 25. Tue, 08:30:31 +0100 67b85f5f3444f068e429a154 poltextLAB robotújságíró Google A Google 2025. február 19-én bemutatta az AI co-scientist nevű, Gemini 2.0-ra épülő rendszert, amely a tudományos kutatók számára nyújt virtuális támogatást új hipotézisek kidolgozásában és kutatási javaslatok megfogalmazásában. Ez a többügynökös AI-rendszer nem csupán szakirodalmi összefoglalót vagy mélyreható elemzést készít, hanem eredeti tudományos hipotéziseket és kísérleti protokollokat is képes generálni, ezáltal felgyorsítva a tudományos felfedezések folyamatát.

A rendszert már sikeresen tesztelték a Stanford Egyetemen, a Houston Methodist kórházban és a londoni Imperial College-ban, ahol figyelemre méltó eredményeket értek el egyes betegségek kezelési lehetőségeinek kutatásában. Az Imperial College tudósai egy évtizedes kutatási problémát oldottak meg általa mindössze két nap alatt. José Penadés professzor, az Imperial College kutatója kiemelte, hogy az algoritmus képes volt töredéknyi idő alatt áttekinteni a rendelkezésre álló bizonyítékokat, elemezni a lehetőségeket, kérdéseket feltenni, kísérleteket tervezni, és javaslatot tenni ugyanarra a hipotézisre, amelyre évek fáradságos tudományos kutatásai révén jutottak. A májfibrózis (májhegesedés) kezelésére irányuló kísérletben a Google beszámolója szerint az AI co-scientist által ajánlott valamennyi terápiás módszer hatékonynak bizonyult - mindegyik megközelítés sikeresen gátolta a betegség kialakulásában szerepet játszó folyamatokat és ígéretes eredményeket mutatott a vizsgálatok során.

Az AI co-scientist nem a tudományos folyamat automatizálását, hanem a kutatók munkájának kiegészítését célozza, növelve a tudományos együttműködést. "Azt várjuk, hogy növelni fogja, nem pedig csökkenteni a tudományos együttműködést", nyilatkozta Vivek Natarajan, a Google kutatója. A Google elérhetővé teszi a rendszert kutatószervezetek számára egy Trusted Tester Program keretén belül, ahol a világ különböző pontjain működő kutatóintézetek jelentkezhetnek a programba, hogy teszteljék annak erősségeit és korlátait a tudomány és a biomedicina területén.

Források:

1.

Accelerating scientific breakthroughs with an AI co-scientist

2.

Reuters Logo
Google develops AI co-scientist to aid researchers Google has developed an AI tool to act as a virtual collaborator for biomedical scientists, helping them synthesize vast amounts of literature and generate novel hypotheses.

3.

Google AI co-scientist: Google builds AI ‘co-scientist’ tool based on Gemini 2.0 for biomedical scientists. Here’s what it can do - The Economic Times
After quantum breakthrough Willow, Google has now built AI co-scientist tool based on Gemini 2.0 to help biomedical scientists. This new artificial intelligence tool has been designed to help researchers study scientific phenomena more efficiently. Researchers interact with Googles AI co-scientist through a chatbot interface and users can customize the co-scientists output in various ways.

4.

Google’s ‘AI Co-Scientist’ Cracks Decade-Long Research Problem In Two Days
Built on Google’s Gemini AI assistant, the tool promises to make research faster and more efficient. But the company acknowledges the need for safeguards against misuse.
]]>
A Google válasza a piaci kihívásokra: Gemini 2.0 Flash Thinking https://aiforradalom.poltextlab.com/a-google-valasza-a-piaci-kihivasokra-gemini-2-0-flash-thinking/ 2025. 02. 24. Mon, 14:00:05 +0100 67b84c7a3444f068e429a0a1 poltextLAB robotújságíró DeepSeek A Google 2025. február 5-én jelentette be a Gemini 2.0 Flash Thinking Experimental modelljét, amely ingyenesen elérhető a Gemini alkalmazásban. Ez a fejlesztés jelentős előrelépést jelent a mesterséges intelligencia területén, mivel a modell képes lépésről lépésre lebontani a problémákat, erősítve ezzel érvelési képességeit és komplex feladatok megoldására való alkalmasságát.

A vállalat két változatban vezette be az új modellt: az alap Flash Thinking mellett megjelent egy alkalmazásokkal integrált verzió is, amely képes együttműködni olyan szolgáltatásokkal, mint a YouTube, a Google Kereső és a Google Térkép. A Gemini Advanced előfizetői pedig hozzáférést kapnak a Gemini 2.0 Pro Experimental változathoz, amely kifejezetten összetett feladatokra, kódolásra és matematikai problémák megoldására lett optimalizálva. Az új verzió jelentősen növeli az AI modellek hatékonyságát, miközben a felhasználók szélesebb körének biztosít elérhető árú megoldásokat.

A bejelentés különösen időszerű, hiszen a kínai DeepSeek AI startup jelentős piaci kihívást jelent az amerikai technológiai óriások számára. A Gemini 2.0 Flash Thinking bevezetése azt mutatja, hogy a Google aktívan reagál a piaci versenyre, miközben továbbra is az innováció élvonalában marad. A modell 2 millió tokenes kontextusablakkal rendelkezik, ami körülbelül 1,5 millió szó feldolgozását teszi lehetővé egyetlen promptban.

Források:

1.

Google launches new AI models and brings ‘thinking’ to Gemini | TechCrunch
Google has launched several new AI models, including Gemini 2.0 Pro Experimental, and brought a ‘reasoning’ model to its Gemini app.

2.

Access the latest 2.0 experimental models in the Gemini app.
Starting today, Gemini app users can try 2.0 Flash Thinking Experimental. It’s currently ranked as the world’s best model, and it’s available at no cost. Built on the sp…

3.

Gemini app adding 2.0 Pro and 2.0 Flash Thinking Experimental
Google is following the 2.0 Flash launch with new test models in the Gemini app: 2.0 Pro Experimental and 2.0 Flash Thinking Experimental.

4.

Google introduces new class of cheap AI models as cost concerns intensify

Google introduces new class of cheap AI models as cost concerns intensify

Alphabet's Google announced updates to its Gemini family of large language models, including a new product line with competitive pricing to low-cost AI models like that of Chinese rival DeepSeek.

]]>
HUN-REN Cloud GPU workshop: új távlatok az AI és a nyelvi modellek kutatásában https://aiforradalom.poltextlab.com/hun-ren-cloud-gpu-workshop-uj-tavlatok-az-ai-es-nyelvi-modellek-kutatasaban/ 2025. 02. 24. Mon, 08:30:25 +0100 67b5e24f1c6e962902375f62 poltextLAB robotújságíró HUN-REN Cloud

A mesterséges intelligencia fejlődésével egyre nagyobb az igény a hatékony és skálázható számítási kapacitásra. Erre a kihívásra reagálva a HUN-REN Cloud 2025. február 19-én online workshopot szervezett, amely bemutatta a kutatók számára, hogyan használhatják ki egyszerre több GPU erőforrást a felhőalapú infrastruktúrában.

A rendezvényen a HUN-REN SZTAKI szakértői, köztük Kacsuk Péter, Lovas Róbert, Emődi Márk és Bánfi Konrád, ismertették a Slurm Workload Manager működését és a GPU-alapú számítási erőforrások hatékony felhasználását. A poltextLAB csapata is részt vett az eseményen, hogy megismerje a lehetőségeket, amelyek a társadalomtudományi kutatásokban is alkalmazhatóak. Az esemény egyik legfontosabb témája a HUN-REN Cloud infrastruktúrájának frissítése volt, amely lehetővé teszi több GPU erőforrás egyidejű, intenzív használatát két különböző üzemmódban: valós idejű interaktív munkára és előre beállított futtatásokra. A rendszer alapját az IaaS (Infrastructure as a Service) és PaaS (Platform as a Service) közötti átállás képezi, amely hatékonyabb erőforrás-kihasználást biztosít.

Az előadások során bemutatták a SLURM (Simple Linux Utility for Resource Management) ütemező rendszer szerepét a GPU erőforrások elosztásában, amely a legnépszerűbb a linux alapú HPC-kben, valamint a Singularity konténer-alapú környezetet, amely lehetővé teszi az izolált és előre létrehozott környezet futtatását. Az új rendszer két fő job típust támogat: interaktív (Jupyter) módot maximum 7 napos futtatási idővel, és kötegelt (batch) módot maximum 24 órás futtatási idővel, lehetővé téve a kutatók számára, hogy maximálisan kihasználják a GPU kapacitásokat. A workshop során a résztvevők megismerhették a rendszer által biztosított 13 TB tárhelykapacitást, a felhasználónként elérhető 100 GB-os kvótát, valamint a készülő publikus dashboardot, amely valós idejű betekintést nyújt az erőforrások kihasználtságáról. A HUN-REN Cloud GPU kapacitásának optimalizálása komoly előrelépést jelenthet az AI-alapú társadalomtudományi kutatásokban, a felhőalapú számítási rendszerek fejlődésével a kutatók egyre gyorsabban és hatékonyabban dolgozhatnak a mesterséges intelligenciára épülő projekteken.

Források:

Hogyan használjunk egyszerre több GPU erőforrást a HUN-REN Cloudon? | HUN-REN Cloud
]]>
Fenntarthatóság kontra profit: AI szabályozási vita a világ nagyhatalmai között https://aiforradalom.poltextlab.com/fenntarthatosag-kontra-profit-ai-szabalyozasi-vita-a-vilag-nagyhatalmai-kozott/ 2025. 02. 21. Fri, 14:00:29 +0100 67b71a861c6e96290237616b poltextLAB robotújságíró fenntarthatóság A február 11-én Párizsban tartott AI Action Summit éles megosztottságot hozott felszínre a mesterséges intelligencia szabályozásában. Az Egyesült Államok és az Egyesült Királyság elutasította a Mesterséges intelligencia az emberekért és a bolygóért nyilatkozat aláírását, míg 61 ország – köztük Franciaország, Kína, India és Japán – csatlakozott a kezdeményezéshez. A nyilatkozat célja az AI fejlesztésének szabályozása a fenntarthatóság és társadalmi felelősségvállalás jegyében, amelyet az USA és az Egyesült Királyság gazdasági és innovációs aggályokra hivatkozva nem támogatott.

Az Inclusive and Sustainable Artificial Intelligence for People and the Planet nyilatkozat fő prioritásai közé tartozik az AI hozzáférhetőségének növelése a digitális egyenlőtlenségek csökkentése érdekében, valamint annak biztosítása, hogy az AI rendszerek nyíltak, inkluzívak, átláthatóak, etikusak, biztonságosak és megbízhatóak legyenek. Emellett hangsúlyozza az innováció előmozdítását, a piacok koncentrációjának elkerülését, a munkaerőpiacok pozitív alakítását és a fenntarthatóság biztosítását az emberek és a bolygó számára. A nyilatkozat aláírásával az országok elkötelezték magukat a nemzetközi együttműködés erősítése mellett az AI kormányzás területén.

A találkozó konkrét eredményei között szerepel egy, a Nemzetközi Energiaügynökséggel közösen létrehozandó megfigyelőközpont az AI energiahatásainak nyomon követésére, valamint egy hálózat létrehozása az AI munkaerőpiaci hatásainak vizsgálatára. Kate Crawford, a Dél-kaliforniai Egyetem kutatóprofesszora szerint az AI csúcstalálkozó szakadással végződött. Az AI fejlesztését sürgető csoport korlátlan terjeszkedést akar - több tőkét, energiát, magáninfrastruktúrát, szabályozás nélkül. Ezzel szemben a közérdeket képviselő országok és szervezetek a munkavállalói jogok védelmét, környezeti fenntarthatóságot, átlátható adatkezelést, biztonsági előírásokat és megfelelő felügyeletet szorgalmaznak.

Források:

1.

Statement on Inclusive and Sustainable Artificial Intelligence for People and the Planet.
Read the Statement.

2.

AI Action Summit: UK and US refuse to sign inclusive AI statement | Computer Weekly
The UK and US governments’ decisions not to sign a joint declaration has attracted strong criticism from a range of voices, especially in the context of key political figures calling for AI ‘red tape’ to be cut

3.

AI Action Summit: India, China, over 50 other countries sign declaration on ‘inclusive & sustainable AI’
India, China, the European Commission and over 50 countries have signed the statement on “Inclusive and Sustainable Artificial Intelligence (AI) for People and
]]>
Szingapúr új AI biztonsági irányelvekkel erősíti globális szerepét https://aiforradalom.poltextlab.com/szingapur-uj-ai-biztonsagi-iranyelvekkel-erositi-globalis-szerepet/ 2025. 02. 21. Fri, 08:30:26 +0100 67b707241c6e96290237612d poltextLAB robotújságíró Szingapúr Szingapúr átfogó mesterséges intelligencia (AI) irányítási kezdeményezéseket jelentett be 2025. február 11-én Párizsban, az AI Action Summit (AIAS) keretében. A Josephine Teo digitális fejlesztési és információs miniszter által ismertetett intézkedések célja az AI-alkalmazások biztonságának növelése mind a szingapúri, mind a globális felhasználók számára, reagálva az AI termékek és szolgáltatások határokat átívelő természetére.

A bejelentett kezdeményezések három fő pillérre épülnek: a Global AI Assurance Pilot, amely a generatív AI (GenAI) alkalmazások technikai tesztelésének globális legjobb gyakorlatait hivatott megalapozni; a Japánnal közösen készített Tesztelési Jelentés, amely 10 különböző nyelven (köztük kantoni, fárszi, szuahéli és telugu nyelveken) és 5 kárkategóriában vizsgálja a nagy nyelvi modellek (LLM-ek) biztonsági védelmeit; valamint a Singapore AI Safety Red Teaming Challenge Evaluation Report, amely során több mint 350 résztvevő 9 ázsiai-csendes-óceáni országból tesztelte 4 LLM (Aya, Claude, Llama, SEA-LION) kulturális elfogultságát nem angol nyelvű környezetben.

A kezdeményezések építenek a 2023 novemberi Bletchley Park-i és a 2024 májusi szöuli csúcstalálkozók eredményeire, és Szingapúr aktív szerepét demonstrálják a globális AI standardok alakításában. A program részeként Szingapúr csatlakozott az "Inclusive and Sustainable Artificial Intelligence for People and the Planet" vezetői nyilatkozathoz, megerősítve elkötelezettségét az átlátható, befogadó és elszámoltatható AI fejlesztés mellett, miközben az AI Verify Foundation és az IMDA vezetésével konkrét lépéseket tesz a harmadik feles AI értékelési piac fejlesztésére.

Forrás:

1.

Singapore Advances AI Governance with Global Safety Initiatives – OpenGov Asia

2.

Singapore Business Review Logo
Singapore AI Safety Initiatives
Singapore is introducing new AI governance policies for safe and ethical technology use.

3.

SG announces new AI Safety initiatives at the global AI Action Summit in France - Infocomm Media Development Authority
Singapore has introduced new AI governance initiatives, which bring together international partners on concrete actions that strengthen global AI trust and accountability.
]]>
Current AI: új, nonprofit AI kezdeményezés indul 400 millió dolláros támogatással https://aiforradalom.poltextlab.com/current-ai-uj-nonprofit-ai-kezdemenyezes-indul-400-millio-dollaros-tamogatassal/ 2025. 02. 20. Thu, 14:00:55 +0100 67b603251c6e9629023760be poltextLAB robotújságíró Franciaország

A Current AI, egy úttörő nonprofit mesterséges intelligencia kezdeményezés, 400 millió dolláros kezdeti támogatással indult el 2025. február 10-én a párizsi AI Action Summit-on. A projekt célja olyan AI fejlesztések támogatása, amelyek közvetlenül szolgálják a társadalmi érdekeket, különös tekintettel az egészségügyi és környezetvédelmi célokra.

A kezdeményezés mögött kilenc ország – köztük Franciaország, Németország, Kenya, Marokkó és Nigéria – áll, valamint olyan meghatározó technológiai vállalatok, mint a Google és a Salesforce. A Current AI alapítója, Martin Tisné, a Current AI alapítója szerint a projekt a következő öt évben összesen 2,5 milliárd dollárt kíván összegyűjteni. A program három fő területre összpontosít: minőségi adatkészletek hozzáférhetővé tétele, nyílt forráskódú infrastruktúra támogatása, és az AI társadalmi-környezeti hatásainak mérése. Ezt támasztja alá a kezdeményezést támogató vezérigazgatók és szakértők nyílt levele is, melyben kijelentik, hogy a társadalomnak kell irányítania az AI fejlődését, hogy a legjobb eredményeket érhessük el.

Az indulást Emmanuel Macron francia elnök jelentős bejelentése kísérte, aki ugyanezen a napon 109 milliárd eurós AI befektetési csomagot jelentett be Franciaország számára. A Current AI célja, hogy olyan specifikus projekteket támogasson, mint például a Parkinson-kór kutatása vagy a hosszú COVID kezelésének fejlesztése, mindezt kisebb, környezetbarátabb AI modellek segítségével.

Forrás:

1.

Google-backed public interest AI partnership launches with $400M+ for open ecosystem building | TechCrunch
Make room for yet another partnership on AI. Current AI, a “public interest” initiative focused on fostering and steering development of artificial

2.

Tech titans and government leaders gather in Paris for landmark AI summit
Political and tech leaders convene at the Grand Palais in Paris on Monday for a summit on artificial intelligence co-hosted by French President Emmanuel Macron and Indian Prime Minister Narendra Modi.…

3.

Reid Hoffman, Clem Delangue among tech entrepreneurs and VCs calling for AI ‘public goods’
Ten prominent tech entrepreneurs, investors release open letter ahead of Paris AI summit.
]]>
A Google stratégiai AI-partnerséget kötött Lengyelországgal https://aiforradalom.poltextlab.com/a-google-strategiai-ai-partnerseget-kotott-lengyelorszaggal/ 2025. 02. 20. Thu, 10:08:15 +0100 67b5f9091c6e962902375fe8 poltextLAB robotújságíró Google
A Google és a lengyel kormány 2025. február 13-án stratégiai partnerségi megállapodást írt alá a mesterséges intelligencia fejlesztésére, amely elsősorban az energetika és kiberbiztonság területére összpontosít. A megállapodás része egy 5 millió dolláros képzési program, amely egymillió lengyel állampolgár digitális készségeinek fejlesztését célozza az elkövetkező öt évben.

A Google már jelenleg is jelentős szereplő Lengyelországban: a vállalat varsói kampusza 2015-ben nyílt meg, és mára a cég legnagyobb mérnöki központjává nőtte ki magát több mint 2000 alkalmazottal. Donald Tusk miniszterelnök és Sundar Pichai, a Google vezérigazgatója közös sajtótájékoztatóján elhangzott, hogy a generatív AI várhatóan 8%-kal növelheti Lengyelország GDP-jét a következő évtizedben. A technológiai óriás korábban, 2021-ben már 2 milliárd dolláros felhőalapú adatközpontot nyitott Varsóban azzal a céllal, hogy a várost Európa felhő fővárosává tegye. Pichai szerint Lengyelország vezető szerepe, ambíciói és tehetségei új pozíciót biztosítottak számára az európai innovációban.

A mostani megállapodás újabb mérföldkő a lengyel technológiai szektor fejlődésében. A Lengyel Fejlesztési Alappal (PFR) aláírt egyetértési memorandum keretrendszert biztosít a Google további befektetéseihez az országban. Tusk miniszterelnök bejelentette, hogy a következő héten a Microsoft is hasonló együttműködési megállapodást ír alá Lengyelországgal, ami tovább erősíti az ország pozícióját az európai technológiai innovációban. Brad Smith, a Microsoft alelnöke korábban úgy nyilatkozott, hogy Lengyelországnak lehetősége van arra, hogy a mesterséges intelligencia fejlesztésének európai központjává váljon.

Források:

1.

Google announces AI partnership with Poland

2.

Google hub in Poland to develop AI use in energy and cybersecurity sectors
Google and Poland have signed a memorandum for developing the use of artificial intelligence in the country’s energy, cybersecurity and other sectors.

3.

Reuters Logo
Google says it forms AI partnership with Poland
Google has signed a memorandum of understanding with Poland to accelerate the adoption of Artificial Intelligence, aiming to drive economic growth and transform sectors such as cybersecurity, health, and energy.
]]>
A mesterséges intelligencia dominálta a 2025-ös dubaji Világkormányzati Csúcstalálkozót https://aiforradalom.poltextlab.com/a-mesterseges-intelligencia-dominalta-a-2025-os-dubaji-vilagkormanyzati-csucstalalkozot/ 2025. 02. 19. Wed, 14:00:57 +0100 67b480ef5695fbaed96cbccc poltextLAB robotújságíró OpenAI

A 12. Világkormányzati Csúcstalálkozó (World Governments Summit 2025) február 11-13. között került megrendezésre Dubajban, ahol a mesterséges intelligencia (AI) került a középpontba. A rendezvényen több mint 30 állam- és kormányfő, 140 kormánydelegáció, 400 miniszter, továbbá a Google, IBM és HP vezérigazgatói vettek részt, akik az AI kormányzati szerepéről és jövőbeli hatásairól tanácskoztak.

A csúcstalálkozón Sundar Pichai, a Google vezérigazgatója kiemelte a Gemini modell jelentőségét és az AI hatékonyságnövelő szerepét, míg Kristalina Georgieva, az IMF vezérigazgatója rámutatott az AI-adaptáció terén mutatkozó globális különbségekre. Omar Sultan Al Olama, az Egyesült Arab Emírségek AI-ért felelős államminisztere hangsúlyozta: Inkluzív víziót szeretnének kialakítani arról, hogyan fog kinézni az AI a világ számára, és be szeretnék vonni azokat a hangokat is, amelyek nem feltétlenül szerepelnek minden más beszélgetésben világszerte.

Az eseményen konkrét AI-alkalmazási területeket is megvitattak, különös tekintettel az egészségügyre és a közszférára. Mike Sicilla, az Oracle ügyvezető alelnöke szerint az elkövetkező években hihetetlen áttörés várható az egészségügyi szektorban az AI alkalmazása terén, mind a fertőző betegségek nyomon követésében, mind a személyre szabott orvoslásban. A szakértők emellett kiemelték az AI-szabályozás fontosságát, különösen a nyílt forráskódú fejlesztések területén, hogy fenntartható maradjon az AI-fejlődés, miközben megfelelő jogi keretek védik a felhasználókat.

Forrás:

1.

AI topping agenda at World Governments Summit in Dubai
Artificial Intelligence (AI) has emerged as one of the key topics being discussed at the 2025 World Governments Summit in Dubai, where heads of state, government delegations and experts from around the world are gathered.

2.

World Government Summit | World Governments Summit 2025
Shaping Future Governments

3.

Sundar Pichai Highlights AI’s Growing Influence at WGS 2025 - TECHx Media
#post_excerptGoogle and Alphabet CEO Sundar Pichai shared key insights on artificial intelligence (AI), quantum computing, and the evolving digital landscape during a discussion with Omar Sultan Al Olama, UAE Minister of State for Artificial Intelligence at the World Governments Summit (WGS) 2025 in Dubai.
]]>
Elon Musk 97,4 milliárd dolláros ajánlatot tett az OpenAI megszerzésére https://aiforradalom.poltextlab.com/elon-musk-97-4-milliard-dollaros-ajanlatot-tett-az-openai-megszerzesere/ 2025. 02. 19. Wed, 08:30:06 +0100 67b47cdb5695fbaed96cbcb2 poltextLAB robotújságíró OpenAI
Az Elon Musk által vezetett befektetői csoport 2025. február 10-én 97,4 milliárd dolláros ajánlatot tett az OpenAI nonprofit szervezetének megvásárlására. Az ajánlat alig két nappal később újabb fordulatot vett, amikor Musk egy bírósági beadványban jelezte: visszavonja azt, ha az OpenAI leállítja profitorientált átalakulását és megőrzi eredeti küldetését.

A felvásárlási kísérlet mögött hosszú konfliktus húzódik: Musk 2018-ban kivált az általa 2015-ben társalapítóként létrehozott OpenAI-ból, miután – egyes feltételezések szerint – nem sikerült meggyőznie a többi vezetőt, hogy őt nevezzék ki a profitorientált OpenAI entitás élére, vagy egyesítsék a vállalatot a Teslával. Az OpenAI vezérigazgatója, Sam Altman az eredeti ajánlatra az X platformon keresztül reagált, azt mondva: "Kösz, nem. De megvesszük a Twittert 9,74 milliárd dollárért, ha szeretnéd." Két nappal később, február 12-én Musk ügyvédei az észak-kaliforniai kerületi bírósághoz benyújtott dokumentumokban már azt közölték, hogy visszavonják az ajánlatot, amennyiben az OpenAI leállítja profitorientált átalakulását és megőrzi nonprofit küldetését.

Az időzítés különösen jelentős, mivel az OpenAI jelenleg egy akár 40 milliárd dolláros tőkebevonási körben vesz részt a SoftBank vezetésével, amely a vállalat értékelését akár 300 milliárd dollárra is növelheti. Ezáltal az OpenAI a ByteDance és Elon Musk saját SpaceX vállalata mellett az egyik legértékesebb magáncéggé válhat. Az OpenAI jogi képviselője, Andy Nussbaum elutasította Musk eredeti, 97,4 milliárd dolláros ajánlatát, egyértelművé téve, hogy a nonprofit szervezet nem eladó. Az OpenAI ügyvédei szerint Musk lépése egy versenytárs gyengítésére irányuló szabálytalan ajánlat, amely nem a vállalat érdekeit szolgálja. A helyzetet tovább bonyolítja, hogy az OpenAI 2019-ben egy hibrid struktúrát hozott létre, amelyben a nonprofit szervezet maradt az irányító szerepben, miközben egy profitorientált leányvállalatot, az OpenAI LP-t is megalapították, hogy tőkét vonhassanak be a mesterséges intelligencia fejlesztéséhez. Jelenleg a vállalat egy újabb átalakulást tervez, amelynek részeként profitorientált ágát közhasznú társasággá alakítaná át, lehetővé téve a további befektetések bevonását. Musk ezt az átalakulást peres úton próbálja megakadályozni, mivel álláspontja szerint az OpenAI ezzel végleg eltávolodna az eredeti nonprofit küldetésétől.

Források:

1.

Elon Musk-led team submits $97.4B bid for OpenAI | TechCrunch
A team of investors led by Elon Musk submitted a $97.6 billion bid to purchase OpenAI on Monday. The news comes by way of Musk’s lawyer, Marc Toberoff,

2.

Musk-led group of investors submit unsolicited bid of $97.4B to take over OpenAI: report
Elon Musk and a group of investors have submitted an unsolicited bid of $97.4 billion to take control of the artificial intelligence company behind ChatGPT, OpenAI.

3.

Elon Musk
Elon Musk-Led Group Makes $97.4 Billion Bid for OpenAI Elon Musk and a consortium of investors have offered $97.4 billion to acquire OpenAI, aiming to steer the company back to its original mission of open-source AI development.

4.

Elon Musk will withdraw bid for OpenAI’s nonprofit if its board agrees to terms | TechCrunch
A lawyer for Elon Musk said the billionaire will withdraw his bid for OpenAI’s nonprofit if OpenAI’s board of directors agree to terms.
]]>
Az EU visszalép három technológiai szabályozástól https://aiforradalom.poltextlab.com/az-eu-visszalep-harom-kulcsfontossagu-technologiai-szabalyozastol/ 2025. 02. 18. Tue, 14:00:34 +0100 67b342c65695fbaed96cbc68 poltextLAB robotújságíró EU Az Európai Bizottság 2025. február 12-én bejelentette három jelentős technológiai szabályozástervezet visszavonását, köztük a szabványos alapvető szabadalmakra (SEP), a mesterséges intelligencia felelősségre és a fogyasztói adatvédelemre vonatkozó javaslatokat. A döntés mögött az EU tagállamok és jogalkotók között fennálló nézeteltérések, valamint az intenzív ipari lobbi állnak.

A visszavont javaslatok között szerepel a két évvel ezelőtt előterjesztett szabványos alapvető szabadalmakra vonatkozó szabályozás, amely a Nokia, Ericsson és más szabadalomtulajdonosok, illetve az Apple, Google és autógyártók közötti jogdíjvitákat hivatott rendezni. Az EU végrehajtó testülete emellett elvetette a 2022-ben javasolt AI Felelősségi Irányelvet, amely lehetővé tette volna a fogyasztók kártérítési igényét az AI technológiák hibái miatt, valamint a 2017-ből származó eprivacy rendeletet is, amely a WhatsApp és Skype szolgáltatásokra szigorúbb adatvédelmi szabályokat írt volna elő. Henna Virkkunen EU digitális biztos a párizsi AI csúcstalálkozón kijelentette: az EU a mesterséges intelligenciába történő beruházások ösztönzése érdekében lazít a technológiai szabályozáson, nem pedig az amerikai Big Tech cégek és a Trump-adminisztráció nyomására.

A Fair Standards Alliance, amelynek tagjai között szerepel a BMW, Tesla, Google és Amazon, döbbenetét fejezte ki a Bizottság döntése miatt, míg a Nokia üdvözölte a lépést, mivel szerintük a szabályozás negatív hatással lett volna a globális innovációs ökoszisztémára. A visszavonások ellenére az EU továbbra is elkötelezett marad a már elfogadott digitális szabályozások, mint például a Digital Services Act (DSA) és a Digital Markets Act (DMA) végrehajtása mellett.

Források:

1.

Tracking Recent Statements on the Enforcement of EU Tech Laws | TechPolicy.Press
Europe’s “super-regulator” status has led to conflict with US officials over its tech laws.

2.

European Commission Withdraws ePrivacy Regulation and AI Liability Directive Proposals

3.

Reuters Logo
EU ditches plans to regulate tech patents, AI liability, online privacy The European Commission has scrapped draft rules regulating technology patents, AI, and consumer privacy on messaging apps, citing a lack of expected approval from EU lawmakers and member countries.
]]>
A Thomson Reuters AI szerzői jogi pert nyert a ROSS Intelligence ellen https://aiforradalom.poltextlab.com/a-thomson-reuters-ai-szerzoi-jogi-pert-nyert-a-ross-intelligence-ellen/ 2025. 02. 18. Tue, 08:30:48 +0100 67b340285695fbaed96cbc55 poltextLAB robotújságíró szerzői jog A Thomson Reuters jelentős győzelmet aratott egy mérföldkőnek számító szerzői jogi perben 2025. február 12-én, amikor a Delaware-i kerületi bíróság elutasította a ROSS Intelligence védekezését a jogosulatlan AI-adathasználat ügyében.

A 2020-ban indított per középpontjában az a kérdés állt, hogy a ROSS Intelligence jogszerűen használhatta-e fel a Thomson Reuters Westlaw platformjának tartalmát saját AI alapú jogi keresőszolgáltatásának fejlesztéséhez. A Stephanos Bibas bíró által hozott döntés megállapította, hogy a ROSS Intelligence nem hivatkozhatott a méltányos használat (fair use) doktrínára, amikor a Westlaw jogi platformról származó anyagokat használta fel saját AI modelljének betanításához. A bíróság összesen 2243 Westlaw jogi összefoglaló jogosulatlan felhasználását állapította meg, kiemelve, hogy még a szó szerinti idézetek is kreatív válogatás eredményei, ahogyan a bíró fogalmazott: egy szobrász is a márványból való kivágással alkotja meg szobrát.

A bíróság négy tényezőt vizsgált a méltányos használat megítélésénél, melyek közül a negyedik bizonyult döntő jelentőségűnek: ez a szerzői joggal védett mű potenciális piacára gyakorolt hatást elemzi. A bíró megállapította, hogy a ROSS Intelligence termékének célja a Westlaw-val való közvetlen piaci verseny volt, ráadásul a jogosulatlan felhasználás korlátozta a Thomson Reuters azon lehetőségét, hogy a Westlaw összefoglalókat AI tanítóadatként értékesítse más feleknek. A bíróság hangsúlyozta: bár a négy tényezőből kettő a ROSS Intelligence javára szólt, a piaci hatás vizsgálata kiemelt súllyal esett latba, és ez egyértelműen a Thomson Reuters felé billentette a mérleget.

Az ítélet jelentős következményekkel járhat a folyamatban lévő AI szerzői jogi perekre nézve, különösen a méltányos használat megítélésének szempontjából. Az ítélet egyértelművé tette, hogy a versenytársak közötti közvetlen másolás, még ha az AI fejlesztés céljából történik is, nem élvez védelmet a szerzői jogi törvény alapján, ha az károsan befolyásolja az eredeti mű tulajdonosának piaci lehetőségeit vagy potenciális licencelési bevételeit.

Források:

An Early Win for Copyright Owners in AI Cases as Court Rejects Fair Use Defense
In the closely watched Thomson Reuters v. ROSS Intelligence case, a federal judge has ruled that an AI developer’s use of copyrighted material was not fair use as a matter of law. While the AI in question had some differences from the generative AI models that have led to extensive litigation around copyright and fair use, and involved direct competitors building similar products, the decision offers some insight into how courts will evaluate AI training data going forward.
Thomson Reuters scores early win in AI copyright battles in the US
Thomson Reuters has won an early battle in court over the question of fair use in artificial intelligence-related copyright cases.
Thomson Reuters had the first big win in an AI copyright case. It doesn’t mean a cakewalk for other publishers: experts
Legal experts said there are key differences in Thomson Reuters’ case against Ross Intelligence and other major AI-related copyright litigation.
]]>
Párizsi AI-csúcs: befektetések, fenntarthatóság és nemzetközi összefogás https://aiforradalom.poltextlab.com/parizsi-ai-csucs-befektetesek-fenntarthatosag-es-nemzetkozi-osszefogas/ 2025. 02. 17. Mon, 14:00:43 +0100 67b2e7097fbe362a3bec0500 poltextLAB robotújságíró Franciaország A francia fővárosban 2025. február 10–11. között zajlott kétnapos mesterséges intelligencia csúcstalálkozón közel száz ország és több mint ezer érdekelt fél vett részt. Az eseményen Emmanuel Macron francia elnök bejelentette az ország 109 milliárd eurós AI-befektetési tervét. A Narendra Modi indiai miniszterelnökkel közösen szervezett találkozón az Egyesült Államok alelnöke, JD Vance és Kína miniszterelnök-helyettese, Zhang Guoqing is jelen volt, jelezve a technológiai verseny globális jelentőségét.

A csúcstalálkozó egyik legjelentősebb eredménye a "Current AI" kezdeményezés elindítása volt, amely 400 millió dolláros kezdeti befektetéssel indult, többek között a francia kormány, a Google és a Salesforce támogatásával. A program célja az AI-kutatás és -fejlesztés előmozdítása, különös tekintettel a biztonságos és etikus AI-rendszerek kialakítására, valamint a nyílt forráskódú projektek és tehetséggondozási kezdeményezések támogatása. Ezen kívül bemutatták az első Nemzetközi AI Biztonsági Jelentést, amelyet 96 szakértő készített 30 ország képviseletében, valamint az OECD, az EU és az ENSZ szakembereinek közreműködésével. Fei-Fei Li, a Stanford Egyetem kutatója nyitóbeszédében arra figyelmeztetett, hogy az AI fejlődését hátráltathatja, ha a kíváncsiság vezérelte kutatás, a tehetséges oktatók és kutatók, a nyílt forráskódú fejlesztések és a különböző tudományterületek közötti együttműködések lehetőségei csupán néhány nagyvállalat kezében összpontosulnak.

Egy másik jelentős eredmény a Környezetileg Fenntartható Mesterséges Intelligencia Koalíció megalakulása volt, amelyhez 91 tag csatlakozott, köztük 37 technológiai vállalat és 10 ország. A résztvevők elfogadták az „Inkluzív és Fenntartható Mesterséges Intelligencia az Emberekért és a Bolygóért” című nyilatkozatot, azonban az Egyesült Államok és az Egyesült Királyság nem csatlakozott az aláírókhoz. Érdemes megjegyezni, hogy a csúcstalálkozó előtt, 2024 októberében az OpenAI bejelentette első kontinentális európai irodájának megnyitását Párizsban, kiemelve Franciaország szerepét az AI innováció és technológiai vezetés terén. A következő AI-csúcstalálkozót India fogja megrendezni.

Források:

High-stakes AI summit begins in Paris as countries compete for influence | The National
Industry leaders express concern over how to regulate tech
Macron uses deepfake videos of himself to promote Paris AI summit
Next week, Macron will host the AI Action Summit in Paris, gathering heads of state and government.
AI pioneer Fei-Fei Li warns policymakers not to let sci-fi sensationalism shape AI rules | TechCrunch
Fei-Fei Li, the Stanford researcher who also founded World Labs, was invited to the Grand Palais in Paris on Monday to give the opening speech at the
What were the outcomes of the Paris AI Action Summit?
Building on the foundations laid at Bletchley Park and Seoul, the Paris AI Action Summit was a gathering of nearly a hundred countries and over a thousand stakeholders from the private sector and civil society, Discussions at the official Summit, held over two days, focused on three critical areas: accelerating global AI development, managing the AI transition while protecting individual freedoms, and aligning AI with humanist values.
]]>
A BME 2025. február 25-én az 5G és a mesterséges intelligencia ipari alkalmazásairól tart workshopot https://aiforradalom.poltextlab.com/a-bme-2025-februar-25-en-az-5g-es-a-mesterseges-intelligencia-ipari-alkalmazasairol-tart-workshopot/ 2025. 02. 17. Mon, 08:30:58 +0100 67af22b57fbe362a3bec0130 poltextLAB robotújságíró 5G Az Európai Unió által társfinanszírozott AI EDIH projekt keretében a Budapesti Műszaki és Gazdaságtudományi Egyetem 2025. február 25-én átfogó szakmai workshopot szervez az 5G és a mesterséges intelligencia ipari alkalmazásairól. A rendezvény célja a vállalkozások digitális transzformációjának elősegítése, különös tekintettel a startupokra, kkv-kra és small mid-cap vállalkozásokra.

A BME VIK 5G Laborban megrendezésre kerülő workshop programja átfogó képet nyújt az 5G és MI legújabb fejlesztéseiről. A 13:30-kor kezdődő eseményen bemutatják az AI EDIH projekt szolgáltatásait, majd előadások hangzanak el a mobil evolúcióról, az MI 5G-s alkalmazásairól és az 5G Mobile Edge Computing lehetőségeiről. A szakmai program gyakorlati demonstrációkkal zárul, ahol a résztvevők testközelből ismerhetik meg a BME privát 5G hálózatát és annak konkrét ipari alkalmazásait. Az eseménynek a BME "Q" épületének B szárnya ad otthont (Magyar tudósok körútja 2., 203-as terem).

Az AI EDIH, amely az EU és a magyar állam társfinanszírozásával működik, széles körű szolgáltatási portfóliót kínál partnereinek: a szakmai képzésektől kezdve az üzletfejlesztési tanácsadáson át a technológia-transzferig.A workshop egyedülálló lehetőséget kínál: a részt vevő vállalkozások csatlakozhatnak az AI EDIH projekthez, így térítésmentesen vehetik igénybe többek között az oktatást, a szakmai tanácsadást és az innovációs szolgáltatásokat. A helyszínen személyesen egyeztethetnek az AI EDIH szolgáltatásairól, valamint az egyetemmel való KFI együttműködésről az 5G és a mesterséges intelligencia területén.

A rendezvényen való részvétel térítésmentes, de regisztrációhoz kötött:

Időpont: 2025. február 25., 13:30 - 16:30 óra

Helyszín: BME „Q” épület B szárny 2. emelet 203. (1117 Budapest, Magyar tudósok krt. 2.)

A workshop programja és további információk:

]]>
Generatív mesterséges intelligencia: csak hype vagy valóság? https://aiforradalom.poltextlab.com/a-generativ-mesterseges-intelligencia-genai-fejlodese-es-hatasa/ 2025. 02. 16. Sun, 19:09:36 +0100 67b2210e7fbe362a3bec04b8 Sebők Miklós - Kiss Rebeka GenAI tankönyv A Gartner 2024-es technológiai hype-ciklusa – amely a technológiai innovációk várakozási dinamikáját öt szakaszban írja le – azt mutatja, hogy a generatív MI túljutott a túlzott elvárások csúcsán. Ugyanakkor az azzal kapcsolatos hype továbbra is tart (lásd a lenti ábrát), és még mindig rendelkezik azzal a potenciállal, hogy átalakító technológiává váljon, amely forradalmasíthatja a tartalomkeresést, -készítést, az emberi munka automatizálását, valamint a vásárlói és munkavállalói élményt (Jaffri 2024). Bár a Gartner hype-ciklusa a technológiai várakozások dinamikáját mutatja be, a technológiai adaptáció S-görbéje (diffúziós modell) szorosan kapcsolódik hozzá, hiszen együtt tárják fel az innovációk fejlődési és elterjedési folyamatait (Shi & Herniman 2023). Míg a hype-ciklus elsősorban az elvárások és a társadalmi figyelem alakulását követi nyomon, addig az S-görbe a technológiai érettséget ábrázolja és a tényleges adaptáció ütemét, vagyis azt, hogy a technológia hogyan válik a szélesebb közönség számára is elterjedtté és produktívvá (Dedehayir & Steinert 2016, 2). A két modell közötti kapcsolat kulcsfontosságú: a hype-ciklus túlzott várakozásainak csúcsa és a kiábrándulási gödre egyfajta előfutára annak a lassú, majd egyre gyorsuló adaptációnak, amely az S-görbe korai szakaszait jellemzi.

Technológiai fejlődés és adaptáció: a generatív MI helye a mesterséges intelligencia hype-ciklusában (Forrás: A szerzők saját szerkesztése – Gartner 2024 alapján)

A generatív MI jelenleg a hype-ciklus (Gartner 2024) kiábrándulási szakaszában és az S-görbe korai adaptálói fázisában helyezkedik el, ahol a gyakorlati alkalmazások még szórványosak, de a technológia értéke már jelentősen körvonalazódik. A várakozások konszolidációjával és a bizonyított produktivitási előnyökkel a technológia az S-görbe meredek növekedési szakaszába léphet, elősegítve a többségi elfogadást és annak társadalmi-gazdasági hatásait. Ma már alig telik el nap kisebb-nagyobb technikai áttörések nélkül olyan területeken, mint az MI-chipek, a nagy nyelvi modellek vagy a videógenerálás; egyik ígéretes MI startup cég bejelentését követi a másik. Ugyanakkor a 2000-es évek eleji dotcom lufi kipukkanása óta (Goodnight & Green 2010) a befektetők sokkal körültekintőbben közelítenek a feltörekvő technológiákhoz – nem véletlenül, hiszen a legtöbb ilyen innováció nem bizonyult időtállónak (Maheshwari 2024). A generatív MI körüli lelkesedés a vállalati szférát is lázba hozta, de ha a felszín alá nézünk, kiderül, hogy a gyakorlati eredmények meglehetősen szerények. A legtöbb cég kis csapatokkal kísérletezik, proof-of-concept projekteket indít, míg a nagyobb vállalatok tanácsadók hadát vonják be az első generációs alkalmazások fejlesztéséhez. Ezeknek a kísérleti projekteknek viszont csak nagyon kis része jut el a tényleges gyártásig, így felvetődik a kérdés, hogy a generatív MI iránti lelkesedés csupán egy újabb hype vagy valódi érték áll a növekedés mögött (Maheshwari 2024).

A generatív MI körüli jelenlegi fellendülés és a 2000-es évek eleji dotcom lufi közötti különbséget jól érzékelteti a Cisco és az NVIDIA példája (Hodges 2024). Míg a dotcom korszakot a spekuláció hajtotta, és a Cisco árfolyam-nyereség hányadosa (Price-to-Earnings, P/E ratio) a reális értéket meghaladva 132-szeres csúcsot ért el a korábbi 37-szeres ötéves átlaghoz képest, addig a jelenlegi MI-fellendülés stabilabb alapokon nyugszik. Az NVIDIA esetében a P/E mutató a 2019-2023-as 40-szeres átlaghoz képest jelenleg 39-szeres, ami a befektetők körültekintőbb megközelítésére utal (Coatue 2024). Ez a kiegyensúlyozottság arra enged következtetni, hogy az MI-boom kevésbé épül felfújt várakozásokra, sokkal inkább a technológia gyakorlati alkalmazásaira és kézzelfogható előnyeire helyezi a hangsúlyt (lásd az alábbi ábrát).

A generatív MI nem egy tech buborék, ami leereszt (Forrás: A szerzők saját szerkesztése - Coatue 2024 alapján)

A Gartner (Gartner 2024) előrejelzése szerint 2025 végéig a generatív MI projektek közel 30%-a megreked a proof-of-concept fázis után, elsősorban a gyenge adatminőség, a magas költségek és a tisztázatlan üzleti érték miatt (Aaron 2024). A technológia hosszú távú sikerének záloga tehát a felhasználási területek célzott priorizálása és a kockázatok hatékony kezelése. Noha a korai alkalmazók már jelentős üzleti előnyöket – például bevételnövekedést és költségcsökkentést – realizáltak, a generatív MI valódi potenciálja csak a hype-ciklus kiábrándulási szakaszának átlépésével válhat fenntarthatóvá.

Felhasznált irodalom:

1. Coatue. 2024. ‘8th Annual East Meets West (EMW) Conference’. https://www.coatue.com/blog/company-update/coatues-2024-emw-conference^ Vissza


2. Dedehayir, Ozgur, and Martin Steinert. 2016. ‘The Hype Cycle Model: A Review and Future Directions’. Technological Forecasting and Social Change 108 (July): 28–41. doi:10.1016/j.techfore.2016.04.005^ Vissza


3. Gartner. 2024. ‘Hype Cycle for Artificial Intelligence, 2024’. https://www.gartner.com/en/documents/5505695^ Vissza


4. Goodnight, G. Thomas, and Sandy Green. 2010. ‘Rhetoric, Risk, and Markets: The Dot-Com Bubble’. Quarterly Journal of Speech 96 (2): 115–40. doi:10.1080/00335631003796669^ Vissza


5. Hodges, Paul. 2024. ‘Stock Market Bubbles Follow the Same Pattern, as Nvidia and Cisco Confirm’. https://www.icis.com/chemicals-and-the-economy/2024/06/stock-market-bubbles-follow-the-same-pattern-as-nvidia-and-cisco-confirm/^ Vissza


6. Jaffri, Afraz. 2024. ‘Explore Beyond GenAI on the 2024 Hype Cycle for Artificial Intelligence’. Gartner. https://www.gartner.com/en/articles/hype-cycle-for-artificial-intelligence^ Vissza


7. Maheshwari, Archit. 2024. ‘Is GenAI Hype Dying? – Why Now Is the Best Time to Build’. Artefact. https://www.artefact.com/blog/is-genai-hype-dying-why-now-is-the-best-time-to-build/^ Vissza


8. Shi, Yuwei, and John Herniman. 2023. ‘The Role of Expectation in Innovation Evolution: Exploring Hype Cycles’. Technovation 119 (102459): 1–10. doi:10.1016/j.technovation.2022.102459^ Vissza


9. Tan, Aaron. 2024. ‘Nearly a Third of GenAI Projects to Be Dropped after PoC’. https://www.computerweekly.com/news/366599232/Nearly-a-third-of-GenAI-projects-to-be-dropped-after-PoC^ Vissza


]]>
A generatív mesterséges intelligencia fejlődése https://aiforradalom.poltextlab.com/a-generativ-mesterseges-intelligencia-fejlodese/ 2025. 02. 16. Sun, 15:19:37 +0100 67b1ea777fbe362a3bec01a0 Sebők Miklós - Kiss Rebeka GenAI tankönyv A generatív mesterséges intelligencia (GenAI) fogalma már évek óta használatos, de csak a 2010-es évek közepén-végén vált széles körben ismertté, az MI fejlődése ekkor jelentős mérföldköveket ért el, amelyek alapjaiban változtatták meg a technológia alkalmazási lehetőségeit. Az évtized elején a gépi tanulás (Machine Learning, ML) és a mesterséges neurális hálózatok (Artificial Neural Network, ANN) terén bekövetkezett áttörések (LeCun, Bengio, & Hinton 2015) új távlatokat nyitottak a számítógépes látás (Computer Vision) (Krizhevsky, Sutskever, & Hinton 2013) és a természetesnyelv-feldolgozás (Natural Language Processing, NLP) (Vaswani et al. 2017) számára. Bill Gates, a Microsoft alapítója szerint ezek az eszközök a legfontosabb technológiai előrelépést jelentik a grafikus felhasználói felület 1980-as megjelenése óta (Gates 2023).

Az áttörés egyik első mérföldköve Ian Goodfellow 2014-ben bemutatott generatív versengő hálózata (Goodfellow et al. 2014), amely lehetővé tette, hogy a meglévő mintákból kiindulva a modellek új adatokat generáljanak, például valósághű képeket. 2017-ben a Google kutatói Ashish Vaswani (2017) vezetésével bemutatták a Transzformátor architektúrát (Transformers), amely alapvetően alakította át a természetesnyelv-feldolgozás és a generatív technológiák világát. A transzformátor, amely önfigyelem (attention) mechanizmusokra épül, megszüntette a korábbi rekurrens neurális hálózatok (Recurrent neural networks, RNN, Mikolov et al. 2013 korlátait, és hatékonyabbá, gyorsabbá tette az információk feldolgozását és előállítását. Ez az innováció képezte alapját a generatív nyelvi modellek, például a GPT-sorozat későbbi fejlődésének.

2018-ban az OpenAI bemutatta a generatív előképzett transzformátort (Generative Pre-trained Transformer, GPT), egy olyan nyelvi modellt, amely rendkívül kiterjedt és sokrétű szöveges adatállományon történő tanulással képes volt bonyolult nyelvi struktúrák és mintázatok felismerésére, valamint koherens, új szövegek létrehozására (Radford et al. 2018). Ezt a mérföldkőnek számító fejlesztést 2019-ben a GPT-2 modell követte, amely már több milliárd paraméterrel rendelkezett és olyan kifinomult szövegek generálására volt képes, amelyek szinte megkülönböztethetetlenek az emberi kéz által alkotott tartalmaktól (Radford et al. 2019).

A generatív MI technológiák a 2020-as évektől váltak igazán széles körben elérhetővé, meghatározva az MI gyakorlati alkalmazásainak új korszakát. 2022 augusztusában bemutatták a Stable Diffusiont, amely szöveges leírások alapján képes valósághű és kreatív képek generálására (Rombach et al. 2022), illetve 2022 novemberében megjelent a ChatGPT, egy interaktív nyelvi modell, amely valós idejű kommunikációra képes, szöveges válaszokat generálva a felhasználók kérdéseire vagy utasításaira (OpenAI 2022). A chatbot természetesnyelv-feldolgozási képességei lehetővé teszik, hogy összetett kérdésekre adjon választ, kreatív szövegeket hozzon létre vagy kódokat generáljon, ezzel forradalmasítva a generatív MI alkalmazását. (A generatív MI fejlődésének főbb mérföldköveit az alábbi ábra foglalja össze.)

A generatív MI fejlődése: fontosabb mérföldkövek és áttörések (Forrás: A szerzők saját szerkesztése)

Az OpenAI GPT-4 modelljének megjelenése (OpenAI 2023a) és a hozzá kapcsolódó új funkciók – például a böngészőpluginok (OpenAI 2023b) és harmadik felek által fejlesztett kiegészítők (custom GPT) – tovább bővítették a generatív MI alkalmazási lehetőségeit. A ChatGPT az egyik legdinamikusabban fejlődő fogyasztói alkalmazássá vált, mindössze 5 nappal a 2022 novemberi indulása után 1 millió felhasználót szerzett (Brockman 2022). A legfrissebb, 2024. decemberi adatok szerint pedig már heti 300 millió aktív felhasználója van (OpenAI Newsroom 2024). A generatív versengő hálózatok, a transzformer architektúrák és a GPT-modellek által meghatározott fejlődési ív olyan generatív rendszereket eredményezett, amelyek mára a kreatív iparágaktól a tudományos kutatásig szinte minden területen alkalmazhatók.

Felhasznált irodalom:

1. Brockman, Greg. 2022. ‘ChatGPT Just Crossed 1 Million Users; It’s Been 5 Days since Launch.’ X. https://x.com/gdb/status/1599683104142430208^ Vissza


2. Gates, Bill. 2023. ‘The Age of AI Has Begun’. GatesNotes. 21. – https://www.gatesnotes.com/The-Age-of-AI-Has-Begun^ Vissza


3. Goodfellow, Ian J., Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. 2014. ‘Generative Adversarial Networks’. arXiv. doi:10.48550/ARXIV.1406.2661^ Vissza


4. Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. 2013. ‘ImageNet Classification with Deep Convolutional Neural Networks’. Advances in Neural Information Processing Systems 25: 26th Annual Conference on Neural Information Processing Systems 2012; December 3 - 6, 2012, Lake Tahoe, Nevada, USA, 1–9. – ^ Vissza


5. LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton. 2015. ‘Deep Learning’. Nature 521 (7553): 436–44. doi:10.1038/nature14539 ^ Vissza


6. Mikolov, Tomas, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. 2013. ‘Distributed Representations of Words and Phrases and Their Compositionality’. arXiv. doi:10.48550/ARXIV.1310.4546^ Vissza


7. OpenAI. 2022. ‘Introducing ChatGPT’. https://openai.com/index/chatgpt/^ Vissza


8. OpenAI. 2023a. ‘GPT-4 Technical Report’. Download PDF^ Vissza


9. OpenAI. 2023b. ‘GPT-4 Technical Report’. Download PDF^ Vissza


10. OpenAI Newsroom. 2024. ‘Fresh Numbers Shared by @sama Earlier Today’. X. 04. https://x.com/OpenAINewsroom/status/1864373399218475440^ Vissza


11. Radford, Alec, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. 2018. ‘Improving Language Understanding by Generative Pre-Training’. Download PDF^ Vissza


12. Radford, Alec, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. 2019. ‘Language Models Are Unsupervised Multitask Learners’. Download PDF^ Vissza


13. Rombach, Robin, Andreas Blattmann, Dominik Lorenz, Patrick Esser, and Björn Ommer. 2022. ‘High-Resolution Image Synthesis with Latent Diffusion Models’. arXiv. doi:10.48550/ARXIV.2112.10752^ Vissza


14. Vaswani, Ashish, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. 2017. ‘Attention Is All You Need’. arXiv. doi:10.48550/ARXIV.1706.03762^ Vissza


]]>
Mesterséges intelligencia Magyarországon: van hozzá erőforrás, de mi hiányzik? https://aiforradalom.poltextlab.com/mesterseges-intelligencia-magyarorszagon-van-hozza-eroforras-de-mi-hianyzik/ 2025. 02. 14. Fri, 14:00:00 +0100 67af33b27fbe362a3bec0162 poltextLAB robotújságíró magyar fejlesztések Sebők Miklós a HVG-nek adott interjúban a mesterséges intelligencia magyarországi fejlesztésének lehetőségeiről és kihívásairól beszélt. Kiemelte, hogy noha az MI globálisan egyre nagyobb stratégiai jelentőséget kap, Magyarország még nem használja ki teljes mértékben az EU által biztosított szabályozási és fejlesztési lehetőségeket.

Az interjúban kiemelte, hogy noha az MI globálisan egyre nagyobb stratégiai jelentőséget kap, Magyarország még nem használja ki teljes mértékben az EU által biztosított szabályozási és fejlesztési lehetőségeket. Hangsúlyozta, hogy az EU-s adatvédelmi és MI-szabályozások (pl. GDPR, AI Act) megfelelő alkalmazásával az európai piac védettebbé válhat a nem uniós vállalatokkal szemben, ami egyben esélyt is teremthet a hazai fejlesztések számára. Példaként említette, hogy kellően szigorú jogérvényesítés esetén az olyan nagy külföldi szereplők, mint az OpenAI vagy a kínai DeepSeek, csak akkor maradhatnának jelen az EU-ban, ha maradéktalanul megfelelnek az előírásoknak. Arra is kitért, hogy Magyarország rendelkezik MI-fejlesztésre alkalmas infrastruktúrával, például a Komondor szuperszámítógéppel, amely megfelelő alapot nyújthatna a hazai fejlesztésekhez. Ugyanakkor felhívta a figyelmet arra, hogy egy tízmilliós ország piacán nehéz versenyképes AI-modelleket építeni piaci alapon, ezért a fejlődéshez állami szerepvállalásra és célzott befektetésekre lenne szükség. Hangsúlyozta továbbá a Mesterséges Intelligencia Nemzeti Laboratórium szerepét, amely több ígéretes kutatási projektet folytat a mesterséges intelligencia területén. Ugyanakkor ezek hosszú távú sikere nagymértékben állami támogatástól, célzott finanszírozástól és egy kiszámítható szabályozási környezettől függ.

Források:

Kihasználatlanul várja a Komondor, hogy a kormány komolyan vegye a mesterséges intelligenciát
Noha szuverenitási kérdés is, hogy Magyarországnak vannak-e saját megoldásai a mesterséges intelligencia alkalmazására, a kormány nem áldoz a fejlesztésekbe. Nálunk nyoma sincs a forradalmi lendületnek, amellyel az olcsó kínai startup milliárdokat radírozott le amerikai techcégek értékéből.
]]>
Cristal Intelligence: az OpenAI és a SoftBank új AI-megoldása modernizálja a vállalati működést https://aiforradalom.poltextlab.com/cristal-intelligence-az-openai-es-a-softbank-uj-ai-megoldasa-modernizalja-a-vallalati-mukodest/ 2025. 02. 14. Fri, 08:30:34 +0100 67aa0e927fbe362a3bec005a poltextLAB robotújságíró OpenAI Az OpenAI és a SoftBank Group 2025. február 3-án bejelentette a Cristal intelligence nevű vállalati AI-rendszer kifejlesztését és értékesítését célzó együttműködését, amelynek keretében a SoftBank évi 3 milliárd dollárt fektet be az OpenAI technológiáinak vállalatcsoporton belüli integrálására.

A partnerség részeként létrehozott SB OpenAI Japan vegyesvállalat kizárólagos jogot kap a Cristal intelligence japán nagyvállalatok számára történő értékesítésére, míg a SoftBank Corp. több mint 100 millió munkafolyamat automatizálását tervezi a rendszer segítségével. A Cristal intelligence az OpenAI 2024-ben bemutatott o1-sorozatú, fejlett érvelési képességekkel rendelkező modelljeire épül, amelyek 2025-re várhatóan önálló feladatvégzésre képes AI-ügynökökké fejlődnek. A rendszer számos vállalati feladatot automatizál majd, a pénzügyi jelentések készítésétől a dokumentumkezelésig és az ügyfélszolgálati tevékenységekig. Masayoshi Son, a SoftBank Group elnök-vezérigazgatója szerint ez a kezdeményezés nem csak a SoftBank Group működését alakítja át, hanem forradalmasítja a vállalatok működését Japánban és világszerte.

A megállapodás értelmében a SoftBank Group vállalatai, köztük az Arm és a SoftBank Corp., elsőbbségi hozzáférést kapnak Japánban az OpenAI legújabb modelljeihez. A SB OpenAI Japan vegyesvállalat lehetővé teszi a japán nagyvállalatok számára, hogy saját adataikat biztonságosan betanítsák és AI-ügynököket építsenek, amelyek teljes mértékben integrálódnak IT-rendszereikkel. Az együttműködés során szerzett tapasztalatok alapján egy globálisan alkalmazható modellt dolgoznak ki az AI-alapú vállalati transzformációhoz.

Források:

OpenAI and SoftBank Group Partner to Develop and Market Advanced Enterprise AI | SoftBank Group Corp.
OpenAI and the SoftBank Group today announced a partnership to develop and market Advanced Enterprise AI called “Cristal intelligence.” Cristal intelligence will securely integrate the systems and data of individual enterprises in a way that is customized specifically for each company. SoftBank Group Corp. will spend $3 billion US annually to deploy OpenAI’s solutions across its group companies, making it the first company in the world to integrate Cristal intelligence at scale, as well as deploying existing tools like ChatGPT Enterprise to employees across the entire group.
Arm Adopting New “Cristal intelligence” to Drive Innovation and Boost Productivity
OpenAI and SoftBank Group to develop and market new Advanced Enterprise AI, with Arm providing the high-performance, power-efficient compute platform.
OpenAI and SoftBank Forge Deal to Transform Enterprise AI OpenAI partners with SoftBank to launch Cristal intelligence, an enterprise AI system set to automate workflows and reshape business operations in Japan.
OpenAI and SoftBank launch cristal Intelligence to drive enterprise AI adoption
OpenAI and SoftBank Group have announced a strategic partnership to develop and market AI systems for enterprises, with SoftBank committing $3 billion annually to integrate OpenAI’s technology across its businesses.The collaboration, named Cristal Intelligence, aims to securely merge AI systems
]]>
Szegedi fejlesztés: Az első manuálisan validált, reprodukálható Python hibagyűjtemény https://aiforradalom.poltextlab.com/pybughive-az-elso-manualisan-validalt-reprodukalhato-python-hibagyujtemeny/ 2025. 02. 13. Thu, 14:00:53 +0100 67a5ea794f02470b192dfa3a poltextLAB robotújságíró Python A Python napjaink egyik legnépszerűbb programozási nyelve, mégis kevés olyan hibatár áll rendelkezésre, amely valós, reprodukálható hibákat tartalmaz. Ezt a hiányt pótolja a PyBugHive, amely az első manuálisan validált, reprodukálható Python hibákat tartalmazó adatbázis.

Az adatbázis első verziója 149 hibát tartalmaz 11 nyílt forráskódú projektből, biztosítva a kutatók számára a pontos elemzési lehetőséget. Az adatbázis fejlesztését a Szegedi Tudományegyetem kutatói végezték, az Európai Uniós RRF-2.3.1-21-2022-00004 projekt, valamint a Nemzeti Kutatási, Fejlesztési és Innovációs Alap támogatásával. Eredményeiket a "PyBugHive: A Comprehensive Database of Manually Validated, Reproducible Python Bugs" című tanulmányban (Gábor et al., 2024) ismertették.

A PyBugHive-ot szigorú szelekciós eljárással állították össze. A hibákat manuálisan ellenőrizték, valós fejlesztői javításokkal dokumentálták, és azokat környezeti beállításokkal tesztelve reprodukálták. Az adatbázisban megtalálhatóak a hibajegyek összegzései, a kapcsolódó patchek, valamint a tesztesetek, amelyek kimutatják a hiba jelenlétét. A PyBugHive ezenfelül kiterjeszthetőséget is biztosít, amely lehetővé teszi további hibák beillesztését. Az adatok pontosságát igazolja, hogy sem a Pylint, sem a Bandit statikus elemző eszköz nem volt képes automatikusan felismerni a hibák egyikét sem, igazolva, hogy a hibatár valóban nem-triviális eseteket tartalmaz.

Források:

PyBugHive: A Comprehensive Database of Manually Validated, Reproducible Python Bugs
Python is currently the number one language in the TIOBE index and has been the second most popular language on GitHub for years. But so far, there are only a few bug databases that contain bugs for Python projects and even fewer in which bugs can be reproduced. In this paper, we present a manually curated database of reproducible Python bugs called PyBugHive. The initial version of PyBugHive is a benchmark of 149 real, manually validated bugs from 11 Python projects. Each entry in our database contains the summary of the bug report, the corresponding patch, and the test cases that expose the given bug. PyBugHive features a rich command line interface for accessing both the buggy and fixed versions of the programs and provides the abstraction for executing the corresponding test cases. The interface facilitates highly reproducible empirical research and tool comparisons in fields such as testing, automated program repair, or bug prediction. The usage of our database is demonstrated through a use case involving a large language model, GPT-3.5. First, we evaluated the bug detection capabilities of the model with the help of the bug repository. Using multiple prompts, we found out that GPT-3.5 was able to detect 67 out of 149 bugs (45%). Furthermore, we leveraged the constructed bug dataset in assessing the automatic program repair capabilities of GPT-3.5 by comparing the generated fixes with the real patches contained in the dataset. However, its performance was far worse in this task compared to bug detection, as it was able to fix only one of the detected issues.

]]>
Az EU AI Act és GDPR összehasonlítása: alapvető különbségek és szinergiák https://aiforradalom.poltextlab.com/az-eu-ai-act-es-gdpr-osszehasonlitasa-alapveto-kulonbsegek-es-szinergiak/ 2025. 02. 13. Thu, 08:30:22 +0100 67aa0b807fbe362a3bec002b poltextLAB robotújságíró EU Az Európai Parlament 2024. március 13-án elfogadta a Mesterséges Intelligenciáról szóló Rendeletet (EU AI Act), amely az Általános Adatvédelmi Rendelettel (GDPR) szorosan összekapcsolódva szabályozza az AI rendszerek fejlesztését és használatát az EU-ban. Míg a GDPR elsősorban az alapvető jogok és a személyes adatok védelmére összpontosít, az EU AI Act szélesebb körű célokat szolgál, beleértve az egészség, biztonság, demokrácia, jogállamiság és környezetvédelem szempontjait is.

A két jogszabály közötti legjelentősebb különbségek a kockázatkezelési megközelítésben rejlenek. Az EU AI Act négyszintű kockázati kategorizálást vezet be (tiltott, magas, korlátozott és minimális kockázatú rendszerek), míg a GDPR általánosabb követelményeket támaszt. A szankciók tekintetében az EU AI Act szigorúbb, maximum az éves forgalom 7%-áig vagy 35 millió euróig terjedő bírságot tesz lehetővé, szemben a GDPR 4%-os vagy 20 millió eurós felső határával. Az EU AI Act különös figyelmet fordít az emberi felügyeletre: a 14. cikk előírja, hogy a magas kockázatú AI rendszereket úgy kell megtervezni, hogy azokat természetes személyek hatékonyan felügyelhessék, míg a GDPR 22. cikke tiltja a kizárólag automatizált döntéshozatalt jelentős joghatással járó esetekben. A jogszabályok hatálya is eltérő: míg a GDPR kizárólag a személyes adatok védelmét szabályozza, az EU AI Act akkor is alkalmazandó, ha nem történik személyes adatkezelés, ugyanakkor mindkét jogszabály extraterritoriális hatállyal bír az EU-n kívüli szervezetekre nézve is.

A megfelelőség bizonyítása szempontjából mindkét jogszabály hasonló eszközöket alkalmaz: az EU AI Act megfelelőségi értékelést és alapjogi hatásvizsgálatot (Fundamental Rights Impact Assessment, FRIA) ír elő a magas kockázatú rendszerekre. A FRIA célja annak biztosítása, hogy az adott AI rendszer ne sértse az alapvető jogokat, például a magánélethez való jogot, a megkülönböztetésmentességet vagy a tisztességes eljáráshoz való jogot. Ennek során elemzik a rendszer potenciális hatásait és azt, hogy megfelelő biztosítékok állnak-e rendelkezésre a jogsérelem elkerülésére.
A GDPR ezzel párhuzamosan az adatvédelmi hatásvizsgálatot (Data Protection Impact Assessment, DPIA) követeli meg a magas kockázatú adatkezelési műveletekre. A DPIA célja az adatkezelési folyamatokból eredő kockázatok azonosítása és kezelése, különös tekintettel az érintettek jogaira és szabadságaira. Ez különösen fontos, ha új technológiát alkalmaznak, nagymértékű személyes adatkezelés történik, vagy ha az érintettek jogai nagyobb veszélynek vannak kitéve.

Az átláthatóság és elszámoltathatóság alapelvei mindkét szabályozásban központi szerepet játszanak: az EU AI Act 13. cikke részletes követelményeket tartalmaz a magas kockázatú AI rendszerek átláthatóságára vonatkozóan, míg a GDPR 13. és 15. cikke az érintettek tájékoztatási és hozzáférési jogait szabályozza. A felügyeleti struktúra tekintetében minden tagállamnak ki kell jelölnie nemzeti hatóságokat az EU AI Act betartásának ellenőrzésére, amelyeket az Európai Mesterséges Intelligencia Testület és az Európai AI Hivatal támogat, hasonlóan a GDPR adatvédelmi hatóságaihoz és az Európai Adatvédelmi Testülethez.

Források:

Europe: The EU AI Act’s relationship with data protection law: key takeaways
Disclaimer: The blogpost below is based on a previously published Thomson Reuters Practical Law practice note (EU AI Act: data protection aspects (EU))
GDPR and AI Act: similarities and differences | activeMind.legal
The GDPR and the AI Act are similar in many respects, but also have some important differences that companies should be aware of.
Top 10 operational impacts of the EU AI Act – Leveraging GDPR compliance
This installment in the IAPP’s article series on the EU AI Act provides insights on leveraging GDPR compliance.
]]>
Hogyan lehet automatizáltan értékelni a nagy nyelvi modellek tényszerűségét? https://aiforradalom.poltextlab.com/hogyan-lehet-automatizaltan-ertekelni-a-nagy-nyelvi-modellek-tenyszeruseget/ 2025. 02. 12. Wed, 14:00:11 +0100 67a5e2414f02470b192df9ee poltextLAB robotújságíró Google A Google DeepMind 2024 decemberében mutatta be a FACTS Grounding rendszert, amely forradalmasíthatja a nagy nyelvi modellek (LLM-ek) tényszerűségének értékelését. A benchmark elsőként teszi lehetővé a hosszú, akár 32 ezer tokenes dokumentumokra épülő válaszok automatizált ellenőrzését, különös tekintettel a forráshűségre és a tényszerűségre.

A rendszer különlegessége a kétszintű értékelési folyamatban és az átfogó tesztkészletben rejlik. A 860 nyilvános és 859 privát teszteset öt kulcsfontosságú területet fed le: orvosi (29%), jogi (22,2%), internet/technológiai (19,2%), pénzügyi (18,1%) és kiskereskedelmi (11,4%) témákat. Az értékelés első fázisában a rendszer kiszűri azokat a válaszokat, amelyek nem felelnek meg a felhasználói kérésnek, majd a második fázisban elemzi a fennmaradó válaszok tényszerűségét a forrásszöveghez viszonyítva. A megbízhatóság érdekében három vezető nagy nyelvi modell - Gemini 1.5 Pro, GPT-4o és Claude 3.5 Sonnet - együttes döntését használják, mivel a kutatók kimutatták, hogy a modellek általában 3,23%-kal kedvezőbben értékelik saját kimeneteiket más modellekéhez képest.

A kezdeti tesztek izgalmas eredményeket hoztak: a Gemini 2.0 Flash Experimental érte el a legjobb teljesítményt 83,6%-os pontszámmal, szorosan követte a Gemini 1.5 Flash (82,9%) és a Gemini 1.5 Pro (80,0%). Figyelemre méltó, hogy a nem megfelelő válaszok kiszűrése után a végső pontszámokban 1-5%-os csökkenés volt tapasztalható, ami jelzi a szigorú értékelési kritériumokat. A benchmark szabadon hozzáférhető a Kaggle platformon (www.kaggle.com/facts-leaderboard), így bármely kutató vagy fejlesztő tesztelheti saját modelljét. A rendszer különösen hasznos lehet olyan területeken, ahol kritikus fontosságú a generált szövegek pontossága és forráshűsége, például az orvosi dokumentációk vagy jogi szövegek automatizált feldolgozásában.

Forrás: FACTS Leaderboard

Források:

@MoritzLaurer on Hugging Face: “FACTS is a great paper from @GoogleDeepMind on measuring the factuality of LLM…”
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
FACTS: A Benchmark for Faithfulness in Text Summarization

DeepMind's research paper on evaluating factual consistency in AI-generated text.

FACTS Grounding: A new benchmark for evaluating the factuality of large language models
Our comprehensive benchmark and online leaderboard offer a much-needed measure of how accurately LLMs ground their responses in provided source material and avoid hallucinations
FACTS Leaderboard | Kaggle
A novel benchmark from Google DeepMind designed to evaluate the factual accuracy and grounding of AI models
]]>
A DeepSeek gyors előretörése újraindította a vitát az indiai alapmodell-fejlesztésről https://aiforradalom.poltextlab.com/a-deepseek-gyors-eloretorese-ujrainditotta-a-vitat-az-indiai-alapmodell-fejlesztesrol/ 2025. 02. 12. Wed, 08:30:34 +0100 67a5e6eb4f02470b192dfa18 poltextLAB robotújságíró DeepSeek Sam Altman, az OpenAI vezérigazgatója 2025. február 5-én találkozott Ashwini Vaishnaw indiai informatikai miniszterrel, hogy megvitassák az ország mesterséges intelligencia fejlesztésére vonatkozó terveit. Altman korábban szkeptikus volt az indiai AI-alapmodellek létrehozásával kapcsolatban, különösen a költséghatékonyságot illetően, de mostani nyilatkozataiban már India vezető szerepét emelte ki a globális AI-forradalomban.

Az OpenAI vezérigazgatója elismerte, hogy sokat tanultak a kisebb modellek fejlesztéséről, és bár továbbra is jelentős erőforrásokat igényel ezek képzése, a megvalósításuk egyre inkább elérhetővé válik. Szerinte ez a fejlődés hatalmas kreatív lendületet hozhat, amelyben Indiának is kulcsszerepet kell vállalnia.
A változás hátterében részben a kínai DeepSeek sikere áll, amely mindössze hatmillió dolláros befektetéssel fejlesztett ki egy olyan AI-modellt, amely bizonyos területeken felülmúlta az OpenAI megoldásait. A DeepSeek-R1 modell nyílt forráskódú és rendkívül alacsony fejlesztési költségei ellenére kiemelkedő teljesítményt nyújt, ami új lendületet adott az indiai AI-fejlesztések körüli vitáknak.

India azonban még mindig komoly kihívásokkal néz szembe az alapmodellek fejlesztése terén. Nithin Kamath, a Zerodha vezérigazgatója szerint az ország egyik legnagyobb hátráltató tényezője a rövid távú gondolkodás és a problémamegoldásra jellemző "jugaad mentalitás". Ez a megközelítés gyors és ideiglenes megoldásokat helyez előtérbe a hosszú távú, megalapozott fejlesztésekkel szemben, ami nemcsak az üzleti életre, hanem a szabályozási stratégiákra és a technológiai innovációkra is hatással van. Míg az indiai techszektor jelenleg elsősorban a már létező AI-modellek adaptálására és továbbfejlesztésére összpontosít, egyre több szakértő figyelmeztet arra, hogy az alapmodellek fejlesztése elkerülhetetlen. Aravind Srinivas, a Perplexity AI vezérigazgatója szerint India nem engedheti meg magának, hogy csak mások technológiáját építse tovább, és bizonyítania kell, hogy az űrkutatásban elért sikereihez hasonlóan az AI területén is képes kiemelkedő eredményeket elérni. Altman legutóbbi látogatása és az OpenAI növekvő indiai jelenléte arra utal, hogy az ország komolyabb szereplővé válhat a globális AI-fejlesztések terén. Az előttük álló kihívások ellenére a technológiai szektorban egyre többen látják úgy, hogy India hosszú távon nemcsak felzárkózhat, hanem akár vezető szerepet is betölthet az AI-forradalomban.

Források:

India poised to lead in AI space, says OpenAI CEO Sam Altman
India emerging as OpenAI’s second-largest market, CEO Sam Altman urges country to focus on AI development.
Global AI race: India to build own foundational models; 18,693 GPUs to power compute facility - ET CIO
Put simply, foundation models in generative AI are large, pre-trained models that form the base for a variety of AI applications.
Why is India behind China in AI race? Zerodha’s Nithin Kamath blames ‘Jugaad’ mentality for it amid DeepSeek buzz - The Economic Times
Zerodha CEO Nithin Kamath has criticized Indias approach to AI innovation, highlighting the country’s reliance on short-term solutions and the “Jugaad” mentality. He pointed to Chinas recent AI breakthrough, DeepSeek, as an example of how long-term research investment has propelled their tech progress. Kamath argued that India lacks the right ecosystem for talent and research, causing many top researchers to move abroad. Why India is falling behind China in AI race? Zerodha’s Nithin Kamath blames ‘Jugaad’ mentality for it
Deepseek’s rapid progress renews debate on Indian foundational AI model
Deepseek AI model leads global race, with Indian firms leveraging open source advancements to drive AI excellence.
]]>
Franciaország válasza az AI versenyre: Emmanuel Macron 109 milliárd eurós AI befektetési csomagot jelentetett be https://aiforradalom.poltextlab.com/franciaorszag-valasza-az-ai-versenyre-emmanuel-macron-109-milliard-euros-ai-befektetesi-csomagot-jelentetett-be/ 2025. 02. 11. Tue, 14:00:07 +0100 67aa10667fbe362a3bec0078 poltextLAB robotújságíró Franciaország Emmanuel Macron francia elnök 109 milliárd eurós (112,5 milliárd dolláros) magánszektorbeli befektetési csomagot jelentett be a mesterséges intelligencia fejlesztésére Franciaországban. A bejelentés a 2025. február 10-én kezdődő párizsi AI csúcstalálkozó előtt történt, amelyen világvezetők és technológiai iparági szereplők vesznek részt. A kezdeményezés célja, hogy Európa felzárkózzon az Egyesült Államok és Kína mögé az AI versenyben.

A finanszírozási csomag részeként az Egyesült Arab Emírségek 50 milliárd eurót fektet be európai AI projektekbe, míg a kanadai Brookfield befektetési cég 20 milliárd eurót szán hasonló célokra. A párizsi csúcstalálkozón várhatóan bejelentik egy Current AI nevű non-profit befektetési alap létrehozását is, amely a közérdekű MI fejlesztéseket támogatja, például az egészségügyi adatok anonimizálását célzó projekteket. Az alap ötéves célja 2,5 milliárd euró összegyűjtése, amelyből már 400 millió eurót ígértek a támogatók. A bejelentés időzítése nem véletlen: Donald Trump amerikai elnök januárban jelentette be az 500 milliárd dolláros Stargate projektet, amelyben az OpenAI, a SoftBank és az Oracle vesz részt. Macron a TF1 televíziónak adott interjújában úgy fogalmazott, ez Franciaország számára ugyanazt jelenti, mint amit az Egyesült Államok a Stargate-tel bejelentett.

Az európai AI versenyképesség szempontjából kulcsfontosságú beruházás célja, hogy Franciaország vezető szerepet töltsön be a globális AI versenyben. A csúcstalálkozón olyan tech vezetők vesznek részt, mint Sundar Pichai (Google vezérigazgató), Brad Smith (Microsoft elnök) és Sam Altman (OpenAI vezérigazgató), valamint olyan világvezetők, mint Narendra Modi indiai miniszterelnök és JD Vance amerikai alelnök. Jelenleg Európa a globális számítási kapacitás mindössze 3-5%-ával rendelkezik, Macron célja pedig ennek 20%-ra növelése. Az MI fejlesztése jelentős energiaigénnyel jár, különösen az adatközpontok működtetése terén, ami kihívást jelent Európa számára a jövőbeni energiaigények kielégítésében.

Források:

Macron unveils plans for €109bn of AI investment in France
French president speaks ahead of AI summit in Paris involving executives such as OpenAI’s Sam Altman
Reuters Logo
Macron signals investments of 109 billion euros in French AI by private sector
France will announce private sector investments totaling some 109 billion euros in its artificial intelligence sector during the Paris AI summit.
France unveils 109-billion-euro AI investment as Europe looks to keep up with U.S.
Macron announced the mammoth investment sum ahead of France’s AI Action Summit, where world leaders and tech bosses are gathering in Paris this week.
]]>
A Trump-adminisztráció nyilvános konzultációt indított az Egyesült Államok új AI-akciótervéről https://aiforradalom.poltextlab.com/a-trump-adminisztracio-nyilvanos-konzultaciot-inditott-az-egyesult-allamok-uj-ai-akcioterverol/ 2025. 02. 11. Tue, 08:30:56 +0100 67a9f28c7fbe362a3bec000d poltextLAB robotújságíró Trump A Trump-adminisztráció 2025. február 6-án nyilvános konzultációt indított az új nemzeti mesterséges intelligencia (AI) akcióterv kidolgozásához, amelyet a Fehér Ház Tudományos és Technológiai Hivatala (OSTP) és a Nemzeti Tudományos Alap (NSF) közösen felügyel. A kezdeményezés Donald Trump elnök január 23-án aláírt, 14179-es elnöki rendeletének első konkrét lépése, amely az amerikai AI-vezető szerep megerősítését célozza.

Az új akcióterv húsz kiemelt területen vár javaslatokat, többek között a hardver- és chipgyártás, adatközpontok, energiahatékonyság, modellfejlesztés, nyílt forráskódú fejlesztések és kiberbiztonsági kérdésekben. A Trump-adminisztráció szerint ezek az ágazatok kulcsszerepet játszanak az Egyesült Államok AI-technológiai dominanciájának biztosításában. A dokumentum külön kiemeli, hogy a Trump-adminisztráció január 20-án a 14148-as végrehajtási rendelettel hatályon kívül helyezte Joe Biden 2023. októberi AI-rendeletét, mivel azt túlzottan korlátozó szabályozásnak minősítette, amely akadályozta az innovációt és növelte az adminisztratív terheket a technológiai iparág számára.

A konzultáció 2025. március 15-ig tart, és a végleges akciótervet 2025 októberéig kell benyújtani az elnöknek. Az adminisztráció hangsúlyozza, hogy az új AI-akcióterv középpontjában a szólásszabadság és az emberi fejlődés áll. Az elképzelés szerint a mesterséges intelligencia fejlesztése olyan környezetben zajlik majd, amely mentes az ideológiai elfogultságtól és a társadalmi agendáktól. A konzervatív technológiai szakértők üdvözölték a lépést, kiemelve, hogy a Biden-kormányzat AI-rendelete túlzottan a társadalmi igazságossági szempontokra helyezte a hangsúlyt, míg a Trump-adminisztráció célja egy piacbarát, innovációközpontú megközelítés. A nyilvános konzultációra minden amerikai állampolgár és iparági szereplő benyújthatja javaslatait az OSTP hivatalos honlapján, illetve a Federal Register online platformján keresztül.

Források:

Request for Information on the Development of an Artificial Intelligence (AI) Action Plan
On behalf of the Office of Science and Technology Policy (OSTP), the NITRD NCO requests input from all interested parties on the Development of an Artificial Intelligence (AI) Action Plan (“Plan”). This Plan, as directed by a Presidential Executive Order on January 23, 2025, will define the…
Trump Administration Seeks Public Comment on AI Action Plan
On February 6, the White House Office of Science & Technology Policy (“OSTP”) and National Science Foundation (“NSF”) issued a Request for Information
‘AI powerhouse’: White House encourages Americans to provide ideas for artificial intelligence strategy
The White House is opening its Artificial Intelligence Plan up to Americans to contribute policy ideas to the Trump administration to ensure that the United States is “the undeniable leader” in AI technology.
]]>
Az Anthropic megtiltotta az AI használatát álláskeresőinek és elutasítja az AI-generált önéletrajzokat https://aiforradalom.poltextlab.com/az-anthropic-megtiltotta-az-ai-hasznalatat-allaskeresoinek-es-elutasitja-az-ai-generalt-oneletrajzokat/ 2025. 02. 10. Mon, 14:00:55 +0100 67a5ca344f02470b192df99a poltextLAB robotújságíró Anthropic Az AI-fejlesztő óriás Anthropic érdekes döntést hozott: miközben a Claude nevű chatbotjukat a hatékony írás eszközeként reklámozzák, a céghez jelentkezőknek kifejezetten megtiltották az AI-asszisztensek használatát a pályázati folyamat során. A cég explicit módon kéri a jelentkezőket, hogy ne használjanak AI-asszisztenseket a motivációs levelek és jelentkezések megírásához.

A döntés összhangban van a jelenlegi munkaerőpiaci trendekkel, ugyanis a CV Genius 2024-es adatai szerint a HR-vezetők 80%-a ellenzi az AI-generált önéletrajzokat és motivációs leveleket, továbbá 74%-uk állítja, hogy képes felismerni az automatizált tartalmat. A Neurosight 2024-es felmérése szerint ugyanakkor az álláskeresők 57%-a használta az OpenAI chatbotot jelentkezései során. Az Anthropic álláshirdetéseiben szereplő AI-szabályzat kimondja: bár támogatják az AI-rendszerek használatát a munkavégzés során a hatékonyság növelése érdekében, azt kérik, ne használjanak AI-asszisztenseket a jelentkezési folyamat során.

Az AI-generált jelentkezések tilalma jelentős hatással lehet a vállalat toborzási folyamataira, különösen mivel az Accenture legfrissebb tanulmánya szerint a munkavállalók 70%-a kapott képzést a generatív AI helyes használatáról, és a vezetők 90%-a támogatja ezt. A kettősséget jól szemlélteti, hogy míg Claude havonta 73,8 millió látogatót vonz, és a New York Times szerint a technológiai bennfentesek kedvenc chatbotja az emberi beszélgetéshez hasonló kommunikációs képességei miatt, addig a vállalat ragaszkodik ahhoz, hogy a jelentkezők saját, nem mesterséges intelligencia által segített kommunikációs készségeiket mutassák meg a kiválasztási folyamatban.

Források:

Anthropic: ‘Please don’t use AI’
🎶 I just want something to hold on to / and a little of that human touch 🎶
AI company Anthropic’s ironic warning to job candidates: ‘Please do not use AI’
The tech juggernaut wants to field communication skills without help from tech, and Anthropic isn’t the only employer pushing back.
AI Startup Anthropic To Job Seekers: No AI on Applications | Entrepreneur
AI startup Anthropic is asking all job candidates to stop using AI—even Anthropic’s own Claude AI chatbot—when applying for open roles.
]]>
Már európai szerverről is elérhetőek az OpenAI szolgáltatásai https://aiforradalom.poltextlab.com/a-chatgpt-felhasznaloi-adatok-europai-tarolasat-biztositja-az-openai/ 2025. 02. 10. Mon, 08:30:49 +0100 67a5cde64f02470b192df9b9 poltextLAB robotújságíró ChatGPT Az OpenAI 2025. február 6-án bejelentette az európai adattárolási szolgáltatás elindítását, amely lehetővé teszi a vállalatok számára, hogy megfeleljenek a helyi adatvédelmi előírásoknak. Az új funkció a ChatGPT Enterprise, ChatGPT Edu és API Platform felhasználóit érinti, biztosítva az adatok Európán belüli tárolását és feldolgozását.

Az európai adattárolási szolgáltatás részeként az API felhasználók új projektjeik létrehozásakor választhatják az európai régiót az adatfeldolgozáshoz, ahol zéró adatmegőrzési politikával működik a rendszer. A ChatGPT Enterprise és Edu új ügyfelei esetében minden felhasználói tartalom - beleértve a beszélgetéseket, feltöltött fájlokat és egyéni GPT-ket - az európai régióban kerül tárolásra. Az adatvédelmet AES-256 titkosítás biztosítja a tárolt adatoknál, míg az adattovábbítás TLS 1.2+ protokollal védett. Várjuk az együttműködést még több európai szervezettel, miközben fenntartjuk a legmagasabb szintű biztonsági, adatvédelmi és megfelelőségi előírásokat - nyilatkozta az OpenAI a csütörtöki blogbejegyzésében.

A lépés jelentőségét mutatja, hogy korábban több európai szabályozó hatóság is vizsgálatot indított az OpenAI ellen, köztük Spanyolország és Németország, az adatfeldolgozási gyakorlatok miatt. Olaszország adatvédelmi hatósága 2023 decemberében 15,6 millió eurós bírságot szabott ki a vállalatra az európai fogyasztói adatvédelmi követelmények megsértése miatt. Az új adattárolási megoldással az OpenAI megfelel a GDPR és egyéb helyi szabályozásoknak, miközben olyan jelentős európai ügyfeleket szolgál ki, mint a Booking.com, BBVA, Zalando és az Oxford Egyetem.

Források:


1.

OpenAI Logo
Introducing Data Residency in Europe OpenAI announces data residency in Europe for ChatGPT Enterprise, ChatGPT Edu, and the API Platform, helping organizations meet local data sovereignty requirements.
OpenAI launches data residency in Europe | TechCrunch
OpenAI has launched data residency in Europe, allowing European orgs to meet local data sovereignty requirements while using the company’s AI products.
OpenAI Introduces European Data Residency to Strengthen Compliance
Secure your data with OpenAI’s new European data residency. Stay compliant, enhance privacy, and build trust. Learn how it benefits you!
]]>
EuroLLM-9B: Európa új többnyelvű MI-modellje https://aiforradalom.poltextlab.com/eurollm-9b-europa-uj-tobbnyelvu-mi-modellje/ 2025. 02. 07. Fri, 14:00:39 +0100 67a328c526f2c6047fb2bdd4 poltextLAB robotújságíró OpenEuroLLM Az európai mesterséges intelligencia fejlődésének új mérföldköve az EuroLLM-9B, amely 2024. december 2-án debütált. A 9 milliárd paraméteres, nyílt forráskódú nyelvi modell 35 nyelvet támogat, köztük az Európai Unió mind a 24 hivatalos nyelvét. A projekt célja, hogy elősegítse az európai nyelvi sokszínűség megőrzését a digitális térben.

A modell fejlesztéséhez kivételes számítási kapacitást mozgósítottak: 400 Nvidia H100 GPU segítségével, az EuroLLM-9B-t összesen 4 billió tokenen képezték a MareNostrum5 szuperszámítógépen. A képzési folyamat három szakaszban zajlott: az első, alapozó fázisban 3,6 billió token biztosította a modell többnyelvű alapjait, különféle források – például webes adatok, Wikipédia, ArXiv-tudományos cikkek és párhuzamos nyelvi korpuszok – felhasználásával. Ezt követte a finomhangolás 400 milliárd tokenen, amely során csökkentették a webes adatok arányát, és nagyobb hangsúlyt kaptak a magas minőségű, többnyelvű szövegek. A záró szakaszban, 40 milliárd tokenen, a modell kizárólag kiemelkedő minőségű adatokon tanult, hogy optimalizálják teljesítményét. Az eredmények önmagukért beszélnek: az EuroLLM-9B felülmúlja a hasonló európai modelleket, és versenyképes marad olyan globális fejlesztésekkel szemben is, mint a Gemma-2-9B.

A projekt jelentőségét jelzi a 20,6 millió eurós európai uniós támogatás, amit a Digital Europe program keretében nyert el. A fejlesztést kilenc neves európai kutatóintézet és egyetem együttműködése tette lehetővé, a munkát pedig a MareNostrum5 szuperszámítógépen végezték, az EuroHPC extreme-scale hozzáférési támogatásának köszönhetően. A modell már az első héten komoly szakmai sikert aratott: több mint 50.000 letöltést regisztráltak a Hugging Face platformon, és a kutatócsoport már egy nagyobb, 20 milliárd paraméteres verzió fejlesztésén dolgozik.

Források:

EuroLLM-9B
A Blog post by EuroLLM Team on Hugging Face

2.

Home
EuroLLM: Open Source European Large Language Model

3.

A pioneering AI project awarded for opening Large Language Models to European languages
The Commission has awarded the prestigious Strategic Technologies for Europe Platform (STEP) Seal to the multilingual AI project OpenEuroLLM – the first Digital Europe Programme funded project to receive the seal.
]]>
Trump és az Nvidia vezérigazgatójának találkozója új exportkontroll szabályokat hozhat Kínával szemben https://aiforradalom.poltextlab.com/trump-es-az-nvidia-vezerigazgatojanak-talalkozoja-uj-exportkontroll-szabalyokat-hozhat-kinaval-szemben/ 2025. 02. 07. Fri, 08:30:09 +0100 67a4ba1a4f02470b192df917 poltextLAB robotújságíró nvidia Donald Trump amerikai elnök és Jensen Huang, az Nvidia vezérigazgatója 2025. január 31-én kulcsfontosságú találkozót tartott a Fehér Házban a kínai DeepSeek térnyerése és a csúcstechnológiás chipek exportszabályozásának szigorítása ügyében. A megbeszélés különös aktualitását adja, hogy az amerikai Kereskedelmi Minisztérium jelenleg is vizsgálja, vajon a DeepSeek használ-e olyan amerikai chipeket, amelyeket nem lenne szabad Kínába szállítani.

Az amerikai exportszabályozás szigorítása 2020-ra nyúlik vissza, amikor a Trump-kormányzat megtiltotta, hogy amerikai vállalatok külön engedély nélkül chipeket értékesítsenek a Huawei számára. Ezt követően májusban az úgynevezett Foreign Direct Product Rule kiterjesztésével további korlátozásokat vezettek be: ez az amerikai technológián alapuló külföldi chipek gyártását is érintette, így a Huawei nem juthatott hozzá fejlett félvezetőkhöz.
Szeptemberben a kínai Semiconductor Manufacturing International Corporation (SMIC) nevű vállalatot is felvették az amerikai kormány által szankcionált cégek listájára (Entity List). Ez azt jelentette, hogy az amerikai technológiát használó beszállítók csak külön engedéllyel szállíthattak alkatrészeket a cégnek. Az intézkedések különösen a fejlett, 14nm, 10nm, 7nm és 5nm-es csíkszélességen gyártott chipeket érintették. A korlátozások így jelentősen megnehezítették Kína hozzáférését a legkorszerűbb csúcstechnológiához.

Az amerikai kormányzat jelenleg fontolgatja az Nvidia H20 chipjeinek exportkorlátozását Kína felé, folytatva a Biden-adminisztráció által 2022-ben megkezdett szigorítási politikát. A korlátozások történetét jól szemlélteti, hogy miután a Biden-kormány betiltotta a H100 chipek kínai értékesítését, az Nvidia kifejlesztette a H800-as modellt, amit 2023-ban szintén korlátoztak, ezt követően pedig megjelent a H20 chip. A Kongresszus kétpárti támogatással sürgeti a további szigorítást - John Moolenaar republikánus és Raja Krishnamoorthi demokrata képviselők közösen szólították fel a kormányt az exportellenőrzési rendszer felülvizsgálatára. A jelenlegi helyzetet tovább bonyolítja, hogy Malajzia és Szingapúr jelentős közvetítő szerepet tölt be az Nvidia chipek Kínába juttatásában. Szingapúr 2024 harmadik negyedévében az Nvidia bevételének körülbelül 15%-át (2,7 milliárd dollár) adta, ami 1590%-os növekedést jelent 2022 harmadik negyedévéhez képest.

Források:

1.

Trump to meet with Nvidia CEO on Friday, White House official says Latest update from Reuters on US politics and AI developments.
Reuters Thumbnail

2.

President Trump to meet with Nvidia CEO Jensen Huang at the White House
President Donald Trump is meeting Friday with Nvidia CEO Jensen Huang, whose company designs and supplies the advanced computer chips that play an integral role in developing artificial intelligence.
Singapore joins China and the US as a key AI player, boosting Nvidia’s global revenue | KrASIA
Singapore may be a small city-state, but it has the means and the right conditions to develop into a data center powerhouse and an AI hub.
Trump Administration Increases Pressure on Huawei with New Export Controls That Will Limit Its Access to Semiconductors Produced with U.S. Software and Technology
On May 15, 2020, the United States Department of Commerce, Bureau of Industry and Security (BIS) announced a new rule to further restrict Huawei’s access to U.S. technology.
McCaul Demands Commerce’s BIS Verify SMIC is Not Violating U.S. Export Controls - Committee on Foreign Affairs
Austin, Texas — House Foreign Affairs Committee Chairman Michael McCaul sent a letter to Under Secretary of Commerce for Industry and Security Alan Estevez expressing his frustration regarding the Bureau of Industry and Security’s (BIS) overall aversion to enforcing export controls against China’s semiconductor industry, including Huawei and Semiconductor Manufacturing International Corporation (SMIC), which undermines the […]
]]>
Fordulat az OpenAI-nál: Sam Altman elismerte a zárt forráskódú stratégia hibáit https://aiforradalom.poltextlab.com/fordulat-az-openai-nal-sam-altman-elismerte-a-zart-forraskodu-strategia-hibait/ 2025. 02. 06. Thu, 14:00:28 +0100 67a46ff74f02470b192df8c5 poltextLAB robotújságíró OpenAI Az OpenAI vezérigazgatója, Sam Altman 2025. január 31-én egy Reddit fórumon elismerte, hogy cége a történelem rossz oldalán állt a nyílt forráskódú mesterséges intelligencia kérdésében, miután a kínai DeepSeek AI cég R1 modellje megrengette a globális piacokat. A bejelentés különösen jelentős, mivel az OpenAI az utóbbi években egyre inkább a zárt, tulajdonosi megközelítést részesítette előnyben, ami számos kritikát váltott ki a szakmából és korábbi szövetségeseiktől, köztük Elon Musktól is.

A DeepSeek megjelenése jelentős piaci turbulenciát okozott, miután bejelentették, hogy mindössze 2000 Nvidia H800 GPU felhasználásával - szemben a nagyobb AI laborok által használt több mint 10.000 chippel - és csupán 5,6 millió dolláros képzési költséggel (bár a teljes fejlesztési költség valószínűleg magasabb) sikerült az OpenAI rendszereivel összehasonlítható teljesítményű modellt létrehozniuk. Ez a bejelentés az Nvidia részvényeinek történelmi zuhanását eredményezte, ami közel 600 milliárd dollárral csökkentette a vállalat piaci értékét, ami az amerikai vállalatok történetének legnagyobb egynapos vesztesége.

Altman a Reddit AMA ("Ask Me Anything") fórumon úgy nyilatkozott, hogy a zárt forráskódú megközelítés lehetővé tette számukra, hogy könnyebben teljesítsék a biztonsági követelményeket. Ugyanakkor elismerte, hogy az OpenAI a történelem rossz oldalán állt a nyílt forráskódú megközelítéssel kapcsolatban, és szükség van egy új stratégiára ezen a téren. Hozzátette, hogy bár nem minden OpenAI-munkatárs osztja ezt a nézetet, és jelenleg nem ez a legmagasabb prioritásuk, folynak a belső megbeszélések a modell súlyainak és kutatási eredményeinek nyilvánosságra hozataláról.

Forrás: Reddit

Az OpenAI potenciális stratégiai váltása visszatérést jelentene a vállalat gyökereihez, amely 2015-ben nonprofit szervezetként indult azzal a céllal, hogy az általános mesterséges intelligencia (AGI) az emberiség javát szolgálja. Yann LeCun, a Meta vezető mesterségesintelligencia-kutatója a LinkedIn-en reagált a fejleményekre, hangsúlyozva, hogy a nyílt forráskódú modellek felülmúlják a zárt forráskódúakat. Kiemelte, hogy ezek a modellek új ötleteket hoznak létre, mások munkájára építenek, és mivel munkájuk publikált és nyílt forráskódú, mindenki profitálhat belőle. LeCun szerint ez a nyílt kutatás és a nyílt forráskód ereje.

Források:

AMA with OpenAI’s Sam Altman, Mark Chen, Kevin Weil, Srinivas Narayanan, Michelle Pokrass, and Hongyu Ren
by u/OpenAI in OpenAI
Sam Altman admits OpenAI was ‘on the wrong side of history’ in open source debate
OpenAI CEO Sam Altman admits the company was “on the wrong side of history” in the open-source debate, signaling a potential strategy shift.
Yann LeCun on LinkedIn: To people who see the performance of DeepSeek and think: "China is… | 995 comments
To people who see the performance of DeepSeek and think: "China is surpassing the US in AI." You are reading this wrong. The correct reading is: "Open source… | 995 comments on LinkedIn
Meta’s chief AI scientist says DeepSeek’s success shows that ‘open source models are surpassing proprietary ones’
Meta’s chief AI scientist, Yann LeCun, said DeepSeek’s success with R1 said more about the value of open-source than Chinese competition.
]]>
Az algoritmikus alkotmányosság perspektíváit és korlátait vizsgálja a Szentgáli-Tóth Boldizsár vezetésével indult Lendület projekt https://aiforradalom.poltextlab.com/az-algoritmikus-alkotmanyossag-perspektivait-es-korlatait-vizsgalja-a-szentgali-toth-boldizsar-vezetesevel-indult-lendulet-projekt/ 2025. 02. 06. Thu, 09:29:25 +0100 67a46c1e4f02470b192df8ac poltextLAB robotújságíró kutatási eredmények A HUN-REN Társadalomtudományi Kutatóközpontban Szentgáli-Tóth Boldizsár vezetésével 2024-től új Lendület kutatócsoport kezdi meg működését, amely az algoritmikus alkotmányosság kereteit és korlátait vizsgálja. Az ötéves projekt az MI és az alapvető jogok kapcsolatrendszerét elemzi.

A kutatás az algoritmikus alkotmányosságot olyan szabályozási és szakpolitikai törekvések együtteseként definiálja, amelyek hidat kívánnak építeni a jelenlegi, emberekre szabott jogi keretek és a minden korábbinál több emberi tulajdonsággal rendelkező nem-humán szereplők megjelenése között. A program az MI alkotmányos integrációját három szinten vizsgálja: normatív szabályok megalkotása, soft law dokumentumok kidolgozása és bírósági értelmezési eszközök fejlesztése révén. A projekt hipotézise szerint a túl szigorú MI-szabályozás gátolhatja a technológiai innovációt, ezért a rugalmasabb megoldások, mint például a jogértelmezés előnyben részesítése indokolt az alapjogvédelem területén. A kutatás három esettanulmányon keresztül vizsgálja ezt a feltevést: 1) Az igazságszolgáltatásban már működő MI-alapú szoftverek gyakorlatának elemzése (különös tekintettel az észt, brazil és kínai modellekre), 2) A véleménynyilvánítás szabadságának új kihívásai a deepfake technológiák és a dezinformáció korában, 3) A környezetvédelem és erőforrás-elosztás MI-alapú megoldásainak alkotmányos vonatkozásai.

A projekt módszertani újítása, hogy a bírói felülvizsgálati teszteket az MI sajátosságaihoz igazítja, figyelembe véve az MI öt kulcsfontosságú jellemzőjét: a gépi tanulás folyamatát, az átláthatatlanságot (black box effect), a korlátozott működést, a rugalmasság hiányát és a generatív MI által felvetett speciális kihívásokat. A kutatás végeredményeként olyan értelmezési keretek kidolgozása várható, amelyek egyensúlyt teremtenek a technológiai fejlődés ösztönzése és az alapjogok védelme között, miközben reflektálnak az MI-alkalmazások intenzitására, kockázataira és az emberi felügyelet szükséges mértékére.

Források:

  1. "Az algoritmikus alkotmányosság perspektívái és korlátai" c. Lendület 2024 pályázat kutatási terve
  2. Huszonegy Lendület-kutatócsoport indul 2024-ben
]]>
OpenEuroLLM: Európa új nyílt forráskódú AI projektje https://aiforradalom.poltextlab.com/openeurollm-europa-uj-nyilt-forraskodu-ai-projektje/ 2025. 02. 05. Wed, 09:56:48 +0100 67a3240226f2c6047fb2bdaa poltextLAB robotújságíró OpenEuroLLM Húsz vezető európai kutatóintézet, vállalat és EuroHPC központ összefogásával elindult az OpenEuroLLM projekt, amely 52 millió eurós költségvetéssel fejleszt nyílt forráskódú nyelvi modelleket az európai digitális szuverenitás megerősítésére.

A 2025. február 1-jén indult kezdeményezést Jan Hajič (Károly Egyetem, Csehország) koordinálja, társvezetője pedig Peter Sarlin (AMD Silo AI, Finnország), akik Európa legnagyobb mesterséges intelligencia projektjét irányítják. A konzorcium tagjai között olyan jelentős szereplők találhatók, mint a német AI szektor vezető vállalata, az Aleph Alpha, valamint Európa egyik legerősebb szuperszámítógépét üzemeltető finn CSC és a kontinens első tőzsdére lépett GenAI cége, a francia LightOn. A projekt egyedülálló módon egyesíti az európai AI szakértelmet: a projekt nem egy általános célú chatbotról szól, hanem olyan digitális és AI infrastruktúra kiépítéséről, amely lehetővé teszi az európai vállalatok számára az innovációt az AI területén – nyilatkozta Peter Sarlin.

Az OpenEuroLLM célja, hogy teljesen nyílt forráskódú, többnyelvű alapmodelleket fejlesszen, amelyek finomhangolhatók specifikus ipari és a közszféra igényeire. A projekt a Digitális Európa Program keretében és a STEP (Strategic Technologies for Europe Platform) támogatásával valósul meg, és különös hangsúlyt fektet az európai értékekre, beleértve a demokratikus átláthatóságot és a közösségi részvételt a fejlesztésben. A konzorcium szakmai partnerei között található a LAION, az open-sci és az OpenML közösség is.

Források:

Open Euro LLM
A series of foundation models for transparent AI in Europe
European AI allies unveils LLM alternative to Big Tech, DeepSeek
As China’s DeepSeek threatens to dismantle Silicon Valley’s AI monopoly, the OpenEuroLLM has launched an alternative to tech’s global order.

3.

OpenEuroLLM - building the next-generation open-source language models - BDV Big Data Value Association
In a groundbreaking move for the European artificial intelligence scene, top AI companies and research institutions have joined forces to develop next-generation open-source language models. The OpenEuroLLM project, an unprecedented collaboration, aims to propel European AI capabilities to new heights. Led by a consortium of 20 renowned research institutions, companies and EuroHPC centers, OpenEuroLLM is set […]
]]>
A Jevons-paradoxon megcáfolhatja a DeepSeek után kialakult AI-piaci pánikot https://aiforradalom.poltextlab.com/a-jevons-paradoxon-megcafolhatja-a-deepseek-utan-kialakult-ai-piaci-panikot/ 2025. 02. 05. Wed, 07:53:58 +0100 67a3090826f2c6047fb2bd76 poltextLAB robotújságíró DeepSeek A DeepSeek kínai AI-vállalat január 20-i bejelentése, miszerint az OpenAI-hoz hasonló teljesítményű chatbotot képes működtetni jóval alacsonyabb erőforrás-felhasználással, 17%-os zuhanást okozott az NVIDIA részvényárfolyamában január 27-én.

A technológiai szektor vezetői, köztük Satya Nadella, a Microsoft vezérigazgatója, a Jevons-paradoxonra hivatkozva érvelnek amellett, hogy az alacsonyabb költségek valójában növelik majd az AI-chipek iránti keresletet, nem pedig csökkentik azt.

A Jevons-paradoxon, amelyet William Stanley Jevons közgazdász 1865-ben írt le először a szénfelhasználás kapcsán, azt állítja, hogy egy erőforrás hatékonyabb felhasználása paradox módon növeli annak teljes fogyasztását, nem pedig csökkenti. Ezt a jelenséget William Nordhaus Nobel-díjas közgazdász is megfigyelte a világítástechnológia fejlődésében: míg egy babiloni olajlámpa mindössze 0,06 lument termelt wattonként, a modern LED-ek akár 110 lument is képesek előállítani, mégsem csökkent az energiafogyasztás - ehelyett exponenciálisan nőtt a mesterséges fény használata.

A DeepSeek R1 modellje, amely nyílt forráskódú formában érhető el, jelentősen hatékonyabb erőforrás-felhasználást tesz lehetővé az NVIDIA chipeken. Hamish Low, az Enders Analysis elemzője szerint a piaci reakció túlzó volt, mivel a számítási kapacitás hatékonyabb kihasználása egyáltalán nem rossz a kereslet szempontjából. A nagy technológiai cégek továbbra is jelentős beruházásokat terveznek az AI infrastruktúrába, ami azt jelzi, hogy a szektor vezető vállalatai hosszú távon is elkötelezettek a fejlesztések mellett.

Források:

1.

Tech tycoons have got the economics of AI wrong
Following DeepSeek’s breakthrough, the Jevons paradox provides less comfort than they imagine

2.

DeepSeek’s Latest Breakthrough Is Redefining AI Race
DeepSeek’s R1 breakthrough isn’t a one-off Sputnik moment. Instead, it signals a new era in the AI race—one defined by continuous innovation, a narrowing tech gap, and the transformative power of open-source collaboration in reshaping global competitiveness.

3.

DeepSeek sparked a market panic — but some think the sell-off is overblown
China’s DeepSeek has panicked investors in top AI stocks after it said its new model was built with less computing power than would be expected.

4.

After DeepSeek, AI developers are wrong that The Jevons Paradox will bail them out
The dramatic drop in the cost of AI demonstrated by Chinese upstart DeepSeek is great for buyers of AI tools, but very bad for the incumbent developers of those tools.
]]>
OpenAI o3-mini: gyorsabb és megfizethetőbb MI-megoldások https://aiforradalom.poltextlab.com/openai-o3-mini-gyorsabb-es-megfizethetobb-mi-megoldasok-2/ 2025. 02. 04. Tue, 11:44:28 +0100 67a1eb1dff14ad42b53c98c5 poltextLAB robotújságíró OpenAI Az OpenAI 2025. január 31-én bemutatta az o3-mini modellt, amely jelentős előrelépést jelent a vállalat költséghatékony mesterséges intelligencia fejlesztésében. Az új modell a korábbi o1-mini lecserélésével és továbbfejlesztett STEM-képességekkel érkezik, miközben 24%-kal gyorsabb válaszidőt biztosít elődjénél.

Az o3-mini kiemelkedő teljesítményt nyújt a matematika, kódolás és tudományos feladatok terén. A külső tesztelők 56%-ban preferálták válaszait az o1-mini-hez képest, és 39%-kal kevesebb súlyos hibát vétett összetett, valós problémák megoldása során. A modell három különböző gondolkodási szinten (alacsony, közepes, magas) működtethető, lehetővé téve a felhasználók számára, hogy az adott feladat bonyolultságához igazítsák a modell erőforrás-felhasználását. Az o3-mini emellett támogatja a fejlesztők által régóta kért funkciókat, mint például a függvényhívásokat, strukturált kimeneteket és fejlesztői üzeneteket, így azonnal készen áll a termelési környezetben való használatra.

Az o3-mini jeletősen kedvezőbb árazással érkezik: 63%-kal olcsóbb az o1-mini-nél és 93%-kal az o1 modellnél, konkrétan 1,10/4,40 dollár per millió token be/ki áron (50%-os gyorsítótár kedvezménnyel). A ChatGPT ingyenes, Plus, Team és Pro felhasználói már hozzáférhetnek az o3-mini-hez, míg a vállalati felhasználók februárban kapnak hozzáférést. A Plus és Team felhasználók napi üzenetkorlátja 50-ről 150-re emelkedett, a Pro felhasználók pedig korlátlan hozzáférést kaptak mind az o3-mini, mind az o3-mini-high változathoz. Az o3-mini 200.000 tokenes kontextusablakkal rendelkezik, ami meghaladja a rivális DeepSeek-R1 128.000 tokenes kapacitását.

Források:

OpenAI Logo
OpenAI’s o3-mini Advanced Model
Discover the latest reasoning model from OpenAI with improved performance.

2.

It’s here: OpenAI’s o3-mini advanced reasoning model arrives to counter DeepSeek’s rise
It’s 63% cheaper than OpenAI o1-mini and 93% cheaper than the full o1 model, priced at $1.10/$4.40 per million tokens in/out.
]]>
Mesterséges intelligencia a társadalomtudományi interjúk elemzésében: kvalitatív adatok automatikus témafelismerése https://aiforradalom.poltextlab.com/mesterseges-intelligencia-a-tarsadalomtudomanyi-interjuk-elemzeseben-kvalitativ-adatok-automatikus-temafelismerese/ 2025. 02. 04. Tue, 08:33:30 +0100 67a1bb2970108a35a9b6b2e8 poltextLAB robotújságíró kutatási eredmények Az "Identification of social scientifically relevant topics in an interview repository: A natural language processing experiment" című tanulmány egy úttörő kísérletet mutat be a társadalomtudományi kvalitatív adatok automatizált feldolgozására.

A Társadalomtudományi Kutatóközpont Kutatási Dokumentációs Központja (TK KDK) és a Számítástechnikai és Automatizálási Kutatóintézet (SZTAKI) közös projektje 2020-ban indult, hogy mesterséges intelligencia segítségével tegye kereshetőbbé a társadalomtudományi interjúarchívumokat.

A szerzők (Gárdos et al. 2023) 39 interjút (összesen 1183 oldalt) választottak ki a gépi tanulás teszteléséhez, amelyből 21 interjú került a végleges tanulókészletbe. A kiválasztott anyagok között narratív interjúk, mélyinterjúk, félig strukturált interjúk és fókuszcsoportos beszélgetések is szerepeltek. Az öt tesztelt automatikus témafelismerési módszer közül a legjobb eredményt a SZTAKI által fejlesztett módszer érte el, amely a kulcsszavakhoz rendelt tárgyszavak alapján végzett elemzést, kiemelkedő F1-pontosságot mutatva. Szorosan mögötte az NN-ensemble hibrid megközelítés következett, amely az Omikuji és TF-IDF algoritmusok 3:1 arányú kombinációján alapult.

A kifejlesztett rendszer alapja egy 220 elemű társadalomtudományi tezaurusz, amely az European Language Social Science Thesaurus (ELSST) nemzetközi fogalomtár magyarra lefordított kifejezéseit, valamint 48 új, kifejezetten a magyar társadalmi és történelmi kontextusra jellemző fogalmat tartalmaz. Ilyen például a "rendszerváltás", "államosítás" vagy a "romafóbia". Ezáltal lehetővé válik a társadalomtudományi interjúk hatékonyabb kereshetősége és elemzése.

A kifejlesztett rendszer alapja egy 220 elemű társadalomtudományi tezaurusz, amely nemcsak a nemzetközi ELSST-fogalmak fordításait tartalmazza, hanem újonnan bevezetett, helyspecifikus koncepciókat is, mint például a "rendszerváltás" vagy a "romafóbia". Ezáltal lehetővé válik a társadalomtudományi interjúk hatékonyabb kereshetősége és elemzése.

Forrás:

Gárdos, J., Egyed-Gergely, J., Horváth, A., Pataki, B., Vajda, R. és Micsik, A. (2023) Identification of social scientifically relevant topics in an interview repository: A natural language processing experiment, DOI: 10.1108/JD-12-2022-0269

]]>
A politikai megosztottság vizsgálata AI-kódolt érzelmekkel: A MORES projekt bemutatása https://aiforradalom.poltextlab.com/az-erzelmek-szerepe-a-politikai-megosztottsagban-a-mores-projekt-bemutatasa/ 2025. 02. 03. Mon, 17:45:59 +0100 67a159cd70108a35a9b6b25a poltextLAB robotújságíró mores A HUN-REN Társadalomtudományi Kutatóközpont vezetésével kilenc európai intézmény összefogásában indult útjára a MORES projekt (Moral Emotions in Politics: How they unite, how they divide), amely a liberális demokráciát érő kihívásokat vizsgálja, különös tekintettel a morális érzelmek és értékek politikai szerepére.

A politikai érzelmek megértése kulcsfontosságú a társadalmi egység és megosztottság vizsgálatában. A 2024 januárjában indult MORES projekt célja, hogy feltárja, miként alakítják az morális érzelmek – mint a harag, a szégyen vagy a büszkeség – a politikai identitásokat és a társadalmi kohéziót. A hároméves kutatási programot a HUN-REN Társadalomtudományi Kutatóközpont vezeti, és kilenc európai intézmény együttműködésével valósul meg.

A MORES projekt három fő célkitűzése: (1) tudományos bizonyítékok létrehozása az morális érzelmek politikai identitásokra gyakorolt hatásáról, (2) a döntéshozók támogatása az érzelmi igények megértésében és kezelésében, valamint (3) ingyenes, innovatív eszközök biztosítása a civil társadalom számára a demokratikus értékek védelmében.

Boda Zsolt, a projekt vezetője szerint a kezdeményezés központi célja, hogy az egyéneket és intézményeket felruházza a politikai érzelmek megértéséhez szükséges tudással és eszközökkel, ezáltal elősegítve a konstruktív politikai vitákat. A MORES hosszú távú jelentősége abban rejlik, hogy hozzájárulhat a politikai polarizáció csökkentéséhez és a demokratikus értékek megerősítéséhez. A projekt eredményei nemcsak a tudományos közösség, hanem a döntéshozók és civil szervezetek számára is hasznos eszközöket kínálnak a demokratikus elköteleződés erősítésére Európa-szerte.

Források:

  1. mores-horizon.eu
]]>
A mesterséges intelligencia hallucinációjának csökkentése többszintű ügynökrendszerrel https://aiforradalom.poltextlab.com/a-mesterseges-intelligencia-hallucinaciojanak-csokkentese-tobbszintu-ugynokrendszerrel/ 2025. 02. 03. Mon, 08:16:15 +0100 67a159cd70108a35a9b6b259 poltextLAB robotújságíró kutatási eredmények A mesterséges intelligencia (MI) hallucinációinak kezelése kritikus kihívást jelent a technológia megbízhatósága szempontjából. Egy új kutatás szerint a többszintű ügynökrendszerek és a természetes nyelvi feldolgozás (NLP) alapú keretrendszerek jelentős előrelépést jelenthetnek a probléma megoldásában.

A "Hallucination Mitigation using Agentic AI Natural Language-Based Frameworks" c. tanulmányban Gosmar és Dahl egy háromszintű ügynökrendszert fejlesztettek ki, amelyben 310 speciálisan kialakított prompt (utasítás) segítségével tesztelték a hallucinációk csökkentésének hatékonyságát. Az eredmények azt mutatják, hogy a második szintű ügynök bevonásával a hallucinációs pontszám (THS) -1,52-ről -14,12-re csökkent, míg a harmadik szintű ügynök alkalmazásával -43,27-re csökkent az első szinthez képest.

A szerzők a rendszer hatékonyságát négy kulcsfontosságú teljesítménymutatóval (KPI) mérték: a tényadatok sűrűségével (Factual Claim Density - FCD), a tényszerű hivatkozások számával (Factual Grounding References - FGR), a fiktív tartalom jelzésének gyakoriságával (Fictional Disclaimer Frequency - FDF) és az explicit kontextualizációs pontszámmal (Explicit Contextualization Score - ECS).

Az eredmények rámutatnak, hogy a hallucinációk csökkentése szoros összefüggésben áll a strukturált információátadással az ügynökök között. Az OVON (Open Voice Network) keretrendszer és a strukturált adatátviteli formátumok (JSON üzenetek) kulcsszerepet játszanak ebben a folyamatban, mivel lehetővé teszik az ügynökök számára, hogy hatékonyan azonosítsák és jelezzék a potenciális hallucinációkat. Ez a megközelítés nemcsak a hallucinációs pontszámok csökkentésében bizonyult eredményesnek, hanem hozzájárult a válaszok átláthatóságának és megbízhatóságának növeléséhez is.

Források:

Hallucination Mitigation using Agentic AI Natural Language-Based Frameworks
Hallucinations remain a significant challenge in current Generative AI models, undermining trust in AI systems and their reliability. This study investigates how orchestrating multiple specialized Artificial Intelligent Agents can help mitigate such hallucinations, with a focus on systems leveraging Natural Language Processing (NLP) to facilitate seamless agent interactions. To achieve this, we design a pipeline that introduces over three hundred prompts, purposefully crafted to induce hallucinations, into a front-end agent. The outputs are then systematically reviewed and refined by second- and third-level agents, each employing distinct large language models and tailored strategies to detect unverified claims, incorporate explicit disclaimers, and clarify speculative content. Additionally, we introduce a set of novel Key Performance Indicators (KPIs) specifically designed to evaluate hallucination score levels. A dedicated fourth-level AI agent is employed to evaluate these KPIs, providing detailed assessments and ensuring accurate quantification of shifts in hallucination-related behaviors. A core component of this investigation is the use of the OVON (Open Voice Network) framework, which relies on universal NLP-based interfaces to transfer contextual information among agents. Through structured JSON messages, each agent communicates its assessment of the hallucination likelihood and the reasons underlying questionable content, thereby enabling the subsequent stage to refine the text without losing context. The results demonstrate that employing multiple specialized agents capable of interoperating with each other through NLP-based agentic frameworks can yield promising outcomes in hallucination mitigation, ultimately bolstering trust within the AI community.
]]>
Hatékony nyelvtechnológiai eszközöket kínál az Egyesült Arab Emírségek új Falcon AI modellje https://aiforradalom.poltextlab.com/az-egyesult-arab-emirsegek-uj-falcon-ai-modelljei-forradalmasitjak-a-nyelvtechnologiat/ 2025. 02. 02. Sun, 18:17:47 +0100 67a159cd70108a35a9b6b258 poltextLAB robotújságíró Falcon Az Egyesült Arab Emírségek Technológiai Innovációs Intézete (TII) 2024-ben két jelentős mesterséges intelligencia modellt mutatott be a Falcon sorozatban, amely újradefiniálja a nagy nyelvi modellek (LLM) fejlesztését.

A májusban bevezetett Falcon 2 és a decemberben megjelent Falcon 3 képviselik az emirátusi törekvést a mesterséges intelligencia demokratizálására. A modellek különlegessége, hogy az eddigi rendszerekkel ellentétben könnyű infrastruktúrán, akár laptopokon is futtathatók.

A Falcon 2 két változatban jelent meg: a Falcon 11B és a Falcon 2 11B VLM. Az alap verzió 11 milliárd paraméterrel és 5,5 billió tokenen lett betanítva, míg a VLM változat kép-szöveg átalakítási képességekkel is rendelkezik. A modell többnyelvű támogatást nyújt, beleértve az angol, francia, spanyol, német és portugál nyelveket. A Falcon 3 még ennél is továbbmegy: fejlettebb érvelési képességekkel és továbbfejlesztett finomhangolási lehetőségekkel rendelkezik, amelyek 2025 januárjától multimodális funkciókkal és hangmóddal bővülnek.

Az Emirátusok AI fejlesztési programja egy átfogó nemzeti stratégia része, amelynek célja, hogy az ország 2031-re globális AI vezetővé váljon a Nemzeti Mesterséges Intelligencia Stratégia 2031 keretében. A TII nyílt forráskódú megközelítése jelentősen hozzájárult az ország AI reputációjának növeléséhez, és elősegítette a fejlődő országokkal való együttműködést. Az Emirátusok emellett létrehozta a világ első Mesterséges Intelligencia Minisztériumát is, amely tovább erősíti vezető szerepét a technológiai innovációban.

Források:

Technology Innovation Institute Launches AI Model With Vision-to-Language Capabilities | PYMNTS.com
The United Arab Emirates (UAE)-based Technology Innovation Institute (TII) has announced a new iteration of its large language model (LLM). The new Falcon
Falcon 3: UAE’s Technology Innovation Institute Launches World’s Most Powerful Small AI Models That Can Also be Run on Light Infrastructures, Including Laptops
UAE’s Technology Innovation Institute Launches World’s most Powerful Small AI Models that can also be run on Light Infrastructures and Laptops
UAE-developed LLM Jais 70B aims to democratise access to AI | The National
Developer says Jais 70B delivers Arabic-English capabilities at an unprecedented size and scale
]]>
Magyarország új szuperszámítógépe: Levente 20 petaflopos teljesítménnyel érkezik https://aiforradalom.poltextlab.com/magyarorszag-uj-szuperszamitogepe-levente-20-petaflopos-teljesitmennyel-erkezik/ 2025. 02. 02. Sun, 13:28:23 +0100 67a159cd70108a35a9b6b257 poltextLAB robotújságíró szuperszámítógép A Wigner Fizikai Kutatóközpont csillebérci telephelyén épül meg Levente, Magyarország legújabb szuperszámítógépe az EuroHPC JU program keretében. A projekt kiemelt jelentőségű a hazai kutatás-fejlesztés és az ipari ágazatok technológiai fejlődése szempontjából, különösen mivel a gép teljesítménye négyszerese lesz a jelenleg működő Komondor szuperszámítógépnek.

A 20 petaflopos teljesítményű Levente fejlesztése uniós támogatással valósul meg, amelynek keretében az EuroHPC a költségvetés 35 százalékát biztosítja. A szuperszámítógép különlegessége, hogy moduláris felépítése révén kvantumszámítógép csatlakoztatására is alkalmas lesz, ami különösen fontos a Kvantuminformatika Nemzeti Laboratórium tevékenysége szempontjából. Az új infrastruktúra nem csak a magyar kutatók és egyetemi műhelyek számára lesz elérhető, hanem a hazai kis- és középvállalkozások, valamint startupok is használhatják majd mesterséges intelligencia modellek fejlesztésére és tesztelésére.

A Levente része annak az európai fejlesztési hullámnak, amely során több ország is új szuperszámítógépet kap, köztük Görögország (DAEDALUS), Írország (CASPIr), és Lengyelország (EHPCPL). Az új magyar szuperszámítógép várhatóan jelentősen hozzájárul majd az ország digitalizációs fejlődéséhez és a mesterséges intelligencia alapú innovációk térnyeréséhez, különösen a 2026-tól életbe lépő új európai MI-szabályozás tükrében.

Források:

Ez a Levente is szuper, de nem jégkorongozik
Zöld utat kapott Levente, az új magyar szuperszámítógép megépítése Csillebércen. A projekt milliárdokból valósulhat meg néhány éven belül. A szupercomputer kvantumszámítógép csatlakoztatására is alkalmas lesz.

2.

NKFIH | Jöhet Levente, az 5-6 szor gyorsabb szuperszámítógép
A 2023 elején üzembe állt 5 petaflops teljesítményű Komondor szuperszámítógépet hamarosan követheti a Levente nevű, új hazai szuperszámítógép, amely 5-6 szor nagyobb teljesítményt nyújthat majd elődjéhez képest, tudtuk meg a NKFI Hivatal és PMSZ közös közleményéből.

3.

Készül a Levente nevű szuperszámítógép - Jön a Mesterséges Intelligencia iroda itthon is
Nagy Márton nemzetgazdasági miniszter a kínai Shenzenbe látogatott, ahol részt vett és beszédet mondott a China Hi-Tech Fairen (CHTF) – közölte a Nemzetgazdasági Minisztérium (NGM) az MTI-vel. Az idén 26. alkalommal megrendezésre kerülő CHTF célja, hogy bemutassa a világ legújabb high-tech trendjeit és eredményeit, és megkönnyítse a csúcstechnológiájú termékek és technológiák globális kereskedelmét. A mintegy ... Olvass tovább
]]>
Az Alibaba új AI modellje felülmúlja a vezető versenytársakat https://aiforradalom.poltextlab.com/az-alibaba-uj-ai-modellje-felulmulja-a-vezeto-versenytarsakat/ 2025. 01. 31. Fri, 15:38:49 +0100 67a159cd70108a35a9b6b254 poltextLAB robotújságíró Alibaba Az Alibaba bemutatta legújabb mesterséges intelligencia modelljét, a Qwen 2.5-Max-ot, amely a vállalat közlése szerint felülmúlja a jelenlegi piacvezető modelleket, köztük a DeepSeek-V3-at, az OpenAI GPT-4-et és a Meta Llama-3-at.

A Mixture-of-Experts (MoE) architektúrára épülő modellt több mint 20 billió tokenen tanították, majd felügyelt finomhangolással (SFT) és emberi visszajelzéseken alapuló megerősítéses tanulással (RLHF) fejlesztették tovább. A benchmarkokon kiemelkedő eredményeket ért el: az Arena-Hard teszten 89,4 pontot szerzett (szemben a DeepSeek-V3 85,5 pontjával), a LiveBench-en 62,2 pontot (DeepSeek-V3: 60,5), míg a LiveCodeBench-en 38,7 pontot (DeepSeek-V3: 37,6).

A Qwen 2.5-Max már elérhető a Qwen Chat platformon keresztül, valamint fejlesztők számára az Alibaba Cloud Model Studio szolgáltatáson keresztül, amely kompatibilis az OpenAI API-val. Az Alibaba további fejlesztéseket tervez a modell gondolkodási és érvelési képességeinek növelésére a skálázott megerősítéses tanulás alkalmazásával.

Források:

Alibaba releases AI model it says surpasses DeepSeek Chinese tech company Alibaba released a new version of its Qwen 2.5 artificial intelligence model that it claimed surpassed the highly-acclaimed DeepSeek-V3.

2.

Qwen 2.5-Max: Features, DeepSeek V3 Comparison & More Discover Alibaba's latest AI model, Qwen2.5-Max, designed to compete with top-tier models like GPT-4o and DeepSeek V3.

3.

Qwen2.5-Max: Exploring the Intelligence of Large-scale MoE Model
QWEN CHAT API DEMO DISCORD It is widely recognized that continuously scaling both data size and model size can lead to significant improvements in model intelligence. However, the research and industry community has limited experience in effectively scaling extremely large models, whether they are dense or Mixture-of-Expert (MoE) models. Many critical details regarding this scaling process were only disclosed with the recent release of DeepSeek V3. Concurrently, we are developing Qwen2.
]]>
Olcsó kínai AI kényszeríti stratégiaváltásra a Mistralt https://aiforradalom.poltextlab.com/olcso-kinai-ai-kenyszeriti-strategiavaltasra-a-mistralt/ 2025. 01. 31. Fri, 15:31:22 +0100 67a159cd70108a35a9b6b253 poltextLAB robotújságíró Mistral A kínai DeepSeek AI startup januárban piacra dobta R1 nyelvi modelljét, amely az OpenAI modelljeihez hasonló teljesítményt nyújt, mindössze 6 millió dolláros fejlesztési költséggel - ez jelentős kihívás elé állítja az európai Mistral AI-t, amely eddig több mint 1 milliárd eurós befektetést gyűjtött és 5,8 milliárd eurós értékelést ért el.

A Mistral AI, amely eredetileg a csúcsminőségű modellek fejlesztésére összpontosított, most stratégiaváltásra kényszerülhet. Antoine Moyroud, a Lightspeed Venture Partners partnere szerint a vállalat már alkalmazkodik a helyzethez: "Egyértelmű, hogy a Mistralnak integrálnia kellett a mérnöki és termékfejlesztést a DNS-ébe, egy tisztán kutatásorientált cégtől olyan vállalattá fejlődve, amely most már mindhárom területet lefedi." A francia startup jelentős előrelépést tett az vállalati szektorban, szerződéseket kötve olyan nagyvállalatokkal, mint a BNP Paribas, az Axa és a francia védelmi minisztérium.

Callum Stewart, a GP Bullhound elemzője szerint a DeepSeek megjelenése akár előnyös is lehet a Mistral számára, mivel lehetővé teheti költséghatékonyabb modellek fejlesztését a költségtudatos vállalatok számára. A vállalat már reagált is a kihívásra: a héten új modellt jelentett be, amely a cég szerint "kiegészíti a nagy nyílt forráskódú következtető modelleket, mint a DeepSeek közelmúltbeli kiadásai, és erős alapmodellként szolgálhat a következtetési képességek kialakításához."

Források:

  1. Sifted: DeepSeek rewrote the AI rulebook. What will Mistral do next?
]]>
Európai alternatívák? Az AI-fejlesztők új versenytársat kaptak a DeepSeek megjelenésével https://aiforradalom.poltextlab.com/europai-alternativak-az-ai-fejlesztok-uj-versenytarsat-kaptak-a-deepseek-megjelenesevel/ 2025. 01. 31. Fri, 15:07:06 +0100 67a159cd70108a35a9b6b252 poltextLAB robotújságíró Mistral A kínai DeepSeek 2025 januárjában váratlanul belépett a ChatGPT és más vezető nyelvi modellek piacára, ami az európai AI-fejlesztők számára is új helyzetet teremtett. A Liang Wenfeng által 2023 júliusában alapított vállalat ingyenesen elérhetővé tette fejlett nyelvi modelljét, amivel az OpenAI, a Google és a Meta dominanciáját kívánja megtörni.

Az európai AI-fejlesztés jelenleg jelentős kihívásokkal küzd: egy 2024 májusában közzétett EU számvevőszéki jelentés szerint az EU és az USA közötti AI befektetési szakadék 2018 és 2020 között több mint 10 milliárd euróra nőtt. A francia Mistral AI - amely 2024-ben jelentette be ChatGPT-vel versenyző új modelljét - arra figyelmeztet, hogy Európában hiányoznak az AI modellek képzéséhez szükséges adatközpontok. "A magánélet iránti növekvő társadalmi tudatosság új lehetőségeket teremthet az adatvédelmet előtérbe helyező, társadalmilag fenntartható EU-alapú vállalkozások számára", nyilatkozta Anna Rogers, a Koppenhágai IT Egyetem docense.

A DeepSeek megjelenése bizonyítja, hogy az innováció nem feltétlenül igényel hatalmas erőforrásokat - állítja Nathalie Smuha, a Leuveni Egyetem docense. Az európai fejlesztések közül kiemelkedik az EuroLLM projekt, amely 2024 szeptemberében indult, és célja egy versenyképes többnyelvű modell létrehozása mind a 24 hivatalos EU nyelven. Emellett a német Aleph Alpha Luminous modellje és a francia Mistral AI is aktívan fejleszti saját megoldásait az európai piacra.

Források:

1.

Is DeepSeek a wake up call for Europe’s AI innovators?
Experts say that China’s AI development shows that regulation does not have to be a barrier for innovation.

2.

Europe lacks data centres and training capacity, Mistral AI warns
French start-up also concerned about lack of diversity in language training models.

3.

EuroLLM: Pioneering European Open Source AI
With the release of its first large language models (LLM), the EuroLLM project aims to offer a competitive multilingual and multimodal LLM for all 24 official European languages.
]]>
JUPITER: Európa első exascale szuperszámítógépe új korszakot nyit https://aiforradalom.poltextlab.com/jupiter-europa-elso-exascale-szuperszamitogepe-uj-korszakot-nyit/ 2025. 01. 31. Fri, 15:02:31 +0100 67a159cd70108a35a9b6b251 poltextLAB robotújságíró EuroHPC A Forschungszentrum Jülich kutatóközpont otthont ad Európa első exascale számítógépének, a JUPITER-nek, amely képes másodpercenként egy kvintillió (1018) számítási műveletet végrehajtani, ezzel forradalmasítva a tudományos kutatást és a komplex problémamegoldást.

Az exascale számítástechnika jelentős előrelépést jelent a szuperszámítógépek fejlődésében, mivel ezek a rendszerek ezerszer gyorsabbak a petascale rendszereknél. Míg az Egyesült Államok vezető szerepet tölt be olyan rendszerekkel, mint a Frontier (1,1 exaFLOPS) és az Aurora (2 exaFLOPS), Kína pedig már két exascale géppel rendelkezik - a Sunway OceanLight (1,3 exaFLOPS csúcsteljesítmény) és a Tianhe-3 (1,7 exaFLOPS csúcsteljesítmény) -, Európa most zárkózik fel a JUPITER üzembe helyezésével. "A JUPITER az EuroHPC kezdeményezés részeként kulcsfontosságú mérföldkövet jelent az európai szuperszámítástechnika fejlődésében, különös tekintettel a Rhea processzorok fejlesztésére" - nyilatkozta a Jülich Szuperszámítógép Központ.

A JUPITER üzembe helyezése stratégiai jelentőségű Európa számára, különösen annak fényében, hogy Kína 2025-re akár 10 exascale rendszer működtetését is tervezi. A szuperszámítógép olyan kritikus területeken nyújt majd támogatást, mint a nemzetbiztonság, az éghajlatkutatás, az orvostudomány, valamint az energia- és vízgazdálkodás komplex kihívásainak megoldása.

Források:

Jülich Supercomputing Centre (JSC)
The Jülich Supercomputing Centre provides leading-edge supercomputer resources, IT tools, methods, and know-how. Computing time at the highest performance level is made available to researchers in Germany and Europe by means of an independent peer-review process. At the time being, JSC operates one of the most powerful supercomputers in Europe, JUWELS, and provides the first quantum computing infrastructure with JUNIQ.

2.

Frontier supercomputer hits new highs in third year of exascale | ORNL
]]>
Már Trump érkezése előtt szigorította az amerikai kormány a csúcstechnológiai exportot Kína felé https://aiforradalom.poltextlab.com/biden-kormanya-szigoritja-a-csucstechnologiai-exportot-kina-fele/ 2025. 01. 31. Fri, 14:50:05 +0100 67a159cd70108a35a9b6b250 poltextLAB robotújságíró chip Az Egyesült Államok kormánya 2025 januárjában jelentősen megszigorította a félvezetők és mesterséges intelligencia technológiák Kínába irányuló exportját, különös tekintettel az NVIDIA chipjeire és az autóipari szoftverekre. A Biden-adminisztráció által bevezetett új szabályozás célja, hogy korlátozza Kína hozzáférését a fejlett technológiákhoz, miközben fenntartja az USA vezető szerepét a globális csúcstechnológiai szektorban.

A szabályozás előzménye a 2022 augusztusában bevezetett exportkorlátozás, amely már akkor 400 millió dollár értékű NVIDIA chip szállítását akadályozta meg. Az új, 2025-ös intézkedések még szigorúbbak: az NVIDIA A800 és H800 chipjeinek exportját is megtiltják, valamint kiterjednek az autóipari szoftverekre is. A Kereskedelmi Minisztérium közlése szerint: Az új szabályozás célja a nemzetbiztonsági kockázatok minimalizálása, miközben fenntartják az amerikai technológiai szektor versenyképességét.

Az intézkedés hatására az NVIDIA részvényei 2025 január első hetében 8%-kal estek. A szigorítás hosszú távú hatásai már most érezhetőek: az amerikai félvezetőipar exportja Kína felé 2024 utolsó negyedévében 25%-kal csökkent. Az új szabályozás különösen érinti az autóipari szektort, ahol a kínai és orosz eredetű szoftverek használata is teljes tilalom alá került. A szakértők szerint ez az intézkedéscsomag az elmúlt évtized legátfogóbb technológiai exportkorlátozása.

Források:

Tombol az Nvidia a Biden-kormány utolsó pillanatban kivetett új chipszankciói miatt
Ha a hétfőn kiadott exportkorlátozások és más szabályok 120 nap múlva életbe lépnek, az súlyosan érintheti az elmúlt években a világ második legértékesebb cégévé váló Nvidiát.
The new AI diffusion export control rule will undermine US AI leadership
John Villasenor examines how the new AI diffusion export control rule could backfire, stifling innovation and U.S. global leadership.
Understanding the Biden Administration’s Updated Export Controls
Gregory C. Allen reviews the Biden administration’s December 2, 2024, updates to AI and semiconductor export controls, spotlighting eight pivotal actions and their potential effects on U.S. strategic objectives.
Reuters Logo
U.S. officials order Nvidia to halt sales of top AI chips to China U.S. officials have told Nvidia to stop exporting two top computing chips for artificial intelligence work to China, a move that could cripple Chinese firms' ability to carry out advanced work like image recognition.

]]>
DeepSeek: Valóban új Szputnyik-pillanat a kínai MI fejlesztés? https://aiforradalom.poltextlab.com/deepseek-valoban-uj-szputnyik-pillanat-a-kinai-mi-fejlesztes/ 2025. 01. 31. Fri, 14:42:01 +0100 67a159cd70108a35a9b6b24f poltextLAB robotújságíró DeepSeek A kínai DeepSeek mesterséges intelligencia startup megjelenése megrázta a globális technológiai piacot, miután 2025 januárjában bemutatta R1 nevű modelljét, amely az amerikai versenytársak teljesítményét a költségek töredékéért képes nyújtani. A fejlesztés 5,6 millió dollárból valósult meg, szemben az amerikai Stargate projekt 500 milliárd dolláros költségvetésével.

A DeepSeek sikere különösen figyelemreméltó az amerikai chip-exportkorlátozások fényében. A hangzhoui székhelyű vállalat a kevésbé fejlett H800 chipekkel érte el áttörését, amit Jeffrey Ding, a George Washington Egyetem professzora szerint a korlátozások által kikényszerített hatékonyabb modellezési technikák tettek lehetővé. Marc Andreessen kockázati tőkebefektető "Szputnyik-pillanatként" jellemezte az eseményt, utalva az 1957-es szovjet műhold fellövésére, amely akkor sokkolta az amerikai technológiai szektort. Sam Altman, az OpenAI vezetője is "lenyűgözőnek" nevezte a DeepSeek teljesítményét.

A szakértők azonban megosztottak az esemény történelmi jelentőségét illetően. Steven Dickens technológiai elemző szerint a DeepSeek költséghatékonysága megkérdőjelezhető, becslése alapján csak az adatgenerálás költsége 75 millió dollár körül lehetett. Donald Trump amerikai elnök "ébresztő hívásként" értékelte a fejleményt, míg Mark Kennedy, a Wilson Centre igazgatója szerint az USA válaszként fokozhatja a chipkorlátozásokat és a hazai MI-fejlesztések támogatását, hogy megőrizze vezető szerepét anélkül, hogy más országokat Kína felé terelne.

Források:

1.

DeepSeek’s ‘Sputnik moment’ exposes holes in US chip curbs
For years, many assumed that the US would dominate in the field of artificial intelligence. Read more at straitstimes.com.

2.

DeepSeek is a modern Sputnik moment for West | The Strategist
The release of China’s latest DeepSeek artificial intelligence model is a strategic and geopolitical shock as much as it is a shock to stockmarkets around the world. This is a field into which US investors…
Is DeepSeek the Sputnik moment in AI?
Yet another DeepSeek take…
]]>