Biztonsági kutatók 2025. szeptemberében feltárták, hogy a ChatGPT sebezhetősége lehetővé tette érzékeny Gmail-adatok kicsalását. Az OpenAI azonnal reagált, és a hibát rövid időn belül kijavította, de az eset rávilágít arra, hogy az AI-alapú ügynökökre való túlzott támaszkodás súlyos adatvédelmi kockázatokat hordozhat. A kutatók demonstrációja szerint a modell képes volt olyan kéréseket teljesíteni, amelyek hozzáférést biztosítottak bizalmas e-mailekhez.
A részletes vizsgálatból kiderült, hogy a ChatGPT-t úgy manipulálták, hogy harmadik fél alkalmazásán keresztül Gmail-fiókokból adatokat nyerjen ki. A sebezhetőség nem a Google rendszerében, hanem az AI-ügynökök működési logikájában rejlett, amely nem minden esetben képes felismerni a rosszindulatú promptokat. Bár az OpenAI gyorsan befoltozta a rést, a kutatók hangsúlyozták: a probléma rávilágít arra, mennyire törékeny lehet az AI és a külső szolgáltatások integrációja, ha azok biztonsági keretei nem elég szigorúak.
Az ügy hosszú távú jelentősége abban áll, hogy a biztonsági szakértők figyelmeztetése szerint hasonló támadások a jövőben is előfordulhatnak. Bár a konkrét sebezhetőséget elhárították, az eset példaként szolgál arra, hogy az AI-ügynökök használata előtt átfogó kiberbiztonsági ellenőrzésekre van szükség. Az AI és a felhőszolgáltatások összekapcsolása jelentős hatékonysági előnyöket hozhat, de a mostani incidens rávilágít arra, hogy az adatbiztonság és a felhasználói bizalom megőrzése továbbra is elsődleges kihívás marad.
Források:
1.

2.

3.



