EN

Az AI-ban rejlő elfogultság: miért vallott kudarcot az amszterdami algoritmus?

Az AI-ban rejlő elfogultság: miért vallott kudarcot az amszterdami algoritmus?
Forrás: pexels - Chait Goli

Amszterdam 2023 márciusában elindított egy 4,2 millió eurós, etikai elvek alapján tervezett AI-rendszert a szociális juttatásokkal kapcsolatos csalások felderítésére, amely a fejlesztők szerint a világ egyik legigazságosabb algoritmikus rendszere lett volna, azonban 2025 májusában a városi tanács felfüggesztette a programot, miután kiderült, hogy továbbra is hátrányosan megkülönböztette a migráns és alacsonyabb jövedelmű lakosokat. A projekt célja az volt, hogy felváltsa a korábbi SyRI nevű algoritmusos rendszert, amelyet 2020-ban a hágai bíróság betiltott, miután megállapította, hogy az sérti az emberi jogokat és diszkriminál bizonyos lakossági csoportokat. Az új rendszer kifejlesztése során a város egy 11 fős etikai bizottságot állított fel, amely különböző háttérrel rendelkező szakértőkből, köztük adatvédelmi jogászokból, etikusokból és közösségi aktivistákból állt, akik közösen dolgozták ki az AI etikai keretrendszerét.

Az amszterdami kísérlet annak ellenére bukott meg, hogy a fejlesztők számos biztosítékot építettek be a rendszerbe: kizárták a potenciálisan diszkriminatív adatokat (például irányítószámokat és neveket), átláthatósági jelentéseket készítettek, és rendszeres emberi felülvizsgálatot vezettek be. A 18 hónapos tesztelési időszak után készült független audit azonban megállapította, hogy a rendszer továbbra is 37%-kal nagyobb valószínűséggel jelölt meg marokkói és török származású személyeket potenciális csalóként, valamint 28%-kal gyakrabban célzott meg alacsonyabb jövedelmű kerületekben élő lakosokat. Marieke Koekkoek, az amszterdami egyetem jogi szakértője szerint a kudarc fő oka az volt, hogy az algoritmus továbbra is olyan történelmi adatokon alapult, amelyek már beépített elfogultságokat tartalmaztak, és amelyeket nem lehetett teljesen semlegesíteni pusztán technikai megoldásokkal.

Az amszterdami eset az AI-rendszerek méltányosságával kapcsolatos szélesebb problémákra világít rá, és jelentős hatást gyakorolt az európai szabályozásra is. Az Európai Unió AI rendelete részben az amszterdami tapasztalatok hatására szigorította meg a szociális támogatásokkal kapcsolatos AI-rendszerekre vonatkozó szabályokat, így azok most a magas kockázatú kategóriába tartoznak, amely fokozott átláthatóságot és rendszeres auditokat követel meg. A holland kormány 2025 júniusában bejelentette egy új nemzeti keretrendszer kidolgozását, amely alapján 2026-ig felülvizsgálják és potenciálisan felfüggesztik a közszférában használt összes algoritmus alapú döntéshozatali rendszert, ami a kormányzati AI alkalmazások 47%-át érinti, és ezt a példát azóta további öt európai ország, köztük Dánia és Belgium is követte.

Források:

Inside Amsterdam’s high-stakes experiment to create fair welfare AI
The Dutch city thought it could break a decade-long trend of implementing discriminatory algorithms. Its failure raises the question: can these programs ever be fair?
Amsterdam’s Attempt at Fair AI for Welfare Fraud Detection Falls Short
Amsterdam’s latest venture into using artificial intelligence to reform its welfare system has become a cautionary tale in the global conversation around “responsible AI.” As detailed in a recent MIT…
Amsterdam Built the ‘Perfect’ Ethical AI System. It Still Failed. Here’s Why.
One of the most transparent AI projects in history reveals why building fair algorithms might be harder than we ever imagined.