Etika, felelősség, tévedés: hogyan szabályozható a mesterséges intelligencia?
6/12/2025 20:05
| Szerző: Kárpáti Iván/Klubrádió
| Szerkesztő: Szikora Gábor
A mesterséges intelligenciáról ma már sokan úgy beszélnek, mintha személy volna: kommunikál, válaszol, néha emberszerűen működik. Badinszky Áron jogász, az ELTE mesterséges intelligenciáért felelős rektori biztosa szerint ez félreértés, jogi szempontból pedig kifejezetten veszélyes. A mesterséges intelligencia (MI) ugyanis nem ember, hanem technológiai eszköz, amelyet az európai szabályozás is így kezel: gépi megoldásként, amely bizonyos emberi képességeket, például a tanulást vagy a következtetést képes reprodukálni, de nem rendelkezik személyi minőséggel.
Maga az "intelligencia" fogalma sem egységes, ezért a mesterséges intelligencia meghatározása is eltér a különböző tudományterületeken. A jogalkotásnak mégis definíciókra van szüksége, hogy kezelni tudja a technológiát, miközben a felhasználók hajlamosak emberi vonásokat tulajdonítani neki. Badinszky erre példaként említi a humanoid robotokat, amelyek ma már tudatosan nem kapnak élethű arcot, hogy elkerüljék az "Uncanny Valley" jelenséget: amikor a gép túlságosan embernek látszik, inkább félelmet kelt.
A legnehezebb kérdés a felelősségé. Az önvezető autók kapcsán már jól látszik, hogy a mesterséges intelligenciával működő rendszerekben szinte lehetetlen feltárni az ok-okozati összefüggést. A döntési folyamatok olyan bonyolultak, hogy még a fejlesztők sem tudják pontosan megmondani, miért „tévedett el” az algoritmus egy adott helyzetben. Európában emiatt továbbra is óvatosak az autonóm járművek engedélyezésével, ellentétben az Egyesült Államokkal, ahol már működnek teljesen önvezető taxik.
Sokan tartanak attól, hogy a szigorú európai adatvédelmi környezet miatt a kontinens lemarad a versenyben. Az amerikai és különösen a kínai fejlesztések nagyobb mennyiségű adatot használnak, sokszor olyan forrásokból, amelyek Európában nem lennének jogszerűek. Badinszky szerint ugyanakkor a GDPR és az európai adatvédelmi szemlélet a társadalom értékeiből fakad: itt elfogadhatatlan volna például a kínai típusú társadalmi megfigyelőrendszer. Ettől még igaz, hogy a nagy modellek tanítása világszerte sokszor szürke vagy fekete adatforrásokra épül, amit nagyon nehéz bizonyítani. Ezért perel több amerikai szerző és író is olyan cégeket, mint az OpenAI.
Egyre gyakoribbak azok az esetek is, amikor mesterséges intelligenciával folytatott beszélgetések tragédiába torkollnak. Olykor a chatbotok - alapvető megfelelési kényszerük miatt - rossz irányba erősítenek rá a felhasználó gondolataira. Bár a cégek ma már beépítenek korlátozásokat, a felelősséget rendszerint teljes egészében a felhasználóra hárítják. A szekértő szerint valószínű, hogy a jövő perei nem fogják alapjaiban átalakítani a szolgáltatók működését: inkább bekalkulálják a kártérítéseket, ahogyan egykor bizonyos autógyártók is tettek.
A tudatos felhasználás hiánya ugyanakkor legalább ekkora veszély. A statisztikák szerint az emberek nagy része találkozott már MI-vel, de jóval kevesebben értik, hogyan működik. A modellek meggyőző szövegeket képesek gyártani, de ezek sokszor nem valódi tudáson alapulnak, hanem mintákon és statisztikán. Ezért fordul elő, hogy egyesek MI-vel készítenek jogi beadványt, amely aztán elbukik a bíróságon, vagy internetes diagnózissal mennek orvoshoz. A hamis kompetenciaérzet minden szakmát érint: a chatbot nem látja át a valós helyzetet, és amit nem tud, gyakran egyszerűen „kitalálja”.
Mindez felveti az MI-etika kérdését is. A technológia gyors terjedésével párhuzamosan megjelent az igény arra, hogy a rendszerek ne váljanak diszkriminatívvá, rasszistává vagy veszélyessé. A mai nagy modellek már jóval biztonságosabbak, de az etikai követelmények - mint a magyarázhatóság, az átláthatóság, az elszámoltathatóság, az emberi felügyelet és a technológiai robusztusság - csak folyamatos munkával érvényesíthetők. Badinszky szerint a következő évek meghatározó kérdése az lesz, hogy a jog, az etikai elvárások és a társadalmi tudatosság képes-e együtt olyan kereteket kialakítani, amelyek mellett a mesterséges intelligencia nem veszélyt, hanem valódi értéket jelent.
A teljes adást meghallgathatják a fenti lejátszóra kattintva. (Amennyiben appon keresztül érik el oldalunkat, a lejátszó nem jelenik meg, ezért az adás meghallgatásához, kérjük, lépjenek át a klubradio.hu-ra.)
2025. december 6. szombat, 13:30
Szerkesztő-műsorvezető: Kárpáti Iván
