Szertics: Arcunkba robbanhat az AI, ha rosszul használjuk
30/11/2025 17:23
| Szerző: Kárpáti Iván/Klubrádió
Szertics Gergely, a HUN-REN kutatóhálózat AI-transzformációért felelős vezetője szerint a mesterséges intelligencia nem "marha intelligens szuperlény", hanem egy új elektromotor: óriási teljesítményre képes, de ha rosszul használjuk, könnyen "az arcunkba robbanhat".
Az egyik legkényesebb kérdés a szenzitív adatok kezelése. A hétköznapokban már ott tartunk, hogy céges szerződések, bizalmas iratok, sőt akár a saját laborleleteink is ott landolnak egy-egy nagy nyelvi modell, például a ChatGPT felületén. Szertics felhívja a figyelmet: ilyenkor valójában nem egy „ártatlan robotnak” küldjük el az adatainkat, hanem egy konkrét cégnek, konkrét szerverekre, konkrét - és csak papíron ellenőrizhető - adatkezelési ígéretekkel. A biztonsági szakértők ezt hívják „papírbiztonságnak”: le van írva, hogy mit ígér a szolgáltató, de a felhasználó sem technikailag, sem jogilag nem tudja ezt érdemben kikényszeríteni.
Ráadásul sokan abban a tévhitben élnek, hogy ha „nem használják az AI-t”, akkor biztonságban vannak. Csakhogy az AI nem egyenlő a ChatGPT-vel, az csak az egyik, látványos megjelenési formája. Ugyanaz a „motor” futhat felhőben, céges szerveren, elszigetelt, internetkapcsolat nélküli környezetben is. Vagyis lehet úgy AI-t használni, hogy az adatok ki sem mennek a házon kívül, ehhez azonban érteni kell a technológiát, és kifejezetten ilyen, zárt, kontrollált megoldásokat kell építeni. Itt kezdődik a valódi, nem papíron létező adatbiztonság.
Közben a tudományban már most látszik, mekkora ugrást hozhat a mesterséges intelligencia. Szertics példaként a klímakutatást említi: külön óriási modellek írják le, hogyan változik a klíma, és külön modellek becsülik meg, hogy az egyes felszíntípusok - erdők, gyepek, városi felületek - mennyi szén-dioxidot nyelnek el. Ezeket eddig fizikailag, számítási kapacitásban is alig lehetett összekötni. Most olyan MI-alapú rendszereket építenek, amelyek képesek „darabokra szedni” ezeket a modelleket, kapcsolatokat keresni közöttük, és új, összetettebb előrejelzéseket létrehozni. Ez nem elvont sci-fi, hanem konkrét, futó kutatási irány Magyarországon is.
Hasonló a helyzet a csillagászatban, ahol felfoghatatlan mennyiségű adat gyűlt össze, űrtávcsövek, szondák, földi megfigyelők milliárdnyi méréséből. Ezekben az adathalmazokban kell észrevenni, hogy „ott, a zajban” rejtőzik egy exobolygó, egy együtt mozgó csillaghalmaz vagy egy furcsa jelenség. Ezt a végtelenhez közelítő munkát emberi erővel képtelenség végigcsinálni, az MI viszont - megfelelően irányítva - olyan összefüggéseket is ki tud bányászni, amelyekhez a kutató egyedül sosem jutott volna el.
Fontos azonban, hogy Szertics szerint az általános, lakossági modellek - mint a ChatGPT - nem tudást, hanem mintákat használnak. Van egy korlátozott „kontextusablakuk”: nagyjából néhány tucat, esetleg száz oldalnyi szöveget képesek egyszerre jól kezelni, de nem a teljes büntető törvénykönyvet, nem egy egész élettörténetet és nem egy teljes vállalati irattárat. Ha túl sok dokumentumot öntünk rájuk, a modell kiragad részleteket, és ezekből próbál „okosnak látszó” választ adni, ami nagyon meggyőző tud lenni, csak éppen téves.
Ezért éles helyzetben - jogban, orvoslásban, céges döntéshozatalban - nem az a megoldás, hogy ráöntünk egy halom PDF-et egy általános MI-re, és elhisszük az első válaszát. A kutatói gyakorlat inkább az, hogy a konkrét területre szabott rendszert építenek: a modellt megtanítják az adott szakma tipikus hibáira, köré ellenőrző mechanizmusokat, „másodvéleményező” ügynököket, szabályalapú szűrőket tesznek, és csak ezek után bíznak rá részfeladatokat.
Szertics szerint a kulcs az, hogy az emberek megtanulják, hogyan kell használni ezeket az eszközeket: bátran kísérletezve, de folyamatosan tudva, hogy nem értünk mindent, ami a háttérben történik. Ha úgy tekintünk az MI-ra, mint egy lelkes, de hibázni képes gyakornokra - akinek a munkáját mindig ellenőrizni kell -, akkor óriási segítséget kaphatunk tőle. Ha viszont mindent rábízunk, köztük a legintimebb adatainkat és a legfontosabb döntéseinket, akkor nem a technológia veszélyes, hanem a saját naivitásunk.
A mesterséges intelligencia tehát egyszerre jelent adatvédelmi aknát és tudományos rakétát. Hogy melyik arca lesz erősebb az életünkben, az azon múlik, képesek vagyunk-e okosan szabályozni, felelősen használni, és megérteni, hogy amit ma „mesterséges intelligenciának” hívunk, az valójában csak egy nagyon erős motor, a kormány és a fék még mindig nálunk van.
A teljes adást meghallgathatják a fenti lejátszóra kattintva. (Amennyiben appon keresztül érik el oldalunkat, a lejátszó nem jelenik meg, ezért az adás meghallgatásához, kérjük, lépjenek át a klubradio.hu-ra.)
2025. november 29., szombat 13:30
Szerkesztő-műsorvezető: Kárpáti Iván
