Az Európai Parlament a világon elsőként szerdán elfogadta álláspontját a mesterséges intelligencia szabályozásáról. A képviselők az európai köztereken teljes tilalom alá helyeznék a biometrikus tömeges megfigyelést és a gépi érzelemfelismerést, továbbá specifikus szabályokat írnának elő a generatív MI-kre, mint amilyen a ChatGPT.
Úton a világ első átfogó MI-szabályozása felé
Az Európai Parlament szerdai plenáris ülésén elsöprő többséggel, közel ötszáz szavazattal – a parlamentek közül a világon elsőként – elfogadta a mesterséges intelligenciára vonatkozó szabályozást, amelynek végleges formájáról még várhatóan év végéig meg kell állapodni a tagállamokkal is.
A jelentés szerzője, Brando Benifei olasz szocialista és Dragoş Tudorache, a Renew frakciójának román tagja a szavazást követően úgy vélte, hogy az EP álláspontjának sikerült egyensúlyba hoznia a fogyasztók és az innováció érdekeit. Tudorache vitába szállt a szavazás után megjelent egyes értelmezésekkel, amelyek szerint a szabályozás nélkülözi a megfelelő szigort. A jelentés társszerzője arra emlékeztetett, hogy a szabályok be nem tartása esetén a hatóságok visszavonhatnák a mesterséges intelligenciák piaci forgalomba hozatalra szóló engedélyét, rosszabb esetben éves forgalmuknak akár hét százalékát is kitevő pénzbírságot szabnának ki az MI-rendszereket piacra dobó cégekre.
Az Európai Parlament a szabályozás során az Európai Bizottság javaslatához hasonlóan kockázatalapú megközelítést választott: ennek értelmében a kockázatok szintje alapján állapítanának meg kötelezettségeket a szolgáltatók és a felhasználók számára. Az első kategóriába azok a mesterséges intelligenciák kerültek, amelyek társadalmi vagy környezeti veszélyességükre való tekintettel teljes tiltás alá kerülnének. Ezek a következők:
- a köztereken végzett valós idejű és utólagos távoli biometrikus azonosítás;
- az érzékeny személyes adatokon (nemen, fajon, etnikai származáson, állampolgárságon, valláson, politikai szemléleten) alapuló biometrikus kategorizálás;
- a profilalkotásra, illetve a tartózkodási helyre vagy bűnözői előéletre alapozott prediktív rendvédelem;
- a gépi érzelemfelismerés alkalmazása a bűnüldözésben, a határellenőrzésben, a munkahelyen és az oktatási intézményekben;
- arcfelismerő adatbázisok létrehozása az internetről vagy zárt láncú televíziós hálózatok felvételeiből nem célirányosan leválogatott arcképek felhasználásával (sértve az emberi jogokat és a magánélethez való jogot).
Mint arra Sergey Lagodinsky, a zöldek árnyék-jelentéstevője rámutatott, a fenti alkalmazások már használatban vannak Oroszországban és Kínában, kártékony hatást gyakorolva az alapvető jogokra és a szabadságjogokra. „Ezeknek a betiltása nem volt része a bizottsági javaslatnak. Nagyjából-egészében az elért kompromisszum észszerű egyensúlyt teremt a felelősségteljes szabályozás és az innovációhoz szükséges ösztönzők között” – hangsúlyozta a német zöldpárti képviselő.
Ehhez kapcsolódóan: Egyszerűen: mi az a ChatGPT?
Átláthatósági követelmények a ChatGPT-vel és másokkal szemben
Ami a második kategóriát illeti, a képviselők magas kockázatúnak minősítenék azokat az MI-rendszereket, amelyek jelentős mértékben veszélyeztetik az emberek egészségét, biztonságát, alapvető jogait vagy a környezetet. A választási eredmények és a szavazók befolyásolására alkalmas MI-rendszerek, illetve a több mint 45 millió felhasználóval rendelkező közösségimédia-platformok által használt ajánlórendszerek, a mesterséges intelligencia migrációs és határellenőrző célú használata ugyancsak felkerült a listára.
Végezetül az alacsonyabb kockázati fokozatú, általános célú MI-rendszerek fejlesztői csak azután hozhatnák forgalomba termékeiket az uniós piacon, hogy felmérték és mérsékelték a lehetséges kockázatokat (az egészségre, a biztonságra, az alapvető jogokra, a természeti környezetre, a demokráciára és a jogállamiságra), és bejegyeztették modelljüket az uniós adatbázisba. Az ilyen modelleken alapuló generatív MI-rendszerekkel szemben, mint például a ChatGPT, elvárás lenne az átláthatóság: minden esetben fel kellene tüntetni, hogy a tartalmat mesterséges intelligencia állította elő, segítséget kellene nyújtani az úgynevezett deep fake képeknek az igaziaktól való megkülönböztetéséhez, valamint megfelelő biztosítékokkal kellene elejét venni a jogellenes tartalomgenerálásnak. Részletes összefoglalást kellene például közzétenni a rendszerek betanításához használt, szerzői jogi védelem alatt álló adatokról.
Az innováció és a kkv-k támogatása érdekében a képviselők azt javasolták, hogy a kutatási tevékenységekre és a nyílt forráskódú licencek alapján rendelkezésre bocsátott MI-komponensekre ne terjedjen ki minden kötelezettség.
Panasztételi lehetőség a fogyasztóvédőknek
A képviselők több jogot kívánnak adni a polgároknak ahhoz, hogy adott esetben panasszal éljenek az MI-rendszerek alkalmazásával szemben, az alapvető jogaikra jelentősen kiható döntésekről pedig részletes tájékoztatást kellene kapniuk a polgároknak, amennyiben nagy kockázatú MI-rendszerek bevonásával születtek. Végezetül a parlament kibővítené az MI-ügyekkel foglalkozó uniós hivatal hatásköreit, hogy nyomon tudja követni az MI-szabálykönyv végrehajtását.
Az európai fogyasztóvédők szervezete (BEUC) közleményben üdvözölte a parlamenti szavazás eredményét, rámutatva egyúttal több olyan hiányosságra is, amelyek véleménye szerint gyengítik a szabályozást. A BEUC szerint a parlament aláásta a magas kockázatú rendszerek speciális kötelezettségvállalásának elvét, amikor tulajdonképpen rájuk bízta annak eldöntését, hogy az általuk előállított rendszerek magas kockázatúak, vagy nem. A fogyasztóvédők azt is kifogásolják, hogy az EP nem tiltaná az érzelemfelismerés gyakorlatát, amikor a cégek a fogyasztókkal szemben alkalmazzák, ami a BEUC szerint a fogyasztók magánszférájába való súlyos behatoláshoz vezethet.
A parlamenti álláspont elfogadását követően még szerda este megkezdődtek az intézményközi egyeztetések az új jogszabályról. Várakozások szerint a július 1-jétől hivatalba lépő spanyol soros EU-elnökség alatt megszülethet a végleges jogszabály, amelyet két év átmeneti idő után helyeznének hatályba.