Az Európai Unió fél évvel ezelőtt közzétette az első mesterséges intelligenciára vonatkozó szabályozási tervét. Az Európai Parlament szerint olyan szabályokra van szükség, amelyek biztosítják, hogy a végső döntést mindig az emberek hozzák meg. Közben az Egyesült Államokban rohamléptekkel vezetik be a fejlesztéseket és azt gondolják, hogy a túlzott szabályozás csak gátol.

- Létezik átfogó definíció a mesterséges intelligenciára és meg lehet húzni a határvonalat az MI és az algoritmusok között?

- Ki kell, hogy ábrándítsam azokat, akik valamilyen éles határvonalat képzelnek el a mesterséges intelligencia és az algoritmusok között. Fogalmazzunk úgy, hogy vannak bizonyos kritériumok, amelyek alapján felismerjük azokat az algoritmusokat, amelyek már mesterséges intelligenciának minősülnek. Az EU rendelettervezete igyekszik pontos definíciót adni rá, ez azonban egy tágabb értelmezés, miközben a szakirodalomban általában egy szűkebb kört tekintenek MI-nek.

A tágabb szerint minden olyan algoritmus, amely emberinek tűnő – autonóm – módon tud döntést hozni, már MI. Ezeknek a döntéseknek a nyomán – mivel hihetetlen mennyiségű adatot értékelve születnek meg – már-már úgy lehet érezni, hogy a gépnek önálló akarata van, holott minden döntési szempont bele van táplálva.

A szűkebb értelmezés szerint csak azokat a szoftvereket hívjuk MI-nek, amelyek a gépi tanulás képességét magukban hordozzák vagyis nem csak „ember módjára” döntenek, hanem imitálják az emberi gondolkozást.

Névjegy

Török Bernát 2003-ban szerezte jogi diplomáját a Pázmány Péter Katolikus Egyetemen. Előbb az Országos Rádió és Televízió Testület munkatársa, majd 2010 és 2018 között az Alkotmánybíróság főtanácsadója volt. 2016-17-ben a Yale Law School vendégkutatójaként dolgozott. Doktori fokozatát 2018-ban szerezte. Az NKE ÁNTK Alkotmányjogi és Összehasonlító Közjogi Tanszékének docense, és az Információs Társadalom Kutatóintézet vezetője. Kutatási területe a szólásszabadság és az információs társadalom alapjogi kérdései.

- Mit mond erről az uniós tervezet?

- A rendelettervezet konkrét technológiákról mondja ki, hogy közöttük kell keresni a mesterséges intelligenciát, minden olyan rendszert annak tekint, amely egy ember által kitűzött célrendszert önállóan követ és olyan kimeneteket produkál, amelyek befolyásolják a környezetüket. A gépi tanulás mellett ilyennek tekinti például a statisztikai rendszereket is.

- Egy sakkgépet nevezhetünk mesterséges intelligenciának, mikor minden tudását emberek táplálták belé?

- A tágabb értelmezés szerint igen, annak lehet tekinteni, hiszen nagyon magas szinten tudja reprodukálni az emberi tudást. Az EU szabályozás szempontjából ennek egyébként nincs jelentősége, mert az ilyen kis kockázatú rendszereket a tervezet – helyesen – nem szabályozná.

Török Bernát (fotó: Wágner Csapó József)

- A már működő és önálló döntéseket hozó rendszerek között érdemes kiemelni a robot-tanácsadókat, amelyek a munkaerőpiacon adnak HR-tanácsokat, vagy a banki hitelbírálatnál segítenek. Ezek a rendszerek már képesek önmagukat tanítani egyes ügyféltapasztalatok alapján. Látható tendencia, hogy a gépi tanulást minden rendszerbe integrálják, legyen szó az online platformokról vagy a navigációról.

- Ez már etikai kérdéseket is felvethet sok területen.

- Ez így van, vegyünk például egy várost, amelynek közlekedési lámpáit mesterséges intelligencia kezeli és a forgalomfigyelő kamerák képe alapján megtanulja, hogy az egyes utcákban, mikor milyen a forgalom. A kérdés, hogy megengedjük-e neki, hogy önállóan állítsa a piros-zöld ciklusokat, vagy csak javaslatot tehet és majd egy ember meghozza a döntést. Lehet persze extrém esetekre is gondolni: be lehet-e táplálni egy algoritmusba, amely például egy önvezető autót irányít, hogy kit üssön el, ha döntési helyzetbe kerül. Ehhez hozzátartozik, hogy ilyenkor az ember sem tud jó döntést hozni, már ha egyáltalán beszélhetünk jó vagy rossz döntésről ebben a tekintetben.

Alapvető kérdés, hogy döntsön-e egyáltalán a gép élet vagy halál felett, vagy ez legyen az emberek privilégiuma annak minden hibájával együtt

Ez a helyzet a közhatalmi döntésekkel is. Ha valakit felhatalmaztunk arra, hogy törvényeket alkosson, akkor tőle elfogadjuk, hogy így vagy úgy szabályozza az életünket, de egy géptől már nem biztos.

Az igazságszolgáltatásban működő MI-kre Amerikából tudok példát hozni, ahol már működnek úgynevezett bíró szoftverek és már megy a vita arról, hogy mennyire lehet ezekre támaszkodni egy döntésnél: amikor a bíró meghatározza, hogy kinek, mennyi óvadékot kell fizetnie, szabadlábon védekezhet-e vagy sem, fennáll-e a bűnismétlés veszélye, stb.

- Az MI nem csökkenti az előítéletes döntések számát?

- Elméletileg csökkentheti, de a gyakorlat ennek az ellenkezőjét is mutathatja. Az MI-k ugyanis, miután az egyes döntések nyomán öntanulással fejlesztették magukat, hajlamosak lehetnek embereket bizonyos tényezők, például a lakóhelyük irányítószáma szerint beskatulyázni és például bűnismétlés tekintetében vagy hitelképesség, megbízhatóság ügyében magasabb kockázatúnak tekinteni.

Ez sokkal kegyetlenebb világ is lehet, mint az elfogultságaival küzdő emberé

Ugyanis hiába tud az MI elképesztő mennyiségű adatot feldolgozva dönteni, arra nem képes, hogy egy egyedi és megismételhetetlen helyzetre választ adjon. Ehhez sokszor szív is kell, az pedig a gépnek nincs.

- Miért fontos most az EU-nak egy átfogó szabályozás?

- Már régóta foglalkoznak a kérdéssel és nem nagyon lehet halogatni, az Európai Bizottság elnökének egyik programpontjáról beszélünk. Az EU - elismerve az MI előnyeit - kockázati osztályokba sorolja a technológiát. Azokra fókuszál különösen, amelyek az emberi jogokra és a társadalomra különösen nagy hatást gyakorolnak. Ilyennek tekinti az oktatást, például egy egyetemi felvételit kezelő rendszert, az egészségügyet, az igazságszolgáltatást, a kritikus infrastruktúrákat és a biometrikus azonosítást.

A félelem abból fakad, hogy egyre több rendszerben kap helyet az MI, egyre több döntést hoz, miközben nem tudjuk, mi van a gép belsejében, hiszen önmagát tanítja. Az ENSZ azt mondja, hogy amíg nincs válasz minden kérdésre, legyen az etikai vagy technológiai, addig várjunk.

- És, várjunk?

- Van, ahol érdemes, máshol viszont nem. Eleve azt gondolom, hogy nem egyetlen nagy MI-kérdés van, hanem sok MI kérdés van különböző területeken. Maga a folyamat, úgy gondolom megállíthatatlan, sok területen nagyon megkönnyítik az életünket ezek a technológiák. Véleményem szerint soha nem fogunk 100 százalékig biztonságos rendszereket kapni. Az önvezető autók is hibáznak majd, de közben sok millió életet mentenek meg az utakon. Érdekes, hogy miközben percenként valószínűleg több ezer ember hajt át a piroson a világon, egy önvezető autó esetében azt mondjuk, hogy ez elfogadhatatlan, és amíg ilyen esetek előfordulnak, addig nem szabad kiengedni azokat az utakra. Ahogy mondtam, mást fogadunk el egy embertől, és mást a gépektől.

Ezért is vagyok elutasító az MI önálló alkalmazásával a jogalkotásban, igazságszolgáltatásban. Törvényeket és ítéleteket emberek hozzanak! Nem azért, mert feltétlenül jobb döntést hoznak, hanem mert ez itt a mi társadalmunk és kormányzatunk.

- Előrelépést jelent majd az uniós szabályozás?

- Fontos, hogy megtegyük az első lépést, de attól félek, hasonló kritikákat lehet majd megfogalmazni ezzel a tervezettel, mint a pár éve bevezetett általános adatvédelmi rendelettel (GDPR) kapcsolatban. Előrebocsájtom, hogy minden tiszteletem a GDPR-é, hiszen elévülhetetlen érdemei vannak az adatvédelmi tudatosság növekedésében, de az is látszik, hogy egyes problémákra külön reagáló szektorális szabályok nélkül akár a legfeszítőbb gondok is velünk maradhatnak. A fő cél az volt, hogy a nagy techcégek számoljanak el jobban az adatkezelésükkel, de én nem úgy látom, hogy ez teljesült volna. Sokszor az adatokat védjük, de nem a magánéletünket, márpedig az utóbbi az igazi tét.

Nem elegendő a horizontális szabályozás, amely nem veszi figyelembe az ágazatspecifikus tényezőket. Egészen más kockázatok vannak az egészségügyben alkalmazott MI-vel kapcsolatban és mások a közösségi médiában. Utóbbit például a tervezet alig szabályozza, holott pontosan tudjuk, milyen befolyása van például a szólásszabadságra. A jogszabályalkotók mentségére: a közösségi médiáról külön csomag rendelkezik, bár az sem reagál érdemben a társadalmi nyilvánosság problémáira.

- Ha már szektorális szabályozásról beszélünk. Az helyénvaló, ha az állam beleszól abba, hogy egy magáncég milyen módon választja ki az alkalmazottait? Akár MI segítségével?

- Ez egy nagyon aktuális kérdés, ugyanis miközben főként az államtól várjuk el, hogy tiszteletben tartsa az alapjogainkat, azt látjuk, hogy a technológiai újításoktól való félelmünkben sokkal szélesebb körben telepítünk alapjogi követelményeket magáncégekre. A szabályalkotók mindenekelőtt azt szeretnék biztosítani, hogy az MI ne diszkrimináljon, ezért átlátható, elszámoltatható legyen. Eközben közel sem természetes, hogy az állam mennyire széles körben mondja meg a magánszektornak, hogy milyen döntéseket hozzon. Fontosnak tartom, hogy bizonyos körben magánszereplőkre is előírjunk alapjogi jellegű követelményeket, de azt is, hogy ezt körültekintően tegyük.

- Nem álszent félni az MI-től, miközben mindent alárendelünk a technológiáknak, amelyek – mint a Pegasus példája is mutatja - rendkívül sebezhetőek.

- A technológiának való kiszolgáltatottságtól való rettegés és a mesterséges intelligencia rossz döntéseitől való félelem hasonlítanak. Minden technológia, amely meghatározza az életünket, az sebezhetővé tesz minket.

Van ugyanakkor egy ellentmondás a szabályozással kapcsolatban: miközben az államok nagyon szeretnék szabályozni az életünket átszövő technológiákat, amilyenek például a közösségi oldalak, közben nekik is egyre nagyobb szükségük van rájuk. A politikusoknak sem egyszerű közelíteni a kérdéshez, hiszen az emberek odavannak az új médiáért, ami ráadásul a politika számára is nagy lehetőségeket rejt magában. Leegyszerűsítve: jelenleg még kevesen látják úgy, hogy valóban érdekükben állna keményen nekimenni a Facebooknak.

A Napi.hu tartalmi együttműködő partnere a Nemzeti Közszolgálati Egyetem.