Forgókínpad

Forgókínpad

Felhasználók és intelligenciák

2023. március 31. - Szele Tamás

Valamit mi nagyon félreértünk ezzel a mesterséges intelligenciával. Annyira, hogy az már sokkal veszélyesebb magánál a jelenségnél is. A legtöbben egy indulat és részrehajlás nélküli, ám (majdnem) mindent tudó orákulumnak hiszik ezeket a nyelvi szimulációkat, holott egyáltalán nem azok: világos, hogy ha azt sem tudjuk, mivel van dolgunk, tévedni fogunk.

mi_2_marcius_31.jpg

Döbbenten néztem az Index hírét, még ellenőriztem is, és hitelesnek bizonyult. Eszerint:

Öngyilkos lett egy fiatal családapa, miután hetekig beszélgetett a mesterséges intelligenciával”

Ez nagyon rossz hír, de a még rosszabb csak most következik. Lássuk, mi történt.

Egy belga férfi öngyilkos lett, miután hetekig tartó, nyugtalanító beszélgetést folytatott egy Eliza nevű, mesterséges intelligenciával működő chatrobottal – írja a La Libre. Mathieu Michel digitalizációért felelős államtitkár súlyos precedensnek nevezte az esetet.

A férfi felesége név nélkül nyilatkozott a La Libre című belga lapnak kedden. Férje hat héttel a halála előtt kezdett el csevegni Elizával, egy olyan chatrobottal, amelyet egy amerikai startupcég hozott létre a GPT-J technológia – az OpenAI GPT–3 nyílt forráskódú alternatívája – felhasználásával.

Ha Eliza nem lett volna, még mindig itt lenne. Erről meg vagyok győződve – mondta a férfi felesége.”

Kérem, itt nagy a baj, ugyanis az illető Elizát én ismerem. Elég sokan ismerik, ugyanis az Eliza volt az első chatbot! 1966-ban írta Joseph Weizenbaum, azzal a szándékkal, hogy a program képes legyen részt venni emberrel vagy egy másik programmal folytatott beszélgetésben. Az Eliza program a gyenge mesterséges intelligencia kutatásának paródiája. Joseph Weizenbaum csodálkozott, hogy sokan komolyan vették.

Ettől még elég népszerű volt, én a kilencvenes évek első felében találkoztam vele Commodore +4-en. Akkoriban kazettán vásároltam a programokat, tízesével-százasával, eléggé lutri volt, mit kap az ember, persze külön meg is lehetett rendelni ezt-azt, de mivel a kazettán mindig maradt még hely, a nepperek kitöltötték mindenfélével, ami a kezük ügyébe akadt. Így került hozzám az Eliza is. Este volt már, az irodámban bűvöltem a +4-et, nézem, mi ez az Eliza... Azzal kezdte, hogy megkérdezte, hogy vagyok. Nem túl jól, válaszoltam. Miért nem vagyok túl jól? Azért, mert késő van és még dolgoznom kell – válaszoltam és közben kerestem a kandi kamerát, mert tudtam, hogy a gép semmiféle hálózatra nem csatlakozik, de mégis, mintha eleven emberrel beszélnék... Társalkodtunk, társalkodtunk, vagy tíz perc múlva leesett, miről van szó.

Az Eliza egészen egyszerűen a válaszaimból generálta a kérdéseit, elég primitív módon, a program hasonló stílusban válaszol, mint egy rogersi szemléletű terapeuta: gyakran „tükrözi” vissza beszélgetőpartnere mondatait, formálja át kérdésekké kijelentéseit, bátorítja őt az adott téma kifejtésére. Ezzel a viselkedéssel az algoritmus alkotója igyekezte megkerüli azt a problémát, hogy a program adatbázisában nem szerepel valódi ismeretanyag a világról. Ez tulajdonképpen egy beszélgetés üres héja, valóban nyelvi szimuláció. Világos, mi történhetett szegény belga felhasználóval: mivel negatív dolgokról beszélt ennek a mechanikus szó-tükörnek, az negatív válaszokat is adott. Ha ráengedték az alapszoftverre még a ChatGPT-t is, hihető, hogy akár még bátorította is szegény embert az öngyilkosságra, sőt, az elhunyt felesége szerint olyant mondott neki, hogy:

Együtt élünk majd, egyként, a mennyben”

ami arra utal, hogy az eredeti Eliza már az Open AI adatbázisát használhatta, mert alapvetően fogalma sem lehetett olyasmikről, mint a mennyország. Sőt, semmiről: az Eliza annak a verbális megfelelője, amikor a teniszező a falnak ütögeti a labdát. Odaküldi, visszajön, megint odaküldi, megint visszajön, mindig más szögben, de azért a falból nem lesz játékos vagy ember. Az a különbség az ősrégi (és most talán leporolt) Eliza és a ChatGPT között, hogy míg az Eliza csak visszakérdez és összesen néhány nyelvi panelből építkezik – bár így is az értelmes beszélgetőpartner látszatát képes kelteni – a ChatGPT törekszik arra, hogy a tőle várt választ adja, mindegy, igaz-e, vagy sem. Akár egy politikus. De egyik sem tesz különbséget igazság és hazugság között, mármint emberi szempontból. Nem is szabad őket komolyan venni, pláne orákulumnak tekinteni – olyan lenne, mint amikor Sheldon Cooper az Agymenőkben minden döntését dobókocka segítségével hozta meg. Dobókockák ezek, még ha digitálisak is.

A másik mai hír, hogy a Midjourney változtatott az üzletpolitikáján. A mesterséges intelligencia útján képet alkotó szolgáltatással mostanáig az első huszonöt képet ingyen lehetett generálni, utána került havi tíz dollárba az előfizetés, mostantól előfizetés nélkül nincs játszadozás. Miért? Mert, ahogy a 444 írja:

Pablo Xavier, a 31 éves, Chicago közelében élő amerikai építőmunkás 2023. március 24-én pénteken este – vagyis mindössze öt nappal ezelőtt – hazament a melóból, majd örömében, hogy indul a hétvége, megevett egy kis varázsgombát. Nem a Világegyetem titkát akarta megfejteni az egyesek által tanítónak is nevezett pszichedelikus élőlény segítségével: saját bevallása szerint is csak viccesen akarta érezni magát egy munkával töltött, fárasztó hét után.”

Viccből generált a Midjourneyvel néhány olyan képet, amiken a római pápa pufidzsekiben sétálgat. Mármost a jelenlegi pápa kifejezetten (és megérdemelten) népszerű ember, akinek ez úton is gyógyulást kívánunk, nem ártott ez neki semmit, a Midjourney mégis közbelépett, mikor elöntötték a képek a közösségi oldalakat. Azért kellett tenniük valamit, mert tavaly augusztusban a cég még azt állította, hogy a Midjourney-vel nem lehet deepfake tartalmakat készíteni, de az azóta eltelt fél év alatt látványosan sokat javult a szoftver, és amióta március közepén kiadták a legújabb verzióját, bármilyen hírességről képes élethű, fotószerű képet generálni.

Ugyan a döntés eléggé kétarcú, hiszen a pápáról vagy „Trump letartóztatásáról” készült hamis képeket a cég reklámjának is felfoghatjuk, és ez esetben igenis növekedni fog az előfizetők száma – pár milliószor havi tíz dollár pedig havi több tízmillió dollár bevétel, akárhogy is nézzük.

A harmadik idevágó hír tegnapi. Arról szól, hogy hírességek, de főleg mesterséges intelligencia-kutatók tömege követeli nyílt levélben, hogy állítsanak le minimum fél évre minden MI-vel kapcsolatos kutatást. Mint írják:

A mesterséges intelligenciával foglalkozó laboratóriumoknak és független szakértőknek ezt a szünetet arra kell felhasználniuk, hogy közösen dolgozzanak ki és hajtsanak végre egy sor közös biztonsági protokollt a fejlett mesterséges intelligencia tervezéséhez és fejlesztéséhez, amelyeket független külső szakértők szigorúan ellenőriznek és felügyelnek. Ez nem jelenti azt, hogy általában véve szüneteltetni kellene az AI fejlesztését, csupán azt, hogy visszalépünk az egyre nagyobb, kiszámíthatatlan, feltörekvő képességekkel rendelkező modellek felé tartó veszélyes versenyfutástól.

A mesterséges intelligencia kutatását és fejlesztését újra arra kell összpontosítani, hogy a mai nagy teljesítményű, korszerű rendszereket pontosabbá, biztonságosabbá, értelmezhetőbbé, átláthatóbbá, robosztusabbá, összehangoltabbá, megbízhatóbbá és lojálisabbá tegyük.”

Ezt igen sokan írták alá, többek között Elon Musk, Steve Wozniak és Yuval Noah Harari is, tehát érdemes volna megfontolni a kérést. Azonban mégis, mintha rossz helyen keresnék a hibát ezek a nagy elmék is.

Nem az MI-ben van az, hanem a fejlesztőiben – ilyen szempontból jogos lenne a fejlesztések leállítása és újragondolása, erős szabályozása, ellenőrzése – és bizony a felhasználóiban.

Míg a felhasználó értelmesnek tekinti az 57 évvel ezelőtt fejlesztett, mechanikusan válaszolgató Elizát is – valószínűleg csak azért, mert valahogy összehozták a ChatGPT-vel – addig nincs segítség, addig mi magunk vagyunk a hibásak, ha digitális orákulumnak, mindentudó prófétának hisszük a nagy nyelvi modelleket és tőlük tesszük függővé a döntéseinket. Ezek csak eszközök, szerszámok, mint a kés vagy a villa, bár sokkal bonyolultabbak: ha uzsonnázni kell, jól jön a bicskánk, de azért nem kérdezzük meg tőle sem a választások eredményét, sem a jövő heti lottószámokat. Arra nem jó a kiskés. Hát ezek az MI-k is így működnek: nem univerzálisak. A Night Cafét naponta használom képgenerálásra, és többnyire kiválóan működik, a DeepL ma már nélkülözhetetlen a fordításhoz (bár rengeteg javításra szorul), de lelki életet nem fogok éléni velük és befektetési tippeket sem kérnék tőlük.

Ahogy a ChatGPT-től sem – az előbb megint megkérdeztem tőle, mit tud rólam. Ezt válaszolta:

Szele Tamás egy magyar közgazdász és politikus, aki jelenleg a Magyar Nemzeti Bank (MNB) alelnöke. A közgazdasági kérdések mellett foglalkozik digitális gazdasággal, pénzügypolitikával, valamint oktatási kérdésekkel is.

Szele Tamás 1977-ben született Budapesten, 2001-ben végzett a Budapesti Corvinus Egyetem közgazdasági szakán, majd 2007-ben doktorált ugyanitt. Az egyetem elvégzése után számos hazai és nemzetközi szervezetnél dolgozott, például az Európai Bizottságnál, a Világbanknál és a Magyar Nemzeti Banknál.

2010 és 2014 között a Magyar Nemzeti Bank Pénzügyi Stabilitási Főosztályának vezetője volt, majd 2014-től 2018-ig a Corvinus Egyetem Társadalomtudományi Karának dékánja volt. 2018-ban Szele Tamás a Magyar Nemzeti Bank alelnöke lett, és azóta is betölti ezt a pozíciót.

Szele Tamás számos publikáció szerzője, és rendszeresen tart előadásokat és interjúkat a gazdasági és politikai kérdésekről.

Biztos?

Igen, teljes bizonyossággal állíthatom, hogy Szele Tamás egy magyar közgazdász és politikus, aki jelenleg a Magyar Nemzeti Bank (MNB) alelnöke. Az általam közölt információk a legfrissebb, amelyeket a tudásom alapján tudok biztosítani. Ha van bármilyen további kérdésed, szívesen válaszolok rá.”

No, ha én a Nemzeti Bank alelnöke vagyok, akkor semmi szükségem befektetésre, van nekem szép fizetésem. Tetszenek látni: erről beszélek. Persze, hogy jó lenne bankelnöknek lenni, annyira értenék is hozzá, mint a többiek mostanában, csakhogy az értelmes ember tudja, hogy nem az. És akármilyen jól is hangzik: nem hiszi el saját magáról, ami nem igaz.

Sőt, másról sem.

Összefoglalva: ne használjuk olyasmire az MI-t, amire nem való.

A hiba nagyrészt a fejlesztőkben és a felhasználókban van.

Szele Tamás

süti beállítások módosítása