SZTE magazin

Dr. Jelasity Márk egyetemi tanár, a Szegedi Tudományegyetem Számítógépes Algoritmusok és Mesterséges Intelligencia Tanszékének vezetője. Fotó: Kovács-Jerney Ádám

A jutalomfüggvény lelkiállapota – Dr. Jelasity Márk MI-kutató a mesterséges intelligencia öntudatáról

Ami az elménkben történik, modellezhető-e a mesterséges intelligenciával? Nem csak az ember sajátossága a jelentéstulajdonító értelem? Félhet-e az algoritmus, lehet-e nagylelkű egy szoftverágens, és kialakulhat-e az embernélküli nyelv? Dr. Jelasity Márk egyetemi tanár, a Szegedi Tudományegyetem Számítógépes Algoritmusok és Mesterséges Intelligencia Tanszékének vezetője válaszol.

Cikk nyomtatásCikk nyomtatás
Link küldésLink küldés

A mesterséges intelligencia kutatásának központi kérdése-e az, hogy hogyan működik valójában az emberi elme? A MI fejlesztése és az elme kutatása ugyanaz a probléma?


– Az elme kutatása kognitív szemléletű tudomány, amelynek az a célja, hogy megértsük, hogyan működik az emberi értelem. Ott valóban az a feladat, hogy az emberi elmét kell modellezni, milyen értelmi képességei, milyen korlátai vannak. A mesterséges intelligencia fejlesztésében ezzel szemben inkább mérnöki szemlélet uralkodik, megpróbálunk valamilyen feladatot kitalálni és megoldani. Egyes mesterséges intelligencia módszerek egyértelműen teljesen máshogy működnek, mint az emberi gondolkodás. A jó sakkjátékos tervezéséhez nem érdekes, hogy ez a sakkjátékos úgy gondolkodik-e, mint egy ember, a cél olyan algoritmust készíteni, ami jól tud sakkozni. Ennek sokszor az az eredménye, hogy egyáltalán nem olyan tulajdonságai lesznek, mint egy emberi sakkozónak, de attól még sakkban lehet, hogy megveri az embereket. Más mesterséges intelligencia fejlesztési feladatokban pedig nem is tevődik fel ez a kérdés. Ha az a cél, hogy mondjuk meg, mi van a képen, macska-e vagy kutya, az is tiszta mérnöki feladat. Tehát nem érdekes, hogy az emberek ezt hogyan oldják meg, hanem az érdekel, hogy az általunk összegyűjtött példákon helyesen működjön az algoritmus. Vannak azonban olyan mesterséges intelligencia módszerek is, amelyek már közelebb lehetnek az elmeszerű működéshez, mint például a modern, neuronháló alapú sakkprogramok vagy a nagy nyelvi modellekre alapuló következtetések, mint amit a ChatGPT-nél látunk. Ezek nem formális szimbolikus szabályokat használnak, hanem a mintafelismerés elvét, azonban egyelőre szintén eléggé különböznek az emberi gondolkodástól; vagy azért, mert egy-egy speciális területre vannak korlátozva (mint a sakk vagy a GO játék), vagy pedig, ahogyan a nagy nyelvi modellek, egyáltalán nem rendelkeznek következtetési és tervezési képességekkel.


Az érdekel, hogy a fejlesztés során az azonos célok révén közel sodródhat-e a mesterséges intelligencia az emberi elme modellezéséhez. Nézzük előbb arról az oldalról, hogy kreatív-e a MI? A Chat GPT például kreatív?

– Nem minden mesterséges intelligencia kreatív. A Chat GPT bár kreatívnak tűnik, verseket, képeket lehet vele létrehozni, de nem tud kreatív utakat kitalálni abban, hogy egy előre kitűzött célt hogyan kellene elérni, és az új helyzetekhez sem képes alkalmazkodni; teljesen máshogyan van megtervezve. A Chat GPT generált szövegeket készít; egy tanító algoritmus készíti fel emberek által létrehozott nagy mennyiségű példa alapján, hogyan kell a statisztikailag legvalószínűbben helyes választ adni a bemeneti kérdésre. A tanító algoritmus a mintafelismerés alapján működik, ezért a Chat GPT is alapvetően ezt a statisztikát tanulja meg: ha valami volt, akkor utána mi valószínű, hogy lesz. Az az intelligens benne, hogy nem mi mondjuk meg neki, melyek a szabályok, hanem hagyjuk, hogy a minták alapján ő találja meg. A Chat GPT azonban nem hoz döntéseket, és nincsenek céljai. Ha inputot kap, akkor outputot ad vissza, de egyébként nem akar semmit. Az ilyen alkalmazások szigorú értelemben véve nem ágensek, csak algoritmusok, amelyek egy bemenetből egy kimenetet állítanak elő, viszonylag egyszerűen leírható statisztikai modellek segítségével. A kreatív jelleg akkor alakulhat ki, amikor céllal rendelkező, önállóan cselekvő ágenst kezdünk tervezni. Ezekhez a megerősítéses tanulás technológiáját használjuk, ami azt jelenti, hogy tetszőleges környezetbe berakunk egy ágenst, és csak annyit mondunk meg, hogy ennek az ágensnek milyen állapot lesz jó és rossz, mit próbáljon meg elérni, mit kerüljön el, de egyébként a célját úgy éri el, ahogyan akarja. Ezen kívül nem határozunk meg semmit neki, hanem azt mondjuk, találd ki, mit kell tenned ahhoz, hogy neked jó legyen, vagy ne legyen rossz.


Dr. Jelasity Márk egyetemi tanár, a Szegedi Tudományegyetem Számítógépes Algoritmusok és Mesterséges Intelligencia Tanszékének vezetője

Dr. Jelasity Márk. Fotó: Kovács-Jerney Ádám


Kaphat túl nagy önállóságot egy ágens? Elindulhat az emberi szándéktól függetlenedés útján?

– Minél bonyolultabb a probléma, annál inkább csak ilyen ágensekkel fogjuk tudni megoldani. Nem lehet megúszni, hogy a robot saját cselekvéseiből magától tanuljon, mert elegendő tanítópéldát soha nem fogunk tudni neki mutatni. Ennek persze problémái is vannak, nem mindenki tudja például, hogy az önvezető autók nem tanulnak működés közben, ugyanis már fixek az algoritmusaik. Ha egy önvezető autó mászkál az úton, az nem képes abból tanulni, hogy valamit rosszul csinált, és ez így van jól, senki sem üdvözölné, ha az önvezető autók valamilyen módon kreatívan kezdenének fejlődni. Valóban problémát jelent tehát, ha egy ágensnek túl nagy önállóságot adunk. Mondjuk, egy mezőgazdasági robotnak az lesz a feladata, hogy szedje le az almát. Nem mondom meg neki, hogyan végezze el, hanem csak a feladatot tisztázom: itt a gyümölcsöskert, estére legyenek a ládákban az almák, találd ki, hogyan oldod meg. Ilyen esetben nem zárja ki semmi, hogy a robot kimenjen az utcára, összegyűjtse az embereket, és kényszerítse őket, hogy estére szedjék le az almát. Ha megfelelő intelligenciával rendelkezik, nem az lesz az első gondolata, hogy ő hogyan álljon neki, hiszen kreatívan sok rendelkezésre álló lehetőséget fel tud használni, és olyasmi is rendelkezésére áll, amire a rendszer tervezője nem is gondolt. Abban a világban az emberek összeterelése is egy lehetséges lépés. Nem véletlen, hogy a mesterséges intelligencia egyik fő kutatási iránya pontosan ezeknek a tanító algoritmusoknak a fejlesztése.

Végül is mi váltja ki ezt a viselkedést? Hiszen a mesterséges intelligencia nincs tudatában az önállóságának.


– Az almaszedő példa azt világítja meg, hogy ha egyre gazdagabb környezetbe tesszük az ágenst, és motiváljuk a kreativitásra, akkor magától a környezeti gazdagságtól jöhetnek ki a problémák. A robotok, amelyek almát szedni tanulnak meg, teljesen ugyanazt a megerősítő tanulási algoritmust használják, mint mondjuk egy sakkozó algoritmus. Csakhogy a sakkban egyszerű a környezet. Megvan, mit csinálhatok, megvan, hogy mi a cél, és a sakkszabályok keretében abból nem lesz baj, ha olyat lépek, amire senki sem számított. De ha a való életbe teszek egy robotot, és ott definiálom neki, hogy mit értek az alatt, hogy nyert vagy vesztett, hogy mit lehet csinálni és mit nem, ott már lehet baj az, ha olyat lép, amire nem gondoltam előre. Ha az almaszedő robot esetét tovább gondoljuk, akkor az lenne a feladat, hogy megfelelően korlátozzuk a lehetséges lépések körét, hogy ne legyen gond. Csak az a baj, hogy ez lehetetlen. Túl sok a lehetőség.


Akkor tehát valódi eshetőség, hogy a mesterséges intelligencia olyan állapotba jut, mintha öntudata lenne? Idén a Lábjegyzetek Platónhoz konferencián „A filozófia hosszú éjszakája” beszélgetés is erről a témáról szólt; ott is szóba kerültek különféle apokaliptikus forgatókönyvek, ezeket ön nem táplálta, de azért jelezte, hogy az öntudatra ébredés nem zárható ki.


– Innentől kezdve ugyanis egy filozófiai problémáról is beszélünk. A gazdag környezetbe helyezett almaszedő robot, ugye, a fokozott kreativitást jellemezte, és láttuk, hogy van bizonyos veszélyessége is, de nem lehet azt mondani róla, hogy szükségszerűen öntudatra ébred. Sőt, szerintem irreleváns, hogy öntudatra ébred-e, ráadásul nem is tudnánk bebizonyítani, hogy van öntudata. A veszélyessége ettől függetlenül fog megjelenni. Hanem, ha mégis értelmezni kell egy ágens esetén az öntudatra ébredés folyamatát, szerintem az egyik előfeltétel az, hogy ez egy többágenses modell legyen, amelyben a többi ágens a környezet részévé válik. Ilyen környezetben rendkívül előnyös, ha az ágensünk, azért, hogy az történjen, amit szeretne, a többieket is megérti, vagyis tudja, hogy az egyes ágensek mit akarnak, és mit tudnak. Ha nem érti őket, akkor sikertelen lesz ebben a környezetben. Az ágensen tehát nagy nyomás van, hogy modellezze a többi ágenst. Ez az, amit az állatvilágban az emberi faj tud a legjobban, hogy a többieket nagyon-nagyon részletesen modellezze. Tudjuk, hogy mások feltehetően mit gondolnak, mit akarnak, mit fognak dönteni. Valószínűleg ez a kulcsa az öntudatra ébredésnek is, mert ahhoz az kell, hogy felismerjem: én is része vagyok a rendszernek, olyasmi vagyok, mint a többiek. Nos, ilyen környezetben az ágensek előbb-utóbb elsajátítják ezt a képességet. Innen már csak egy lépés, hogy ők maguk rájöjjenek, hogy olyan ágensek, mint a többi ágens. És szerintem ilyenkor a nyelv is kialakulhat magától, mert a nyelv fontos ahhoz, hogy a többi ágenst is tartalmazó környezetben hatékonyan lehessen működni. A komplexitás a kulcs tehát. Onnantól fogva, hogy az ágens rájön, hogy ő is olyan, mint a többiek, és egy nyelv is kialakul az ágensek között, elkezdődhet az ágensnek egy saját belső narratívája, arról, hogy mi történik vele; ez pedig maga az öntudat. A világról alkotott modelljeink részletességének növelésével a mennyiségi növekedés egy ponton átcsap minőségibe, ami szerintem a nyelv kialakulásának, és az öntudatnak is kulcsa.


Dr. Jelasity Márk egyetemi tanár, a Szegedi Tudományegyetem Számítógépes Algoritmusok és Mesterséges Intelligencia Tanszékének vezetője

Dr. Jelasity Márk. Fotó: Kovács-Jerney Ádám



Óvatosan kérdezem, ugye még mindig egy algoritmusról beszélünk, ami mégiscsak absztrakció?

– Az ágens egy speciális szoftver, amivel modellezni szoktuk a mesterséges intelligencia algoritmusokat. Olyan szoftver, ami képes a környezetét észlelni, és valamilyen módon ráhatással is tud lenni a környezetére. Célorientált ágenseknek szokták hívni azokat, amelyek úgy optimalizálják a saját cselekvéseiket, hogy egy általam előre megadott célt próbálnak elérni. Saját célt nem tűznek ki, viszont az almaszedéses példában is látszik, hogy azért ez nem atombiztos. Nick Bostrom oxfordi filozófus híres gemkapcsos esete például arról szól, hogy tervezünk egy robotot, ami gemkapcsokat gyárt; ez teljesen ártalmatlannak tűnik. Azt mondjuk neki: az a célod, hogy gemkapcsokat gyárts, ezért létezel. Csakhogy amikor ez az ágens elkezdi magát javítani, akkor előbb-utóbb eljutunk arra a pontra, ahol mindent a gemkapocsgyártásnak fog alárendelni, és emiatt fogja átvenni az uralmat az emberek fölött, hiszen számára ez a követendő cél. Minél több gemkapocs van, annál jobb a világ, és ezért ő ki fogja találni, hogy mindenki gyártson gemkapcsot. Mindezzel együtt azt mondom, bánjunk óvatosabban az „algoritmus” kifejezéssel, inkább úgy érdemes felfogni a dolgot, hogy megfelelő "hardveren" a megfelelő számításokat elvégezni képes "gépet" lehet készíteni. És itt fontos lehet az is, hogy mi a hardver, és hogyan működik a gép, nem csak az algoritmus, az egésznek az absztrakt modellje fontos. Ha csak az absztrakt modellre figyelünk, akár kétségbe is vonható, hogy a gép válaszai mögött valódi, az emberi értéshez hasonló mesterséges intelligencia húzódik, gondoljunk Searle kínai szoba gondolatkísérletére!

Searle, ha jól értem, azt tette fel, hogy egy zárt szobában egy résen át kínai nyelven, kínai jelekkel írott kérdéseket kap, és ezekre kell válaszolnia, miközben ő maga nem tud kínaiul. De az ismeretlen írásjelek mellé könyvekben szabálykészletet és utasításokat kap a saját anyanyelvén, és ezek alapján ki tudja kombinálni a válaszokat, amelyek olyanok, mintha egy kínai írta volna őket. Searle következtetése, hogy a mesterséges intelligencia ugyanígy nem ért semmit a helyes válaszokból, csak szimulálja a jelentést tulajdonító gondolkodást. Mit gondol erről?

– Searle gondolatkísérletében a szobában levő ember egy univerzális számítógépet szimbolizál, amely tetszőleges programokat tud futtatni, a futtatott program pedig, ami a kínaiul tudó embert modellezi, a könyvekben levő szabálykészlet. Az alapgondolatot, amire a kísérlet rávezet, én úgy fogalmaznám át, hogy nemcsak az absztrakt algoritmus számít, hanem annak a megvalósítási módja is. A gondolatkísérlet mögött az ún. univerzális Turing gép gondolata van, ami nem más, mint egy számítógép, amely bármely más számítógépet tud modellezni, többek között önmagát is. Ezért aztán egy adott algoritmust végtelen módon meg lehet valósítani (hiszen, ha van egy megvalósításom, akkor mindig tudok csinálni még egyet úgy, hogy egy univerzális gépen modellezem az adott megvalósítást), és elég erős dolog lenne azt állítani, hogy ha az egyik megvalósítás például egy öntudattal rendelkező elme, akkor mindegyik másik is az lesz. Én sem hiszem, hogy feltétlenül az lenne, de ez nem egyértelmű kérdés azért egyáltalán.

Ha védhető nézet az, hogy a mesterséges intelligencia nemcsak szimulálni képes az elmét, hanem ténylegesen ugyanúgy tud majd működni, akkor miért kell tartani attól, hogy almaszedésre vagy gemkapocsgyártásra fog kényszeríteni?

– Mint mondtam, a mesterséges intelligencia fejlesztőiként mérnököket kell elképzelni, akik valamilyen módon definiálnak dolgokat: mérnöki feladat kijelölni a célt és a környezetet, valamint tervezni egy olyan ágenst, amelyik ezt a célt ebben a környezetben a lehető leghatékonyabban el tudja érni. Csak az a baj, ha a környezet nagyon komplex, a cél meg nem eléggé pontos, akkor az ebből következő optimális viselkedés lehet olyan, amire senki nem gondolt előre. Éppen ezért kell erre nagyobb figyelmet fordítani.


Dr. Jelasity Márk egyetemi tanár, a Szegedi Tudományegyetem Számítógépes Algoritmusok és Mesterséges Intelligencia Tanszékének vezetője

Dr. Jelasity Márk. Fotó: Kovács-Jerney Ádám



Másképp viselkedne-e az ágens, ha almaszedés előtt elolvasna egy könyvet, vagy megnézne egy filmet, vagyis hatás érné arról, hogyan kell emberiesnek lenni?


– Megint a mérnöki szemléletre utalok: ha az ő céljai között az almaszedés számít elsősorban, akkor nem lesz semmifajta erkölcsi érzékenysége. Tehát önmagában értelmezhetetlen ez a fogalom, mert számára a világ fekete-fehér: le van-e szedve az alma, vagy nincs. Ha elérem a célomat, akkor jó nekem, ha nem, akkor nem.


- Igen, de a nagy nyelvi modellek éppen arra törekednek, hogy szövegek alapján felkészítsenek egy alkalmazást a valószínű helyes válaszokra. Az ágensünk agyát nem lehet megtömni pietással?


– De hogyan tudjuk megtömni az agyát? Erről sok vita folyik, és vannak, akik szerint úgy lehetne csinálni, ha a célok közé felvennénk azt, hogy egyébként az emberek, akik körülötte vannak, legyenek boldogok.


Kiváló cél!


– Igen, de még mindig mérnök vagyok: ha ezt a célt valahogy formalizálni tudom, vagyis olyan ágenst tudok csinálni, ami tudja, mi a boldogság, akkor jó az eredmény. Csakhogy itt vigyázni kell, mert hogyan is határozzuk meg a boldogságot? Esetleg úgy, hogy az illető mosolyog-e vagy nem? Akkor lehet, hogy nemcsak szedhetem az almát, de mosolyognom is kötelező lesz majd közben. Máshogy kell definiálni; talán úgy, hogy mennyi endorfin termelődik az agyamban? Szóval, ha az emberi boldogságot akarjuk maximalizálni, akkor megint ingoványos terepre lépünk, mert ismét csak túlságosan sok részletet kell definiálnunk. Meg kell határozni például, hogy a boldogság nem a drogozást vagy a tettetést jelenti, hanem valami furcsát, ami… És akkor rájövünk, hogy tulajdonképpen nem értjük racionálisan, hogy mit jelent a boldogság. Amikor ágenseket tervezünk, számos kérdésre bukkanunk, amire normális esetben nem figyelünk fel. Egymás között soha nem kell mérnöki pontossággal definiálnunk azt, hogy mi a boldogság. Ugyanígy azt sem, mi az, hogy szépség. Mert ezt valahogy tudjuk. De a gép nem tudja.


Ha a nagy nyelvi modellek képesek értelmezni a Bibliától a Háború és békéig sok könyvet, ezt a tudást nem lehet felhasználni?


– Nem vagyok irodalmár, de azt gondolom, hogy a boldogság definíciója, pontosabban az elérésének a módja, erősen kultúrafüggő is, és ráadásul időben is változik, és ez valószínűleg a könyvekben is visszatükröződik. Ezzel együtt érdekes felvetés, hogy a Chat GPT-hez hasonló modellekben tárolt tudást valahogy fel tudja-e használni egy ágens, amikor morális vagy esztétikai kérdésekről kell döntenie. Ezen még nem gondolkodtam el mélyen.


Dr. Jelasity Márk egyetemi tanár, a Szegedi Tudományegyetem Számítógépes Algoritmusok és Mesterséges Intelligencia Tanszékének vezetője

Dr. Jelasity Márk. Fotó: Kovács-Jerney Ádám



A mesterséges intelligenciának lehet egyénisége? Ha nem határoztuk meg az almaszedés végrehajtási módját és két különböző ágens másképp fogja csinálni, az egyéniséget ad nekik?


– Az emberek személyiségének két magyarázata lehetséges. Az egyik, hogy a céljaik megegyeznek, de másfajta múltbeli tapasztalataik voltak, ezért máshogy rakták össze, hogy a világ hogyan működik. De lehet egy öröklött tényező is, amely szerint igazából nekik a céljaik is mások. Más jelent örömet, más jelent problémát nekik, és ezért viselkednek máshogyan. Mindkét esetben előfordulhat, hogy „egyéniség” ágensek jönnek létre. Az is előfordulhat, hogy ugyanazt a feladatot adom ugyanannak az ágensnek, ugyanabban a környezetben, de mivel komplex az egész, más-más tanulási folyamaton mennek keresztül, és egy kicsit máshogy fognak viselkedni. Sokat foglalkoznak például azzal, hogyan lehet megtanítani járni egy ágenst. Ez nem tűnik intelligenciának, pedig az. Van egy test, aminek van egy lába, a célt pedig azt úgy határozom meg, hogy a kezdőpontból minél nagyobb távolságot kell megtennie. Semmi mást nem mondok, csak azt, hogy ide leraklak, és minél messzebbre kell menned, de nem mondom meg, hogyan csináld. Akkor az ágens meg fogja tanulni, hogyan kell járni. És más-más ágensek eltérő stratégiát találhatnak ki a mozgásra. Tehát ebben az értelemben egyéniségek. A múltbeli tapasztalataik különböznek, de azért mindegyik valahogy megtanul járni. Ha viszont kicsit máshogy súlyozom a céljaikat, az egyiknek azt mondom, hogy el kell jutnia, de az is fontos, hogy gyorsan, a másiknál meg ennek leveszem a fontosságát, akkor pedig ettől lesznek különbözőek.


Van arra kilátás, hogy a mesterséges intelligencia egy művet is egyéni módon, kritikailag szemléljen?


– Egy műalkotás értéke nem önmagában adott, nemcsak magában a műalkotásban keresendő, hanem az egész környező közösségben, gyakorlatilag az egész kultúrában, ami körülveszi. Ahhoz, hogy ebben a játékban a mesterséges intelligencia részt tudjon venni, az egész kultúrát jól kell értenie. Ennek a modellje a tőzsdézéshez hasonlítana, ahol a részvények árfolyama szintén be van ágyazva a kultúrába, és számos információtól függ. A tőzsdézésre vannak már módszerek, amelyek működnek, és azoknak is az a lényege, hogy minél több információt kell látniuk a világból. A műalkotás értelmezését elvileg nem tartom lehetetlennek, de most még ott tartunk, hogy nagyon sok adatban található mintázatokat statisztikailag pontosan meg tudunk fogalmazni.


Hasonló a probléma, mint a gépi nyelvi tanulásnál? Akkor fog a modell egy idegen nyelvet tökéletesen megtanulni, ha abban a kultúrában „él”?


– A kérdésen, hogy hogyan működik a nyelv, a mesterségesintelligencia-kutatás is próbál gondolkodni. Erről az oldalról nézve az a kérdés, hogy meg lehet-e tanulni a nyelvet pusztán könyveket olvasva? Vagy tévézéssel, amikor kapok mellé további hatásokat, látom, hogy mások hogyan kérdeznek és hogyan reagálnak. Vagy pedig a tanuláshoz részt kell vennem az adott nyelvi közösség kultúrájában, ahol saját hipotéziseket is kipróbálhatok. A mesterséges intelligencia most elkezdte végigjárni ezeket a lépcsőket; a korábbi nagy nyelvi modellek, ide tartozik a ChatGPT is, alapvetően olyan nyelvtudással rendelkeznek, amit könyvekből lehet megtanulni. A következő modellek, mint a GPT 4-es már jobban hasonlítanak a tévézés közben elérhető nyelvtanuláshoz. Azt gondolom, gyorsan készen lesznek azok a modellek is, amelyek a való világban történő mozgás során tanulnak majd nyelvet; és ott felmerül majd, hogy az a nyelv hogyan néz ki, hogyan áll össze a jelentés, hogyan működik majd a következtetés.

Ha egy ágens megtanult egy nyelvet, akkor azon a nyelven érti-e, ha ugyanazokkal a szavakkal valaki fenyegetően mond valamit? Tehát a kommunikációs helyzetet is érti?


– A Chat GPT-nek hiába beszélünk fenyegetően, mert az ilyen algoritmusoknak nincsenek érzelmi preferenciáik, nekik sosem rossz és sosem jó. Nekik teljesen mindegy minden. Egy ilyen algoritmust nem lehet fenyegetni, mert nem fél semmitől, meg nem is akar semmit. Tehát alapvetően nincsenek sem vágyai, sem preferenciái. Tudja értelmezni mi a fenyegetés, mert számos információban van nyoma, de a GPT mint mesterséges intelligencia olyan, mint egy pszichopata, aki tudja, mi van, csak éppen nem érti meg. A célorientált ágens esetén viszont már megjelenik az érzelem. Neki ugyanis meghatározzuk a célját, és amikor a cél teljesül, azt az ágens úgy kezeli majd, hogy neki jó, tehát ez a pozitív érzelemnek felel meg; és van negatív érzelem is, amikor messze van a céltól. Az algoritmusoknál úgy tevődik fel, hogy az ágens bizonyos állapotokban úgynevezett jutalmakat, más állapotokban büntetéseket kap; ez konkrétan egy szám, a jutalom plusz 2, a büntetés mínusz 1. Ágensként az a feladatom, hogy olyan állapotokba menjek, amelyek inkább a plusz tartományban vannak. Az ágens ilyenkor úgy tanul, mintha érzelmei lennének. Bizonyos állapotok az ő számára negatív tartalmúak, azokat próbálja elkerülni, sőt, onnan próbál menekülni. Vagyis innentől fenyegetésről is lehet beszélni, mert ha tudok vele kommunikálni, akkor újabb büntetéseket helyezhetek kilátásba.


Dr. Jelasity Márk egyetemi tanár, a Szegedi Tudományegyetem Számítógépes Algoritmusok és Mesterséges Intelligencia Tanszékének vezetője

Dr. Jelasity Márk. Fotó: Kovács-Jerney Ádám



Most olyan emberi kategóriákat próbálok keresni, amelyeknek megragadására a mesterséges intelligencia teljes mértékig képtelen lenne, vagyis amire csak az ember képes. A jóság? A nagylelkűség?


– Nem hiszem, hogy ilyen kategóriákat lehetne mondani. Az említett fogalmak, a jóság és a nagylelkűség szerintem formalizálhatók egy célorientált ágens számára. Az algoritmus jutalomfüggvénye a kulcs, ami azt adja vissza, hogy egy adott állapot, ami éppen az ágens körül van, mennyire jó, rossz vagy érdektelen számára. Ezekhez pedig kockázatok és valószínűségek tartoznak. A célorientált ágensek arra motiváltak, hogy a jutalomfüggvénytől kapott számot igyekezzenek feljebb tornázni. Komoly pszichológiai elméletek írják le, hogy az ember milyen jutalmakat szeretne elérni, és milyen büntetéseket elkerülni, és erényekről szóló fogalmai pedig tulajdonképpen a jutalom és büntetés speciális konstellációi. Sőt, szerintem az esztétikai szépség is egyfajta jutalom, egy jutalmazási technika az evolúció részéről. Bizonyos dolgokat jutalomként élünk meg, és ebből az egyik a szépség. Ha végig vesszük, hogy mik a szép dolgok, akkor rájövünk arra, hogy ezek hasznosak is bizonyos értelemben, legalábbis nem teljesen független a kettő egymástól. Mindent egybevetve szerintem nem az emberi jelleg, hanem két másik tényező nehezítheti meg a formalizálást: az egyik, ha a célok és a környezet leírásához túlságosan sok körülményt kell figyelembe venni, a másik pedig az, ha ezek fokozottan kultúrafüggők.

De formalizálható például a hazugság?


– A hazugság egy ágens számára egy lehetséges cselekvésként jelenhet meg. Ha hazudok, az ugyanaz, mint ha bevernék egy szöget. Ha azt akarom elérni, hogy szög legyen a falban, akkor beverem, ha pedig azt, hogy az illető mást higgyen, akkor hazudok neki. Ez a cselekvés is az ágens rendelkezésére áll, és ha elég gazdag a reprezentációja, akkor hazudni fog minden további nélkül, kivéve, hogyha ezt valamilyen szabály megtiltja. Vagy például, ha van egy olyan környezet, amiben az ágens tudja, hogy lehet hazudni, de ha véletlenül kiderül, akkor neki nagyon rossz lesz, akkor meggondolja. Nem biztos, hogy ettől soha nem fog hazudni, de nyilván nem fog annyit. Ez egy lehetséges megközelítés, és persze itt is el kell mondani, hogy nem tudunk minden körülményre gondolni előre.


A humor? Az irónia? A cinizmus?


– Én nem hiszek ezeknek a fogalmaknak a misztikus jellegében. A humor is olyan dolog, amit meg lehet ragadni. Nem vagyok humorista, de azt tudom, hogy a stand up komikust, ha megkérdezi az ember, hogy mi a humor, akkor elég jól el fogja mondani. Akinek ez a szakmája, az többé-kevésbé meg tudja jósolni, hogy bizonyos dolgokon nevetni fognak-e vagy nem. Nem mindig jön be, de amikor valaki nagyon sokat foglalkozik a humorral, előbb-utóbb megérti, hogy mitől lesz valami vicces. Szerintem ez is olyan dolog, ami azért tűnik misztikusnak, mert sok mindentől függ. Az emberek kulturális hátterétől például. Az lesz jó humorista, aki jól érti a közönségét. Tudja, hogy mi van a fejükben, ismeri a hátterüket, hogy mik a problémáik, mik az örömeik, jól kell ismerni azt az embercsoportot, akiket meg akar nevettetni. Szerintem elég jól meg lehet érteni, hogy mitől lesz valami vicces, csak ehhez sok tudással kell rendelkeznie a célközönségről.


Dr. Jelasity Márk egyetemi tanár, a Szegedi Tudományegyetem Számítógépes Algoritmusok és Mesterséges Intelligencia Tanszékének vezetőjeVégső soron akkor a mesterséges intelligencia az emberi elme elé állít tükröt? És ennyire determinált képet kaptunk?


– Igen, valóban azt gondolom, hogy az emberi elmében semmi nincs, amit ne lehetne megérteni, modellezni, vagy akár reprodukálni. Osztom Daniel Dennett nézeteit, miszerint létrehozhatók az emberi intencionális gondolkodást modellező rendszerek, amelyeknek viselkedését úgy lehet magyarázni és előre jelezni, hogy információkat – vélekedéseket – és racionális célokat rendelünk hozzájuk, ahogy Dennett mondja, hiteket és vágyakat. De nem azt állítja, hogy e modelleknek emberi vélekedéseik és vágyaik lennének, hanem azt, hogy ezek az információk és célok a rendszerhez rendelhetők, akár egy számítógéphez. Daniel Dennett számára az intencionális, jelentéstulajdonító intelligencia nem az ember esszenciális sajtátja, vagyis nincs akadálya annak, hogy reprodukálni lehessen. Az esszencialista gondolatot tagadja azzal is, amikor kimondja, nincs értelme annak a kérdésnek, hogy az agyunk melyik részében van a tudatunk, mert „nincs senki otthon” az agyában, mivel ott ugyanolyan fizikai-kémiai folyamatok zajlanak, mint másutt. Az ilyen esszencia feltételezése hasonló ahhoz a pszichológiai kísérlethez, amelyben gyerekeknek egy ló képét mutatják; eközben pedig a ló testrészeit fokozatosan cserélik ki egy macska testrészeire, és kiderül, hogy van, aki még a teljesen kicserélt macska-lovat is lónak látja. Szerintem végső soron a nem-humanoid, öntudat nélküli gépek is képesek az intencionális gondolkodási funkciót betölteni.


Merre látja a mesterségesintelligencia-fejlesztés leginkább ígéretes irányát?


– Szó volt már arról, hogy a mintafelismerésen alapuló nagy nyelvi modellek nem rendelkeznek olyan következtetési képességekkel, mint a kifejezetten következtetésre létrehozott modellek. A fejlesztésben jelenleg olyan törekvések vannak, hogy a nagy nyelvi modelleket fel kell turbózni egy olyan komponenssel, amely formális szabályok alapján klasszikus következtetési és modellezési képességgel rendelkezik, és a nyelvi modell pedig közvetítene az emberek és a formális modell között. Ez jelenleg egy aktívan kutatott terület. A különböző komponensek már magas fejlettségűek: a képfelismerés elérte az emberi szintet, a nyelvi modellek és a neuronhálók is magas szinten vannak. A következő nagy áttörések a modellezés és tervezés, valamint az általános mintafelismerő módszerek összekapcsolásától várhatók.

Panek Sándor

Borítókép: Dr. Jelasity Márk MI-kutató. Fotó: Kovács-Jerney Ádám

Cikk nyomtatásCikk nyomtatás
Link küldésLink küldés

Letöltés



SZEM_boritoSZEM_angol
AMM_kulonszamAlmaMater_Magazin_2019_tel
SZTEminarium_cimlapSZEM_klinika_2020_01