ONLINE ARCHÍVUM ( Magyar Tudományos Akadémia )
 
Magyar   English 


A cikket Ön 14 napon belül már megtekintette, ezért ez a megtekintés jelenleg jogdíjmentes.


 2012-08-15Alkalmazzunk személyi asszisztenst
Élet és Tudomány [  1048-1049 ]

DOCPDFxml

Alkalmazzunk személyi asszisztenst

Vegyünk egy matematikus doktort az ELTE-ről, egy nyelvész doktort a Stanfordról, alaposan gyúrjuk össze, és fűszerezzük egy jó adag informatikai tudással! Máris megkaptuk a nyelvtechnológiai kutatásokat végző matematikai nyelvészt, Kornai Andrást, aki jelenleg az általa vezetett nyelvtechnológiai kutatócsoporttal dolgozik az MTA SZTAKI-ban. Hosszú utat járunk be a beszélgetés során: Eukleidésztől kezdve Chomskyn át az okostelefonokba bújó személyi asszisztensekig jutunk.

- Matematika és nyelvészet: szabályok és statisztikák. A mai kutatásokban melyik a domináns?
- Kezdjük az elején: a matematika nagyon korai időktől fogva a. számokról és az alakzatokról szólt, arról, hogy a számok között vannak bizonyos törvényszerűségek, gondoljunk csak Eukleidészre és a prímszámokra. A nvelvészet kezdetei ugyanerre az időszakra nyúlnak vissza. A nyelvészeket is azok a törvényszerű, ismétlődő dolgok érdekelték, amelyek minden egyes megnyilatkozás mögött megvannak. Ezeket kétféleképpen lehet vizsgálni: vagy azt írjuk le, hogy mik ezek a törvényszerűségek — ez a szabályalapú megközelítés -, vagy azt, hogy milyen gyakorisággal érvényesülnek — ez lenne a statisztikai megközelítés. A kettő nem zárja ki egymást, a mai módszerek általában a kettő keverékei.

- Az idő során ez miként változott?
— Nehéz kérdés, mert mindkettő nagyon korán jelen volt. Aki a matematikában Eukiiedész, az a nyelvészetben Panini, egy indiai nyelvész. Ö már kifejezetten figyelt arra, hogy az egyes szabályok gyakran vagy ritkán lépnek fel, csak az északiak nyelvjárásában fordul elő egy jelenség, vagy a déliekében is. Ő már kifejezetten megkülönböztette egymástól, hogy milyen paraméterek mentén változik egy szabály alkalmazási köre. A korszerű statisztikai elemzés a XIX. század végén, XX. század elején kezdődött el, Markov nevét — aki nagy orosz matematikus volt - szokták emlegetni teljes joggal. A szimbolikus megközelítést ugyanekkor indították el Norvégiában. Volt egy időszak az ötvenes-hatvanas években, amikor a statisztika egy kicsikét háttérbe szorult, mert a szimbolikus megközelítés egy nagyon nagy képviselője, Chomsky lépett színre.

- Chomsky eredményeit éppen ezért nehéz alkalmazni a gyakorlati kutatásokban?
- A probléma az, hogy azokat a szabályrendszereket, amelyeket choms-kyánus alapon felállít az ember, nagyon nehéz javítani, mérnöki szempontból ezek a rendszerek törékenyek. Ha figyelembe akarunk venni egy újabb adatot, akkor újra és újra javítani kell a rendszert. Ha ez nagyon bonyolult, akkor már nem tudjuk józan ésszel átlátni. Két-háromszáz szabálynál van az a határ, amennyi fölött ember ezt debuggolni — szép magyar szó — nem tudja, innentől már a dolog javíthatatlan. Ilyenkor be kell vetni a statisztikai módszereket.

- Ehhez a „bevetéshez" mi szükséges?
- Nagy adathalmazokat kell előállítani, ezeket a nyelvészek korpuszoknak nevezik. Egy ilyen korpusz, amit még a Műegyetemen csináltunk, a magyar webkorpusz (http://mokk.bme.hu/re-sources/webcorpus). Ebben több mint egymilliárd szót gyűjtöttünk össze. Ez alapján meg tudjuk mondani, hogy melyik szó milyen gyakori. Ezután morfológiai elemzésre van szükség -mely során a szóról különválasztjuk a tövet és a tőhöz tapadó ragokat -, ez nem egyszerű a magyarban. Erre különböző megoldások voltak, az elsőt Prószéky Gáborék csinálták a MorphoLogicban HuMor néven. A mi szoftverünk, melynek kidolgozásában Németh László szegedi kollégánk volt a vezető, ettől annyiban tér el, hogy nyílt forráskódú, bárki bármikor hozzáférhet, javíthatja. Rendkívül népszerűvé vált, százmillió fölötti letöltésünk van, ami azért érdekes, mert magyarul beszélők legfeljebb 10-15 millióan tölthettek volna le. De ezt a szoftvert 117 nyelvre alkalmazták.

— Nyelvtechnológiai eredményeiket egy „egzotikus" nemi robotban is kamatoztathatták. Mit kell tudni a robot őséről?
— Az első programot SHRDLU néven Terry Winograd írta a hetvenes évek elején, aki akkor már a Stan-fordon dolgozott. Ez a robot úgynevezett kockavilágban működött: egy nagyon egyszerűen berendezett szobában, ahol gömbök, kockák, kúpok, hasábok és gúlák voltak. A robot egyrészt kérdésekre tudott válaszolni: van-e a szobában piros kocka? Vagy azt mondta, hogy nincs, vagy megadta a koordinátáit. Másrészt utasításokat tudott végrehajtani: piros gömböt a sárga kockára tett.

- Miben fejlettebb a SHRDLU 2.0?
- Talán nem az a legnagyobb különbség, hogy magyar, hanem, hogy a mi robotunknak határozott véleménye van arról, hogy mi hol van a helyén. Van elképzelése arról, hogy mikor szép egy szoba elrendezése, ez attól függ, hogy milyen esztétikával futtatjuk. Ha olyan utasítást kap, ami ettől a szépségtől eltérő irányba vinné a szoba állapotát, akkor tiltakozik. Javaslatokat tesz, szándékai vannak. A másik fontos különbség, hogy beépített fizikája van: tehát tudja, hogy egy gömböt nem lehet kiegyensúlyozni egy kúp csúcsa rí — azt válaszolja, hogy le fog esni, és tesz egy javaslatot.

- És miben más ez, mint a Wfatson, az IBM szuperszámítógepe, ami (vagy aki) egy amerikai vetélkedőben nagyon furmányos kérdésekre válaszolva legyőzte a bajnok játékosokat?
— Ehhez mondok egy másik fejlesztést, az elvira-demót: itt olyanokat lehet kérdezni a számítógéptől, hogy mikor megy vonat Szegedről Pécsre holnap délután. Ennek a robotnak igazából nincsen adatbázisa, de azt tudja, hogy van Magyarországon egy közismert weblap, a http://elvira.hu, amelyik ezt meg tudja válaszolni, ezért a kérdést átfordítja az elvirának feltehető kérdésként, és visszaadja a weblapot az érdeklődőnek. Rengeteg ehhez hasonló alkalmazás van: például hol van a legközelebbi indiai étterem. Az okostelefonban van GPS, van adatbázisa, vagy hálózaton keresztül rákérdez, és az eredményt ki tudja rajzolni. Minél több ilyen funkciót rakunk össze, annál jobban használható személyi asszisztense lesz az embernek. A Watson még ezeknél is erősebb egy fokkal, mert képes rejtvényfejtésre is. Neki a Jeopardy! nevű játékban ravaszul megfogalmazott kérdésekre kell válaszolnia, amit úgy tud megtenni, hogy ügyesen kombinál és hatalmas adathalmazon ül. Ezek mögött nem egy zseniális mérnök van, hanem hatalmas teamek, amelyek részproblémákon dolgoznak.

— Az említett alkalmazások jelentik a szemantikus web kezdetét?
— Lényegében igen, hiszen a szemantikus web, vagy más néven web3.0 arról szól, hogy a gép már érthető formában adja tovább az információt. Amikor leírunk egy szöveget és kitesszük a webre, akkor ez ilyen formán csak az emberek számára érthető. Amíg nem végzünk valamilyen szövegelemzést, addig a gépnek fogalma sincs arról, hogy ez miről szól. Az olyan programokat szeretjük, amelyek automatikusan meg tudják mondani, hogy a szöveg miről szól, mert akkor a megfelelő adatbázishoz fordulva tudnak további információkat kérni. Lehet úgy gondolni a -webre, mint egy nagyon gazdag érzékszervre, aminek nagyon sok érzékelőpontja van, annyi, ahány helyen mi gépelni tudunk, vagy ahány mikrofon van rajta. Ez az ő szenzorikus berendezése, melyen keresztül rengeteg adatot kap minden másodpercben. Ahhoz, hogy ezt értelmesen fel tudja dolgozni, elsősorban az kell, hogy ezek az adatok kategorizálva legyenek. Egyszerűen hangzik, de a gyakorlatban nem az: a Yahoo a kezdetekkor nagyjából 300 szerkesztőt alkalmazott, akik egész nap nézték a weblapokat, és megpróbálták őket tartalmilag osztályozni. A Google azért győzött a Yahoo-val szemben, mert robotikusan oldotta meg ezt a kérdést, statisztikai alapon, emberi beavatkozás nélkül működik.

Mécs Anna

Élet és Tudomány, 2012. augusztus 15., 1048-1049. oldal