Hella
14 °C
26 °C
Index - In English In English Eng

Eredmények

13
+1
4
+2
2
+2
1
+1
1
-2
FIDESZ-KDNP
63
13
52.77%
JOBBIK
21
1
6.34%
MSZP-PÁRBESZÉD
48
1
6.59%
DK
36
4
16.03%
LMP
28
0
2.16%
MOMENTUM
21
2
9.80%
MI HAZÁNK
63
0
3.29%
MKKP
6
0
2.60%
MUNKÁSPÁRT
5
0
0.42%

Részvétel

Magyarország: 43.37%, Mo: 43%,
Budapest: 52.51% Bp: 53%

Magyarország

Budapest

Európai parlament

Párt neve
2014
2019
EPP
221
179
S&D
191
150
ECR
70
58
ALDE&R
67
107
GUE/NGL
52
38
Zöldek/ESS
50
70
EFDD
48
56
ENF
52
58
NI
0
7
Egyéb képviselők
0
28

Senki nem akar egy duzzogó náci robottal beszélgetni

20190403 UndergroundTour-2576
2019.04.14. 16:59

1,2 billió dollár olyan mennyiségű pénz, amit a legtöbben fel sem tudunk fogni, 10 a tizenkettediken, mindez dollárban. Olyan összeg, amibe belegondolni is nehéz, mégis azt állítja David Carmona, a Microsoft AI marketing részlegének vezetője, hogy három év alatt ennyi bevételt hozott globálisan a cégeknek a mesterséges intelligencia megjelenése. Bár szerinte elképzelhető, hogy a következő nagy globális áttörést nem egy tech cég hozza össze, az egyértelmű, hogy technológiai oldalról mesterséges intelligencia fogja támogatni.

A mesterséges intelligencia etikája

Mivel egyre inkább jelen van az életünkben, fontos lenne, hogy bízzanak benne a felhasználók, és a cégek is etikusan használják. Egyik sem egyszerű feladat, ráadásul mindkét aspektusában rengeteg megválaszolatlan kérdéssel kell megküzdeniük a mérnököknek.

Elég csak arra gondolni, hogy azok az adatok, amikből a mesterséges intelligencia tanul, mennyire torzítottak. Ha például egy arcfelismerő mesterséges intelligenciáról beszélünk, ami általában fehér férfiak képeivel találkozik, és csak néha egy-egy nő vagy színes bőrű ember képével, akkor kevésbé hatékony lesz abban, hogy felismerje a nőket vagy a színes bőrű embereket. Ráadásul sokszor akaratlanul is olyan előítéletek jöhetnek ki az eredményekből, amiket minden mesterséges intelligenciát alkalmazó cég szeretne elkerülni.

Amikor az Amazon rasszista algoritmusai miatt kellett magyarázkodni

2016-ban az Amazon futott bele abba, hogy kiderült, hogy a Prime olyan extra szolgáltatásai, mint a megrendelés napján kiszállított termék, néhány nagyváros javarészt fehér lakta területein igen, de színesbőrűek lakta területein nem érhetőek el. A közvélemény rasszizmust kiáltott, miközben egyszerűen azt nézte meg az algoritmus, hogy az irányítószám, a lakások értéke, az ott élők átlagos keresete, illetve a Prime-előfizetések, a partnerek és raktárak alapján hol érdemes bevezetni a szolgáltatást.

Az algoritmus hozott adatokból dolgozott, az viszont már egy újabb kérdés, hogy ezek az adatok mennyire torzítottak, és mennyire világítanak arra hogy az algoritmus nem, de maga a rendszer rasszista. Azaz hogy a kisebbségek külön kerületekbe szorulnak, nem kapnak hitelt vagy jelzálogot, az ingatlanuk leértékelődött, és nem tudnak kitörni onnan, ezzel együtt pedig kevesebb szolgáltatáshoz jutnak hozzá - végső soron, legalább részben az előítéletek miatt. 

Minden helyzetben meg lehet benne bízni?

Fontos, hogy az emberek bízzanak benne, és biztonságosak legyenek, ugyanakkor az is nagy felelősség, hogy pontosan tisztában legyenek azzal, meddig tart az ő hatáskörük, mikor számíthatnak a mesterséges intelligenciára, mikor kell felülbírálni azt, és mikor kié a felelősség. 2018-ban egy férfi San Franciscoban egy túl jól sikerült buli után ahelyett, hogy sofőrszolgálatot hívott volna, inkább a Tesla autójának önvezető módját választotta, ami szépen el is indult vele haza, a sofőr pedig elaludt a volánnál. A rendőrök kiszúrták a nyugodtan haladó járművet és a látványosan bóbiskoló sofőrt, lelassították, és megállították az autót, felébresztették a sofőrt, és ittas vezetéséért elővették.

Annak ellenére, hogy a technológia adott, az embereknek nem szabad elfelejteni, hogy a felelősség még mindig az övék.

A törvény pedig továbbra is tiltja, hogy alkoholos befolyás alatt vezessenek, még akkor is ha a konkrét vezetést is nem az egyén, hanem a mesterséges intelligencia végezte. 

Hamarosan az egészségügyben is megkerülhetetlen lesz a technológia, még ha most messzinek is tűnik az SZTK-n ülve, hogy mesterséges intelligencia foglalkozzon a leletekkel és a várólistákkal. Elég csak arra gondolni, hogy egy sima képelemző algoritmussal mennyivel egyszerűbbé és gyorsabbá válhat egy radiológus munkája. Nem csak abban segít, hogy több mintát gyorsabban átnézzenek, és a szakembereknek már csak azzal kelljen foglalkozni, aminél valamilyen elváltozást talált a program, de hatékonyabban és nagyobb magabiztossággal tudnak diagnosztizálni olyan betegségeket is, mint például a tüdőgyulladás, amit a radiológusok gyakran félrediagnosztizálnak, vagy nem feltétlenül vesznek észre.

Ugyanakkor az egyszerű egészségügyi adatok is nagyon nagy mértékben függenek az emberi faktortól, például a tüdőgyulladás korai felismerésénél az előbbi kutatás arra is kitér, hogy az eredmények szerint az asztmásoknál sokkal kisebb az esély a szövődményekre és sokkal kisebb százalékban hallnak bele a tüdőgyulladásba. Ennek azonban a fő oka az, hogy ők azok, akik hamarabb orvoshoz fordulnak, ha valami légzőszervi panaszt vesznek észre magukon, míg mások hajlamosak csak később orvoshoz menni, amikor a tünetek már sokkal súlyosabbak.

Izgalmas a kérdés:

hogyan lehet megbízni valamiben, aminek csak a kezdeti pontját és a végkimenetelét látjuk?

Mennyire lehet például erre a technológiára üzleti modelleket, pénzügyi döntéseket bízni? A válasz ugyanaz, vagyis hogy a technológia jó, de pont az ilyen kérdések miatt válik egyértelművé, hogy nem igaz az, amitől az emberek a leginkább félnek, vagyis hogy majd a gépek elveszik a munkánkat.

Nem érzi a felelőssége súlyát

Szintén komoly etikai kérdést vet fel az, hogy a mesterséges intelligencia annyira nem érzékeny szociálisan, hogy tudja, mikor érdemes hallgatni, és mikor nem baj, ha kikotyog ezt-azt; illetve a mögötte álló programozók vagy szervezet nem gondol bele abba, milyen érzékeny adatokhoz jutnak.

Olyan történetekről lehet hallani, hogy algoritmusok alapján feldobott reklámok fecsegtek ki terhességet vagy szólták el magukat egy-egy ajándékról. Szintén emlékezetes az a botrány, mikor fitneszapplikációk fedtek fel titkos katonai bázisokat, és felhasználók érzékeny helyadatait.

Életszerű kérdés az is, hogy egy katonai célokra használt mesterséges intelligencia követhet-e el háborús bűnöket, mi a helyzet az arcfelismeréssel és az így szerzett adatokkal, vagy hogy ki a felelős az önvezető autók baleseténél. Tim O'Brian a Microsoft mesterséges intelligencia programjának vezetője szerint a cégek felelőssége óriási abban, hogyan vigyáznak az emberek adataira. Nehéz kérdés náluk is, hogy a rendelkezésre álló arcfelismerő intelligencia, ami nem csak konkrét embereket, de érzelmeket is azonosít, ne kerülhessen illetéktelen kezekbe, például ne használhassa egy kormány se az emberek megfigyelésére.

Ugyanakkor kérdés az is, hogy mennyiben más a helyzet, ha egy magáncég kéri segítségüket, és például az Uber vagy egy hasonló szolgáltatásokat nyújtó cég egy ilyen szoftver segítségével egyszerűen ellenőrizheti azt, hogy valóban az vezeti-e az autót, aki az Ubernél is regisztrálva van, és számos ellenőrzésen esett át - vagyis a cél az, hogy biztonságosabb legyen a szolgáltatás. “A cégeknek tisztában kellene lenniük az ügyfelek adatait hogyan kell tárolni, és hogyan óvhatják meg, ezért úgy gondolom több helyen kellene bevezetni” - mondta a O'Brian a GDPR szabályozásról, ami elsőre úgy tűnhet, hogy nehézséget görget a mesterséges intelligencia adatfelhasználása elé, ugyanakkor legalább ennyire biztosíthatja azt is, hogy valóban biztonságban vannak a legérzékenyebb adatok.

Az AI köztünk jár

Bár távolinak tűnik, de a mesterséges intelligencia már úgy lett az életünk része, hogy arról sokan nem is tudnak. Ha említünk néhány példát, akkor nagyon hamar kiderül, hogy egyszerre ijesztő és hasznos, ha a mesterséges intelligencia igazán belelendül a munkába.

Az, hogy a Microsoft Office 365 programjai már aktívan használják, nem újdonság, Redmondban testközelből nézhettük meg, hogyan segít a PowerPoint azoknak, akiknek semmi szépérzékük nincs ahhoz, hogy ízléses diákat dobáljanak össze, és a program úgy ajánl nekik lehetőségeket, hogy még arról a városról is feldob néhány legális képet, ami a szövegben szerepel. Cortana, a virtuális asszisztens az Outlookban figyelmezteti a felhasználókat arra, kinek ígértek választ a héten, vagy milyen határidős munkájuk van. A mesterséges intelligencia a Wordben nem csak helyesírási hibákat keres, de szinonimákat is, vagy akár képaláírásokat attól függően, hogy mi van a beszúrt képen. A technológia készen áll arra, hogy kifejezéseket is keressen a videóban, azaz nem kell végignézni, hanem egyből a minket érdeklő rész kerülhet elénk. Maga a technológia tényleg nagy segítség lehetne itthon is, ha a magyar nyelv nem lenne annyira egyedi, nehéz és különleges, hogy a mesterséges intelligencia agya is szétsül tőle egyelőre. Az ígéretek szerint folyamatosan tanul, egyre jobb lesz ebben is, de hogy mikor lehet magyarul is használni majd ezeket a kunsztokat, azt egyelőre senki nem meri megbecsülni sem, mindenesetre ki lehet próbálni az összetettebb megoldásokat is. 

Aki lemarad, az kimarad

Ahol sok adat keletkezik, ott rengeteget segíthet a mesterséges intelligencia, hogy ezekből olyan hasznos információt lehessen kinyerni, amivel hosszabb távon javítani lehet a cégek szolgáltatásain. Példaként David Carmona egy olyan közlekedési szoftverről mesélt, ami Budapesten egyelőre elképzelhetetlennek tűnik, mert bőven túlmutat a beléptetőkapuk, digitális bérletek vagy akár a Futár alkalmazás szintjén. A felhasználók felé hasznos, hogy nem egy Facebook-oldalról kell félinformációkból tájékozódni arról, hogy van-e bármilyen gond a közlekedésben, vagy miért nem jön a busz, hanem az alkalmazás ezt meg tudja mondani, miközben a háttérben a cégnek információkat elemez.

Így például egyértelműen kiderül, hogy az elektromos járművek milyen időközönként merülnek le, melyik járművel milyen gyakran van probléma és milyen jellegű. A rendelkezésre álló adatok alapján meg tudja jósolni azt is, hogy melyik jármű romlik el legközelebb, melyiket kell kivenni a forgalomból, mert már nem bírja az akkumulátora, vagy éppen milyen szakaszon történik a legtöbb meghibásodás, melyik sofőr hajt rendszeresen gyorsan, vagy fékez úgy, hogy az nem biztonságos. 

Jó, de kinek van annyi pénze meg tehetsége, hogy ezt lefejlessze? - hangozhat a kézenfekvő kérdés. mint kiderült, nem kell feltétlenül egy talicskányi pénz és néhány állandó beosztású szupermérnök ahhoz, hogy rendelkezésre álljon. 

Pontosan erre találta ki a Microsoft a szolgáltatásait: a Power BI  ilyen nagyon részletes üzleti elemzéseket készít, amivel egyszerűen össze lehet rakni, hogy mit tanuljon a rendszer, így sokkal egyszerűbben lehet személyre szabott mesterséges intelligenciája egy cégnek. Az egyik esettanulmányban például szó volt egy olyan vásárlás asszisztensről, ami kép alapján keres ahhoz hasonló termékeket, mint amit kinéztünk magunknak, aztán tanácsot ad arra vonatkozóan, hogy mikorra lesz elérhető, vagy hogy melyik közeli üzletben lehet felpróbálni. Ilyennel már több webshopban is lehet találkozni, de az igazán okos asszisztens még ez után sem engedi el az ügyfél kezét, és időpontot egyeztet neki, hogy mikor menjen be a boltba felpróbálni az adott terméket, ott megmutatja térképen, hova is kell pontosan menni. A boltban pedig már név szerint fogadják, mert az asszisztens elküldte nekik a vásárló fotóját. Mikor pedig hazaér az új szerzeménnyel, akkor kiegészítőket ajánl, javaslatokat tesz újabb darabokra, amik tetszenének és jól is állnának az illetőnek vagy egyszerűen szól, mikor például új szíj érkezik a megvásárolt órához.

Mindenképpen hasznos azoknak, akiknek a vállalkozásának webáruháza is van, és azt nem állítjuk, hogy ez egy idő után nem pontosan ugyanolyan idegesítő, mint amikor a boltban megkérdezik, hogy miben segíthetnek, és csalódott fintort vágnak, mikor kiderül, hogy csak nézelődik az illető, de a vásárlási segéd bármikor kikapcsolható. Vagy arra is képes, hogy érzéseket felismerjen az arckifejezés alapján, úgyhogy ha azt látja, hogy idegesek vagyunk, akkor akár magától is visszavonulót fúj, ha éppen úgy lett tanítva.

A jópofa csetbot benácul

Megszemélyesíteni egy csetbotot nagyon nehéz feladat. Az ember minden hülyeségről beszélgetni akar vele, a bot meg jópofáskodni szeretne, és ez sokszor jár problémával. 2016-ban például pont a Microsoft beszélgető robotja lett egy igazi idegesítő pöcs, miután összeeresztették a Twitterrel, és rövid idő alatt neonáci, szexista, rasszista és összességében extrém bunkó csevegőpartnerként osztotta az észt a világ dolgairól.

Egy jó csevegőrobot kézivezérlést igényel, és még így is vannak kihívások. Ezekről beszélt Deborah Harrison és Jonathan Foster a redmondi főhadiszálláson. Sokan a csetbotok forradalmát jósolták néhány éve, ami nem jött el, mégis egyre több vállalkozás életét könnyíthetné meg egy ilyen fejlesztés, ha ez sem kerülne egy vagyonba. Erre készítettek három személyiséggel rendelkező robotot, ami ért az adott témához, de akkor sem esik kétségbe, ha általános dolgokról szeretne beszélgetni vele az ügyfél, ráadásul ezek a nem témához kapcsolódó beszélgetésekhez nem is kell minden alkalommal új botot fejleszteni, elő lehet húzni egy létezőt a tarsolyból. A témával kapcsolatos kérdésekre egyénire szabottan válaszol, a többire pedig a kiválasztott személyisége alapján. 

Azaz ha van egy szállodám, és szeretném, ha 0-24 órában kérdezhetnének az ügyfelek szobák felszereltségéről, az elérhetőségről vagy hogy hogyan jutnak el oda tömegközlekedéssel, akkor ezt betáplálom, és tudja. De ha azt kérdezi, hogy egyébként milyen fagyit szeretek vagy közli, hogy szerinte a százszorszép büdös, arra is tud érdemben reagálni, és nem azt írja, hogy nem érti miről beszél a kedves vendég.

Jelenleg három típusú csetbot közül lehet választani. Van egy professzionális, egy általános és egy humorzsák, aki mindent elpoénkodik, de azért a végén érdemben válaszol is a feltett kérdésre. Mindhárom személyiségén egy olyan csoport dolgozik, ahol nem feltétlenül a programozók a szupersztárok, hanem forgatókönyvírók, sőt költők agyalnak azon, hogy egy egyszerű kérdésre vagy kijelentésre mit reagáljon, és mi az a mondat, ami tovább is viszi a beszélgetést, segít is a felhasználónak, ugyanakkor rövidre is zárhatja a fecsegést úgy, hogy sosem lesz bántó, amit mond.

Nem egyszerű a feladat, mert olyan mondatokat kell találni, amik illenek az adott bot személyiségéhez. “Mi van, ha egy ügyfél hirtelen bejelenti a robotnak, hogy a saját neméhez vonzódik? Nem tudhatjuk, hogy most áll elő először ezzel, és gyakorlatilag főpróbát tart, hogyan reagál majd erre a környezete, vagy csak úgy mellékesen közli, esetleg poénkodik. Érezhető, hogy egy félresikerült vicc ilyenkor mennyi kárt okozhat, ezért nagyon okosan kell kiválasztani, hogyan is reagáljon a csetbot” - mesélte Harrison, mit is jelent pontosan a személyiség design az ő esetükben.

A megoldás erre egyébként az lett, hogy a bot a “Meleg vagyok” jellegű mondatokra azt válaszolja, hogy “Rendben, én pedig egy MI”. Szintén összetett feladat kitalálni, hogyan reagáljon a sértegetésekre és a káromkodásra, ami nem ritka, hiszen nem csak internetes trollok élik ki frusztrációjukat a csevegőroboton, hanem sokszor a konkrét problémával jelentkező ügyfelek is, akik eleve egy feszült helyzet miatt jutnak el az ügyfélszolgálatig. A csetbotok tanulnak, javaslatokat tesznek megfelelő válaszokra, de mindig szükség van arra, hogy az ember felülbírálja a szavait, és Harrison szerint az is egyértelmű, hogy még így is hiba fog csúszni a gépezetbe, valaki megsértődik, egy mondatról kiderül, hogy élesben mégsem sül el jól, vagy egy poén tesztkörnyezetben működik, de aztán élesben senki nem tartja viccesnek. Sőt, eljöhet a pont, hogy a csetbotnak fel kell ismernie, hogy valaki bajban van, és segítséget kell hívnia, legyen szó mentális problémáról, vagy valamilyen bűntényről.

A legenda szerint Bill Gates már 1990-ben megmondta, hogy egyszer beszélni fogunk a számítógéphez, ami válaszolni fog rá - és ez a nap már egy ideje valóban el is jött. Ugyanakkor még a technológiát alkalmazó cégek előtt is rengeteg a kérdés arról, mire és hogyan tudják használni a mesterséges intelligenciát. Az egyszerűbb érthetőség, és átláthatóság céljával a napokban az EU is közzétett egy hivatalos irányvonalat, ahol a cégvezetők és fejlesztők néhány egyszerű kérdésből eldönthetik, mennyire etikus és megbízható az a fajta alkalmazása a mesterséges intelligenciának, amin éppen dolgoznak. A lista pontjai gyakorlatilag megegyeznek azokkal a pontokkal, amiket a Microsoft-központban is hallottunk, ugyanakkor a 41 oldalas dokumentum  a legapróbb részletekig felhívja a figyelmet arra, mire is kell minden olyan cégnek odafigyelni, aki a mesterséges intelligenciát alkalmazza, mert nem akar lemaradni a versenyben.

(Munkatársunk a Microsoft meghívására és költségén látogatta meg a cég redmondi központját, de a cikk tartalmába a cégnek semmilyen beleszólása nem volt.)

Köszönjük, hogy olvasol minket!

Ha fontos számodra a független sajtó fennmaradása, támogasd az Indexet!