Jön a Google nagy dobása, de vigyázzunk, mert hazudhat is!
További Tech-Tudomány cikkek
- Hallucinogén koktélt azonosítottak egy ókori egyiptomi ivóedényben
- Egyedülálló régészeti felfedezést tettek az orosz tudósok
- Év végétől az egész EU-ban változás lép életbe a mobiltelefonoknál
- Vak, a szaglását is elvesztette, de még mindig fickós a 192 éves óriásteknős
- Új, magyar nyelvű vírus kezdett terjedni a Messengeren szenteste előtt
Nagy sürgés-forgás van épp a Google-nél, ugyanis több mint 100 szakértő teszteli az új fejlesztést, a mesterséges intelligencia által vezérelt életvezetési tanácsadót. A cég állítólag azért kezdett kutatásokba ezen a téren is, hogy megelőzze riválisait, a Microsoftot és az első számú mesterségesintelligencia-kutatólaboratóriumot, az OpenAI-t.
Az OpenAI fejlesztése a ChatGPT, amely a felhasználókkal való állandó kommunikáció automatizálása során értelmező modelleket használ, hogy a bevitt információkat kezelje. A ChatGPT az elmúlt egy évben hihetetlenül elterjedt és népszerűvé vált, úgyhogy számos technológiai vállalat, többek között a Google, a Facebook, a Snapchat szintén ráállt a generatív mesterséges intelligencia technológiájának fejlesztésére, hogy javítsák a felhasználókkal való kommunikációt, és minél emberibb válaszokat adjanak a lekérdezésekre.
Hallucinációkból tények
De több probléma is felmerült, adatvédelmi jellegűek is, és az is gond, hogy az AI-eszközök nem mindegyike ad érvényes válaszokat. A szakértők több olyan esetről is beszámoltak, amikor a chatbotok az úgynevezett „AI-hallucinációból” állítottak elő tényeket.
Ilyen tévedés történt egy nonprofit, evészavarokkal küzdőket támogató cég esetében, amikor a chatbotok káros étkezési tanácsokat adtak a felhasználóknak. A mesterséges intelligencia szakértői figyelmeztetnek, hogy a chatbotok roppant meggyőzők tudnak lenni, amikor kérdésekre kell válaszolniuk, de gyakran tévednek, és nem az igazságot közlik.
A Google új kezdeményezése, hogy a mesterséges intelligenciát életvezetési tanácsadónak használja, nem egyezik a Bard chatbotra (ez is a Google fejlesztése, egy társalgási generatív mesterségesintelligencia-chatbot) vonatkozó jelenlegi irányelvekkel, amik épp arra figyelmeztetik a felhasználókat, hogy az AI-t ne használják orvosi, jogi, pénzügyi vagy egyéb szakmai tanácsadásra, és a vele való kommunikáció során ne adjanak meg neki bizalmas adatokat.
A billentyűzet elárul minket
Azonban a mesterséges intelligencia nemcsak lódíthat és visszaélhet az adatainkkal, de akár kibertámadást is indíthat ellenünk, és szinte 100 százalék, hogy egy ilyen attakban ellopja a jelszavainkat. Egy új hackelési módszerrel az AI kifigyeli, hogy mit gépelünk a klaviatúrán a billentyű különböző hangjai alapján, és már meg is szerezte a belépési kódokat.
A tudósok a mesterséges intelligencia pontosságát is tesztelték egy Zoom-hívás során, rögzítették a billentyűleütéseket a laptop mikrofonjával, így derült ki, hogy
az AI már 93 százalékos pontossággal tudja reprodukálni, mit gépelünk, mert felismeri az egyedi mintákat – a hangot, az egyes billentyűleütések intenzitását és idejét.
De az AI-rendszer nem működik egyformán a billentyűzeteken, sőt, szinte minden klaviatúrához külön kell betanítani, hogy az egyes leütések mely karakternek felelnek meg. De kivédhetjük az ilyen jellegű támadásokat, ha megváltoztatjuk a gépelési stílusunkat, ha érintőbillentyűzeten ügyködünk – ez 24 százalékkal csökkentette az AI kémkedési sikerét –, ha véletlenszerűen generált jelszavakat vagy nem egész szavakat használunk jelszóként. Ugyanis a nagy nyelvi modellek, például a ChatGPT, képesek megjósolni a karaktereket a szavak befejezéséhez.
(Borítókép: Aly Song / Reuters)