A tudósok a Nature magazinban publikált tanulmányuk szerint saját magukon kísérletezve állították össze az adatbázist. Kendrick N. Kay és Thomas Naselaris 1750 képet (emberekről, állatokról, épületekről, gyümölcsökről, tájakról) néztek végig, miközben az MRI rögzítette az agyi aktivitásukat.
A második menetben 120 kontroll-képet nézettek meg az alanyokkal (ezek természetesen nem szerepeltek az adatbázis felépítéséhez használt csomagban), amiknek a tartalmát a szoftver 90 százalékos hatékonysággal azonosítani tudta az agyhullámok alapján. A hatékonyság a mintát ezer képre növelve 80 százalékra csökkent, egymilliárd képből (a Google által indexelt képek az interneten) véletlenszerűen válogatva pedig 20 százalékra.
Messze még a cél
"Nem vagyunk képesek az agyhullámokat képekké alakítani, és így kitalálni, hogy az ember mire gondol, vagy mit képzel el éppen. Még nem, de a mostani technológiánk továbbfejlesztésével a jövőben ez is lehetséges lesz" - mondta a Washington Postnak a kutatásban részt vevő Jack L. Gallant.
A kutatók a tanulmányban kiemelik, hogy a gép az agynak csak egy adott feladatért felelős részét tudja "olvasni", azt is csak speciális körülmények között, és 20 és 90 százalék között ingadozó pontossággal. Az általános gondolatok sokkal összetettebb agyi folyamatok, ezek dekódolása nagyságrendekkel bonyolultabb lenne - de az álmok vizuális megjelenítése például olyan terület, amit a technológia közelebb hozhat a megvalósuláshoz.