A Google havi százmilliárd internetes keresést szolgál ki, ezek meglepően nagy része, közel 15 százaléka (ez napi 500 millió keresést jelent) olyan, amivel a kereső addig még sosem találkozott. Ez az arány a Google közel másfél évtizedes fennállása alatt nem változott számottevően, mondta el a Google vezető szoftvermérnöke, John Wiley a Bloomberg TV-nek adott interjújában. A 15 százaléknyi, sosem látott kérdés kiszolgálásánál a rendszernek erősebben kell gondolkodni, vagyis nagyobb erőforrás-befektetéssel jár a találati lista összeállítása, és az valószínűleg nem is lesz annyira pontos és releváns, mint a sokat ismétlődő keresőkifejezéseknél.
Az ilyen keresések kiszolgálásának fejlesztése a Google egyik fő prioritása a Wiley szerint. A kereső erre építette fel a Knowledge Graph nevű adatbázist, ami egy hatalmas lexikonra emlékeztet, különféle témákról, eseményekről, emberekről. 570 millió címszót tartalmaz, és 18 milliárd különféle adatot, összefüggést közöttük. A kereséseknél a rendszer ehhez az adatbázishoz nyúl, és a felhasználó profiljából származó információk alapján finomítja a a választ, próbálja értelmezni, mire is gondolhatott pontosan az egyszeri júzer. A "what's the best place to see the kings?" (mi a legjobb hely, ha a királyokat akarom látni?) kérdésből például ez alapján következteti ki, hogy a Los Angeles Kings hokicsapat meccseire vagyunk kíváncsiak, vagy az Oroszlánkirály musical-előadásaira, esetleg tényleg királyokat akarunk látni, és múzeumokat kellene ajánlania.
A Knowledge Graph programozói szerint az adatbázisuk felépítése hasonló az emberi agyéhoz, de még nagyon távol van annak a bonyolultságától, illetve az ott tárolt információ mennyiségétől, és az adatok közti kapcsolati rendszer összetettségétől. Az agyunk nagyjából 100 milliárd neuronból áll, amelyeket 100 billió szinapszis, azaz az idegsejtek közti kapcsolódási pont köt össze. A Google-programozók szerint a kereső agya a mai állapotában az emberi agy bonyolultságának egy százalékát éri el.