Robotok fogják lektorálni az internetet
Ha húsz percnél többet töltött már az interneten, nyilván feltűnt, hogy a sok okos és tudományos cikk mellett egy csomó hajmeresztő hülyeség is található rajta. Az újságíróknak szakmai kötelességük, hogy szétválogassák a tényeket és a téves információkat. Egyes amerikai szerkesztőségekben külön stábok foglalkoznak a cikkekben megjelenő adatok hitelességének ellenőrzésével; ezt hívják fact checknek, direkt fordításban tényellenőrzésnek.
Mivel nem lehet minden Wikipédia-oldal mellé külön fact check stábot állítani, az Indianai Egyetem kutatói kitalálták, hogy ezt a munkát robotokra kéne bízni.
A Computational Fact Checking From Knowledge Networks (tudásbázis alapú számítógépes tényellenőrzés) kutatói fejlesztettek egy algoritmust, ami a betáplált információk hitelességét egy adatbázissal összevetve ellenőrzi.
A teszt során a kutatást vezető Giovanni Luca Ciampaglia és munkatársai kérdésekkel bombázták az algoritmust. Ezek között voltak olyanok, ahol államok fővárosát kellett megadni, illetve Oscar-díjas filmek rendezőit megnevezni. Az algoritmus a kérdések többségére halálpontos válaszokat adott, ráadásul nemcsak a korábban összeállított információs forrásokból dolgozott, hanem szélesebb összefüggéseket is talált a források között.
Nem ez az első ilyen kezdeményezés, de ennyire pontos eredményekkel dolgozó algoritmust mostanáig nem fejlesztettek; elképzelhető, hogy a közeli jövőben a tényellenőrzést akár automatizálhatják is. De ez még nem jelenti azt, hogy a szoftver hibátlan munkát fog végezni; minden fact checker csak annyira lehet jó, mint a forrásai. A Wikipédia megbízhatóságát is némileg aláássa, hogy a szerkesztői gyakran hivatkoznak másodlagos forrásokra, például blogposztokra, vagy olyan weboldalakra, ahol téves információkat osztanak meg.