Hugó
-6 °C
10 °C
Index - In English In English Eng

Nem működik a kockázatmodellezés

2008.11.02. 21:26
Alan Greenspan úgy véli, hiba csúszott a számításokba, és a válságot kiváltó okok egyikeként a rosszul kezelt, illetve egyszerűen rossz adatokat említette.

Eufórikus inputok

A gyorsan fejlődő infokommunikációs technológiák alapozták meg az üzleti döntéseket jócskán befolyásoló matematikai és pénzügyi modelleket. Csakhogy az amerikai szövetségi tartalékbankrendszer (Fed) világhírű egykori elnöke szerint a kockázatmenedzselés-modellekben inputként felhasznált adatok kizárólag az utóbbi húsz esztendőre, egy „eufórikus korszak”-ra vonatkoztak. Ha a modellek kidolgozói nagyobb távlatokban gondolkoznak, és figyelembe vesznek sokkal „stresszesebb” periódusokat is, könnyebb lett volna prognosztizálni a hitel-lufi kipukkanását. A pénzügyi szektor messze jobban teljesítene.

Christopher Cox, az Egyesült Államok tőzsdéjét és az értékpapírokat felügyelő bizottság (SEC) elnöke szerint az IT-rendszerek téves prognózisait a rossz adatok mellett a valóságnak nem megfelelő AAA hitelminősítések okozták: „ezek a minősítések amellett, hogy hamis illúziókba ringatták a befektetőket, elferdítették a számítógépes kockázatmodelleket, és gyakorlatilag ellehetetlenítették a bankok biztonsága szempontjából releváns tőkeforgalom kiszámítását is.”

Mit látunk a kristálygömbben?

A pénzügyi szolgáltatások számítógépes rendszerektől való már-már kiszolgáltatottságnak tűnő függése nem újkeletű, az a tény viszont mindenképpen meglepő, hogy az utóbbi években – különösen a kockázatkezelésben – a szimulációs modelleket gyakran részesítették előnyben hosszú ideje bevált szabályokkal szemben.

Greenspan és Cox véleménye megerősítik azt a gyakran megfogalmazott óhajt, mely szerint jobb IT kristálygömbökkel kellene prognosztizálni a Wall Street eseményeit. Ugyanakkor kristálygömb nélkül is valószínűsíthető, hogy növekedni fog a kockázatkezelő technológiák és megoldások iránti igény.

A maiaknál hatékonyabb modellező eszközök szükségesek, hiszen a válság egyértelművé tette, hogy az eddigi eljárások, programok jelentős része rosszul teljesített.

Mivel a kockázati modellekhez több ezer változó és rendkívül komoly számítási kapacitás kell; minél számítás-igényesebbé és komplexebbé váltak a modellek, a szövetségi szabályozó szervezetek annál jobban megbíztak bennük. Mindeközben az amerikai pénzügyi cégek nagy teljesítményű számítógépes infrastruktúrára való beruházása a 2003-as 169 millió dollárról majdnem a duplájára, 305 millióra emelkedett 2007-ben.

Átlátható modelleket!

Dennis Santiago, az Institutional Risk Analytics konzultációs és szoftverfejlesztő cég vezetője szerint a probléma egyik oka, hogy többé-kevésbé ugyanazokat a megoldásokat használják, mint tíz éve: „világossá vált, hogy kevésbé hatékonyak az utóbbi üzleti ciklusokban jól működő programok.”

Santiago az úgynevezett strukturált pénzügyi tranzakciókkal járó kockázatok vállalati modellezését hozza fel példaként: a kölcsönöket az adott cég pénzmozgásai („történetük”) alapján bírálják el. Statisztikai átlagok készülnek, majd azokat – gyakorlatilag „vakon” – alkalmazzák a modellekben. Abból kiindulva, hogy ha eddig működött, miért lenne ezentúl másként. Az alapfeltevés azonban tévesnek bizonyult, egyre kisebb az ilyen tranzakciók iránti bizalom.

A szakértő a rendszerek továbbfejlesztésében, az azzal járó komolyabb befektetésekben, valamint a tényleges kockázati tényezőket jobban modellező analitikus megközelítésben látja a megoldást. Mindenképpen átláthatóbbá kell tenni a modelleket, adatokat és az elemző technikákat, és ha így lenne, idővel új módszertani szabványok is kialakulnának.

Nyílt forráskód

Erre rímel az IBM és más cégek júniusban készült felmérése: a megkérdezettek – a pénzügyi szektorban dolgozó ötszáz IT-szakember – hatvanhét százaléka az átláthatóságot tartotta a legfontosabb szabályozandó problémának.

Szintén az átláthatóság jegyében, mások a kockázati modellekhez használt szoftvert tennék nyílt forráskódúvá. Érdekes elképzelés: egyrészt sok pénzügyi cég használ nyílt forráskódú szoftvereket, és a kollektívabb tudás nyilvánvalóan új aspektusokkal gazdagítaná a modelleket. Másrészt viszont nehezen képzelhető el, hogy pont az open source erősítené a legjobb minőségű szimulációk piaci esélyeit.