Ambrus
-7 °C
3 °C

In memoriam Claude Shannon

2001.03.02. 11:14
Február 24-én, nyolcvannégy éves korában elhunyt Claude Elwood Shannon, a mai elektronikus kommunikáció alapjait lefektető információelmélet atyja. Főművét (A Mathematical Theory of Communication) 1948-ban publikálta. Jelentősége a huszadik századi számítógépes tudományok és filozófiák legnagyobbjaihoz - Neumann Jánoshoz, Alan Turinghoz, Norbert Wienerhez - mérhető.
Információelmélet

Shannon a kommunikációs rendszerek elemeit, a közöttük lévő kapcsolatokat vizsgálta. Noha munkája túlmutat a mérnöki tudományokon, elsődlegesen praktikus célokat szolgált, például azt, hogy a telefonvonalak kevésbé legyenek zajosak. Elmélete szerint a kommunikáció jelentéstani aspektusai irrelevánsak a tervező szemszögéből nézve: az üzenet statisztikai jellemzői, és nem a tartalma a meghatározó.

Claude Elwood Shannon
A kommunikáció szimbólumtovábbítás, eszközei a (beszéd előtti) jelek, a nyelv, az írás. Az információ digitálisan kódolt szimbólumok. Eredeti, még nem jellé átalakított formájában nem rendelkezik se dimenzióval, se anyagi valósággal; pattern, és nem jelenlét.

A legfőbb probléma, hogy egy adott ponton hibátlanul vagy megközelítőleg, reprodukáljunk egy másik pontról küldött üzenetet. Másrészt, a tényleges csak egy a lehetséges üzenetek közül. A rendszert úgy kell megtervezni, hogy ne kizárólag a kiválasztott, hanem a potenciális üzeneteket is kezelje.

A kommunikáció folyamata: az üzenet jelképekbe (szavakba, ikonokba, bitekbe, stb.) kódolása, továbbítása, dekódolása. Az üzenet információelméleti megfelelője a jel, mely (a továbbítási) csatornán keresztül jut el a (statisztikus módon üzenetet generáló) forrástól a rendeltetési helyig. Fontos tényező a csatorna sávszélessége, illetve zajtelítettsége. Az eredeti üzenetet megváltoztató zaj az információ ellentéte. (A fogadó a hasznos információra, a jelre, és nem a haszontalan információként definiált zajra kíváncsi.) A csatorna kapacitását az határozza meg, hogy az információ, a lehető legkisebb hibaszázalékkal, milyen gyorsan jut el a címzetthez. A tervezett (szimbólumráta) és a valós kapacitás soha nem azonos, például a 128000 bit/sec sebességre méretezett a másodpercenkénti 67840 bitet egyetlen esetben sem haladja meg. Tehát az outputon kimenő és az inputon bemenő (bit-szekvenciákba kódolt) jel nem lehet azonos. Ha az lenne, akkor a csatornát zajtalannak tekinthetnénk. A zaj csökkentése végett a jelet többször megismételhetjük, ezzel viszont nemcsak a hibalehetőség, hanem az információ tényleges transzmissziós rátája is csökken. Hibakorrigáló kódokat szintén használhatunk: minél kisebb az óhajtott hibavalószínűség, annál komplexebb eszközöket kell terveznünk.

Életrajzi adatok
Claude Elwood Shannon 1916. április 30-án, a Michigan állambeli Petoskey-ben született.
1936-ban a Michigan Egyetemen matematikusi és elektromos mérnöki diplomát szerzett. 1940-ben az MIT-n matematikából doktorált.
1941-től 1972-ig a Bell Labs matematikai részlegén dolgozott. 1956-tól az MIT-n vendégtanár, 1958-tól állandó előadó, 1978-tól professzor emeritus. Három legfontosabb írása: a Boole-féle algebrán alapuló "A Symbolic Analysis of Relay and Switching Circuits" (1940), az (adattömörítésről is elmélkedő) "A Mathematical Theory of Communication" (1948), és a kriptográfiát művészetből tudománnyá változtató "Communication Theory of Secrecy Systems" (1949). Egyik kedvenc időtöltése a bűvészkedés volt.
Az információ fontos tulajdonsága, hogy előre nem kiszámítható, újdonságértéket tartalmazó jelképekből áll. E jelképek közlése a kommunikáció lényege, a többi redundáns elem. Az információ a bizonytalansággal azonos, véletlenszerűsége az entrópiával írható le, mely lehetővé teszi, hogy az üzenetet ne csak egyféleképpen dekódoljuk, illetve azt is, hogy egy csatorna mennyire alkalmas jeltovábbításra.

A termodinamika második törvénye a világegyetemben állandóan növekvő rendezetlenségre, az entrópiára vonatkozik. Shannon, az entrópiát az információval azonosítva, a szónak új, az eredetivel ellentétes jelentést adott. Az entrópia növekedése az információ növekedését eredményezi. Ha összekapcsoljuk a két elméletet, arra a következtetésre jutunk, hogy egy bitnyi információ továbbításához meghatározott mennyiségű energia szükséges.

Információ-értelmezések

Shannon kortársa, Donald MacKay, brit kutató nem értett egyet az információ jelentéstani környezetből történő kiemelésével, mint ahogy a jel / zaj ellentétpárt is elvetette. Dinamikusabb modellt vázolt fel: az információ nem egy fix pontra, hanem egy, a kontextussal együtt permanensen változó értéksorra irányul.

Norbert Wiener elvetette az információnak az entrópiával történő azonosítását - a kettőt egymás ellentéteként definiálta.

A telefonokra és a számítógépekre kitalált elméletet később más területeken is alkalmazták. Az anyagi valóságától megfosztott, absztrakt információ számos, főként posztmodern filozófiai diskurzus központi tétele lett. Koncepcióvá gyúrták; Shannon eredeti elképzelésével ellentétben, a rendszer szemszögéből nem releváns fogadói kulturális közeget beemelték az elméletbe. E ponton lépünk át a virtualitásba, virtuális testek és infomorfok terébe - állapította meg N. Katherine Hayles: "Az elmélet az információt, Hans Moravec magát az elméletet teszi környezet-függetlenné." Úgy, hogy közben az általa - és mindannyiunk által használt - kommunikációs csatornák Shannon teóriája alapján működnek...