Claude Shannon e la teoria dell’informazione

Shannon definisce così il problema di cui cerca la soluzione: riprodurre in un determinato punto – in modo esatto o con una buona approssimazione – un messaggio scelto altrove.
Se stai utilizzando uno smartphone, un tablet o semplicemente il tuo pc, il merito è sopratutto di Claude Shannon.
La teoria enunciata da Shannon non nacque nel vuoto, ma partiva da studi precedenti. I principi da lui formalizzati non solo hanno fornito un potente quadro teorico agli studi sulle telecomunicazioni, ma hanno aiutato un’intera generazione di studiosi, in tutti i settori della ricerca.
Ma chi era Claude Shannon? Claude Shannon, nacque a Petoskey, una piccola città del Michigan. Dopo aver lavorato da ragazzo come telegrafista per la Western Union sotto la guida di Andrew Coltrey, nel 1932 iniziò gli studi presso l’Università del Michigan, dove, nel 1936, conseguì due lauree triennali: in matematica e in ingegneria elettronica. Nel 1937, a soli 21 anni, Shannon si era laureato con una tesi che dimostrava che l’algebra booleana binaria poteva essere applicata a un circuito elettronico dotato di relay o commutatori. Questa tesi fu definita da alcuni “la più importante e più famosa tesi di laurea del XX secolo”: gettava le basi per il calcolo digitale. I suoi primi lavori nel Laboratorio della Bell riguardarono l’analisi matematica delle forme di de-criptazione dei messaggi per fornire alle forze alleate la chiave per decodificare i messaggi della marina e dell’esercito tedesco, e furono formalizzati nella monografia Communication theory of secrecy sistems (Teoria della comunicazione di sistemi di criptazione). Nel 1952 Shannon creò Theseus, un dispositivo che aveva le sembianze di un topo e che, inserito in un labirinto, apprendeva da solo come uscirne. Shannon può essere considerato anche uno dei padri dell’odierna intelligenza artificiale. L’informazione diventerà lo strumento matematico dietro la terza rivoluzione industriale, quella elettronica della seconda metà del ‘900, e dietro la quarta rivoluzione industriale, quella dell’automazione dei processi di produzione che stiamo vivendo oggi. La teoria dell’informazione è una disciplina dell’informatica e delle telecomunicazioni il cui oggetto è l’analisi e l’elaborazione su base matematica dei fenomeni relativi alla misurazione e alla trasmissione di informazioni su un canale fisico di comunicazione.
La grandezza che misura la quantità di dati prende il nome di entropia ed è solitamente espressa come numero di bit necessari per immagazzinare o trasmettere l’informazione. L’applicazione dei concetti fondamentali della teoria dell’informazione include la compressione senza perdita (es. zip), la codifica con perdita (es. mp3) e le modulazioni digitali utilizzate nelle trasmissioni ethernet. La teoria dell’informazione si pone a metà strada tra la matematica applicata, la statistica, la fisica applicata, le telecomunicazioni e l’informatica. Il suo impatto è stato fondamentale nelle missioni spaziali, nell’invenzione del CD, dei telefonini, di Internet, nello studio della linguistica ed in numerosissimi altri campi. La teoria dell’informazione è oggi usata anche nella teoria dei giochi e nello studio dei mercati azionari, oltre che nella composizione musicale. Con i suoi studi e le sue pubblicazioni Claude Shannon ha rivoluzionato il significato di informazione ed ha permesso senza dubbio la nascita e lo sviluppo delle nuove tecnologie che oggi utilizziamo tutti i giorni.

Fonte: articolo rielaborato sulla base delle informazioni ricercate sul web
Impostazioni privacy