giovedì 10 novembre 2011

Entropia nella scrittura

Prosegue il mio tentativo di trovare un parallelo tra i paradigmi della teoria della comunicazione enunciata da Shannon nel 1948  e la scrittura, specialmente la narrazione.
Senza nessuna pretesa, mi piace analizzare i processi mentali alla luce delle mie esperienze (poche e molto limitate) in entrambi i campi. Se quanto affermo puo` essere di qualche interesse, e` perche`mie fonti sono i grandi della tecnologia e della letteratura. Se dico castronerie, e` esclusivamente colpa mia.
  Ho gia` scritto di questo qui e qui

E` rimasta impressa sin dalla prima spiegazione a scuola la relazione entropia = disordine, soprattutto per l'attitudine degli adolescenti al secondo, e per la sconsolante considerazione che non si riesce porre rimedio allo stesso. Lo stato della propria cameretta a dimostrazione che l'entropia dell'universo e` in aumento, e solo i sistemi autorganizzati ( la mamma ) possono parzialmente porre rimedio.
L'entropia dell'universo e` in aumento
Questo concetto, facile da comprendere almeno nella sua semplificazione estrema ( vero ragazzi? ) in realta` applicato alla termodinamica come misura delle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità in cui può trovarsi macroscopicamente un sistema, trova il suo corrispondente nella teoria dell'informazione.

Claude Shannon, nel suo articolo "A Mathematical Theory of Communication" postula che l'entropia sia misura dell'incertezza di un certo messaggio, e da essa deriva la dimensione del linguaggio necessario a codificare l'informazione stessa. In altre parole, l'entropia nella teoria della comunicazione e` inversamente proporzionale alla capacita` di prevedere il contenuto informativo. Piu` l’entropia e` alta, piu` bit saranno necessari per la descrizione dell’informazione. 
Se ad esempio devo segnalara se una lamapdina e` accesa o spenta, sara` sufficiente un bit di informazione 
( 1= acceso, 0 = spento), ma se di tale lampadina devo indicare i livelli di luminosita`, usare due bit ( ovvero quattro stati : spento, bassa , media, alta luminosita`) potrebbe non essere sufficiente e lasciare  ambiguita` nell'informazione  ( quanto bassa? ), che potrebbe essere risolta utilizzando 8 bit ( ovvero 256 livelli di luminosita`, abbondantemente sufficienti a coprire la risoluzione dell'occhio umano). 
Viceversa si veda il trucco di abbreviare alcune parole - quindi togliere bit - quando il loro uso/contesto permette di prevedere a priori il loro significato - ed esempio sig. davanti ad un  nome.

Se pero` e` necessario ai processi di comunicazione che l'entropia sia il piu` bassa possibile  ( o che vi sia un linguaggio che esprima correttamente il messaggio -senza ambiguita`) questo non e` detto per la narrazione.
L'incertezza dell'azione, l'incapacita` di predire la sequenza di eventi ( o l'immaginarne una che si rivela errata ) e` stimolo per la lettura, addirittura e` la base su cui si fondano generi letterari come il noir o parte della fantascienza.   Per contro  non si deve commettere l'errore di dare per assodate da parte del lettore alcune conoscenze che invece non fanno parte del suo bagaglio culturale o di comprensione,  e  usarle per omettere parti della narrazione . Ne risulterebbe un aumento dell'entropia tanto piu` deleterio quanto piu` sono fondamentali alla comprensione della storia narrata.
Dosare l'incertezza e` un'arte. 

Nessun commento:

Posta un commento

Appunti
Commento sul mio taccuino ( cartaceo e in web) gli argomenti che di volta in volta mi sembrano più interessanti, con un obiettivo semplice: cercare di migliorare e rendere più chiara la mia visione del mondo. E se questo può aiutare anche voi, ne sono felice.