VARIE SAGRE IN ITALIA Vacanze
LAST MINUTE
Cerca
OFFERTE DI LAVORO
SISTEMI
a Correzione d'errore
Intelligenza Artificiale

Nell'approccio sistematico allo studio dei sistemi relazionali informatici e telematici in genere, in termini di segni e quindi, di riflesso, in termini simbolici, assume notevole importanza il concetto di "funzione entropia" intesa come misura dell'incertezza nell'ambito della conoscenza dello stato di un generico sistema.

Esistono almeno tre distinte interpretazioni del concetto di entropia:

1. Interpretazione termodinamica. In questa interpretazione l'entropia descrive lo stato di "uniformità" del sistema ed è una funzione sempre crescente allo scorrere del tempo; il sistema si evolve verso lo stato più probabile raggiungendo l'equilibrio termodinamico: uno stato indifferenziato.

2. Interpretazione nella teoria della comunicazione. La forma matematica che descrive il flusso di informazioni in presenza di rumore corrisponde alla forma matematica che descrive l'entropia termodinamica; si è portati quindi per analogia ad assimilare questi due concetti. In questo caso però l'informazione è tanto più significativa quanto più è improbabile; il messaggio statisticamente più probabile, massimo di entropia, è privo di significato. Il messaggio può essere trasmesso con precisione grande a piacere, anche in presenza di errori casuali, ripetendo il messaggio stesso. Anche in questo caso il messaggio degrada da uno stato di massima significatività ad uno stato indifferenziato a causa degli errori casuali di trasmissione.

3. Interpretazione in relazione alla conoscenza del sistema. In questa interpretazione l'entropia diviene una misura del grado di conoscenza che abbiamo di un determinato sistema. La conoscenza massima possibile corrisponde alla conoscenza degli stati particolari tra quelli possibili in cui si trova il sistema. La probabilità di questo stato collassa da un valore infinitesimo al valore uno corrispondente alla realtà ovvero allo stato che effettivamente si realizza in natura. Informazioni mancanti fanno crescere l'entropia intesa come mancata conoscenza del sistema.

Tanto più è complesso il sistema tanto maggiore è l'entropia. L'entropia viene anche utilizzata come misura del disordine di un sistema, nel senso che uno stato ordinato (semplice) è maggiormente comprensibile (e quindi comunicabile) che uno stato disordinato.

Ora di pari passo con le considerazioni appena svolte, viene alla luce il fondamentale "compromesso" tra ricevente ed emittente del messaggio stesso, che in ambito informatico si traduce in una comune scelta di codici di trasmissione, quindi, in ultima analisi la socialità che sta alla base di comunicazione e cultura. In questo contesto si innesta la teoria dell'evoluzione che, in presenza di riproduzione e mutazione, è in grado di selezionare informazioni sempre più lontane dall'equilibrio statistico, massimo di entropia, per ottenere un messaggio sempre più significativo: estrae dal disordine un ordine.

La presenza di eventi stocastici alla base del processo evolutivo porta però ad una sempre maggiore complessità relativa ad uno scorrere del tempo senza limiti. Effetti di amplificazione e retroazione possono portare alla affermazione di fluttuazioni casuali che diventano la regola per le generazioni successive.

VARIE SAGRE IN ITALIA Vacanze
LAST MINUTE
Cerca
OFFERTE DI LAVORO
SISTEMI
a Correzione d'errore