The Owl Pages

\

owllogo

The Daily Owl
Italian Journal of Psychology and Internet
Psicologia Online

WebPsych Partnership Member

ARCHIVIO

nelle pagine dell'archivio si ritrova la storia di
Italian Journal of Psychology and Internet - Psicologia Online
ma anche la storia della psicologia italiana e mondiale in rete
dal 1996 al 2000
(i link alle pagine web o alle immagini possono risultare datati e dunque errati)


Watch live streaming video from artemente at livestream.com

mercoledì 2 maggio 2007

Evoluzione, entropia, legge di Murphy... e Hannah Arendt (1)

Riporterò qui alcuni passaggi di quel che scrive Hannah Arendt a proposito degli "esseri umani" e dell'importanza di raggiungere un grado di consapevolezza e comprensione del proprio "vergognarsi" di essere tali.

Prima però una domanda che mi è venuta in mente questa mattina, e che 'giro' a chi ne sa più di me di Fisica e di Matematica.

Ovvero: la Teoria dell'Evoluzione delle Specie Viventi (per intenderci quella sviluppata a partire da Darwin) non è in contrasto con il Principio di Entropia?

Il Principio di Entropia, o Terzo Principio della Termodinamica recita:

l'energia totale dell'universo è costante e l'entropia totale è in continuo aumento.

valida per qualsiasi sistema isolato.

In altre parole ciò significa che non solo non si può né creare né distruggere l'energia, ma nemmeno la si può completamente trasformare da una forma in un'altra senza che una parte venga dissipata sotto forma di calore.

http://it.wikipedia.org/wiki/Entropia_(termodinamica)

Il terzo principio della termodinamica, detto anche teorema di Nernst, è uno dei postulati della termodinamica classica.

Come il secondo principio, a cui è strettamente legato, questo stabilisce l'impossibilità di una certa classe di fenomeni: la formulazione classica di questo principio afferma che non è possibile raggiungere lo zero assoluto tramite un numero finito di operazioni (ovvero di trasformazioni termodinamiche).

Un'altra formulazione più moderna (ma equivalente) afferma che nello stato a minima energia l'entropia ha un valore ben definito che dipende solo dalla degenerazione dello stato fondamentale.

http://it.wikipedia.org/wiki/Terzo_principio_della_termodinamica

Se dalla Fisica passiamo alle Teorie dell'Informazione, il Principio equivalente è che l?universo procede dal massimo Ordine al massimo Disordine

Nella teoria dell'informazione - e in rapporto alla teoria dei segnali - l'entropia misura la quantità di incertezza o informazione presente in un segnale aleatorio. Da un altro punto di vista l'entropia è la minima complessità descrittiva di una variabile aleatoria, ovvero il limite inferiore della compressione dei dati.

Si deve a Claude Shannon lo studio dell'entropia in tale contesto. Nel primo teorema di Shannon, o teorema di Shannon sulla codifica di sorgente, egli dimostrò che una sorgente casuale d'informazione non può essere rappresentata con un numero di bit inferiore alla sua entropia, cioè alla sua autoinformazione media. Tale risultato era implicito nella definizione statistica dell'entropia di John Von Neumann, anche se lo stesso Von Neumann, interrogato a riguardo da Shannon nel forse unico scambio di opinioni tra loro, non ritenne la cosa degna di attenzione.

Per far capire la stretta correlazione tra entropia dell'informazione ed entropia della termodinamica possiamo fare il seguente esempio:

Consideriamo un sistema fisico in date condizioni di temperatura, pressione e volume, e stabiliamone il valore dell'entropia; in connessione è possibile stabilire il grado di ordine e quindi l'ammontare delle nostre informazioni (in senso microscopico).

Supponiamo ora di abbassare la temperatura lasciando invariati gli altri parametri: osserviamo che la sua entropia diminuisce, ma anche che il suo grado di ordine aumenta, e con esso il nostro livello d'informazione. Al limite, alla temperatura zero, tutte le molecole sono ferme, l'entropia è zero e l'ordine è il massimo possibile, e con esso è massima l'informazione; infatti non esiste più alcuna alternativa fra cui scegliere.

http://it.wikipedia.org/wiki/Entropia_(teoria_dell'informazione)

Un'affermazione semplificata è la famosa Legge di Murphy:

«Se qualcosa può andare storto lo farà.»

«se ci sono due o più modi di fare una cosa,
e uno di questi modi può condurre a una catastrofe,
allora qualcuno lo farà.»


«La probabilità che una fetta di pane imburrata cada dalla parte del burro verso il basso su un tappeto nuovo è proporzionale al valore di quel tappeto.»

ma anche: «Se è vero che una fetta di pane cade sempre dal lato imburrato e che un gatto cade sempre in piedi, lasciando cadere un gatto con una fetta di pane sulla schiena nessuno dei due cadrà mai per primo e si avrà il moto perpetuo.»

[http://it.wikipedia.org/wiki/Legge_di_Murphy]

----------------------------------------------------

Se da queste premesse passiamo alle Teorie dell?evoluzione delle Specie Viventi, salta all'occhio un evidente PARADOSSO:

o l'Evoluzione contraddice l'Entropia, o, anzichè di Evoluzione, si dovrebbe parlare di Involuzione delle Specie Viventi.

Ovvero: sulla Terra, 3 miliardi e mezzo di anni fa, si realizzarono le condizioni ottimali per lo sviluppo della Vita su questo pianeta.

Questo perchè la Terra, raffreddandosi, perse entropia, e generò Ordine, aumentato dal realizzarsi di organismi viventi dotati di Memoria.

Non è detto affatto che questo Apice stia nel nostro Futuro!

Potrebbe essere già stato superato, in Ere passate, per Specie ora estinte...

--------------------------------------------
Va beh, fantasticherie, di una mattina di Maggio, non particolarmente ottimistiche sulle Magnifiche Sorti e Progressive dell'Umanità, e della sua propensione a Migliorare le relazioni emotive, affettive e sentimentali tra i suoi Componenti....

--------------------------------------------

Passo, tra poco, a riportare il pensiero di Hannah Arendt...

Nessun commento: