entropie et informatique it entropia_e_calcolo_it_txh_som

Entropia e calcolo di txh

torna alla homepage

versione disponibile in : en ru zh es ja de nl pt fr

data di creazione : 20240703- data di aggiornamento : 20240703- data di generazione : 20240703_113950

1.Entropia e calcolo

L'. entropie  (o disturbo) misura la capacità di un sistema chiuso di evolvere.

Se l'entropia è bassa (sistema ordinato) il sistema può evolvere Man mano che si evolve, l'entropia aumenta e il sistema è meno capace di evolvere.

Il consumo di energia aumenta di fatto l'entropia perché l'energia non viene mai consumata, a causa della legge di conservazione dell'energia, che è il primo principio della termodinamica..

Quando l'energia viene dissipata o degradata, la sua entropia aumenta. (questo è il secondo principio della termodinamica) .

L'entropia è un concetto introdotto per la prima volta nella termodinamica macroscopica da Clausius, il cui significato è stato chiarito molto più tardi nella meccanica statistica da Boltzmann..

Il secondo principio della termodinamica afferma che l'entropia può solo aumentare o, al limite, rimanere costante..

L'entropia è un concetto fisico legato alla misurazione precisa delle nozioni di ordine e disordine..

L'ordine e il disordine sono di fondamentale importanza in fisica, che si occupa delle leggi di funzionamento di un sistema fisico composto da un numero molto elevato di entità. (un gas e le sue molecole, ad esempio) .

Questa fisica si chiama termodinamica.

I grandi numeri rivelano nuove proprietà, nuovi concetti, nuove realtà e nuove esperienze..

L'entropia è stata quindi ridefinita da Shannon

nel contesto della teoria dell'informazione, dove l'entropia viene identificata con la quantità di informazione.

La teoria dell'informazione è alla base dell'informatica.

Entropia e informazione sono lo stesso concetto.

Più un sistema è complesso, maggiore è la sua entropia e più informazioni sono necessarie per descriverlo..

Ad esempio, la stessa quantità di materia sotto forma di gas o sotto forma di cristallo non è descritta con la stessa quantità di informazioni..

Se il cristallo è perfetto (senza lacune, dislocazioni, ecc..

Shannon nweb) è sufficiente specificare la posizione di un atomo nel cristallo e la struttura del reticolo cristallino per sapere dove si trovano tutti gli atomi del cristallo..

Abbiamo quindi bisogno di pochissime informazioni per descrivere il sistema..

In un sistema di questo tipo l'entropia è molto bassa.

Tuttavia, nel caso del gas, poiché non c'è alcun legame tra gli atomi, quelli-devono essere descritti singolarmente se si vuole conoscere lo stato esatto del sistema.. La quantità di informazioni è enorme, legata al numero 6 di Avogadro..

022 10^23 e l'entropia è molto grande.

È stato poi dimostrato che la definizione di Shannon e quella della termodinamica sono equivalenti..

Per completare il quadro, vale la pena ricordare che, in seguito al lavoro dei fisici Bekenstein e Hawking, è comparsa una nuova forma di entropia nella dinamica dei buchi neri..

Questa entropia ha portato al principio olografico di T'Hooft.

La più piccola unità di informazione fisica è un'area delle dimensioni della lunghezza di Planck al quadrato..

La lunghezza di Planck è la più piccola lunghezza fisica al di sotto della quale la nozione di lunghezza perde il suo significato. (incertezza quantistica) .

Nell'entropia ci sono due termini che tendono ad annullarsi a vicenda, perché l'entropia è il logaritmo di un rapporto tra due concetti opposti: Capacità di percezione dell'osservatore e complessità del sistema percepito.

  • La complessità del sistema è espressa dalla quantità di ciò che c'è da percepire, e questo è il numero di stati possibili per un sistema. (Stati equiprobabili) .

  • la capacità di percepire è la risoluzione della nostra percezione, la precisione della nostra osservazione.

    La sua finitezza garantisce la relativa indistinguibilità tra gli stati, ... non troppo diverso.

    Maggiore è il numero di stati indistinguibili, maggiore è il disordine; non saremo in grado di ^risolvere^ lo stato reale perché la nostra capacità di percezione è limitata..

    Maggiore è la nostra capacità di percezione, più saremo in grado di discriminare tra i possibili stati del sistema..

    Così avremo più "informazioni" sul sistema e potremo vederlo in modo più organizzato..

    L'ordine del sistema dipende quindi da chi lo osserva..

    Consideriamo un semplice esempio, un ufficio.

    La persona che lavora su questa scrivania ha un determinato livello di informazione sullo stato della sua scrivania..

    Il suo ufficio può essere modellato da un insieme di caselle utilizzate per localizzare un oggetto..

    Gli oggetti sono conservati in scatole.

    Se ci sono N scatole e N oggetti, con un oggetto per scatola, allora ci sono N! (fattoriale di N) stati possibili per il sistema, con ogni oggetto in grado di occupare ognuna delle caselle.

    Per mettere via il primo oggetto abbiamo N possibili scatole, ma per il secondo N-1 scatola ecc..

    Quindi il numero di scelte per disporre gli N oggetti nelle N caselle è N * N-1 * N-2 * .... * 2 * 1 = N! cioè il fattoriale di N.

    Consideriamo un particolare stato di conservazione dell'ufficio.

    Supponiamo che la persona conosca perfettamente lo stato dell'ufficio, cioè che sappia dove trovare ogni oggetto accedendo direttamente alla scatola che lo contiene..

    Quindi in questo caso possiamo dire che per questa persona l'ufficio è totalmente ordinato, l'ordine è perfetto e quindi il disordine (o entropia) zero.

    Supponiamo che un'altra persona abbia una conoscenza minore dello stato dell'ufficio.

    Questa persona sa ^circa^ dove si trova un oggetto, ma dovrà fare diversi tentativi per trovare effettivamente un determinato oggetto..

    In altre parole, dovrà spendere una certa quantità di energia (degradare l'energia) e il tempo per ^ricostituire^ le informazioni mancanti..

    Se, in due o tre tentativi, riesce a trovare un determinato oggetto.

    Si può dire che non ha una conoscenza perfetta dello stato del sistema, o che per lui il sistema è leggermente disordinato..

    Per questa persona, il disordine o l'entropia non sono pari a zero..

    Supponiamo che una terza persona sia completamente estranea a questo ufficio e quindi non abbia informazioni sul suo stato..

    Per trovare un oggetto, questa persona dovrà aprire tutte le scatole in successione fino a trovare l'oggetto che sta cercando..

    Per questa persona, il disordine o l'entropia sono massimi..

    L'entropia è quindi data dal fattoriale di N, N! che è una buona rappresentazione della complessità del sistema, cioè della complessità di comprensione del sistema..

    Il fattoriale è costruito come segue, per la prima scelta di una casella (tiratura) ci sono N possibilità, nella seconda ci sono N-1, nella terza possibilità N-2 ecc..

    La complessità del sistema può quindi essere rappresentata dal numero N *. (N-1) * (N-2) .... 3 * 2 * 1 che è appunto il fattoriale di N.

    Anche in questo esempio assumiamo che l'osservatore sia sufficientemente intelligente da essere in grado di memorizzare (sfruttare l'esperienza del sistema) e non cercare in una scatola che ha già aperto e che non conteneva l'oggetto che stava cercando..

    Altrimenti la complessità del sistema verrebbe percepita dall'osservatore come molto più grande..

    Possiamo dire che il sistema completo : il sistema di osservazione si troverebbe in uno stato di confusione.

    Esempio di entropia nell'ergonomia informatica: Date un'occhiata al pannello di controllo di Windows.

    Il-Ciò è inficiato da una significativa entropia ergonomica, poiché le icone sono tradizionalmente presentate senza un ordine evidente su una superficie rettangolare..

    Se non si sa esattamente dove si trova l'icona che si sta cercando, si spendono (degradare) una certa quantità di energia per trovarla: più movimenti oculari, più tempo di sguardo (attività retinica) più processi di pensiero oculare, in definitiva più consumo di ATP(adenosina trifosfato: la molecola dell'energia) e il potenziale ionico.

    È stato fatto uno sforzo per classificare per categoria, ma questo non è del tutto convincente perché crea un ulteriore livello di percezione. (ci stiamo allontanando dai dettagli) e le categorie rappresentano diversi stati possibili dell'oggetto ricercato.: abbiamo l'indistinguibilità.

    L'ordinamento alfabetico, basato su una lettera chiave del nome dell'oggetto ricercato, consentirebbe di memorizzare meglio l'organizzazione e di garantirne la sopravvivenza in tutte le versioni successive. (la memoria rende il tempo meno distruttivo) .

    Ma questo non è disponibile nemmeno quando il prodotto è in circolazione da più di vent'anni..

    Per essere precisi, l'entropia è associata al logaritmo matematico del fattoriale.

    S = log (N!Shannon nweb) Ciò è dovuto alla logaritmo : Il logaritmo di un prodotto è la somma dei logaritmi dei due fattori del prodotto..

    In termini di formule matematiche, abbiamo: Log( a * b ) = Log(a) Log(b) Se raddoppiamo le dimensioni di una M = N * 2, se prendiamo ad esempio due uffici, allora le entropie si sommano aritmeticamente (si dice che l'entropia fisica sia una proprietà estensiva del sistema) ma la complessità aumenta in modo fattoriale.

    Il logaritmo crea un collegamento tra la nozione fattoriale della complessità di un sistema e l'entropia, che è una grandezza fisica estesa e quindi additiva..

    Modello_naso_Ehrenfest

    Formula_de_Boltzmann

    Nell'esempio dell'ufficio, possiamo notare che non appena la persona inizia ad aprire le scatole, cioè a interagire con il sistema, acquisisce informazioni su di esso.-che può poi memorizzare.

    Di conseguenza, l'entropia del sistema cambierà, ma avrà dovuto degradare l'energia altrove per poter ridurre questa entropia..

    Si tratta quindi di uno spostamento di entropia, perché nel sistema globale considerato chiuso l'entropia può solo aumentare. (questa è la seconda legge della termodinamica) .

    Nei sistemi fisici come i gas, gli osservatori, che sono esseri caratterizzati da un determinato tipo di organi percettivi (esseri umani, ad esempio) non differiscono nella loro capacità di percezione.

    È questo che conferisce alle leggi della termodinamica la loro oggettività..

    Ciò è illustrato dal ^paradosso del demone^ di Maxwell..

    Maxwell ideò il seguente esperimento: due scatole sono affiancate, con possibilità di comunicazione tra di loro.

    Inizialmente, la comunicazione è chiusa e una delle scatole è riempita con un gas, mentre l'altra è vuota..

    Se apriamo la comunicazione, le molecole passeranno attraverso e finiranno nell'altra scatola..

    La termodinamica statistica ci dice che lo stato più probabile per questo sistema è quello in cui c'è approssimativamente lo stesso numero di molecole in entrambi i compartimenti..

    Questo è lo stato di equilibrio termodinamico.

    Va sottolineato che le molecole non sono sottoposte ad alcuna forza che le faccia passare nella seconda scatola..

    Una molecola può spostarsi dalla prima scatola alla seconda con la stessa facilità con cui si sposta nel senso opposto, ed è quello che accade di continuo..

    Per questo motivo le molecole sono distribuite uniformemente tra i due compartimenti..

    Se in un dato momento ci sono più molecole in un compartimento, allora la probabilità che le molecole vadano nell'altra scatola diventa maggiore, da cui l'equilibrio..

    Il paradosso del demone di Maxwell è l'idea che un demone piccolo ed estremamente veloce abbia la capacità di chiudere la comunicazione e scelga di aprirla solo quando ci sono più molecole che passano in una direzione rispetto all'altra..

    Questo demone creerebbe una dissimmetria nella distribuzione delle molecole e sarebbe quindi in grado di svuotare una scatola per riempire l'altra..

    Questo demone è in grado di discriminare lo stato esatto del sistema perché opera a livello microscopico delle molecole..

    La risoluzione di tale paradosso è che il demone di Maxwell non può esistere.

    Nel caso della fisica termodinamica è proprio così, ma per sistemi molto meno complessi è facile immaginare diverse capacità di percezione, come nell'esempio dell'ufficio..

    Per questo motivo, in termodinamica trascuriamo l'aspetto della ^capacità di percepire informazioni" e ci concentriamo essenzialmente sulla quantità di informazioni..

    Ma questa è solo un'approssimazione.

    Questa approssimazione non è più valida se abbiamo a che fare con un sistema che può essere percepito in modo diverso dagli esseri umani..

    I sistemi informatici sono un buon esempio di questi sistemi..

    La nozione di entropia è emersa nel contesto specifico di un sistema fisico che dissipa energia per raggiungere un equilibrio termodinamico in cui l'entropia è massima..

    Ad esempio, un involucro isolato termicamente dall'esterno contenente due vani di uguali dimensioni, a contatto, riempiti d'acqua, dove la temperatura dell'acqua è di 0° per un vano e di 100° per l'altro, evolverà naturalmente, in virtù del secondo principio della termodinamica, verso una situazione in cui la temperatura nei due vani è di 50°..

    Quest'ultimo stato è stabile e, in assenza di energia esterna, il sistema non cambia. (se consideriamo il sistema perfettamente sterile dal punto di vista biologico, perché la vita potrebbe sfruttare l'energia termica contenuta nell'involucro per organizzare la materia) .

    Negli anni Sessanta, Ilya Prigogine, che per il suo lavoro ha ricevuto il Premio Nobel nel 1977, si è interessato a ciò che accade a un sistema quando viene tenuto permanentemente lontano da uno stato di equilibrio termodinamico da un flusso permanente di energia..

    Osservò poi che la dissipazione di energia portava alla comparsa di un ordine nella materia, che chiamò strutture dissipative..

    Le strutture dissipative sono strutture naturali che possiedono la proprietà di autosostenersi.-organizzazione: L'auto-l'organizzazione è un fenomeno di aumento dell'ordine, in direzione opposta all'aumento dell'entropia (o disordine , simbolo S) ; al costo di dissipare l'energia necessaria per mantenere questa struttura..

    È la tendenza dei processi fisici, degli organismi viventi e dei sistemi sociali a organizzarsi.-stesso ; parliamo anche di auto-assemblea.

    Una volta superata una soglia critica di complessità, i sistemi possono cambiare stato, ovvero passare da una fase instabile a una fase stabile..

    La legge fondamentale di tali sistemi può essere riassunta in una semplice equazione d²S=0 stabilito dal premio Nobel per la fisica Ilya Prigogine, il che significa che un sistema che si autoalimenta-si organizza creando un minimo di disordine man mano che aumenta la sua complessità.

    Per un organismo vivente il non-Il rispetto di questa legge comporta il ritorno all'equilibrio termodinamico, che per lui è la morte..

    La longevità di un sistema informatico dipende essenzialmente dalla sua capacità di rispondere alle esigenze, e quindi di evolversi contemporaneamente all'evoluzione del sistema.-ci.

    Se il sistema diventa troppo costoso da mantenere rispetto ai nuovi servizi che fornirà, la sua esistenza viene messa in discussione e non tarda a essere sostituito da un sistema più efficiente..

    L'equazione è semplice: se il costo della manutenzione diventa correlato al costo della sostituzione, scegliamo di sostituirlo.

    In termini più atomici, possiamo dire che se spendiamo tanta energia per cercare un'informazione quanto per ricostruirla, allora abbiamo perso quell'informazione..

    Quando i sistemi informatici crescono, se non rispettano la legge della minima creazione di entropia, si può avere un'ulteriore riduzione dell'entropia. (per semplificare la ridondanza) con l'aumentare della loro complessità, diventano più difficili da mantenere e alla fine scompaiono, il che equivale a un ritorno all'equilibrio termodinamico (la struttura dissipativa scompare) .

    2.Entropia del computer

    I sistemi informatici sono un esempio di tali strutture : sono dissipativi, poiché l'energia (e quindi un costo finanziario) è utilizzato per stabilirli e mantenerli.

    Se osserviamo l'evoluzione dell'informatica, possiamo notare che la tendenza permanente è quella di ridurre la ridondanza..

    Gli sviluppi del settore IT in questa direzione includono:

    2.1.Ridurre la ridondanza informatica

    2.2.Esempio di entropia ergonomica nell'informatica

    Esempio di entropia nell'ergonomia informatica: Date un'occhiata al pannello di controllo di Windows.

    Il-Ciò è inficiato da una significativa entropia ergonomica, poiché le icone sono tradizionalmente presentate senza un ordine particolare su una superficie rettangolare..

    Se non si sa esattamente dove si trova l'icona che si sta cercando, si spendono (degradare) una certa quantità di energia per trovarla: più movimenti oculari, più tempo di sguardo (attività retinica) più processi di pensiero oculare, in definitiva più consumo di ATP (Adenosina trifosfato) e il potenziale ionico.

    È stato fatto uno sforzo per classificare per categoria, ma questo non è conclusivo in quanto crea un ulteriore livello di percezione. (ci stiamo allontanando dai dettagli) e le categorie rappresentano diversi stati possibili dell'oggetto ricercato.: abbiamo l'indistinguibilità.

    Esiste un ordinamento alfabetico basato sulla prima lettera dell'etichetta dell'icona, ma la prima lettera non viene ordinata alfabeticamente.-questo non è necessariamente rappresentativo della funzione che stiamo cercando e potrebbe essere ridondante (per esempio "Centro de ...") .

    Cambia anche l'accesso al pannello di controllo di Windows-a seconda della versione ! Se si sta cambiando versione o si lavora con più versioni (il computer personale, i server Windows a cui ci si collega ...esempio di entropia nell'ergonomia informatica) è per natura dirompente: confusione e perdita di tempo.

  • La longevità di un sistema informatico dipende essenzialmente dalla sua capacità di rispondere alle esigenze, e quindi di evolversi contemporaneamente all'evoluzione del sistema.-ci.

  • Se il sistema diventa troppo costoso da mantenere rispetto ai nuovi servizi che fornirà, la sua esistenza viene messa in discussione e non tarda a essere sostituito da un sistema più efficiente..

  • l'equazione è semplice: se il costo della manutenzione diventa correlato al costo della sostituzione, scegliamo di sostituirlo.

  • In termini più atomici, possiamo dire che se spendiamo tanta energia per cercare un'informazione quanto per ricostruirla, allora abbiamo perso l'informazione..

  • quando i sistemi informatici crescono, se non rispettano la legge della minima creazione di entropia (per semplificare la ridondanza) con l'aumentare della loro complessità, diventano più difficili da mantenere e alla fine scompaiono, il che equivale a un ritorno all'equilibrio termodinamico (la struttura dissipativa scompare) .