entropie entropie_txh_it_som

Entropia txh

torna alla homepage

versione disponibile in : en ru zh es ja de nl pt fr

data di creazione : 20240129- data di aggiornamento : 20230402- data di generazione : 20240908_053307

1.Entropia

L'entropia caratterizza l'aumento della complessità di un sistema, ovvero la quantità di informazioni necessarie per descriverlo. (risolvere).

Inizialmente, consideriamo un sistema chiuso, cioè un sistema che non scambia energia (meccanica, termica, radiazione)o materiale con il suo ambiente.

L'entropia è legata alla nozione di disordine : più informazioni sono necessarie per descrivere un sistema, più esso ci appare disordinato.

L'entropia è infatti un concetto fisico legato alla misurazione precisa dell'ordine o del disordine.. L'entropia misura anche la capacità di evoluzione di un sistema chiuso con una certa quantità di energia utilizzabile. (perché ha una bassa entropia).

Se avete una squadra in cui i cavalli vanno in tutte le direzioni, non potete avanzare perché non c'è ordine..

Se disciplinate i vostri cavalli, la loro energia ordinata diventa utilizzabile per far progredire la squadra..

Questo esempio mostra che l'energia (la forza che i cavalli sono in grado di raccogliere per svolgere un determinato lavoro) non è sufficiente e che c'è anche una nozione di ordine che è molto importante. Il concetto di entropia è legato a questo ordine o disordine..

L'energia è ciò che permette l'evoluzione, il cambiamento. Se il serbatoio di un'auto è vuoto, non può più muoversi, a meno che non utilizzi l'energia potenziale gravitazionale che possiede o l'energia cinetica che ha accumulato su una pendenza e, se siete fortunati, vi permetterà di arrivare alla prossima pompa di benzina.

Se l'entropia è bassa (sistema ordinato) il sistema può evolvere.

Con l'evoluzione, l'entropia aumenta, cioè l'energia si degrada. (diminuisce il suo ordine) e il sistema è meno capace di evolversi.

Ad esempio, i cavalli consumano l'energia chimica contenuta nel mangime che hanno mangiato.
utilizzando l'ossigeno presente nell'aria attraverso la respirazione per produrre molecole di ATPAdénosine_triphosphate che è il carburante della fisiologia. Tirando il carrello, consumano questo carburante per far lavorare i muscoli. (il motore).
Quando l'energia ricavata da tutto il cibo è stata consumata, insieme alle riserve immagazzinate nei muscoli, nel fegato e nel grasso, l'organismo è stanco, dovranno riposare e se non mangeranno di nuovo (sistema chiuso) non saranno in grado di continuare a tirare il carro per molto tempo, se non fino a esaurirlo.
(riserve energetiche).

Consumare energia significa infatti aumentare l'entropia, perché non consumiamo mai energia a causa della legge di conservazione dell'energia.
che è il primo principio della termodinamica: in un sistema chiuso l'energia è costante.

Quando l'energia viene dissipata o degradata, la sua entropia e quindi il suo disordine aumentano. (questo è il secondo principio della termodinamica).

Nell'esempio dei cavalli, la crosta equina risultante dalla digestione è meno ordinata delle erbe da cui è derivata.
È l'energia del sole debolmente entropica che, attraverso la fotosintesi, permette alle erbe di ricrescere utilizzando la materia organica della cotenna..

L'entropia è un concetto introdotto inizialmente nella termodinamica macroscopica da Clausius..
Rudolf_Clausius e il cui significato profondo in termini di informazione è stato chiarito molto più tardi in meccanica statistica da Boltzmann.

Il secondo principio della termodinamica afferma che in un sistema chiuso l'entropia può solo aumentare o, al limite, rimanere costante..
L'ordine e il disordine sono di fondamentale importanza in fisica, che si occupa delle leggi di funzionamento. sistemi fisici composti da un numero molto elevato di entità (un gas formato da tutte le sue molecole, ad esempio). Questa fisica è chiamataThermodynamique.

I grandi numeri fanno emergere nuove proprietà, nuovi concetti, nuove realtà ed esperienze.

L'entropia è stata quindi ridefinita da Shannon nel quadro della teoria dell'informazione dove l'entropia si identifica con la quantità di informazione.

( La teoria dell'informazione è alla base dell'informatica, quindi l'entropia deve svolgere un ruolo importante in questo campo. . entropie et informatique  .Shannon nweb)

1.1.Entropia e informazione

L'entropia e l'informazione sono concetti fortemente correlati e possono essere considerati identici in mécanique_statistique_it.

Infatti, più un sistema è complesso, maggiore è la sua entropia.
e più informazioni sono necessarie per descriverlo.

Per esempio, la stessa quantità di materia in forma gassosa o in forma di cristallo non sono descritti con la stessa quantità di informazioni. Se il cristallo è perfetto (senza lacune, dislocazioni, ecc..entropia e informazione) allora è sufficiente specificare la posizione di un atomo del cristallo e la struttura del reticolo cristallino per scoprire dove si trovano tutti gli elementi di gli atomi del cristallo. Sono quindi necessarie pochissime informazioni per descrivere il sistema..

In un sistema di questo tipo l'entropia è molto bassa.

Nel caso del gas, invece, non essendoci legami tra gli atomi, essi devono essere descritti singolarmente se si vuole conoscere lo stato esatto del sistema.

La quantità di informazioni è enorme in relazione al numero di Avogadro 6.022 10^23 e l'entropia è molto grande.

È stato poi dimostrato che la definizione di Shannon e quella della termodinamica sono equivalenti..

Per completare il quadro, a titolo di osservazione, va detto che In seguito al lavoro dei fisici Bekenstein e Hawking, nella dinamica dei buchi neri è comparsa una nuova forma di entropia..
Questa entropia ha portato al principio olografico di T'Hooft.

Questo principio ritiene che la più piccola unità di informazione fisica sia un'area delle dimensioni della lunghezza di Planck al quadrato. (Superficie di Planck).

La lunghezza di Planck è la più piccola lunghezza fisica al di sotto della quale la nozione di lunghezza perde il suo significato.
(incertezza quantistica). Si potrebbe quindi affermare che la lunghezza di Planck è la lunghezza archetipica e che due punti immediatamente adiacenti nello spazio fisico sono separati da questa lunghezza. Non ci può essere di punti dello spazio fisico tra questi due punti. È ovviamente possibile progettare lunghezze inferiori alla lunghezza di Planck ma non si tratta più di lunghezze fisiche, bensì di lunghezze astratte e matematiche..

1.2.L'entropia è legata all'osservatore

Nella formula matematica dell'entropia ci sono due termini che tendono ad annullarsi a vicenda, possiamo dire che l'entropia è il logarithme_it una relazione tra due nozioni opposte:

Questi due termini rappresentano da un lato la capacità di percezione dell'osservatore e dall'altro la complessità del sistema percepito..

  • La complessità del sistema si riflette nella quantità di ciò che c'è da percepire. e questo è il numero di stati possibili per un sistema (Stati equiprobabili: il sistema può trovarsi in uno dei seguenti stati).

  • la capacità di percepire è la risoluzione della nostra percezione, il precisione della nostra osservazione. La sua finitezza garantisce una relativa indistinguibilità tra gli stati, ... non troppo diverso.

    Quanto maggiore è il numero di stati indistinguibili, tanto maggiore è il disordine.
    non sarà in grado di ^risolvere^ lo stato reale, poiché la nostra capacità di percezione è limitata..

    Quanto maggiore è la nostra capacità di percezione, tanto più riusciamo a discriminare i possibili stati del sistema. Avremo quindi maggiori informazioni sul sistema e lo considereremo più organizzato.

    Il punto importante è che si deve tenere conto dell'osservatore.

    L'ordine del sistema dipende quindi dall'osservatore.

    In fisica si considera sempre la posizione dell'osservatore rispetto al fenomeno osservato..

    In meccanica, questa posizione è definita dalla distinzione tra il quadro di riferimento dell'osservatore e il quadro di riferimento dell'osservatore. e il benchmark del sistema stesso e la loro relazione.

    1.2.1.Termodinamica statistica o mécanique_statistique_it

    Nella termodinamica statistica la posizione dell'osservatore non è una posizione nello spazio ma piuttosto una posizione nella scala delle dimensioni. L'osservatore umano posizionato alla scala del metro mentre per un gas, che è l'oggetto principale della termodinamica statistica, la scala del sistema è composto da atomi la cui struttura quantistica è quindi su scala atomica cioè appena al di sotto della scala nanometrica (10^-10 m , 10 potenza meno 10 metro)

    Consideriamo un semplice esempio che si avvicina alla scala dell'osservatore umano o tra il centimetro e il decimetro: oggetti su una scrivania. La persona che lavora su questa scrivania ha un determinato livello di informazione sullo stato della sua scrivania..

    Il suo ufficio può essere modellato da un insieme di caselle che permettono di localizzare un oggetto. Gli oggetti sono conservati in scatole. Se ci sono N caselle e N oggetti con un oggetto per casella, allora ci sono N! (fattoriale di N) stati possibili per del sistema, ogni oggetto può occupare ciascuna delle scatole.

    Infatti, per memorizzare il primo oggetto abbiamo N possibili scatole ma per le seconde N-1 caselle ecc.. Quindi il numero di scelte degli N oggetti nelle N scatole è N * N-1 * N-2 * .... * 2 * 1 = N! cioè il fattoriale di N.
    Consideriamo un particolare stato di conservazione dell'ufficio. Supponiamo che il è pienamente consapevole dello stato dell'ufficio, vale a dire che sa dove trovare ogni oggetto grazie all'accesso diretto alla scatola che lo contiene.
    In questo caso possiamo dire che per questa persona l'ufficio è totalmente in ordine, l'ordine è perfetto e anche il disordine (o entropia) zero.

    Supponiamo che un'altra persona abbia una conoscenza inferiore dello stato del ufficio. Questa persona sa "circa" dove si trova un oggetto, ma dovrà fare diversi tentativi per trovare effettivamente un determinato oggetto.
    Cioè, dovrà spendere una certa quantità di energia (degradare l'energia) e il tempo per ^ricostituire^ le informazioni che gli mancano.. Se in due o tre tentativi riesce a trovare un oggetto dato. Si può dire che non ha una conoscenza perfetta dello stato del sistema. o che il sistema è leggermente disordinato per lei. Per questa persona, il disordine o l'entropia non sono pari a zero..

    Supponiamo che una terza persona sia del tutto estranea a questo ufficio e quindi non senza alcuna informazione sulle sue condizioni. Per trovare un oggetto questo La persona dovrà aprire tutte le scatole in successione fino a che non avrà trovare l'oggetto che si sta cercando. Per questa persona il disordine o l'entropia sono massimo. L'entropia è quindi data dal fattoriale di N, N! che è una buona rappresentazione della complessità del sistema, vale a dire la complessità della comprensione del sistema.
    Il fattoriale è costruito come segue, alla prima scelta di una casella (sorteggio) ci sono N possibilità, nel secondo ci sono N-1 possibilità, nel terzo N-2 ecc.. Quindi la complessità del sistema può essere ben rappresentata dal numero N * (N-1) * (N-2) .... 3 * 2 * 1 che è appunto il fattoriale di N.

    E anche in questo esempio si assume che l'osservatore sia sufficientemente intelligente per essere in grado di memorizzare (sfruttare l'esperienza del sistema) e non guardare in una scatola che ha già aperto e che non conteneva non lo scopo previsto. Altrimenti la complessità del sistema verrebbe percepita da l'osservatore come molto più grande. Si potrebbe dire che il sistema completo : sistema si troverebbe in uno stato di confusione.

    Per essere precisi, l'entropia è associata al logaritmo matematico del fattoriale.

    S = log (N!termodinamica statistica)

    Ciò è dovuto alla proprietà del logarithme_it :

    Il logaritmo di un prodotto è la somma dei logaritmi dei due fattori del prodotto.."

    In termini di formule matematiche abbiamo:

    Log( a * b ) = Log(a) Log(b)

    Se raddoppiamo le dimensioni di una M = N * 2, prendiamo ad esempio due uffici allora le entropie si sommano linearmente ma la complessità aumenta in modo esponenziale.

    Modèle_des_urnes_d_Ehrenfest Formule_de_Boltzmann

    Nell'esempio dell'ufficio, si può notare che non appena la persona inizia ad aprire le scatole, cioè per interagire con il sistema, acquisirà informazioni su che può poi memorizzare. Di conseguenza, l'entropia del sistema si evolverà per lei ma avrà dovuto degradare l'energia altrove per fornire diminuire questa entropia. Si tratta quindi di uno spostamento di entropia, perché nel sistema complessivo considerato chiuso, l'entropia può solo aumentare (è la seconda legge della termodinamica).

    In sistemi fisici come i gas, gli osservatori che sono esseri caratterizzati da un determinato tipo di organi percettivi (esseri esseri umani, ad esempio) non differiscono nella loro capacità di percepire.
    Questo è ciò che conferisce alle leggi della termodinamica la loro oggettività.
    Questo è illustrato dal paradosso del . démon de Maxwell  .

    . Maxwell  immaginate il seguente esperimento: due scatole sono posizionate l'una contro l'altra l'altro con la possibilità di comunicare tra loro. Inizialmente il La comunicazione viene chiusa e una delle scatole viene riempita con un gas mentre l'altro è vuoto. Se apriamo la comunicazione, le molecole passeranno attraverso e si ritrovano nell'altra scatola. La termodinamica statistica ci dice che lo stato più probabile per questo sistema è quello in cui ci sono approssimativamente lo stesso numero di molecole in entrambi i compartimenti. Questo è lo stato equilibrio termodinamico. Va sottolineato che le molecole non sono sottoposte ad alcuna forza che le faccia attraversare nella seconda casella. Una molecola può anche spostarsi facilmente dalla prima casella alla seconda che il contrario, e questo è ciò che accade in ogni momento.

    Questo è ciò che rende le molecole uniformemente distribuite tra i due compartimenti. Se in un dato momento ci sono più molecole in un compartimento allora la probabilità che le molecole vadano in anche l'altra scatola diventa più grande, da cui l'equilibrio.

    Il paradosso del demone di Maxwell è l'idea che un demone estremamente piccolo avrebbe la possibilità di interrompere la comunicazione e sceglierebbe di non farlo.
    L'unico modo per aprirlo è quando ci sono più molecole che lo attraversano. in una direzione rispetto all'altra. Questo demone creerebbe così un'asimmetria nella distribuzione e sarebbe quindi in grado di svuotare una scatola per riempire l'altra..

    Questo demone è in grado di discriminare l'esatto stato del sistema perché opera a livello di molecole microscopiche. La risoluzione di un simile paradosso è che il demone Il principio di Maxwell non può esistere. Nel caso della fisica termodinamica si tratta di ma è possibile immaginare sistemi che siano molto più meno complesse, abilità percettive diverse, come nell'esempio dell'ufficio.

    Per questo motivo, in termodinamica trascuriamo l'aspetto della "capacità.
    della percezione dell'informazione" e l'attenzione principale è rivolta al sulla ^quantità di informazioni".. Ma è un'approssimazione.

    Questa approssimazione non è più valida se abbiamo a che fare con un sistema che può essere percepito in modo diverso dagli esseri umani.

    La nozione di entropia è emersa nel particolare contesto di una sistema fisico che dissipa energia per raggiungere l'equilibrio termodinamica dove l'entropia è massima.

    Per esempio, un involucro isolato termicamente dall'esterno contenente due compartimenti di uguali dimensioni, a contatto, riempiti di acqua dove la temperatura dell'acqua è di 0° per uno scomparto e di 100° per l'altro.
    si evolverà naturalmente secondo il secondo principio della termodinamica a una situazione in cui la temperatura in entrambi i serbatoi è di 50.

    L'energia termica è l'energia meccanica delle molecole. Le molecole si scambiano energia attraverso gli ammortizzatori a parete che separano i due serbatoi con lo stesso meccanismo di precedentemente e si arriva quindi all'uniformità macroscopica.

    Quest'ultimo stato è stabile e se non è coinvolta alcuna energia esterna.
    Il sistema non subirà alcuna modifica (se consideriamo il sistema perfettamente sterile dal punto di vista biologico perché la vita potrebbe sfruttare l'energia termica contenuta nell'involucro organizzare il materiale). Negli anni '60 Ilya Prigogine, che nel 1977 ha ricevuto il Premio Nobel per questo lavoro, è interessato a ciò che accade a un sistema quando viene mantenuta permanentemente lontana dallo stato stazionario termodinamica da un flusso permanente di energia.

    Osserva poi che la dissipazione dell'energia provoca la comparsa di ordine nella materia, che ha definito strutture dissipative.

    Le strutture dissipative sono strutture naturali che possiedono la proprietà dell'auto-organizzazione.:

    L'auto-organizzazione è un fenomeno di aumento dell'ordine, che va nella direzione opposta a quella dell'auto-organizzazione. l'aumento dell'entropia (o disordine , simbolo S) ; al costo della dissipazione di energia che verrà utilizzato per mantenere questa struttura.

    Si tratta di una tendenza che riguarda sia i processi fisici o gli organismi viventi, sia la sistemi sociali, per organizzarsi ; parliamo anche di autoassemblaggio.

    Una volta superata una soglia critica di complessità, i sistemi possono cambiare stato, ovvero passare da uno stato all'altro. fase instabile a una fase stabile. "

    La legge fondamentale di tali sistemi può essere riassunta in una semplice equazione d²S=0 stabilito dal Premio Nobel per la Fisica Ilya Prigogine, che significa che una Il sistema auto-organizzato si evolve creando un minimo di disordine come il suo complessità crescente.

    Per un organismo vivente, il mancato rispetto di questa legge si traduce in un ritorno all'equilibrio termodinamica, che per lui è la morte.

    1.3.. analyse perception et entropie : studio della modellazione della percezione

    _ Nei sistemi informatici il livello di complessità è sufficientemente basso in modo che la percezione dello stato del sistema sia diversa per i diversi osservatori,

    Torniamo quindi al nostro esempio di ufficio modellato con le nostre tre persone.

  • per la prima persona un'osservazione o un'interazione con il sistema risulta nell'apertura diretta della scatola contenente l'oggetto ricercato. La probabilità di trovare l'oggetto desiderato è totale, cioè 1.
    La risoluzione con cui la persona risolve lo stato del sistema è la più fine possibile, cioè la persona è in grado di riconoscere con certezza la scatola che sta cercando..

    La risoluzione può essere rappresentata dal rapporto 1 / N . 1 per il numero di prove necessarie a trovare l'oggetto di ricerca, cioè a risolvere lo stato del sistema.
    N per la complessità del sistema.

    La precisione può essere rappresentata come l'inverso della risoluzione. La precisione sarà quindi N / 1 = N .

  • per la seconda persona che deve aprire diciamo n=5 caselle in media per trovare l'oggetto, la risoluzione sarà 5 / N e la precisione N / 5.
  • L'accuratezza può essere definita come il rapporto tra la complessità del sistema stesso, che è N, e la complessità del sistema.
    complessità del sistema vista dall'osservatore, qui n=5, poiché deve effettuare 5 tentativi (misure) per ridurre lo stato del sistema (che lo stato reale del sistema e la simulazione mentale dello stato del sistema siano identici).

  • L'accuratezza sembra essere la capacità di percepire.
  • sempre più grande: Fare 5 tentativi per trovare un oggetto su sei non è molto efficiente. (bassa probabilità) per 1 milione di oggetti è estremamente efficace (probabilità vicina a 1).

  • la probabilità di trovare l'oggetto è l'inverso del numero medio di tentativi per trovarlo.
    1 nel caso della persona che conosce completamente il sistema.
    1 / 5 nel caso della seconda persona 1 / N nel caso di persona completamente all'oscuro dello stato del sistema.

    numero di scatolerisoluzione(precisione(nbr/5)   probalilità (nbr-5/nbr) 
    6 1.2   0.166667
    7 1.4   0.285714
    8 1.6   0.375000
    9 1.8   0.444444
    10 2.0   0.500000
    15 3.0   0.666667
    20 4.0   0.750000
    30 6.0   0.833333
    50 10.0   0.900000
    100 20.0   0.950000
    1000 200.0   0.995000
    10000 2000.0   0.999500
    1000000 200000.0   0.999995

    Questa tabella illustra che maggiore è la precisione, maggiore è la la probabilità di trovare l'oggetto è alta.

    la formula più generale per definire la conoscenza (ordine o disordine) che abbiamo in un sistema è:

    Informazioni = Numero di stati / Precisione

    L'entropia è un logarithme_it ( Che non ho ancora capito

    Entropie = Log( Disturbo ) = Log(Numero di Stati)

  • Log (Precisione)

    Si può notare che con un perfetto equilibrio tra la capacità di percezione e di ciò che ci diamo a percepire, l'entropia è pari a zero. _

    1.4.Entropia di un testo

  • ricerca dell'entropia testuale (conferenza di Raphael_Bousso_it The_World_as_a_Hologram_it_nweb_itentropia di un testo)
  • definire l'entropia testuale dall'entropia statistica fattore Boltzmann
  • analogia testo-collegamento vs. legame molecola-chimica (entropia di un cristallo rispetto a un gas) gas= testo senza link cristallo = testo con link

    1.5.Neguentropia

    1.5.1.Effetto sterico

    L'effetto sterico in chimica è il fatto che l'affollamento spaziale di una molecola può impedire una reazione chimica prevedibile grazie al principio di esclusione di Pauli perché le molecole non possono avvicinarsi abbastanza l'una all'altra.
    per rispondere.

    1.5.2.Effetto sterico di neguentropia

    effetto sterico discriminante nei confronti dell'idrogeno e di altri composti chimici di dimensioni maggiori potrebbe essere utilizzato per separare l'idrogeno dai suoi composti.
    Per questo potrebbe essere utilizzato un dispositivo su scala nanometrica.
    La percolazione di un composto chimico attraverso una struttura in nanoscala di questo tipo potrebbe trasformare l'energia di pressione macroscopica in energia chimica microscopico. L'agitazione molecolare verrebbe utilizzata allo stesso modo dell'agitazione.
    che viene applicata ad un setaccio per far passare gli elementi più fini attraverso il setaccio.

    Gli atomi di idrogeno potrebbero poi ricombinarsi tramite legame covalente per formare idrogeno gassoso.