Entropia txh
versione disponibile in : en ru zh es ja de nl pt fr
data di creazione : 20240129- data di aggiornamento : 20230402- data di generazione : 20240908_053307
L'entropia caratterizza l'aumento della complessità di un sistema, ovvero la quantità di informazioni necessarie per descriverlo. (risolvere).
Inizialmente, consideriamo un sistema chiuso, cioè un sistema che non scambia energia (meccanica, termica, radiazione)o materiale con il suo ambiente.
L'entropia è legata alla nozione di disordine : più informazioni sono necessarie per descrivere un sistema, più esso ci appare disordinato.
L'entropia è infatti un concetto fisico legato alla misurazione precisa dell'ordine o del disordine..
L'entropia misura anche la capacità di evoluzione di un sistema chiuso con una certa quantità di energia utilizzabile. (perché ha una bassa entropia).
Se avete una squadra in cui i cavalli vanno in tutte le direzioni, non potete avanzare perché non c'è ordine..
Se disciplinate i vostri cavalli, la loro energia ordinata diventa utilizzabile per far progredire la squadra..
Questo esempio mostra che l'energia (la forza che i cavalli sono in grado di raccogliere per svolgere un determinato lavoro) non è sufficiente
e che c'è anche una nozione di ordine che è molto importante. Il concetto di entropia è legato a questo ordine o disordine..
L'energia è ciò che permette l'evoluzione, il cambiamento. Se il serbatoio di un'auto è vuoto, non può più muoversi,
a meno che non utilizzi l'energia potenziale gravitazionale che possiede o l'energia cinetica che ha accumulato su una pendenza
e, se siete fortunati, vi permetterà di arrivare alla prossima pompa di benzina.
Se l'entropia è bassa (sistema ordinato) il sistema può evolvere.
Con l'evoluzione, l'entropia aumenta, cioè l'energia si degrada. (diminuisce il suo ordine) e il sistema è meno capace di evolversi.
Ad esempio, i cavalli consumano l'energia chimica contenuta nel mangime che hanno mangiato.
utilizzando l'ossigeno presente nell'aria attraverso la respirazione per produrre molecole di ATPAdénosine_triphosphate
che è il carburante della fisiologia. Tirando il carrello, consumano questo carburante per far lavorare i muscoli. (il motore).
Quando l'energia ricavata da tutto il cibo è stata consumata, insieme alle riserve immagazzinate nei muscoli, nel fegato e nel grasso, l'organismo è stanco,
dovranno riposare e se non mangeranno di nuovo (sistema chiuso) non saranno in grado di continuare a tirare il carro per molto tempo, se non fino a esaurirlo.
(riserve energetiche).
Consumare energia significa infatti aumentare l'entropia, perché non consumiamo mai energia a causa della legge di conservazione dell'energia.
che è il primo principio della termodinamica: in un sistema chiuso l'energia è costante.
Quando l'energia viene dissipata o degradata, la sua entropia e quindi il suo disordine aumentano. (questo è il secondo principio della termodinamica).
Nell'esempio dei cavalli, la crosta equina risultante dalla digestione è meno ordinata delle erbe da cui è derivata.
È l'energia del sole debolmente entropica che, attraverso la fotosintesi, permette alle erbe di ricrescere utilizzando la materia organica della cotenna..
L'entropia è un concetto introdotto inizialmente nella termodinamica macroscopica da Clausius..
Rudolf_Clausius
e il cui significato profondo in termini di informazione è stato chiarito molto più tardi in meccanica statistica da Boltzmann.
Il secondo principio della termodinamica afferma che in un sistema chiuso l'entropia può solo aumentare o, al limite, rimanere costante..
L'ordine e il disordine sono di fondamentale importanza in fisica, che si occupa delle leggi di funzionamento.
sistemi fisici composti da un numero molto elevato di entità (un gas formato da tutte le sue molecole, ad esempio).
Questa fisica è chiamataThermodynamique.
I grandi numeri fanno emergere nuove proprietà , nuovi concetti,
nuove realtà ed esperienze.
L'entropia è stata quindi ridefinita da Shannon nel quadro della teoria dell'informazione
dove l'entropia si identifica con la quantità di informazione.
( La teoria dell'informazione è alla base dell'informatica, quindi l'entropia deve svolgere un ruolo importante in questo campo. . entropie et informatique .Shannon nweb)
L'entropia e l'informazione sono concetti fortemente correlati e possono essere considerati identici in mécanique_statistique_it.
Infatti, più un sistema è complesso, maggiore è la sua entropia.
e più informazioni sono necessarie per descriverlo.
Per esempio, la stessa quantità di materia in forma gassosa o in forma di cristallo
non sono descritti con la stessa quantità di informazioni. Se il cristallo è perfetto
(senza lacune, dislocazioni, ecc..entropia e informazione) allora è sufficiente specificare la posizione di un atomo
del cristallo e la struttura del reticolo cristallino per scoprire dove si trovano tutti gli elementi di
gli atomi del cristallo. Sono quindi necessarie pochissime informazioni per descrivere il sistema..
In un sistema di questo tipo l'entropia è molto bassa.
Nel caso del gas, invece, non essendoci legami tra gli atomi, essi devono
essere descritti singolarmente se si vuole conoscere lo stato esatto del sistema.
La quantità di informazioni è enorme in relazione al numero di Avogadro 6.022 10^23 e l'entropia è molto grande.
È stato poi dimostrato che la definizione di Shannon e quella della termodinamica sono equivalenti..
Per completare il quadro, a titolo di osservazione, va detto che
In seguito al lavoro dei fisici Bekenstein e Hawking, nella dinamica dei buchi neri è comparsa una nuova forma di entropia..
Questa entropia ha portato al principio olografico di T'Hooft.
Questo principio ritiene che la più piccola unità di informazione fisica sia un'area delle dimensioni della lunghezza di Planck al quadrato. (Superficie di Planck).
La lunghezza di Planck è la più piccola lunghezza fisica al di sotto della quale la nozione di lunghezza perde il suo significato.
(incertezza quantistica). Si potrebbe quindi affermare che la lunghezza di Planck è la lunghezza archetipica e
che due punti immediatamente adiacenti nello spazio fisico sono separati da questa lunghezza. Non ci può essere
di punti dello spazio fisico tra questi due punti. È ovviamente possibile progettare lunghezze inferiori alla lunghezza di Planck
ma non si tratta più di lunghezze fisiche, bensì di lunghezze astratte e matematiche..
1.2.L'entropia è legata all'osservatore
Nella formula matematica dell'entropia ci sono due termini che tendono ad annullarsi a vicenda, possiamo dire che l'entropia è il logarithme_it una relazione tra due nozioni opposte:
Questi due termini rappresentano da un lato la capacità di percezione dell'osservatore e dall'altro la complessità del sistema percepito..
Quanto maggiore è il numero di stati indistinguibili, tanto maggiore è il disordine.
non sarà in grado di ^risolvere^ lo stato reale, poiché la nostra capacità di percezione è limitata..
Quanto maggiore è la nostra capacità di percezione, tanto più riusciamo a discriminare
i possibili stati del sistema. Avremo quindi maggiori informazioni sul
sistema e lo considereremo più organizzato.
Il punto importante è che si deve tenere conto dell'osservatore.
L'ordine del sistema dipende quindi dall'osservatore.
In fisica si considera sempre la posizione dell'osservatore rispetto al fenomeno osservato..
In meccanica, questa posizione è definita dalla distinzione tra il quadro di riferimento dell'osservatore e il quadro di riferimento dell'osservatore.
e il benchmark del sistema stesso e la loro relazione.
1.2.1.Termodinamica statistica o mécanique_statistique_it
Nella termodinamica statistica la posizione dell'osservatore non è una posizione nello spazio ma piuttosto una posizione nella scala delle dimensioni. L'osservatore umano posizionato alla scala del metro mentre per un gas, che è l'oggetto principale della termodinamica statistica, la scala del sistema è composto da atomi la cui struttura quantistica è quindi su scala atomica cioè appena al di sotto della scala nanometrica (10^-10 m , 10 potenza meno 10 metro)
Consideriamo un semplice esempio che si avvicina alla scala dell'osservatore umano
o tra il centimetro e il decimetro: oggetti su una scrivania.
La persona che lavora su questa scrivania ha un determinato livello di informazione sullo stato della sua scrivania..
Il suo ufficio può essere modellato da un insieme di caselle che permettono di
localizzare un oggetto. Gli oggetti sono conservati in scatole. Se ci sono N caselle
e N oggetti con un oggetto per casella, allora ci sono N! (fattoriale di N) stati possibili per
del sistema, ogni oggetto può occupare ciascuna delle scatole.
Infatti, per memorizzare il primo oggetto abbiamo N possibili scatole
ma per le seconde N-1 caselle ecc.. Quindi il numero di scelte
degli N oggetti nelle N scatole è
N * N-1 * N-2 * .... * 2 * 1 = N! cioè il fattoriale di N.
Consideriamo un particolare stato di conservazione dell'ufficio. Supponiamo che il
è pienamente consapevole dello stato dell'ufficio, vale a dire che
sa dove trovare ogni oggetto grazie all'accesso diretto alla scatola che lo contiene.
In questo caso possiamo dire che per questa persona l'ufficio è
totalmente in ordine, l'ordine è perfetto e anche il disordine (o entropia) zero.
Supponiamo che un'altra persona abbia una conoscenza inferiore dello stato del
ufficio. Questa persona sa "circa" dove si trova un oggetto, ma dovrÃ
fare diversi tentativi per trovare effettivamente un determinato oggetto.
Cioè, dovrà spendere una certa quantità di energia (degradare l'energia)
e il tempo per ^ricostituire^ le informazioni che gli mancano..
Se in due o tre tentativi riesce a trovare un oggetto dato.
Si può dire che non ha una conoscenza perfetta dello stato del sistema.
o che il sistema è leggermente disordinato per lei.
Per questa persona, il disordine o l'entropia non sono pari a zero..
Supponiamo che una terza persona sia del tutto estranea a questo ufficio e quindi non
senza alcuna informazione sulle sue condizioni. Per trovare un oggetto questo
La persona dovrà aprire tutte le scatole in successione fino a che non avrÃ
trovare l'oggetto che si sta cercando. Per questa persona il disordine o l'entropia sono
massimo. L'entropia è quindi data dal fattoriale di N, N! che è
una buona rappresentazione della complessità del sistema, vale a dire
la complessità della comprensione del sistema.
Il fattoriale è costruito come segue, alla prima scelta di una casella (sorteggio)
ci sono N possibilità , nel secondo ci sono N-1 possibilità , nel terzo N-2
ecc.. Quindi la complessità del sistema può essere ben rappresentata dal numero
N * (N-1) * (N-2) .... 3 * 2 * 1 che è appunto il fattoriale di N.
E anche in questo esempio si assume che l'osservatore sia sufficientemente
intelligente per essere in grado di memorizzare (sfruttare l'esperienza del sistema)
e non guardare in una scatola che ha già aperto e che non conteneva
non lo scopo previsto. Altrimenti la complessità del sistema verrebbe percepita da
l'osservatore come molto più grande. Si potrebbe dire che il sistema
completo : sistema si troverebbe in uno stato di confusione.
Per essere precisi, l'entropia è associata al logaritmo matematico del fattoriale.
S = log (N!termodinamica statistica)
Ciò è dovuto alla proprietà del logarithme_it :
Il logaritmo di un prodotto è la somma dei logaritmi dei due fattori del prodotto.."
In termini di formule matematiche abbiamo:
Log( a * b ) = Log(a) Log(b)
Se raddoppiamo le dimensioni di una M = N * 2, prendiamo ad esempio due uffici
allora le entropie si sommano linearmente ma la complessità aumenta in modo esponenziale.
Modèle_des_urnes_d_Ehrenfest Formule_de_Boltzmann
Nell'esempio dell'ufficio, si può notare che non appena la persona inizia ad aprire le scatole,
cioè per interagire con il sistema, acquisirà informazioni su
che può poi memorizzare. Di conseguenza, l'entropia del sistema
si evolverà per lei ma avrà dovuto degradare l'energia altrove per fornire
diminuire questa entropia. Si tratta quindi di uno spostamento di entropia, perché nel sistema complessivo
considerato chiuso, l'entropia può solo aumentare (è la seconda legge della
termodinamica).
In sistemi fisici come i gas, gli osservatori che sono
esseri caratterizzati da un determinato tipo di organi percettivi (esseri
esseri umani, ad esempio) non differiscono nella loro capacità di percepire.
Questo è ciò che conferisce alle leggi della termodinamica la loro oggettività .
Questo è illustrato dal paradosso del . démon de Maxwell
.
. Maxwell immaginate il seguente esperimento: due scatole sono posizionate l'una contro l'altra l'altro con la possibilità di comunicare tra loro. Inizialmente il La comunicazione viene chiusa e una delle scatole viene riempita con un gas mentre l'altro è vuoto. Se apriamo la comunicazione, le molecole passeranno attraverso e si ritrovano nell'altra scatola. La termodinamica statistica ci dice che lo stato più probabile per questo sistema è quello in cui ci sono approssimativamente lo stesso numero di molecole in entrambi i compartimenti. Questo è lo stato equilibrio termodinamico. Va sottolineato che le molecole non sono sottoposte ad alcuna forza che le faccia attraversare nella seconda casella. Una molecola può anche spostarsi facilmente dalla prima casella alla seconda che il contrario, e questo è ciò che accade in ogni momento.
Questo è ciò che rende le molecole uniformemente distribuite
tra i due compartimenti. Se in un dato momento ci sono più molecole
in un compartimento allora la probabilità che le molecole vadano in
anche l'altra scatola diventa più grande, da cui l'equilibrio.
Il paradosso del demone di Maxwell è l'idea che un demone estremamente piccolo
avrebbe la possibilità di interrompere la comunicazione e sceglierebbe di non farlo.
L'unico modo per aprirlo è quando ci sono più molecole che lo attraversano.
in una direzione rispetto all'altra.
Questo demone creerebbe così un'asimmetria nella distribuzione
e sarebbe quindi in grado di svuotare una scatola per riempire l'altra..
Questo demone è in grado di discriminare l'esatto stato del sistema perché opera a livello di
molecole microscopiche. La risoluzione di un simile paradosso è che il demone
Il principio di Maxwell non può esistere. Nel caso della fisica termodinamica si tratta di
ma è possibile immaginare sistemi che siano molto più
meno complesse, abilità percettive diverse, come nell'esempio dell'ufficio.
Per questo motivo, in termodinamica trascuriamo l'aspetto della "capacità .
della percezione dell'informazione" e l'attenzione principale è rivolta al
sulla ^quantità di informazioni".. Ma è un'approssimazione.
Questa approssimazione non è più valida se abbiamo a che fare con un sistema
che può essere percepito in modo diverso dagli esseri umani.
La nozione di entropia è emersa nel particolare contesto di una
sistema fisico che dissipa energia per raggiungere l'equilibrio
termodinamica dove l'entropia è massima.
Per esempio, un involucro isolato termicamente dall'esterno
contenente due compartimenti di uguali dimensioni, a contatto, riempiti di acqua
dove la temperatura dell'acqua è di 0° per uno scomparto e di 100° per l'altro.
si evolverà naturalmente secondo il secondo principio della termodinamica
a una situazione in cui la temperatura in entrambi i serbatoi è di 50.
L'energia termica è l'energia meccanica delle molecole. Le molecole si scambiano energia attraverso gli ammortizzatori a parete che separano i due serbatoi con lo stesso meccanismo di precedentemente e si arriva quindi all'uniformità macroscopica.
Quest'ultimo stato è stabile e se non è coinvolta alcuna energia esterna.
Il sistema non subirà alcuna modifica (se consideriamo il sistema
perfettamente sterile dal punto di vista biologico perché la vita
potrebbe sfruttare l'energia termica contenuta nell'involucro
organizzare il materiale).
Negli anni '60 Ilya Prigogine, che nel 1977 ha ricevuto il Premio Nobel
per questo lavoro, è interessato a ciò che accade a un sistema
quando viene mantenuta permanentemente lontana dallo stato stazionario
termodinamica da un flusso permanente di energia.
Osserva poi che la dissipazione dell'energia provoca la comparsa di
ordine nella materia, che ha definito strutture dissipative.
Le strutture dissipative sono strutture naturali che possiedono la proprietà dell'auto-organizzazione.:
L'auto-organizzazione è un fenomeno di aumento dell'ordine, che va nella direzione opposta a quella dell'auto-organizzazione. l'aumento dell'entropia (o disordine , simbolo S) ; al costo della dissipazione di energia che verrà utilizzato per mantenere questa struttura.
Si tratta di una tendenza che riguarda sia i processi fisici o gli organismi viventi, sia la sistemi sociali, per organizzarsi ; parliamo anche di autoassemblaggio.
Una volta superata una soglia critica di complessità , i sistemi possono cambiare stato, ovvero passare da uno stato all'altro. fase instabile a una fase stabile. "
La legge fondamentale di tali sistemi può essere riassunta in una semplice equazione d²S=0 stabilito dal Premio Nobel per la Fisica Ilya Prigogine, che significa che una Il sistema auto-organizzato si evolve creando un minimo di disordine come il suo complessità crescente.
Per un organismo vivente, il mancato rispetto di questa legge si traduce in un ritorno all'equilibrio
termodinamica, che per lui è la morte.
1.3.. analyse perception et entropie : studio della modellazione della percezione
_ Nei sistemi informatici il livello di complessità è sufficientemente basso in modo che la percezione dello stato del sistema sia diversa per i diversi osservatori,
Torniamo quindi al nostro esempio di ufficio modellato con le nostre tre persone.
La risoluzione può essere rappresentata dal rapporto 1 / N .
1 per il numero di prove necessarie a trovare l'oggetto di ricerca, cioè a risolvere lo stato del sistema.
N per la complessità del sistema.
La precisione può essere rappresentata come l'inverso della risoluzione. La precisione sarà quindi N / 1 = N .
numero di scatole risoluzione(precisione(nbr/5) probalilità (nbr-5/nbr)
6 1.2 0.166667
7 1.4 0.285714 8 1.6 0.375000 9 1.8 0.444444 10 2.0 0.500000 15 3.0 0.666667 20 4.0 0.750000 30 6.0 0.833333 50 10.0 0.900000 100 20.0 0.950000 1000 200.0 0.995000 10000 2000.0 0.999500 1000000 200000.0 0.999995
Questa tabella illustra che maggiore è la precisione, maggiore è la
la probabilità di trovare l'oggetto è alta.
la formula più generale per definire la conoscenza (ordine o disordine) che abbiamo in un sistema è:
Informazioni = Numero di stati / Precisione
L'entropia è un logarithme_it ( Che non ho ancora capito
Entropie = Log( Disturbo ) = Log(Numero di Stati)
Si può notare che con un perfetto equilibrio tra la capacità di percezione e di ciò che ci diamo a percepire, l'entropia è pari a zero. _
L'effetto sterico in chimica è il fatto che l'affollamento spaziale di una molecola
può impedire una reazione chimica prevedibile grazie al principio di esclusione di Pauli
perché le molecole non possono avvicinarsi abbastanza l'una all'altra.
per rispondere.
1.5.2.Effetto sterico di neguentropia
effetto sterico discriminante nei confronti dell'idrogeno e di altri composti chimici
di dimensioni maggiori potrebbe essere utilizzato per separare l'idrogeno dai suoi composti.
Per questo potrebbe essere utilizzato un dispositivo su scala nanometrica.
La percolazione di un composto chimico attraverso una struttura in nanoscala di questo tipo
potrebbe trasformare l'energia di pressione macroscopica in energia chimica
microscopico. L'agitazione molecolare verrebbe utilizzata allo stesso modo dell'agitazione.
che viene applicata ad un setaccio per far passare gli elementi più fini
attraverso il setaccio.
Gli atomi di idrogeno potrebbero poi ricombinarsi tramite legame covalente
per formare idrogeno gassoso.