Entropie txh
versie beschikbaar in : en it ru zh es ja de pt fr
datum aangemaakt : 20240129- datum van bijwerking : 20230402- généré le: 20240908_053307
Entropie kenmerkt de toename van de complexiteit van een systeem, d.w.z. de hoeveelheid informatie die nodig is om het te beschrijven. (oplossen).
In eerste instantie beschouwen we een gesloten systeem, d.w.z. een systeem dat geen energie uitwisselt (mechanisch, thermisch, straling)of materiaal met zijn omgeving.
Entropie is verbonden met het begrip wanorde : hoe meer informatie nodig is om een systeem te beschrijven, hoe ongeordender het op ons overkomt..
In feite is entropie een natuurkundig begrip dat verband houdt met de precieze meting van orde of wanorde....
Entropie meet ook het vermogen om te evolueren voor een gesloten systeem met een bepaalde hoeveelheid bruikbare energie (omdat het een lage entropie heeft).
Als je een team hebt waarin de paarden alle kanten op gaan, kun je niet vooruit omdat er geen orde is..
Als je je paarden discipline bijbrengt, wordt hun geordende energie bruikbaar om het team vooruit te stuwen..
Dit voorbeeld toont aan dat energie (de kracht die paarden kunnen opbrengen om een bepaalde taak uit te voeren...) is niet voldoende
en dat er ook een notie van orde is die zeer belangrijk is.... Het is het begrip entropie dat verbonden is met deze orde of wanorde....
Energie is wat evolutie, verandering.... Als de brandstoftank van een auto leeg is, kan hij niet meer rijden,
tenzij hij de gravitationele potentiële energie gebruikt die hij bezit of de kinetische energie die hij heeft opgebouwd op een helling...
en als je geluk hebt, kun je naar de volgende benzinepomp....
Als de entropie laag is (overzichtelijk systeem) het systeem kan evolueren.
Terwijl het evolueert neemt de entropie toe, d.w.z. de energie wordt afgebroken (vermindert zijn orde) en het systeem is minder in staat om te evolueren.
Paarden verbruiken bijvoorbeeld de chemische energie in het voer dat ze hebben gegeten...
door zuurstof uit de lucht via ademhaling te gebruiken om ATP-moleculen te producerenAdénosine_triphosphate
die de brandstof van de fysiologie is. Door de wagen te trekken verbruiken ze deze brandstof om de spieren te laten werken... (de motor).
Wanneer de energie van al het voedsel is verbruikt, samen met alle reserves opgeslagen in hun spieren, lever en vet, zullen ze moe zijn,
zullen moeten rusten en als ze niet meer eten... (gesloten systeem) zullen ze de wagen niet lang kunnen blijven trekken, zo niet tot het op is...
(energiereserves).
Energie verbruiken is in feite de entropie verhogen, want we verbruiken nooit energie vanwege de wet van behoud van energie...
wat het eerste principe van de thermodynamica is: in een gesloten systeem is de energie constant.
Wanneer energie wordt gedissipeerd of afgebroken, neemt de entropie en dus de wanorde ervan toe. (dit is het tweede principe van thermodynamica).
In het voorbeeld van paarden is de uit de spijsvertering voortkomende paardenmest minder geordend dan de grassen waarvan hij afkomstig is..
Het is de energie van de zwak entropische zon die, door middel van fotosynthese, de grassen weer laat groeien door het organische materiaal van de crotin.
Entropie is een begrip dat oorspronkelijk in de macroscopische thermodynamica werd geïntroduceerd door Clausius.
Rudolf_Clausius
en waarvan de diepe betekenis in termen van informatie veel later in de statistische mechanica werd verduidelijkt door Boltzmann.
Het tweede principe van de thermodynamica stelt dat in een gesloten systeem de entropie alleen kan toenemen of, in de limiet, constant kan blijven.
Orde en wanorde zijn van fundamenteel belang in de fysica, die zich bezighoudt met de wetten van de werking
fysieke systemen die bestaan uit een zeer groot aantal entiteiten (een gas gevormd door al zijn moleculen, bijvoorbeeld).
Deze natuurkunde heetThermodynamique.
Grote aantallen brengen nieuwe eigenschappen naar voren, nieuwe concepten,
nieuwe realiteiten en ervaringen.
Entropie werd toen opnieuw gedefinieerd door Shannon in het kader van de informatietheorie
waarbij entropie wordt geïdentificeerd met de hoeveelheid informatie.
( De informatietheorie is de basis van de informatica, dus entropie moet op dit gebied een belangrijke rol spelen vgl. . entropie et informatique .Shannon nweb)
Entropie en informatie zijn sterk verwante begrippen en kunnen als identiek worden beschouwd in mécanique_statistique_nl.
Inderdaad, hoe complexer een systeem is, hoe groter de entropie...
en hoe meer informatie nodig is om het te beschrijven.
Bijvoorbeeld, dezelfde hoeveelheid materie in gasvorm of in kristalvorm...
worden niet beschreven met dezelfde hoeveelheid informatie. Als het kristal perfect is
(zonder gaten, dislocatie, enz..entropie en informatie) dan is het voldoende om de positie van een atoom te specificeren
van het kristal en de structuur van het kristalrooster om uit te vinden waar alle
de atomen van het kristal. Er is dus zeer weinig informatie nodig om het systeem te beschrijven.
In een dergelijk systeem is de entropie zeer laag.
Anderzijds, voor gas, aangezien er geen binding is tussen de atomen, moeten zij
afzonderlijk worden beschreven als de exacte toestand van het systeem bekend moet zijn.
De hoeveelheid informatie is enorm in relatie tot het Avogadro-getal 6.022 10^23 en de entropie is zeer groot....
Vervolgens werd aangetoond dat de definitie van Shannon en de thermodynamische definitie gelijkwaardig zijn..
Om het plaatje compleet te maken, moet bij wijze van opmerking worden vermeld dat
Na het werk van de natuurkundigen Bekenstein en Hawking is een nieuwe vorm van entropie verschenen in de dynamica van zwarte gaten.
Deze entropie leidde tot het holografisch principe van T'hooft....
Volgens dit principe is de kleinste eenheid van fysische informatie een gebied ter grootte van de Planck-lengte in het kwadraat. (Planck oppervlak).
De Planck-lengte is de kleinste fysieke lengte waaronder het begrip lengte zijn betekenis verliest.
(kwantumonzekerheid). Men zou dus kunnen zeggen dat de Planck-lengte de oerlengte is en
dat twee onmiddellijk aangrenzende punten in de fysieke ruimte gescheiden zijn door deze lengte. Er kan geen
van fysieke ruimtepunten tussen deze twee punten. Het is natuurlijk mogelijk om lengtes te ontwerpen die korter zijn dan de Plancklengte
maar dit zijn geen fysieke lengtes meer, het zijn abstracte, wiskundige lengtes....
1.2.Entropie is gerelateerd aan de waarnemer
In de wiskundige formule voor entropie zijn er twee termen die de neiging hebben elkaar op te heffen, zodat we kunnen zeggen dat entropie is de logarithme_nl een relatie tussen twee tegengestelde begrippen:
Deze twee termen staan enerzijds voor het waarnemingsvermogen van de waarnemer en anderzijds voor de complexiteit van het waargenomen systeem..
Hoe groter het aantal niet te onderscheiden toestanden, hoe groter de wanorde, we zal niet in staat zijn om de echte staat op te lossen, omdat ons waarnemingsvermogen beperkt is....
Hoe groter ons waarnemingsvermogen, hoe meer we kunnen discrimineren...
de mogelijke toestanden van het systeem. Wij zullen dus meer informatie hebben over de
systeem en we zullen het meer georganiseerd beschouwen.
Het belangrijke punt is dat rekening moet worden gehouden met de waarnemer.
De orde van het systeem is dus afhankelijk van de waarnemer.
In de natuurkunde houden we altijd rekening met de positie van de waarnemer ten opzichte van het waargenomen verschijnsel..
In de mechanica wordt deze positie gedefinieerd door het onderscheid tussen het referentiekader van de waarnemer
en de systeembenchmark zelf en hun relatie.
1.2.1.Statistische thermodynamica of mécanique_statistique_nl
In de statistische thermodynamica is de positie van de waarnemer geen positie in de ruimte, maar eerder een positie in de schalen van grootte. De menselijke waarnemer geplaatst op de meterschaal terwijl voor een gas, het hoofdonderwerp van de statistische thermodynamica, de schaal van het systeem is samengesteld uit atomen waarvan de kwantumstructuur dus op atomaire schaal is d.w.z. net onder de nanoschaal (10^-10 m , 10 macht min 10 meter)
Laten we een eenvoudig voorbeeld bekijken dat dicht bij de menselijke waarnemer ligt.
of tussen de centimeter en de decimeter: objecten op een bureau.
De persoon die aan dit bureau werkt heeft een bepaald niveau van informatie over de status van zijn of haar bureau.
Zijn kantoor kan worden gemodelleerd door een reeks dozen die het mogelijk maken om
het lokaliseren van een object. De objecten worden opgeslagen in dozen. Als er N dozen zijn
en N objecten met één object per doos, dan zijn er N! (factorial van N) mogelijke toestanden voor
het systeem, waarbij elk object elk vak kan bezetten....
Om het eerste voorwerp op te slaan hebben we immers N mogelijke dozen
maar voor de tweede N-1 dozen enz.. Dus het aantal keuzes
van de N objecten in de N dozen is
N * N-1 * N-2 * .... * 2 * 1 = N! d.w.z. de factorial van N.
Laten we eens kijken naar een bepaalde staat van kantooropslag. Stel dat de
persoon volledig op de hoogte is van de toestand van het kantoor, d.w.z. dat hij of zij
weet elk object te vinden door directe toegang tot de doos die het bevat..
In dit geval kunnen we zeggen dat voor deze persoon het kantoor
totaal opgeruimd, orde is perfect en wanorde ook... (of entropie) nul.
Stel dat een andere persoon minder kennis heeft van de toestand van de
kantoor. Deze persoon weet " ongeveer ^ waar een object is, maar zal moeten
verschillende pogingen doen om een bepaald object daadwerkelijk te vinden.
Dat wil zeggen, het zal wat energie moeten spenderen (energie afbreken)
en tijd om de informatie die hij mist opnieuw samen te stellen....
Als ze in twee of drie pogingen een bepaald object kan vinden....
Men kan zeggen dat hij geen perfecte kennis heeft van de toestand van het systeem
of dat het systeem enigszins ontregeld is voor haar.
Voor deze persoon is wanorde of entropie niet nul....
Laten we aannemen dat een derde persoon een volslagen vreemde is in dit kantoor en dus niet...
zonder informatie over de toestand ervan. Om een object te vinden is dit
persoon zal alle dozen achtereenvolgens moeten openen totdat hij/zij
het object vinden dat u zoekt. Voor deze persoon is wanorde of entropie
maximaal. De entropie wordt dan gegeven door de factorial van N, N! dat is
een goede weergave van de complexiteit van het systeem, d.w.z.
de complexiteit van het begrijpen van het systeem.
De factorial wordt als volgt opgebouwd, bij de eerste keuze van een vakje (trek)
zijn er N mogelijkheden, in de tweede zijn er N-1 mogelijkheden, in de derde N-2
enz. De complexiteit van het systeem kan dus goed worden weergegeven door het getal
N * (N-1) * (N-2) .... 3 * 2 * 1 wat precies de factorial is van N.
En ook in dit voorbeeld wordt aangenomen dat de waarnemer voldoende
intelligent om te kunnen onthouden (te profiteren van haar ervaring met het systeem)
en niet kijken in een doos die hij al heeft geopend en die geen
niet het beoogde doel. Anders zou de complexiteit van het systeem worden waargenomen door
de waarnemer als veel groter. Men zou kunnen zeggen dat het systeem
compleet : zou het systeem in een staat van verwarring verkeren.
Om precies te zijn is entropie geassocieerd met de wiskundige logaritme van het factorial.
S = log (N!statistische thermodynamica)
Dit komt door de eigenschap van de logarithme_nl :
Het logaritme van een product is de som van de logaritmen van de twee factoren van het product.."
In termen van wiskundige formules hebben we:
Logboek( a * b ) = Logboek(a) Logboek(b)
Als we de grootte van een M = N * 2, we nemen bijvoorbeeld twee kantoren
dan tellen de entropieën lineair op, maar neemt de complexiteit exponentieel toe.
Modèle_des_urnes_d_Ehrenfest Formule_de_Boltzmann
In het voorbeeld van het kantoor is te zien dat zodra de persoon dozen begint te openen,
d.w.z. voor interactie met het systeem zal het informatie verwerven over
die het dan kan onthouden. Bijgevolg is de entropie van het systeem
zal zich voor haar ontwikkelen, maar ze zal elders energie hebben moeten afbreken om te voorzien in
verminderen deze entropie. Dus het is een entropieverschuiving omdat in het hele systeem...
als gesloten beschouwd, kan de entropie alleen maar toenemen (is de tweede wet van de
thermodynamica).
In fysische systemen zoals gassen, zijn waarnemers die
wezens gekenmerkt door een bepaald type van perceptuele organen (wezens
menselijke wezens bijvoorbeeld) verschillen niet in hun vermogen om waar te nemen.
Dit is wat de wetten van de thermodynamica hun objectiviteit geeft....
Dit wordt geïllustreerd door de paradox van de . démon de Maxwell
.
. Maxwell
stel je het volgende experiment voor: twee dozen worden tegen elkaar geplaatst
de andere met mogelijke communicatie tussen hen. Aanvankelijk de
communicatie wordt gesloten en een van de dozen wordt gevuld met een gas terwijl
de andere is leeg. Als we de communicatie openen, zullen de moleculen door...
en bevinden zich in de andere doos. Statistische thermodynamica vertelt ons
dat de meest waarschijnlijke toestand voor dit systeem er een is waarin er ongeveer
hetzelfde aantal moleculen in beide compartimenten. Dit is de staat
thermodynamisch evenwicht.
Er zij op gewezen dat de moleculen niet worden onderworpen aan een kracht waardoor zij door
in het tweede vak. Een molecuul kan ook gemakkelijk van de eerste doos naar de tweede gaan
dan het tegenovergestelde, en dit is wat er altijd gebeurt.
Hierdoor worden de moleculen gelijkmatig verdeeld
tussen de twee compartimenten. Als er op een bepaald moment meer moleculen...
in een compartiment dan is de kans dat de moleculen in
wordt de andere doos ook groter, vandaar het evenwicht.
De demonenparadox van Maxwell is het idee dat een extreem kleine demon...
zou de mogelijkheid hebben om de communicatie af te sluiten en zou ervoor kiezen dat niet te doen.
Hij gaat alleen open als er meer moleculen doorheen gaan.
in de ene richting dan in de andere.
Deze demon zou dus leiden tot een asymmetrie in de verdeling
moleculen en zou daarom in staat zijn de ene doos te legen om de andere te vullen.
Deze daemon kan de exacte staat van het systeem onderscheiden omdat hij opereert op de
microscopische moleculen. De oplossing van zo'n paradox is dat de demon
Het principe van Maxwell kan niet bestaan. In het geval van thermodynamische fysica is het
het geval, maar het is mogelijk om systemen voor te stellen die veel meer
minder complex, verschillende perceptuele vaardigheden zoals in het voorbeeld van het kantoor.
Vanwege het bovenstaande wordt in de thermodynamica het aspect "capaciteit verwaarloosd.
van informatieperceptie " en de nadruk ligt op
over de "hoeveelheid informatie ". Maar het is een benadering.
Deze benadering is niet langer geldig als we te maken hebben met een systeem
die door mensen verschillend kunnen worden waargenomen.
Het begrip entropie ontstond rond de bijzondere context van een
fysiek systeem dat energie afvoert om een evenwicht te bereiken.
thermodynamica waar entropie maximaal is....
Bijvoorbeeld een behuizing die van buitenaf thermisch geïsoleerd is
met twee compartimenten van gelijke grootte, in contact, gevuld met water
waarbij de watertemperatuur 0° is voor het ene compartiment en 100° voor het andere.
zal natuurlijk evolueren volgens het tweede principe van de thermodynamica
naar een situatie waarin de temperatuur in beide tanks 50.
Thermische energie is de mechanische energie van moleculen. Moleculen wisselen energie uit via de schokken op de muur die de twee tanks scheiden met hetzelfde mechanisme als en we komen dus uit op de macroscopische uniformiteit.
Deze laatste toestand is stabiel en als er geen externe energie bij betrokken is.
Er komt geen verandering in het systeem (als we het systeem
volkomen steriel vanuit biologisch oogpunt omdat het leven...
zou de thermische energie in de behuizing kunnen benutten
om het materiaal te organiseren).
In de jaren zestig kreeg Ilya Prigogine, die in 1977 de Nobelprijs ontving
voor dit werk, is geïnteresseerd in wat er gebeurt met een systeem...
wanneer het permanent weggehouden wordt van de steady state
thermodynamica door een permanente energiestroom.
Hij merkt dan op dat de dissipatie van energie het verschijnen van
orde in de materie, die hij dissipatieve structuren noemde....
Dissipatieve structuren zijn natuurlijke structuren die de eigenschap van zelforganisatie bezitten:
Zelforganisatie is een fenomeen van toenemende orde, en gaat in de tegenovergestelde richting van de toename in entropie (of wanorde, symbool S) ; ten koste van energiedissipatie die zal worden gebruikt om deze structuur in stand te houden.
Dit is een trend, zowel in fysische processen of levende organismen, als in de sociale systemen, om zich te organiseren ; praten we ook over zelf-assemblage.
Zodra een kritische drempel van complexiteit is overschreden, kunnen systemen van toestand veranderen, of van de ene naar de andere gaan. onstabiele fase naar een stabiele fase. "
De fundamentele wet van dergelijke systemen kan worden samengevat in een eenvoudige vergelijking d²S=0 vastgesteld door de Nobelprijs voor natuurkunde Ilya Prigogine, wat betekent dat een zelforganiserend systeem evolueert door een minimum aan wanorde te creëren als zijn groeiende complexiteit.
Voor een levend organisme resulteert het niet naleven van deze wet in een terugkeer naar het evenwicht...
thermodynamica, wat voor hem de dood is.
1.3.. analyse perception et entropie : studie van perceptiemodellen
_ In computersystemen is het niveau van complexiteit voldoende laag zodat de perceptie van de toestand van het systeem verschillend is voor verschillende waarnemers,
Laten we teruggaan naar ons voorbeeld van het kantoor met onze drie mensen....
De resolutie kan worden weergegeven door de verhouding 1 / N .
1 voor het aantal proeven dat nodig is om het zoekobject te vinden, d.w.z. om de systeemtoestand op te lossen.
N voor systeemcomplexiteit.
Nauwkeurigheid kan worden voorgesteld als het omgekeerde van resolutie. De nauwkeurigheid is hier dus N / 1 = N .
aantal dozen resolutie(nauwkeurigheid(nbr/5) probalility (nbr-5/nbr)
6 1.2 0.166667
7 1.4 0.285714 8 1.6 0.375000 9 1.8 0.444444 10 2.0 0.500000 15 3.0 0.666667 20 4.0 0.750000 30 6.0 0.833333 50 10.0 0.900000 100 20.0 0.950000 1000 200.0 0.995000 10000 2000.0 0.999500 1000000 200000.0 0.999995
Uit deze tabel blijkt dat hoe groter de precisie, hoe groter de
de kans om het object te vinden is groot.
de meest algemene formule om kennis te definiëren (orde of wanorde) die we op een systeem hebben is:
Informatie = Aantal staten / Nauwkeurigheid
Entropie is een logarithme_nl ( Daar ben ik nog niet achter.
Entropie = Logboek( Stoornis ) = Logboek(Aantal staten)
Het is duidelijk dat bij een perfect evenwicht tussen het vermogen tot waarnemen en wat we onszelf geven om waar te nemen, entropie is nul. _
Het sterisch effect in de chemie is het feit dat de ruimtelijke verdringing van een molecuul
kan een voorspelbare chemische reactie voorkomen door het Pauli uitsluitingsprincipe
omdat de moleculen niet dicht genoeg bij elkaar kunnen komen.
om te reageren.
1.5.2.Neguentropie sterisch effect
sterisch effect dat waterstof en andere chemische verbindingen discrimineert
van grotere omvang kan worden gebruikt om waterstof te scheiden van zijn verbindingen.
Hiervoor zou een apparaat op nanoschaal kunnen worden gebruikt.
De percolatie van een chemische verbinding door zo'n nanoschaalstructuur...
zou macroscopische druk energie kunnen omzetten in chemische energie
microscopisch. Moleculaire agitatie wordt op dezelfde manier gebruikt als schudden.
die op een zeef wordt aangebracht om de fijnere elementen door te laten
door de zeef.
De waterstofatomen kunnen dan recombineren door covalente binding...
om waterstofgas te vormen.