Document entropie
version disponible en : en it ru zh es ja de nl pt
crée le : 20240906- mis à jour le : 20240906- généré le: 20240908_053307
L'entropie caractérise l'augmentation de la complexité d'un système c'est à dire de la quantité d'information qui est nécessaire pour le décrire (résoudre).
On considére au départ un système fermé, c'est à dire un système qui n'échange ni énergie (mécanique, thermique, de rayonnement), ni matière avec son environnement.
L'entropie est lié à la notion de désordre : plus il y a d'information nécessaire pour décrire un système et plus il peut nous apparaître désordonné.
De fait l'entropie est un concept de physique lié à la mesure précise des notions d'ordre ou de désordre.
L'entropie mesure aussi la capacité à évoluer pour un système fermé possédant une certaine énergie utilisable (car possédant une faible entropie).
Si vous avez un atelage dans lesquels les chevaux vont dans toutes les directions vous ne pouvez avancer car il n'y a pas d'ordre.
Si vous disciplinez vos chevaux alors leur énergie ordonée devient utilisable pour faire avancer l'atelage.
Cet exemple montre que l'énergie (la force que les chevaux peuvent mobiliser pour effectuer un certain travail) n'est pas suffisante
et qu'il y a aussi une notion d'ordre qui est très importante. C'est le concept d'entropie qui est lié à cet ordre ou à ce désordre.
L'énergie est ce qui permet l'évolution, le changement. Si le réservoir d'essence d'une voiture est vide elle ne peut plus avancer,
sauf si elle utilise dans une pente l'énergie gravitationnelle potentielle qu'elle possède ou l'énergie cinétique qu'elle a accumulée
et qui vous permettra si vous avez de la chance, d'arriver à la prochaine pompe à essence.
Si l'entropie est basse (système ordonné) le système peut évoluer.
Au fur et à mesure de son évolution l'entropie augmente, c'est à dire que l'énergie se dégrade (diminue son ordre) et le système est moins capable d'évoluer.
Par exemple, les chevaux vont consommer l'énergie chimique contenue dans les aliments qu'ils ont mangés
en utilisant l'oxygène de l'air par la respiration pour produire des molécules d'ATP   Adénosine_triphosphate
qui est le carburant de la physiologie. En tirant l'atelage ils vont consommer ce carburant pour faire fonctionner les muscles (le moteur).
Lorsque l'énergie de tous les aliments aura été consommé avec éventuellement les réserves stockées dans leur muscles leur foie et leur graisse alors ils seront fatigués,
devront se reposer et s'ils ne mangent pas de nouveau (système fermé) ils ne pourront pas bien longtemps continuer à tirer l'atelage sinon jusqu'à épuisement
(des réserves d'énergies).
Consommer de l'énergie est en fait augmenter l'entropie car on ne consomme jamais de l'énergie à cause de la loi de conservation de l'énergie
qui est le premier principe de la thermodynamique: dans un système fermé l'énergie est constante.
Lorsque l'énergie est dissipée ou dégradée son entropie donc son désordre augmente (c'est le seconde principe de la thermodynamique).
Dans l'exemple des chevaux, le crotin de cheval résultat de la digestion est moins ordonnées que les herbes dont il est issu.
C'est l'énergie du soleil faiblement entropique qui par la photosynthèse permet aux herbes de repousser en utilisant les matières organiques du crotin.
L'entropie est une notion introduite initialement en thermodynamique macroscopique par Clausius.
  Rudolf_Clausius
et dont la signification profonde en terme d'information a été clarifiée bien plus tard en mécanique statistique par Boltzmann.
Le second principe de la thermodynamique dit que dans un système fermé, l'entropie ne peut que croître ou à la limite, rester constante.
L'ordre et le désordre sont d'une importance fondamentale dans la physique qui s'occupe des lois de fonctionnement
des systèmes physiques composés d'un très grand nombre d'entité (un gaz formé par l'ensemble de ses molécules par exemple).
Cette physique s'appelle la   Thermodynamique.
Les grand nombres font apparaître de nouvelles propriétés, de nouveaux concepts,
de nouvelles réalités et expériences.
L'entropie a ensuite été redéfinie par Shannon dans le cadre de la théorie de l'information
où l'entropie est identifié à la quantité d'information.
( La théorie de l'information est à la base de l'informatique aussi l'entropie doit jouer un rôle important dans ce domaine cf entropie et informatique .)
L'entropie et l'information sont des concepts fortement relié et peuvent être considéré comme identique en mécanique statistique.
En effet plus un système est complexe plus son entropie est grande
et plus il faut d'information pour le décrire.
Par exemple une même quantité de matière sous forme de gaz ou sous forme de cristal
ne sont pas décrite avec la même quantité d'information. Si le cristal est parfait
(sans lacune, ni dislocation, etc.) alors il suffit de préciser la position d'un atome
du cristal et la structure de la maille cristalline pour savoir où se trouve tous
les atomes du cristal. On a donc besoin que de très peu d'information pour décrire le système.
Dans un tel système l'entropie est très faible.
Par contre pour le gaz comme il n'y a pas de liaison entre les atomes ceux-ci doivent
être décris individuellement si on veut connaître l'état exact du système.
La quantité d'information y est énorme liée au nombre d'Avogadro 6.022 10^23 et l'entropie est très grande.
Il a ensuite été démontré que la définition de Shannon et celle de la thermodynamique étaient équivalentes.
Pour compléter le tableau, juste à titre de remarque, il faut mentionner que
suite aux travaux des physiciens Bekenstein et Hawking une nouvelle forme d'entropie est apparue dans la dynamique des trous noirs.
Cette entropie à conduit au principe holographique de T'hooft.
Ce principe considère que l'unité la plus petite d'information physique est une surface de la taille de la longueur de Planck au carré (surface de Planck).
La longueur de Planck étant la plus petite longueur physique en deça de laquelle la notion de longueur perd son sens
(incertitude quantique). On pourrait ainsi dire que la longueur de Planck est la longueur archétypale et
que deux points de l'espace physique immédiatement voisins sont séparés de cette longueur. Il ne peut y avoir
de points d'espace physique entre ces deux points. On peut bien sur concevoir des longueurs inférieures à la longueur de Planck
mais ce ne sont plus des longueurs physiques, ce sont des longueurs abstraites, mathématiques.
1.2.L'entropie est liée à l'observateur
Dans la formule mathématique de l'entropie il y a deux termes qui tendent à s'annuler, on peut dire que l'entropie est le logarithme d'un rapport entre deux notions qui s'opposent:
Ces deux termes représentent d'une part la capacité de perception de l'observateur et d'autres part la complexité du système perçu.
Plus le nombre d'états indiscernable est grand, plus le désordre sera grand, on ne saura pas "résoudre" l'état réel puisque notre capacité de perception est limitée.
Plus notre capacité de perception sera grande, plus nous pourrons discriminer
les états possibles du système. Nous aurons donc plus "d'information" sur le
système et nous le considérerons plus organisé.
Le point important est que l'observateur doit être pris en compte.
L'ordre du système est donc dépendant de celui qui l'observe.
En physique on considère toujours la position de l'observateur par rapport au phénomène observé.
En mécanique cette position est définie par la distinction entre le repère de l'observateur
et le repère du système lui-même et leur relation.
1.2.1.Thermodynamique statistique ou mécanique statistique
En thermodynamique statistique la position de l'observateur n'est pas une position dans l'espace mais plutôt une position dans les échelles de grandeur. L'observateur humain se positionnant à l'échelle du mètre tandis que pour un gaz qui est l'objet principal de la thermodynamique statistique l'échelle du système est composée d'atome dont la structure quantique se situe donc à l'échelle atomique c'est à dire en peu en deça l'échelle nanométrique (10^-10 m , 10 puissance moins 10 mètre)
Considérons un exemple simple qui se situe à une échelle de grandeur proche de l'observateur humain
soit entre le centimètre et le décimètre: les objets se trouvant sur un bureau.
La personne qui travaille sur ce bureau possède un niveau donné d'information sur l'état de son bureau.
Son bureau peut être modélisé par un ensemble de boite permettant de
localiser un objet. Les objets sont rangés dans des boites. S'il y a N boites
et N objets avec un objet par boite, il y a alors N! (factorielle de N) états possibles pour
le système, chaque objet pouvant occuper chacune des boites.
En effet pour ranger le premier objet on a N boites possibles
mais pour le deuxième N-1 boites etc. Donc le nombre de choix
de rangement des N Objets dans les N Boites est
N * N-1 * N-2 * .... * 2 * 1 = N! c'est à dire la factorielle de N.
Considérons un état particulier de rangement du bureau. Supposons que la
personne connaisse parfaitement l'état du bureau, c'est à dire qu'elle
sait ou trouver chaque objet par un accès direct à la boite qui le contient.
Alors dans ce cas on peut dire que pour cette personne le bureau est
totalement rangé, l'ordre est parfait et donc le désordre (ou entropie) nul.
Supposons qu'une autre personne ai une connaissance moindre de l'état du
bureau. Cette personne sait "à peu prés" où se trouve un objet mais devra
faire plusieurs tentatives pour retrouver effectivement un objet donné.
C'est à dire qu'elle devra dépenser un peu d'énergie (dégrader de l'énergie)
et de temps pour "reconstituer" l'information qui lui manque.
Si en deux ou trois essais elle sais retrouver un objet donné.
On peut dire qu'elle n'a pas une connaissance parfaite de l'état du système
ou que pour elle le système est légèrement désordonné.
Pour cette personne, le désordre ou entropie n'est pas nul.
Supposons une troisième personne totalement étrangère à ce bureau et donc ne
possédant aucune information sur son état. Pour trouver un objet cette
personne devra ouvrir successivement toutes les boites jusqu'Ã ce qu'elle
trouve l'objet cherché. Pour cette personne le désordre ou entropie est
maximum. L'entropie est alors donnée par la factorielle de N, N! qui est
une bonne représentation de la complexité du système, c'est à dire
de la complexité à appréhender le système.
La factorielle se construit ainsi, au premier choix d'une boite (tirage)
il y a N possibilité, au deuxième il y a N-1 possibilité, au troisième N-2
etc. Donc la complexité du système peut bien être représenté par le nombre
N * (N-1) * (N-2) .... 3 * 2 * 1 qui est précisément la factorielle de N.
Et encore dans cet exemple on suppose que l'observateur est suffisamment
intelligent pour pouvoir mémoriser (capitaliser son expérience du système)
et ne pas rechercher dans une boite qu'il a déjà ouverte et qui ne contenait
pas l'objet recherché. Sinon la complexité du système serait perçu par
l'observateur comme beaucoup plus grande. On pourrait dire que le système
complet : système+observateur serait dans un état de confusion.
( cf entropie et informatique )
Pour être exact, l'entropie est associée au logarithme mathématique de la factorielle.
S = log (N!)
Ceci à cause de la propriété du logarithme :
"Le logarithme d'un produit est la somme des logarithmes des deux facteurs du produit."
En terme de formules mathématique on a:
Log( a * b ) = Log(a) + Log(b)
Si l'on double la taille d'un système M = N * 2, on prend deux bureaux par exemple
alors les entropies s'ajoute linéairement mais la complexité augmente exponentiellement.
  Modèle_des_urnes_d_Ehrenfest   Formule_de_Boltzmann
On peut remarquer dans l'exemple du bureau que dés que la personne se met à ouvrir des boites,
c'est à dire a interagir avec le système, elle va acquérir de l'information sur
celui-ci qu'elle pourra alors mémoriser. En conséquence l'entropie du système
va évoluer pour elle mais elle aura du dégrader de l'énergie par ailleurs pour pourvoir
diminuer cette entropie. Donc c'est un déplacement d'entropie car dans le système global
considéré comme fermé l'entropie ne peut qu'augmenter (c'est la deuxième loi de la
thermodynamique).
Dans les systèmes physiques comme les gaz, les observateurs qui sont des
êtres caractérisés par un type donné d'organes de perception (les êtres
humains par exemple) ne présentent pas de divergence quand à leur capacité de perception.
C'est ce qui donne aux lois de la thermodynamique leur objectivité.
Il existe une illustration de ceci à travers le paradoxe du Démon de Maxwell
.
Maxwell imagina l'expérience suivante: deux boites sont accolées l'une contre l'autre avec une communication possible entre elles. Au départ la communication est fermée et une des boites est remplie d'un gaz tandis que l'autre est vide. Si on ouvre la communication, des molécules vont traverser et se retrouver dans l'autre boite. La thermodynamique statistique nous dit que l'état le plus probable pour ce système est celui où il y a à peu prés le même nombre de molécules dans les deux compartiments. Il s'agit de l'état d'équilibre thermodynamique. Il faut préciser que les molécules ne sont soumises à aucune force les entraînant à passer dans la deuxième boite. Une molécule peut aussi facilement passer de la première boite dans la seconde que le contraire et c'est ce qui se passe à tout instant.
C'est d'ailleurs ce qui fait que les molécules se répartissent uniformément
entre les deux compartiments. Si a un moment donné il y a plus de molécules
dans un compartiment alors la probabilité que les molécules aillent dans
l'autre boite devient plus grande aussi d'où l'équilibre.
Le paradoxe du démon de Maxwell est l'idée qu'un petit démon extrêmement
rapide aurait la capacité de fermer la communication et choisirai de ne
l'ouvrir que lorsque qu'il y a plus de molécules qui se présentent pour traverser
dans un sens que dans l'autre.
Ce démon créerai ainsi une dissymétrie dans la répartition
des molécules et serait donc capable de vider une boite pour remplir l'autre.
Ce démon sait discriminer l'état exact du système car il fonctionne au niveau
microscopique des molécules. La résolution d'un tel paradoxe est que le démon
de Maxwell ne peut exister. Dans le cas de la physique thermodynamique c'est
bien le cas, mais on peut très bien imaginer pour des systèmes beaucoup
moins complexes des capacités de perceptions différentes comme dans l'exemple du bureau.
A cause de ce qui précède, en thermodynamique on néglige l'aspect "capacité
de perception de l'information" et on se concentre essentiellement
sur la "quantité d'information". Mais il s'agit bien d'une approximation.
Cette approximation n'est d'ailleurs plus valable si l'on a affaire à un système
qui peut présenter des divergences de perception pour des êtres humains.
La notion d'entropie est apparu autour du contexte particulier d'un
système physique qui dissipe de l'énergie pour atteindre l'équilibre
thermodynamique où l'entropie est à son maximum.
Par exemple une enceinte isolée thermiquement de l'extérieur
contenant deux compartiment de taille égale, en contact, remplit d'eau
où la température de l'eau est de 0° pour un compartiment et 100° pour l'autre
évoluera naturellement en vertu du deuxième principe de la thermodynamique
vers une situation ou la température dans les deux réservoirs est 50°.
L'énergie thermique est l'énergie mécanique des molécules. Les molécules échangent de l'énergie via les chocs sur la paroi qui séparent les deux réservoirs avec le même mécanisme que précédemment et on arrive donc à l'uniformité macroscopique.
Ce dernier état est stable et si aucune énergie extérieure n'intervient.
Il n'y aura aucune évolution du système (si on considère le système
parfaitement stérile d'un point de vue biologique car la vie
pourrait exploiter l'énergie thermique contenu dans l'enceinte
pour organiser la matière).
Dans les années 1960 Ilya Prigogine qui recevra en 1977 le prix Nobel
pour ces travaux, s'intéresse à ce qui se passe pour un système
lorsqu'il est maintenu en permanence loin de l'état d'équilibre
thermodynamique par un flux permanent d'énergie.
Il observe alors que la dissipation d'énergie provoque l'apparition
d'un ordre dans la matière ce qu'il nommera les structures dissipatives.
Les structures dissipatives sont des structures naturelles qui possèdent la propriété d'auto-organisation:
"L'auto-organisation est un phénomène de mise en ordre croissant, et allant en sens inverse de l'augmentation de l'entropie (ou désordre , symbole S) ; au prix d'une dissipation d'énergie qui servira à maintenir cette structure.
C'est une tendance, tant au niveau des processus physiques ou des organismes vivants, que des systèmes sociaux, à s'organiser d'eux-mêmes ; on parle aussi d'auto-assemblage.
Passé un seuil critique de complexité, les systèmes peuvent changer d'état, ou passer d'une phase instable à une phase stable. "
La loi fondamentale de tels systèmes se résume en une équation simple d²S=0 établie par le prix nobel de physique Ilya Prigogine qui signifie qu'un système qui s'auto-organise évolue en créant un minimum de désordre au fur et à mesure que sa complexité augmente.
Pour un organisme vivant le non respect de cette loi se traduit par un retour à l'équilibre
thermodynamique ce qui est pour lui la mort.
1.3.Analyse perception et entropie: étude de la modélisation de la perception
Dans les systèmes informatique le niveau de complexité est suffisamment faible pour que la perception de l'état du système soit différent pour différents observateurs,
Reprenons donc notre exemple du bureau modélisé avec nos trois personnes.
On peut représenter la résolution par le rapport 1 / N .
1 pour le nombre d'essai nécessaire trouver l'objet recherché c'est à dire pour résoudre l'état du système.
N pour la complexité du système.
On peut représenter la précision comme l'inverse de la résolution. La précision sera donc ici N / 1 = N .
nbr boites résolution(précision(nbr/5) probalilité (nbr-5/nbr)
6 1.2 0.166667
7 1.4 0.285714 8 1.6 0.375000 9 1.8 0.444444 10 2.0 0.500000 15 3.0 0.666667 20 4.0 0.750000 30 6.0 0.833333 50 10.0 0.900000 100 20.0 0.950000 1000 200.0 0.995000 10000 2000.0 0.999500 1000000 200000.0 0.999995
Ce tableau illustre le fait que plus la précision est grande plus la
probabilité de trouver l'objet est grande.
la formule la plus générale définissant la connaissance (ordre ou désordre) que l'on possède sur un système est:
Information = Nombre d'Etat / Précision
L'entropie est un logarithme
Entropie = Log( Désordre ) = Log(Nombre d'Etats)
On voit donc qu'avec un équilibre parfait entre la capacité de perception et ce que l'on se donne à percevoir, l'entropie est nulle.
l'effet stérique en chimie est le fait que l'encombrement spatial d'une molécule
peut empêcher par le principe d'exclusion de Pauli une réaction chimique prévisible
de s'effectuer parce que les molécules ne peuvent pas se rapprocher suffisamment
pour réagir.
1.5.2.Neguentropie effet sterique
l'effet stérique discriminant par rapport à l'hydrogène et d'autres composés chimiques
de taille plus importante pourrait être utilisé pour séparer l'hydrogène de ses composés.
Un dispositif nanométrique pourrait être utilisé pour cela.
La percolation d'un composé chimique à travers une telle structure nanométrique
pourrait transformer l'énergie de pression macroscopique en énergie chimique
microscopique. L'agitation moléculaire serait utilisée à l'instar des secousses
que l'on applique sur un tamis pour faire passer les éléments plus fins
à travers le tamis.
Les atomes d'hydrogène pourraient alors se recombiner par liaison covalente
pour former de l'hydrogène gazeux.