entropie 

créé le: 20190124
mis à jour le: 20190127

Entropie

L'entropie caractérise l'augmentation de la complexité d'un système c'est à dire de la quantité d'information qui est nécessaire pour le décrire (résoudre).

On considére au départ un système fermé, c'est à dire un système qui n'échange ni énergie (mécanique, thermique, de rayonnement), ni matière avec son environnement.

L'entropie est lié à la notion de désordre : plus il y a d'information nécessaire pour décrire un système et plus il peut nous apparaître désordonné.

De fait l'entropie est un concept de physique lié à la mesure précise des notions d'ordre ou de désordre. L'entropie mesure aussi la capacité à évoluer pour un système fermé possédant une certaine énergie utilisable (car possédant une faible entropie).

Si vous avez un atelage dans lesquels les chevaux vont dans toutes les directions vous ne pouvez avancer car il n'y a pas d'ordre.

Si vous disciplinez vos chevaux alors leur énergie ordonée devient utilisable pour faire avancer l'atelage.

Cet exemple montre que l'énergie (la force que les chevaux peuvent mobiliser pour effectuer un certain travail) n'est pas suffisante et qu'il y a aussi une notion d'ordre qui est très importante. C'est le concept d'entropie qui est lié à cet ordre ou à ce désordre.

L'énergie est ce qui permet l'évolution, le changement. Si le réservoir d'essence d'une voiture est vide elle ne peut plus avancer, sauf si elle utilise dans une pente l'énergie gravitationnelle potentielle qu'elle possède ou l'énergie cinétique qu'elle a accumulée et qui vous permettra si vous avez de la chance, d'arriver à la prochaine pompe à essence.

Si l'entropie est basse (système ordonné) le système peut évoluer.

Au fur et à mesure de son évolution l'entropie augmente, c'est à dire que l'énergie se dégrade (diminue son ordre) et le système est moins capable d'évoluer.

Par exemple, les chevaux vont consommer l'énergie chimique contenue dans les aliments qu'ils ont mangés en utilisant l'oxygène de l'air par la respiration pour produire des molécules d'ATP   Adénosine_triphosphate_ qui est le carburant de la physiologie. En tirant l'atelage ils vont consommer ce carburant pour faire fonctionner les muscles (le moteur).
Lorsque l'énergie de tous les aliments aura été consommé avec éventuellement les réserves stockées dans leur muscles leur foie et leur graisse alors ils seront fatigués, devront se reposer et s'ils ne mangent pas de nouveau (système fermé) ils ne pourront pas bien longtemps continuer à tirer l'atelage sinon jusqu'à épuisement (des réserves d'énergies).

Consommer de l'énergie est en fait augmenter l'entropie car on ne consomme jamais de l'énergie à cause de la loi de conservation de l'énergie qui est le premier principe de la thermodynamique: dans un système fermé l'énergie est constante.

Lorsque l'énergie est dissipée ou dégradée son entropie donc son désordre augmente (c'est le seconde principe de la thermodynamique).

Dans l'exemple des chevaux, le crotin de cheval résultat de la digestion est moins ordonnées que les herbes dont il est issu.
C'est l'énergie du soleil faiblement entropique qui par la photosynthèse permet aux herbes de repousser en utilisant les matières organiques du crotin.

L'entropie est une notion introduite initialement en thermodynamique macroscopique par Clausius.
  Rudolf_Clausius_ et dont la signification profonde en terme d'information a été clarifiée bien plus tard en mécanique statistique par Boltzmann.

Le second principe de la thermodynamique dit que dans un système fermé, l'entropie ne peut que croître ou à la limite, rester constante.
L'ordre et le désordre sont d'une importance fondamentale dans la physique qui s'occupe des lois de fonctionnement des systèmes physiques composés d'un très grand nombre d'entité (un gaz et ses molécules par exemple). Cette physique s'appelle la   Thermodynamique_.

Les grand nombres font apparaître de nouvelles propriétés, de nouveaux concepts, de nouvelles réalités et expériences.

L'entropie a ensuite été redéfinie par Shannon dans le cadre de la théorie de l'information où l'entropie est identifié à la quantité d'information.

( La théorie de l'information est à la base de l'informatique aussi l'entropie doit jouer un rôle important dans ce domaine cf entropie et informatique .)

L'entropie et l'information sont une seule et même notion.

En effet plus un système est complexe plus son entropie est grande et plus il faut d'information pour le décrire.

Par exemple une même quantité de matière sous forme de gaz ou sous forme de cristal ne sont pas décrite avec la même quantité d'information. Si le cristal est parfait (sans lacune, ni dislocation, etc.) alors il suffit de préciser la position d'un atome du cristal et la structure de la maille cristalline pour savoir où se trouve tous les atomes du cristal. On a donc besoin que de très peu d'information pour décrire le système.

Dans un tel système l'entropie est très faible.

Par contre pour le gaz comme il n'y a pas de liaison entre les atomes ceux-ci doivent être décris individuellement si on veut connaître l'état exact du système.

La quantité d'information y est énorme liée au nombre d'Avogadro 6.022 10^23 et l'entropie est très grande.

Il a ensuite été démontré que la définition de Shannon et celle de la thermodynamique étaient équivalentes.

Pour compléter le tableau, juste à titre de remarque, il faut mentionner que suite aux travaux des physiciens Bekenstein et Hawking une nouvelle forme d'entropie est apparue dans la dynamique des trous noirs.
Cette entropie à conduit au principe holographique de T'hooft.
L'unité la plus petite d'information physique est une surface de la taille de la longueur de Planck au carré.
La longueur de Planck est la plus petite longueur physique en deça de laquelle la notion de longueur perd son sens (incertitude quantique).

Dans l'entropie il y a deux termes qui tendent à s'annuler, car l'entropie est le logarithme d'un rapport entre deux notions qui s'opposent:

La capacité de perception de l'observateur et la complexité du système perçu.

  • La complexité du système est traduite par la quantité de ce qu'il y a à percevoir et c'est le nombre d'états possibles pour un système (états équiprobables).

  • la capacité de perception est la résolution de notre perception, la précision de notre observation. Sa finitude assure une relative indiscernabilité entre des états, ... pas trop différents.

    Plus le nombre d'états indiscernable est grand, plus le désordre sera grand, on ne saura pas "résoudre" l'état réel puisque notre capacité de perception est limitée.

    Plus notre capacité de perception sera grande, plus nous pourrons discriminer les états possibles du système. Nous aurons donc plus "d'information" sur le système et nous le considérerons plus organisé.

    L'ordre du système est donc dépendant de celui qui l'observe.

    Considérons un exemple simple, un bureau. La personne qui travaille sur ce bureau possède un niveau donné d'information sur l'état de son bureau.
    Son bureau peut être modélisé par un ensemble de boite permettant de localiser un objet. Les objets sont rangés dans des boites. S'il y a N boites et N objets avec un objet par boite, il y a alors N! (factorielle de N) états possibles pour le système, chaque objet pouvant occuper chacune des boites.

    En effet pour ranger le premier objet on a N boites possibles mais pour le deuxième N-1 boites etc. Donc le nombre de choix de rangement des N Objets dans les N Boites est N * N-1 * N-2 * .... * 2 * 1 = N! c'est à dire la factorielle de N.
    Considérons un état particulier de rangement du bureau. Supposons que la personne connaisse parfaitement l'état du bureau, c'est à dire qu'elle sait ou trouver chaque objet par un accès direct à la boite qui le contient.
    Alors dans ce cas on peut dire que pour cette personne le bureau est totalement rangé, l'ordre est parfait et donc le désordre (ou entropie) nul.

    Supposons qu'une autre personne ai une connaissance moindre de l'état du bureau. Cette personne sait "à peu prés" où se trouve un objet mais devra faire plusieurs tentatives pour retrouver effectivement un objet donné.
    C'est à dire qu'elle devra dépenser un peu d'énergie (dégrader de l'énergie) et de temps pour "reconstituer" l'information qui lui manque. Si en deux ou trois essais elle sais retrouver un objet donné. On peut dire qu'elle n'a pas une connaissance parfaite de l'état du système ou que pour elle le système est légèrement désordonné. Pour cette personne, le désordre ou entropie n'est pas nul.

    Supposons une troisième personne totalement étrangère à ce bureau et donc ne possédant aucune information sur son état. Pour trouver un objet cette personne devra ouvrir successivement toutes les boites jusqu'à ce qu'elle trouve l'objet cherché. Pour cette personne le désordre ou entropie est maximum. L'entropie est alors donnée par la factorielle de N, N! qui est une bonne représentation de la complexité du système, c'est à dire de la complexité à appréhender le système.
    La factorielle se construit ainsi, au premier choix d'une boite (tirage) il y a N possibilité, au deuxième il y a N-1 possibilité, au troisième N-2 etc. Donc la complexité du système peut bien être représenté par le nombre N * (N-1) * (N-2) .... 3 * 2 * 1 qui est précisément la factorielle de N.

    Et encore dans cet exemple on suppose que l'observateur est suffisamment intelligent pour pouvoir mémoriser (capitaliser son expérience du système) et ne pas rechercher dans une boite qu'il a déjà ouverte et qui ne contenait pas l'objet recherché. Sinon la complexité du système serait perçu par l'observateur comme beaucoup plus grande. On pourrait dire que le système complet : système+observateur serait dans un état de confusion.

    Pour être exact, l'entropie est associée au logarithme mathématique de la factorielle.

    S = log (N!)

    Ceci à cause de la propriété du logarithme :

    "Le logarithme d'un produit est la somme des logarithmes des deux facteurs du produit."

    En terme de formules mathématique on a:

    Log( a * b ) = Log(a) + Log(b)

    Si l'on double la taille d'un système M = N * 2, on prend deux bureaux par exemple alors les entropies s'ajoute linéairement mais la complexité augmente exponentiellement.

      Modèle_des_urnes_d_Ehrenfest_   Formule_de_Boltzmann_

    On peut remarquer dans l'exemple du bureau que dés que la personne se met à ouvrir des boites, c'est à dire a interagir avec le système, elle va acquérir de l'information sur celui-ci qu'elle pourra alors mémoriser. En conséquence l'entropie du système va évoluer pour elle mais elle aura du dégrader de l'énergie par ailleurs pour pourvoir diminuer cette entropie. Donc c'est un déplacement d'entropie car dans le système global considéré comme fermé l'entropie ne peut qu'augmenter (c'est la deuxième loi de la thermodynamique).

    Dans les systèmes physiques comme les gaz, les observateurs qui sont des êtres caractérisés par un type donné d'organes de perception (les êtres humains par exemple) ne présentent pas de divergence quand à leur capacité de perception.
    C'est ce qui donne aux lois de la thermodynamique leur objectivité.
    Il existe une illustration de ceci à travers le paradoxe du Démon de Maxwell..

    Maxwell imagina l'expérience suivante: deux boites sont accolées l'une contre l'autre avec une communication possible entre elles. Au départ la communication est fermée et une des boites est remplie d'un gaz tandis que l'autre est vide. Si on ouvre la communication, des molécules vont traverser et se retrouver dans l'autre boite. La thermodynamique statistique nous dit que l'état le plus probable pour ce système est celui où il y a à peu prés le même nombre de molécules dans les deux compartiments. Il s'agit de l'état d'équilibre thermodynamique. Il faut préciser que les molécules ne sont soumises à aucune force les entraînant à passer dans la deuxième boite. Une molécule peut aussi facilement passer de la première boite dans la seconde que le contraire et c'est ce qui se passe à tout instant.

    C'est d'ailleurs ce qui fait que les molécules se répartissent uniformément entre les deux compartiments. Si a un moment donné il y a plus de molécules dans un compartiment alors la probabilité que les molécules aillent dans l'autre boite devient plus grande aussi d'où l'équilibre.

    Le paradoxe du démon de Maxwell est l'idée qu'un petit démon extrêmement rapide aurait la capacité de fermer la communication et choisirai de ne l'ouvrir que lorsque qu'il y a plus de molécules qui se présentent pour traverser dans un sens que dans l'autre. Ce démon créerai ainsi une dissymétrie dans la répartition des molécules et serait donc capable de vider une boite pour remplir l'autre.

    Ce démon sait discriminer l'état exact du système car il fonctionne au niveau microscopique des molécules. La résolution d'un tel paradoxe est que le démon de Maxwell ne peut exister. Dans le cas de la physique thermodynamique c'est bien le cas, mais on peut très bien imaginer pour des systèmes beaucoup moins complexes des capacités de perceptions différentes comme dans l'exemple du bureau.

    A cause de ce qui précède, en thermodynamique on néglige l'aspect "capacité de perception de l'information" et on se concentre essentiellement sur la "quantité d'information". Mais il s'agit bien d'une approximation.

    Cette approximation n'est d'ailleurs plus valable si l'on a affaire à un système qui peut présenter des divergences de perception pour des êtres humains.

    La notion d'entropie est apparu autour du contexte particulier d'un système physique qui dissipe de l'énergie pour atteindre l'équilibre thermodynamique où l'entropie est à son maximum.

    Par exemple une enceinte isolée thermiquement de l'extérieur contenant deux compartiment de taille égale, en contact, remplit d'eau où la température de l'eau est de 0° pour un compartiment et 100° pour l'autre évoluera naturellement en vertu du deuxième principe de la thermodynamique vers une situation ou la température dans les deux réservoirs est 50°.

    L'énergie thermique est l'énergie mécanique des molécules. Les molécules échangent de l'énergie via les chocs sur la paroi qui séparent les deux réservoirs avec le même mécanisme que précédemment et on arrive donc à l'uniformité macroscopique.

    Ce dernier état est stable et si aucune énergie extérieure n'intervient.
    Il n'y aura aucune évolution du système (si on considère le système parfaitement stérile d'un point de vue biologique car la vie pourrait exploiter l'énergie thermique contenu dans l'enceinte pour organiser la matière). Dans les années 1960 Ilya Prigogine qui recevra en 1977 le prix Nobel pour ces travaux, s'intéresse à ce qui se passe pour un système lorsqu'il est maintenu en permanence loin de l'état d'équilibre thermodynamique par un flux permanent d'énergie.

    Il observe alors que la dissipation d'énergie provoque l'apparition d'un ordre dans la matière ce qu'il nommera les structures dissipatives.

    Les structures dissipatives sont des structures naturelles qui possèdent la propriété d'auto-organisation:

    "L'auto-organisation est un phénomène de mise en ordre croissant, et allant en sens inverse de l'augmentation de l'entropie (ou désordre , symbole S) ; au prix d'une dissipation d'énergie qui servira à maintenir cette structure.

    C'est une tendance, tant au niveau des processus physiques ou des organismes vivants, que des systèmes sociaux, à s'organiser d'eux-mêmes ; on parle aussi d'auto-assemblage.

    Passé un seuil critique de complexité, les systèmes peuvent changer d'état, ou passer d'une phase instable à une phase stable. "

    La loi fondamentale de tels systèmes se résume en une équation simple d²S=0 établie par le prix nobel de physique Ilya Prigogine qui signifie qu'un système qui s'auto-organise évolue en créant un minimum de désordre au fur et à mesure que sa complexité augmente.

    Pour un organisme vivant le non respect de cette loi se traduit par un retour à l'équilibre thermodynamique ce qui est pour lui la mort.

    Analyse perception et entropie: étude de la modélisation de la perception

    Entropie d'un texte

  • faire une recherche sur l'entropie textuelle (conférence de Raphael Bousso The World as a Hologram nweb)
  • définir l'entropie textuelle à partir de l'entropie statistique facteur de Boltzmann
  • analogie texte-lien vs molécule-liaison chimique (entropie d'un cristal vs gaz) gaz= texte sans lien cristal = texte avec lien

    Neguentropie

    Effet sterique

    l'effet stérique en chimie est le fait que l'encombrement spatial d'une molécule peut empêcher par le principe d'exclusion de Pauli une réaction chimique prévisible de l'effectuer parce que les molécules ne peuvent pas se rapprocher suffisamment pour réagir.

    Neguentropie effet sterique

    l'effet stérique discriminant par rapport à l'hydrogène et d'autres composés chimiques de taille plus importante pourrait être utilisé pour séparer l'hydrogène de ses composés.
    Un dispositif nanométrique pourrait être utilisé pour cela.
    La percolation d'un composé chimique à travers une telle structure nanométrique pourrait transformer l'énergie de pression macroscopique en énergie chimique microscopique. L'agitation moléculaire serait utilisée à l'instar des secousses que l'on applique sur un tamis pour faire passer les éléments plus fins à travers le tamis.

    Les ions hydrogène pourraient alors se recombiner par liaison covalente pour former de l'hydrogène gazeux.