entropie entropie_txh_es_som

Entropía txh

volver a la página de inicio

versión disponible en : en it ru zh ja de nl pt fr

fecha de creación : 20240129- fecha de actualización : 20230402- fecha de generación : 20240908_053307

1.Entropie

La entropía caracteriza el aumento de complejidad de un sistema, es decir, la cantidad de información necesaria para describirlo. (resolver).

Inicialmente, consideramos un sistema cerrado, es decir, un sistema que no intercambia ni energía (mecánica, térmica, radiación)o material con su entorno.

La entropía está vinculada a la noción de desorden : cuanta más información se necesita para describir un sistema, más desordenado nos puede parecer.

De hecho, la entropía es un concepto físico vinculado a la medición precisa del orden o el desorden. La entropía también mide la capacidad de evolucionar de un sistema cerrado con una determinada cantidad de energía utilizable (porque tiene una entropía baja).

Si tienes un equipo en el que los caballos van en todas direcciones no puedes avanzar porque no hay orden.

Si disciplinas a tus caballos, su energía ordenada se vuelve utilizable para hacer avanzar al equipo.

Este ejemplo muestra que la energía (la fuerza que pueden reunir los caballos para realizar un determinado trabajo) no es suficiente y que también hay una noción de orden que es muy importante. Es el concepto de entropía el que está ligado a este orden o desorden.

La energía es lo que permite la evolución, el cambio. Si el depósito de combustible de un coche está vacío, ya no puede moverse, a menos que utilice la energía potencial gravitatoria que posee o la energía cinética que ha acumulado en una pendiente y si tienes suerte, te permitirá llegar a la siguiente gasolinera.

Si la entropía es baja (sistema ordenado) el sistema puede evolucionar.

A medida que evoluciona aumenta la entropía, es decir, se degrada la energía (disminuye su orden) y el sistema es menos capaz de evolucionar.

Por ejemplo, los caballos consumirán la energía química contenida en el pienso que han comido utilizando el oxígeno del aire mediante la respiración para producir moléculas de ATPAdénosine_triphosphate que es el combustible de la fisiología. Al tirar del carro consumirán este combustible para hacer trabajar los músculos (el motor).
Cuando hayan consumido toda la energía de la comida y las reservas almacenadas en los músculos, el hígado y la grasa, estarán cansados, tendrán que descansar y si no vuelven a comer (sistema cerrado) no podrán seguir tirando del carro por mucho tiempo, si no hasta que se les acabe (reservas energéticas).

Consumir energía es de hecho aumentar la entropía porque nunca consumimos energía debido a la ley de conservación de la energía que es el primer principio de la termodinámica: en un sistema cerrado la energía es constante.

Cuando la energía se disipa o se degrada, su entropía, y por tanto su desorden, aumenta (este es el segundo principio de la termodinámica).

En el caso de los caballos, los excrementos resultantes de la digestión son menos ordenados que las hierbas de las que proceden..
Es la energía del sol débilmente entrópica la que, mediante la fotosíntesis, permite que las hierbas vuelvan a crecer utilizando la materia orgánica del crotin.

La entropía es un concepto introducido inicialmente en la termodinámica macroscópica por Clausius.
Rudolf_Clausius y cuyo significado profundo en términos de información fue aclarado mucho más tarde en mecánica estadística por Boltzmann.

El segundo principio de la termodinámica establece que en un sistema cerrado, la entropía sólo puede aumentar o, en el límite, permanecer constante.
El orden y el desorden tienen una importancia fundamental en la física, que se ocupa de las leyes de funcionamiento sistemas físicos compuestos por un gran número de entidades (un gas formado por todas sus moléculas, por ejemplo). Esta física se denominaThermodynamique.

Los grandes números aportan nuevas propiedades, nuevos conceptos, nuevas realidades y experiencias.

La entropía se redefinió entonces mediante Shannon en el marco de la teoría de la información donde la entropía se identifica con la cantidad de información.

( La teoría de la información es la base de la informática, por lo que la entropía debe desempeñar un papel importante en este campo cf. . entropie et informatique  .Shannon nweb)

1.1.Entropía e información

La entropía y la información son conceptos muy relacionados y pueden considerarse idénticos en mécanique_statistique_es.

En efecto, cuanto más complejo es un sistema, mayor es su entropía y cuanta más información sea necesaria para describirlo.

Por ejemplo, la misma cantidad de materia en forma gaseosa o en forma cristalina no se describen con la misma cantidad de información. Si el cristal es perfecto (sin lagunas, dislocaciones, etc..entropía e información) entonces basta con especificar la posición de un átomo del cristal y la estructura de la red cristalina para averiguar dónde se encuentran todos los los átomos del cristal. Por lo tanto, se necesita muy poca información para describir el sistema.

En un sistema así la entropía es muy baja.

En cambio, para el gas, al no existir enlace entre los átomos, éstos deben describirse individualmente si se desea conocer el estado exacto del sistema..

La cantidad de información es enorme en relación con el número de Avogadro 6.022 10^23 y la entropía es muy grande.

Se demostró entonces que la definición de Shannon y la definición termodinámica eran equivalentes.

Para completar el cuadro, sólo como observación, cabe mencionar que Tras los trabajos de los físicos Bekenstein y Hawking ha aparecido una nueva forma de entropía en la dinámica de los agujeros negros.
Esta entropía llevó al principio holográfico de T'hooft.

Este principio considera que la unidad más pequeña de información física es un área del tamaño de la longitud de Planck al cuadrado (Superficie Planck).

La longitud de Planck es la longitud física más pequeña por debajo de la cual la noción de longitud pierde su significado.
(incertidumbre cuántica). Se podría decir, pues, que la longitud de Planck es la longitud arquetípica y que dos puntos inmediatamente adyacentes en el espacio físico están separados por esta longitud. No puede haber de puntos del espacio físico entre estos dos puntos. Por supuesto, es posible diseñar longitudes más cortas que la longitud de Planck pero ya no son longitudes físicas, sino abstractas, matemáticas..

1.2.La entropía está relacionada con el observador

En la fórmula matemática de la entropía hay dos términos que tienden a anularse, por lo que podemos decir que la entropía es el logarithme_es una relación entre dos nociones opuestas:

Estos dos términos representan, por una parte, la capacidad de percepción del observador y, por otra, la complejidad del sistema percibido.

  • La complejidad del sistema se refleja en la cantidad de lo que hay que percibir y éste es el número de estados posibles para un sistema (estados equiprobables: el sistema puede estar en cualquiera de estos estados).

  • la capacidad de percibir es la resolución de nuestra percepción, la precisión de nuestra observación. Su finitud garantiza una indistinguibilidad entre estados, ... no muy diferente.

    Cuanto mayor sea el número de estados indistinguibles, mayor será el desorden, nos no podrá "resolver" el estado real ya que nuestra capacidad de percepción es limitada.

    Cuanto mayor es nuestra capacidad de percepción, más podemos discriminar los posibles estados del sistema. Por lo tanto, dispondremos de más información sobre el sistema y lo consideraremos más organizado.

    Lo importante es tener en cuenta al observador.

    Por tanto, el orden del sistema depende del observador.

    En física siempre tenemos en cuenta la posición del observador en relación con el fenómeno observado.

    En mecánica, esta posición se define por la distinción entre el sistema de referencia del observador y la propia referencia del sistema y su relación.

    1.2.1.Termodinámica estadística o mécanique_statistique_es

    En termodinámica estadística, la posición del observador no es una posición en el espacio, sino más bien una posición en las escalas de tamaño. El observador humano situado a escala métrica mientras que para un gas, que es el objeto principal de la termodinámica estadística, la escala del sistema se compone de átomos cuya estructura cuántica es, por tanto, a escala atómica es decir, justo por debajo de la nanoescala (10^-10 m , 10 potencia menos 10 metro)

    Veamos un ejemplo sencillo que se aproxima a la escala del observador humano o entre el centímetro y el decímetro: objetos sobre un escritorio. La persona que trabaja en esta mesa tiene un determinado nivel de información sobre el estado de su mesa.

    Su oficina puede modelarse mediante un conjunto de casillas que permiten localizar un objeto. Los objetos se guardan en cajas. Si hay N casillas y N objetos con un objeto por caja, entonces hay N! (factorial de N) estados posibles para el sistema, pudiendo cada objeto ocupar cada una de las casillas.

    En efecto, para almacenar el primer objeto tenemos N cajas posibles pero para las segundas cajas N-1 etc. Así que el número de opciones de los N Objetos en las N Cajas es N * N-1 * N-2 * .... * 2 * 1 = N! es decir, el factorial de N.
    Consideremos un estado concreto del almacenamiento en la oficina. Supongamos que el persona es plenamente consciente del estado de la oficina, es decir, él o ella sabe dónde encontrar cada objeto accediendo directamente a la caja que lo contiene.
    Entonces podemos decir que para esta persona la oficina es totalmente ordenado, el orden es perfecto y el desorden también (o entropía) cero.

    Supongamos que otra persona tiene menos conocimiento del estado de la oficina. Esta persona sabe "sobre" dónde está un objeto pero tendrá que realizar varios intentos para encontrar realmente un objeto determinado.
    Es decir, tendrá que gastar algo de energía (degradar la energía) y tiempo para "reconstituir" la información que le falta.. Si en dos o tres intentos puede encontrar un objeto determinado. Se puede decir que no tiene un conocimiento perfecto del estado del sistema o que el sistema está ligeramente desordenado para ella. Para esta persona, el desorden o entropía no es cero.

    Supongamos que una tercera persona es un completo desconocido en esta oficina y por lo tanto no sin información sobre su estado. Para encontrar un objeto este persona tendrá que abrir todas las cajas sucesivamente hasta tener encontrar el objeto buscado. Para esta persona el desorden o entropía es máximo. La entropía viene dada entonces por el factorial de N, N! que es una buena representación de la complejidad del sistema, es decir la complejidad de comprender el sistema.
    El factorial se construye de la siguiente manera, en la primera elección de una casilla (dibujar) hay N posibilidades, en la segunda hay N-1 posibilidades, en la tercera N-2 etc. Así pues, la complejidad del sistema puede representarse perfectamente mediante el número N * (N-1) * (N-2) .... 3 * 2 * 1 que es precisamente el factorial de N.

    Y de nuevo en este ejemplo se supone que el observador es suficientemente inteligente para poder memorizar (aprovechar su experiencia en el sistema) y no mirar en una caja que ya ha abierto y que no contenía no es el objetivo previsto. De lo contrario, la complejidad del sistema sería percibida por el observador como mucho mayor. Se podría decir que el sistema complete : sistema estaría en un estado de confusión.

    Para ser exactos, la entropía está asociada al logaritmo matemático del factorial.

    S = registro (N!termodinámica estadística)

    Esto se debe a la propiedad del logarithme_es :

    "El logaritmo de un producto es la suma de los logaritmos de los dos factores del producto."

    En términos de fórmulas matemáticas tenemos:

    Registro( a * b ) = Registro(a) Registro(b)

    Si duplicamos el tamaño de un M = N * 2, tomamos dos oficinas por ejemplo entonces las entropías se suman linealmente pero la complejidad aumenta exponencialmente.

    Modèle_des_urnes_d_Ehrenfest Formule_de_Boltzmann

    En el ejemplo de la oficina, se observa que en cuanto la persona empieza a abrir cajas, es decir, para interactuar con el sistema, adquirirá información sobre que luego puede memorizar. En consecuencia, la entropía del sistema evolucionará para ella, pero habrá tenido que degradar la energía en otros lugares para proporcionar disminuir esta entropía. Así que es un cambio de entropía porque en el sistema global considerado cerrado, la entropía sólo puede aumentar (es la segunda ley del termodinámica).

    En sistemas físicos como los gases, los observadores que están seres caracterizados por un determinado tipo de órganos perceptivos (seres seres humanos por ejemplo) no difieren en su capacidad de percibir.
    Esto es lo que confiere a las leyes de la termodinámica su objetividad.
    Esto queda ilustrado por la paradoja de la . démon de Maxwell  .

    . Maxwell  imagina el siguiente experimento: se colocan dos cajas una contra otra la otra con una posible comunicación entre ellas. Inicialmente el comunicación se cierra y una de las cajas se llena con un gas mientras el otro está vacío. Si abrimos la comunicación, las moléculas atravesarán y se encuentran en la otra caja. La termodinámica estadística nos dice que el estado más probable para este sistema es uno en el que hay aproximadamente el mismo número de moléculas en ambos compartimentos. Este es el estado equilibrio termodinámico. Hay que señalar que las moléculas no están sometidas a ninguna fuerza que las haga atravesar en la segunda casilla. Una molécula también puede pasar fácilmente de la primera caja a la segunda que lo contrario, y esto es lo que ocurre siempre.

    Esto es lo que hace que las moléculas se distribuyan uniformemente entre los dos compartimentos. Si en un momento dado hay más moléculas en un compartimento, entonces la probabilidad de que las moléculas entren en la otra caja también se agranda, de ahí el equilibrio.

    La paradoja del demonio de Maxwell es la idea de que un demonio extremadamente pequeño tendría la capacidad de cortar la comunicación y elegiría no hacerlo Sólo se abrirá cuando haya más moléculas que lo atraviesen. en una dirección que en la otra. Este demonio crearía así una asimetría en la distribución moléculas y, por tanto, podría vaciar una caja para llenar la otra.

    Este demonio es capaz de discriminar el estado exacto del sistema porque opera en el nivel moléculas microscópicas. La resolución de tal paradoja es que el demonio El principio de Maxwell no puede existir. En el caso de la física termodinámica es el caso, pero es posible imaginar sistemas mucho más menos complejas, diferentes capacidades perceptivas como en el ejemplo de la oficina.

    Debido a lo anterior, en termodinámica despreciamos el aspecto "capacidad de la percepción de la información" y se centra principalmente en sobre la "cantidad de información". Pero es una aproximación.

    Esta aproximación ya no es válida si se trata de un sistema que pueden ser percibidos de forma diferente por los seres humanos.

    La noción de entropía surgió en torno al contexto particular de una sistema físico que disipa energía para alcanzar el equilibrio termodinámica donde la entropía es máxima.

    Por ejemplo, un recinto aislado térmicamente del exterior que contiene dos compartimentos de igual tamaño, en contacto, llenos de agua donde la temperatura del agua es de 0° para un compartimento y de 100° para el otro evolucionará naturalmente según el segundo principio de la termodinámica a una situación en la que la temperatura en ambos tanques es de 50.

    La energía térmica es la energía mecánica de las moléculas. Las moléculas intercambian energía a través de los amortiguadores de la pared que separan los dos depósitos con el mismo mecanismo que anteriormente y por lo tanto llegamos a la uniformidad macroscópica.

    Este último estado es estable y si no interviene energía externa.
    No habrá cambios en el sistema (si consideramos el sistema perfectamente estéril desde un punto de vista biológico porque la vida podría aprovechar la energía térmica contenida en el recinto organizar el material). En la década de 1960, Ilya Prigogine, que en 1977 recibió el Premio Nobel para este trabajo, se interesa por lo que le ocurre a un sistema cuando se mantiene permanentemente alejado del estado estacionario termodinámica por un flujo permanente de energía.

    Luego observa que la disipación de energía provoca la aparición de orden en la materia, que él llamó estructuras disipativas.

    Las estructuras disipativas son estructuras naturales que poseen la propiedad de autoorganizarse:

    "La autoorganización es un fenómeno de orden creciente, y que va en dirección opuesta a el aumento de entropía (o desorden , símbolo S) ; a costa de la disipación de energía que se utilizará para mantener esta estructura.

    Se trata de una tendencia, tanto en los procesos físicos o en los organismos vivos, como en la sistemas sociales, para organizarse ; también hablamos de autoensamblaje.

    Una vez superado un umbral crítico de complejidad, los sistemas pueden cambiar de estado o pasar de un estado a otro. fase inestable a una fase estable. "

    La ley fundamental de estos sistemas puede resumirse en una sencilla ecuación d²S=0 establecido por el Premio Nobel de Física Ilya Prigogine, lo que significa que un sistema autoorganizado evoluciona creando un mínimo de desorden a medida que su complejidad creciente.

    Para un organismo vivo, el incumplimiento de esta ley provoca la vuelta al equilibrio termodinámica, que para él es la muerte.

    1.3.. analyse perception et entropie : estudio de la modelización de la percepción

    _ En los sistemas informáticos, el nivel de complejidad es suficientemente bajo para que la percepción del estado del sistema sea diferente para los distintos observadores,

    Así que volvamos a nuestro ejemplo de la oficina modelada con nuestras tres personas.

  • para la primera persona una observación, o interacción con el sistema provoca la apertura directa de la caja que contiene el objeto se busca. La probabilidad de encontrar el objeto deseado es total, es decir, 1.
    La resolución con la que la persona resuelve el estado del sistema es lo más fina posible, es decir, la persona es capaz de discernir con seguridad la casilla que busca.

    La resolución puede representarse mediante la relación 1 / N . 1 para el número de ensayos necesarios para encontrar el objeto de búsqueda, es decir, para resolver el estado del sistema.
    N de complejidad del sistema.

    La precisión puede representarse como la inversa de la resolución. La precisión aquí será, por tanto, N / 1 = N .

  • para la segunda persona que tiene que abrir digamos n=5 casillas de media para encontrar el objeto, la resolución será de 5 / N y la precisión N / 5.
  • La precisión puede definirse como la relación entre la complejidad del propio sistema, que es N, y la complejidad del sistema vista por el observador, aquí n=5, ya que necesita hacer 5 intentos (mide) reducir el estado del sistema (que el estado real del sistema y la simulación mental del estado del sistema son idénticos).

  • La precisión parece ser la capacidad de percibir.
  • cada vez mayor: hacer 5 intentos para encontrar un objeto de seis no es muy eficiente (baja probabilidad) para 1 millón de objetos es extremadamente eficaz (probabilidad cercana a 1).

  • la probabilidad de encontrar el objeto es la inversa del número medio de intentos de encontrar el objeto.
    1 en el caso de la persona que conoce perfectamente el sistema.
    1 / 5 en el caso de la segunda persona 1 / N en el caso de la persona que desconoce por completo el estado del sistema.

    nº de cajasresolución(precisión(nbr/5)   probalidad (nbr-5/nbr) 
    6 1.2   0.166667
    7 1.4   0.285714
    8 1.6   0.375000
    9 1.8   0.444444
    10 2.0   0.500000
    15 3.0   0.666667
    20 4.0   0.750000
    30 6.0   0.833333
    50 10.0   0.900000
    100 20.0   0.950000
    1000 200.0   0.995000
    10000 2000.0   0.999500
    1000000 200000.0   0.999995

    Esta tabla ilustra que cuanto mayor es la precisión, mayor es la la probabilidad de encontrar el objeto es alta.

    la fórmula más general para definir el conocimiento (orden o desorden) que tenemos en un sistema es:

    Información = Número de estados / Precisión

    La entropía es un logarithme_es ( Que aún no he descubierto

    Entropie = Registro( Desorden ) = Registro(Número de Estados)

  • Registro (Precisión)

    Se puede observar que con un equilibrio perfecto entre la capacidad de percepción y de lo que nos damos a percibir, la entropía es cero. _

    1.4.Entropie d un texte

  • investigar la entropía textual (conferencia de Raphael_Bousso_es The_World_as_a_Hologram_es_nweb_esentropie d un texte)
  • definir la entropía textual a partir de la entropía estadística Factor de Boltzmann
  • analogía texto-enlace vs. enlace molécula-química (entropía de un cristal frente a un gas) gas= texto sin enlace cristal = texto con enlace

    1.5.Neguentropie

    1.5.1.Efecto estérico

    El efecto estérico en química es el hecho de que el apiñamiento espacial de una molécula puede impedir una reacción química predecible por el principio de exclusión de Pauli porque las moléculas no pueden acercarse lo suficiente entre sí.
    responder.

    1.5.2.Neguentropía efecto estérico

    efecto estérico discriminatorio frente al hidrógeno y otros compuestos químicos de mayor tamaño podría utilizarse para separar el hidrógeno de sus compuestos.
    Para ello podría utilizarse un dispositivo a nanoescala.
    La percolación de un compuesto químico a través de una estructura a nanoescala de este tipo podría transformar la energía de presión macroscópica en energía química microscópico. La agitación molecular se utilizaría del mismo modo que la agitación que se aplica a un tamiz para pasar los elementos más finos a través del tamiz.

    Los átomos de hidrógeno podrían entonces recombinarse por enlace covalente para formar hidrógeno gaseoso.