EntropÃa txh
versión disponible en : en it ru zh ja de nl pt fr
fecha de creación : 20240129- fecha de actualización : 20230402- fecha de generación : 20240908_053307
La entropÃa caracteriza el aumento de complejidad de un sistema, es decir, la cantidad de información necesaria para describirlo. (resolver).
Inicialmente, consideramos un sistema cerrado, es decir, un sistema que no intercambia ni energÃa (mecánica, térmica, radiación)o material con su entorno.
La entropÃa está vinculada a la noción de desorden : cuanta más información se necesita para describir un sistema, más desordenado nos puede parecer.
De hecho, la entropÃa es un concepto fÃsico vinculado a la medición precisa del orden o el desorden.
La entropÃa también mide la capacidad de evolucionar de un sistema cerrado con una determinada cantidad de energÃa utilizable (porque tiene una entropÃa baja).
Si tienes un equipo en el que los caballos van en todas direcciones no puedes avanzar porque no hay orden.
Si disciplinas a tus caballos, su energÃa ordenada se vuelve utilizable para hacer avanzar al equipo.
Este ejemplo muestra que la energÃa (la fuerza que pueden reunir los caballos para realizar un determinado trabajo) no es suficiente
y que también hay una noción de orden que es muy importante. Es el concepto de entropÃa el que está ligado a este orden o desorden.
La energÃa es lo que permite la evolución, el cambio. Si el depósito de combustible de un coche está vacÃo, ya no puede moverse,
a menos que utilice la energÃa potencial gravitatoria que posee o la energÃa cinética que ha acumulado en una pendiente
y si tienes suerte, te permitirá llegar a la siguiente gasolinera.
Si la entropÃa es baja (sistema ordenado) el sistema puede evolucionar.
A medida que evoluciona aumenta la entropÃa, es decir, se degrada la energÃa (disminuye su orden) y el sistema es menos capaz de evolucionar.
Por ejemplo, los caballos consumirán la energÃa quÃmica contenida en el pienso que han comido
utilizando el oxÃgeno del aire mediante la respiración para producir moléculas de ATPAdénosine_triphosphate
que es el combustible de la fisiologÃa. Al tirar del carro consumirán este combustible para hacer trabajar los músculos (el motor).
Cuando hayan consumido toda la energÃa de la comida y las reservas almacenadas en los músculos, el hÃgado y la grasa, estarán cansados,
tendrán que descansar y si no vuelven a comer (sistema cerrado) no podrán seguir tirando del carro por mucho tiempo, si no hasta que se les acabe
(reservas energéticas).
Consumir energÃa es de hecho aumentar la entropÃa porque nunca consumimos energÃa debido a la ley de conservación de la energÃa
que es el primer principio de la termodinámica: en un sistema cerrado la energÃa es constante.
Cuando la energÃa se disipa o se degrada, su entropÃa, y por tanto su desorden, aumenta (este es el segundo principio de la termodinámica).
En el caso de los caballos, los excrementos resultantes de la digestión son menos ordenados que las hierbas de las que proceden..
Es la energÃa del sol débilmente entrópica la que, mediante la fotosÃntesis, permite que las hierbas vuelvan a crecer utilizando la materia orgánica del crotin.
La entropÃa es un concepto introducido inicialmente en la termodinámica macroscópica por Clausius.
Rudolf_Clausius
y cuyo significado profundo en términos de información fue aclarado mucho más tarde en mecánica estadÃstica por Boltzmann.
El segundo principio de la termodinámica establece que en un sistema cerrado, la entropÃa sólo puede aumentar o, en el lÃmite, permanecer constante.
El orden y el desorden tienen una importancia fundamental en la fÃsica, que se ocupa de las leyes de funcionamiento
sistemas fÃsicos compuestos por un gran número de entidades (un gas formado por todas sus moléculas, por ejemplo).
Esta fÃsica se denominaThermodynamique.
Los grandes números aportan nuevas propiedades, nuevos conceptos,
nuevas realidades y experiencias.
La entropÃa se redefinió entonces mediante Shannon en el marco de la teorÃa de la información
donde la entropÃa se identifica con la cantidad de información.
( La teorÃa de la información es la base de la informática, por lo que la entropÃa debe desempeñar un papel importante en este campo cf. . entropie et informatique .Shannon nweb)
La entropÃa y la información son conceptos muy relacionados y pueden considerarse idénticos en mécanique_statistique_es.
En efecto, cuanto más complejo es un sistema, mayor es su entropÃa
y cuanta más información sea necesaria para describirlo.
Por ejemplo, la misma cantidad de materia en forma gaseosa o en forma cristalina
no se describen con la misma cantidad de información. Si el cristal es perfecto
(sin lagunas, dislocaciones, etc..entropÃa e información) entonces basta con especificar la posición de un átomo
del cristal y la estructura de la red cristalina para averiguar dónde se encuentran todos los
los átomos del cristal. Por lo tanto, se necesita muy poca información para describir el sistema.
En un sistema asà la entropÃa es muy baja.
En cambio, para el gas, al no existir enlace entre los átomos, éstos deben
describirse individualmente si se desea conocer el estado exacto del sistema..
La cantidad de información es enorme en relación con el número de Avogadro 6.022 10^23 y la entropÃa es muy grande.
Se demostró entonces que la definición de Shannon y la definición termodinámica eran equivalentes.
Para completar el cuadro, sólo como observación, cabe mencionar que
Tras los trabajos de los fÃsicos Bekenstein y Hawking ha aparecido una nueva forma de entropÃa en la dinámica de los agujeros negros.
Esta entropÃa llevó al principio holográfico de T'hooft.
Este principio considera que la unidad más pequeña de información fÃsica es un área del tamaño de la longitud de Planck al cuadrado (Superficie Planck).
La longitud de Planck es la longitud fÃsica más pequeña por debajo de la cual la noción de longitud pierde su significado.
(incertidumbre cuántica). Se podrÃa decir, pues, que la longitud de Planck es la longitud arquetÃpica y
que dos puntos inmediatamente adyacentes en el espacio fÃsico están separados por esta longitud. No puede haber
de puntos del espacio fÃsico entre estos dos puntos. Por supuesto, es posible diseñar longitudes más cortas que la longitud de Planck
pero ya no son longitudes fÃsicas, sino abstractas, matemáticas..
1.2.La entropÃa está relacionada con el observador
En la fórmula matemática de la entropÃa hay dos términos que tienden a anularse, por lo que podemos decir que la entropÃa es el logarithme_es una relación entre dos nociones opuestas:
Estos dos términos representan, por una parte, la capacidad de percepción del observador y, por otra, la complejidad del sistema percibido.
Cuanto mayor sea el número de estados indistinguibles, mayor será el desorden, nos no podrá "resolver" el estado real ya que nuestra capacidad de percepción es limitada.
Cuanto mayor es nuestra capacidad de percepción, más podemos discriminar
los posibles estados del sistema. Por lo tanto, dispondremos de más información sobre el
sistema y lo consideraremos más organizado.
Lo importante es tener en cuenta al observador.
Por tanto, el orden del sistema depende del observador.
En fÃsica siempre tenemos en cuenta la posición del observador en relación con el fenómeno observado.
En mecánica, esta posición se define por la distinción entre el sistema de referencia del observador
y la propia referencia del sistema y su relación.
1.2.1.Termodinámica estadÃstica o mécanique_statistique_es
En termodinámica estadÃstica, la posición del observador no es una posición en el espacio, sino más bien una posición en las escalas de tamaño. El observador humano situado a escala métrica mientras que para un gas, que es el objeto principal de la termodinámica estadÃstica, la escala del sistema se compone de átomos cuya estructura cuántica es, por tanto, a escala atómica es decir, justo por debajo de la nanoescala (10^-10 m , 10 potencia menos 10 metro)
Veamos un ejemplo sencillo que se aproxima a la escala del observador humano
o entre el centÃmetro y el decÃmetro: objetos sobre un escritorio.
La persona que trabaja en esta mesa tiene un determinado nivel de información sobre el estado de su mesa.
Su oficina puede modelarse mediante un conjunto de casillas que permiten
localizar un objeto. Los objetos se guardan en cajas. Si hay N casillas
y N objetos con un objeto por caja, entonces hay N! (factorial de N) estados posibles para
el sistema, pudiendo cada objeto ocupar cada una de las casillas.
En efecto, para almacenar el primer objeto tenemos N cajas posibles
pero para las segundas cajas N-1 etc. Asà que el número de opciones
de los N Objetos en las N Cajas es
N * N-1 * N-2 * .... * 2 * 1 = N! es decir, el factorial de N.
Consideremos un estado concreto del almacenamiento en la oficina. Supongamos que el
persona es plenamente consciente del estado de la oficina, es decir, él o ella
sabe dónde encontrar cada objeto accediendo directamente a la caja que lo contiene.
Entonces podemos decir que para esta persona la oficina es
totalmente ordenado, el orden es perfecto y el desorden también (o entropÃa) cero.
Supongamos que otra persona tiene menos conocimiento del estado de la
oficina. Esta persona sabe "sobre" dónde está un objeto pero tendrá que
realizar varios intentos para encontrar realmente un objeto determinado.
Es decir, tendrá que gastar algo de energÃa (degradar la energÃa)
y tiempo para "reconstituir" la información que le falta..
Si en dos o tres intentos puede encontrar un objeto determinado.
Se puede decir que no tiene un conocimiento perfecto del estado del sistema
o que el sistema está ligeramente desordenado para ella.
Para esta persona, el desorden o entropÃa no es cero.
Supongamos que una tercera persona es un completo desconocido en esta oficina y por lo tanto no
sin información sobre su estado. Para encontrar un objeto este
persona tendrá que abrir todas las cajas sucesivamente hasta tener
encontrar el objeto buscado. Para esta persona el desorden o entropÃa es
máximo. La entropÃa viene dada entonces por el factorial de N, N! que es
una buena representación de la complejidad del sistema, es decir
la complejidad de comprender el sistema.
El factorial se construye de la siguiente manera, en la primera elección de una casilla (dibujar)
hay N posibilidades, en la segunda hay N-1 posibilidades, en la tercera N-2
etc. Asà pues, la complejidad del sistema puede representarse perfectamente mediante el número
N * (N-1) * (N-2) .... 3 * 2 * 1 que es precisamente el factorial de N.
Y de nuevo en este ejemplo se supone que el observador es suficientemente
inteligente para poder memorizar (aprovechar su experiencia en el sistema)
y no mirar en una caja que ya ha abierto y que no contenÃa
no es el objetivo previsto. De lo contrario, la complejidad del sistema serÃa percibida por
el observador como mucho mayor. Se podrÃa decir que el sistema
complete : sistema estarÃa en un estado de confusión.
Para ser exactos, la entropÃa está asociada al logaritmo matemático del factorial.
S = registro (N!termodinámica estadÃstica)
Esto se debe a la propiedad del logarithme_es :
"El logaritmo de un producto es la suma de los logaritmos de los dos factores del producto."
En términos de fórmulas matemáticas tenemos:
Registro( a * b ) = Registro(a) Registro(b)
Si duplicamos el tamaño de un M = N * 2, tomamos dos oficinas por ejemplo
entonces las entropÃas se suman linealmente pero la complejidad aumenta exponencialmente.
Modèle_des_urnes_d_Ehrenfest Formule_de_Boltzmann
En el ejemplo de la oficina, se observa que en cuanto la persona empieza a abrir cajas,
es decir, para interactuar con el sistema, adquirirá información sobre
que luego puede memorizar. En consecuencia, la entropÃa del sistema
evolucionará para ella, pero habrá tenido que degradar la energÃa en otros lugares para proporcionar
disminuir esta entropÃa. Asà que es un cambio de entropÃa porque en el sistema global
considerado cerrado, la entropÃa sólo puede aumentar (es la segunda ley del
termodinámica).
En sistemas fÃsicos como los gases, los observadores que están
seres caracterizados por un determinado tipo de órganos perceptivos (seres
seres humanos por ejemplo) no difieren en su capacidad de percibir.
Esto es lo que confiere a las leyes de la termodinámica su objetividad.
Esto queda ilustrado por la paradoja de la . démon de Maxwell
.
. Maxwell imagina el siguiente experimento: se colocan dos cajas una contra otra la otra con una posible comunicación entre ellas. Inicialmente el comunicación se cierra y una de las cajas se llena con un gas mientras el otro está vacÃo. Si abrimos la comunicación, las moléculas atravesarán y se encuentran en la otra caja. La termodinámica estadÃstica nos dice que el estado más probable para este sistema es uno en el que hay aproximadamente el mismo número de moléculas en ambos compartimentos. Este es el estado equilibrio termodinámico. Hay que señalar que las moléculas no están sometidas a ninguna fuerza que las haga atravesar en la segunda casilla. Una molécula también puede pasar fácilmente de la primera caja a la segunda que lo contrario, y esto es lo que ocurre siempre.
Esto es lo que hace que las moléculas se distribuyan uniformemente
entre los dos compartimentos. Si en un momento dado hay más moléculas
en un compartimento, entonces la probabilidad de que las moléculas entren en
la otra caja también se agranda, de ahà el equilibrio.
La paradoja del demonio de Maxwell es la idea de que un demonio extremadamente pequeño
tendrÃa la capacidad de cortar la comunicación y elegirÃa no hacerlo
Sólo se abrirá cuando haya más moléculas que lo atraviesen.
en una dirección que en la otra.
Este demonio crearÃa asà una asimetrÃa en la distribución
moléculas y, por tanto, podrÃa vaciar una caja para llenar la otra.
Este demonio es capaz de discriminar el estado exacto del sistema porque opera en el nivel
moléculas microscópicas. La resolución de tal paradoja es que el demonio
El principio de Maxwell no puede existir. En el caso de la fÃsica termodinámica es
el caso, pero es posible imaginar sistemas mucho más
menos complejas, diferentes capacidades perceptivas como en el ejemplo de la oficina.
Debido a lo anterior, en termodinámica despreciamos el aspecto "capacidad
de la percepción de la información" y se centra principalmente en
sobre la "cantidad de información". Pero es una aproximación.
Esta aproximación ya no es válida si se trata de un sistema
que pueden ser percibidos de forma diferente por los seres humanos.
La noción de entropÃa surgió en torno al contexto particular de una
sistema fÃsico que disipa energÃa para alcanzar el equilibrio
termodinámica donde la entropÃa es máxima.
Por ejemplo, un recinto aislado térmicamente del exterior
que contiene dos compartimentos de igual tamaño, en contacto, llenos de agua
donde la temperatura del agua es de 0° para un compartimento y de 100° para el otro
evolucionará naturalmente según el segundo principio de la termodinámica
a una situación en la que la temperatura en ambos tanques es de 50.
La energÃa térmica es la energÃa mecánica de las moléculas. Las moléculas intercambian energÃa a través de los amortiguadores de la pared que separan los dos depósitos con el mismo mecanismo que anteriormente y por lo tanto llegamos a la uniformidad macroscópica.
Este último estado es estable y si no interviene energÃa externa.
No habrá cambios en el sistema (si consideramos el sistema
perfectamente estéril desde un punto de vista biológico porque la vida
podrÃa aprovechar la energÃa térmica contenida en el recinto
organizar el material).
En la década de 1960, Ilya Prigogine, que en 1977 recibió el Premio Nobel
para este trabajo, se interesa por lo que le ocurre a un sistema
cuando se mantiene permanentemente alejado del estado estacionario
termodinámica por un flujo permanente de energÃa.
Luego observa que la disipación de energÃa provoca la aparición de
orden en la materia, que él llamó estructuras disipativas.
Las estructuras disipativas son estructuras naturales que poseen la propiedad de autoorganizarse:
"La autoorganización es un fenómeno de orden creciente, y que va en dirección opuesta a el aumento de entropÃa (o desorden , sÃmbolo S) ; a costa de la disipación de energÃa que se utilizará para mantener esta estructura.
Se trata de una tendencia, tanto en los procesos fÃsicos o en los organismos vivos, como en la sistemas sociales, para organizarse ; también hablamos de autoensamblaje.
Una vez superado un umbral crÃtico de complejidad, los sistemas pueden cambiar de estado o pasar de un estado a otro. fase inestable a una fase estable. "
La ley fundamental de estos sistemas puede resumirse en una sencilla ecuación d²S=0 establecido por el Premio Nobel de FÃsica Ilya Prigogine, lo que significa que un sistema autoorganizado evoluciona creando un mÃnimo de desorden a medida que su complejidad creciente.
Para un organismo vivo, el incumplimiento de esta ley provoca la vuelta al equilibrio
termodinámica, que para él es la muerte.
1.3.. analyse perception et entropie : estudio de la modelización de la percepción
_ En los sistemas informáticos, el nivel de complejidad es suficientemente bajo para que la percepción del estado del sistema sea diferente para los distintos observadores,
Asà que volvamos a nuestro ejemplo de la oficina modelada con nuestras tres personas.
La resolución puede representarse mediante la relación 1 / N .
1 para el número de ensayos necesarios para encontrar el objeto de búsqueda, es decir, para resolver el estado del sistema.
N de complejidad del sistema.
La precisión puede representarse como la inversa de la resolución. La precisión aquà será, por tanto, N / 1 = N .
nº de cajas resolución(precisión(nbr/5) probalidad (nbr-5/nbr)
6 1.2 0.166667
7 1.4 0.285714 8 1.6 0.375000 9 1.8 0.444444 10 2.0 0.500000 15 3.0 0.666667 20 4.0 0.750000 30 6.0 0.833333 50 10.0 0.900000 100 20.0 0.950000 1000 200.0 0.995000 10000 2000.0 0.999500 1000000 200000.0 0.999995
Esta tabla ilustra que cuanto mayor es la precisión, mayor es la
la probabilidad de encontrar el objeto es alta.
la fórmula más general para definir el conocimiento (orden o desorden) que tenemos en un sistema es:
Información = Número de estados / Precisión
La entropÃa es un logarithme_es ( Que aún no he descubierto
Entropie = Registro( Desorden ) = Registro(Número de Estados)
Se puede observar que con un equilibrio perfecto entre la capacidad de percepción y de lo que nos damos a percibir, la entropÃa es cero. _
El efecto estérico en quÃmica es el hecho de que el apiñamiento espacial de una molécula
puede impedir una reacción quÃmica predecible por el principio de exclusión de Pauli
porque las moléculas no pueden acercarse lo suficiente entre sÃ.
responder.
1.5.2.NeguentropÃa efecto estérico
efecto estérico discriminatorio frente al hidrógeno y otros compuestos quÃmicos
de mayor tamaño podrÃa utilizarse para separar el hidrógeno de sus compuestos.
Para ello podrÃa utilizarse un dispositivo a nanoescala.
La percolación de un compuesto quÃmico a través de una estructura a nanoescala de este tipo
podrÃa transformar la energÃa de presión macroscópica en energÃa quÃmica
microscópico. La agitación molecular se utilizarÃa del mismo modo que la agitación
que se aplica a un tamiz para pasar los elementos más finos
a través del tamiz.
Los átomos de hidrógeno podrÃan entonces recombinarse por enlace covalente
para formar hidrógeno gaseoso.