entropie et informatique es entropía_y_computación_es_txh_som

Entropía y cálculo de txh

volver a la página de inicio

versión disponible en : en it ru zh ja de nl pt fr

fecha de creación : 20240703- fecha de actualización : 20240703- fecha de generación : 20240703_113950

1.Entropía y computación

L'. entropie  (o desorden) mide la capacidad de evolución de un sistema cerrado.

Si la entropía es baja (sistema ordenado) el sistema puede evolucionar A medida que evoluciona, la entropía aumenta y el sistema es menos capaz de evolucionar.

En realidad, consumir energía aumenta la entropía porque la energía nunca se consume, debido a la ley de conservación de la energía, que es el primer principio de la termodinámica..

Cuando la energía se disipa o degrada su entropía aumenta (este es el segundo principio de la termodinámica) .

La entropía es un concepto introducido por primera vez en la termodinámica macroscópica por Clausius, cuyo significado fue aclarado mucho más tarde en la mecánica estadística por Boltzmann..

El segundo principio de la termodinámica establece que la entropía sólo puede aumentar o, en el límite, permanecer constante..

La entropía es un concepto físico vinculado a la medición precisa de las nociones de orden y desorden..

El orden y el desorden tienen una importancia fundamental en la física, que se ocupa de las leyes de funcionamiento de un sistema físico formado por un número muy elevado de entidades. (un gas y sus moléculas, por ejemplo) .

Esta física se llama termodinámica.

Los grandes números revelan nuevas propiedades, nuevos conceptos, nuevas realidades y nuevas experiencias..

La entropía se redefinió entonces mediante Shannon

en el contexto de la teoría de la información, donde la entropía se identifica con la cantidad de información.

La teoría de la información sustenta la informática.

Entropía e información son el mismo concepto.

Cuanto más complejo es un sistema, mayor es su entropía y más información se necesita para describirlo..

Por ejemplo, la misma cantidad de materia en forma de gas o en forma de cristal no se describe con la misma cantidad de información..

Si el cristal es perfecto (sin huecos, dislocaciones, etc..

Shannon nweb) entonces basta con especificar la posición de un átomo en el cristal y la estructura de la red cristalina para saber dónde se encuentran todos los átomos del cristal.

Por tanto, necesitamos muy poca información para describir el sistema.

En un sistema así la entropía es muy baja.

Sin embargo, en el caso del gas, al no existir enlace entre los átomos aquellos-deben describirse individualmente si queremos conocer el estado exacto del sistema.. La cantidad de información es enorme, vinculada al número 6 de Avogadro..

022 10^23 y la entropía es muy grande.

Entonces se demostró que la definición de Shannon y la de la termodinámica eran equivalentes..

Para completar el cuadro, cabe mencionar que, a raíz de los trabajos de los físicos Bekenstein y Hawking, ha aparecido una nueva forma de entropía en la dinámica de los agujeros negros..

Esta entropía llevó al principio holográfico de T'hooft.

La unidad más pequeña de información física es un área del tamaño de la longitud de Planck al cuadrado..

La longitud de Planck es la longitud física más pequeña por debajo de la cual la noción de longitud pierde su significado. (incertidumbre cuántica) .

En la entropía hay dos términos que tienden a anularse, porque la entropía es el logaritmo de un cociente entre dos conceptos opuestos: La capacidad de percepción del observador y la complejidad del sistema percibido.

  • La complejidad del sistema se expresa por la cantidad de lo que hay que percibir, y ésta es el número de estados posibles para un sistema. (estados equiprobables) .

  • la capacidad de percibir es la resolución de nuestra percepción, la precisión de nuestra observación.

    Su finitud garantiza la indistinguibilidad relativa entre estados, ... no muy diferente.

    Cuanto mayor sea el número de estados indistinguibles, mayor será el desorden; no podremos "resolver" el estado real porque nuestra capacidad de percepción es limitada..

    Cuanto mayor sea nuestra capacidad de percepción, más capaces seremos de discriminar entre los posibles estados del sistema..

    Así tendremos más "información" sobre el sistema y podremos verlo de forma más organizada..

    Por tanto, el orden del sistema depende de quién lo observe.

    Veamos un ejemplo sencillo, una oficina.

    La persona que trabaja en esta mesa tiene un determinado nivel de información sobre el estado de su mesa.

    Su oficina puede modelarse mediante un conjunto de casillas utilizadas para localizar un objeto..

    Los objetos se guardan en cajas.

    Si hay N cajas y N objetos, con un objeto por caja, entonces hay N! (factorial de N) estados posibles del sistema, pudiendo cada objeto ocupar cada una de las casillas.

    Para guardar el primer objeto tenemos N cajas posibles, pero para el segundo N-1 caja, etc..

    Por tanto, el número de opciones para colocar los N objetos en las N cajas es N * N-1 * N-2 * .... * 2 * 1 = N! es decir, el factorial de N.

    Consideremos un estado concreto del almacenamiento en la oficina.

    Supongamos que la persona conoce perfectamente el estado de la oficina, es decir, sabe dónde encontrar cada objeto accediendo directamente a la caja que lo contiene..

    Así que en este caso podemos decir que para esta persona la oficina está totalmente ordenada, el orden es perfecto y por lo tanto el desorden (o entropía) cero.

    Supongamos que otra persona tiene menos conocimiento del estado de la oficina.

    Esta persona sabe "más o menos" dónde está un objeto, pero tendrá que hacer varios intentos para encontrar realmente un objeto determinado..

    En otras palabras, tendrá que gastar algo de energía (degradar la energía) y tiempo para "reconstituir" la información que le falta..

    Si, en dos o tres intentos, puede encontrar un objeto determinado.

    Se puede decir que no tiene un conocimiento perfecto del estado del sistema, o que para ella el sistema está ligeramente desordenado..

    Para esta persona, el desorden o entropía no es cero.

    Supongamos que una tercera persona es completamente ajena a esta oficina y, por tanto, no tiene información sobre su estado..

    Para encontrar un objeto, esta persona tendrá que abrir todas las cajas sucesivamente hasta encontrar el objeto que busca..

    Para esta persona, el desorden o la entropía es máxima.

    La entropía viene dada entonces por el factorial de N, N! que es una buena representación de la complejidad del sistema, es decir, la complejidad de comprender el sistema.

    El factorial se construye como sigue, para la primera elección de una casilla (tirada) hay N posibilidades, en la segunda hay N-1 posibilidad, en la tercera N-2 etc..

    Por tanto, la complejidad del sistema puede representarse mediante el número N *. (N-1) * (N-2) .... 3 * 2 * 1 que es precisamente el factorial de N.

    Y de nuevo en este ejemplo suponemos que el observador es lo suficientemente inteligente como para ser capaz de memorizar (aprovechar su experiencia en el sistema) y no buscar en una caja que ya ha abierto y que no contenía el objeto que buscaba.

    De lo contrario, la complejidad del sistema sería percibida por el observador como mucho mayor..

    Podríamos decir que el sistema completo : sistema de observación estaría en un estado de confusión.

    Ejemplo de entropía en ergonomía informática: Echa un vistazo al panel de control de Windows.

    En-Esto se ve empañado por una importante entropía ergonómica, ya que los iconos se presentan tradicionalmente sin un orden obvio en una superficie rectangular..

    Si no sabes exactamente dónde se encuentra el icono que buscas, pasarás (degradar) una cierta cantidad de energía para encontrarla: más movimiento ocular, más tiempo de mirada (actividad retiniana) más procesos de pensamiento ocular, en definitiva más consumo de ATP(trifosfato de adenosina: la molécula de energía) y potencial iónico.

    Se ha hecho un esfuerzo por clasificar por categorías, pero no resulta del todo convincente, ya que crea un nivel adicional de percepción. (nos alejamos de los detalles) y las categorías representan entonces varios estados posibles del objeto buscado: tenemos indistinguibilidad.

    La ordenación alfabética mediante una letra clave en el nombre del objeto buscado permitiría memorizar mejor la organización y también garantizar su pervivencia en todas las versiones sucesivas. (la memoria hace que el tiempo sea menos destructivo) .

    Pero esto no está disponible incluso después de que el producto haya existido durante más de veinte años..

    Para ser exactos, la entropía está asociada al logaritmo matemático del factorial.

    S = registro (N!Shannon nweb) Esto se debe a la logaritmom_es : "El logaritmo de un producto es la suma de los logaritmos de los dos factores del producto..

    " En términos de fórmulas matemáticas, tenemos: Registro( a * b ) = Registro(a) Registro(b) Si duplicamos el tamaño de un M = N * 2, si tomamos dos oficinas por ejemplo, entonces las entropías se suman aritméticamente (se dice que la entropía física es una propiedad extensiva del sistema) pero la complejidad aumenta factorialmente.

    El logaritmo establece el vínculo entre la noción factorial de la complejidad de un sistema y la entropía, que es una magnitud física extensiva y, por tanto, aditiva..

    Modelo_de_urna_Ehrenfest

    Fórmula_de_Boltzmann

    En el ejemplo de la oficina, podemos ver que en cuanto la persona empiece a abrir cajas, es decir, a interactuar con el sistema, adquirirá información sobre él.-que luego puede memorizar.

    Como resultado, la entropía del sistema cambiará para él, pero habrá tenido que degradar energía en otro lugar para poder reducir esta entropía..

    Se trata, por tanto, de un desplazamiento de entropía, ya que en el sistema global considerado como cerrado, la entropía sólo puede aumentar. (esta es la segunda ley de la termodinámica) .

    En sistemas físicos como los gases, los observadores, que son seres caracterizados por un determinado tipo de órganos perceptivos (seres humanos, por ejemplo) no difieren en su capacidad de percepción.

    Esto es lo que confiere objetividad a las leyes de la termodinámica..

    Esto queda ilustrado por la "paradoja del demonio" de Maxwell..

    Maxwell ideó el siguiente experimento: se colocan dos cajas una al lado de la otra, con posibilidad de comunicación entre ellas.

    Inicialmente, la comunicación está cerrada y una de las cajas está llena de un gas mientras que la otra está vacía..

    Si abrimos la comunicación, las moléculas pasarán y acabarán en la otra caja..

    La termodinámica estadística nos dice que el estado más probable para este sistema es aquel en el que hay aproximadamente el mismo número de moléculas en ambos compartimentos..

    Este es el estado de equilibrio termodinámico.

    Hay que señalar que las moléculas no están sometidas a ninguna fuerza que las haga pasar a la segunda caja..

    Una molécula puede pasar de la primera caja a la segunda con la misma facilidad que al revés, y eso es lo que ocurre todo el tiempo..

    Por eso las moléculas se distribuyen uniformemente entre los dos compartimentos..

    Si en un momento dado hay más moléculas en un compartimento, entonces la probabilidad de que las moléculas vayan a la otra caja también es mayor, de ahí el equilibrio..

    La paradoja del demonio de Maxwell es la idea de que un demonio pequeño y extremadamente rápido tendría la capacidad de cerrar la comunicación y sólo elegiría abrirla cuando hubiera más moléculas entrando en una dirección que en la otra..

    Este demonio crearía una disimetría en la distribución de las moléculas y, por tanto, sería capaz de vaciar una caja para llenar la otra..

    Este demonio es capaz de discriminar el estado exacto del sistema porque opera al nivel microscópico de las moléculas..

    La resolución de tal paradoja es que el demonio de Maxwell no puede existir.

    En el caso de la física termodinámica, efectivamente es así, pero para sistemas mucho menos complejos, es fácil imaginar distintas capacidades de percepción, como en el ejemplo de la oficina..

    Debido a lo anterior, en termodinámica descuidamos el aspecto "capacidad de percibir información" y nos concentramos esencialmente en la cantidad de información..

    Pero esto es sólo una aproximación.

    Esta aproximación ya no es válida si se trata de un sistema que puede ser percibido de forma diferente por los seres humanos..

    Y los sistemas informáticos son un buen ejemplo de ellos..

    La noción de entropía surgió en el contexto específico de un sistema físico que disipa energía para alcanzar un equilibrio termodinámico en el que la entropía es máxima..

    Por ejemplo, un recinto aislado térmicamente del exterior que contenga dos compartimentos de igual tamaño, en contacto, llenos de agua en los que la temperatura del agua sea de 0° para un compartimento y de 100° para el otro evolucionará naturalmente en virtud del segundo principio de la termodinámica hacia una situación en la que la temperatura en los dos depósitos sea de 50°..

    Este último estado es estable y, si no interviene energía externa, el sistema no cambiará. (si consideramos que el sistema es perfectamente estéril desde el punto de vista biológico, porque la vida podría aprovechar la energía térmica contenida en el recinto para organizar la materia) .

    En la década de 1960, Ilya Prigogine, galardonado con el Premio Nobel por su trabajo en 1977, se interesó por lo que le ocurre a un sistema cuando un flujo permanente de energía lo aleja permanentemente de un estado de equilibrio termodinámico..

    Observó entonces que la disipación de energía conducía a la aparición de un orden en la materia, que denominó estructuras disipativas..

    Las estructuras disipativas son estructuras naturales que poseen la propiedad de ser autosuficientes.-organización: "El coche-la organización es un fenómeno de aumento del orden, en sentido contrario al aumento de la entropía (o desorden , símbolo S) ; a costa de disipar la energía necesaria para mantener esta estructura.

    Es una tendencia de los procesos físicos, los organismos vivos y los sistemas sociales a organizarse.-mismo ; también hablamos de auto-montaje.

    Una vez superado un umbral crítico de complejidad, los sistemas pueden cambiar de estado, o pasar de una fase inestable a otra estable..

    " La ley fundamental de estos sistemas puede resumirse en una sencilla ecuación d²S=0 establecido por el Premio Nobel de Física Ilya Prigogine, lo que significa que un sistema que se auto-se organiza creando un mínimo de desorden a medida que aumenta su complejidad.

    Para un organismo vivo, la no-El cumplimiento de esta ley tiene como consecuencia la vuelta al equilibrio termodinámico, que para él es la muerte..

    La longevidad de un sistema informático depende esencialmente de su capacidad para responder a las necesidades y, por tanto, para evolucionar al mismo tiempo que evoluciona el sistema.-ci.

    Si el sistema resulta demasiado costoso de mantener en relación con los nuevos servicios que va a prestar, entonces se cuestiona su existencia y no tarda en ser sustituido por otro más eficaz..

    La ecuación es sencilla: si el coste de mantenimiento está relacionado con el coste de sustitución, optamos por sustituirlo.

    En términos más atómicos, podemos decir que si gastamos tanta energía buscando información como reconstruyéndola, entonces hemos perdido esa información..

    A medida que crecen los sistemas informáticos, si no respetan la ley de creación mínima de entropía (simplificar la redundancia) a medida que aumenta su complejidad, se hacen más difíciles de mantener y acaban desapareciendo, lo que equivale a volver al equilibrio termodinámico (la estructura disipativa desaparece) .

    2.Entropía informática

    Los sistemas informáticos son un ejemplo de este tipo de estructuras : son disipativas, ya que la energía (y, por tanto, un coste financiero) se utiliza para establecerlos y mantenerlos.

    Si observamos la evolución de la informática, veremos que la tendencia permanente es reducir la redundancia.

    Los avances del sector informático en este sentido incluyen:

    2.1.Reducir la redundancia informática

  • control y estructura de datos en L3G (lenguas de tercera generación)
  • bibliotecas de módulos de funciones reutilizables
  • lenguajes objeto: herencia, genericidad, abstracción.

  • espacios de nombres, aislamiento para organizar la redundancia (contexte) .

  • evolución de los sistemas de gestión de bases de datos jerárquicas, red al modelo Codd de bases de datos relacionales y evolución más reciente de las bases de datos de objetos.

  • menos fundamental pero muy útil: preprocesadores (macro-definición, macro-función, incluyen) , L4G (lenguaje especializado para objetos de alto nivel, menos útil debido al enfoque por objetos) , configuración de la aplicación (que es una forma de genericidad) .

  • El hipertexto es en sí mismo una forma de reducir la redundancia en un texto, porque al al enriquecer el texto con enlaces, reducimos la tendencia a la repetición.

    2.2.Ejemplo de entropía ergonómica en informática

    Ejemplo de entropía en ergonomía informática: Echa un vistazo al panel de control de Windows.

    En-Esto se ve empañado por una importante entropía ergonómica, ya que los iconos se presentan tradicionalmente sin un orden determinado en una superficie rectangular..

    Si no sabes exactamente dónde se encuentra el icono que buscas, pasarás (degradar) una cierta cantidad de energía para encontrarla: más movimiento ocular, más tiempo de mirada (actividad retiniana) más procesos de pensamiento ocular, en definitiva más consumo de ATP (Trifosfato de adenosina) y potencial iónico.

    Se ha hecho un esfuerzo por clasificar por categorías, pero no es concluyente, ya que crea un nivel adicional de percepción. (nos alejamos de los detalles) y las categorías representan entonces varios estados posibles del objeto buscado: tenemos indistinguibilidad.

    Existe una ordenación alfabética basada en la primera letra de la etiqueta del icono, pero la primera letra no se ordena alfabéticamente.-esto no es necesariamente representativo de la función que buscamos y puede ser redundante (por ejemplo "Centre de ...") .

    El acceso al Panel de control de Windows también cambia-según la versión ! Si cambia de versión o trabaja con varias versiones (su ordenador personal, los servidores Windows a los que se conecte ...ejemplo de entropía en ergonomía informática) es disruptiva por naturaleza: confusión y pérdida de tiempo.

  • La longevidad de un sistema informático depende esencialmente de su capacidad para responder a las necesidades y, por tanto, para evolucionar al mismo tiempo que evoluciona el sistema.-ci.

  • Si el sistema resulta demasiado costoso de mantener en relación con los nuevos servicios que va a prestar, entonces se cuestiona su existencia y no tarda en ser sustituido por otro más eficaz..

  • la ecuación es sencilla: si el coste de mantenimiento está relacionado con el coste de sustitución, optamos por sustituirlo.

  • En términos más atómicos, podemos decir que si gastamos tanta energía buscando información como reconstruyéndola, entonces hemos perdido la información..

  • cuando los sistemas informáticos crecen, si no respetan la ley de creación de entropía mínima (simplificar la redundancia) a medida que aumenta su complejidad, se hacen más difíciles de mantener y acaban desapareciendo, lo que equivale a volver al equilibrio termodinámico (la estructura disipativa desaparece) .