entropie entropie_txh_pt_som

Entropia txh

voltar para a página inicial

versão disponível em : en it ru zh es ja de nl fr

data de criação : 20240129- data de actualiza&occedil&atlideo: 20230402- data de gera&ccdelão : 20240908_053307

1.Entropie

A entropia caracteriza o aumento da complexidade de um sistema, ou seja, a quantidade de informação necessária para o descrever (resolver).

Inicialmente, consideramos um sistema fechado, ou seja, um sistema que não troca energia (mecânica, térmica, radiação)ou material com o seu ambiente.

A entropia está ligada à noção de desordem : quanto mais informação for necessária para descrever um sistema, mais desordenado ele nos poderá parecer.

Na realidade, a entropia é um conceito físico ligado à medição precisa da ordem ou desordem. A entropia também mede a capacidade de evoluir para um sistema fechado com uma certa quantidade de energia utilizável (porque tem uma baixa entropia).

Se tiver uma equipa em que os cavalos vão em todas as direcções, não pode avançar porque não há ordem.

Se disciplinares os teus cavalos, então a energia encomendada deles torna-se utilizável para impulsionar a equipa.

Este exemplo mostra que a energia (a força que os cavalos podem reunir para fazer um determinado trabalho) não é suficiente e que existe também uma noção de ordem que é muito importante. É o conceito de entropia que está ligado a esta ordem ou desordem.

A energia é o que permite evolução, mudança. Se o depósito de combustível de um carro estiver vazio, já não se pode mover, a menos que utilize a energia potencial gravitacional que possui ou a energia cinética que acumulou numa encosta e, se tiver sorte, permitir-lhe-á chegar à próxima bomba de gasolina.

Se a entropia for baixa (sistema ordenado) o sistema pode evoluir.

À medida que evolui, a entropia aumenta, ou seja, a energia degrada-se (diminui a sua ordem) e o sistema é menos capaz de evoluir.

Por exemplo, os cavalos irão consumir a energia química contida nos alimentos que comeram utilizando oxigénio do ar através da respiração para produzir moléculas ATPAdénosine_triphosphate que é o combustível da fisiologia. Ao puxarem a carruagem, consumirão este combustível para fazer os músculos trabalhar (o motor).
Quando a energia de todos os alimentos tiver sido consumida, juntamente com quaisquer reservas armazenadas nos seus músculos, fígado e gordura, eles estarão cansados, terão de descansar e se não voltarem a comer (sistema fechado) não poderão continuar a puxar a carruagem durante muito tempo, se não até que a mesma se esgote (reservas energéticas).

Consumir energia é de facto aumentar a entropia porque nunca consumimos energia por causa da lei da conservação de energia que é o primeiro princípio da termodinâmica: num sistema fechado, a energia é constante.

Quando a energia é dissipada ou degradada, a sua entropia, e portanto a sua desordem, aumenta (este é o segundo princípio da termodinâmica).

No exemplo dos cavalos, o crud de cavalo resultante da digestão é menos ordenado do que as gramíneas de onde provém.
É a energia do sol fraco e entrópico que, através da fotossíntese, permite que as gramíneas voltem a crescer, utilizando a matéria orgânica da couve.

A entropia é um conceito inicialmente introduzido na termodinâmica macroscópica por Clausius.
Rudolf_Clausius e cujo profundo significado em termos de informação foi clarificado muito mais tarde em termos de mecânica estatística por Boltzmann.

O segundo princípio da termodinâmica afirma que, num sistema fechado, a entropia só pode aumentar ou, no limite, permanecer constante.
Ordem e desordem são de importância fundamental na física que lida com as leis de funcionamento sistemas físicos compostos por um número muito grande de entidades (um gás formado por todas as suas moléculas, por exemplo). Esta física é chamadaThermodynamique.

Grandes números trazem à tona novas propriedades, novos conceitos, novas realidades e experiências.

A entropia foi então redefinida por Shannon no âmbito da teoria da informação onde a entropia é identificada com a quantidade de informação.

( A teoria da informação é a base da informática, pelo que a entropia deve desempenhar um papel importante neste campo. . entropie et informatique  .Shannon nweb)

1.1.Entropia e informação

Entropia e informação são conceitos fortemente relacionados e podem ser considerados como idênticos em mécanique_statistique_pt.

De facto, quanto mais complexo é um sistema, maior é a sua entropia e quanto mais informação for necessária para a descrever.

Por exemplo, a mesma quantidade de matéria em forma de gás ou em forma de cristal não são descritos com a mesma quantidade de informação. Se o cristal for perfeito (sem lacunas, deslocamentos, etc..entropia e informação) então é suficiente especificar a posição de um átomo do cristal e da estrutura da malha de cristal para descobrir onde todos os os átomos do cristal. Muito pouca informação é, portanto, necessária para descrever o sistema.

Num tal sistema, a entropia é muito baixa.

Por outro lado, para o gás, como não há ligação entre os átomos, eles devem ser descrito individualmente se o estado exacto do sistema deve ser conhecido.

A quantidade de informação é enorme em relação ao Avogadro número 6.022 10^23 e a entropia é muito grande.

Foi então demonstrado que a definição de Shannon e a definição termodinâmica eram equivalentes.

Para completar o quadro, apenas como observação, deve ser mencionado que Na sequência do trabalho dos físicos Bekenstein e Hawking, surgiu uma nova forma de entropia na dinâmica dos buracos negros.
Esta entropia levou ao princípio holográfico de T'hooft.

Este princípio considera que a menor unidade de informação física é uma área do tamanho do comprimento do Planck ao quadrado (Superfície Planck).

O comprimento Planck sendo o menor comprimento físico abaixo do qual a noção de comprimento perde o seu significado (incerteza quântica). Poder-se-ia assim dizer que o comprimento do Planck é o comprimento arquetípico e que dois pontos imediatamente adjacentes no espaço físico são separados por este comprimento. Não pode haver de pontos do espaço físico entre estes dois pontos. É claro que é possível desenhar comprimentos mais curtos do que o comprimento Planck mas estes já não são comprimentos físicos, são comprimentos abstractos, matemáticos.

1.2.A entropia está relacionada com o observador

Na fórmula matemática da entropia há dois termos que tendem a anular-se mutuamente, pelo que podemos dizer que a entropia é a logarithme_pt uma relação entre duas noções opostas:

Estes dois termos representam, por um lado, a capacidade de percepção do observador e, por outro, a complexidade do sistema percebido.

  • A complexidade do sistema reflecte-se na quantidade do que há para perceber e este é o número de estados possíveis para um sistema (estados equipaveis: o sistema pode estar em qualquer um destes estados).

  • a capacidade de perceber é a resolução da nossa percepção, o precisão da nossa observação. A sua finitude assegura um parente indistinguibilidade entre estados, ... não muito diferente.

    Quanto maior for o número de estados indistinguíveis, maior é a desordem, nós não será capaz de "resolver" o estado real, uma vez que a nossa capacidade de percepção é limitada.

    Quanto maior for a nossa capacidade de percepção, mais podemos discriminar os possíveis estados do sistema. Teremos, portanto, mais informações sobre o e vamos considerá-lo mais organizado.

    O ponto importante é que o observador deve ser tido em conta.

    A ordem do sistema depende, portanto, do observador.

    Em física consideramos sempre a posição do observador em relação ao fenómeno observado.

    Na mecânica, esta posição é definida pela distinção entre o quadro de referência do observador e o próprio sistema de referência e a sua relação.

    1.2.1.Termodinâmica estatística ou mécanique_statistique_pt

    Na termodinâmica estatística, a posição do observador não é uma posição no espaço, mas sim uma posição nas escalas de tamanho. O observador humano posicionado à escala do metro enquanto para um gás, que é o objecto principal da termodinâmica estatística, a escala do sistema é composto por átomos cuja estrutura quântica é, portanto, à escala atómica ou seja, logo abaixo da nanoescala (10^-10 m , 10 potência menos 10 metros)

    Consideremos um exemplo simples que está próximo em escala do observador humano ou entre o centímetro e o decímetro: objectos sobre uma secretária. A pessoa que trabalha nesta secretária tem um determinado nível de informação sobre o estado da sua secretária.

    O seu escritório pode ser modelado por um conjunto de caixas que permitem localização de um objecto. Os objectos são guardados em caixas. Se houver N caixas e N objectos com um objecto por caixa, depois há N! (factorial de N) possíveis estados para o sistema, sendo cada objecto capaz de ocupar cada uma das caixas.

    De facto, para armazenar o primeiro objecto temos N caixas possíveis mas para as segundas caixas N-1, etc.. Assim, o número de escolhas dos N Objectos nas Caixas N é N * N-1 * N-2 * .... * 2 * 1 = N! ou seja, o factorial de N.
    Consideremos um estado particular de armazenamento do escritório. Suponha que o a pessoa está plenamente consciente do estado do escritório, ou seja, ele ou ela sabe onde encontrar cada objecto através do acesso directo à caixa que o contém.
    Neste caso, podemos dizer que para esta pessoa o escritório é totalmente arrumado, a ordem é perfeita e a desordem também. (ou entropia) zero.

    Suponha que outra pessoa tem menos conhecimentos sobre o estado do escritório. Esta pessoa sabe "sobre ^ onde um objecto está mas terá de fazer várias tentativas para encontrar realmente um determinado objecto.
    Ou seja, terá de gastar alguma energia (degradar a energia) e tempo para "reconstituir" a informação que lhe falta. Se em duas ou três tentativas ela consegue encontrar um determinado objecto. Pode dizer-se que não tem um conhecimento perfeito do estado do sistema ou que o sistema está ligeiramente desordenado para ela. Para esta pessoa, a desordem ou entropia não é zero.

    Vamos assumir que uma terceira pessoa é um completo estranho a este escritório e, portanto, não sem qualquer informação sobre o seu estado. Para encontrar um objecto isto a pessoa terá de abrir todas as caixas sucessivamente até ter encontrar o objecto que procura. Para esta desordem ou entropia de pessoa é máximo. A entropia é então dada pelo fatorial de N, N! que é uma boa representação da complexidade do sistema, ou seja a complexidade de compreensão do sistema.
    O factorial é construído da seguinte forma, na primeira escolha de uma caixa (sorteio) há N possibilidades, no segundo há N-1 possibilidades, no terceiro N-2 etc. Assim, a complexidade do sistema pode ser bem representada pelo número N * (N-1) * (N-2) .... 3 * 2 * 1 que é precisamente o fatorial de N.

    E mais uma vez neste exemplo assume-se que o observador é suficientemente inteligente para ser capaz de memorizar (capitalizar sobre a sua experiência do sistema) e não olhar numa caixa que ele já tenha aberto e que não contenha não a finalidade pretendida. Caso contrário, a complexidade do sistema seria percebida por o observador muito maior. Poder-se-ia dizer que o sistema completar : sistema estaria num estado de confusão.

    Para ser exacto, a entropia está associada ao logaritmo matemático do factorial.

    S = log (N!termodinâmica estatística)

    Isto é devido à propriedade do logarithme_pt :

    "O logaritmo de um produto é a soma dos logaritmos dos dois factores do produto."

    Em termos de fórmulas matemáticas, temos:

    Registo( a * b ) = Registo(a) Registo(b)

    Se duplicarmos o tamanho de um M = N * 2, tomamos dois escritórios, por exemplo então as entropia acrescentam linearmente mas a complexidade aumenta exponencialmente.

    Modèle_des_urnes_d_Ehrenfest Formule_de_Boltzmann

    No exemplo do escritório, pode-se ver que assim que a pessoa começa a abrir caixas, ou seja, para interagir com o sistema, irá adquirir informações sobre que pode então memorizar. Consequentemente, a entropia do sistema evoluirá para ela, mas terá de degradar a energia noutros locais para a fornecer diminuir esta entropia. Portanto, é uma mudança de entropia porque no sistema global considerada fechada, a entropia só pode aumentar (é a segunda lei do termodinâmica).

    Em sistemas físicos como os gases, os observadores que são seres caracterizados por um determinado tipo de órgãos perceptuais (seres seres humanos, por exemplo) não diferem na sua capacidade de percepção.
    Isto é o que dá às leis da termodinâmica a sua objectividade.
    Isto é ilustrado pelo paradoxo do . démon de Maxwell  .

    . Maxwell  imaginou a seguinte experiência: duas caixas são colocadas uma contra a outra o outro com possível comunicação entre eles. Inicialmente a a comunicação é fechada e uma das caixas é preenchida com um gás enquanto o outro está vazio. Se abrirmos a comunicação, as moléculas passarão por e se encontram na outra caixa. A termodinâmica estatística diz-nos que o estado mais provável para este sistema é aquele em que existem aproximadamente o mesmo número de moléculas em ambos os compartimentos. Este é o estado equilíbrio termodinâmico. Deve salientar-se que as moléculas não estão sujeitas a qualquer força que as faça passar na segunda caixa. Uma molécula também pode facilmente passar da primeira caixa para a segunda do que o contrário, e isto é o que acontece em todos os momentos.

    Isto é o que torna as moléculas uniformemente distribuídas entre os dois compartimentos. Se em algum momento houver mais moléculas num compartimento, então a probabilidade de as moléculas entrarem a outra caixa também se torna maior, daí o equilíbrio.

    O paradoxo demoníaco de Maxwell é a ideia de que um demónio extremamente pequeno teria a capacidade de desligar a comunicação e optaria por não A única forma de a abrir é quando houver mais moléculas para a atravessar. numa direcção do que na outra. Este demónio criaria assim uma assimetria na distribuição moléculas e, portanto, seria capaz de esvaziar uma caixa para preencher a outra.

    Este daemon é capaz de discriminar o estado exacto do sistema porque opera no moléculas microscópicas. A resolução de um tal paradoxo é que o demónio O princípio de Maxwell não pode existir. No caso da física termodinâmica, é o caso, mas é possível imaginar sistemas que são muito mais menos complexas, diferentes capacidades perceptivas como no exemplo do escritório.

    Por causa do acima exposto, na termodinâmica negligenciamos o aspecto "capacidade da percepção da informação" e o foco principal está em sobre a "quantidade de informação". Mas é uma aproximação.

    Esta aproximação já não é válida se estivermos a lidar com um sistema que podem ser vistos de forma diferente pelos seres humanos.

    A noção de entropia surgiu em torno do contexto particular de um sistema físico que dissipa a energia para alcançar o equilíbrio termodinâmica onde a entropia está no seu máximo.

    Por exemplo, um recinto isolado termicamente do exterior contendo dois compartimentos de igual tamanho, em contacto, preenchidos com água onde a temperatura da água é de 0° para um compartimento e 100° para o outro evoluirá naturalmente de acordo com o segundo princípio da termodinâmica a uma situação em que a temperatura em ambos os tanques é de 50.

    A energia térmica é a energia mecânica das moléculas. As moléculas trocam energia através dos choques na parede que separam os dois tanques com o mesmo mecanismo que anteriormente e por isso chegamos à uniformidade macroscópica.

    O último estado é estável e se não estiver envolvida energia externa.
    Não haverá alterações no sistema (se considerarmos o sistema perfeitamente estéril de um ponto de vista biológico porque a vida poderia explorar a energia térmica contida no recinto para organizar o material). Nos anos 60 Ilya Prigogine, que em 1977 foi galardoado com o Prémio Nobel para este trabalho, está interessado no que acontece a um sistema quando é mantido permanentemente afastado do estado estacionário termodinâmica por um fluxo permanente de energia.

    Ele observa então que a dissipação de energia provoca o aparecimento de ordem na matéria, que ele chamou de estruturas dissipativas.

    As estruturas dissipativas são estruturas naturais que possuem a propriedade da auto-organização:

    "A auto-organização é um fenómeno de ordem crescente, e que vai na direcção oposta de o aumento da entropia (ou desordem , símbolo S) ; ao custo da dissipação de energia que será utilizada para manter esta estrutura.

    Esta é uma tendência, tanto em processos físicos ou organismos vivos, como no sistemas sociais, para se organizarem ; falamos também de auto-montagem.

    Uma vez ultrapassado um limiar crítico de complexidade, os sistemas podem mudar de estado, ou passar de um fase instável a uma fase estável. "

    A lei fundamental de tais sistemas pode ser resumida numa equação simples d²S=0 instituído pelo Prémio Nobel da Física Ilya Prigogine, o que significa que um sistema auto-organizador evolui através da criação de um mínimo de desordem à medida que o seu complexidade crescente.

    Para um organismo vivo, o não cumprimento desta lei resulta num regresso ao equilíbrio termodinâmica, que para ele é a morte.

    1.3.. analyse perception et entropie : estudo da modelação da percepção

    _ Nos sistemas informáticos, o nível de complexidade é suficientemente baixo para que a percepção do estado do sistema seja diferente para diferentes observadores,

    Voltemos então ao nosso exemplo do escritório modelado com as nossas três pessoas.

  • para a primeira pessoa uma observação, ou interacção com o sistema resulta na abertura directa da caixa que contém o objecto procurado. A probabilidade de encontrar o objecto desejado é total, i.e. 1.
    A resolução com que a pessoa resolve o estado do sistema é tão boa quanto possível, ou seja, a pessoa é capaz de discernir com certeza a caixa que procura.

    A resolução pode ser representada pela relação 1 / N . 1 para o número de tentativas necessárias para encontrar o objecto de pesquisa, ou seja, para resolver o estado do sistema.
    N para complexidade do sistema.

    A exactidão pode ser representada como o inverso da resolução. A precisão aqui será portanto N / 1 = N .

  • para a segunda pessoa que tem de abrir dizer n=5 caixas em média para encontrar o objecto, a resolução será 5 / N e a precisão N / 5.
  • A precisão pode ser definida como a relação entre a complexidade do próprio sistema que é N e o complexidade do sistema tal como vista pelo observador, aqui n=5, uma vez que precisa de fazer 5 tentativas (medidas) para reduzir o estado do sistema (que o estado real do sistema e a simulação mental do estado do sistema são idênticos).

  • A exactidão parece ser a capacidade de perceber.
  • cada vez maiores: fazer 5 tentativas para encontrar um objecto em cada seis não é muito eficiente (baixa probabilidade) para 1 milhão de objectos é extremamente eficaz (probabilidade próxima de 1).

  • a probabilidade de encontrar o objecto é o inverso do número médio de tentativas para encontrar o objecto.
    1 no caso da pessoa que conhece completamente o sistema.
    1 / 5 no caso da segunda pessoa 1 / N no caso de a pessoa desconhecer completamente o estado do sistema.

    nº de caixasresolução(precisão(nbr/5)   probalilidade (nbr-5/nbr) 
    6 1.2   0.166667
    7 1.4   0.285714
    8 1.6   0.375000
    9 1.8   0.444444
    10 2.0   0.500000
    15 3.0   0.666667
    20 4.0   0.750000
    30 6.0   0.833333
    50 10.0   0.900000
    100 20.0   0.950000
    1000 200.0   0.995000
    10000 2000.0   0.999500
    1000000 200000.0   0.999995

    Este quadro ilustra que quanto maior for a precisão, maior será a a probabilidade de encontrar o objecto é elevada.

    a fórmula mais geral para definir o conhecimento (ordem ou desordem) que temos sobre um sistema é:

    Informação = Número de estados / Exactidão

    A entropia é uma logarithme_pt ( Que eu ainda não descobri

    Entropie = Registo( Desordem ) = Registo(Número de estados)

  • Registo (Precisão)

    Pode-se ver que com um equilíbrio perfeito entre a capacidade de percepção e o que nos damos a perceber, a entropia é zero. _

    1.4.Entropie d un texte

  • investigação da entropia textual (conferência de Raphael_Bousso_pt The_World_as_a_Hologram_pt_nweb_ptentropie d un texte)
  • definir a entropia textual a partir do factor estatístico de entropia Boltzmann
  • analogia text-link vs. ligação molécula-química (entropia de um cristal vs gás) gás= texto sem ligação cristal = texto com link

    1.5.Neguentropie

    1.5.1.Efeito estéreo

    O efeito estéreo na química é o facto de que o apinhamento espacial de uma molécula pode impedir uma reacção química previsível através do princípio de exclusão Pauli porque as moléculas não conseguem aproximar-se o suficiente umas das outras.
    para responder.

    1.5.2.Efeito esterico neguentropia

    o efeito estético discriminatório em relação ao hidrogénio e outros compostos químicos de maior dimensão poderia ser utilizado para separar o hidrogénio dos seus compostos.
    Um dispositivo de nanoescala poderia ser utilizado para isto.
    A percolação de um composto químico através de uma tal estrutura nanoescala poderia transformar a energia de pressão macroscópica em energia química microscópico. A agitação molecular seria usada da mesma forma que o tremor que é aplicada a uma peneira para passar os elementos mais finos através da peneira.

    Os átomos de hidrogénio poderiam então recombinar por ligação covalente para formar hidrogénio gasoso.