Entropia txh
versão disponÃÂvel em : en it ru zh es ja de nl fr
data de criação : 20240129- data de actualiza&occedil&atlideo: 20230402- data de gera&ccdelão : 20240908_053307
A entropia caracteriza o aumento da complexidade de um sistema, ou seja, a quantidade de informação necessária para o descrever (resolver).
Inicialmente, consideramos um sistema fechado, ou seja, um sistema que não troca energia (mecânica, térmica, radiação)ou material com o seu ambiente.
A entropia está ligada à noção de desordem : quanto mais informação for necessária para descrever um sistema, mais desordenado ele nos poderá parecer.
Na realidade, a entropia é um conceito fÃsico ligado à medição precisa da ordem ou desordem.
A entropia também mede a capacidade de evoluir para um sistema fechado com uma certa quantidade de energia utilizável (porque tem uma baixa entropia).
Se tiver uma equipa em que os cavalos vão em todas as direcções, não pode avançar porque não há ordem.
Se disciplinares os teus cavalos, então a energia encomendada deles torna-se utilizável para impulsionar a equipa.
Este exemplo mostra que a energia (a força que os cavalos podem reunir para fazer um determinado trabalho) não é suficiente
e que existe também uma noção de ordem que é muito importante. É o conceito de entropia que está ligado a esta ordem ou desordem.
A energia é o que permite evolução, mudança. Se o depósito de combustÃvel de um carro estiver vazio, já não se pode mover,
a menos que utilize a energia potencial gravitacional que possui ou a energia cinética que acumulou numa encosta
e, se tiver sorte, permitir-lhe-á chegar à próxima bomba de gasolina.
Se a entropia for baixa (sistema ordenado) o sistema pode evoluir.
À medida que evolui, a entropia aumenta, ou seja, a energia degrada-se (diminui a sua ordem) e o sistema é menos capaz de evoluir.
Por exemplo, os cavalos irão consumir a energia quÃmica contida nos alimentos que comeram
utilizando oxigénio do ar através da respiração para produzir moléculas ATPAdénosine_triphosphate
que é o combustÃvel da fisiologia. Ao puxarem a carruagem, consumirão este combustÃvel para fazer os músculos trabalhar (o motor).
Quando a energia de todos os alimentos tiver sido consumida, juntamente com quaisquer reservas armazenadas nos seus músculos, fÃgado e gordura, eles estarão cansados,
terão de descansar e se não voltarem a comer (sistema fechado) não poderão continuar a puxar a carruagem durante muito tempo, se não até que a mesma se esgote
(reservas energéticas).
Consumir energia é de facto aumentar a entropia porque nunca consumimos energia por causa da lei da conservação de energia
que é o primeiro princÃpio da termodinâmica: num sistema fechado, a energia é constante.
Quando a energia é dissipada ou degradada, a sua entropia, e portanto a sua desordem, aumenta (este é o segundo princÃpio da termodinâmica).
No exemplo dos cavalos, o crud de cavalo resultante da digestão é menos ordenado do que as gramÃneas de onde provém.
É a energia do sol fraco e entrópico que, através da fotossÃntese, permite que as gramÃneas voltem a crescer, utilizando a matéria orgânica da couve.
A entropia é um conceito inicialmente introduzido na termodinâmica macroscópica por Clausius.
Rudolf_Clausius
e cujo profundo significado em termos de informação foi clarificado muito mais tarde em termos de mecânica estatÃstica por Boltzmann.
O segundo princÃpio da termodinâmica afirma que, num sistema fechado, a entropia só pode aumentar ou, no limite, permanecer constante.
Ordem e desordem são de importância fundamental na fÃsica que lida com as leis de funcionamento
sistemas fÃsicos compostos por um número muito grande de entidades (um gás formado por todas as suas moléculas, por exemplo).
Esta fÃsica é chamadaThermodynamique.
Grandes números trazem à tona novas propriedades, novos conceitos,
novas realidades e experiências.
A entropia foi então redefinida por Shannon no âmbito da teoria da informação
onde a entropia é identificada com a quantidade de informação.
( A teoria da informação é a base da informática, pelo que a entropia deve desempenhar um papel importante neste campo. . entropie et informatique .Shannon nweb)
Entropia e informação são conceitos fortemente relacionados e podem ser considerados como idênticos em mécanique_statistique_pt.
De facto, quanto mais complexo é um sistema, maior é a sua entropia
e quanto mais informação for necessária para a descrever.
Por exemplo, a mesma quantidade de matéria em forma de gás ou em forma de cristal
não são descritos com a mesma quantidade de informação. Se o cristal for perfeito
(sem lacunas, deslocamentos, etc..entropia e informação) então é suficiente especificar a posição de um átomo
do cristal e da estrutura da malha de cristal para descobrir onde todos os
os átomos do cristal. Muito pouca informação é, portanto, necessária para descrever o sistema.
Num tal sistema, a entropia é muito baixa.
Por outro lado, para o gás, como não há ligação entre os átomos, eles devem
ser descrito individualmente se o estado exacto do sistema deve ser conhecido.
A quantidade de informação é enorme em relação ao Avogadro número 6.022 10^23 e a entropia é muito grande.
Foi então demonstrado que a definição de Shannon e a definição termodinâmica eram equivalentes.
Para completar o quadro, apenas como observação, deve ser mencionado que
Na sequência do trabalho dos fÃsicos Bekenstein e Hawking, surgiu uma nova forma de entropia na dinâmica dos buracos negros.
Esta entropia levou ao princÃpio holográfico de T'hooft.
Este princÃpio considera que a menor unidade de informação fÃsica é uma área do tamanho do comprimento do Planck ao quadrado (SuperfÃcie Planck).
O comprimento Planck sendo o menor comprimento fÃsico abaixo do qual a noção de comprimento perde o seu significado
(incerteza quântica). Poder-se-ia assim dizer que o comprimento do Planck é o comprimento arquetÃpico e
que dois pontos imediatamente adjacentes no espaço fÃsico são separados por este comprimento. Não pode haver
de pontos do espaço fÃsico entre estes dois pontos. É claro que é possÃvel desenhar comprimentos mais curtos do que o comprimento Planck
mas estes já não são comprimentos fÃsicos, são comprimentos abstractos, matemáticos.
1.2.A entropia está relacionada com o observador
Na fórmula matemática da entropia há dois termos que tendem a anular-se mutuamente, pelo que podemos dizer que a entropia é a logarithme_pt uma relação entre duas noções opostas:
Estes dois termos representam, por um lado, a capacidade de percepção do observador e, por outro, a complexidade do sistema percebido.
Quanto maior for o número de estados indistinguÃveis, maior é a desordem, nós não será capaz de "resolver" o estado real, uma vez que a nossa capacidade de percepção é limitada.
Quanto maior for a nossa capacidade de percepção, mais podemos discriminar
os possÃveis estados do sistema. Teremos, portanto, mais informações sobre o
e vamos considerá-lo mais organizado.
O ponto importante é que o observador deve ser tido em conta.
A ordem do sistema depende, portanto, do observador.
Em fÃsica consideramos sempre a posição do observador em relação ao fenómeno observado.
Na mecânica, esta posição é definida pela distinção entre o quadro de referência do observador
e o próprio sistema de referência e a sua relação.
1.2.1.Termodinâmica estatÃstica ou mécanique_statistique_pt
Na termodinâmica estatÃstica, a posição do observador não é uma posição no espaço, mas sim uma posição nas escalas de tamanho. O observador humano posicionado à escala do metro enquanto para um gás, que é o objecto principal da termodinâmica estatÃstica, a escala do sistema é composto por átomos cuja estrutura quântica é, portanto, à escala atómica ou seja, logo abaixo da nanoescala (10^-10 m , 10 potência menos 10 metros)
Consideremos um exemplo simples que está próximo em escala do observador humano
ou entre o centÃmetro e o decÃmetro: objectos sobre uma secretária.
A pessoa que trabalha nesta secretária tem um determinado nÃvel de informação sobre o estado da sua secretária.
O seu escritório pode ser modelado por um conjunto de caixas que permitem
localização de um objecto. Os objectos são guardados em caixas. Se houver N caixas
e N objectos com um objecto por caixa, depois há N! (factorial de N) possÃveis estados para
o sistema, sendo cada objecto capaz de ocupar cada uma das caixas.
De facto, para armazenar o primeiro objecto temos N caixas possÃveis
mas para as segundas caixas N-1, etc.. Assim, o número de escolhas
dos N Objectos nas Caixas N é
N * N-1 * N-2 * .... * 2 * 1 = N! ou seja, o factorial de N.
Consideremos um estado particular de armazenamento do escritório. Suponha que o
a pessoa está plenamente consciente do estado do escritório, ou seja, ele ou ela
sabe onde encontrar cada objecto através do acesso directo à caixa que o contém.
Neste caso, podemos dizer que para esta pessoa o escritório é
totalmente arrumado, a ordem é perfeita e a desordem também. (ou entropia) zero.
Suponha que outra pessoa tem menos conhecimentos sobre o estado do
escritório. Esta pessoa sabe "sobre ^ onde um objecto está mas terá de
fazer várias tentativas para encontrar realmente um determinado objecto.
Ou seja, terá de gastar alguma energia (degradar a energia)
e tempo para "reconstituir" a informação que lhe falta.
Se em duas ou três tentativas ela consegue encontrar um determinado objecto.
Pode dizer-se que não tem um conhecimento perfeito do estado do sistema
ou que o sistema está ligeiramente desordenado para ela.
Para esta pessoa, a desordem ou entropia não é zero.
Vamos assumir que uma terceira pessoa é um completo estranho a este escritório e, portanto, não
sem qualquer informação sobre o seu estado. Para encontrar um objecto isto
a pessoa terá de abrir todas as caixas sucessivamente até ter
encontrar o objecto que procura. Para esta desordem ou entropia de pessoa é
máximo. A entropia é então dada pelo fatorial de N, N! que é
uma boa representação da complexidade do sistema, ou seja
a complexidade de compreensão do sistema.
O factorial é construÃdo da seguinte forma, na primeira escolha de uma caixa (sorteio)
há N possibilidades, no segundo há N-1 possibilidades, no terceiro N-2
etc. Assim, a complexidade do sistema pode ser bem representada pelo número
N * (N-1) * (N-2) .... 3 * 2 * 1 que é precisamente o fatorial de N.
E mais uma vez neste exemplo assume-se que o observador é suficientemente
inteligente para ser capaz de memorizar (capitalizar sobre a sua experiência do sistema)
e não olhar numa caixa que ele já tenha aberto e que não contenha
não a finalidade pretendida. Caso contrário, a complexidade do sistema seria percebida por
o observador muito maior. Poder-se-ia dizer que o sistema
completar : sistema estaria num estado de confusão.
Para ser exacto, a entropia está associada ao logaritmo matemático do factorial.
S = log (N!termodinâmica estatÃstica)
Isto é devido à propriedade do logarithme_pt :
"O logaritmo de um produto é a soma dos logaritmos dos dois factores do produto."
Em termos de fórmulas matemáticas, temos:
Registo( a * b ) = Registo(a) Registo(b)
Se duplicarmos o tamanho de um M = N * 2, tomamos dois escritórios, por exemplo
então as entropia acrescentam linearmente mas a complexidade aumenta exponencialmente.
Modèle_des_urnes_d_Ehrenfest Formule_de_Boltzmann
No exemplo do escritório, pode-se ver que assim que a pessoa começa a abrir caixas,
ou seja, para interagir com o sistema, irá adquirir informações sobre
que pode então memorizar. Consequentemente, a entropia do sistema
evoluirá para ela, mas terá de degradar a energia noutros locais para a fornecer
diminuir esta entropia. Portanto, é uma mudança de entropia porque no sistema global
considerada fechada, a entropia só pode aumentar (é a segunda lei do
termodinâmica).
Em sistemas fÃsicos como os gases, os observadores que são
seres caracterizados por um determinado tipo de órgãos perceptuais (seres
seres humanos, por exemplo) não diferem na sua capacidade de percepção.
Isto é o que dá às leis da termodinâmica a sua objectividade.
Isto é ilustrado pelo paradoxo do . démon de Maxwell
.
. Maxwell imaginou a seguinte experiência: duas caixas são colocadas uma contra a outra o outro com possÃvel comunicação entre eles. Inicialmente a a comunicação é fechada e uma das caixas é preenchida com um gás enquanto o outro está vazio. Se abrirmos a comunicação, as moléculas passarão por e se encontram na outra caixa. A termodinâmica estatÃstica diz-nos que o estado mais provável para este sistema é aquele em que existem aproximadamente o mesmo número de moléculas em ambos os compartimentos. Este é o estado equilÃbrio termodinâmico. Deve salientar-se que as moléculas não estão sujeitas a qualquer força que as faça passar na segunda caixa. Uma molécula também pode facilmente passar da primeira caixa para a segunda do que o contrário, e isto é o que acontece em todos os momentos.
Isto é o que torna as moléculas uniformemente distribuÃdas
entre os dois compartimentos. Se em algum momento houver mais moléculas
num compartimento, então a probabilidade de as moléculas entrarem
a outra caixa também se torna maior, daà o equilÃbrio.
O paradoxo demonÃaco de Maxwell é a ideia de que um demónio extremamente pequeno
teria a capacidade de desligar a comunicação e optaria por não
A única forma de a abrir é quando houver mais moléculas para a atravessar.
numa direcção do que na outra.
Este demónio criaria assim uma assimetria na distribuição
moléculas e, portanto, seria capaz de esvaziar uma caixa para preencher a outra.
Este daemon é capaz de discriminar o estado exacto do sistema porque opera no
moléculas microscópicas. A resolução de um tal paradoxo é que o demónio
O princÃpio de Maxwell não pode existir. No caso da fÃsica termodinâmica, é
o caso, mas é possÃvel imaginar sistemas que são muito mais
menos complexas, diferentes capacidades perceptivas como no exemplo do escritório.
Por causa do acima exposto, na termodinâmica negligenciamos o aspecto "capacidade
da percepção da informação" e o foco principal está em
sobre a "quantidade de informação". Mas é uma aproximação.
Esta aproximação já não é válida se estivermos a lidar com um sistema
que podem ser vistos de forma diferente pelos seres humanos.
A noção de entropia surgiu em torno do contexto particular de um
sistema fÃsico que dissipa a energia para alcançar o equilÃbrio
termodinâmica onde a entropia está no seu máximo.
Por exemplo, um recinto isolado termicamente do exterior
contendo dois compartimentos de igual tamanho, em contacto, preenchidos com água
onde a temperatura da água é de 0° para um compartimento e 100° para o outro
evoluirá naturalmente de acordo com o segundo princÃpio da termodinâmica
a uma situação em que a temperatura em ambos os tanques é de 50.
A energia térmica é a energia mecânica das moléculas. As moléculas trocam energia através dos choques na parede que separam os dois tanques com o mesmo mecanismo que anteriormente e por isso chegamos à uniformidade macroscópica.
O último estado é estável e se não estiver envolvida energia externa.
Não haverá alterações no sistema (se considerarmos o sistema
perfeitamente estéril de um ponto de vista biológico porque a vida
poderia explorar a energia térmica contida no recinto
para organizar o material).
Nos anos 60 Ilya Prigogine, que em 1977 foi galardoado com o Prémio Nobel
para este trabalho, está interessado no que acontece a um sistema
quando é mantido permanentemente afastado do estado estacionário
termodinâmica por um fluxo permanente de energia.
Ele observa então que a dissipação de energia provoca o aparecimento de
ordem na matéria, que ele chamou de estruturas dissipativas.
As estruturas dissipativas são estruturas naturais que possuem a propriedade da auto-organização:
"A auto-organização é um fenómeno de ordem crescente, e que vai na direcção oposta de o aumento da entropia (ou desordem , sÃmbolo S) ; ao custo da dissipação de energia que será utilizada para manter esta estrutura.
Esta é uma tendência, tanto em processos fÃsicos ou organismos vivos, como no sistemas sociais, para se organizarem ; falamos também de auto-montagem.
Uma vez ultrapassado um limiar crÃtico de complexidade, os sistemas podem mudar de estado, ou passar de um fase instável a uma fase estável. "
A lei fundamental de tais sistemas pode ser resumida numa equação simples d²S=0 instituÃdo pelo Prémio Nobel da FÃsica Ilya Prigogine, o que significa que um sistema auto-organizador evolui através da criação de um mÃnimo de desordem à medida que o seu complexidade crescente.
Para um organismo vivo, o não cumprimento desta lei resulta num regresso ao equilÃbrio
termodinâmica, que para ele é a morte.
1.3.. analyse perception et entropie : estudo da modelação da percepção
_ Nos sistemas informáticos, o nÃvel de complexidade é suficientemente baixo para que a percepção do estado do sistema seja diferente para diferentes observadores,
Voltemos então ao nosso exemplo do escritório modelado com as nossas três pessoas.
A resolução pode ser representada pela relação 1 / N .
1 para o número de tentativas necessárias para encontrar o objecto de pesquisa, ou seja, para resolver o estado do sistema.
N para complexidade do sistema.
A exactidão pode ser representada como o inverso da resolução. A precisão aqui será portanto N / 1 = N .
nº de caixas resolução(precisão(nbr/5) probalilidade (nbr-5/nbr)
6 1.2 0.166667
7 1.4 0.285714 8 1.6 0.375000 9 1.8 0.444444 10 2.0 0.500000 15 3.0 0.666667 20 4.0 0.750000 30 6.0 0.833333 50 10.0 0.900000 100 20.0 0.950000 1000 200.0 0.995000 10000 2000.0 0.999500 1000000 200000.0 0.999995
Este quadro ilustra que quanto maior for a precisão, maior será a
a probabilidade de encontrar o objecto é elevada.
a fórmula mais geral para definir o conhecimento (ordem ou desordem) que temos sobre um sistema é:
Informação = Número de estados / Exactidão
A entropia é uma logarithme_pt ( Que eu ainda não descobri
Entropie = Registo( Desordem ) = Registo(Número de estados)
Pode-se ver que com um equilÃbrio perfeito entre a capacidade de percepção e o que nos damos a perceber, a entropia é zero. _
O efeito estéreo na quÃmica é o facto de que o apinhamento espacial de uma molécula
pode impedir uma reacção quÃmica previsÃvel através do princÃpio de exclusão Pauli
porque as moléculas não conseguem aproximar-se o suficiente umas das outras.
para responder.
1.5.2.Efeito esterico neguentropia
o efeito estético discriminatório em relação ao hidrogénio e outros compostos quÃmicos
de maior dimensão poderia ser utilizado para separar o hidrogénio dos seus compostos.
Um dispositivo de nanoescala poderia ser utilizado para isto.
A percolação de um composto quÃmico através de uma tal estrutura nanoescala
poderia transformar a energia de pressão macroscópica em energia quÃmica
microscópico. A agitação molecular seria usada da mesma forma que o tremor
que é aplicada a uma peneira para passar os elementos mais finos
através da peneira.
Os átomos de hidrogénio poderiam então recombinar por ligação covalente
para formar hidrogénio gasoso.