entropie et informatique pt entropia_e_computação_pt_txh_som

Entropia e cálculo de txh

voltar para a página inicial

versão disponível em : en it ru zh es ja de nl fr

data de criação : 20240703- data de actualiza&occedil&atlideo: 20240703- data de gera&ccdelão : 20240703_113950

1.Entropia e computação

L'. entropie  (ou desordem) mede a capacidade de evolução de um sistema fechado.

Se a entropia for baixa (sistema ordenado) o sistema pode evoluir À medida que evolui, a entropia aumenta e o sistema torna-se menos capaz de evoluir.

O consumo de energia aumenta efetivamente a entropia porque a energia nunca é consumida, devido à lei da conservação da energia, que é o primeiro princípio da termodinâmica..

Quando a energia é dissipada ou degradada, a sua entropia aumenta (este é o segundo princípio da termodinâmica) .

A entropia é um conceito introduzido pela primeira vez na termodinâmica macroscópica por Clausius, cujo significado foi clarificado muito mais tarde na mecânica estatística por Boltzmann..

O segundo princípio da termodinâmica afirma que a entropia só pode aumentar ou, no limite, permanecer constante..

A entropia é um conceito da física ligado à medição exacta das noções de ordem e desordem..

A ordem e a desordem são de importância fundamental na física, que trata das leis de funcionamento de um sistema físico constituído por um grande número de entidades. (um gás e as suas moléculas, por exemplo) .

A esta física chama-se termodinâmica.

Os grandes números revelam novas propriedades, novos conceitos, novas realidades e novas experiências..

A entropia foi então redefinida por Shannon

no contexto da teoria da informação, em que a entropia é identificada com a quantidade de informação.

A teoria da informação está na base da informática.

A entropia e a informação são um só e mesmo conceito.

Quanto mais complexo for um sistema, maior é a sua entropia e mais informação é necessária para o descrever..

Por exemplo, a mesma quantidade de matéria na forma de um gás ou na forma de um cristal não é descrita com a mesma quantidade de informação..

Se o cristal for perfeito (sem lacunas, deslocações, etc..

Shannon nweb) então só precisa de especificar a posição de um átomo no cristal e a estrutura da rede cristalina para saber onde estão localizados todos os átomos do cristal.

Por conseguinte, são necessárias muito poucas informações para descrever o sistema.

Num sistema deste tipo, a entropia é muito baixa.

No entanto, no caso do gás, como não há ligação entre os átomos, esses-devem ser descritos individualmente se quisermos saber o estado exato do sistema.. A quantidade de informação é enorme, associada ao número Avogadro 6..

022 10^23 e a entropia é muito grande.

Foi então demonstrado que a definição de Shannon e a da termodinâmica eram equivalentes..

Para completar o quadro, vale a pena mencionar que, na sequência dos trabalhos dos físicos Bekenstein e Hawking, surgiu uma nova forma de entropia na dinâmica dos buracos negros..

Esta entropia conduziu ao princípio holográfico de T'hooft.

A unidade mais pequena de informação física é uma área com a dimensão do comprimento de Planck ao quadrado..

O comprimento de Planck é o comprimento físico mais pequeno abaixo do qual a noção de comprimento perde o seu significado. (incerteza quântica) .

Na entropia existem dois termos que tendem a anular-se mutuamente, porque a entropia é o logaritmo de um rácio entre dois conceitos opostos: A capacidade de perceção do observador e a complexidade do sistema percepcionado.

  • A complexidade do sistema é expressa pela quantidade do que há para perceber, e este é o número de estados possíveis para um sistema. (estados equiprováveis) .

  • a capacidade de perceber é a resolução da nossa perceção, a precisão da nossa observação.

    A sua finitude garante uma relativa indistinguibilidade entre estados, ... não muito diferente.

    Quanto maior for o número de estados indistinguíveis, maior será a desordem; não conseguiremos "resolver" o estado real porque a nossa capacidade de perceção é limitada..

    Quanto maior for a nossa capacidade de perceção, mais seremos capazes de discriminar entre os estados possíveis do sistema..

    Assim, teremos mais "informação" sobre o sistema e poderemos vê-lo de uma forma mais organizada..

    A ordem do sistema depende, portanto, de quem o observa.

    Vejamos um exemplo simples, um escritório.

    A pessoa que trabalha nesta secretária tem um determinado nível de informação sobre o estado da sua secretária.

    O seu escritório pode ser modelado por um conjunto de caixas utilizadas para localizar um objeto..

    Os objectos são guardados em caixas.

    Se existirem N caixas e N objectos, com um objeto por caixa, então existem N! (fatorial de N) estados possíveis para o sistema, podendo cada objeto ocupar cada uma das caixas.

    Para arrumar o primeiro objeto, temos N caixas possíveis, mas para o segundo N-1 caixa, etc.

    Assim, o número de escolhas para dispor os N Objectos nas N Caixas é N * N-1 * N-2 * .... * 2 * 1 = N! ou seja, o fatorial de N.

    Consideremos um estado particular do armazenamento do escritório.

    Vamos supor que a pessoa conhece perfeitamente o estado do escritório, ou seja, sabe onde encontrar cada objeto por acesso direto à caixa que o contém..

    Então, neste caso, podemos dizer que para esta pessoa o escritório está totalmente arrumado, a ordem é perfeita e, portanto, a desordem (ou entropia) zero.

    Suponhamos que outra pessoa tem menos conhecimento do estado do escritório.

    Esta pessoa sabe "sobre" onde está um objeto, mas terá de fazer várias tentativas para encontrar realmente um determinado objeto..

    Por outras palavras, terá de gastar alguma energia (degradar a energia) e tempo para "reconstituir" as informações que lhe faltam.

    Se, em duas ou três tentativas, conseguir encontrar um determinado objeto.

    Pode dizer-se que não tem um conhecimento perfeito do estado do sistema, ou que para ele o sistema está ligeiramente desordenado..

    Para esta pessoa, a desordem ou a entropia não é zero.

    Suponhamos que uma terceira pessoa é completamente estranha a este gabinete e, por conseguinte, não tem qualquer informação sobre o seu estatuto..

    Para encontrar um objeto, esta pessoa terá de abrir todas as caixas sucessivamente até encontrar o objeto que procura..

    Para esta pessoa, a desordem ou entropia é máxima.

    A entropia é então dada pelo fatorial de N, N! que é uma boa representação da complexidade do sistema, ou seja, a complexidade de compreensão do sistema.

    O fatorial é construído da seguinte forma, para a primeira escolha de uma casa (tiragem) existem N possibilidades, no segundo existem N-1, na terceira possibilidade N-2 etc.

    A complexidade do sistema pode, portanto, ser representada pelo número N *. (N-1) * (N-2) .... 3 * 2 * 1, que é precisamente o fatorial de N.

    E, mais uma vez, neste exemplo, assumimos que o observador é suficientemente inteligente para ser capaz de memorizar (tirar partido da sua experiência do sistema) e não procurar numa caixa que já abriu e que não continha o objeto que procurava.

    Caso contrário, a complexidade do sistema seria percebida pelo observador como muito maior..

    Poderíamos dizer que o sistema completo : o sistema de observação estaria num estado de confusão.

    Exemplo de entropia na ergonomia informática: Consulte o painel de controlo do Windows.

    O-Isto é prejudicado por uma entropia ergonómica significativa, uma vez que os ícones são tradicionalmente apresentados sem uma ordem óbvia numa superfície retangular..

    Se não souber exatamente onde se encontra o ícone que procura, gastará (degradar) uma certa quantidade de energia para a encontrar: mais movimento ocular, mais tempo de olhar (atividade da retina) mais processos de pensamento ocular, em última análise, mais consumo de ATP(trifosfato de adenosina: a molécula de energia) e potencial iónico.

    Foi feito um esforço para classificar por categorias, mas isso não é totalmente convincente, pois cria um nível adicional de perceção. (estamos a afastar-nos dos pormenores) e as categorias representam então vários estados possíveis do objeto que está a ser procurado: temos a indistinguibilidade.

    A ordenação alfabética por meio de uma letra-chave no nome do objeto procurado permitiria memorizar melhor a organização e também garantir a sua sobrevivência em todas as versões sucessivas. (a memória torna o tempo menos destrutivo) .

    Mas isso não está disponível mesmo depois de o produto ter existido durante mais de vinte anos..

    Para ser exato, a entropia está associada ao logaritmo matemático do fatorial.

    S = registo (N!Shannon nweb) Isto deve-se ao facto de logaritmo : O logaritmo de um produto é a soma dos logaritmos dos dois factores do produto..

    Em termos de fórmulas matemáticas, temos: Registo( a * b ) = Registo(a) Registo(b) Se duplicarmos o tamanho de um M = N * 2, se considerarmos dois escritórios, por exemplo, as entropias são adicionadas aritmeticamente (diz-se que a entropia física é uma propriedade extensiva do sistema) mas a complexidade aumenta de forma fatorial.

    O logaritmo faz a ligação entre a noção fatorial da complexidade de um sistema e a entropia, que é uma grandeza física extensiva e, portanto, aditiva..

    Modelo_de_urna_Ehrenfest

    Fórmula_de_Boltzmann

    No exemplo do escritório, podemos ver que, assim que a pessoa começa a abrir caixas, ou seja, a interagir com o sistema, adquire informações sobre o mesmo.-que pode então memorizar.

    Em consequência, a entropia do sistema alterar-se-á para ele, mas terá tido de degradar a energia noutros locais para poder reduzir essa entropia..

    Trata-se, portanto, de uma deslocação da entropia, porque no sistema global considerado como fechado, a entropia só pode aumentar. (esta é a segunda lei da termodinâmica) .

    Em sistemas físicos como os gases, os observadores, que são seres caracterizados por um determinado tipo de órgãos perceptivos (seres humanos, por exemplo) não diferem na sua capacidade de perceção.

    É isto que confere às leis da termodinâmica a sua objetividade..

    Isto é ilustrado pelo \"paradoxo do demónio\" de Maxwell..

    Maxwell concebeu a seguinte experiência: duas caixas são colocadas lado a lado, sendo possível a comunicação entre elas.

    Inicialmente, a comunicação é fechada e uma das caixas é preenchida com um gás enquanto a outra está vazia..

    Se abrirmos a comunicação, as moléculas passarão e acabarão na outra caixa..

    A termodinâmica estatística diz-nos que o estado mais provável para este sistema é aquele em que existe aproximadamente o mesmo número de moléculas em ambos os compartimentos..

    Este é o estado de equilíbrio termodinâmico.

    É de salientar que as moléculas não estão sujeitas a qualquer força que as faça passar para a segunda caixa..

    Uma molécula pode tão facilmente passar da primeira caixa para a segunda como o contrário, e é isso que está sempre a acontecer..

    É por isso que as moléculas são distribuídas uniformemente entre os dois compartimentos..

    Se num dado momento houver mais moléculas num compartimento, então a probabilidade de as moléculas irem para a outra caixa também se torna maior, daí o equilíbrio..

    O paradoxo do demónio de Maxwell é a ideia de que um demónio pequeno e extremamente rápido teria a capacidade de fechar a comunicação e só escolheria abri-la quando houvesse mais moléculas a passar numa direção do que na outra..

    Este demónio criaria uma dissimetria na distribuição das moléculas e seria, portanto, capaz de esvaziar uma caixa para encher a outra..

    Este demónio é capaz de discriminar o estado exato do sistema porque opera ao nível microscópico das moléculas..

    A resolução de tal paradoxo é que o demónio de Maxwell não pode existir.

    No caso da física termodinâmica, é de facto o caso, mas para sistemas muito menos complexos, é fácil imaginar diferentes capacidades de perceção, como no exemplo do escritório..

    Devido ao exposto, na termodinâmica negligenciamos o aspeto da "capacidade de perceber a informação" e concentramo-nos essencialmente na quantidade de informação..

    Mas isto é apenas uma aproximação.

    Esta aproximação deixa de ser válida se estivermos a lidar com um sistema que pode ser percebido de forma diferente pelos seres humanos..

    E os sistemas informáticos são um bom exemplo de tais sistemas..

    A noção de entropia surgiu no contexto específico de um sistema físico que dissipa energia para atingir um equilíbrio termodinâmico onde a entropia é máxima..

    Por exemplo, um recinto isolado termicamente do exterior, contendo dois compartimentos de igual dimensão, em contacto, cheios de água, em que a temperatura da água é de 0° para um compartimento e de 100° para o outro, evoluirá naturalmente, em virtude do segundo princípio da termodinâmica, para uma situação em que a temperatura nos dois tanques é de 50°..

    Este último estado é estável e, se não houver energia externa envolvida, o sistema não se alterará. (se considerarmos que o sistema é perfeitamente estéril do ponto de vista biológico, porque a vida poderia aproveitar a energia térmica contida no invólucro para organizar a matéria) .

    Nos anos 60, Ilya Prigogine, que recebeu o Prémio Nobel pelo seu trabalho em 1977, interessou-se pelo que acontece a um sistema quando este é mantido permanentemente afastado de um estado de equilíbrio termodinâmico por um fluxo permanente de energia..

    Observou então que a dissipação de energia conduzia ao aparecimento de ordem na matéria, a que chamou estruturas dissipativas..

    As estruturas dissipativas são estruturas naturais que possuem a propriedade de serem auto-sustentáveis.-organização: O carro-a organização é um fenómeno de ordem crescente, em sentido contrário ao aumento da entropia (ou desordem , símbolo S) ; ao custo de dissipar a energia necessária para manter esta estrutura.

    É uma tendência dos processos físicos, dos organismos vivos e dos sistemas sociais para se organizarem.-mesmo ; também falamos de automóveis-montagem.

    Quando se ultrapassa um limiar crítico de complexidade, os sistemas podem mudar de estado ou passar de uma fase instável para uma fase estável..

    A lei fundamental de tais sistemas pode ser resumida numa simples equação d²S=0 estabelecido pelo Prémio Nobel da Física Ilya Prigogine, o que significa que um sistema que é auto-organiza-se criando um mínimo de desordem à medida que a sua complexidade aumenta.

    Para um organismo vivo, a não-o cumprimento desta lei resulta no regresso ao equilíbrio termodinâmico, que para ele é a morte..

    A longevidade de um sistema informático depende essencialmente da sua capacidade de responder às necessidades e, por conseguinte, de evoluir ao mesmo tempo que o sistema evolui.-ci.

    Se a manutenção do sistema se tornar demasiado onerosa em relação aos novos serviços que irá prestar, a sua existência é posta em causa e não tardará muito a ser substituída por um sistema mais eficiente..

    A equação é simples: se o custo de manutenção estiver relacionado com o custo de substituição, optamos por substituí-lo.

    Em termos mais atómicos, podemos dizer que se gastarmos tanta energia a procurar informação como a reconstruir, então perdemos essa informação..

    À medida que os sistemas informáticos crescem, se não respeitarem a lei da criação mínima de entropia (para simplificar a redundância) à medida que a sua complexidade aumenta, tornam-se mais difíceis de manter e acabam por desaparecer, o que equivale a regressar ao equilíbrio termodinâmico (a estrutura dissipativa desaparece) .

    2.Entropia informática

    Os sistemas informáticos são um exemplo deste tipo de estruturas : são dissipativas, uma vez que a energia (e, por conseguinte, um custo financeiro) é utilizado para os estabelecer e manter.

    Se olharmos para a evolução da informática, verificamos que a tendência permanente é para reduzir a redundância.

    Os desenvolvimentos no sector das TI neste sentido incluem:

    2.1.Reduzir a redundância informática

    2.2.Exemplo de entropia ergonómica na informática

    Exemplo de entropia na ergonomia informática: Consulte o painel de controlo do Windows.

    O-Isto é prejudicado por uma entropia ergonómica significativa, uma vez que os ícones são tradicionalmente apresentados sem uma ordem específica numa superfície retangular..

    Se não souber exatamente onde se encontra o ícone que procura, gastará (degradar) uma certa quantidade de energia para a encontrar: mais movimento ocular, mais tempo de olhar (atividade da retina) mais processos de pensamento ocular, em última análise, mais consumo de ATP (Trifosfato de adenosina) e potencial iónico.

    Foi feito um esforço para classificar por categoria, mas não é conclusivo, pois cria um nível adicional de perceção. (estamos a afastar-nos dos pormenores) e as categorias representam então vários estados possíveis do objeto que está a ser procurado: temos a indistinguibilidade.

    Existe uma ordenação alfabética baseada na primeira letra da etiqueta do ícone, mas a primeira letra não é ordenada alfabeticamente.-não é necessariamente representativo da função que procuramos e pode ser redundante (por exemplo "Centre de ...") .

    O acesso ao Painel de Controlo do Windows também muda-consoante a versão ! Se estiver a mudar de versão ou a trabalhar com várias versões (o seu computador pessoal, os servidores Windows a que se liga ...exemplo de entropia na ergonomia informática) é, por natureza, disruptivo: confusão e perda de tempo.

  • A longevidade de um sistema informático depende essencialmente da sua capacidade de responder às necessidades e, por conseguinte, de evoluir ao mesmo tempo que o sistema evolui.-ci.

  • Se a manutenção do sistema se tornar demasiado onerosa em relação aos novos serviços que irá prestar, a sua existência é posta em causa e não tardará muito a ser substituída por um sistema mais eficiente..

  • a equação é simples: se o custo de manutenção estiver relacionado com o custo de substituição, optamos por substituí-lo.

  • Em termos mais atómicos, podemos dizer que se gastarmos tanta energia a procurar informação como a reconstruir, então perdemos a informação..

  • quando os sistemas informáticos crescem, se não respeitarem a lei da criação mínima de entropia (para simplificar a redundância) à medida que a sua complexidade aumenta, tornam-se mais difíceis de manter e acabam por desaparecer, o que equivale a regressar ao equilíbrio termodinâmico (a estrutura dissipativa desaparece) .