entropie entropie_txh_de_som

Entropie txh

zurück zur Startseite der Website

version verfügbar in : en it ru zh es ja nl pt fr

Erstellungsdatum : 20240129- Aktualisierungsdatum : 20230402- Generierungsdatum : 20240908_053307

1.Entropie

Die Entropie kennzeichnet die Zunahme der Komplexität eines Systems, d. h. der Informationsmenge, die zu seiner Beschreibung erforderlich ist. (lösen).

Wir betrachten zunächst ein geschlossenes System, d. h. ein System, das keine Energie austauscht. (mechanisch, thermisch, Strahlung)noch Materie mit ihrer Umgebung.

Entropie ist mit dem Begriff der Unordnung verbunden : je mehr Informationen zur Beschreibung eines Systems benötigt werden, desto unordentlicher kann es uns erscheinen.

Tatsächlich ist die Entropie ein Konzept der Physik, das mit der genauen Messung der Begriffe Ordnung oder Unordnung verbunden ist.. Die Entropie misst auch die Fähigkeit, sich für ein geschlossenes System, das eine bestimmte nutzbare Energie besitzt, zu entwickeln (da sie eine geringe Entropie besitzt).

Wenn Sie ein Atelier haben, in dem die Pferde in alle Richtungen laufen, können Sie nicht weitergehen, weil es keine Ordnung gibt..

Wenn Sie Ihre Pferde disziplinieren, wird ihre geordnete Energie genutzt, um das Gespann voranzubringen..

Dieses Beispiel zeigt, dass Energie (die Kraft, die Pferde mobilisieren können, um eine bestimmte Arbeit zu verrichten) ist nicht ausreichend und dass es auch einen Begriff von Ordnung gibt, der sehr wichtig ist. Es ist das Konzept der Entropie, das mit dieser Ordnung oder Unordnung verbunden ist.

Energie ist das, was Entwicklung und Veränderung ermöglicht. Wenn der Benzintank eines Autos leer ist, kann es nicht mehr weiterfahren, es sei denn, sie nutzt an einem Hang die potentielle Gravitationsenergie, die sie besitzt, oder die kinetische Energie, die sie gespeichert hat und der Sie, wenn Sie Glück haben, bis zur nächsten Tankstelle bringt.

Wenn die Entropie niedrig ist (geordnetes System) das System kann sich weiterentwickeln.

Im Laufe der Entwicklung nimmt die Entropie zu, d. h. die Energie verschlechtert sich (verringert seine Ordnung) und das System ist weniger fähig, sich weiterzuentwickeln.

Zum Beispiel werden Pferde die chemische Energie aus dem Futter, das sie gefressen haben, verbrauchen.
durch die Nutzung von Luftsauerstoff durch die Atmung, um ATP-Moleküle zu produzierenAdénosine_triphosphate die der Treibstoff der Physiologie ist. Beim Ziehen der Atemmuskulatur verbrauchen sie diesen Treibstoff, um die Muskeln zu betreiben (der Motor).
Wenn die Energie aus allen Nahrungsmitteln verbraucht ist, eventuell mit den Reserven, die in ihren Muskeln, ihrer Leber und ihrem Fett gespeichert sind, dann sind sie müde, müssen sich ausruhen und wenn sie nicht wieder essen (geschlossenes System) sie können nicht mehr lange an der Leine ziehen, wenn nicht bis zur Erschöpfung (Energiereserven).

Energie zu verbrauchen bedeutet eigentlich, die Entropie zu erhöhen, da man aufgrund des Energieerhaltungssatzes nie Energie verbraucht.
welches der erste Grundsatz der Thermodynamik ist: in einem geschlossenen System ist die Energie konstant.

Wenn Energie dissipiert oder abgebaut wird, steigt ihre Entropie also ihre Unordnung (das ist der zweite Hauptsatz der Thermodynamik).

Im Beispiel der Pferde ist der Pferdemist, der durch die Verdauung entsteht, weniger geordnet als das Gras, aus dem er gewonnen wird..
Es ist die Energie der Sonne mit geringer Entropie, die durch Photosynthese das Nachwachsen von Gräsern ermöglicht, indem sie organische Stoffe aus dem Crotin nutzt..

Die Entropie ist ein Begriff, der ursprünglich von Clausius in die makroskopische Thermodynamik eingeführt wurde..
Rudolf_Clausius und deren tiefere Bedeutung in Bezug auf die Information viel später in der statistischen Mechanik geklärt wurde durch Boltzmann.

Der zweite Hauptsatz der Thermodynamik besagt, dass in einem geschlossenen System die Entropie nur zunehmen oder im Extremfall konstant bleiben kann.
Ordnung und Unordnung sind von grundlegender Bedeutung in der Physik, die sich mit den Gesetzen des Funktionierens beschäftigt physische Systeme, die aus einer sehr großen Anzahl von Einheiten bestehen (ein Gas, das aus der Gesamtheit seiner Moleküle gebildet wird z. B.). Diese Physik heißtThermodynamique.

Große Zahlen bringen neue Eigenschaften, neue Konzepte hervor, neue Realitäten und Erfahrungen.

Die Entropie wurde dann neu definiert durch Shannon im Rahmen der Informationstheorie wobei die Entropie mit der Menge an Information identifiziert wird.

( Die Informationstheorie ist die Grundlage der Informatik, daher muss die Entropie in diesem Bereich eine wichtige Rolle spielen cf entropie et informatique de .Shannon nweb)

1.1.Entropie und Information

Entropie und Information sind stark miteinander verbundene Konzepte und können als identisch angesehen werden, indem sie mécanique_statistique_de.

Denn je komplexer ein System ist, desto größer ist seine Entropie und desto mehr Informationen braucht man, um es zu beschreiben.

Zum Beispiel die gleiche Menge an Materie als Gas oder als Kristall.
nicht mit der gleichen Menge an Informationen beschrieben werden. Wenn der Kristall perfekt ist (ohne Lücken, Versetzungen etc..Entropie und Information) dann genügt es, die Position eines Atoms anzugeben des Kristalls und die Struktur des Kristallgitters, um zu wissen, wo sich alle die Atome des Kristalls. Man braucht also nur sehr wenige Informationen, um das System zu beschreiben..

In einem solchen System ist die Entropie sehr gering.

Bei Gas hingegen, da es keine Bindungen zwischen den Atomen gibt, müssen diese einzeln beschrieben werden, wenn man den genauen Zustand des Systems kennen will.

Die Informationsmenge ist hier enorm und hängt mit der Avogadro-Zahl zusammen 6.022 10^23 und die Entropie ist sehr groß.

Später wurde gezeigt, dass Shannons Definition und die der Thermodynamik gleichwertig sind.

Um das Bild zu vervollständigen, nur als Anmerkung, sei erwähnt, dass nach den Arbeiten der Physiker Bekenstein und Hawking ist eine neue Form der Entropie in der Dynamik schwarzer Löcher aufgetaucht.
Diese Entropie führte zu T'hoofts holographischem Prinzip.

Dieses Prinzip geht davon aus, dass die kleinste Einheit physikalischer Information eine Fläche von der Größe der Planck-Länge zum Quadrat ist (Plancksche Oberfläche).

wobei die Planck-Länge die kleinste physikalische Länge ist, unterhalb derer der Begriff der Länge seine Bedeutung verliert (Quantenunsicherheit). Man könnte also sagen, dass die Planck-Länge die archetypische Länge ist und dass zwei unmittelbar benachbarte Punkte des physischen Raums um diese Länge voneinander getrennt sind. Es kann nicht von Punkten des physischen Raums zwischen diesen beiden Punkten. Man kann natürlich auch Längen unterhalb der Planck-Länge entwerfen aber es sind keine physikalischen Längen mehr, sondern abstrakte, mathematische Längen.

1.2.Die Entropie ist an den Beobachter gebunden

In der mathematischen Formel für die Entropie gibt es zwei Terme, die dazu neigen, sich aufzuheben, man kann sagen, dass die Entropie ist der logarithme_de einer Beziehung zwischen zwei Begriffen, die einander entgegenstehen:

Diese beiden Begriffe stehen zum einen für die Wahrnehmungsfähigkeit des Beobachters und zum anderen für die Komplexität des wahrgenommenen Systems.

  • Die Komplexität des Systems wird durch die Menge dessen, was es wahrzunehmen gibt, übersetzt und das ist die Anzahl der möglichen Zustände eines Systems (äquiwahrscheinliche Zustände: das System kann sich in jedem dieser Zustände befinden).

  • die Wahrnehmungsfähigkeit ist die Auflösung unserer Wahrnehmung, die Genauigkeit unserer Beobachtung. Seine Endlichkeit sorgt für eine relative Ununterscheidbarkeit zwischen Zuständen, ... nicht zu unterschiedlich.

    Je größer die Anzahl der ununterscheidbaren Zustände ist, desto größer ist die Unordnung, man wird nicht "auflösen können" den tatsächlichen Zustand, da unsere Wahrnehmungsfähigkeit begrenzt ist.

    Je größer unsere Wahrnehmungsfähigkeit ist, desto besser können wir unterscheiden die möglichen Zustände des Systems. Wir werden also mehr " Informationen" über den System und wir werden es organisierter betrachten.

    Wichtig ist, dass der Beobachter berücksichtigt werden muss.

    Die Ordnung des Systems ist also abhängig von demjenigen, der es beobachtet.

    In der Physik betrachtet man immer die Position des Beobachters in Bezug auf das beobachtete Phänomen.

    In der Mechanik wird diese Position durch die Unterscheidung zwischen dem Koordinatensystem des Beobachters und das Koordinatensystem des Systems selbst und ihre Beziehung.

    1.2.1.Statistische Thermodynamik oder mécanique_statistique_de

    In der statistischen Thermodynamik ist die Position des Beobachters keine Position im Raum, sondern vielmehr eine Position in Größenskalen. Der menschliche Beobachter, der sich im Metermaßstab positioniert während für ein Gas, das der Hauptgegenstand der statistischen Thermodynamik ist, die Systemskala besteht aus Atomen, deren Quantenstruktur daher auf atomarer Ebene angesiedelt ist d. h. knapp unterhalb der Nanometerskala (10^-10 m , 10 hoch minus 10 Meter)

    Betrachten wir ein einfaches Beispiel, das sich auf einer Größenordnung bewegt, die dem menschlichen Beobachter nahe kommt entweder zwischen einem Zentimeter und einem Dezimeter: Gegenstände, die sich auf einem Schreibtisch befinden. Die Person, die an diesem Schreibtisch arbeitet, verfügt über ein bestimmtes Maß an Informationen über den Zustand ihres Schreibtisches..

    Sein Büro kann durch eine Reihe von Kästen modelliert werden, die Folgendes ermöglichen einen Gegenstand lokalisieren. Gegenstände werden in Schachteln aufbewahrt. Wenn es N Schachteln gibt und N Objekte mit einem Objekt pro Box, dann gibt es N! (Faktorielle von N) mögliche Zustände für das System, wobei jedes Objekt jede der Boxen besetzen kann.

    Denn um den ersten Gegenstand zu verstauen, hat man N mögliche Boxen aber für die zweite N-1 Schachteln etc.. Also die Anzahl der Auswahlmöglichkeiten der N Objekte in den N Boxen ist N * N-1 * N-2 * .... * 2 * 1 = N! d. h. die Fakultät von N.
    Betrachten wir einen bestimmten Zustand, in dem der Schreibtisch aufgeräumt ist. Nehmen wir an, dass die Person den Zustand des Büros genau kennt, d. h., dass sie weiß, wo jeder Gegenstand durch direkten Zugriff auf die Box, die ihn enthält, zu finden ist.
    Dann kann man in diesem Fall sagen, dass für diese Person das Büro völlig aufgeräumt, die Ordnung ist perfekt und damit die Unordnung (oder Entropie) Null.

    Angenommen, eine andere Person hat weniger Wissen über den Zustand des Büro. Diese Person weiß " ungefähr", wo sich ein Gegenstand befindet, muss aber mehrere Versuche unternehmen, um einen bestimmten Gegenstand tatsächlich zu finden.
    Das heißt, sie muss ein wenig Energie aufwenden (Energie abbauen) und Zeit, um "die fehlenden Informationen zusammenzustellen".. Wenn sie mit zwei oder drei Versuchen einen bestimmten Gegenstand finden kann. Man kann sagen, dass sie keine perfekte Kenntnis über den Zustand des Systems hat oder dass für sie das System leicht unordentlich ist. Für diese Person ist die Unordnung oder Entropie nicht null.

    Nehmen wir an, dass eine dritte Person völlig fremd in diesem Büro ist und daher nicht keine Informationen über seinen Zustand besitzt. Um einen Gegenstand zu finden diese Person muss nacheinander alle Schachteln öffnen, bis sie findet das gesuchte Objekt. Für diese Person ist Unordnung oder Entropie maximal. Die Entropie ist dann gegeben durch die Faktorielle von N, N! wer ist eine gute Darstellung der Komplexität des Systems, d. h.
    der Komplexität, das System zu begreifen.
    Die Faktorielle wird so konstruiert, bei der ersten Wahl einer Box (Auflage) gibt es N Möglichkeiten, bei der zweiten gibt es N-1 Möglichkeiten, bei der dritten N-2 usw.. Die Komplexität des Systems lässt sich also gut durch die Zahl N * (N-1) * (N-2) .... 3 * 2 * 1, was genau die Fakultät von N ist.

    Und auch in diesem Beispiel gehen wir davon aus, dass der Beobachter ausreichend intelligent, um sich etwas merken zu können (ihre Erfahrungen mit dem System kapitalisieren) und nicht in einer Schachtel suchen, die er bereits geöffnet hatte und die nicht enthielt nicht der gesuchte Zweck. Andernfalls würde die Komplexität des Systems wahrgenommen werden von den Beobachter als viel größer. Man könnte sagen, dass das System komplett : beobachtende System wäre in einem Zustand der Verwirrung.

    Um genau zu sein, ist die Entropie mit dem mathematischen Logarithmus der Fakultät verbunden.

    S = Protokoll (N!statistische Thermodynamik)

    Dies aufgrund der Eigenschaft des logarithme_de :

    "Der Logarithmus eines Produkts ist die Summe der Logarithmen der beiden Faktoren des Produkts.."

    In mathematischen Formeln ausgedrückt gilt:

    Log( a * b ) = Log(a) Log(b)

    Wenn man die Größe eines Systems M verdoppelt = N * 2, wir nehmen zwei Büros zum Beispiel dann addieren sich die Entropien linear, aber die Komplexität steigt exponentiell an.

    Modèle_des_urnes_d_Ehrenfest Formule_de_Boltzmann

    In dem Beispiel mit dem Büro fällt auf, dass, sobald die Person anfängt, Schachteln zu öffnen, d.h. mit dem System interagiert, wird sie Informationen über die sie sich dann merken kann. Folglich ist die Entropie des Systems wird sich für sie entwickeln, aber sie muss an anderer Stelle Energie abbauen, um sich zu versorgen diese Entropie verringern. Es ist also eine Entropieverschiebung, weil im Gesamtsystem als geschlossen betrachtet kann die Entropie nur zunehmen (das ist das zweite Gesetz der Thermodynamik).

    In physikalischen Systemen wie Gasen werden Beobachter, die Wesen, die durch eine bestimmte Art von Wahrnehmungsorganen gekennzeichnet sind (die Wesen Menschen zum Beispiel) keine Diskrepanz in Bezug auf ihre Wahrnehmungsfähigkeit aufweisen.
    Das verleiht den Gesetzen der Thermodynamik ihre Objektivität.
    Dies lässt sich anhand des Paradoxons des Démon de Maxwell de .

    Maxwell de stellte sich das folgende Experiment vor: zwei Schachteln werden aneinandergelegt der andere mit einer möglichen Kommunikation zwischen ihnen. Zu Beginn die Kommunikation geschlossen ist und eine der Dosen mit einem Gas gefüllt ist, während die andere ist leer. Wenn wir die Verbindung öffnen, werden Moleküle hindurchgehen und sich in der anderen Schachtel wiederfinden. Die statistische Thermodynamik sagt uns dass der wahrscheinlichste Zustand für dieses System der ist, in dem es etwa die gleiche Anzahl an Molekülen in beiden Kompartimenten. Es handelt sich um den Zustand des thermodynamischen Gleichgewichts. Es ist wichtig zu erwähnen, dass die Moleküle keiner Kraft ausgesetzt sind, die sie dazu veranlasst, sich zu bewegen. in der zweiten Schachtel. Ein Molekül kann auch leicht von der ersten in die zweite Box gelangen als das Gegenteil, und das ist es, was in jedem Augenblick geschieht.

    Dies ist übrigens auch der Grund dafür, dass sich die Moleküle gleichmäßig verteilen zwischen den beiden Fächern. Wenn zu einem bestimmten Zeitpunkt mehr Moleküle vorhanden sind in einem Kompartiment dann die Wahrscheinlichkeit, dass die Moleküle in wird die andere Box ebenfalls größer, wodurch ein Gleichgewicht entsteht.

    Das Maxwell-Dämonenparadoxon ist die Idee, dass ein kleiner, extrem schnell die Fähigkeit hätte, die Kommunikation zu schließen, und sich dafür entscheiden würde, keine Sie wird erst geöffnet, wenn mehr Moleküle durch sie hindurchgehen wollen. in die eine Richtung als in die andere. Dieser Dämon würde somit eine Asymmetrie in der Verteilung schaffen Moleküle und wäre daher in der Lage, eine Schachtel zu leeren, um die andere zu füllen.

    Dieser Dämon kann den genauen Zustand des Systems diskriminieren, denn er arbeitet auf der Ebene mikroskopisch von Molekülen. Die Auflösung eines solchen Paradoxons ist, dass der Dämon von Maxwell kann nicht existieren. Im Fall der thermodynamischen Physik ist es Das ist zwar nicht der Fall, aber man kann sich sehr gut vorstellen, dass Systeme, die sehr viele weniger komplexe unterschiedliche Wahrnehmungsfähigkeiten wie im Beispiel des Büros.

    Aufgrund des oben Gesagten wird in der Thermodynamik der Aspekt "Kapazität vernachlässigt.
    der Informationswahrnehmung" und man konzentriert sich im Wesentlichen über die "Menge an Informationen".. Es handelt sich jedoch um eine Annäherung.

    Diese Annäherung ist übrigens nicht mehr gültig, wenn man es mit einem System zu tun hat die für Menschen eine abweichende Wahrnehmung aufweisen kann.

    Der Begriff der Entropie entstand rund um den besonderen Kontext eines physisches System, das Energie abgibt, um ein Gleichgewicht zu erreichen thermodynamisch, wo die Entropie am größten ist.

    Zum Beispiel ein von der Außenwelt wärmeisoliertes Gehäuse mit zwei gleich großen, sich berührenden Kammern, die mit Wasser gefüllt sind bei dem die Wassertemperatur in einem Abteil 0° und im anderen 100° beträgt wird sich gemäß dem zweiten Hauptsatz der Thermodynamik auf natürliche Weise weiterentwickeln zu einer Situation, in der die Temperatur in beiden Tanks 50° beträgt.

    Thermische Energie ist die mechanische Energie von Molekülen. Moleküle tauschen Energie aus über die Stöße auf die Wand, die die beiden Behälter trennt, mit demselben Mechanismus wie zuvor und man gelangt somit zur makroskopischen Gleichförmigkeit.

    Dieser letzte Zustand ist stabil und wenn keine äußere Energie eingreift.
    Es wird keine Weiterentwicklung des Systems geben (wenn man das System betrachtet aus biologischer Sicht vollkommen steril, da das Leben könnte die in der Kammer enthaltene Wärmeenergie nutzen um das Material zu organisieren). In den 1960er Jahren Ilya Prigogine, der 1977 den Nobelpreis erhält für diese Arbeiten, interessiert sich dafür, was für ein System wenn er dauerhaft vom Gleichgewichtszustand entfernt gehalten wird thermodynamisch durch einen ständigen Energiefluss.

    Er beobachtet dann, dass die Energiedissipation das Auftreten von einer Ordnung in der Materie, die er als dissipative Strukturen bezeichnen würde..

    Dissipative Strukturen sind natürliche Strukturen, die die Eigenschaft der Selbstorganisation besitzen.:

    " Selbstorganisation ist ein Phänomen der zunehmenden und gegenläufigen Ordnung von die Zunahme der Entropie (oder Unordnung , Symbol S) ; auf Kosten von Energieverschwendung die zur Aufrechterhaltung dieser Struktur verwendet wird.

    Es ist ein Trend, sowohl bei physikalischen Prozessen als auch bei lebenden Organismen, dass soziale Systeme, sich selbst zu organisieren ; man spricht auch von Selbstmontage.

    Nach Erreichen einer kritischen Schwelle der Komplexität können Systeme ihren Zustand ändern oder von einem instabile Phase zu einer stabilen Phase. "

    Das Grundgesetz solcher Systeme lässt sich in einer einfachen Gleichung d²S zusammenfassen=0 die vom Physik-Nobelpreisträger Ilya Prigogine aufgestellt wurde und bedeutet, dass ein selbstorganisierendes System entwickelt sich, indem es ein Minimum an Unordnung schafft, während seine Komplexität steigt.

    Für einen lebenden Organismus führt die Nichteinhaltung dieses Gesetzes dazu, dass er wieder ins Gleichgewicht kommt Thermodynamik, was für ihn der Tod ist.

    1.3.Analyse perception et entropie de: Studie zur Modellierung der Wahrnehmung

    _ In Computersystemen ist der Grad der Komplexität ausreichend niedrig. so dass der Zustand des Systems von verschiedenen Beobachtern unterschiedlich wahrgenommen wird,

    Nehmen wir also unser Beispiel des modellierten Büros mit unseren drei Personen wieder auf.

  • für die erste Person eine Beobachtung, oder Interaktion mit dem System wird durch das direkte Öffnen der Schachtel, die das Objekt enthält, übersetzt gesucht. Die Wahrscheinlichkeit, das gesuchte Objekt zu finden, ist total d.h. 1.
    Die Auflösung, mit der die Person den Zustand des Systems löst, ist so fein wie möglich, d. h. die Person ist in der Lage, die Box, die sie sucht, sicher zu unterscheiden.

    Man kann die Auflösung durch das Verhältnis 1 / N darstellen . 1 für die Anzahl der Versuche, die notwendig sind, um das gesuchte Objekt zu finden, d. h. um den Zustand des Systems zu lösen..
    N für die Komplexität des Systems.

    Man kann die Genauigkeit als Kehrwert der Auflösung darstellen. Die Genauigkeit wird hier also N / 1 sein = N .

  • für die zweite Person, die sagen wir n öffnen muss=5 Boxen im Durchschnitt, um den Gegenstand zu finden, die Auflösung wird 5 / N sein und die Genauigkeit N / 5.
  • Die Genauigkeit kann als das Verhältnis zwischen der Komplexität des eigenen Systems, die N ist, und der Komplexität des Systems aus Sicht des Beobachters, hier n=5, da sie 5 Versuche benötigt (Maßnahmen) um den Zustand des Systems zu verringern (dass der tatsächliche Zustand des Systems und die mentale Simulation des Systemzustands identisch sind).

  • Genauigkeit erscheint als die Fähigkeit der Wahrnehmung.
  • immer größer: fünf Versuche zu unternehmen, um einen von sechs Gegenständen zu finden, ist wenig effizient (geringe Wahrscheinlichkeit) für 1 Million Objekte ist es äußerst effektiv (Wahrscheinlichkeit nahe 1).

  • die Wahrscheinlichkeit, das gesuchte Objekt zu finden, ist der Kehrwert der Anzahl der Versuche, die man im Durchschnitt unternehmen muss, um das Objekt zu finden.
    1 im Fall der Person, die das System vollständig kennt.
    1 / 5 im Fall der zweiten Person 1 / N im Fall einer Person, die völlig unwissend über den Zustand des Systems ist.

    nbr SchachtelnAuflösung(Genauigkeit(nbr/5)   Probalilität (nbr-5/nbr) 
    6 1.2   0.166667
    7 1.4   0.285714
    8 1.6   0.375000
    9 1.8   0.444444
    10 2.0   0.500000
    15 3.0   0.666667
    20 4.0   0.750000
    30 6.0   0.833333
    50 10.0   0.900000
    100 20.0   0.950000
    1000 200.0   0.995000
    10000 2000.0   0.999500
    1000000 200000.0   0.999995

    Diese Tabelle veranschaulicht die Tatsache, dass je höher die Genauigkeit, desto höher die Wahrscheinlichkeit, den Gegenstand zu finden, ist groß.

    die allgemeinste Formel zur Definition von Wissen (Ordnung oder Unordnung) die man über ein System besitzt, ist:

    Informationen = Anzahl der Staaten / Genauigkeit

    Die Entropie ist ein logarithme_de ( Das habe ich noch nicht genau verstanden

    Entropie = Log( Unordnung ) = Log(Anzahl der Staaten)

  • Protokoll (Genauigkeit)

    Wir sehen also, dass bei einem perfekten Gleichgewicht zwischen Wahrnehmungsfähigkeit und was man sich selbst wahrzunehmen gibt, ist die Entropie null. _

    1.4.Entropie d un texte

  • eine Recherche zur Textentropie durchführen (Konferenz von Raphael_Bousso_de The_World_as_a_Hologram_de_nweb_deentropie d un texte)
  • die Textentropie aus dem statistischen Entropiefaktor von Boltzmann definieren
  • Text-Link-Analogie vs. Molekül-chemische Bindung (Entropie eines Kristalls vs. Gas) Gas= Text ohne Link Kristall = Text mit Link

    1.5.Neguentropie

    1.5.1.Sterische Wirkung

    der sterische Effekt in der Chemie ist die Tatsache, dass die räumliche Belegung eines Moleküls kann durch das Pauli-Ausschlussprinzip eine vorhersehbare chemische Reaktion verhindern durchzuführen, weil sich die Moleküle nicht nahe genug annähern können um zu reagieren.

    1.5.2.Negentropie sterische Wirkung

    der diskriminierende sterische Effekt im Vergleich zu Wasserstoff und anderen chemischen Verbindungen von größerer Größe könnte verwendet werden, um Wasserstoff von seinen Verbindungen zu trennen.
    Ein Gerät im Nanometerbereich könnte dafür verwendet werden.
    Das Durchsickern einer chemischen Verbindung durch eine solche Nanometerstruktur könnte die makroskopische Druckenergie in chemische Energie umwandeln mikroskopisch. Molekulare Unruhe würde nach dem Vorbild von Erschütterungen genutzt werden die man auf ein Sieb aufträgt, um feinere Bestandteile durchzulassen durch das Sieb.

    Die Wasserstoffatome könnten sich dann durch kovalente Bindungen rekombinieren um Wasserstoffgas zu bilden.