entropie et informatique ru энтропия_и_вычисления_ru_txh_som

энтропия и вычисление txh

back to the home page

version available in : en it zh es ja de nl pt fr

date of creation : 20240703- date of update : 20240703- generation date : 20240703_113950

1.энтропия и вычисления

L'. entropie  (или беспорядок) измеряет способность закрытой системы к эволюции.

Если энтропия низкая (упорядоченная система) система может эволюционировать По мере эволюции энтропия возрастает, и система становится менее способной к эволюции.

Потребление энергии на самом деле увеличивает энтропию, потому что энергия никогда не расходуется, согласно закону сохранения энергии, который является первым принципом термодинамики..

Когда энергия рассеивается или разрушается, ее энтропия увеличивается (это второй принцип термодинамики) .

Энтропия - это понятие, впервые введенное в макроскопическую термодинамику Клаузиусом, смысл которого был уточнен гораздо позже в статистической механике Больцманом..

Второй принцип термодинамики гласит, что энтропия может только возрастать или, в пределе, оставаться постоянной..

Энтропия - это понятие физики, связанное с точным измерением понятий порядка и беспорядка..

Порядок и беспорядок имеют фундаментальное значение для физики, которая занимается изучением законов функционирования физических систем, состоящих из очень большого количества объектов. (газ и его молекулы, например) .

Эта физика называется термодинамикой.

Большие числа открывают новые свойства, новые понятия, новые реалии и новый опыт..

Затем энтропия была переопределена следующим образом Shannon

в контексте теории информации, где энтропия отождествляется с количеством информации.

Теория информации лежит в основе компьютерной науки.

Энтропия и информация - это одно и то же понятие.

Чем сложнее система, тем выше ее энтропия и тем больше информации требуется для ее описания..

Например, одно и то же количество вещества в виде газа или в виде кристалла не описывается одинаковым количеством информации..

Если кристалл совершенен (без зазоров, смещений и т.д..

Шеннон Нвеб) тогда достаточно указать положение одного атома в кристалле и структуру кристаллической решетки, чтобы знать, где расположены все атомы в кристалле.

Поэтому для описания системы нам нужно совсем немного информации..

В такой системе энтропия очень мала.

Однако в случае с газом, поскольку между атомами нет связи, эти-должны быть описаны по отдельности, если мы хотим знать точное состояние системы.. Объем информации огромен, что связано с числом Авогадро 6..

022 10^23 и энтропия очень велика.

Затем было продемонстрировано, что определение Шеннона и определение термодинамики эквивалентны..

Для полноты картины стоит упомянуть, что после работ физиков Бекенштейна и Хокинга в динамике черных дыр появилась новая форма энтропии..

Эта энтропия привела к голографическому принципу Т'Хуфта.

Наименьшей единицей физической информации является область размером в квадрат длины Планка..

Планковская длина - наименьшая физическая длина, ниже которой понятие длины теряет смысл. (квантовая неопределённость) .

В энтропии есть два термина, которые стремятся аннулировать друг друга, потому что энтропия - это логарифм соотношения между двумя противоположными понятиями: Способность наблюдателя к восприятию и сложность воспринимаемой системы.

  • Сложность системы выражается количеством того, что можно воспринять, а это - число возможных состояний системы. (равновероятные состояния) .

  • способность к восприятию - это разрешение нашего восприятия, точность нашего наблюдения.

    Его конечность обеспечивает относительную неразличимость состояний, ... не слишком отличается.

    Чем больше неотличимых друг от друга состояний, тем больше беспорядка; мы не сможем "решить" реальное состояние, потому что наша способность к восприятию ограничена..

    Чем выше наша способность к восприятию, тем больше мы сможем различать возможные состояния системы..

    Таким образом, у нас будет больше "информации" о системе, и мы сможем увидеть ее в более организованном виде..

    Таким образом, порядок системы зависит от того, кто ее наблюдает.

    Давайте рассмотрим простой пример - офис..

    Человек, работающий за этим столом, имеет определенный уровень информации о состоянии своего стола.

    Его офис можно смоделировать в виде набора ящиков, используемых для определения местоположения объекта..

    Предметы хранятся в коробках.

    Если имеется N коробок и N предметов, по одному предмету в каждой коробке, то существует N! (факториал N) возможных состояний системы, при этом каждый объект может занимать каждую из ячеек.

    Чтобы убрать первый предмет, у нас есть N возможных коробок, а для второго N-1 коробка и т.д..

    Таким образом, количество вариантов расположения N предметов в N ящиках равно N * N-1 * N-2 * .... * 2 * 1 = N! т.е. факториал N.

    Рассмотрим конкретное состояние офисного хранилища.

    Предположим, что человеку прекрасно известно состояние офиса, то есть он знает, где найти каждый предмет, имея прямой доступ к ящику, в котором он находится..

    Поэтому в данном случае мы можем сказать, что для этого человека офис абсолютно опрятен, в нем царит идеальный порядок, и поэтому беспорядок (или энтропия) ноль.

    Предположим, что у другого человека меньше знаний о состоянии офиса..

    Этот человек знает "примерно", где находится тот или иной предмет, но ему придется предпринять несколько попыток, чтобы действительно найти данный предмет..

    Другими словами, ему придется потратить некоторое количество энергии. (снижать энергию) и время, чтобы "восстановить" недостающую информацию..

    Если с двух или трех попыток ему удается найти заданный объект.

    Можно сказать, что он не обладает совершенным знанием о состоянии системы, или что для него система слегка неупорядочена..

    Для этого человека беспорядок или энтропия не равны нулю.

    Предположим, что третий человек совершенно незнаком с этим офисом и поэтому не имеет никакой информации о его статусе..

    Чтобы найти предмет, этому человеку придется последовательно открыть все коробки, пока он не найдет искомый предмет..

    Для этого человека беспорядок или энтропия максимальны.

    Энтропия определяется факториалом N, N! что является хорошим представлением сложности системы, т.е. сложности понимания системы.

    Факториал строится следующим образом, для первого выбора коробки (тираж) существует N возможностей, на втором - N-1 возможность, в третьем N-2 и т.д..

    Поэтому сложность системы может быть представлена числом N*. (N-1) * (N-2) .... 3 * 2 * 1, что в точности соответствует факториалу N.

    И снова в этом примере мы предполагаем, что наблюдатель достаточно умен, чтобы быть в состоянии запомнить (использовать свой опыт работы с системой) и не искать в ящике, который он уже открывал и в котором не было искомого предмета.

    В противном случае сложность системы воспринималась бы наблюдателем как гораздо большая..

    Можно сказать, что вся система : Система наблюдения будет находиться в состоянии замешательства.

    Пример энтропии в компьютерной эргономике: Посмотрите на панель управления Windows.

    Сайт-Это омрачается значительной эргономической энтропией, поскольку иконки традиционно представлены на прямоугольной поверхности в неочевидном порядке..

    Если вы не знаете, где именно находится искомый значок, вы потратите (деградировать) определенное количество энергии, чтобы найти ее: Больше движений глаз, больше времени для взгляда (активность сетчатки) больше глазных мыслительных процессов, в конечном счете, больше потребления АТФ(аденозинтрифосфат: молекула энергии) и ионный потенциал.

    Была предпринята попытка классифицировать их по категориям, но это не совсем убедительно, поскольку создает дополнительный уровень восприятия. (мы уходим от деталей) а категории представляют собой несколько возможных состояний искомого объекта: у нас есть неразличимость.

    Алфавитная сортировка по ключевой букве в названии искомого объекта позволила бы эффективнее запоминать организацию, а также обеспечить ее сохранность во всех последующих версиях. (память делает время менее разрушительным) .

    Но это недоступно даже после того, как продукт существует уже более двадцати лет..

    Если быть точным, то энтропия связана с математическим логарифмом факториала.

    S = журнал (N!Шеннон Нвеб) Это объясняется тем, что logarithm_ru : Логарифм произведения равен сумме логарифмов двух коэффициентов этого произведения..

    " С точки зрения математических формул, мы имеем: Журнал( a * b ) = Журнал(a) Журнал(b) Если мы удвоим размер M = N * 2, если взять, например, два офиса, то энтропии складываются арифметически (говорят, что физическая энтропия является экстенсивным свойством системы) но сложность увеличивается в разы.

    Логарифм обеспечивает связь между факториальным понятием сложности системы и энтропией, которая является экстенсивной физической величиной и поэтому аддитивна..

    Модель_урны_Ehrenfest

    Формула_де_Больцмана

    На примере офиса мы видим, что как только человек начинает открывать ящики, то есть взаимодействовать с системой, он получает информацию о ней.-которые он может запомнить.

    В результате энтропия системы изменится, но для уменьшения энтропии ей придется расходовать энергию в других местах..

    Таким образом, это перемещение энтропии, поскольку в глобальной системе, считающейся замкнутой, энтропия может только расти. (это второй закон термодинамики) .

    В физических системах, таких как газы, наблюдатели, которые являются существами, характеризующимися определенным типом органов восприятия (человеческие существа, например) не отличаются по способности к восприятию.

    Именно это придает законам термодинамики объективность..

    Это иллюстрирует "парадокс демона" Максвелла..

    Максвелл разработал следующий эксперимент: два ящика расположены рядом друг с другом, между ними возможна связь.

    Изначально связь закрыта, и один из ящиков заполнен газом, а другой пуст..

    Если мы откроем коммуникацию, молекулы пройдут через нее и окажутся в другом ящике..

    Статистическая термодинамика говорит нам, что наиболее вероятным состоянием для этой системы является такое, при котором в обоих отсеках находится примерно одинаковое количество молекул..

    Это состояние термодинамического равновесия.

    Следует отметить, что на молекулы не действует никакая сила, заставляющая их переходить во второй ящик..

    Молекула может так же легко переместиться из первой коробки во вторую, как и наоборот, и именно это постоянно и происходит..

    Поэтому молекулы равномерно распределяются между двумя отсеками..

    Если в данный момент в одном отсеке находится больше молекул, то вероятность того, что они попадут в другой ящик, также становится больше, следовательно, равновесие сохраняется..

    Парадокс демона Максвелла - это идея о том, что маленький, чрезвычайно быстрый демон может закрыть связь и открыть ее только тогда, когда в одном направлении проходит больше молекул, чем в другом..

    Этот демон создаст диссимметрию в распределении молекул и, следовательно, сможет опустошить одну коробку, чтобы заполнить другую..

    Этот демон способен различать точное состояние системы, поскольку работает на микроскопическом уровне молекул..

    Разрешение такого парадокса состоит в том, что демон Максвелла не может существовать.

    В случае термодинамической физики это действительно так, но для гораздо менее сложных систем легко представить различные способности к восприятию, как в примере с офисом..

    В связи с этим в термодинамике мы пренебрегаем аспектом "способности воспринимать информацию" и концентрируемся в основном на количестве информации..

    Но это лишь приближение.

    Это приближение теряет силу, если мы имеем дело с системой, которая может восприниматься людьми по-разному..

    И компьютерные системы - хороший пример таких систем..

    Понятие энтропии возникло в конкретном контексте физической системы, которая рассеивает энергию, чтобы достичь термодинамического равновесия, при котором энтропия максимальна..

    Например, теплоизолированный снаружи корпус, содержащий два соприкасающихся отсека одинакового размера, заполненных водой, где температура воды в одном отсеке равна 0°, а в другом - 100°, в силу второго принципа термодинамики естественным образом эволюционирует к ситуации, когда температура в обоих резервуарах равна 50°..

    Это последнее состояние является стабильным, и, если нет внешней энергии, система не изменится. (если мы считаем систему абсолютно стерильной с биологической точки зрения, поскольку жизнь могла бы использовать тепловую энергию, содержащуюся в корпусе, для организации материи) .

    В 1960-х годах Илья Пригожин, получивший за свою работу Нобелевскую премию в 1977 году, заинтересовался тем, что происходит с системой, когда ее постоянно удерживают от состояния термодинамического равновесия постоянным притоком энергии..

    Затем он заметил, что диссипация энергии приводит к появлению порядка в материи, который он назвал диссипативными структурами..

    Диссипативные структуры - это природные структуры, обладающие свойством самоподдерживаться.-организация: " Автомобиль-организация - это явление увеличения порядка, противоположное увеличению энтропии (или беспорядок, символ S) ; ценой рассеивания энергии, необходимой для поддержания этой структуры.

    Это тенденция к самоорганизации физических процессов, живых организмов и социальных систем.-тот же ; Мы также поговорим об авто-сборка.

    Когда критический порог сложности пройден, системы могут изменить состояние, или перейти из нестабильной фазы в стабильную..

    " Фундаментальный закон таких систем можно свести к простому уравнению d²S=0, установленная лауреатом Нобелевской премии по физике Ильей Пригожиным, означает, что система, которая сама себя-организует себя, создавая минимум беспорядка по мере увеличения сложности..

    Для живого организма не-Соблюдение этого закона приводит к возвращению к термодинамическому равновесию, которое для него является смертью..

    Долговечность ИТ-системы в основном зависит от ее способности реагировать на потребности, а значит, развиваться одновременно с развитием системы.-ci.

    Если содержание системы становится слишком дорогим по сравнению с новыми услугами, которые она будет предоставлять, то ее существование ставится под сомнение, и вскоре она заменяется более эффективной системой..

    Уравнение простое: если стоимость обслуживания становится равной стоимости замены, мы выбираем замену.

    Говоря более атомарным языком, можно сказать, что если мы тратим столько же энергии на поиск информации, сколько и на ее восстановление, значит, мы ее потеряли..

    По мере роста компьютерных систем, если в них не соблюдается закон минимума энтропии, создаваемой (для упрощения избыточности) с ростом сложности их становится все труднее поддерживать, и в конце концов они исчезают, что эквивалентно возвращению к термодинамическому равновесию (диссипативная структура исчезает) .

    2.энтропия компьютера

    Компьютерные системы являются примером таких структур : они диссипативны, поскольку энергия (и, следовательно, финансовые затраты) используется для их создания и поддержания.

    Если мы посмотрим на развитие компьютерной науки, то увидим, что постоянной тенденцией является уменьшение избыточности..

    В этом направлении в ИТ-секторе происходят следующие события:

    2.1.сокращение избыточности ИТ

    2.2.пример энтропии в компьютерной эргономике

    Пример энтропии в компьютерной эргономике: Посмотрите на панель управления Windows.

    Сайт-Это омрачается значительной эргономической энтропией, поскольку иконки традиционно располагаются на прямоугольной поверхности в произвольном порядке..

    Если вы не знаете, где именно находится искомый значок, вы потратите (деградировать) определенное количество энергии, чтобы найти ее: Больше движений глаз, больше времени для взгляда (активность сетчатки) больше глазных мыслительных процессов, в конечном счете, больше потребления АТФ (Аденозинтрифосфат) и ионный потенциал.

    Была предпринята попытка классифицировать их по категориям, но это не является окончательным, поскольку создает дополнительный уровень восприятия. (мы уходим от деталей) а категории представляют собой несколько возможных состояний искомого объекта: у нас есть неразличимость.

    Существует сортировка по алфавиту, основанная на первой букве метки значка, но первая буква не сортируется по алфавиту.-это не обязательно соответствует искомой функции и может быть излишним (например, "Centre de ...") .

    Доступ к панели управления Windows также изменяется-в зависимости от версии ! Если вы меняете версии или работаете с несколькими версиями (ваш персональный компьютер, серверы Windows, к которым вы подключаетесь ...пример энтропии в компьютерной эргономике) По своей природе она разрушительна: путаница и потерянное время.

  • Долговечность ИТ-системы в основном зависит от ее способности реагировать на потребности, а значит, развиваться одновременно с развитием системы.-ci.

  • Если содержание системы становится слишком дорогим по сравнению с новыми услугами, которые она будет предоставлять, то ее существование ставится под сомнение, и вскоре она заменяется более эффективной системой..

  • уравнение простое: если стоимость обслуживания становится равной стоимости замены, мы выбираем замену.

  • В более атомарных терминах можно сказать, что если мы тратим столько же энергии на поиск информации, сколько на ее восстановление, то мы ее потеряли..

  • при росте компьютерных систем, если в них не соблюдается закон минимума создаваемой энтропии (для упрощения избыточности) с ростом сложности их становится все труднее поддерживать, и в конце концов они исчезают, что эквивалентно возвращению к термодинамическому равновесию (диссипативная структура исчезает) .