Главная » 1 Описание » Термин энтропия. Энтропия – что это такое простыми словами

Термин энтропия. Энтропия – что это такое простыми словами

Энтропия. Пожалуй, это одно из самых сложных для понимания понятий, с которым вы можете встретиться в курсе физики, по крайней мере если говорить о физике классической. Мало кто из выпускников физических факультетов может объяснить, что это такое. Большинство проблем с пониманием энтропии, однако, можно снять, если понять одну вещь. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, потому что является свойством не системы, а того, как мы эту систему рассматриваем. К сожалению в курсе термодинамики её обычно рассматривают наравне с другими термодинамическими функциями, что усугубляет непонимание.

Так что же такое энтропия?

Если в двух словах, то

Энтропия - это то, как много информации вам не известно о системе

Например, если вы спросите меня, где я живу, и я отвечу: в России, то моя энтропия для вас будет высока, всё-таки Россия большая страна. Если же я назову вам свой почтовый индекс: 603081, то моя энтропия для вас понизится, поскольку вы получите больше информации.


Почтовый индекс содержит шесть цифр, то есть я дал вам шесть символов информации. Энтропия вашего знания обо мне понизилась приблизительно на 6 символов. (На самом деле, не совсем, потому что некоторые индексы отвечают большему количеству адресов, а некоторые - меньшему, но мы этим пренебрежём).

Или рассмотрим другой пример. Пусть у меня есть десять игральных костей (шестигранных), и выбросив их, я вам сообщаю, что их сумма равна 30. Зная только это, вы не можете сказать, какие конкретно цифры на каждой из костей - вам не хватает информации. Эти конкретные цифры на костях в статистической физике называют микросостояниями, а общую сумму (30 в нашем случае) - макросостоянием. Существует 2 930 455 микросостояний, которые отвечают сумме равной 30. Так что энтропия этого макросостояния равна приблизительно 6,5 символам (половинка появляется из-за того, что при нумерации микросостояний по порядку в седьмом разряде вам доступны не все цифры, а только 0, 1 и 2).


А что если бы я вам сказал, что сумма равна 59? Для этого макросостояния существует всего 10 возможных микросостояний, так что его энтропия равна всего лишь одному символу. Как видите, разные макросостояния имеют разные энтропии.

Пусть теперь я вам скажу, что сумма первых пяти костей 13, а сумма остальных пяти - 17, так что общая сумма снова 30. У вас, однако, в этом случае имеется больше информации, поэтому энтропия системы для вас должна упасть. И, действительно, 13 на пяти костях можно получить 420-ю разными способами, а 17 - 780-ю, то есть полное число микросостояний составит всего лишь 420х780 = 327 600. Энтропия такой системы приблизительно на один символ меньше, чем в первом примере.

Мы измеряем энтропию как количество символов, необходимых для записи числа микросостояний. Математически это количество определяется как логарифм, поэтому обозначив энтропию символом S, а число микросостояний символом Ω, мы можем записать:

Это есть ничто иное как формула Больцмана (с точностью до множителя k, который зависит от выбранных единиц измерения) для энтропии. Если макросостоянию отвечают одно микросостояние, его энтропия по этой формуле равна нулю. Если у вас есть две системы, то полная энтропия равна сумме энтропий каждой из этих систем, потому что log(AB) = log A + log B.

Из приведённого выше описания становится понятно, почему не следует думать об энтропии как о собственном свойстве системы. У системы есть определённые внутренняя энергия, импульс, заряд, но у неё нет определённой энтропии: энтропия десяти костей зависит от того, известна вам только их полная сумма, или также и частные суммы пятёрок костей.

Другими словами, энтропия - это то, как мы описываем систему. И это делает её сильно отличной от других величин, с которыми принято работать в физике.

Физический пример: газ под поршнем

Классической системой, которую рассматривают в физике, является газ, находящийся в сосуде под поршнем. Микросостояние газа - это положение и импульс (скорость) каждой его молекулы. Это эквивалентно тому, что вы знаете значение, выпавшее на каждой кости в рассмотренном раньше примере. Макросостояние газа описывается такими величинами как давление, плотность, объём, химический состав. Это как сумма значений, выпавших на костях.


Величины, описывающие макросостояние, могут быть связаны друг с другом через так называемое «уравнение состояния». Именно наличие этой связи позволяет, не зная микросостояний, предсказывать, что будет с нашей системой, если начать её нагревать или перемещать поршень. Для идеального газа уравнение состояния имеет простой вид:

хотя вы, скорее всего, лучше знакомы с уравнением Клапейрона - Менделеева pV = νRT - это то же самое уравнение, только с добавлением пары констант, чтобы вас запутать. Чем больше микросостояний отвечают данному макросостоянию, то есть чем больше частиц входят в состав нашей системы, тем лучше уравнение состояния её описывает. Для газа характерные значения числа частиц равны числу Авогадро, то есть составляют порядка 10 23 .

Величины типа давления, температуры и плотности называются усреднёнными, поскольку являются усреднённым проявлением постоянно сменяющих друг друга микросостояний, отвечающих данному макросостоянию (или, вернее, близким к нему макросостояниям). Чтобы узнать в каком микросостоянии находится система, нам надо очень много информации - мы должны знать положение и скорость каждой частицы. Количество этой информации и называется энтропией.

Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, быстро отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.

Твёрдые тела и потенциальная энергия

Если мы рассмотрим вместо газа какое-нибудь твёрдое тело, особенно с упорядоченной структурой, как в кристаллах, например, кусок металла, то его энтропия будет невелика. Почему? Потому что зная положение одного атома в такой структуре, вы знаете и положение всех остальных (они же выстроены в правильную кристаллическую структуру), скорости же атомов невелики, потому что они не могут улететь далеко от своего положения и лишь немного колеблются вокруг положения равновесия.


Если кусок металла находится в поле тяготения (например, поднят над поверхностью Земли), то потенциальная энергия каждого атома в металле приблизительно равна потенциальной энергии других атомов, и связанная с этой энергией энтропия низка. Это отличает потенциальную энергию от кинетической, которая для теплового движения может сильно меняться от атома к атому.

Если кусок металла, поднятый на некоторую высоту, отпустить, то его потенциальная энергия будет переходить в кинетическую энергию, но энтропия возрастать практически не будет, потому что все атомы будут двигаться приблизительно одинаково. Но когда кусок упадёт на землю, во время удара атомы металла получат случайное направление движения, и энтропия резко увеличится. Кинетическая энергия направленного движения перейдёт в кинетическую энергию теплового движения. Перед ударом мы приблизительно знали, как движется каждый атом, теперь мы эту информацию потеряли.

Понимаем второй закон термодинамики

Второй закон термодинамики утверждает, что энтропия (закрытой системы) всегда увеличивается. Мы теперь можем понять, почему: потому что невозможно внезапно получить больше информации о микросостояниях. Как только вы потеряли некую информацию о микросостоянии (как во время удара куска металла об землю), вы не можете вернуть её назад.


Давайте вернёмся обратно к игральным костям. Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто. Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.

Перемешивание газов

И ещё один пример, чтобы закрепить сказанное. Пусть у нас имеется контейнер, в котором находятся два газа, разделённых расположенной посередине контейнера перегородкой. Назовём молекулы одного газа синими, а другого - красными.

Если открыть перегородку, газы начнут перемешиваться, потому что число микросостояний, в которых газы перемешаны, намного больше, чем микросостояний, в которых они разделены, и все микросостояния, естественно, равновероятны. Когда мы открыли перегородку, для каждой молекулы мы потеряли информацию о том, с какой стороны перегородки она теперь находится. Если молекул было N, то утеряно N бит информации (биты и символы, в данном контексте, это, фактически, одно и тоже, и отличаются только неким постоянным множителем).

Разбираемся с демоном Максвелла

Ну и напоследок рассмотрим решение в рамках нашей парадигмы знаменитого парадокса демона Максвелла. Напомню, что он заключается в следующем. Пусть у нас есть перемешанные газы из синих и красных молекул. Поставим обратно перегородку, проделав в ней небольшое отверстие, в которое посадим воображаемого демона. Его задача - пропускать слева направо только красных, и справа налево только синих. Очевидно, что через некоторое время газы снова будут разделены: все синие молекулы окажутся слева от перегородки, а все красные - справа.

Получается, что наш демон понизил энтропию системы. С демоном ничего не случилось, то есть его энтропия не изменилась, а система у нас была закрытой. Получается, что мы нашли пример, когда второй закон термодинамики не выполняется! Как такое оказалось возможно?

Решается этот парадокс, однако, очень просто. Ведь энтропия - это свойство не системы, а нашего знания об этой системе. Мы с вами знаем о системе мало, поэтому нам и кажется, что её энтропия уменьшается. Но наш демон знает о системе очень много - чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему). Если он знает о молекулах всё, то с его точки зрения энтропия системы, фактически, равна нулю - у него просто нет недостающей информации о ней. В этом случае энтропия системы как была равна нулю, так и осталась равной нулю, и второй закон термодинамики нигде не нарушился.

Но даже если демон не знает всей информации о микросостоянии системы, ему, как минимум, надо знать цвет подлетающей к нему молекулы, чтобы понять, пропускать её или нет. И если общее число молекул равно N, то демон должен обладать N бит информации о системе - но именно столько информации мы и потеряли, когда открыли перегородку. То есть количество потерянной информации в точности равно количеству информации, которую необходимо получить о системе, чтобы вернуть её в исходное состояние - и это звучит вполне логично, и опять же не противоречит второму закону термодинамики.

Этот пост является вольным переводом ответа, который Mark Eichenlaub дал на вопрос What’s an intuitive way to understand entropy? , заданный на сайте Quora.

ЭНТРОПИЯ

ЭНТРОПИЯ

(от греч. entropia – поворот, )

часть внутренней энергии замкнутой системы или энергетической совокупности Вселенной, которая не может быть использована, в частности не может перейти или быть преобразована в механическую работу. Точное энтропии производится с помощью математических расчетов. Наиболее отчетливо эффект энтропии виден на примере термодинамических процессов. Так, никогда совершенно не переходит в механическую работу, преобразуясь в др. виды энергии. Примечательно, что при обратимых процессах величина энтропии остается неизменной, при необратимых, наоборот, неуклонно возрастает, причем этот прирост происходит за счет уменьшения механической энергии. Следовательно, все то необратимых процессов, которые происходят в природе, сопровождается уменьшением механической энергии, что в конечном итоге должно привести к всеобщему параличу, или, говоря иначе, «тепловой смерти». Но такой правомочен лишь в случае постулирования тоталитарности Вселенной как замкнутой эмпирической данности. Христ. теологи, основываясь на энтропии, говорили о конечности мира, используя ее как существования Бога.

Философский энциклопедический словарь . 2010 .

ЭНТРОПИЯ

(греч. ἐντροπία – поворот, превращение) – состояния термодинамич. системы, характеризующая направление протекания самопроизвольных процессов в этой системе и являющаяся мерой их необратимости. Понятие Э. введено в 1865 Р. Клаузиусом для характеристики процессов превращения энергии; в 1877 Л. Больцман дал ему статистич. истолкование. При помощи понятия Э. формулируется второе начало термодинамики: Э. термоизолированной системы всегда только увеличивается, т.е. такая , предоставленная самой себе, стремится к тепловому равновесию, при к-ром Э. максимальна. В статистич. физике Э. выражает неопределенность микроскопич. состояния системы: чем больше микроскопич. состояний системы соответствуют данному макроскопич. состоянию, тем выше термодинамич. и Э. последнего. Система с маловероятной структурой, предоставленная самой себе, развивается в сторону наиболее вероятной структуры, т.е. в сторону возрастания Э. Это, однако, относится только к замкнутым системам, поэтому Э. не может быть использована для обоснования тепловой смерти вселенной. В теории и н ф о р м а ц и и Э. рассматривается как недостатка информации в системе. В кибернетике при помощи понятий Э. и негэнтропии (отрицат. энтропии) выражают меру организованности системы. Будучи справедливой применительно к системам, подчиняющимся статистич. закономерностям, эта мера, однако, требует большой осторожности при переносе на биологические, языковые и социальные системы.

Лит.: Шамбадаль П., Развитие и приложения понятия Э., [пер. с .], М., 1967; Пирс Дж., Символы, сигналы, шумы, [пер. с англ.], М., 1967.

Л. Фаткин. Москва.

Философская Энциклопедия. В 5-х т. - М.: Советская энциклопедия . Под редакцией Ф. В. Константинова . 1960-1970 .


Синонимы :

Смотреть что такое "ЭНТРОПИЯ" в других словарях:

    - (от греч. entropia поворот, превращение), понятие, впервые введённое в термодинамике для определения меры необратимого рассеяния энергии. Э. широко применяется и в др. областях науки: в статистической физике как мера вероятности осуществления к.… … Физическая энциклопедия

    ЭНТРОПИЯ, показатель случайности или неупорядоченности строения физической системы. В ТЕРМОДИНАМИКЕ энтропия выражает количество тепловой энергии, пригодной для совершения работы: чем энергии меньше, тем выше энтропия. В масштабах Вселенной… … Научно-технический энциклопедический словарь

    Мера внутренней неупорядоченности информационной системы. Энтропия увеличивается при хаотическом распределении информационных ресурсов и уменьшается при их упорядочении. По английски: Entropy См. также: Информация Финансовый словарь Финам … Финансовый словарь

    - [англ. entropy Словарь иностранных слов русского языка

    Энтропия - Энтропия ♦ Entropie Свойство состояния изолированной (или принимаемой за таковую) физической системы, характеризуемое количеством самопроизвольного изменения, на которое она способна. Энтропия системы достигает максимума, когда она полностью … Философский словарь Спонвиля

    - (от греч. entropia поворот превращение) (обычно обозначается S), функция состояния термодинамической системы, изменение которой dS в равновесном процессе равно отношению количества теплоты dQ, сообщенного системе или отведенного от нее, к… … Большой Энциклопедический словарь

    Беспорядок, разлад Словарь русских синонимов. энтропия сущ., кол во синонимов: 2 беспорядок (127) … Словарь синонимов

    - (от греч. en в, внутрь и trope поворот, превращение), величина, характеризующая меру связанной энергии (D S), которая в изотермическом процессе не может быть превращена в работу. Она определяется логарифмом термодинамической вероятности и… … Экологический словарь

    энтропия - и, ж. entropie f., нем. Entropie <гр. en в, внутрь + trope поворот, превращение. 1. Физическая величина, характеризующая тепловое состояние тела или системы тел и возможные изменения этих состояний. Вычисление энтропии. БАС 1. ||… … Исторический словарь галлицизмов русского языка

    ЭНТРОПИЯ - ЭНТРОПИЯ, понятие, вводимое в термодинамике и являющееся как бы мерой необратимости процесса, мерой перехода энергии в такую форму, из к рой она не может самопроизвольно перейти в другие формы. Все мыслимые процессы, протекающие в любой системе,… … Большая медицинская энциклопедия

  • Энтропи́я (от др.-греч. ἐντροπία «поворот», «превращение») - широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия характеризует вероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике.

    Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы, например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации. Таким образом, другой интерпретацией энтропии является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации (Клод Шеннон) сначала хотел назвать эту величину информацией.

    Понятие информационной энтропии применяется как в теории информации и математической статистике, так и в статистической физике (энтропия Гиббса и её упрощённый вариант - энтропия Больцмана). Математический смысл информационной энтропии - это логарифм числа доступных состояний системы (основание логарифма может быть различным, оно определяет единицу измерения энтропии). Такая функция от числа состояний обеспечивает свойство аддитивности энтропии для независимых систем. Причём, если состояния различаются по степени доступности (т. е. не равновероятны), под числом состояний системы нужно понимать их эффективное количество, которое определяется следующим образом. Пусть состояния системы равновероятны и имеют вероятность

    {\displaystyle p}

    Тогда число состояний

    {\displaystyle N=1/p}

    {\displaystyle \log N=\log(1/p)}

    В случае разных вероятностей состояний

    {\displaystyle p_{i}}

    Рассмотрим средневзвешенную величину

    {\displaystyle \log {\overline {N}}=\sum _{i=1}^{N}p_{i}\log(1/p_{i})}

    {\displaystyle {\overline {N}}}

    Эффективное количество состояний. Из данной интерпретации непосредственно вытекает выражение для информационной энтропии Шеннона

    {\displaystyle H=\log {\overline {N}}=-\sum _{i=1}^{N}p_{i}\log p_{i}}

    Подобная интерпретация справедлива и для энтропии Реньи, которая является одним из обобщений понятия информационная энтропия, но в этом случае иначе определяется эффективное количество состояний системы (можно показать, что энтропии Реньи соответствует эффективное количество состояний, определяемое как среднее степенное взвешенное с параметром

    {\displaystyle q\leq 1}

    Энтропия - это слово, которое многие слышали, но мало кто понимает. И стоит признать, что до конца осознать всю сущность этого явления действительно сложно. Однако это не должно нас пугать. Очень многое из того, что нас окружает, мы, по сути, объяснить можем лишь поверхностно. И речь не идет о восприятии или знании какого-то конкретного индивидуума. Нет. Мы говорим обо всей совокупности научных знаний, которыми располагает человечество.

    Серьезные пробелы имеются не только в знаниях галактических масштабов, например, в вопросах о и червоточинах, но и в том, что окружает нас постоянно. Например, до сих пор ведутся споры о физической природе света. А кто может разложить по полочкам понятие времени? Подобных вопросов - великое множество. Но в этой статье речь пойдет именно об энтропии. Многие годы ученые бьются над понятием "энтропия". Химия и физика рука об руку идут в изучении этого Мы постараемся выяснить, что же стало известно к нашему времени.

    Введение понятия в научном кругу

    Впервые понятие энтропии в среду специалистов ввел выдающийся немецкий математик Рудольф Юлиус Эммануэль Клаузиус. Если говорить простым языком, ученый решил выяснить, куда девается энергия. В каком смысле? Для иллюстрации не будем обращаться к многочисленным опытам и сложным умозаключениям математика, а возьмем пример, больше знакомый нам по повседневной жизни.

    Вам должно быть прекрасно известно, что когда вы заряжаете, скажем, аккумулятор мобильного телефона, количество энергии, которое аккумулируется в элементы питания, будет меньше реально полученной от сети. Происходят определенные потери. И в повседневной жизни мы к этому привыкли. Но дело в том, что подобные потери происходят и в других замкнутых системах. А для физиков-математиков это уже представляет серьезную проблему. Исследованием этого вопроса и занимался Рудольф Клаузиус.

    В результате он вывел прелюбопытнейший факт. Если мы, опять-таки, уберем сложную терминологию, он сведется к тому, что энтропия - это разница между идеальным и реальным процессом.

    Представьте, что вы владеете магазином. И вы получили под реализацию 100 килограмм грейпфрутов по цене 10 тугриков за килограмм. Поставив наценку в 2 тугрика на кило, вы в результате продажи получите 1200 тугриков, отдадите положенную сумму поставщику и оставите себе прибыль в размере двухсот тугриков.

    Так вот, это было описание процесса идеального. И любой торговец знает, что к тому времени, как продадутся все грейпфруты, они успеют усохнуть на 15 процентов. А 20 процентов и вовсе сгниют, и их придется просто списать. А вот это уже процесс реальный.

    Так вот, понятие энтропии, которое ввел в математическую среду Рудольф Клаузиус, определяется как взаимосвязь системы, в которой прирост энтропии зависит от отношения температуры системы к значению абсолютного нуля. По сути, оно показывает значение отработанной (потерянной) энергии.

    Показатель меры хаоса

    Еще можно с некоторой долей убежденности утверждать, что энтропия - это мера хаоса. То есть если взять в качестве модели замкнутой системы комнату обычного школьника, то не убранная на место школьная форма будет уже характеризовать некоторую энтропию. Но ее значение в этой ситуации будет небольшим. А вот если в дополнение к этому раскидать игрушки, принести с кухни попкорн (естественно, немного уронив) и оставить в беспорядке на столе все учебники, то энтропия системы (а в данном конкретном случае - этой комнаты) резко повысится.

    Сложные материи

    Энтропия вещества - очень сложный для описания процесс. Многие ученые на протяжении последнего столетия внесли свой вклад в изучение механизма ее работы. Причем понятие энтропии используют не только математики и физики. Она также занимает заслуженное место в химии. А некоторые умельцы с ее помощью объясняют даже психологические процессы в отношениях между людьми. Проследим разницу в формулировках трех физиков. Каждая из них раскрывает энтропию с другой стороны, а их совокупность поможет нам нарисовать для себя более целостную картину.

    Утверждение Клаузиуса

    Невозможен процесс перехода теплоты от тела с более низкой температурой к телу с более высокой.

    Убедиться в этом постулате несложно. Вы никогда не сможете холодными руками согреть, скажем, замерзшего маленького щенка, как бы вам ни хотелось ему помочь. Поэтому придется засунуть его за пазуху, где температура выше, чем у него в данный момент.

    Утверждение Томсона

    Невозможен процесс, результатом которого было бы совершение работы за счет теплоты, взятой от одного какого-то тела.

    А если совсем просто, то это означает, что физически невозможно сконструировать вечный двигатель. Не позволит энтропия замкнутой системы.

    Утверждение Больцмана

    Энтропия не может уменьшаться в замкнутых системах, то есть в тех, что не получают внешней энергетической подпитки.

    Эта формулировка пошатнула веру многих приверженцев теории эволюции и заставила их всерьез задуматься о наличии у Вселенной разумного Творца. Почему?

    Потому что по умолчанию в замкнутой системе энтропия всегда увеличивается. А значит, усугубляется хаос. Уменьшить ее можно лишь благодаря внешней энергетической подпитке. И этот закон мы наблюдаем каждый день. Если не ухаживать за садом, домом, машиной и т. д., то они попросту придут в негодность.

    В мегамасштабах наша Вселенная - тоже замкнутая система. И ученые пришли к выводу, что само наше существование должно свидетельствовать о том, что откуда-то эта внешняя подпитка энергией происходит. Поэтому сегодня никого не удивляет то, что астрофизики верят в Бога.

    Стрела времени

    Еще одну весьма остроумную иллюстрацию энтропии можно представить в виде стрелы времени. То есть энтропия показывает, в какую сторону будет двигаться процесс в физическом отношении.

    И действительно, вряд ли, узнав об увольнении садовника, вы будете ожидать, что территория, за которую он отвечал, станет более аккуратной и ухоженной. Как раз наоборот - если не нанять другого работника, через какое-то время даже самый красивый сад придет в запустение.

    Энтропия в химии

    В дисциплине "Химия" энтропия является важным показателем. В некоторых случаях ее значение влияет на протекание химических реакций.

    Кто не видел кадров из художественных фильмов, в которых герои очень аккуратно переносили емкости с нитроглицерином, опасаясь спровоцировать взрыв неосторожным резким движением? Это было наглядным пособием к принципу действия энтропии в химическом веществе. Если бы ее показатель достиг критической отметки, то началась бы реакция, в результате которой происходит взрыв.

    Порядок беспорядка

    Чаще всего утверждают, что энтропия - это стремление к хаосу. Вообще слово «энтропия» означает превращение или поворот. Мы уже говорили, что оно характеризирует действие. Очень интересна в этом контексте энтропия газа. Давайте попробуем представить, как она происходит.

    Берем замкнутую систему, состоящую из двух соединенных емкостей, в каждой из которых находится газ. Давление в емкостях, пока они не были герметично соединены между собой, было разным. Представьте, что произошло на молекулярном уровне, когда их соединили.

    Толпа молекул, находившаяся под более сильным давлением, тут же устремилась к своим собратьям, жившим до того достаточно вольготно. Тем самым они увеличили там давление. Это можно сравнить с тем, как плещется вода в ванной. Набежав на одну сторону, она тут же устремляется к другой. Так же и наши молекулы. И в нашей идеально изолированной от внешнего воздействия системе они будут толкаться до тех пор, пока во всем объеме не установится безукоризненное равновесие. И вот, когда вокруг каждой молекулы будет ровно столько же пространства, сколько и у соседней, все успокоится. И это будет наивысшая энтропия в химии. Повороты и превращения прекратятся.

    Стандартная энтропия

    Ученые не оставляют попыток упорядочить и классифицировать даже беспорядок. Так как значение энтропии зависит от множества сопутствующих условий, было введено понятие «стандартная энтропия». Значения сведены в специальные таблицы, чтобы можно было легко проводить вычисления и решать разнообразные прикладные задачи.

    По умолчанию значения стандартной энтропии рассматривают при условиях давления в одну атмосферу и температуры в 25 градусов Цельсия. При повышении температуры данный показатель также растет.

    Коды и шифры

    Существует еще и информационная энтропия. Она призвана помогать в шифровке кодированных посланий. В отношении информации энтропия - это значение вероятности предсказуемости информации. А если совсем простым языком, то это то, насколько легко будет взломать перехваченный шифр.

    Как это работает? На первый взгляд кажется, что без хоть каких-нибудь исходных данных понять закодированное послание нельзя. Но это не совсем так. Тут в дело вступает вероятность.

    Представьте себе страницу с шифрованным посланием. Вам известно, что использовался русский язык, но символы абсолютно незнакомые. С чего начать? Подумайте: какова вероятность того, что на этой странице встретится буква «ъ»? А возможность наткнуться на литеру «о»? Систему вы поняли. Высчитываются символы, которые встречаются чаще всего (и реже всего - это тоже немаловажный показатель), и сопоставляются с особенностями языка, на котором было составлено послание.

    Кроме того, существуют частые, а в некоторых языках и неизменные буквосочетания. Эти знания также используются для расшифровки. Кстати, именно этот способ использовал знаменитый Шерлок Холмс в рассказе «Пляшущие человечки». Таким же образом взламывали коды в преддверии Второй мировой войны.

    А информационная энтропия призвана увеличить надежность кодировки. Благодаря выведенным формулам математики могут анализировать и улучшать предлагаемые шифровщиками варианты.

    Связь с темной материей

    Теорий, которые пока только ждут своего подтверждения, великое множество. Одна из них связывает явление энтропии со сравнительно недавно открытой Она гласит, что утраченная энергия просто преобразуется в темную. Астрономы допускают, что в нашей Вселенной всего 4 процента приходится на известную нам материю. А остальные 96 процентов заняты неизученной на данный момент - темной.

    Такое название она получила из-за того, что не взаимодействует с электромагнитным излучением и не испускает его (как все известные до этого времени объекты во Вселенной). А потому на данном этапе развития науки изучение темной материи и ее свойств не представляется возможным.

    Понятие “Энтропия” (ударение на последнем слоге) впервые появилось в термодинамике. Там оно обозначает степень рассеивания энергии в замкнутой системе. В общем смысле под энтропией понимают степень развития хаоса или разрушения первоначально установленного порядка в замкнутой системе.

    Энтропия в закрытой системе, как её понимают физики

    Пример из жизни: Возьмём некую замкнутую систему. Допустим, Ребенок + Кожаный мяч в комнате. Ребенок произвольно пользуется мячом – играет, ударяет об пол, подбрасывает к потолку… Через 6 месяцев активного использования мяч заметно сдулся, играть им стало труднее. Замкнутая система открывается: приходит папа с насосом и накачивает мяч. Функции мяча, подвергнутого энтропии, восстанавливаются.

    2 закон термодинамики гласит, что энтропия в замкнутой системе не может уменьшаться, она только увеличивается.

    Даже если замкнутая система с мячом не предполагает активного разрушающего фактора (играющий ребёнок), энтропия всё равно будет, хоть и с меньшими показателями.

    Пример 2. Мяч 6 месяцев пролежал в комнате: сдулся незначительно, но сильно покрылся пылью и немного выцвел со стороны, обращенной к окну.

    Чтобы энтропия уменьшилась в закрытой системе, надо ее открыть и добавить в неё ресурс из другой системы. Чтобы мяч восстановить в прежних размерах, нужно внести в замкнутую систему изменения с помощью папиной энергии и нового воздуха, закачанного насосом в мяч. Чтобы мяч, пролежавший в комнате, вернул первоначальные свойства, мама должна вытереть его мокрой тряпкой от пыли, а сестра – покрыть новой краской.

    Понятием энтропии пользуются многие сферы человеческих знаний и деятельности:

    • биология и медицина;
    • химия;
    • физика;
    • информатика и программирование;
    • социология;
    • психология и др.

    Энтропия в биосистемах

    Все биосистемы (живые системы) являются открытыми, а не закрытыми, поэтому понятие энтропии в биосистеме несколько отличается от энтропии неживых объектов, рассматриваемых физиками.

    Биосистемы находятся в состоянии динамического равновесия. Оно существует по другим законам, нежели термодинамическое равновесие. Системы любого живого организма открыты для взаимодействия друг с другом в рамках самого организма, а сам организм в свою очередь открыт для взаимодействия с окружающей средой местности планеты. Планета, как живой организм, в свою очередь, подвержена влиянию и взаимодействию с одной стороны – с живыми организмами, её населяющими, а с другой – с космическими объектами и явлениями.

    Все это создаёт разветвлённую систему корректировок, чтобы поддерживать между всеми и во всех живых организмах гомеостаз – то есть баланс. Явление энтропии (разрушения и разбалансировки) является самым сложным в больших живых системах. Ведь они используют увеличивающуюся энтропию одних своих частей в качестве пищи и строительного материала для уменьшения энтропии в других своих частях.

    Энтропия в теории информации и коммуникаций

    Над данной темой в этой сфере работал Клод Шеннон. Он изучал рациональные способы передачи информации через зашумлённый канал. По Шеннону, энтропия – это мера непредсказуемости какого-либо опыта, события, испытания. Это количество информации на 1 сообщение источника, выдающего независимые сообщения.

    Он рассматривал информационную энтропию в своей «Математической теории Коммуникации», где ввёл связанное понятие «вероятность». По Шеннону, чем меньше вероятность какого-либо события, тем больше информации оно содержит.

    Энтропия в социуме

    Это степень отклонения социальной системы, организации (предприятия) и т.д. от принятой нормы (эталона) и установленных целей. На социальную энтропию влияют:

    • Деятельность людей;
    • Ошибки управления;
    • Недостаток информации;
    • Ошибки планирования;
    • Ошибками в подборе персонала.

    Обобщая до бытового уровня, можно сказать, что “Энтропия” – это мера или степень беспорядка (хаоса) или неопределённости.

    Существуют 3 понятия, противоположные энтропии:

    1. Негэнтропия;
    2. Синтропия;
    3. Отрицательная энтропия.

    Но эти термины действуют только для живых систем. Негэнтропия в живой системе – это энтропия, которую живая система экспортирует, чтобы снизить свою собственную энтропию. Другими словами, синтропия – это свободная или освободившаяся энергия одного организма или группы организмов, отправляемая на упорядочивание и уравновешивание другого организма в системе.

    Жизнь потребляет то, что меньше упорядочено (убитый организм, ставший пищей) и превращает это в то, что более упорядочено (живые клетки, ткани, органы, системы, целые организмы). Поэтому считается что жизнь сама по себе имеет свойство отрицательной энтропии.



    Предыдущая статья: Следующая статья:

© 2015 .
О сайте | Контакты
| Карта сайта