функцией каких термодинамических параметров является энтропия
Энтропия в термодинамике — это что такое? Описание, теория и примеры
Понятие об энтропии в термодинамике — это достаточно важный и в то же время непростой вопрос, поскольку существуют различные точки зрения для ее интерпретации. Опишем энтропию подробно в статье, а также приведем примеры процессов, где она играет ключевую роль.
Значение понятия
Разговор об энтропии логичнее всего начать с ее определения. Итак, энтропия в термодинамике — это экстенсивная физическая величина, которая отражает число возможных микросостояний описываемой макросистемы. Иными словами, энтропия отражает уровень организации: чем более неоднородной является система, тем меньше ее энтропия.
Вам будет интересно: Субстантивированные прилагательные и их виды
Важно понимать два основных свойства энтропии:
Что определяет энтропия?
Вам будет интересно: Почему в космосе нет воздуха и действительно ли это правда
Другими словами, для чего она была введена в физику? Чтобы ответить на этот вопрос, достаточно рассмотреть простой эксперимент: всем известно, что если взять холодный прут металла и привести его в контакт с таким же прутом, но нагретым до некоторой температуры, то с течением времени горячее тело будет охлаждаться, а холодное – нагреваться. Никто никогда не наблюдал обратный процесс. Направление протекания рассмотренного явления описывается с использованием концепции «энтропия».
Любая изолированная система, предоставленная самой себе, всегда стремится занять наиболее вероятное состояние. Это состояние характеризуется хаотичным и однородным распределением элементов, составляющих систему, и понимается как состояние с максимальным значением энтропии.
Статистическая интерпретация
В конце XIX — начале XX века австрийский физик Людвиг Больцман развил новое направление в физике, получившее название статистическая механика. В этой новой науке он ввел понятие об абсолютной энтропии, которую ученый представил в виде: S = k*ln(Ω), где k — константа Больцмана, Ω — количество возможных состояний в системе.
Отметим, что в физике абсолютное значение энтропии мало кого интересует, поскольку все математические формулы, которые учитывают рассматриваемую физическую величину, включают в себя именно ее изменение.
Обратимые процессы в термодинамике
Еще одно определение энтропии в термодинамике — это связь с энергией, которая никаким способом не может быть переведена в полезную работу, например, в механическую. Известно, что эта энергия существует в виде тепла в данной системе, но для практического использования она непригодна.
Например, двигатель внутреннего сгорания работает с некоторым КПД (многие люди, возможно, об этом никогда не задумывались, но коэффициент полезного действия двигателей, которые находятся внутри их автомобилей, составляет всего около 20-25 %), который никогда не будет равен 100 %, какими бы совершенными ни были технологии. Это происходит потому, что в результате термодинамического процесса сгорания топлива часть энергии (большая часть в рассматриваемом случае) теряется на разогрев деталей и на трение. Процесс сгорания топлива — яркий пример увеличения энтропии.
В середине XIX века немецкий ученый Рудольф Клаузиус, анализируя разные термодинамические процессы, ввел понятие «энтропия системы» и смог математически его выразить в виде следующего выражения: dS = δQ/T, здесь dS — изменение энтропии системы, δQ — изменение энергии, которое произошло в результате данного процесса, T — абсолютная температура. Отсюда получаем, что единицей измерения dS в СИ является Дж/К.
Приведенная формула энтропии в термодинамике справедлива только для обратимых процессов, то есть таких переходов, которые могут происходить как в прямом, так и обратном направлении, если изменить внешние условия. Например, если сжать газ, находящийся в герметичном цилиндре с помощью внешней силы, а затем прекратить действие этой силы, то газ восстановит свой первоначальный объем (состояние).
Таким образом, согласно уравнению Клаузиуса, изменение энтропии во время обратимого процесса равно отношению изменения энергии между начальным и конечным состояниями к абсолютной температуре.
Изотермический и адиабатический обратимые процессы
Изотермический процесс — это частный случай, который предполагает, что конечное и начальное состояния системы имеют одинаковую температуру. Согласно формуле Клаузиуса, в результате обратимого изотермического процесса изменение энтальпии системы будет точно равно количеству тепла, которым она обменялась с окружающей средой, деленному на температуру.
Примером такого процесса является расширение идеального газа за счет подвода к нему теплоты извне. Вся подводимая энергия в этом случае тратится на выполнение механической работы (расширение), а температура газа при этом остается постоянной.
Рассматривая концепцию энтропии, интересно также вспомнить об адиабатическом процессе, под которым понимают любой переход в изолированной системе, то есть в ней сохраняется внутренняя энергия. Если этот процесс является обратимым, то согласно формуле dS = δQ/T = 0, поскольку δQ = 0 (нет обмена теплом с окружающей средой).
Необратимые процессы
Рассмотренные примеры разных процессов могут только в грубом приближении считаться обратимыми, поскольку в них всегда существуют различные тепловые потери. В нашей Вселенной практически все процессы являются необратимыми. Для них сформулирован 2 закон термодинамики, и энтропия играет важную роль. Приведем формулу: dS≥δQ/T. О чем говорит это выражение: согласно второму закону термодинамики, энтропия в результате абсолютно любого необратимого процесса всегда увеличивается (см. знак «>» в выражении).
Таким образом, подобно факту, что энергия не может быть создана из ничего и не может исчезать бесследно, второй закон термодинамики свидетельствует, что энтропия может быть создана, но не может быть уничтожена (постоянно увеличивается).
Историческая справка
Как было выше сказано, об энтропии физики стали задумываться только в середине XIX века. Причиной этому послужил тот факт, что первые паровые машины обладали чрезвычайно низким КПД (в начале XVIII века типичным значением КПД для этих машин было 2 %). То есть энтропия изначально понималась как «распыление» тепловой энергии во время термодинамического процесса.
Само слово «энтропия», введенное Клаузиусом, с древнегреческого языка означает «эволюция, преобразование», тем самым подчеркивается ее важность для описания протекающих процессов.
Согласно 2-му началу термодинамики, энтропия в нашей Вселенной постоянно увеличивается. Это означает, что в конце концов она достигнет своего максимального значения, когда вещество однородно распределится и температура выровняется во всем пространстве. Такая гипотеза была выдвинута тем же Клаузиусом и получила название тепловой смерти Вселенной.
Реализуется ли она в действительности, зависит от области применимости термодинамики. Дело в том, что на микроуровне, когда рассматриваются отдельные молекулы и атомы, энтропия в термодинамике — это бессмысленная величина, так как сами законы этой ветви физики перестают работать. Предполагается, что аналогичные ограничения их применимости существуют, когда масштабы системы достигают бесконечных значений, то есть размеров Вселенной.
Энтропия? Это просто!
Этот пост является вольным переводом ответа, который Mark Eichenlaub дал на вопрос What’s an intuitive way to understand entropy?, заданный на сайте Quora
Энтропия. Пожалуй, это одно из самых сложных для понимания понятий, с которым вы можете встретиться в курсе физики, по крайней мере если говорить о физике классической. Мало кто из выпускников физических факультетов может объяснить, что это такое. Большинство проблем с пониманием энтропии, однако, можно снять, если понять одну вещь. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, потому что является свойством не системы, а того, как мы эту систему рассматриваем. К сожалению в курсе термодинамики её обычно рассматривают наравне с другими термодинамическими функциями, что усугубляет непонимание.
Так что же такое энтропия?
Энтропия — это то, как много информации вам не известно о системе
Например, если вы спросите меня, где я живу, и я отвечу: в России, то моя энтропия для вас будет высока, всё-таки Россия большая страна. Если же я назову вам свой почтовый индекс: 603081, то моя энтропия для вас понизится, поскольку вы получите больше информации.
Почтовый индекс содержит шесть цифр, то есть я дал вам шесть символов информации. Энтропия вашего знания обо мне понизилась приблизительно на 6 символов. (На самом деле, не совсем, потому что некоторые индексы отвечают большему количеству адресов, а некоторые — меньшему, но мы этим пренебрежём).
Или рассмотрим другой пример. Пусть у меня есть десять игральных костей (шестигранных), и выбросив их, я вам сообщаю, что их сумма равна 30. Зная только это, вы не можете сказать, какие конкретно цифры на каждой из костей — вам не хватает информации. Эти конкретные цифры на костях в статистической физике называют микросостояниями, а общую сумму (30 в нашем случае) — макросостоянием. Существует 2 930 455 микросостояний, которые отвечают сумме равной 30. Так что энтропия этого макросостояния равна приблизительно 6,5 символам (половинка появляется из-за того, что при нумерации микросостояний по порядку в седьмом разряде вам доступны не все цифры, а только 0, 1 и 2).
А что если бы я вам сказал, что сумма равна 59? Для этого макросостояния существует всего 10 возможных микросостояний, так что его энтропия равна всего лишь одному символу. Как видите, разные макросостояния имеют разные энтропии.
Пусть теперь я вам скажу, что сумма первых пяти костей 13, а сумма остальных пяти — 17, так что общая сумма снова 30. У вас, однако, в этом случае имеется больше информации, поэтому энтропия системы для вас должна упасть. И, действительно, 13 на пяти костях можно получить 420-ю разными способами, а 17 — 780-ю, то есть полное число микросостояний составит всего лишь 420х780 = 327 600. Энтропия такой системы приблизительно на один символ меньше, чем в первом примере.
Мы измеряем энтропию как количество символов, необходимых для записи числа микросостояний. Математически это количество определяется как логарифм, поэтому обозначив энтропию символом S, а число микросостояний символом Ω, мы можем записать:
Это есть ничто иное как формула Больцмана (с точностью до множителя k, который зависит от выбранных единиц измерения) для энтропии. Если макросостоянию отвечают одно микросостояние, его энтропия по этой формуле равна нулю. Если у вас есть две системы, то полная энтропия равна сумме энтропий каждой из этих систем, потому что log(AB) = log A + log B.
Из приведённого выше описания становится понятно, почему не следует думать об энтропии как о собственном свойстве системы. У системы есть опеделённые внутренняя энергия, импульс, заряд, но у неё нет определённой энтропии: энтропия десяти костей зависит от того, известна вам только их полная сумма, или также и частные суммы пятёрок костей.
Другими словами, энтропия — это то, как мы описываем систему. И это делает её сильно отличной от других величин, с которыми принято работать в физике.
Физический пример: газ под поршнем
Классической системой, которую рассматривают в физике, является газ, находящийся в сосуде под поршнем. Микросостояние газа — это положение и импульс (скорость) каждой его молекулы. Это эквивалентно тому, что вы знаете значение, выпавшее на каждой кости в рассмотренном раньше примере. Макросостояние газа описывается такими величинами как давление, плотность, объём, химический состав. Это как сумма значений, выпавших на костях.
Величины, описывающие макросостояние, могут быть связаны друг с другом через так называемое «уравнение состояния». Именно наличие этой связи позволяет, не зная микросостояний, предсказывать, что будет с нашей системой, если начать её нагревать или перемещать поршень. Для идеального газа уравнение состояния имеет простой вид:
Величины типа давления, температуры и плотности называются усреднёнными, поскольку являются усреднённым проявлением постоянно сменяющих друг друга микросостояний, отвечающих данному макросостоянию (или, вернее, близким к нему макросостояниям). Чтобы узнать в каком микросостоянии находится система, нам надо очень много информации — мы должны знать положение и скорость каждой частицы. Количество этой информации и называется энтропией.
Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.
Твёрдые тела и потенциальная энергия
Если мы рассмотрим вместо газа какое-нибудь твёрдое тело, особенно с упорядоченной структурой, как в кристаллах, например, кусок металла, то его энтропия будет невелика. Почему? Потому что зная положение одного атома в такой структуре, вы знаете и положение всех остальных (они же выстроены в правильную кристаллическую структуру), скорости же атомов невелики, потому что они не могут улететь далеко от своего положения и лишь немного колеблются вокруг положения равновесия.
Если кусок металла находится в поле тяготения (например, поднят над поверхностью Земли), то потенциальная энергия каждого атома в металле приблизительно равна потенциальной энергии других атомов, и связанная с этой энергией энтропия низка. Это отличает потенциальную энергию от кинетической, которая для теплового движения может сильно меняться от атома к атому.
Если кусок металла, поднятый на некоторую высоту, отпустить, то его потенциальная энергия будет переходить в кинетическую энергию, но энтропия возрастать практически не будет, потому что все атомы будут двигаться приблизительно одинаково. Но когда кусок упадёт на землю, во время удара атомы металла получат случайное направление движения, и энтропия резко увеличится. Кинетическая энергия направленного движения перейдёт в кинетическую энергию теплового движения. Перед ударом мы приблизительно знали, как движется каждый атом, теперь мы эту информацию потеряли.
Понимаем второй закон термодинамики
Второй закон термодинамики утверждает, что энтропия (замкнутой системы) никогда не уменьшается. Мы теперь можем понять, почему: потому что невозможно внезапно получить больше информации о микросостояниях. Как только вы потеряли некую информацию о микросостоянии (как во время удара куска металла об землю), вы не можете вернуть её назад.
Давайте вернёмся обратно к игральным костям. Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто. Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.
Перемешивание газов
И ещё один пример, чтобы закрепить сказанное. Пусть у нас имеется контейнер, в котором находятся два газа, разделённых расположенной посередине контейнера перегородкой. Назовём молекулы одного газа синими, а другого — красными.
Если открыть перегородку, газы начнут перемешиваться, потому что число микросостояний, в которых газы перемешаны, намного больше, чем микросостояний, в которых они разделены, и все микросостояния, естественно, равновероятны. Когда мы открыли перегородку, для каждой молекулы мы потеряли информацию о том, с какой стороны перегородки она теперь находится. Если молекул было N, то утеряно N бит информации (биты и символы, в данном контексте, это, фактически, одно и тоже, и отличаются только неким постоянным множителем).
Разбираемся с демоном Максвелла
Ну и напоследок рассмотрим решение в рамках нашей парадигмы знаменитого парадокса демона Максвелла. Напомню, что он заключается в следующем. Пусть у нас есть перемешанные газы из синих и красных молекул. Поставим обратно перегородку, проделав в ней небольшое отверстие, в которое посадим воображаемого демона. Его задача — пропускать слева направо только красных, и справа налево только синих. Очевидно, что через некоторое время газы снова будут разделены: все синие молекулы окажутся слева от перегородки, а все красные — справа.
Получается, что наш демон понизил энтропию системы. С демоном ничего не случилось, то есть его энтропия не изменилась, а система у нас была закрытой. Получается, что мы нашли пример, когда второй закон термодинамики не выполняется! Как такое оказалось возможно?
Решается этот парадокс, однако, очень просто. Ведь энтропия — это свойство не системы, а нашего знания об этой системе. Мы с вами знаем о системе мало, поэтому нам и кажется, что её энтропия уменьшается. Но наш демон знает о системе очень много — чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему). Если он знает о молекулах всё, то с его точки зрения энтропия системы, фактически, равна нулю — у него просто нет недостающей информации о ней. В этом случае энтропия системы как была равна нулю, так и осталась равной нулю, и второй закон термодинамики нигде не нарушился.
Но даже если демон не знает всей информации о микросостоянии системы, ему, как минимум, надо знать цвет подлетающей к нему молекулы, чтобы понять, пропускать её или нет. И если общее число молекул равно N, то демон должен обладать N бит информации о системе — но именно столько информации мы и потеряли, когда открыли перегородку. То есть количество потерянной информации в точности равно количеству информации, которую необходимо получить о системе, чтобы вернуть её в исходное состояние — и это звучит вполне логично, и опять же не противоречит второму закону термодинамики.
Энтропия (в термодинамике)
Термодинамические величины |
---|
Статья является частью серии «Термодинамика». |
Энтропия |
Количество теплоты |
Термодинамическая работа |
Химический потенциал |
См. также: Термодинамические потенциалы. |
Разделы термодинамики |
Начала термодинамики |
Уравнение состояния |
Термодинамические величины |
Термодинамические потенциалы |
Термодинамические циклы |
Фазовые переходы |
править |
Термодинами́ческая энтропи́я S, часто просто именуемая энтропия, в химии и термодинамике является функцией состояния термодинамической системы; её существование постулируется вторым началом термодинамики.
Содержание
Термодинамическое определение энтропии
Рудольф Клаузиус дал величине S имя «энтропия», происходящее от греческого слова τρoπή, «изменение» (изменение, превращение, преобразование). Данное равенство относится к изменению энтропии, не определяя полностью саму энтропию.
Эта формула применима только для изотермического процесса (происходящего при постоянной температуре). Её обобщение на случай произвольного квазистатического процесса выглядит так:
,
где — приращение (дифференциал) энтропии, а — бесконечно малое приращение количества теплоты.
Необходимо обратить внимание на то, что рассматриваемое термодинамическое определение применимо только к квазистатическим процессам (состоящим из непрерывно следующих друг за другом состояний равновесия).
Энтропия, таким образом, согласно вышеописанному, определена вплоть до произвольной аддитивной постоянной. Третье начало термодинамики позволяет определить её точнее: предел величины энтропии равновесной системы при стремлении температуры к абсолютному нулю полагают равным нулю.
Статистическое определение энтропии: принцип Больцмана
В 1877 году Людвиг Больцман нашёл, что энтропия системы может относиться к количеству возможных «микросостояний» (микроскопических состояний), согласующихся с их термодинамическими свойствами. Рассмотрим, например, идеальный газ в сосуде. Микросостояние определено как позиции и импульсы (моменты движения) каждого составляющего систему атома. Связность предъявляет к нам требования рассматривать только те микросостояния, для которых: (I) месторасположения всех частей расположены в рамках сосуда, (II) для получения общей энергии газа кинетические энергии атомов суммируются. Больцман постулировал, что:
где константу k=1,38•10 –23 Дж/К мы знаем теперь как постоянную Больцмана, а Ω является числом микросостояний, которые возможны в имеющемся макроскопическом состоянии (статистический вес состояния). Этот постулат, известный как принцип Больцмана, может быть оценен как начало статистической механики, которая описывает термодинамические системы, используя статистическое поведение составляющих их компонентов. Принцип Больцмана связывает микроскопические свойства системы (Ω) с одним из её термодинамических свойств (S).
Согласно определению Больцмана, энтропия является просто функцией состояния. Так как Ω может быть только натуральным числом (1,2,3,…), то энтропия Больцмана должна быть положительной — исходя из свойств логарифма.
Понимание энтропии как меры беспорядка
Существует мнение, что мы можем смотреть на Ω и как на меру беспорядка в системе. В определённом смысле это может быть оправдано, потому что мы думаем об «упорядоченных» системах как о системах, имеющих очень малую возможность конфигурирования, а о «беспорядочных» системах, как об имеющих очень много возможных состояний. Собственно, это просто переформулированное определение энтропии как числа микросостояний на данное макросостояние.
Рассмотрим, например, распределение молекул идеального газа. В случае идеального газа наиболее вероятным состоянием, соответствующим максимуму энтропии, будет равномерное распределение молекул. При этом реализуется и максимальный «беспорядок», т.к. при этом будут максимальные возможности конфигурирования.
Границы применимости понимания энтропии как меры беспорядка
Подобное определение беспорядка термодинамической системы как количества возможностей конфигурирования системы фактически дословно соответствует определению энтропии как числа микросостояний на данное макросостояние. Проблемы начинаются в двух случаях:
Рассмотрим оба пункта более подробно.
Однако многие учёные стали отождествлять информацию с «отрицательной энтропией» ввиду совпадения выражений для этих понятий. Начало этому заблуждению положил Н. Винер [3] (стр. 23). На самом деле энтропия не является мерой дезорганизации, мерой беспорядка и хаоса, а информация совсем не является мерой упорядоченности, организованности, порядка.
Рассмотрим второй случай неверного применения понятия энтропии.
Рассмотрим, например, набор 10 монет, каждая из которых может находиться либо в состоянии «орёл», либо в состоянии «решка». Наиболее «упорядоченным» макроскопическим состоянием будет являться или 10 «орлов», или 10 «решек»; для каждого результата в каждом случае имеется только одна возможная конфигурация. И наоборот, наиболее «неупорядоченное» состояние содержит 5 «орлов» и 5 «решек», и здесь 10 C5 = 252 способов для получения этого результата (см. комбинаторика.)
Безусловно, этот пример также некорректен, т.к. система монет не является термодинамической системой, и поэтому термодинамическая энтропия системы в обоих случаях (как бы ни были перевёрнуты монеты) окажется, конечно, одинаковой. Т.о., разбросанные по комнате стулья не имеют отношения к термодинамической энтропии, хотя и могут иметь отношение к энтропии информационной.
Впрочем, это легко подтвердить на практике: замкнутая система 10 монет, перевёрнутых орлами вверх, самопроизвольно не перейдёт в систему хаотично перевёрнутых монет.
Энтропия в открытых системах
В силу второго начала термодинамики, энтропия замкнутой системы не может уменьшаться» (закон неубывания энтропии). Математически это можно записать так: , индекс обозначает так называемую внутреннюю энтропию, соответствующую замкнутой системе. В открытой системе возможны потоки тепла как из системы, так и внутрь неё. В случае наличия потока тепла в систему приходит количество тепла при температуре и уходит количество тепла при температуре . Приращение энтропии, связанное с данными тепловыми потоками, равно:
В стационарных системах обычно , T_<2>>» />, так что . Поскольку здесь изменение энтропии отрицательно, то часто употребляют выражение «приток негэнтропии», вместо оттока энтропии из системы. Негэнтропия определяется таким образом как обратная величина энтропии. Суммарное изменение энтропии открытой системы будет равно:
Если всё время 0>» />, то рост внутренней энтропии не компенсируется притоком внешней негэнтропии, система движется к ближайшему состоянию равновесия. Если , то мы имеем стационарный процесс с неизменной общей энтропией. В этом случае в системе осуществляется некоторая внутренняя работа с генерацией внутренней энтропии, которая преобразует, например, температуру внешнего потока тепла в температуру уходящего из системы потока тепла.
Измерение энтропии
Для упрощения мы будем исследовать механическую систему, термодинамические состояния которой будут определены через её объем V и давление P. Для измерения энтропии определенного состояния мы должны сперва измерить теплоёмкость при постоянных объёме и давлении (обозначенную CV и CP соответственно), для успешного набора состояний между первоначальным состоянием и требуемым. Тепловые ёмкости связаны с энтропией S и с температурой T согласно формуле:
где нижний индекс X относится к постоянным объёму и давлению. Мы можем проинтегрировать для получения изменения энтропии:
Таким образом, мы можем получить значение энтропии любого состояния (P,V) по отношению к первоначальному состоянию (P0,V0). Точная формула зависит от нашего выбора промежуточных состояний. Для примера, если первоначальное состояние имеет такое же давление, как и конечное состояние, то
Энтропия первоначального состояния должна быть определена независимо. В идеальном варианте выбирается первоначальное состояние как состояние при экстремально высокой температуре, при которой система существует в виде газа. Энтропия в этом состоянии подобна энтропии классического идеального газа плюс взнос от молекулярных вращений и колебаний, которые могут быть определены спектроскопически.
Построение графика изменения энтропии
Следующее уравнение может быть использовано для построения графика изменения энтропии на диаграмме P-V:
Здесь два замечания: (1) это не определение энтропии (но выведено из него), (2) предполагается, что CV и CP постоянные, что на самом деле не так.
См. также
Литература
Ссылки
Выделить Энтропия (в термодинамике) и найти в: