Энтропия (от греч. entropia-поворот, превращение)- понятие, впервые введённое в термодинамике для определения меры необратимого рассеяния энергии. В статистической
физике Энтропия служит мерой вероятности осуществления к--л. макроскопич. состояния,
в теории информации-мерой неопределённости к--л. опыта (испытания), к-рый
может иметь разл. исходы. Эти трактовки энтропии имеют глубокую внутр. связь. Напр.,
на основе представлений об информационной энтропии можно вывести все равновесные
статистич. распределения (см. Гиббса распределения).
Энтропия в термодинамике была введена Р. Клаузиусом (R. Clausius, 1865) на основе второго начала
термодинамики, к-рое можно сформулировать математически в виде Клаузиуса
неравенства . Интеграл берётся по замкнутому циклич. процессу, при к-ром система получает
(или у неё отбирают) малые количества теплоты dQ при соответствующих
значениях абс. температуры Т. Знак равенства относится к обратимым процессам (р а в е н с т в о К л а у з и у с а). Из равенства Клаузиуса следует, что
для обратимого процесса
есть полный дифференциал
функции состояния S, называемый Э. (дифференциальное определение Э.). Разность
Э. системы в двух произвольных состояниях А и В (заданных, напр.,
значениями температур и объёмов) равна
(интегральное определение Э.). Интегрирование здесь ведётся вдоль пути любого квазистатич. обратимого процесса, связывающего состояния А и В. Т. о., из второго начала термодинамики следует, что существует однозначная функция состояния S, к-рая при обратимых адиабатич. процессах (dQ =0) остаётся постоянной. Из неравенства Клаузиуса вытекает, что при необратимых процессах
поэтому в адиабатически
изолированных системах
(см. Термодинамическая система)при необратимых процессах Э. может только
возрастать (закон возрастания Э.).
Согласно первому началу
термодинамики,
т. е. сообщаемое системе
кол-во теплоты равно сумме приращения внутренней энергии dU и совершаемой
системой элементарной работы, где аi - внеш. параметры
состояния, Ai - сопряжённые им внутр. параметры. Когда единственным
внеш. параметром является объём системы V, элементарная работа равна
pdV, где р-давление. С учётом первого начала термодинамики дифференциальное
определение Э. принимает вид
откуда следует, что Э.
представляет собой потенциал термодинамический при выборе в качестве
независимых переменных внутр. энергии U и внеш. параметров аi
. Частные производные Э.
определяют уравнения состояния
системы. Уравнение (3) определяет абсолютную температурную шкалу.
Ф-ла (2) определяет энтропию
лишь с точностью до аддитивной постоянной (т. е. оставляет начало отсчёта Э.
произвольным). Абс. значение энтропии можно установить с помощью третьего начала
термодинамики, согласно к-рому принимается S= 0 при Т=0.
Энтропия в неравновесной термодинамике может быть определена для таких неравновесных состояний, когда можно ввести представление о локальном равновесии термодинамическом в отд. подсистемах (напр., в малых, но мак-роскопич. объёмах). По определению, Э. неравновесной системы равна сумме Э. её частей, находящихся в локальном равновесии. Термодинамика неравновесных процессов позволяет более детально исследовать процесс возрастания Э. и вычислить кол-во Э., образующееся в единице объёма в единицу времени вследствие отклонения от тер-модинамич. равновесия - производство энтропии. Для пространственно неоднородных неравновесных систем второе начало термодинамики может быть записано в виде уравнения баланса для плотности
энтропии S(x,
t), где х - радиус-вектор физически бесконечно
малого элемента среды:
JS(x, t) - вектор потока Э.; s(x,t)>=0 - локальное производство энтропии. Полное производство Э. равно интегралу от s(х, t)по объёму системы. Если термодинамич. сил ы Xi(x, t)(градиенты температуры, хим. потенциалов компонентов, массовой скорости и т. д.) создают в системе сопряжённые им потоки Ji (x, t)(теплоты, вещества, импульса и др.), то в такой системе . Если величины Xi , Ji - векторы или тензоры, то в выражении для s подразумевается их полная свёртка. Потоки Ji связаны с термодинамич. силами Xk линейными соотношениями , где Lik- онсагеровские кинетические коэффициенты .Следовательно, локальное производство Э. выражается квадратичной формой от термодинамич. сил.
Энтропия в равновесной статистической физике зависит от выбора статистич. ансамбля. Для микроканонич.
ансамбля Гиббса (см. Гиббса распределения ),описывающего равновесное
состояние изолированных систем, Э. выражается через статистический вес состояния
W(,
N, V):
где W(,
N, V) - число квантовомеханич. состояний, энергия к-рых
лежит в узком интервале
вблизи значения
системы из N частиц в объёме V. В классич. статистич. физике W-величина
безразмерного объёма в фазовом
пространстве системы при заданных ,
N, V:
где dГN
= dpdq/N!h3N; dpdq - элемент объёма в 6N-мерном
фазовом пространстве системы из N частиц (р - обобщённый импульс;
q - обобщённая координата). Интегрирование ведётся в пределах
- Гамильтона функция системы из N частиц). Для канонич. ансамбля
Гиббса, описывающего равновесное состояние систем в термостате, Э. выражается
через каноническое распределение Гиббса f(p, q):
Аналогичным образом определяется энтропия для систем с переменным числом частиц в термостате через большое каноническое
распределение Гиббса fN(p, q):
В квантовой статистике энтропия для всех равновесных ансамблей выражается через статистич. оператор (или
матрицу плотности) :
Символ Sp
означает сумму диагональных матричных элементов оператора ;
суммирование ведётся по волновым функциям состояний допустимой симметрии относительно
перестановки частиц.
Вдали от областей сосуществования фаз и критич. точек значения Э., вычисленные с помощью разл. ансамблей Гиббса,
совпадают с термодинамической энтропией в пределе N,
V
при N/V= const (см. Термодинамический предел).
Энтропия в статистич. физике связана с информационной энтропией, к-рая служит мерой неопределённости
сообщений (сообщения описываются множеством величин х1 х2,
..., хn и вероятностей Р1, Р2, ...,Рn их появления). Для дискретного статистич. распределения вероятностей Pk информационной Э. (с точностью до постоянного множителя) наз. величину
Величина Su
= 0, если к--л. из Pk равна 1, а остальные - нулю,
т. е. информация достоверна, неопределённость отсутствует. Э. принимает наибольшее
значение, когда все Pk одинаковы (неопределённость в информации
максимальна). Непрерывной случайной величине х с функцией распределения
f(x)соответствует информационная Э.
Информационная энтропия, как
и термодинамическая, обладает свойством аддитивности (энтропия неск. сообщений равна
сумме Э. отд. сообщений). Из вероятностной трактовки Э. в статистич. физике
выводятся осн. равновесные распределения: канонич. распределение Гиббса, к-рое
соответствует макс. значению информационной энтропии при заданной ср. энергии, и большое
канонич. распределение Гиббса - при заданных ср. энергии и ср. числе частиц
в системе.
Энтропия в неравновесной статистической физике зависит от способа описания неравновесного состояния
системы. Напр., неравновесное гидродинамич. состояние од-нокомпонентных газов
и жидкостей определяется неоднородными распределениями ср. значений плотностей
энергии <(x)>t,
числа частиц <(x)>t
и импульса <(x)>t,
т. е. плотностей интегралов движения. Динамические переменные
в классич. случае являются функциями координат и импульсов частиц, а в кван. случае-соответствующими
операторами. Операция усреднения <...>t выполняется
с неравновесной функцией распределения f(p,
q, t), удовлетворяющей Лиувилля уравнению дf/дt = {H, f};
Н - гамильтониан системы, {Н, f} - Пуассона скобка. В квантовом
случае в уравнении Лиувилля надо заменить f на неравновесный статистич.
оператор p^(t), а классич. скобку Пуассона - на квантовую.
Э. в неравновесной статистич. физике пропорциональна (S = kSu)максимуму информационной Э. Su=- <ln f>t при заданных ср. значениях динамических переменных, выбранных для описания неравновесного состояния. Напр., если неравновесное состояние характеризуется ср. значениями , то максимуму информац. Э. соответствует локально-равновесное распределение
где
-плотность энергии
в сопровождающей системе координат, движущейся с массовой скоростью u(x,
t). Функционал Месье - Планка Ф(t) определяется
из условия нормировки fl и зависит от b(x, t), b(х, t)m(x, t), u(x,t), где b(x, t) - обратная локальная темп-pa, m(x,
t) - локальный хим. потенциал. В этом случае неравновесная Э.
является функционалом
Операция <...>tl
означает усреднение по распределению (13), причём
Основная идея неравновесной
термодинамики состоит в том, что термодинамич. равенства должны выполняться
для элемента среды, движущегося с массовой скоростью. Из (15) следует, что для
этого необходимо, чтобы
Равенства (16) являются
условиями самосогласованного выбора параметров b(x, t), m(x,t), u(x, t)и определяют их зависимость от неравновесных
ср. значений <H^(x)>t
,
.
Локально-равновесное распределение служит вспомогательным распределением для определения понятия Э. неравновесного состояния, но не описывает необратимых переноса явлений. Потоки энергии и импульса, вычисленные с помощью fl (t), соответствуют потокам этих величин в идеальной гидродинамике. Неравновесная функция распределения может быть получена как формальное решение ур-ния Лиувилля с нач. условием локального равновесия в нек-рый момент времени t0: f(t; t0) = exp [- iL(t - t0)] fl(t0). Оператор Лиувилля L определяется через скобки Пуассона: iLf= {H, f}. Это решение зависит от нач. состояния, к-рое реальная система должна "забывать" из-за корреляций между элементами среды. Можно считать, что пучок фазовых траекторий с различными t0(-<t0<t)реализует ансамбль Гиббса для неравновесных состояний. Предполагая, что нач. состояния распределены с экспоненциальной вероятностью T-1ехр[-(t - t0)/Т] (гипотеза об априорных вероятностях), получим неравновесную функцию распределения
Т-1
= e+0
после термодинамич. предельного перехода при вычислении средних. функция распределения
(17) удовлетворяет уравнению Лиувилля с малым источником в правой части e+0.
Кроме того, предполагаются выполненными условия самосогласования (16).
С помощью функции распределения
(17) можно усреднить уравнения движения для ,
и получить
теплопроводности уравнение и
Навье - Стокса уравнение, в к-рых коэффициенты тепло-проводности и вязкости
представлены в виде пространственно-временных корреляционных функций потоков
энергии и импульса (Грина-Кубо формулы). Отсюда следует уравнение баланса
(5) для плотности Э. и другие соотношения неравновесной термодинамики.
В неравновесной статистич.
физике закон возрастания Э. тесно связан со свойством симметрии уравнения Лиувилля
относительно обращения времени. Малый член ~e+0
в уравнении (18) нарушает эту симметрию, снимая вырождение, т. е. отбирая запаздывающее
решение уравнения Лиувилля. Такое решение приводит к s>0 в уравнении (5),
т. е. делает возможным возрастание Э. При этом существенно, что e+0
после термодинамич. предельного перехода. Другое решение уравнения Лиувилля
(c e-0)
приводит к убыванию Э. и должно быть отброшено как нефизическое.
Э. для других процессов,
отличных от гидродинамических, может быть определена с помощью к в а з и р а
в н ов е с н о г о с о с т о я н и я, к-рое соответствует максимуму информационной
Э. при заданных средних значениях не-к-рого набора динамических переменных,
характеризующих неравновесное состояние. В общем случае квазиравновесное состояние
может сильно отличаться от локального равновесия.
Понятие Э. используется
также в классич. механике как характеристика хаоса динамического в системах
с неустойчивостью движения-экспоненциальной расходимостью близких в нач. момент
траекторий. Количественной мерой неустойчивости таких систем служит э н т р
о п и я К р ыл о в а- К о л м о г о р о в а - С и н а я, или К-э н т
р о п и я. Для широкого класса систем K-энтропия выражается через положительные
показатели Ляпунова по формуле
Если положительные показатели Ляпунова отсутствуют и, следовательно, движение устойчиво, то K-энтропия равна нулю.
Д. Н. Зубарев, В. Г. Морозов