Энергия макросистемы

Энергия Е любой системы зависит от ее микросостояния. Для дискретной системы эту зависимость можно представить в виде

Пусть исследуемая система находится в макросостоянии а, описываемом функцией распределения W = W(t,X). Используя формулу (2.13), можно записать следующее выражение для среднего значения энергии

системы в этом состоянии:

Внутреннюю энергию U макросистемы отождествляют со средним значением Е ее энергии, т.е.

Эту формулу более подробно можно записать следующим образом:

Рассмотрим систему, состоящую из N одинаковых частиц. В том случае, когда можно пренебречь энергией взаимодействия частиц, энергия Е многочастичной системы будет равна сумме энергий каждой из частиц

в отдельности:

где d - энергия i-й частицы. В силу свойства среднего значения случайной величины среднее значение энергии системы невзаимодействующих частиц равно сумме средних значений энергий отдельных частиц:

Бели все частицы одинаковы, то их средние энергии равны друг другу:

где ё - среднее значение энергии одной частицы. Поэтому внутренняя энергия системы невзаимодействующих частиц равна произведению средней энергии одной частицы на их число:

Статистический смысл энтропии. Формула Больцмана

Энтропию системы можно выразить через ее функцию распределения. Пусть система находится в произвольном неравновесном макроскопическом состоянии <т(*), описываемом зависящей от времени функцией распределения W = W(t, X). В качестве определения энтропии в статистической физике используют формулу

где к - положительная постоянная, называемая постоянной Больцмана (Людвиг Больцман (1844 - 1906) - австрийский физик-теоретик). В сокращенном виде эту формулу можно записать так:

Ниже будет показано, что определения энтропии в термодинамике и статистической физике эквивалентны.

Строго говоря, макроскопическое состояние в котором находится макросистема в данный момент времени t, описывается функцией W — W(t, X) распределения системы по микросостояниям. Однако такое описание является достаточно сложным для образного восприятия. Поэтому Больцман предложил более простое и наглядное (но менее строгое) определение макроскопического состояния. Согласно этому определению произвольному макроскопическому состоянию а системы соответствует конечное число Г(сг) различных ее микроскопических состояний а, в каждом из которых система может находиться с равной вероятностью W(a). При этом во всех других микросостояниях система находиться не может, т.е. для них вероятность равна нулю. Данное определение можно записать посредством формулы

где XQ - значение дискретной величины X, характеризующее микросостояние а. Эта формула задает упрощенную функцию распределения, описывающую макросостояние сг. Число Г(сг) микросостояний a G называется статистическим весом, или термодинамической вероятностью макроскопического состояния а.

Для функции (2.28) условие нормировки (2.22) принимает вид

Подстановка этой функции в формулу (2.27) приводит к выражению

которое при помощи соотношения (2.29) можно записать гак:

Это - знаменитая формула Больцмана, раскрывающая статистический смысл энтропии.

Такие равнозначные понятия как случайность, хаос и беспорядок характеризуют собой любое макроскопическое состояние ст многочастичной системы. Термодинамическая вероятность Г(<т) является самой простой количественной характеристикой макросостояния с. Она может служить мерой уровня беспорядка в системе, находящейся в данном макросостоянии а.

Полная определенность, т.е. отсутствие беспорядка, имеет место для системы, про которую достоверно известно, что она находится в каком-то одном определенном микросостоянии а. В этом случае число Г(<г) микросостояний равно единице, а энтропия согласно формуле Больцмана равна нулю. Чем больше термодинамическая вероятность Г(сг) макросостояния (7, тем меньше информации о том, в каком именно микросостоянии находится исследуемая система, содержится в описывающей это макросостояние функции распределения (2.28), т.е. тем больше беспорядка имеется в системе.

Согласно формуле Больцмана энтропия так же, как и термодинамическая вероятность, может служить мерой уровня беспорядка в системе: чем выше уровень беспорядка, тем больше энтропия. Теперь закон возрастания энтропии (1.13) можно сформулировать следующим образом. Неравновесный процесс в адиабатически изолированной системе протекает так, что беспорядок в ней все время увеличивается до тех пор, пока система не придет в состояние термодинамического равновесия. Отметим, что речь идет только об адиабатически изолированных системах. В открытых системах энтропия и беспорядок при определенных условиях могут уменьшаться именно благодаря обмену энергией и информацией с окружающими телами.

 
Посмотреть оригинал
< Пред   СОДЕРЖАНИЕ   ОРИГИНАЛ     След >