Was ist Entropie in der Thermodynamik? Entropie. Physikalische Bedeutung der Entropie. Entropie und Wahrscheinlichkeit

Details Kategorie: Thermodynamik Veröffentlicht 01.03.2015 15:41 Aufrufe: 6634

Zu den makroskopischen Parametern eines thermodynamischen Systems gehören Druck, Volumen und Temperatur. Es gibt jedoch noch einen weiteren wichtigen Punkt physikalische Größe, das zur Beschreibung von Zuständen und Prozessen in thermodynamischen Systemen verwendet wird. Es heißt Entropie.

Was ist Entropie?

Dieses Konzept wurde erstmals 1865 vom deutschen Physiker Rudolf Clausius eingeführt. Er nannte Entropie die Funktion des Zustands eines thermodynamischen Systems, die das Maß der irreversiblen Energiedissipation bestimmt.

Was ist Entropie?

Bevor wir diese Frage beantworten, machen wir uns mit dem Konzept der „reduzierten Hitze“ vertraut. Jeder in einem System ablaufende thermodynamische Prozess besteht aus einer bestimmten Anzahl von Übergängen des Systems von einem Zustand in einen anderen. Reduzierte Hitze ist das Verhältnis der Wärmemenge in einem isothermen Prozess zur Temperatur, bei der diese Wärme übertragen wird.

Q" = Q/T .

Für jeden offenen thermodynamischen Prozess gibt es eine Funktion des Systems, deren Änderung beim Übergang von einem Zustand in einen anderen gleich der Summe der reduzierten Wärmen ist. Clausius gab dieser Funktion den Namen „ Entropie " und bezeichnete es mit dem Buchstaben S und das Verhältnis der Gesamtwärmemenge ∆Q auf den absoluten Temperaturwert T genannt Entropieänderung .

Achten wir darauf, dass die Clausius-Formel nicht den Wert der Entropie selbst, sondern nur ihre Änderung bestimmt.

Was ist „irreversible Energiedissipation“ in der Thermodynamik?

Eine der Formulierungen des zweiten Hauptsatzes der Thermodynamik lautet wie folgt: „ Ein Prozess ist unmöglich, dessen einziges Ergebnis die Umwandlung der gesamten vom System aufgenommenen Wärmemenge in Arbeit ist". Das heißt, ein Teil der Wärme wird in Arbeit umgewandelt und ein Teil davon wird abgeführt. Dieser Prozess ist irreversibel. In Zukunft kann die abgeführte Energie keine Arbeit mehr leisten. Beispielsweise kann in einer echten Wärmekraftmaschine nicht die gesamte Wärme abgegeben werden Die Wärme wird auf den Arbeitskörper übertragen und an die äußere Umgebung abgegeben, wodurch dieser erwärmt wird.

In einer idealen Wärmekraftmaschine, die nach dem Carnot-Zyklus arbeitet, ist die Summe aller reduzierten Wärmemengen Null. Diese Aussage gilt auch für jeden quasistatischen (reversiblen) Zyklus. Dabei spielt es keine Rolle, aus wie vielen Übergängen von einem Zustand in einen anderen ein solcher Prozess besteht.

Wenn wir einen beliebigen thermodynamischen Prozess in Abschnitte mit verschwindend geringer Größe unterteilen, ist die reduzierte Wärme in jedem dieser Abschnitte gleich δQ/T . Totales Entropiedifferential dS = δQ/T .

Die Entropie ist ein Maß für die Fähigkeit von Wärme, irreversibel abgeführt zu werden. Seine Veränderung gibt an, wie viel Energie zufällig in Form von Wärme an die Umgebung abgegeben wird.

In einem geschlossenen isolierten System, das keine Wärme austauscht Umfeld Bei reversiblen Prozessen ändert sich die Entropie nicht. Dies bedeutet, dass das Differential dS = 0 . Bei realen und irreversiblen Prozessen findet eine Wärmeübertragung von einem warmen Körper auf einen kalten statt. In solchen Prozessen nimmt die Entropie immer zu ( dS ˃ 0 ). Sie gibt somit die Richtung des thermodynamischen Prozesses an.

Die Clausius-Formel, geschrieben als dS = δQ/T gilt nur für quasistatische Prozesse. Hierbei handelt es sich um idealisierte Prozesse, bei denen es sich um eine Reihe von Gleichgewichtszuständen handelt, die kontinuierlich aufeinander folgen. Sie wurden in die Thermodynamik eingeführt, um das Studium realer thermodynamischer Prozesse zu vereinfachen. Es wird angenommen, dass sich ein quasistatisches System zu jedem Zeitpunkt in einem thermodynamischen Gleichgewichtszustand befindet. Dieser Vorgang wird auch Quasi-Gleichgewicht genannt.

Natürlich gibt es solche Prozesse in der Natur nicht. Denn jede Veränderung im System stört seinen Gleichgewichtszustand. In ihm beginnen verschiedene Übergangs- und Entspannungsprozesse abzulaufen, die darauf abzielen, das System wieder in einen Gleichgewichtszustand zu bringen. Aber eher langsam ablaufende thermodynamische Prozesse können durchaus als quasistatisch betrachtet werden.

In der Praxis gibt es viele thermodynamische Probleme, deren Lösung die Schaffung komplexer Geräte, die Erzeugung eines Drucks von mehreren hunderttausend Atmosphären und die Aufrechterhaltung sehr hoher Anforderungen erfordert hohe Temperatur Während einer langen Zeit. Und quasistatische Prozesse ermöglichen es, die Entropie für solche realen Prozesse zu berechnen und vorherzusagen, wie dieser oder jener Prozess ablaufen kann, was in der Praxis nur sehr schwer umzusetzen ist.

Gesetz der nicht abnehmenden Entropie

Der zweite Hauptsatz der Thermodynamik, der auf dem Konzept der Entropie basiert, wird wie folgt formuliert: „ In einem isolierten System nimmt die Entropie nicht ab " Dieses Gesetz wird auch genannt Gesetz der nicht abnehmenden Entropie.

Wenn die Entropie eines geschlossenen Systems zu einem bestimmten Zeitpunkt vom Maximum abweicht, kann sie in Zukunft nur noch ansteigen, bis sie den Maximalwert erreicht. Das System erreicht einen Gleichgewichtszustand.

Clausius war sich sicher, dass das Universum ein geschlossenes System ist. Und wenn ja, dann erreicht seine Entropie tendenziell ihren Maximalwert. Dies bedeutet, dass eines Tages alle makroskopischen Prozesse darin aufhören und ein „thermischer Tod“ eintreten wird. Aber der amerikanische Astronom Edwin Powell Hubble hat bewiesen, dass das Universum nicht als isoliertes thermodynamisches System bezeichnet werden kann, da es sich ausdehnt. Sowjetischer Physiker Der Akademiker Landau glaubte, dass das Gesetz der nicht abnehmenden Entropie nicht auf das Universum angewendet werden kann, da es sich in einem variablen Gravitationsfeld befindet. Moderne Wissenschaft ist noch nicht in der Lage, die Frage zu beantworten, ob unser Universum ein geschlossenes System ist oder nicht.

Boltzmann-Prinzip

Ludwig Boltzmann

Jedes geschlossene thermodynamische System strebt nach einem Gleichgewichtszustand. Alle darin ablaufenden spontanen Prozesse gehen mit einer Zunahme der Entropie einher.

Im Jahr 1877 setzte der österreichische theoretische Physiker Ludwig Boltzmann die Entropie eines thermodynamischen Zustands mit der Anzahl der Mikrozustände eines Systems in Beziehung. Es wird angenommen, dass die Formel zur Berechnung des Entropiewerts später vom deutschen theoretischen Physiker Max Planck abgeleitet wurde.

S = k · lnW ,

Wo k = 1,38·10 −23 J/K – Boltzmann-Konstante; W – die Anzahl der Mikrozustände des Systems, die einen bestimmten makrostatischen Zustand realisieren, oder die Anzahl der Möglichkeiten, wie dieser Zustand realisiert werden kann.

Wir sehen, dass die Entropie nur vom Zustand des Systems abhängt und nicht davon, wie das System in diesen Zustand übergegangen ist.

Unter Entropie verstehen Physiker eine Größe, die den Grad der Unordnung eines thermodynamischen Systems charakterisiert. Jedes thermodynamische System ist stets bestrebt, seine Parameter mit seiner Umgebung in Einklang zu bringen. Sie kommt spontan in diesen Zustand. Und wenn der Gleichgewichtszustand erreicht ist, kann das System keine Arbeit mehr verrichten. Es kann davon ausgegangen werden, dass es in Unordnung ist.

Entropie charakterisiert die Richtung des thermodynamischen Wärmeaustauschprozesses zwischen dem System und Außenumgebung. In einem geschlossenen thermodynamischen System bestimmt es, in welche Richtung spontane Prozesse ablaufen.

Alle in der Natur ablaufenden Prozesse sind irreversibel. Daher fließen sie in Richtung zunehmender Entropie.

Gleichung (44.7) oder (44.12) können unterschiedlich interpretiert werden. Beim Betrieb reversibler Maschinen ist Wärme bei Temperatur „äquivalent“ zu Wärme bei Temperatur; Denn wenn es absorbiert wird, wird immer Wärme abgegeben. Wenn wir uns nun einen speziellen Namen dafür ausdenken, können wir sagen, dass bei reversiblen Prozessen genauso viel aufgenommen wie abgegeben wird. Mit anderen Worten, es nimmt nicht ab und nimmt nicht zu. Diese Größe wird Entropie genannt, und wir sagen: „Über einen reversiblen Zyklus ist die Änderung der Entropie Null.“ Wenn, dann ist die Entropie gleich; Wir haben der Entropie bereits ein besonderes Symbol gegeben. Entropie wird durchgehend mit dem Buchstaben bezeichnet und ist numerisch gleich der Wärme (die wir mit dem Buchstaben bezeichnet haben), die in einem Ein-Grad-Reservoir freigesetzt wird (Entropie ist nicht nur Wärme, sie ist Wärme dividiert durch Temperatur und wird in gemessen Joule pro Grad).

Interessant ist, dass wir neben dem Druck, der von Temperatur und Volumen abhängt, und der inneren Energie (eine Funktion desselben Volumens und derselben Temperatur) eine weitere Größe gefunden haben – die Entropie eines Stoffes, die ebenfalls eine Funktion des Zustands ist. Wir werden versuchen zu erklären, wie man die Entropie berechnet und was wir unter den Worten „Zustandsfunktion“ verstehen. Lassen Sie uns das Verhalten des Systems unter verschiedenen Bedingungen überwachen. Wir wissen bereits, wie man experimentell verschiedene Bedingungen schafft, zum Beispiel können wir das System dazu zwingen, sich adiabatisch oder isotherm auszudehnen. (Übrigens muss die Maschine nicht nur zwei Reservoirs haben; es könnten drei oder vier verschiedene Temperaturen herrschen, und die Maschine tauscht mit jedem der Reservoirs Wärme aus.) Wir können das gesamte Diagramm ablaufen und uns von einem Zustand aus bewegen zum nächsten. Mit anderen Worten: Sie können ein Gas von einem Zustand in einen anderen überführen und verlangen, dass der Übergang von dort reversibel ist. Nehmen wir nun an, dass auf dem Weg von bis kleine Reservoirs mit unterschiedlichen Temperaturen platziert sind. Dann wird jeder kurze Schritt von der Entfernung von Wärme aus der Substanz und ihrer Übertragung auf das Reservoir bei einer Temperatur begleitet, die einem bestimmten Punkt auf dem Weg entspricht. Verbinden wir alle diese Speicher mithilfe von reversiblen Wärmekraftmaschinen zu einem Speicher mit einheitlicher Temperatur. Nachdem wir die Übertragung eines Stoffes von einem Zustand in einen anderen Zustand abgeschlossen haben, versetzen wir alle Reservoirs in ihren ursprünglichen Zustand zurück. Eine reversible Maschine gibt jeden Bruchteil der Wärme, der einer Substanz bei einer Temperatur entzogen wird, und jedes Mal bei einer Einheitstemperatur eine Entropie von gleich zurück

Berechnen wir die Gesamtmenge der zugewiesenen Entropie. Die Entropiedifferenz oder die Entropie, die als Ergebnis einer reversiblen Änderung benötigt wird, um von nach zu wechseln, ist die Gesamtentropie, d. h. die Entropie, die aus kleinen Reservoirs entnommen und bei einer einheitlichen Temperatur freigesetzt wird:

Die Frage ist: Hängt die Entropiedifferenz vom Weg in der Ebene ab? Es gibt viele Straßen, die von nach führen. Denken Sie daran, dass wir uns im Carnot-Zyklus auf zwei Arten von Punkt zu Punkt bewegen können (siehe Abb. 44.6). Es war möglich, das Gas zunächst isotherm und dann adiabatisch zu expandieren, oder man konnte mit der adiabatischen Expansion beginnen und mit der isothermen Expansion enden. Wir müssen also herausfinden, ob sich die Entropie ändert, wenn sich der Weg von nach ändert (Abb. 44.10). Daran sollte sich nichts ändern, denn wenn wir einen vollständigen Zyklus absolvieren, indem wir auf einem Weg aufbrechen und auf einem anderen zurückkehren, dann entspricht diese Reise einem vollständigen Zyklus einer umkehrbaren Maschine. Bei diesem Zyklus wird keine Wärme an den Ein-Grad-Speicher übertragen.

Feige. 44.10. Entropieänderung während eines reversiblen Übergangs.

Da wir einem Ein-Grad-Reservoir keine Wärme entziehen können, müssen wir auf jeder Reise von nach mit der gleichen Menge an Entropie auskommen. Diese Zahl ist unabhängig vom Pfad, nur die Endpunkte sind von Bedeutung. Wir können also von einer bestimmten Funktion sprechen, die wir Entropie der Materie nannten. Diese Funktion hängt nur vom Zustand des Stoffes ab, also nur von Volumen und Temperatur.

Sie können die Funktion finden. Wir werden die Entropieänderung für reversible Veränderungen in der Materie berechnen, indem wir die in einem Ein-Grad-Reservoir erzeugte Wärme überwachen. Diese Änderung kann aber auch als Wärme ausgedrückt werden, die dem Stoff bei Temperatur entzogen wird

Die gesamte Entropieänderung entspricht der Entropiedifferenz am End- und Startpunkt des Pfades:

. (44.18)

Dieser Ausdruck definiert die Entropie nicht vollständig. Bisher ist nur der Entropieunterschied in zwei verschiedenen Zuständen bekannt. Es ist absolut möglich, die Entropie erst dann zu bestimmen, wenn wir in der Lage sind, die Entropie eines Zustands zu berechnen.

Lange Zeit glaubte man, dass absolute Entropie ein bedeutungsloser Begriff sei. Aber am Ende machte Nernst eine Aussage, die er den Wärmesatz (manchmal auch als dritter Hauptsatz der Thermodynamik bezeichnet) nannte. Seine Bedeutung ist sehr einfach. Wir werden diesen Satz nun formulieren, ohne zu erklären, warum er wahr ist. Nernsts Postulat besagt einfach, dass die Entropie eines jeden Körpers am absoluten Nullpunkt Null ist. Jetzt wissen wir, an welchem ​​Punkt und (bei ) die Entropie Null ist, und können die Entropie an jedem anderen Punkt berechnen.

Um diese Idee zu veranschaulichen, berechnen wir die Entropie eines idealen Gases. Für isotherme (und daher reversible) Expansion ist einfach gleich, weil

was konstant ist. Nach (44.4) ist die Entropieänderung also gleich

,

Also plus die Funktion der Temperatur allein. Wie kommt es darauf an? Wir wissen bereits, dass es bei der adiabatischen Expansion zu keiner Wärmeübertragung kommt. Somit bleibt die Entropie konstant, obwohl sich das Volumen ändert, was sie zu einer Änderung zwingt (um die Gleichheit aufrechtzuerhalten). Ist Ihnen danach das klar?

,

Wo ist eine Konstante, die von keinem der beiden abhängt? [Die Konstante wird chemische Konstante genannt. Sie hängt von den Eigenschaften des Gases ab und kann nach dem Satz von Nernst experimentell ermittelt werden. Dazu ist es notwendig, die Wärme zu messen, die das Gas bei seiner Abkühlung und Kondensation freisetzt, bis es bei 0° in einen Feststoff übergeht (Helium bleibt bei dieser Temperatur flüssig). Dann müssen Sie das Integral finden. Kann theoretisch gefunden werden; Dazu benötigen Sie die Plancksche Konstante und Quantenmechanik, aber wir werden in unserem Kurs nicht darauf eingehen.]

Beachten wir einige Eigenschaften der Entropie. Denken Sie zunächst daran, dass sich im Abschnitt des reversiblen Zyklus zwischen Punkten und Entropie Änderungen ergeben (Abb. 44.11). Denken wir auch daran, dass, wenn wir uns auf diesem Weg bewegen, die Entropie (die bei einer Temperatureinheit freigesetzte Wärme) gemäß der Regel zunimmt, bei der der Substanz bei einer Temperatur die Wärme entzogen wird.

Feige. 44.11. Entropieänderung über einen vollständigen reversiblen Zyklus.

Die gesamte Entropieänderung ist Null.

Wir wissen bereits, dass sich nach einem reversiblen Zyklus die Gesamtentropie aller in den Prozess einbezogenen Elemente nicht ändert. Schließlich tragen die bei absorbierte Wärme und die bei bei abgegebene Wärme gleich große, aber entgegengesetzte Vorzeichen zur Entropie bei. Daher ist die Nettoänderung der Entropie Null. Somit ändert sich bei einem reversiblen Kreislauf die Entropie aller Kreislaufteilnehmer, einschließlich der Reservoire, nicht. Diese Regel scheint dem Energieerhaltungssatz ähnlich zu sein, ist es aber nicht. Dies gilt nur für Wendeschleifen. Wenn wir zu irreversiblen Zyklen übergehen, gilt das Gesetz der Entropieerhaltung nicht mehr.

Lassen Sie uns zwei Beispiele nennen. Nehmen wir zunächst an, dass eine Maschine mit Reibung irreversible Arbeit leistet und dabei Wärme bei einer bestimmten Temperatur abgibt. Die Entropie wird um zunehmen. Wärme ist gleich der aufgewendeten Arbeit, und wenn wir durch Reibung an einem Objekt, dessen Temperatur gleich ist, etwas Arbeit erzeugen, dann nimmt die Entropie um einen Betrag zu.

Ein weiteres Beispiel für Irreversibilität: Wenn Sie zwei Objekte mit unterschiedlichen Temperaturen aufeinander legen, sagen wir und , dann fließt eine bestimmte Wärmemenge von einem Objekt zum anderen. Nehmen wir zum Beispiel an, wir werfen einen heißen Stein in kaltes Wasser. Wie stark ändert sich die Entropie eines Steins, wenn er Wärme auf Wasser mit einer Temperatur von überträgt? Es verringert sich um . Wie verändert sich die Entropie von Wasser? Es wird um steigen. Wärme kann natürlich nur von einer höheren zu einer niedrigeren Temperatur fließen. Wenn es also mehr ist, dann ist es positiv. Somit ist die Entropieänderung positiv und gleich der Differenz zweier Brüche:

. (44.19)

Es gilt also der folgende Satz: In jedem irreversiblen Prozess nimmt die Entropie von allem auf der Welt zu. Nur reversible Prozesse können die Entropie auf dem gleichen Niveau halten. Und da es keine absolut irreversiblen Prozesse gibt, nimmt die Entropie immer nach und nach zu. Reversible Prozesse sind idealisierte Prozesse mit minimalem Entropiezuwachs.

Leider müssen wir nicht tiefer in das Gebiet der Thermodynamik einsteigen. Unser Ziel besteht lediglich darin, die Hauptgedanken dieser Wissenschaft zu veranschaulichen und die Gründe zu erläutern, warum es möglich ist, auf diesen Argumenten aufzubauen. Aber in unserem Kurs werden wir nicht oft auf die Thermodynamik zurückgreifen. Die Thermodynamik wird in der Technik und Chemie häufig eingesetzt. Deshalb lernen Sie die Thermodynamik in einem Chemie- oder Technikstudium praktisch kennen. Nun, es hat keinen Sinn, sie zu duplizieren, und wir beschränken uns auf einen gewissen Überblick über die Natur der Theorie und gehen nicht auf ihre speziellen Anwendungen ein.

Die beiden Hauptsätze der Thermodynamik werden oft wie folgt formuliert:

Erstes Gesetz: Die Energie des Universums ist immer konstant.

Zweites Gesetz: Die Entropie des Universums nimmt immer zu.

Dies ist keine sehr gute Formulierung des zweiten Hauptsatzes. Es sagt beispielsweise nichts darüber aus, dass sich die Entropie nach einem reversiblen Zyklus nicht ändert, und klärt auch nicht das eigentliche Konzept der Entropie. Es ist nur eine leicht zu merkende Form beider Gesetze, aber es ist nicht leicht, daraus zu verstehen, wovon sie eigentlich sprechen.

Wir haben alle Gesetze, die jetzt besprochen wurden, in einer Tabelle zusammengefasst. 44.1. Und im nächsten Kapitel werden wir diese Gesetze nutzen, um den Zusammenhang zwischen der Wärme, die Gummi beim Dehnen erzeugt, und der zusätzlichen Spannung, die das Gummi beim Erhitzen ausübt, herauszufinden.

Tabelle 44.1 Gesetze der Thermodynamik

Erstes Gesetz

Dem System zugeführte Wärme + am System geleistete Arbeit = Erhöhung der inneren Energie des Systems:

Der zweite Hauptsatz der Thermodynamik hat mehrere Formulierungen. Clausius' Formulierung: Der Prozess der Wärmeübertragung von einem Körper mit niedrigerer Temperatur auf einen Körper mit höherer Temperatur ist unmöglich.

Thomsons Formulierung: Ein Prozess ist unmöglich, dessen Ergebnis die Verrichtung von Arbeit aufgrund der von einem bestimmten Körper aufgenommenen Wärme wäre. Diese Formulierung schränkt die Umwandlung innerer Energie in mechanische Energie ein. Es ist unmöglich, eine Maschine (ein Perpetuum mobile der zweiten Art) zu bauen, die ihre Arbeit nur durch die Aufnahme von Wärme aus der Umgebung verrichtet.

Boltzmann-Formulierung: Entropie- Dies ist ein Indikator für die Störung des Systems. Je höher die Entropie, desto chaotischer ist die Bewegung der materiellen Teilchen, aus denen das System besteht. Sehen wir uns am Beispiel von Wasser an, wie es funktioniert. Im flüssigen Zustand ist Wasser eine eher ungeordnete Struktur, da sich die Moleküle relativ zueinander frei bewegen und ihre räumliche Ausrichtung beliebig sein kann. Eine andere Sache ist Eis – darin sind die Wassermoleküle geordnet und in das Kristallgitter eingebunden. Die Formulierung von Boltzmanns zweitem Hauptsatz der Thermodynamik besagt relativ gesehen, dass Eis, nachdem es geschmolzen und in Wasser umgewandelt wurde (ein Prozess, der mit einer Abnahme des Ordnungsgrades und einer Zunahme der Entropie einhergeht), niemals selbst aus Wasser wiedergeboren wird in geschlossenen Systemen – also in Systemen, die keine externe Energiezufuhr erhalten – nicht abnehmen kann.

Dritter Hauptsatz der Thermodynamik (Satz von Nernst) ist ein physikalisches Prinzip, das das Verhalten der Entropie bestimmt, wenn sich die Temperatur dem absoluten Nullpunkt nähert. Es handelt sich um eines der Postulate der Thermodynamik, das auf der Grundlage einer Verallgemeinerung einer erheblichen Menge experimenteller Daten akzeptiert wird.

Der dritte Hauptsatz der Thermodynamik lässt sich wie folgt formulieren:

„Der Anstieg der Entropie beim absoluten Nullpunkt tendiert zu einer endlichen Grenze, unabhängig vom Gleichgewichtszustand, in dem sich das System befindet.“.

Wo ist ein thermodynamischer Parameter?

Der dritte Hauptsatz der Thermodynamik gilt nur für Gleichgewichtszustände.

Da nach dem zweiten Hauptsatz der Thermodynamik die Entropie nur bis zu einer beliebigen additiven Konstante bestimmt werden kann (also nicht die Entropie selbst, sondern nur deren Änderung bestimmt wird):

Mit dem dritten Hauptsatz der Thermodynamik lässt sich die Entropie genau bestimmen. In diesem Fall wird die Entropie des Gleichgewichtssystems bei der absoluten Nulltemperatur als gleich Null betrachtet.

Entropie idealer Gase

Um einen berechneten Ausdruck für die Entropieänderung idealer Gase zu erhalten, verwenden wir den ersten Hauptsatz der Thermodynamik, bei dem Wärme anhand der Enthalpieänderung bestimmt wird

Der Unterschied zwischen den Entropien eines idealen Gases in bestimmten zwei Zuständen kann durch Integration des Ausdrucks (4.59) ermittelt werden.

Um den Absolutwert der Entropie eines idealen Gases zu bestimmen, ist es notwendig, den Beginn seiner Zählung durch ein beliebiges Paar thermischer Zustandsparameter festzulegen. Wenn wir beispielsweise s 0 =0 bei T 0 und P 0 unter Verwendung der Gleichung (4.60) annehmen, erhalten wir:

Ausdruck (4.62) zeigt an, dass die Entropie eines idealen Gases ein Zustandsparameter ist, da sie durch jedes Paar von Zustandsparametern bestimmt werden kann. Da die Entropie wiederum selbst ein Zustandsparameter ist, ist es in Verbindung mit jedem unabhängigen Zustandsparameter möglich, jeden anderen Gaszustandsparameter zu bestimmen.

2. Standardentropie von Stoffen. Entropieänderung, wenn sich der Aggregatzustand von Stoffen ändert. Berechnung der Standard-Entropieänderung in chemische Reaktion.
Entropie (S) ist eine thermodynamische Zustandsfunktion, die als Maß für die Unordnung (Unordnung) eines Systems dient. Die Möglichkeit des Auftretens endothermer Prozesse beruht auf einer Änderung der Entropie, da in isolierten Systemen die Entropie eines spontan ablaufenden Prozesses um ΔS > 0 zunimmt (zweiter Hauptsatz der Thermodynamik). L. Boltzmann definierte Entropie als die thermodynamische Wahrscheinlichkeit des Zustands (Unordnung) eines Systems W. Die Entropie hängt mit der thermodynamischen Wahrscheinlichkeit durch die Beziehung zusammen: S = R ln W
Die Dimension der Entropie von 1 Mol einer Substanz stimmt mit der Dimension der Gaskonstanten R überein und ist gleich J∙mol–1∙K–1. Die Entropieänderung *) bei irreversiblen und reversiblen Prozessen wird durch die Beziehungen ΔS > Q / T und ΔS = Q / T vermittelt. Beispielsweise ist die Änderung der Schmelzentropie gleich der Schmelzwärme (Enthalpie) ΔSmel = ΔHmel/Tmel. Bei einer chemischen Reaktion ähnelt die Änderung der Entropie der Änderung der Enthalpie

*) Der Begriff Entropie wurde von Clausius (1865) durch das Verhältnis Q/T (reduzierte Wärme) eingeführt.

Dabei entspricht ΔS° der Entropie des Standardzustandes. Die Standardentropien einfacher Stoffe sind nicht Null. Im Gegensatz zu anderen thermodynamischen Funktionen ist die Entropie eines ideal kristallinen Körpers am absoluten Nullpunkt Null (Plancks Postulat), da W = 1.

Die Entropie einer Substanz oder eines Körpersystems bei einer bestimmten Temperatur ist ein absoluter Wert.

Die Entropie hängt ab von:
-Aggregatzustand eines Stoffes. Beim Übergang vom festen in den flüssigen und insbesondere in den gasförmigen Zustand (Wasser, Eis, Dampf) nimmt die Entropie zu.
-Isotopenzusammensetzung (H2O und D2O).
-Molekulargewicht ähnlicher Verbindungen (CH4, C2H6, n-C4H10).
- Molekülstruktur (n-C4H10, iso-C4H10).
-kristalline Struktur (Allotropie) – Diamant, Graphit.

Die Entropieänderung während dieses Phasenübergangs (fest-flüssig) kann einfach ermittelt werden, wenn wir den Prozess als im Gleichgewicht betrachtend betrachten.

Dies ist eine völlig akzeptable Näherung, wenn wir davon ausgehen, dass der Temperaturunterschied zwischen dem System und dem Objekt, das dem System Wärme zuführt, nicht zu groß ist, viel weniger als der Schmelzpunkt. Dann können wir die thermodynamische Bedeutung der Entropie nutzen: Aus thermodynamischer Sicht ist die Entropie eine Funktion des Zustands des Systems, dessen Änderung dS in einem elementaren Gleichgewichtsprozess gleich dem Verhältnis des Wärmeanteils δQ ist dass das System dabei die Temperatur des Systems T erhält:

Da sich die Temperatur des Systems bei einem bestimmten Phasenübergang nicht ändert und gleich der Schmelztemperatur ist, ist der Integrand eine Größe, die sich während des Prozesses nicht ändert und daher nicht von der Masse m des Stoffes abhängt. Dann

Aus dieser Formel folgt, dass die Entropie beim Schmelzen zunimmt und bei der Kristallisation abnimmt. Physikalische Bedeutung Dieses Ergebnis ist recht eindeutig: Der Phasenbereich eines Moleküls in einem Festkörper ist viel kleiner als in einer Flüssigkeit, da in einem Festkörper jedem Molekül nur ein kleiner Raumbereich zwischen benachbarten Knoten zur Verfügung steht Kristallgitter, und in einer Flüssigkeit nehmen Moleküle den gesamten Raumbereich ein. Daher ist die Entropie eines Festkörpers bei gleicher Temperatur kleiner als die Entropie einer Flüssigkeit. Das bedeutet, dass ein Feststoff ein geordneteres und weniger chaotisches System ist als eine Flüssigkeit.
Die Anwendung der Entropie in diesem (Flüssigkeits-Gas-)Prozess kann einfach dadurch gefunden werden, dass man den Prozess als Gleichgewicht betrachtet. Und auch dies ist eine völlig akzeptable Näherung, vorausgesetzt, der Temperaturunterschied zwischen dem System und dem „Wärmelieferanten“ ist gering, d.h. deutlich unter dem Siedepunkt. Dann

Aus der Formel folgt, dass die Entropie beim Verdampfen zunimmt und bei der Kondensation abnimmt.
Die physikalische Bedeutung dieses Ergebnisses ist der Unterschied im Phasenbereich des Moleküls in Flüssigkeit und Gas. Obwohl in Flüssigkeiten und Gasen jedes Molekül Zugriff auf den gesamten vom System eingenommenen Raumbereich hat, ist dieser Bereich selbst bei einer Flüssigkeit deutlich kleiner als bei einem Gas. In einer Flüssigkeit halten die Anziehungskräfte zwischen den Molekülen diese in einem bestimmten Abstand voneinander. Obwohl also jedes Molekül die Möglichkeit hat, frei durch den von der Flüssigkeit eingenommenen Raumbereich zu wandern, hat es nicht die Möglichkeit, sich „vom Kollektiv“ anderer Moleküle zu lösen: Sobald es sich von einem Molekül löst, löst es ein anderes wird sofort angezogen. Daher hängt das Flüssigkeitsvolumen von seiner Menge ab und steht in keinem Zusammenhang mit dem Volumen des Gefäßes.

Gasmoleküle verhalten sich unterschiedlich. Sie haben viel mehr Freiheit, der durchschnittliche Abstand zwischen ihnen ist so groß, dass die Anziehungskräfte sehr gering sind und die Moleküle „merken sich gegenseitig“ nur bei Kollisionen. Dadurch nimmt das Gas stets das gesamte Gefäßvolumen ein.

Deshalb wann gleiche Temperaturen Der Phasenbereich von Gasmolekülen ist deutlich größer als der Phasenbereich von Flüssigkeitsmolekülen und die Entropie des Gases ist größer als die Entropie der Flüssigkeit. Gas ist im Vergleich zu Flüssigkeit ein viel weniger geordnetes, chaotischeres System.

Die Änderung der standardmäßigen molaren Entropie bei einer chemischen Reaktion wird durch die Gleichung bestimmt:

Zu beachten ist, dass die Entropieänderung im betrachteten Beispiel negativ ausfällt. Dies wäre zu erwarten, wenn man bedenkt, dass gemäß der Reaktionsgleichung die Gesamtmenge der gasförmigen Reaktanten 1,5 Mol und die Gesamtmenge der gasförmigen Produkte nur 1 Mol beträgt. Durch die Reaktion nimmt somit die Gesamtmenge an Gasen ab. Gleichzeitig wissen wir, dass Verbrennungsreaktionen exotherme Reaktionen sind. Folglich ist das Ergebnis ihres Auftretens die Dissipation von Energie, und dies lässt uns eine Zunahme der Entropie und nicht ihre Abnahme erwarten. Darüber hinaus ist zu berücksichtigen, dass die Verbrennung von Wasserstoffgas bei 25°C, bedingt durch die anfängliche Initiierung, dann spontan und mit großer Intensität abläuft. Aber sollte die Entropieänderung bei dieser Reaktion in diesem Fall nicht positiv sein, wie es der zweite Hauptsatz der Thermodynamik verlangt? Es stellt sich heraus – nein, oder zumindest nicht unbedingt. Der zweite Hauptsatz der Thermodynamik verlangt, dass als Ergebnis eines spontanen Prozesses die Gesamtentropie des Systems und seiner Umgebung zunimmt. Die oben berechnete Entropieänderung charakterisiert nur das Betrachtete chemisches System, bestehend aus Reagenzien und Produkten, die an der Verbrennung von Wasserstoffgas bei 25 °C beteiligt sind.

  • 3.3. Drehung eines starren Körpers um eine feste Achse, sein Trägheitsmoment und seine kinetische Energie.
  • 3.4. Moment des Impulses. Gesetz der Drehimpulserhaltung. Zweiter Hauptsatz der Dynamik für Rotationsbewegungen.
  • Vorlesung Nr. 4
  • 4.1. Beschreibung der Bewegung von Flüssigkeit und Gas. Viskosität von Flüssigkeiten und Gasen.
  • 4.2. Kontinuitätsgleichung.
  • 4.3. Bernoullis Gleichung und Schlussfolgerungen daraus
  • Vorlesung Nr. 5
  • 5.1. Harmonische Schwingungen.
  • 5.2. Hinzufügung harmonischer Schwingungen.
  • 5.3. Hinzufügung senkrechter Schwingungen.
  • 5.4. Differentialgleichung von Schwingungen.
  • 5.5. Energiebeziehungen in oszillatorischen Prozessen.
  • 5.6. Schwingungen mathematischer und physikalischer Pendel
  • 5.7. Gleichung erzwungener Schwingungen. Resonanz
  • Vorlesung Nr. 6
  • 6.1.Wellen in elastischen Medien und ihre Arten. Wellenfront, ebene und sphärische Wellen.
  • 6.2. Wellenenergie
  • 6.3. Elastische Wellen in einem Körper
  • Vorlesung Nr. 7
  • 7.1. Grundlegende Bestimmungen von MKT.
  • Aggregatzustände der Materie
  • 7.2. Experimentelle ideale Gasgesetze
  • Avogadros Gesetz
  • 7.3. Ideale Gaszustandsgleichung
  • 7.4. Grundgleichung der molekularkinetischen Theorie eines idealen Gases.
  • 7.5. Maxwells Gesetz für die Geschwindigkeitsverteilung von Molekülen.
  • 7.6. Barometrische Formel. Boltzmann-Verteilung
  • Vorlesung Nr. 8
  • 8.2. Kollisionen von Molekülen und Transportphänomene in einem idealen Gas
  • 8.3. Durchschnittliche Anzahl von Kollisionen und durchschnittliche freie Laufzeit von Molekülen
  • 8.4. Mittlere freie Weglänge von Molekülen
  • 8.5. Diffusion in Gasen
  • 8.6. Gasviskosität
  • 8.7. Wärmeleitfähigkeit von Gasen
  • 8.8. Osmose. Osmotischer Druck
  • Vorlesung Nr. 9
  • 9.1. Energieverteilung über die Freiheitsgrade von Molekülen
  • 9.2. Innere Energie
  • 9.3. Arbeit von Gas während seiner Expansion
  • 9.4. Erster Hauptsatz der Thermodynamik
  • 9.5. Wärmekapazität. Mayers Gleichung
  • 9.6. Adiabatischer Prozess
  • 9.7. Polytropischer Prozess
  • 9.8. Funktionsprinzip einer Wärmekraftmaschine. Carnot-Zyklus und seine Effizienz.
  • 9.9. Entropie. Physikalische Bedeutung der Entropie. Entropie und Wahrscheinlichkeit.
  • 9.10. Der zweite Hauptsatz der Thermodynamik und seine statistische Bedeutung.
  • Vorlesung Nr. 10
  • 10.1. Reale Gase, Van-der-Waals-Gleichung.
  • Die Van-der-Waals-Gleichung beschreibt das Verhalten von Gas bei der Verflüssigung qualitativ recht gut, ist für den Erstarrungsprozess jedoch ungeeignet.
  • 10.2. Grundlegende Merkmale und Muster von Aggregatzuständen und Phasenübergängen.
  • Phasenübergänge zweiter Ordnung. Flüssiges Helium. Superfluidität
  • 10.3. Oberflächenspannung einer Flüssigkeit. Laplace-Druck.
  • 10.4. Kapillarphänomene
  • 10.5. Feststoffe
  • Defekte in Kristallen
  • Thermische Eigenschaften von Kristallen
  • Flüssigkristalle
  • Vorlesung Nr. 11
  • 11.1. Elektrische Eigenschaften von Körpern. Elektrische Ladung. Gesetz der Ladungserhaltung
  • 11.2. Coulomb-Gesetz
  • 11.3. Elektrostatisches Feld. Elektrische Feldstärke. Feldlinien.
  • 11.4. Elektrischer Dipol
  • 11.5. Spannungsvektorfluss. Ostrogradsky-Gauss-Theorem
  • 11.6. Die Arbeit elektrostatischer Feldkräfte bewegt Ladungen.
  • 11.6. Potenzial. Potenzieller unterschied. Potential einer Punktladung, eines Dipols, einer Kugel.
  • 11.7. Zusammenhang zwischen elektrischer Feldstärke und Potential
  • 11.8. Arten von Dielektrika. Polarisation von Dielektrika.
  • 11.9. Ostrogradsky-Gauss-Theorem für ein Feld in einem Dielektrikum. Zusammenhang zwischen Vektoren – Verschiebung, – Spannung und – Polarisation
  • 11.10. Leiter in einem elektrostatischen Feld
  • 11.11. Leiter in einem externen elektrostatischen Feld. Elektrische Kapazität
  • 11.12. Energie eines geladenen Leiters, Leitersystems und Kondensators
  • Vorlesung Nr. 12
  • 12.1. Elektrischer Strom. Aktuelle Stärke und Dichte.
  • 12.3. Ohmsches Gesetz für einen homogenen Abschnitt einer Kette. Leiterwiderstand.
  • 12.4. Ohmsches Gesetz für einen ungleichmäßigen Abschnitt eines Stromkreises
  • 12.5. Joule-Lenz-Gesetz. Arbeit und aktuelle Leistung.
  • 12.6. Kirchhoffs Regeln
  • Vorlesung Nr. 13
  • 13.1. Klassische Theorie der elektrischen Leitfähigkeit von Metallen
  • 13.2. Glühemission. Elektrischer Strom im Vakuum.
  • 13.3. Elektrischer Strom in Gasen. Arten der Gasentladung.
  • Selbsterhaltende Gasentladung und ihre Arten
  • Vorlesung Nr. 14
  • 14.1. Ein Magnetfeld. Magnetische Wechselwirkung von Strömen. Amperesches Gesetz. Magnetischer Induktionsvektor.
  • 14.2. Biot-Savart-Laplace-Gesetz. Magnetfeld von geradlinigen und kreisförmigen Strömen.
  • 14.3. Zirkulation des magnetischen Induktionsvektors. Magnet- und Ringkernfeld
  • 14.4. Magnetischer Fluss. Satz von Gauß
  • 14.5. Die Arbeit, einen Leiter und einen Rahmen mit einem Strom in einem Magnetfeld zu bewegen
  • 14.6. Die Wirkung eines Magnetfeldes auf eine bewegte Ladung. Lorentzkraft
  • 14.7. Magnetfeld in der Materie. Magnetisierung und magnetische Feldstärke.
  • 14.8. Gesamtstromgesetz für das Magnetfeld in der Materie
  • 14.9. Arten von Magneten
  • Vorlesung 15
  • 15.1. Das Phänomen der elektromagnetischen Induktion.
  • 15.2. Selbstinduktionsphänomen
  • 15.3. Magnetfeldenergie
  • 15.4. Maxwells elektromagnetische Theorie.
  • 1) Maxwells erste Gleichung
  • 2) Mischstrom. Maxwells zweite Gleichung
  • 3) Maxwells dritte und vierte Gleichung
  • 4) Das vollständige System der Maxwellschen Gleichungen in Differentialform
  • 15.5. Wechselstrom
  • Vorlesung Nr. 16
  • 16.1. Grundgesetze der geometrischen Optik. Vollständige interne Lichtreflexion.
  • 16.2. Reflexion und Brechung von Licht an einer Kugeloberfläche. Linsen.
  • 16.3. Grundlegende photometrische Größen und ihre Einheiten
  • 17.1. Interferenz von Licht. Kohärenz und Monochromatizität von Lichtwellen. Optische Weglänge und optischer Wegunterschied der Strahlen.
  • 17.2. Methoden zum Erhalten von Interferenzmustern.
  • 17.3. Interferenz in dünnen Filmen.
  • 17.4. Optikbeschichtung
  • 17.5. Lichtbeugung und Bedingungen für ihre Beobachtung. Huygens-Fresnel-Prinzip. Beugungsgitter. Beugung an einem räumlichen Gitter. Wulff-Bragg-Formel
  • 17.6. Fresnel-Beugung an den einfachsten Hindernissen.
  • 17.7. Beugung in parallelen Strahlen (Fraunhofer-Beugung)
  • 17.8. Beugung an räumlichen Gittern. Wolfe-Bragg-Formel.
  • 17.9. Polarisation von Licht. Natürliches und polarisiertes Licht.
  • 17.10. Polarisation von Licht bei Reflexion und Brechung. Brewsters Gesetz.
  • 17.11. Polarisation während der Doppelbrechung.
  • 17.12. Drehung der Polarisationsebene.
  • 17.13. Lichtstreuung. Absorption (Absorption) von Licht.
  • Vorlesung Nr. 18
  • 18.1. Quantennatur der Strahlung. Wärmestrahlung und ihre Eigenschaften. Kirchhoffs Gesetz. Stefan-Boltzmann- und Wien-Gesetze.
  • 18.2.Arten des photoelektrischen Effekts. Gesetze des externen photoelektrischen Effekts. Einsteins Gleichung für den photoelektrischen Effekt.
  • 18.3. Photonenmasse und -impuls. Leichter Druck. Compton-Effekt.
  • Vorlesung Nr. 19
  • 19.2. Linienspektrum des Wasserstoffatoms.
  • 19.3. Bohrs Postulate. Experimente von Frank und Hertz.
  • Vorlesung Nr. 20
  • 20.1.Atomkern.
  • 20.2.Atomkräfte.
  • 20.3. Kernbindungsenergie. Massendefekt.
  • 20.4. Kernspaltungsreaktionen.
  • 2.5.Thermonukleare Fusion.
  • 20.6.Radioaktivität. Gesetz des radioaktiven Zerfalls.
  • Unabhängiger Arbeitsplan
  • Zeitplan für Labor- und Praxiskurse
  • Fragenliste zur Vorbereitung auf das Mechanik-Kolloquium
  • Formeln
  • Definitionen
  • Fragen zur Prüfung
  • Regeln und Muster der Laborarbeit
  • 9.9. Entropie. Physikalische Bedeutung der Entropie. Entropie und Wahrscheinlichkeit.

    Betrachtet man den Wirkungsgrad einer Wärmekraftmaschine, die nach dem Carnot-Zyklus arbeitet, kann man feststellen, dass das Verhältnis der Temperatur des Kühlschranks zur Temperatur des Heizgeräts gleich dem Verhältnis der vom Arbeitsmedium abgegebenen Wärmemenge ist Kühlschrank und die von der Heizung aufgenommene Wärmemenge. Das bedeutet, dass für eine ideale Wärmekraftmaschine, die nach dem Carnot-Zyklus arbeitet, die folgende Beziehung gilt:
    . Attitüde Lorenz hat angerufen reduzierte Hitze . Für einen Elementarprozess ist die reduzierte Wärme gleich . Dies bedeutet, dass während der Umsetzung des Carnot-Zyklus (und es ist ein reversibler Kreisprozess) die reduzierte Wärme unverändert bleibt und sich zustandsabhängig verhält, dann ist bekanntlich die Wärmemenge eine Funktion des Prozesses .

    Unter Verwendung des ersten Hauptsatzes der Thermodynamik für reversible Prozesse,
    und wenn wir beide Seiten dieser Gleichheit durch die Temperatur dividieren, erhalten wir:

    (9-41)

    Lassen Sie uns anhand der Mendeleev-Clapeyron-Gleichung ausdrücken
    , setze es in Gleichung (9-41) ein und erhalte:

    (9-42)

    Berücksichtigen wir das
    , A
    , setze sie in Gleichung (9-42) ein und erhalte:

    (9-43)

    Die rechte Seite dieser Gleichheit ist ein vollständiges Differential, daher ist bei reversiblen Prozessen auch die reduzierte Wärme ein vollständiges Differential, was ein Zeichen der Zustandsfunktion ist.

    Zustandsfunktion, deren Differential ist , angerufen Entropie und ist bezeichnet S . Somit ist die Entropie eine Funktion des Zustands. Nach Einführung der Entropie sieht Formel (9-43) wie folgt aus:

    , (9-44)

    Wo dS– Entropieinkrement. Gleichung (9-44) gilt nur für reversible Prozesse und eignet sich zur Berechnung der Entropieänderung bei endlichen Prozessen:

    (9-45)

    Wenn ein System auf reversible Weise einen Kreislaufprozess (Zyklus) durchläuft, dann
    , und daher S=0, dann ist S = const.

    Indem wir die Wärmemenge durch den Entropiezuwachs für einen Elementarprozess ausdrücken und sie in die Gleichung für den ersten Hauptsatz der Thermodynamik einsetzen, erhalten wir eine neue Form, diese Gleichung zu schreiben, die üblicherweise so genannt wird grundlegende thermodynamische Identität:

    (9-46)

    Um die Entropieänderung bei reversiblen Prozessen zu berechnen, ist es daher zweckmäßig, reduzierte Wärme zu verwenden.

    Bei irreversiblen Nichtgleichgewichtsprozessen
    , und für irreversible Kreisprozesse gilt es Clausius-Ungleichung :

    (9-47)

    Betrachten wir, was mit der Entropie in einem isolierten thermodynamischen System passiert.

    In einem isolierten thermodynamischen System ändert sich seine Entropie bei jeder reversiblen Zustandsänderung nicht. Mathematisch lässt sich das wie folgt schreiben: S = const.

    Betrachten wir, was mit der Entropie eines thermodynamischen Systems während eines irreversiblen Prozesses passiert. Nehmen wir an, dass der Übergang von Zustand 1 zu Zustand 2 entlang des Pfades L 1 reversibel und von Zustand 2 zu Zustand 1 entlang des Pfades L 2 irreversibel ist (Abb. 9.13).

    Dann gilt die Clausius-Ungleichung (9-47). Schreiben wir den Ausdruck für die rechte Seite dieser Ungleichung entsprechend unserem Beispiel:

    .

    Der erste Term in dieser Formel kann durch eine Entropieänderung ersetzt werden, da dieser Prozess reversibel ist. Dann kann die Clausius-Ungleichung geschrieben werden als:

    .

    Von hier
    . Als
    , dann können wir endlich schreiben:

    (9-48)

    Wenn das System isoliert ist, dann
    , und Ungleichung (9-48) wird wie folgt aussehen:

    , (9-49)

    T Das heißt, die Entropie eines isolierten Systems nimmt während eines irreversiblen Prozesses zu. Das Entropiewachstum setzt sich nicht unbegrenzt fort, sondern bis zu einem bestimmten Maximalwert, der für einen bestimmten Zustand des Systems charakteristisch ist. Dieser maximale Entropiewert entspricht einem Zustand des thermodynamischen Gleichgewichts. Eine Zunahme der Entropie bei irreversiblen Prozessen in einem isolierten System bedeutet, dass die Energie, die das System besitzt, für die Umwandlung in mechanische Arbeit weniger zur Verfügung steht. Im Gleichgewichtszustand, wenn die Entropie ihren Maximalwert erreicht, kann die Energie des Systems nicht in mechanische Arbeit umgewandelt werden.

    Wenn das System nicht isoliert ist, kann die Entropie je nach Richtung der Wärmeübertragung entweder abnehmen oder zunehmen.

    Die Entropie als Funktion des Zustands des Systems kann als derselbe Zustandsparameter dienen wie Temperatur, Druck, Volumen. Durch die Darstellung eines bestimmten Prozesses in einem Diagramm (T,S) kann man die Wärmemenge als Fläche einer Figur unter der Kurve, die den Prozess darstellt, mathematisch interpretieren. Abbildung 9.14 zeigt ein Diagramm für einen isothermen Prozess in Entropie-Temperatur-Koordinaten.

    Entropie kann durch die Parameter des Gaszustands ausgedrückt werden – Temperatur, Druck, Volumen. Dazu drücken wir aus der thermodynamischen Hauptidentität (9-46) das Entropieinkrement aus:

    .

    Integrieren wir diesen Ausdruck und erhalten:

    (9-50)

    Die Entropieänderung kann auch durch ein anderes Zustandsparameterpaar ausgedrückt werden – Druck und Volumen. Dazu müssen Sie die Temperaturen des Anfangs- und Endzustands aus der Zustandsgleichung eines idealen Gases durch Druck und Volumen ausdrücken und in (9-50) einsetzen:

    (9-51)

    Bei isothermer Expansion des Gases in den Hohlraum gilt T 1 = T 2, was bedeutet, dass der erste Term in Formel (9-47) auf Null gesetzt wird und die Entropieänderung nur durch den zweiten Term bestimmt wird:

    (9-52)

    Obwohl es in vielen Fällen praktisch ist, reduzierte Wärme zur Berechnung der Entropieänderung zu verwenden, ist klar, dass reduzierte Wärme und Entropie unterschiedliche und nicht identische Konzepte sind.

    Lass es uns herausfinden physikalische Bedeutung der Entropie . Dazu verwenden wir die Formel (9-52) für einen isothermen Prozess, bei dem sich die innere Energie nicht ändert und alle möglichen Charakteristikänderungen nur auf Volumenänderungen zurückzuführen sind. Betrachten wir die Beziehung zwischen dem Volumen, das ein Gas im Gleichgewichtszustand einnimmt, und der Anzahl der räumlichen Mikrozustände von Gaspartikeln. Die Anzahl der Mikrozustände von Gasteilchen, mit deren Hilfe ein gegebener Makrozustand eines Gases als thermodynamisches System realisiert wird, lässt sich wie folgt berechnen. Teilen wir das gesamte Volumen in elementare kubische Zellen mit einer Seitenlänge von d~10–10 m (in der Größenordnung des effektiven Durchmessers des Moleküls). Das Volumen einer solchen Zelle beträgt d 3. Im ersten Zustand nimmt das Gas das Volumen V 1 ein, daher ist die Anzahl der Elementarzellen, also die Anzahl der Plätze N 1, die Moleküle in diesem Zustand einnehmen können, gleich
    . Ebenso erhalten wir für den zweiten Zustand mit Volumen V 2
    . Es ist zu beachten, dass die Änderung der Positionen der Moleküle einem neuen Mikrozustand entspricht. Nicht jede Änderung im Mikrozustand führt zu einer Änderung im Makrozustand. Angenommen, Moleküle können N 1-Plätze besetzen, dann führt der Austausch der Plätze von Molekülen in diesen N 1-Zellen nicht zu einem neuen Makrozustand. Der Übergang von Molekülen zu anderen Zellen führt jedoch zu einer Änderung des Makrozustands des Systems. Die Anzahl der Mikrozustände eines Gases, die einem bestimmten Makrozustand entsprechen, kann berechnet werden, indem die Anzahl der Möglichkeiten bestimmt wird, Partikel dieses Gases in Elementarzellen zu platzieren. Um die Berechnungen zu vereinfachen, betrachten Sie 1 Mol eines idealen Gases. Für 1 Mol eines idealen Gases sieht die Formel (9-52) wie folgt aus:

    (9-53)

    Die Anzahl der Mikrozustände des Systems, die das Volumen V 1 einnehmen, wird mit Г 1 bezeichnet und durch Zählen der Anzahl der Platzierungen N A (Avogadro-Zahl) von Molekülen bestimmt, die in 1 Mol Gas in N 1-Zellen (Orten) enthalten sind:
    . In ähnlicher Weise berechnen wir die Anzahl der Mikrozustände G 2 des Systems, die das Volumen V 2 einnehmen:
    .

    Man nennt die Anzahl der Mikrozustände Г i, mit deren Hilfe der i-te Makrozustand realisiert werden kann thermodynamische Wahrscheinlichkeit dieses Makrozustandes. Thermodynamische Wahrscheinlichkeit Г ≥ 1.

    Finden wir das Verhältnis Г 2 /Г 1:

    .

    Bei idealen Gasen ist die Zahl der freien Plätze viel größer als die Zahl der Moleküle, also N 1 >>N A und N 2 >>N A. . Unter Berücksichtigung des Ausdrucks der Zahlen N 1 und N 2 durch die entsprechenden Volumina erhalten wir dann:

    Von hier aus können wir das Volumenverhältnis durch das Verhältnis der thermodynamischen Wahrscheinlichkeiten der entsprechenden Zustände ausdrücken:

    (9-54)

    Ersetzen Sie (9-54) durch (9-53) und erhalten Sie:
    . Wenn man das Verhältnis der molaren Gaskonstante zur Avogadro-Zahl berücksichtigt, ergibt sich die Boltzmann-Konstante k, und auch, dass der Logarithmus des Verhältnisses zweier Größen gleich der Differenz der Logarithmen dieser Größen ist, erhalten wir:. Daraus können wir schließen, dass die Entropie dieses Zustands S i durch den Logarithmus der Anzahl der Mikrozustände bestimmt wird, durch die ein gegebener Makrozustand realisiert wird:

    (9-55)

    Formel (9-55) wird aufgerufen Boltzmanns Formel Wer hat es zuerst empfangen und verstanden? statistische Bedeutung der Entropie , Wie Störungsfunktionen . Boltzmanns Formel hat eine allgemeinere Bedeutung als Formel (9-53), das heißt, sie kann nicht nur für ideale Gase verwendet werden und ermöglicht es, die physikalische Bedeutung der Entropie aufzudecken. Je geordneter das System ist, je kleiner die Anzahl der Mikrozustände ist, durch die ein gegebener Makrozustand realisiert wird, desto geringer ist die Entropie des Systems. Eine Entropiezunahme in einem isolierten System, in dem irreversible Prozesse ablaufen, bedeutet die Bewegung des Systems in Richtung des wahrscheinlichsten Zustands, nämlich des Gleichgewichtszustands. Das kann man sagen Entropie Ist Maß der Unordnung Systeme; Je größer die Unordnung ist, desto höher ist die Entropie. Das ist physikalische Bedeutung der Entropie .