Inhaltsverzeichnis

Entropie in der statistischen Thermodynamik

Titel
Entropie in der statistischen Thermodynamik
Format
Vortrag
Umfang
20 min
Themen
Konfigurationen, Gewichte und Boltzmann-Verteilung
Molekulare Zustandssumme
Statistische Definition der Entropie
Entropie und Shannon-Information
Folien
PDF
Glossar
PDF – Zusammenfassung wichtiger Begriffe
Artikel
PDF – schriftliche, ausführlichere Abhandlung des Themas


Inhalt

Die statistische Thermodynamik ist das entscheidende Bindeglied zwischen mikroskopischer und makroskopischer Welt, Quantenmechanik und klassischer, phänomenologischer Thermodynamik. Hier wird mit der Entropie nur ein einzelner Aspekt betrachtet. Ausgangspunkt ist der Vergleich der Definitionen der Entropie nach Clausius (klassische Thermodynamik) und Boltzmann (statistische Thermodynamik). Von dort ausgehend werden die relevanten Konzepte wie Konfigurationen, Gewichte, Boltzmannverteilung und molekulare Zustandssumme eingeführt. Die Kernthese ist dabei, dass Boltzmanns statistische bzw. wahrscheinlichkeitstheoretische Formulierung der Entropie wesentlich zu deren Verständnis beiträgt. Abschließend wird mit einem kurzen Ausblick auf Shannons Informationstheorie und seiner Definition der Information, die mathematisch äquivalent zu Boltzmanns Definition der Entropie ist, eine Verbindung zwischen Entropie und Informationsgehalt eines Systems hergestellt.

Zentrale Aspekte

Fragen zum Verständnis

Die nachfolgenden Fragen sollten sich mit den im Vortrag vermittelten Inhalten beantworten lassen und dienen der eigenständigen Nacharbeit bzw. Beschäftigung mit der Thematik.

Weiterführende Literatur

Eine kommentierte und handverlesene Liste mit weiterführender Literatur zum Thema. Die Auswahl ist zwangsläufig subjektiv.

Die Darstellung folgt in weiten Teilen jener in [Atkins, 2013Atkins, Peter W.; de Paula, Julio (2013): Physikalische Chemie, Wiley-VCH, Weinheim] (Kap. 15). Boltzmanns Originalarbeit ist [Boltzmann, 1877Boltzmann, Ludwig (1877): Über die Beziehung zwischen dem zweiten Hauptsatz der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung respektive den Sätzen über das Wärmegleichgewicht, SMNCKAWII 76:373-435], die Gleichung wurde in ihrer uns heute bekannten Form von Max Planck aufgestellt [Planck, 1901Planck, Max (1901): Über das Gesetz der Energieverteilung im Normalspectrum, Annalen der Physik 4:553-563]. Für die Einführung des Begriffs „Entropie“ durch Clausius vgl. [Clausius, 1867Clausius, Rudolf (1867): Über den zweiten Hauptsatz der mechanischen Wärmetheorie. Ein Vortrag, gehalten in einer allgemeinen Sitzung der 31. Versammlung deutscher Naturforscher und Aerzte zu Frankfurt a. M. am 23. September 1867, Friedrich Vieweg und Sohn, Braunschweig]

Für den Vergleich zwischen Boltzmann-Entropie und Shannon-Information vgl. u.a. [Glaser, 1996Glaser, Roland (1996): Biophysik, Gustav Fischer, Jena] (Kap. 2.3). Dort findet sich ebenfalls die erwähnte mathematische Begründung für die Verwendung des Logarithmus. Die Originalarbeit von Shannon, in der er seine Formulierung der Information bzw. Entropie einführt, ist [Shannon, 1945Shannon, Claude E. (1945): A mathematical theory of communication, The Bell System Technical Journal 27:379-423].