Entropie

Dieser Text ist noch in Bearbeitung.

Definition

Die Entropie S ist ein Maß für die Unordnung, die ein System aufweist. Je höher die Unord­nung ist, umso höher ist auch die Entropie. Dies gilt in der Thermodynamik wie auch in der Informationstheorie.

In der Thermodynamik ist die Entropie definiert durch \[ \Delta S= \frac{\Delta Q_\text{reversibel}}{T} \] mit der Wärmemenge \(Q\) und der absoluten Temperatur \(T=t-t_0\), worin \(t\) die Temperatur in Grad Celsius und \(t_0=-273.15°\)C die Temperatur des absoluten Nullpunkts ist. Die SI-Maßeinheit der Entropie ist dabei Joule pro Kelvin (J/K).

In der Informationstheorie ist ihre Einheit das Bit als Ent­schei­dung zwischen zwei als gleichwahrscheinlich angenommenen Möglichkeiten.

Beispiele

© Günter Green
zur Liste weiterer Physikthemen
  25-Sep-2023
Valid HTML 4.0 Transitional