Entropierate

Die Entropierate (englisch entropy rate) ermöglicht in der Informationstheorie unabhängig von der Länge einer Nachricht eine Messung der Entropie bezogen auf ein Zeichen.

Formal lässt sie sich folgendermaßen definieren:

H R a t e = 1 n H ( X 1 , . . . , X n ) {\displaystyle H_{\mathrm {Rate} }={\frac {1}{n}}H(X_{1},...,X_{n})} = 1 n x 1 , . . . , x n p ( x 1 , . . . , x n ) log p ( x 1 , . . . , x n ) {\displaystyle =-{1 \over n}\sum _{x_{1},...,x_{n}}p(x_{1},...,x_{n})\log p(x_{1},...,x_{n})} .

Hierbei ist n {\displaystyle n} die Anzahl der Zeichen der Nachricht bzw. die Anzahl der Zufallsvariablen.

Die Entropierate ermöglicht einen Vergleich der Entropien von Nachrichten unterschiedlicher Länge.

Literatur

  • Peter Adam Höher: Grundlagen der digitalen Informationsübertragung. Von der Theorie zu Mobilfunkanwendungen, 2. Auflage, Springer Vieweg, Wiesbaden 2013, ISBN 978-3-8348-1784-6.
  • Informationstheorie - (P)Review (abgerufen am 12. Februar 2018)
  • Stochastische Prozesse (abgerufen am 12. Februar 2018)
  • Universelle Kodierungen und Lempel-Ziv-Kodierung (abgerufen am 12. Februar 2018)
  • Information und Kommunikation (abgerufen am 12. Februar 2018)