Inhaltsverzeichnis
Einleitung
Information
Information und Wahrscheinlichkeit
Entropie
Entropie bei kontinuierlichen Verteillungen
Beispiele für kontinuierliche Verteilunen maximaler Entropie
Das Prinzip der maximalen Entropie
Beispiele für das Prinzip der maximalen Entropie
Redundanz
Quellenkodierung
Fano- und Huffman-Kodierung
Anwendung auf eine reale Nachrichtenquelle
Quellenkodierung im allgemeinen Fall
Markoff-Prozesse
Definitionen
Stochastische Matrizen
Beispiel: Eine Markoff-Quelle der Rückwirkung 2
Klassifizierung von Markoff-Prozessen
Vorhersage-Kodierung
Informationsübertragung
Wahrscheinlichkeiten zusammengesetzter Ereignisse
Entropie bei Verbundereignissen
Synentropie
Beispiele
Der Übertragungskanal mit Störungen
Kanalkapazität
Der Fundamentalsatz über die Kanalkodierung
Einteilung von Übertragungskanälen
Klassifikation konstanter Nachrichtenkanäle
Der binärsymmetrische Kanal
Die Kapazität eines kontinuierlichen Kanals
Kontinuierliche Zeitfunktionen
Der Abtastsatz
Rekonstruktion einer Funktion aus Abtastwerten
Die Entropie frequenzbandbegrenzter Zeitfunktionen
Literaturverzeichnis
© Günter Green
Los geht's
22-Sep-2018