Informationstheorie: Unterschied zwischen den Versionen
David (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „==Buchübersicht== Seit den ersten Anfängen der Nachrichtenübertragung als naturwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathem…“) |
David (Diskussion | Beiträge) |
||
Zeile 8: | Zeile 8: | ||
===Inhalt=== | ===Inhalt=== | ||
{{Collapsible-Kopf}} | {{Collapsible-Kopf}} | ||
− | {{Collapse1| header= | + | {{Collapse1| header=Entropie wertdiskreter Nachichtenquellen |
| submenu= | | submenu= | ||
− | *[[/ | + | *[[/Gedächtnislose Nachrichtenquellen/]] |
− | *[[/ | + | *[[/Nachrichtenquellen mit Gedächtnis/]] |
− | *[[/ | + | *[[/Natürliche wertdiskrete Nachrichtenquellen/]] |
}} | }} | ||
− | {{Collapse2 | header= | + | {{Collapse2 | header=Quellencodierung - Datenkomprimierung |
|submenu= | |submenu= | ||
*[[/Allgemeine Beschreibung/]] | *[[/Allgemeine Beschreibung/]] | ||
− | *[[/ | + | *[[/Komprimierung nach Lempel, Ziv und Welch/]] |
− | *[[/ | + | *[[/Entropiecodierung nach Huffman/]] |
− | *[[/ | + | *[[/Weitere Quellencodierverfahren/]] |
}} | }} | ||
− | {{Collapse3 | header= | + | {{Collapse3 | header=Information zwischen zwei wertdiskreten Zufallsgrößen |
|submenu= | |submenu= | ||
− | + | *[[/Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen/]] | |
− | *[[/Einige | + | *[[/Verschiedene Entropien zweidimensionaler Zufallsgrößen/]] |
− | *[[/ | + | *[[/Anwendung auf die Digitalsignalübertragung/]] |
− | *[[/ | ||
}} | }} | ||
− | {{Collapse4 | header= | + | {{Collapse4 | header=Wertkontinuierliche Informationstheorie |
|submenu= | |submenu= | ||
− | *[[/ | + | *[[/Differentielle Entropie/]] |
− | *[[/ | + | *[[/AWGN–Kanalkapazität bei wertkontinuierlichem Eingang/]] |
− | + | *[[/AWGN–Kanalkapazität bei wertdiskretem Eingang/]] | |
− | |||
− | |||
− | |||
− | |||
− | |||
− | *[[/ | ||
− | |||
− | |||
}} | }} | ||
{{Collapsible-Fuß}} | {{Collapsible-Fuß}} |
Version vom 13. Mai 2016, 17:36 Uhr
Buchübersicht
Seit den ersten Anfängen der Nachrichtenübertragung als naturwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker, ein quantitatives Maß für die in einer Nachricht enthaltene Information zu finden. Hierbei soll unter „Information“ ganz allgemein die Kenntnis über irgend etwas verstanden werden, während wir im folgenden eine „Nachricht“ stets als eine Zusammenstellung von Symbolen und/oder Zuständen betrachten, die zur Übermittlung von Information dient. Die (abstrakte) Information wird durch die (konkrete) Nachricht mitgeteilt und kann in vielerlei Hinsicht als Interpretation einer Nachricht aufgefasst werden.
Claude Elwood Shannon gelang es 1948, eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen, die zu ihrer Zeit revolutionär war und ein neues, bis heute hochaktuelles Wissenschaftsgebiet kreierte: die nach ihm benannte Shannonsche Informationstheorie. Von dieser handelt dieses Lehrbuch, das im Mai 2011 begonnen und im Sommer 2015 fertiggestellt wurde.
Inhalt