Informationstheorie: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
K (Markus verschob die Seite Informationstheorie und Quellencodierung nach Informationstheorie, ohne dabei eine Weiterleitung anzulegen)
Zeile 1: Zeile 1:
Seit den ersten Anfängen der Nachrichtenübertragung als naturwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker, ein quantitatives Maß für die in einer Nachricht enthaltene Information zu finden. Hierbei soll unter „Information“ ganz allgemein die Kenntnis über irgend etwas verstanden werden, während wir im folgenden eine „Nachricht“ stets als eine Zusammenstellung von Symbolen und/oder Zuständen betrachten, die zur Übermittlung von Information dient. Die (abstrakte) Information wird durch die (konkrete) Nachricht mitgeteilt und kann in vielerlei Hinsicht als Interpretation einer Nachricht aufgefasst werden. Claude Elwood Shannon gelang es 1948, eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen, die zu ihrer Zeit revolutionär war und ein neues, bis heute hochaktuelles Wissenschaftsgebiet kreierte: die nach ihm benannte Shannonsche Informationstheorie.  
+
Seit den ersten Anfängen der Nachrichtenübertragung als naturwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker, ein quantitatives Maß zu finden für die in  
 +
*einer Nachricht (hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“)
 +
*enthaltene Information (ganz allgemein: „die Kenntnis über irgend etwas“)
 +
 
 +
 
 +
Die (abstrakte) Information wird durch die (konkrete) Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden. Claude Elwood Shannon gelang es 1948, eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen, die zu ihrer Zeit revolutionär war und ein neues, bis heute hochaktuelles Wissenschaftsgebiet kreierte: die nach ihm benannte ''Shannonsche Informationstheorie''.  
  
 
===Inhalt===
 
===Inhalt===
Zeile 29: Zeile 34:
 
}}
 
}}
 
{{Collapsible-Fuß}}
 
{{Collapsible-Fuß}}
 +
Der Umfang dieses Buches entspricht einer Lehrveranstaltung mit zwei Semesterwochenstunden (SWS) Vorlesung und einer SWS Übungen.
  
Dieses Buch wurde im Mai 2011 begonnen und im Sommer 2015 fertiggestellt.
+
'''Empfohlene Literatur:'''
 +
*Böhme, J.R.: Stochastische Signale. Stuttgart: B.G. Teubner, 1993.
 +
*Bratley, R.; Fox, B.L.; Schräge, L.E.: A Guide to Simulation. New York: Springer, 1987.
 +
*Davenport, W.B.: Probability and Random Processes. New York: McGraw-Hill, 1970.
 +
*Fisz, M.: Wahrscheinlichkeitsrechnung und mathematische Statistik. 9. Auflage. Berlin: Deutscher Verlag der Wissenschaften, 1978.
 +
*Greiner, M.; Tinhofer, G.: Stochastik für Studienanfänger der Informatik. München: Carl Hanser, 1996.
 +
*Hänsler, E.: Statistische Signale: Grundlagen und Anwendungen. 2. Auflage. Berlin – Heidelberg: Springer, 1997.
 +
*Jackson, L.B.: Digital Filters and Signal Processing. Boston: Kluwer, 1986.
 +
*Knuth, D.E.: The Art of Computer Programming – Volume l. Second Edition. Reading, Mass.: Addison-Wesley, 1973.
 +
*Knuth, D.E.: The Art of Computer Programming – Volume 2. Second Edition. Reading, Mass.: Addison-Wesley, 1981.
 +
*Kolmogoroff, A.N.: Grundbegriffe der Wahrscheinlichkeitsrechnung. Berlin – Heidelberg: Springer, 1933.
 +
*Kreyszig, E.: Statistische Methoden und ihre Anwendungen. 7. Auflage. Göttingen: Vandenhoeck & Ruprecht, 1985.
 +
*Lücker, R.: Grundlagen digitaler Filter. Berlin – Heidelberg: Springer, 1980.
 +
*Lüke, H.D.: Korrelationssignale. Berlin – Heidelberg: Springer, 1992.
 +
*Müller, P.H.: Lexikon der Stochastik. 5. Auflage. Berlin: Akademie-Verlag, 1991.
 +
*Papoulis, A.; Pillai, S.U.: Probability, Random Variables, and Stochastic Processes. Fourth Edition. New York: McGraw-Hill, 2002.
 +
*Söder, G.: Modellierung, Simulation und Optimierung von Nachrichtensystemen. Berlin – Heidelberg: Springer, 1993.
 +
*Thomas, J.B.: Introduction to Probability. New York: Springer, 1986.
  
  
 
__NOTOC__
 
__NOTOC__
 
__NOEDITSECTION__
 
__NOEDITSECTION__

Version vom 24. April 2017, 14:03 Uhr

Seit den ersten Anfängen der Nachrichtenübertragung als naturwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker, ein quantitatives Maß zu finden für die in

  • einer Nachricht (hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“)
  • enthaltene Information (ganz allgemein: „die Kenntnis über irgend etwas“)


Die (abstrakte) Information wird durch die (konkrete) Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden. Claude Elwood Shannon gelang es 1948, eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen, die zu ihrer Zeit revolutionär war und ein neues, bis heute hochaktuelles Wissenschaftsgebiet kreierte: die nach ihm benannte Shannonsche Informationstheorie.

Inhalt

Der Umfang dieses Buches entspricht einer Lehrveranstaltung mit zwei Semesterwochenstunden (SWS) Vorlesung und einer SWS Übungen.

Empfohlene Literatur:

  • Böhme, J.R.: Stochastische Signale. Stuttgart: B.G. Teubner, 1993.
  • Bratley, R.; Fox, B.L.; Schräge, L.E.: A Guide to Simulation. New York: Springer, 1987.
  • Davenport, W.B.: Probability and Random Processes. New York: McGraw-Hill, 1970.
  • Fisz, M.: Wahrscheinlichkeitsrechnung und mathematische Statistik. 9. Auflage. Berlin: Deutscher Verlag der Wissenschaften, 1978.
  • Greiner, M.; Tinhofer, G.: Stochastik für Studienanfänger der Informatik. München: Carl Hanser, 1996.
  • Hänsler, E.: Statistische Signale: Grundlagen und Anwendungen. 2. Auflage. Berlin – Heidelberg: Springer, 1997.
  • Jackson, L.B.: Digital Filters and Signal Processing. Boston: Kluwer, 1986.
  • Knuth, D.E.: The Art of Computer Programming – Volume l. Second Edition. Reading, Mass.: Addison-Wesley, 1973.
  • Knuth, D.E.: The Art of Computer Programming – Volume 2. Second Edition. Reading, Mass.: Addison-Wesley, 1981.
  • Kolmogoroff, A.N.: Grundbegriffe der Wahrscheinlichkeitsrechnung. Berlin – Heidelberg: Springer, 1933.
  • Kreyszig, E.: Statistische Methoden und ihre Anwendungen. 7. Auflage. Göttingen: Vandenhoeck & Ruprecht, 1985.
  • Lücker, R.: Grundlagen digitaler Filter. Berlin – Heidelberg: Springer, 1980.
  • Lüke, H.D.: Korrelationssignale. Berlin – Heidelberg: Springer, 1992.
  • Müller, P.H.: Lexikon der Stochastik. 5. Auflage. Berlin: Akademie-Verlag, 1991.
  • Papoulis, A.; Pillai, S.U.: Probability, Random Variables, and Stochastic Processes. Fourth Edition. New York: McGraw-Hill, 2002.
  • Söder, G.: Modellierung, Simulation und Optimierung von Nachrichtensystemen. Berlin – Heidelberg: Springer, 1993.
  • Thomas, J.B.: Introduction to Probability. New York: Springer, 1986.