Informationstheorie: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
(Die Seite wurde neu angelegt: „==Buchübersicht== Seit den ersten Anfängen der Nachrichtenübertragung als naturwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathem…“)
 
 
(42 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
==Buchübersicht==
+
===Kurzer Überblick===
Seit den ersten Anfängen der Nachrichtenübertragung als naturwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker, ein quantitatives Maß für die in einer Nachricht enthaltene Information zu finden. Hierbei soll unter „Information“ ganz allgemein die Kenntnis über irgend etwas verstanden werden, während wir im folgenden eine „Nachricht“ stets als eine Zusammenstellung von Symbolen und/oder Zuständen betrachten, die zur Übermittlung von Information dient. Die (abstrakte) Information wird durch die (konkrete) Nachricht mitgeteilt und kann in vielerlei Hinsicht als Interpretation einer Nachricht aufgefasst werden.
 
  
 +
{{BlaueBox|TEXT=Seit den ersten Anfängen der Nachrichtenübertragung als ingenieurwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker,  ein quantitatives Maß zu finden für die
 +
*in einer  »'''Nachricht'''«  $($hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“$)$
  
Claude Elwood Shannon gelang es 1948, eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen, die zu ihrer Zeit revolutionär war und ein neues, bis heute hochaktuelles Wissenschaftsgebiet kreierte: die nach ihm benannte Shannonsche Informationstheorie. Von dieser handelt dieses Lehrbuch, das im Mai 2011 begonnen und im Sommer 2015 fertiggestellt wurde.
+
*enthaltene  »'''Information'''«  $($ganz allgemein: „die Kenntnis über irgend etwas“$)$.  
  
 +
 +
Die  $($abstrakte$)$  Information wird durch die  $($konkrete$)$  Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden.
 +
 +
[https://de.wikipedia.org/wiki/Claude_Shannon '''Claude Elwood Shannon''']  gelang es 1948,  eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen,  die zu ihrer Zeit revolutionär war und ein neues,  bis heute hochaktuelles Wissenschaftsgebiet kreierte:  die nach ihm benannte  »'''Shannonsche Informationstheorie«'''.»
 +
 +
Damit beschäftigt sich das vierte Buch dieser  LNTwww–Reihe,  insbesondere:
 +
# Entropie wertdiskreter gedächtnisloser,  gedächtnisbehafteter sowie natürlicher Nachrichtenquellen:  Definition,  Bedeutung und Berechnungsmöglichkeiten.
 +
# Quellencodierung und Datenkomprimierung,  insbesondere das Verfahren nach Lempel,  Ziv und Welch sowie die Entropiecodierung nach Huffman. 
 +
# Verschiedene Entropien zweidimensionaler wertdiskreter Zufallsgößen.  Transinformation und Kanalkapazität.  Anwendung auf die Digitalsignalübertragung.   
 +
# Wertdiskrete Informationstheorie.  Differentielle Entropie.  AWGN–Kanalkapazität bei wertkontinuierlichem sowie wertdiskretem Eingang. 
 +
 +
 +
⇒   Hier zunächst eine  »'''Inhaltsübersicht'''«  anhand der  »'''vier Hauptkapitel'''«  mit insgesamt  »'''dreizehn Einzelkapiteln'''«  und  »'''106 Abschnitten'''«.}} 
 +
  
 
===Inhalt===
 
===Inhalt===
 
{{Collapsible-Kopf}}
 
{{Collapsible-Kopf}}
{{Collapse1| header=Grundbegriffe der Nachrichtentechnik
+
{{Collapse1| header=Entropie wertdiskreter Nachrichtenquellen
 
| submenu=  
 
| submenu=  
*[[/Prinzip der Nachrichtenübertragung/]]
+
*[[/Gedächtnislose Nachrichtenquellen/]]
*[[/Klassifizierung von Signalen/]]
+
*[[/Nachrichtenquellen mit Gedächtnis/]]
*[[/Zum Rechnen mit komplexen Zahlen/]]
+
*[[/Natürliche wertdiskrete Nachrichtenquellen/]]
 
}}
 
}}
{{Collapse2 | header=Periodische Signale
+
{{Collapse2 | header=Quellencodierung - Datenkomprimierung
 
|submenu=
 
|submenu=
 
*[[/Allgemeine Beschreibung/]]
 
*[[/Allgemeine Beschreibung/]]
*[[/Gleichsignal - Grenzfall eines periodischen Signals/]]
+
*[[/Komprimierung nach Lempel, Ziv und Welch/]]
*[[/Harmonische Schwingung/]]
+
*[[/Entropiecodierung nach Huffman/]]
*[[/Fourierreihe/]]
+
*[[/Weitere Quellencodierverfahren/]]
 
}}
 
}}
{{Collapse3 | header=Aperiodische Signale - Impulse
+
{{Collapse3 | header=Information zwischen zwei wertdiskreten Zufallsgrößen
 
|submenu=
 
|submenu=
*[[/Fouriertransformation und -rücktransformation/]]
+
*[[/Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen/]]
*[[/Einige Sonderfälle impulsartiger Signale/]]
+
*[[/Verschiedene Entropien zweidimensionaler Zufallsgrößen/]]
*[[/Gesetzmäßigkeiten der Fouriertransformation/]]
+
*[[/Anwendung auf die Digitalsignalübertragung/]]
*[[/Faltungssatz und Faltungsoperation/]]
 
 
}}
 
}}
{{Collapse4 | header=Bandpassartige Signale
+
{{Collapse4 | header=Wertkontinuierliche Informationstheorie
 
|submenu=
 
|submenu=
*[[/Unterschiede und Gemeinsamkeiten von TP- und BP-Signalen/]]
+
*[[/Differentielle Entropie/]]
*[[/Analytisches Signal und zugehörige Spektralfunktion/]]
+
*[[/AWGN–Kanalkapazität bei wertkontinuierlichem Eingang/]]
*[[/Äquivalentes Tiefpass-Signal und zugehörige Spektralfunktion/]]
+
*[[/AWGN–Kanalkapazität bei wertdiskretem Eingang/]]
}}
 
{{Collapse5 | header=Zeit- und frequenzdisktrete Signaldarstellung
 
|submenu=
 
*[[/Zeitdiskrete Signaldarstellung/]]
 
*[[/Diskrete Fouriertransformation (DFT)/]]
 
*[[/Fehlermöglichkeiten bei Anwendung der DFT/]]
 
*[[/Spektralanalyse/]]
 
*[[/Fast-Fouriertransformation (FFT)/]]
 
 
}}
 
}}
 
{{Collapsible-Fuß}}
 
{{Collapsible-Fuß}}
 +
 +
===Aufgaben und Multimedia===
 +
 +
 +
{{BlaueBox|TEXT=
 +
 +
Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module zu diesem Thema an,  die zur Verdeutlichung des Lehrstoffes beitragen könnten:
 +
 +
$(1)$    [https://www.lntwww.de/Kategorie:Aufgaben_zu_Informationstheorie $\text{Aufgaben}$]
 +
 +
$(2)$    [[LNTwww:Lernvideos_zu_Informationstheorie|$\text{Lernvideos}$]]
 +
 +
$(3)$    [[LNTwww:Applets_zur_Informationstheorie|$\text{Applets}$]] }}
 +
<br>
 +
===Weitere Links:===
 +
 +
 +
{{BlaueBox|TEXT=
 +
$(4)$&nbsp; &nbsp; [[LNTwww:Literaturempfehlung_zu_Stochastische_Signaltheorie|$\text{Literaturempfehlungen}$]]
 +
 +
$(5)$&nbsp; &nbsp; [[LNTwww:Impressum_zum_Buch_"Informationstheorie"|$\text{Impressum}$]] }}
 +
<br><br>
  
  
 
__NOTOC__
 
__NOTOC__
 
__NOEDITSECTION__
 
__NOEDITSECTION__

Aktuelle Version vom 26. März 2023, 15:41 Uhr

Kurzer Überblick

Seit den ersten Anfängen der Nachrichtenübertragung als ingenieurwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker,  ein quantitatives Maß zu finden für die

  • in einer  »Nachricht«  $($hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“$)$
  • enthaltene  »Information«  $($ganz allgemein: „die Kenntnis über irgend etwas“$)$.


Die  $($abstrakte$)$  Information wird durch die  $($konkrete$)$  Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden.

Claude Elwood Shannon  gelang es 1948,  eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen,  die zu ihrer Zeit revolutionär war und ein neues,  bis heute hochaktuelles Wissenschaftsgebiet kreierte:  die nach ihm benannte  »Shannonsche Informationstheorie«

Damit beschäftigt sich das vierte Buch dieser  LNTwww–Reihe,  insbesondere:

  1. Entropie wertdiskreter gedächtnisloser,  gedächtnisbehafteter sowie natürlicher Nachrichtenquellen:  Definition,  Bedeutung und Berechnungsmöglichkeiten.
  2. Quellencodierung und Datenkomprimierung,  insbesondere das Verfahren nach Lempel,  Ziv und Welch sowie die Entropiecodierung nach Huffman.
  3. Verschiedene Entropien zweidimensionaler wertdiskreter Zufallsgößen.  Transinformation und Kanalkapazität.  Anwendung auf die Digitalsignalübertragung.
  4. Wertdiskrete Informationstheorie.  Differentielle Entropie.  AWGN–Kanalkapazität bei wertkontinuierlichem sowie wertdiskretem Eingang.


⇒   Hier zunächst eine  »Inhaltsübersicht«  anhand der  »vier Hauptkapitel«  mit insgesamt  »dreizehn Einzelkapiteln«  und  »106 Abschnitten«.


Inhalt

Aufgaben und Multimedia

Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module zu diesem Thema an,  die zur Verdeutlichung des Lehrstoffes beitragen könnten:

$(1)$    $\text{Aufgaben}$

$(2)$    $\text{Lernvideos}$

$(3)$    $\text{Applets}$ 


Weitere Links: