Aufgaben zu Informationstheorie
Aus LNTwww
Version vom 5. Dezember 2016, 14:25 Uhr von Markus (Diskussion | Beiträge)
Seiten in der Kategorie „Aufgaben zu Informationstheorie“
Folgende 71 Seiten sind in dieser Kategorie, von 71 insgesamt.
1.1 Gedächtnislose Nachrichtenquellen
1.2 Nachrichtenquellen mit Gedächtnis
1.3 Natürliche Nachrichtenquellen
2.1 Allgemeine Beschreibung
2.2 Verfahren von Lempel, Ziv, Welch
2.3 Entropiecodierung nach Huffman
2.4 Weitere Quellencodierverfahren
3.1 Allgemeines zu 2D-Zufallsgrößen
- Aufgabe 3.1: Wahrscheinlichkeiten beim Würfeln
- Aufgabe 3.1Z: Karten ziehen
- Aufgabe 3.2: Erwartungswertberechnungen
- Aufgabe 3.2Z: 2D–Wahrscheinlichkeitsfunktion
- Aufgabe 3.3: Entropie von Ternärgrößen
- Aufgabe 3.4: Entropie für verschiedene Wahrscheinlichkeiten
- Aufgabe 3.5: Kullback-Leibler-Distanz & Binominalverteilung
- Aufgabe 3.5Z: Nochmals Kullback-Leibler-Distanz
- Aufgabe 3.6: Partitionierungsungleichung
3.2 Entropien von 2D-Zufallsgrößen
3.3 Anwendung auf DSÜ-Kanäle
- Aufgabe 3.10: Transinformation beim BSC
- Aufgabe 3.10Z: BSC–Kanalkapazität
- Aufgabe 3.11: Auslöschungskanal
- Aufgabe 3.11Z: Extrem unsymmetrischer Kanal
- Aufgabe 3.12: Streng symmetrische Kanäle
- Aufgabe 3.13: Coderate und Zuverlässigkeit
- Aufgabe 3.14: Kanalcodierungstheorem
- Aufgabe 3.15: Data Processing Theorem
4.1 Differentielle Entropie
- Aufgabe 4.1: WDF, VTF und Wahrscheinlichkeit
- Aufgabe 4.1Z: Momentenberechnung
- Aufgabe 4.2: Dreieckförmige WDF
- Aufgabe 4.2Z: Gemischte Zufallsgrößen
- Aufgabe 4.3: WDF–Vergleich bezüglich differentieller Entropie
- Aufgabe 4.3Z: Exponential– und Laplaceverteilung
- Aufgabe 4.4: Herkömmliche Entropie und differenzielle Entropie