Aufgaben zu Informationstheorie und Quellencodierung
Aus LNTwww
Version vom 24. November 2016, 16:20 Uhr von Markus (Diskussion | Beiträge) (Markus verschob die Seite Aufgaben zu Informationstheorie und Quellencodierung nach Aufgaben zu Informationstheorie und überschrieb dabei eine Weiterleitung, ohne selbst eine Weiterleitung anzulegen)
Seiten in der Kategorie „Aufgaben zu Informationstheorie und Quellencodierung“
Folgende 71 Seiten sind in dieser Kategorie, von 71 insgesamt.
1.1 Gedächtnislose Nachrichtenquellen
1.2 Nachrichtenquellen mit Gedächtnis
1.3 Natürliche Nachrichtenquellen
2.1 Allgemeine Beschreibung
2.2 Verfahren von Lempel, Ziv, Welch
2.3 Entropiecodierung nach Huffman
2.4 Weitere Quellencodierverfahren
3.1 Allgemeines zu 2D-Zufallsgrößen
- Aufgabe 3.1: Wahrscheinlichkeiten beim Würfeln
- Aufgabe 3.1Z: Karten ziehen
- Aufgabe 3.2: Erwartungswertberechnungen
- Aufgabe 3.2Z: 2D–Wahrscheinlichkeitsfunktion
- Aufgabe 3.3: Entropie von Ternärgrößen
- Aufgabe 3.4: Entropie für verschiedene Wahrscheinlichkeiten
- Aufgabe 3.5: Kullback-Leibler-Distanz & Binominalverteilung
- Aufgabe 3.5Z: Nochmals Kullback-Leibler-Distanz
- Aufgabe 3.6: Partitionierungsungleichung
3.2 Entropien von 2D-Zufallsgrößen
3.3 Anwendung auf DSÜ-Kanäle
- Aufgabe 3.10: Transinformation beim BSC
- Aufgabe 3.10Z: BSC–Kanalkapazität
- Aufgabe 3.11: Auslöschungskanal
- Aufgabe 3.11Z: Extrem unsymmetrischer Kanal
- Aufgabe 3.12: Streng symmetrische Kanäle
- Aufgabe 3.13: Coderate und Zuverlässigkeit
- Aufgabe 3.14: Kanalcodierungstheorem
- Aufgabe 3.15: Data Processing Theorem
4.1 Differentielle Entropie
- Aufgabe 4.1: WDF, VTF und Wahrscheinlichkeit
- Aufgabe 4.1Z: Momentenberechnung
- Aufgabe 4.2: Dreieckförmige WDF
- Aufgabe 4.2Z: Gemischte Zufallsgrößen
- Aufgabe 4.3: WDF–Vergleich bezüglich differentieller Entropie
- Aufgabe 4.3Z: Exponential– und Laplaceverteilung
- Aufgabe 4.4: Herkömmliche Entropie und differenzielle Entropie