Lineare zeitinvariante Systeme/Systembeschreibung im Frequenzbereich: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
Zeile 16: Zeile 16:
  
 
*Fliege, N.: Systemtheorie. Stuttgart: B.G. Teubner, 1991
 
*Fliege, N.: Systemtheorie. Stuttgart: B.G. Teubner, 1991
Girod, B.; Rabenstein, R., Stenger, A.: Einführung in die Systemtheorie. 2. Auflage. Stuttgart: B. G. Teubner, 2003
+
*Girod, B.; Rabenstein, R., Stenger, A.: Einführung in die Systemtheorie. 2. Auflage. Stuttgart: B. G. Teubner, 2003
 +
*Hanik, N.: Nachrichtentechnik 1 (LB): Signaldarstellung. Vorlesungsmanuskript. Lehrstuhl für Nachrichtentechnik, TU München, 2016
 +
*Kreß, D.; Kaufhold, B.: Signale und Systeme verstehen und vertiefen. Wiesbaden: Vieweg+Teubner, 2010
 +
*Marko, H.: Methoden der Systemtheorie. 3. Auflage. Berlin – Heidelberg: Springer, 1994
  
  

Version vom 17. Oktober 2016, 12:20 Uhr

  • [[Lineare zeitinvariante Systeme/{{{Vorherige Seite}}} | Vorherige Seite]]
  • Nächste Seite
  • [[Lineare zeitinvariante Systeme/{{{Vorherige Seite}}} | Vorherige Seite]]
  • Nächste Seite


Im Buch „Signaldarstellung” wurden Sie mit der mathematischen Beschreibung deterministischer Signale im Zeit- und Frequenzbereich vertraut gemacht. Das zweite Buch „Lineare zeitvariante Syteme” beschreibt nun, welche Veränderungen ein Signal bzw. dessen Spektrum durch ein Nachrichtensystem erfährt und wie diese Veränderungen mathematisch erfasst werden können.

  • Das „System” kann sowohl eine einfache Schaltung als auch ein vollständiges, hochkompliziertes Übertragungssystem mit einer Vielzahl von Komponenten sein. Es wird hier lediglich vorausgesetzt, dass das System die beiden Eigenschaften linear und zeitinvariant aufweist.


Zunächst werden die Grundlagen der so genannten Systemtheorie genannt, die eine einheitliche und einfache Beschreibung solcher Systeme erlaubt.

Empfohlene Literatur:

  • Fliege, N.: Systemtheorie. Stuttgart: B.G. Teubner, 1991
  • Girod, B.; Rabenstein, R., Stenger, A.: Einführung in die Systemtheorie. 2. Auflage. Stuttgart: B. G. Teubner, 2003
  • Hanik, N.: Nachrichtentechnik 1 (LB): Signaldarstellung. Vorlesungsmanuskript. Lehrstuhl für Nachrichtentechnik, TU München, 2016
  • Kreß, D.; Kaufhold, B.: Signale und Systeme verstehen und vertiefen. Wiesbaden: Vieweg+Teubner, 2010
  • Marko, H.: Methoden der Systemtheorie. 3. Auflage. Berlin – Heidelberg: Springer, 1994


Wir beginnen mit der Systembeschreibung im Frequenzbereich mit folgenden Unterpunkten:


Das Ursachen-Wirkungs-Prinzip

Wir betrachten in diesem Kapitel stets das folgende einfache Modell:

Einfachstes Systemmodell


Diese Anordnung ist wie folgt zu interpretieren:

  • Im Mittelpunkt steht das so genannte System, das in seiner Funktion weitestgehend abstrahiert ist („Black Box”). Über die Realisierung des Systems ist nichts Genaues bekannt.
  • Die auf dieses System einwirkende zeitabhängige Eingangsgröße $x(t)$ bezeichnen wir im Folgenden auch als die Ursachenfunktion.
  • Am Ausgang des Systems erscheint dann die Wirkungsfunktion $y(t)$ – quasi als Antwort des Systems auf die Eingangsfunktion $x(t)$.


Anmerkung: Das System kann im Allgemeinen von beliebiger Art sein und ist nicht allein auf die Nachrichtentechnik beschränkt. Vielmehr wird auch in anderen Wissenschaftsgebieten wie zum Beispiel den Naturwissenschaften, der Volks- und Betriebswirtschaft, der Soziologie und Politologie versucht, Kausalzusammenhänge zwischen verschiedenen Größen durch das Ursachen–Wirkungs–Prinzip zu erfassen und zu beschreiben. Die für diese phänomenologischen Systemtheorien angewandten Methoden unterscheiden sich aber deutlich von der Vorgehensweise in der Nachrichtentechnik, die in diesem ersten Kapitel des vorliegenden Buches „Lineare zeitinvariante Systeme” dargelegt wird.

Anwendung in der Nachrichtentechnik

Das Ursachen–Wirkungs–Prinzip lässt sich auch in der Nachrichtentechnik anwenden, beispielsweise zur Beschreibung von Zweipolen. Hier kann man den Stromverlauf $i(t)$ als Ursachen- und die Spannung $u(t)$ als Wirkungsfunktion betrachten. Durch Beobachten der I/U–Beziehungen lassen sich so Rückschlüsse über die Eigenschaften des eigentlich unbekannten Zweipols ziehen.

Karl Küpfmüller hat den Begriff „Systemtheorie” 1949 erstmals (in Deutschland) eingeführt. Er versteht darunter eine Methode zur Beschreibung komplexer Kausalzusammenhänge in Naturwissenschaften und Technik, basierend auf einer Spektraltransformation – beispielsweise der im Buch Signaldarstellung dargelegten Fouriertransformation.

Man kann ein ganzes Nachrichtensystem systemtheoretisch beschreiben. Hier ist die Ursachenfunktion das Eingangssignal $x(t)$ bzw. dessen Spektrum $X(f)$ und die Wirkungsfunktion das Ausgangssignal $y(t)$ oder die dazugehörige Spektralfunktion $Y(f)$.

Allgemeines Modell der Nachrichtenübertragung

Auch in den nachfolgenden Bildern werden die Eingangsgrößen meist blau, die Ausgangsgrößen rot und Systemgrößen grün gezeichnet.

Beschreibt das „Nachrichtensystem” eine vorgegebene lineare Schaltung, so kann bei bekanntem Eingangssignal $x(t)$ mit Hilfe der Systemtheorie das Ausgangssignal $y(t)$ vorhergesagt werden. Eine zweite Aufgabe der Systemtheorie besteht darin, durch Messung von $y(t)$ bei Kenntnis von $x(t)$ das Nachrichtensystem zu klassifizieren, ohne dieses im Detail zu kennen.

Beschreibt $x(t)$ beispielsweise die Stimme eines Anrufers aus Hamburg und $y(t)$ die Aufzeichnung eines Anrufbeantworters in München, dann besteht das „Nachrichtensystem” aus folgenden Komponenten:

Mikrofon – Telefon – elektrische Leitung – Signalumsetzer – Glasfaserkabel – optischer Verstärker – Signalrücksetzer – Empfangsfilter (Entzerrer, Rauschbegrenzung) – ... – elektromagnetischer Wandler.

Voraussetzungen für die Anwendung der Systemtheorie

Das auf der letzten Seite angegebene Modell eines Nachrichtensystems gilt allgemein und unabhängig von Randbedingungen. Die Anwendung der Systemtheorie erfordert jedoch zusätzlich einige einschränkende Voraussetzungen. Für das Folgende gilt stets, wenn nicht explizit etwas anderes angegeben ist:

  • Sowohl $x(t)$ als auch $y(t)$ sind deterministische Signale. Andernfalls muss man entsprechend dem Kapitel Stochastische Systemtheorie im Buch Stochastische Signaltheorie vorgehen.
  • Das System ist linear. Dies erkennt man z. B. daran, dass eine harmonische Schwingung $x(t)$ am Eingang auch eine harmonische Schwingung $y(t)$ gleicher Frequenz am Ausgang zur Folge hat:

$$x(t) = A_x \cdot \cos(\omega_0 \hspace{0.05cm}t - \varphi_x)\hspace{0.2cm}\Rightarrow \hspace{0.2cm} y(t) = A_y \cdot\cos(\omega_0 \hspace{0.05cm}t - \varphi_y).$$

  • Neue Frequenzen entstehen nicht. Lediglich Amplitude und Phase der harmonischen Schwingung können verändert werden. Nichtlineare Systeme werden im Kapitel 2.2 dieses Buches behandelt.
  • Aufgrund der Linearität ist auch das Superpositionsprinzip anwendbar. Dieses besagt, dass aus $x_1(t) ⇒ y_1(t)$ und $x_2(t) ⇒ y_2(t)$ auch zwingend die folgende Zuordnung gilt:

$$x_1(t) + x_2(t) \hspace{0.1cm}\Rightarrow \hspace{0.1cm} y_1(t) + y_2(t).$$

  • Das System ist zeitinvariant. Das bedeutet, dass ein um $\tau$ verschobenes Eingangssignal genau das gleiche Ausgangssignal zur Folge hat – aber ebenfalls um $\tau$ verzögert:

$$x(t - \tau) \hspace{0.1cm}\Rightarrow \hspace{0.1cm} y(t -\tau)\hspace{0.4cm}{\rm falls} \hspace{0.4cm}x(t )\hspace{0.2cm}\Rightarrow \hspace{0.1cm} y(t).$$

Zeitvariante Systeme werden im Buch Mobile Kommunikation behandelt.

Sind alle hier aufgeführten Voraussetzungen erfüllt, so spricht man von einem linearen zeitinvarianten System, abgekürzt LZI–System. In der englischsprachigen Literatur ist hierfür die Abkürzung LTI (Linear Time–Invariant) gebräuchlich.

Übertragungsfunktion - Frequenzgang

Wir setzen ein LZI–System voraus, dessen Eingangs– und Ausgangsspektrum $X(f)$ bzw. $Y(f)$ bekannt sind oder aus den Zeitsignalen $x(t)$ und $y(t)$ durch Fourierrücktransformation berechnet werden können.

Zur Definition des Frequenzgangs

Das Übertragungsverhalten eines Nachrichtensystems wird im Frequenzbereich durch die Übertragungsfunktion beschrieben: $$H(f) = \frac{Y(f)}{X(f)}= \frac{Wirkungsfunktion}{Ursachenfunktion}.$$ Weitere Bezeichnungen für $H(f)$ sind Systemfunktion und Frequenzgang. Im Folgenden werden wir vorwiegend den letzten Begriff verwenden.


Am Eingang eines LZI–Systems liegt das Signal $x(t)$ mit dem rein reellen Spektrum $X(f)$ an (blaue Kurve). Das gemessene Ausgangsspektrum $Y(f)$ – in der unteren Grafik rot markiert – ist bei Frequenzen kleiner als 2 kHz größer als $X(f)$ und besitzt im Bereich um 2 kHz eine steilere Flanke. Oberhalb von 2.8 kHz hat das Signal $y(t)$ keine Spektralanteile.

Eingangsspektrum, Ausgangsspektrum und Frequenzgang

Die grünen Kreise markieren einige Messpunkte des ebenfalls reellen Frequenzgangs $H(f)$ = $Y(f)/X(f)$. Bei niedrigen Frequenzen ist $H(f)$ > 1, das heißt, in diesem Bereich wirkt das LZI–System verstärkend. Der Flankenabfall von $H(f)$ verläuft ähnlich wie der von $Y(f)$, ist aber nicht identisch mit diesem.

Eigenschaften des Frequenzgangs

Der Frequenzgang $H(f)$ ist eine zentrale Größe bei der Beschreibung nachrichtentechnischer Systeme. Nachfolgend werden wichtige Eigenschaften von $H(f)$ aufgezählt.

  • Der Frequenzgang beschreibt allein das System. Er ist zum Beispiel aus den linearen Bauelementen eines elektrischen Netzwerks berechenbar. Bei anderem Eingangssignal $x(t)$, das natürlich auch ein anderes Ausgangssignal $y(t)$ zur Folge hat, ergibt sich der genau gleiche Frequenzgang $H(f)$.
  • $H(f)$ kann allgemein eine Einheit besitzen. Betrachtet man beispielsweise bei einem Zweipol den Spannungsverlauf $u(t)$ als Ursache und den Strom $i(t)$ als Wirkung, so hat der Frequenzgang $H(f)$ = $I(f)/U(f)$ die Einheit A/V. $I(f)$ und $U(f)$ sind die Fouriertransformierten von $i(t)$ bzw. $u(t)$.
  • Im Folgenden betrachten wir ausschließlich Vierpole. Zudem setzen wir ohne Einschränkung der Allgemeingültigkeit meist voraus, dass $x(t)$ und $y(t)$ jeweils Spannungen seien. In diesem Fall ist somit $H(f)$ stets dimensionslos.
  • Da die Spektren $X(f)$ und $Y(f)$ im Allgemeinen komplex sind, ist auch der Frequenzgang $H(f)$ eine komplexe Funktion. Man bezeichnet den Betrag $\\ |H(f)|$ als Amplitudengang. Dieser wird auch oft in logarithmierter Form dargestellt und als Dämpfungsverlauf bezeichnet:

$$a(f) = - \ln |H(f)| = - 20 \cdot \lg |H(f)|.$$

Je nachdem, ob die erste Form mit dem natürlichen oder die zweite mit dekadischem Logarithmus verwendet wird, ist die Pseudoeinheit Neper (Np) bzw. Dezibel (dB) hinzuzufügen.
  • Der Phasengang ist aus $H(f)$ in folgender Weise berechenbar:

$$b(f) = - {\rm arc} \hspace{0.1cm}H(f) \hspace{0.2cm}{\rm in\hspace{0.1cm}Radian \hspace{0.1cm}(rad)}.$$

  • Damit kann der gesamte Frequenzgang auch wie folgt dargestellt werden:

$$H(f) = |H(f)| \cdot {\rm e}^{-{\rm j} \hspace{0.05cm} \cdot\hspace{0.05cm} b(f)} = {\rm e}^{-a(f)}\cdot {\rm e}^{-{\rm j}\hspace{0.05cm} \cdot \hspace{0.05cm} b(f)}.$$

Tiefpass, Hochpass, Bandpass und Bandsperre

Nach dem Amplitudengang $|H(f)|$ unterscheidet man zwischen

  • Tiefpass: Signalanteile werden mit zunehmender Frequenz immer stärker gedämpft.
  • Hochpass: Hier werden hochfrequente Signalanteile weniger gedämpft als niederfrequente. Ein Gleichsignal $(f = 0)$ kann über einen Hochpass nicht übertragen werden.
  • Bandpass: Es gibt eine bevorzugte Frequenz, die man als Mittenfrequenz $f_{\rm M}$ bezeichnet. Je weiter die Frequenz eines Signalanteils von $f_{\rm M}$ entfernt ist, um so stärker wird dieser gedämpft.
  • Bandsperre: Dies ist das Gegenstück zum Bandpass und es gilt $|H(f_{\rm M})| ≈ 0$. Sehr niederfrequente und sehr hochfrequente Signalanteile werden dagegen gut durchgelassen.

Tiefpass, Hochpass (links) und Bandpass (rechts)

Die Grafik zeigt die Amplitudengänge der Filtertypen TP, HP und BP. Ebenfalls eingezeichnet sind die Grenzfrequenzen $f_{\rm G}$ (bei Tiefpass und Hochpass) bzw. $f_{\rm U}$ und $f_{\rm O}$ (beim Bandpass). Diese sind hier stets 3dB–Grenzfrequenzen, beispielsweise entsprechend nachfolgender Definition:

Die 3dB–Grenzfrequenz eines Tiefpasses gibt diejenige Frequenz $f_{\rm G}$ an, für die gilt: $$|H(f = f_{\rm G})| = \frac{1}{\sqrt{2}} \cdot|H(f = 0)| \hspace{0.5cm}\Rightarrow\hspace{0.5cm} |H(f = f_{\rm G})|^2 = \frac{1}{2} \cdot|H(f = 0)|^2.$$

Anzumerken ist, dass es auch andere Definitionen für Grenzfrequenzen gibt (vgl. Kapitel 1.3 ).

Testsignale zur Messung von H(f)

Zur messtechnischen Erfassung des Frequenzgangs $H(f)$ eignet sich jedes beliebige Eingangssignal $x(t)$ mit Spektrum $X(f)$, solange $X(f)$ keine Nullstellen aufweist. Durch Messung des Ausgangsspektrums $Y(f)$ lässt sich so der Frequenzgang ermitteln: $$H(f) = \frac{Y(f)}{X(f)}.$$ Insbesondere eignen sich folgende Eingangssignale:

  • Diracimpuls $x(t) = K · δ(t)$ ⇒ Spektrum $X(f) = K$:
Somit ist der Frequenzgang nach Betrag und Phase formgleich mit dem Ausgangsspektrum $Y(f)$ und es gilt $H(f) = 1/K · Y(f)$. Approximiert man den Diracimpuls durch ein schmales Rechteck gleicher Fläche $K$, so muss $H(f)$ mit Hilfe einer $sin(x)/x$–Funktion korrigiert werden.
  • Diracpuls – die unendliche Summe gleichgewichteter Diracimpulse im zeitlichen Abstand $T_{\rm A}$:
Dieser führt nach den Aussagen von Kapitel 5.1 im Buch Signaldarstellung zu einem Diracpuls im Frequenzbereich mit Frequenzabstand $1/T_{\rm A}$. Damit ist auch eine frequenzdiskrete Messung von $H(f)$ möglich. Die spektralen Abtastwerte ergeben sich ebenfalls im Abstand $f_{\rm A} = 1/T_{\rm A}$.
  • Harmonische Schwingung $x(t) = A_x · \cos (2πf_0t – φ_x)$ ⇒ diracförmiges Spektrum:
Das Ausgangssignal $y(t) = A_y · \cos(2πf_0t – φ_y)$ ist dann ebenfalls eine harmonische Schwingung mit gleicher Frequenz, und es lautet der Frequenzgang bei positiver Frequenz $f_0$:

$$H(f_0) = \frac{Y(f_0)}{X(f_0)} = \frac{A_y}{A_x}\cdot{\rm e}^{{\rm j} \hspace{0.05cm} \cdot \hspace{0.05cm} (\varphi_x - \varphi_y)}.$$

Um den gesamten frequenzkontinuierlichen Frequenzgang $H(f)$ zu ermitteln, sind (unendlich) viele Messungen mit unterschiedlichen Frequenzen $f_0$ erforderlich.


Aufgaben

1.1 Einfache Filterfunktionen

Zusatzaufgaben:1.1 Tiefpass 1. und 2. Ordnung

1.2 Koaxialkabel

Zusatzaufgaben:1.2 Messung von H(f)