Beispiele von Nachrichtensystemen/Nachrichtentechnische Aspekte von UMTS: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
Zeile 308: Zeile 308:
 
   
 
   
 
==Aufgaben zu Kapitel 4.3 ==  
 
==Aufgaben zu Kapitel 4.3 ==  
 +
 +
[[Aufgaben:4.5_PN-Modulation|Aufgabe 4.5: PN-Modulation]]
 +
 +
[[Aufgaben:4.5Z_Zur_Bandspreizung_bei_UMTS|Zusatzaufgabe 4.5Z: Zur Bandspreizung bei UMTS]]
 +
 +
[[Aufgaben:4.6_OVSF-Codes|Aufgabe 4.6: OVSF-Codes]]
 +
 +
[[Aufgaben:4.7_RAKE-Empfänger|Aufgabe 4.7: RAKE-Empfänger]]
  
 
==Quellenverzeichnis==
 
==Quellenverzeichnis==

Version vom 3. Januar 2018, 18:04 Uhr

Sprachcodierung

Im Kapitel GSM dieses Buches wurden bereits mehrere Sprachcodecs ausführlich beschrieben. Ein Sprachcodec dient zur Reduzierung der Datenrate eines digitalisierten Sprach– oder Musiksignals. Dabei wird Redundanz und Irrelevanz aus dem Originalsignal entfernt. Das Kunstwort Codec weist darauf hin, dass die gleiche Funktionseinheit sowohl zur Codierung wie auch zur Decodierung verwendet wird.

Unter anderem wurde der Adaptive Multi-Rate Codec (AMR) vorgestellt, der im Frequenzbereich von 300 bis 3400 Hz ein dynamisches Umschalten zwischen acht verschiedenen Modi (Einzelcodecs) unterschiedlicher Datenrate im Bereich von 4.75 bis 12.2 kbit/s erlaubt und auf ACELP basiert.

Auch in UMTS Release 99 und UMTS Release 4 werden diese AMR–Codecs unterstützt. Sie erlauben im Vergleich zu den früheren Sprachcodecs (Full–Rate, Half–Rate und Enhanced Full–Rate Vocoder)

  • eine Unabhängigkeit von den Kanalbedingungen und der Netzauslastung,
  • die Möglichkeit, die Datenraten an die Bedingungen anzupassen,
  • einen verbesserten flexiblen Fehlerschutz bei stärkerer Funkstörung, und
  • dadurch insgesamt eine bessere Sprachqualität.

Im Jahre 2001 wurde vom 3gpp–Forum (3rd Generation Partnership Project) und der International Telecommuncation Union (ITU) für das UMTS Release 5 der neue Sprachcodec Wideband–AMR spezifiziert. Dieser ist eine Weiterentwicklung des AMR und bietet

  • eine erweiterte Bandbreite von 50 bis 7000 Hz (Abtastfrequenz 16 kHz),
  • insgesamt 9 Modi zwischen 6.6 und 23.85 kbit/s (wovon aber nur 5 genutzt werden), und
  • eine verbesserte Sprachqualität und einen besseren, natürlicheren Klang.

Die Tabelle gibt eine Übersicht über die verschiedenen Modi und deren Bitumfang.

Sie können sich die Qualität dieser Sprachcodierverfahren bei Sprache und Musik mit dem folgenden Interaktionsmodul verdeutlichen: Qualität verschiedener Sprach–Codecs (Dateigröße: 11.3 MB !)

Anmerkung: Die untere Grenzfrequenz von Wideband-AMR ist zwar mit 50 Hz spezifiziert, aber auf Grund verwendeter Vorfilter ist diese meist – und auch in der Audio–Demo – auf 200 Hz angehoben, um die Störanfälligkeit zu reduzieren und die Kenndaten von Handy–Lautsprechern und –Mikrofonen zu berücksichtigen.


Im Folgenden sind einige wesentliche Merkmale von Wideband–AMR aufgelistet:

  • Die Sprachdaten werden an den Codec als PCM–codierte Sprache mit 16000 Abtastwerten pro Sekunde geliefert. Die Sprachcodierung erfolgt in Blöcken von 20 ms und die Datenrate wird alle 20 ms angepasst.
  • Das Frequenzband (50 Hz bis 7000 Hz) wird in zwei Teilbänder unterteilt, die unterschiedlich codiert werden, um mehr Bits den subjektiv wichtigen Frequenzen zuweisen zu können. Das obere Band (6400 Hz bis 7000 Hz) wird nur im höchsten Modus (23.85 kbit/s) übertragen. In allen anderen Modi werden bei der Codierung nur die Frequenzen 50 Hz bis 6400 Hz berücksichtigt.
  • Wideband–AMR unterstützt Discontinuous Transmission (DTX). Dieses Feature bedeutet, dass die Übertragung bei Sprachpausen angehalten wird, wodurch sowohl der Energieverbrauch der Mobilstation als auch die Gesamtinterferenz an der Luftschnittstelle gesenkt werden. Dieses Verfahren ist auch unter dem Namen Source–Controlled Rate (SCR) bekannt.
  • Die Voice Activity Detection (VAD) ermittelt, ob gerade gesprochen wird oder nicht und fügt auch bei kürzeren Sprachpausen einen SID–Rahmen (Silence Descriptor) ein. Dem Teilnehmer wird das Gefühl einer kontinuierlichen Verbindung suggeriert, indem der Decoder während Sprachpausen synthetisch erzeugtes Hintergrundgeräusch (englisch: Comfort Noise) einfügt.


Anwendung des CDMA–Verfahrens in UMTS

UMTS verwendet das Vielfachzugriffsverfahren Direct Sequence Code Division Multiple Access (DS–CDMA), das bereits im Kapitel 5.1 des Buches „Modulationsverfahren” besprochen wurde.

Hier folgt eine kurze Zusammenfassung entsprechend der Grafik, die ein solches System im äquivalenten Tiefpassbereich und stark vereinfacht beschreibt:

  • Die beiden Datensignale $q_1(t)$ und $q_2(t)$ sollen den gleichen Kanal nutzen, ohne sich gegenseitig zu stören. Die Bitdauer beträgt jeweils TB.
  • Jedes der Datensignale wird mit einem zugeordneten Spreizcode – $c_1(t)$ bzw. $c_2(t)$ – multipliziert und es wird das Summensignal $s(t) = q_1(t) · c_1(t) + q_2(t) · c_2(t)$ gebildet und übertragen.
  • Beim Empfänger werden die gleichen Spreizcodes $c_1(t)$ bzw. $c_2(t)$ zugesetzt und damit die Signale wieder voneinander getrennt.
  • Unter der Voraussetzung, dass die Spreizcodes orthogonal sind und dass das AWGN–Rauschen klein ist, gilt dann $v_1(t) = q_1(t) und v_2(t) = q_2(t)$.
  • Bei einem AWGN–Rauschsignal $n(t)$ wird die Bitfehlerwahrscheinlichkeit durch den oder die anderen Teilnehmer nicht verändert, solange die Spreizfolgen orthogonal sind.


Die Grafik zeigt drei Datenbit (+1, –1, +1) des rechteckförmigen Quellensignals $q_1(t)$ von Teilnehmer 1, jeweils mit der Symboldauer $T_{\rm B}$. Die Symboldauer $T_{\rm C}$ des Spreizcodes $c_1(t)$ – die man auch Chipdauer nennt – ist um den Faktor 4 kleiner. Durch die Multiplikation $s_1(t) = q_1(t) · c_1(t)$ entsteht ein Chipstrom der Länge 12 · $T_{\rm C}$.

Man erkennt weiter aus dieser Darstellung, dass $s_1(t)$ höherfrequenter ist als $q_1(t)$. Deshalb spricht man auch von Bandspreizung (englisch: Spread Spectrum). Der CDMA–Empfänger macht diese wieder rückgängig, was als Bandstauchung bezeichnet wird.


Zusammenfassend kann man sagen: Durch die Anwendung von DS–CDMA auf eine Nutzbitfolge

  • vergrößert sich dessen Bandbreite um den Spreizfaktor $J = T_{\rm B}/T_{\rm C}$. Dieser ist gleich der Anzahl der Chips pro Bit;
  • ist die Chiprate $R_{\rm C}$ um den Faktor $J$ größer als die Bitrate $R_{\rm B}$;
  • ist die Bandbreite des CDMA–Signals um $J$ größer als die Bandbreite jedes einzelnen Nutzers.

Das heißt: Bei UMTS steht jedem Teilnehmer die gesamte Bandbreite über die gesamte Sendedauer zur Verfügung. Erinnern wir uns: Bei GSM werden als Vielfachzugriffsverfahren sowohl Frequency Division Multiple Access als auch Time Division Multiple Access verwendet.

  • Hier verfügt jeder Teilnehmer nur über ein begrenztes Frequenzband (FDMA), und
  • er hat nur innerhalb von Zeitschlitzen Zugriff auf den Kanal (TDMA).


Spreizcodes und Verwürfelung in UMTS

Die Spreizcodes für UMTS sollen

  • zueinander orthogonal sein, um eine gegenseitige Beeinflussung der Teilnehmer zu vermeiden,
  • eine flexible Realisierung unterschiedlicher Spreizfaktoren $J$ ermöglichen.

Ein Beispiel dafür sind die Codes mit variablem Spreizfaktor (englisch: Orthogonal Variable Spreading Faktor, OVSF), die Codes der Längen von $J$ = 4 bis $J$ = 512 bereitstellen. Diese können, wie in der Grafik zu sehen ist, mit Hilfe eines Codebaums erstellt werden. Dabei entstehen bei jeder Verzweigung aus einem Code $C$ zwei neue Codes (+ $C$ + $C$) und (+ $C$ – $C$).

Anzumerken ist, dass kein Vorgänger und Nachfolger eines Codes benutzt werden darf. Im Beispiel könnten also acht Spreizcodes mit Spreizfaktor $J$ = 8 verwendet werden oder die vier gelb hinterlegten Codes – einmal mit $J$ = 2, einmal mit $J$ = 4 und zweimal mit $J$ = 8. Beispielsweise können die unteren vier Codes mit dem Spreizfaktor J = 8 nicht herangezogen werden, da sie alle mit „+1 –1” beginnen, was bereits durch den OVSF–Code mit Spreizfaktor J = 2 belegt ist. Der hier dargelegte Sachverhalt wird auch durch das Flash–Interaktionsmodul OVSF–Codes verdeutlicht.

Um mehr Spreizcodes zu erhalten und damit mehr Teilnehmer versorgen zu können, wird nach der Bandspreizung mit $c(t)$ die Folge mit $w(t)$ chipweise nochmals verwürfelt, ohne dass eine weitere Spreizung stattfindet. Der Verwürfelungscode $w(t)$ hat die gleiche Länge und dieselbe Rate wie $c(t)$.

Durch die Verwürfelung (englisch: Scrambling) verlieren die Codes ihre vollständige Orthogonalität; man nennt sie quasi–othogonal. Bei diesen Codes ist zwar die Kreuzkorrelationsfunktion (KKF) zwischen unterschiedlichen Spreizcodes ungleich null, sie zeichnen sich aber durch eine ausgeprägte Autokorrelationsfunktion um den Nullpunkt aus, was die Detektion am Empfänger erleichtert.


Die Verwendung quasi–orthogonaler Codes macht Sinn, da die Menge an orthogonalen Codes begrenzt ist und durch die Verwürfelung verschiedene Teilnehmer auch gleiche Spreizcodes verwenden können.

In UMTS werden für die Verwürfelung so genannte Goldcodes verwendet. Die Grafik aus [1] zeigt das Blockschaltbild zur schaltungstechnischen Erzeugung solcher Codes. Dabei werden zunächst zwei unterschiedliche Pseudonoise–Folgen gleicher Länge (hier: $N$ = 18) mit Hilfe von Schieberegistern parallel erzeugt und dann mit $Exklusiv–Oder–Gatter$ bitweise addiert.

Im Uplink hat jede Mobilstation einen eigenen Verwürfelungscode und die Trennung der einzelnen Kanäle erfolgt über den jeweils gleichen Code. Dagegen hat im Downlink jedes Versorgungsgebiet eines Node B einen gemeinsamen Verwürfelungscode.

Die Tabelle fasst einige Daten der Spreiz– und Verwürfelungscodes zusammen.


Kanalcodierung

Ebenso wie bei GSM erfahren EFR– und AMR–codierte Sprachdaten im UMTS einen zweistufigen Fehlerschutz, bestehend aus

  • Bildung von CRC–Prüfbits (englisch: Cyclic Redundancy Check), und
  • Faltungscodierung (englisch: Convolutional Coding).

Diese Verfahren unterscheiden sich jedoch von denjenigen bei GSM durch eine größere Flexibilität, da sie bei UMTS unterschiedliche Datenraten berücksichtigen.

Für die Fehlererkennung mittels CRC werden je nach Größe des Transportblockes (10 oder 20 ms) 8, 12, 16 oder 24 CRC–Bits gebildet und an diesen angehängt. Am Ende eines jeden Rahmens werden außerdem 8 Tailbits eingefügt, die Synchronisationszwecken dienen. Die Grafik zeigt einen beispielhaften Transportblock des DCH–Kanals mit 164 Nutzdatenbits, an den 16 CRC–Prüfbits und acht Tailbits angehängt werden.

Für die Fehlerkorrektur kommen bei UMTS – je nach Datenrate – zwei verschiedene Verfahren zum Einsatz:

  • Bei niedrigen Datenraten werden wie bei GSM–Faltungscodes (englisch: Convolutional Codes) mit den Coderaten $r$ = 1/2 oder $r$ = 1/3 verwendet. Diese werden mit acht Speicherelementen eines rückgekoppelten Schieberegisters (256 Zustände) erzeugt. Der Codiergewinn beträgt mit der Coderate 1/3 und bei niedrigen Fehlerraten ca. 4.5 bis 6 dB.
  • Bei höheren Datenraten verwendet man Turbo–Codes der Rate $r$ = 1/3. Das Schieberegister besteht hier aus drei Speicherzellen, die insgesamt acht Zustände annehmen können. Der Gewinn der Turbo–Codes ist gegenüber Faltungscodes um 2 bis 3 dB größer und ist abhängig von der Anzahl der Iterationen. Sie benötigen dafür zum einen Prozessoren mit hoher Rechenleistung, zum anderen kann es zu relativ großen Verzögerungen kommen.

Nach der Kanalcodierung werden die Daten wie bei GSM einer Verwürfelung (englisch: Interleaving) zugeführt, um empfangsseitig die durch Fading entstandenen Bündelfehler auflösen zu können. Schließlich werden zur Ratenanpassung der entstandenen Daten an den physikalischen Kanal einzelne Bit nach einem vorgegebenen Algorithmus entfernt (Puncturing) oder wiederholt (Repetition).


Die Grafik zeigt zunächst die Zunahme der Bits durch einen Faltungs– oder Turbocode der Rate 1/3, wobei aus dem 188 Bit–Zeitrahmen (nach der CRC–Prüfsumme und den Tailbits) ein 564 Bit–Rahmen entsteht.

Danach folgt eine erste externe Verschachtelung und dann eine zweite interne Verschachtelung. Nach dieser wird der Zeitrahmen in vier Unterrahmen mit jeweils 141 Bit aufgeteilt und diese werden anschließend durch eine Ratenanpassung an den physikalischen Kanal angepasst.


Pulsformung und Modulation in UMTS

Das Sendeimpulsfilter wandelt die binären {0, 1} Daten in physikalische Signale. Es wird beschrieben durch den Frequenzgang $H_S(f)$, der formgleich mit dem Spektrum eines einzelnen Sendeimpulses ist.

Bei UMTS ist das Empfangsfilter $H_E(f) = H_S(f)$ an den Sender angepasst (Matched–Filter) und der Gesamtfrequenzgang $H(f) = H_S(f) · H_E(f)$ erfüllt das erste Nyquistkriterium:

Das bedeutet: Zeitlich aufeinander folgende Impulse stören sich nicht gegenseitig ⇒ es treten keine Impulsinterferenzen (englisch: Intersymbol Interference, ISI) auf. Die zugehörige Zeitfunktion lautet:

„CRO” steht hierbei für Cosinus–Rolloff (englisch: Raised Cosine). Die Summe $f_1 + f_2$ ist gleich dem Kehrwert der Chipdauer $T_{\rm C}$ = 260 ns, also gleich 3.84 MHz. Der Rolloff–Faktor

wurde bei UMTS zu $r$ = 0.22 festgelegt. Wir bleiben bei der in LNTwww gewählten Bezeichnung $„r”$, im UMTS–Standard wird hierfür $„α”$ verwendet.

Die beiden Eckfrequenzen sind somit

und die theoretische Bandbreite beträgt $B$ = 2 · $f_2$ = 4.7 MHz. Für jeden UMTS–Kanal steht mit 5 MHz somit ausreichend Bandbreite zur Verfügung.

Die Grafik zeigt links das (normierte) Nyquistspektrum $H(f)$ und rechts den dazugehörigen Nyquistimpuls $h(t)$ mit äquidistanten Nulldurchgängen im Abstand $T_{\rm C}$. Sendefilter $H_S(f)$ und Matched–Filter $H_E(f)$ sind jeweils für sich allein Wurzel–Cosinus–Rolloff–förmig (englisch: Root Raised Cosine).

  • Das bedeutet gleichzeitig: Die Impulsantworten $h_S(t)$ und $h_E(t)$ für sich allein erfüllen die erste Nyquistbedingung nicht. Erst die Kombination aus beiden (also im Zeitbereich die Faltung) führt zu den gewünschten äquidistanten Nulldurchgängen.

Die bei UMTS eingesetzten Modulationsverfahren können wie folgt zusammengefasst werden:

  • In der Abwärtsrichtung (Downlink) wird zur Modulation sowohl bei FDD als auch bei TDD Quaternary Phase Shift Keying (QPSK) verwendet. Dabei werden Nutzdaten (DPDCH–Kanal) und Kontrolldaten (DPCCH–Kanal) zeitlich gemultiplext.
  • Ebenso wird bei der TDD in Aufwärtsrichtung (Uplink) das Signal mittels QPSK moduliert, nicht aber bei FDD. Hier wird vielmehr eine zweifache binäre PSK (englisch: Dual Channel–BPSK) verwendet.

Bei Dual–Channel BPSK wird zwar ebenfalls der QPSK–Signalraum genutzt, aber in Inphase– und Quadratur–Komponente werden unterschiedliche Kanäle übertragen. Pro Modulationsschritt werden also zwei Chips übertragen und die Brutto–Chiprate ist daher doppelt so groß wie die Modulationsrate von 3.84 Mchip pro Sekunde.

Die Grafik zeigt dieses I/Q–Multiplexing–Verfahren, wie es auch bezeichnet wird, im äquivalenten Tiefpassbereich:

  • Die gespreizten Nutzdaten des DPDCH–Kanals werden auf die Inphase–Komponente und die gespreizten Kontrolldaten des DPCCH–Kanals auf die Quadratur–Komponente moduliert und übertragen.
  • Nach der Modulation wird die Quadratur–Komponente mit der Wurzel des Leistungsverhältnisses $G$ zwischen den beiden Kanälen gewichtet, um den Einfluss des Leistungsunterschieds zwischen I und Q zu minimieren.
  • Abschließend wird das komplexe Summensignal (I + j · Q) mit einem ebenfalls komplexen Verwürfelungscode multipliziert.

Ein Vorteil der zweifachen BPSK–Modulation ist die Möglichkeit der Verwendung stromsparender Verstärker. Ein Zeitmultiplex von Nutz– und Kontrolldaten wie im Uplink ist im Downlink nicht möglich. Ein Grund hierfür ist der Einsatz von Discontinuous Transmission (DTX) und die damit verbundenen zeitlichen Einschränkungen.


CDMA–Empfänger

Aufgabe eines CDMA–Empfängers ist es, aus der Summe der gespreizten Datenströme die gesendeten Daten der einzelnen Teilnehmer zu separieren und zu rekonstruieren. Dabei unterscheidet man zwischen den Single–User–Empfängern und den Multi–User–Empfängern.

Im Downlink von UMTS wird stets ein Single-User-Empfänger verwendet, da in der Mobilstation eine gemeinsame Detektion aller Teilnehmer wegen der Vielzahl aktiver Teilnehmer sowie der Länge der Verwürfelungscodes und des asynchronen Betriebs zu aufwändig wäre.

Ein solcher Empfänger besteht aus einer Bank unabhängiger Korrelatoren. Jeder einzelne der insgesamt $J$ Korrelatoren gehört zu einer spezifischen Spreizfolge. Die Korrelation wird meist in einer so genannten Korrelatordatenbank softwaremäßig gebildet. Dabei erhält man am Korrelatorausgang die Summe aus

  • der Autokorrelationsfunktion des Spreizcodes und
  • der Kreuzkorrelationsfunktion aller anderen Teilnehmer mit dem teilnehmereigenen Spreizcode.

Die Grafik zeigt die einfachste Realisierung eines solchen Empfängers mit Matched–Filter.

  • Das Empfangssignal $r(t)$ wird zunächst mit dem Spreizcode $c(t)$ des betrachteten Teilnehmers multipliziert, was als Bandstauchung oder Entspreizung bezeichnet wird (gelbe Hinterlegung).
  • Danach folgt die Faltung mit der Impulsantwort des Matched–Filters (Root Raised Cosine), um das SNR zu maximieren, und die Abtastung im Bittakt ( $T_{\rm B}$ ).
  • Abschließend erfolgt die Schwellenwertentscheidung, die das Sinkensignal $v(t)$ und damit die Datenbits des betrachteten Teilnehmers liefert.

Beim AWGN–Kanal haben die Bandspreizung beim Sender und die daran angepasste Bandstauchung beim Empfänger wegen $c(t)^2$ = 1 keinen Einfluss auf die Bitfehlerwahrscheinlichkeit. Wie in Aufgabe A4.5 gezeigt, gilt auch mit Bandspreizung/Bandstauchung bei optimalem Empfänger unabhängig vom Spreizgrad $J$:

Dieses Ergebnis lässt sich wie folgt begründen: Die statistischen Eigenschaften von weißem Rauschen $n(t)$ werden durch die Multiplikation mit dem ±1–Signal $c(t)$ nicht verändert.


Ein weiterer Empfänger für die Single–User–Detektion ist der so genannte RAKE–Empfänger, der bei einem Mehrwegekanal zu deutlichen Verbesserungen führt. Die Grafik zeigt seinen Aufbau für einen Zweiwegekanal mit

  • einem direkten Pfad mit Koeffizient $h_0$ und Verzögerungszeit $τ_0$, und
  • einem Echo mit Koeffizient $h_1$ und Verzögerungszeit $τ_1$.

Zur Vereinfachung werden beide Amplitudenkoeffizienten $h_0$ und $h_1$ als reell angenommen.

Aufgabe des RAKE–Empfängers ist es, die Signalenergien aller Pfade (in diesem Beispiel nur zwei) auf einen einzigen Zeitpunkt zu konzentrieren. Er arbeitet demnach wie eine Harke für den Garten, was auch die deutsche Übersetzung für „RAKE” ist.

Legt man einen Diracimpuls zur Zeit $t$ = 0 an den Kanaleingang an, so gibt es am Ausgang des RAKE–Empfängers drei Diracimpulse entsprechend der Gleichung

Die Signalenenergie konzentriert sich auf den Zeitpunkt $τ_0 + τ_1$. Von den insgesamt vier Wegen tragen zwei dazu bei. Die Diracfunktionen bei $2τ_0$ und $2τ_1$ bewirken zwar Impulsinterferenzen. Ihre Gewichte sind aber deutlich kleiner als die des Hauptpfades.


Mit den Kanalparametern $h_0$ = 0.8 und $h_1$ = 0.6 beinhaltet der Hauptpfad (mit Gewicht $h_0$) nur 0.82/(0.82 + 0.62) = 64% der gesamten Signalenergie. Mit RAKE–Empfänger und den gleichen Gewichten lautet die obige Gleichung

Der Anteil des Hauptpfades an der Gesamtenergie beträgt nun $$\frac{1^2}{(1^2 + 0.48^2 + 0.48^2)} ≈ 68%.$$


RAKE–Empfänger werden zur Implementierung in mobilen Geräten bevorzugt, haben aber bei vielen aktiven Teilnehmern nur eine begrenzte Leistungsfähigkeit. Bei einem Mehrwegekanal mit vielen $(M)$ Pfaden hat auch der RAKE $M$ Finger. Der Hauptfinger (Main Finger) – auch Searcher genannt – ist dafür verantwortlich, die individuellen Pfade der Mehrfachausbreitung zu identifizieren und einzuordnen. Er sucht die stärksten Pfade und weist diese zusammen mit ihren Steuerinformationen anderen Fingern zu. Dabei wird die Zeit– und Frequenzsynchronisation aller Finger kontinuierlich mit den Kontrolldaten des empfangenen Signals verglichen.


Bei einem Single–User–Empfänger wird nur das Datensignal eines Teilnehmers entschieden, während alle anderen Teilnehmersignale als zusätzliches Rauschen betrachtet werden. Die Fehlerrate eines solchen Detektors wird jedoch dann sehr groß sein, wenn große Intrazellinterferenzen (viele Teilnehmer in der betrachteten Funkzelle) oder Interzellinterferenzen (störende Teilnehmer in Nachbarzellen) vorliegen.

Dagegen treffen Multi–User–Empfänger eine gemeinsame Entscheidung für alle aktiven Teilnehmer. Die Eigenschaften solcher Mehrbenutzerempfänger können wie folgt zusammengefasst werden:

  • Ein Multi–User–Empfänger betrachtet die Interferenzen anderer Teilnehmer nicht als Rauschen, sondern nutzt auch die in den Interferenzsignalen enthaltenen Informationen zur Detektion.
  • Der Empfänger ist sehr aufwändig zu realisieren und die Algorithmen sind äußerst rechenintensiv. Er beinhaltet eine extrem große Korrelatordatenbank gefolgt von einem gemeinsamen Detektor.
  • Dem Multi–User–Empfänger müssen die Spreizcodes aller aktiven Teilnehmer bekannt sein. Diese Voraussetzung schließt einen Einsatz im UMTS–Downlink (also bei der Mobilstation) aus.
  • Dagegen sind den Basisstationen alle teilnehmerspezifischen Spreizcodes a priori bekannt, so dass im Uplink die Mehrbenutzerdetektion tatsächlich zur Anwendung kommt.
  • Manche Detektionsalgorithmen verlangen zusätzlich die Kenntnis anderer Signalparameter wie Energien und Verzögerungszeiten. Der gemeinsame Detektor – das Herzstück des Empfängers – ist dafür verantwortlich, den jeweiligen passenden Detektionsalgorithmus anzuwenden. Beispiele für die Mehrbenutzerdetektion sind Decorrelating Detection und Interference Cancellation.


Near–Far–Effekt

Der Near–Far–Effekt ist ausschließlich ein Problem des Uplinks, also der Übertragung von mobilen Teilnehmern zu einer Basisstation. Wir betrachten ein Szenario mit zwei unterschiedlich weit von der Basisstation (Node B) entfernten Nutzern entsprechend der folgenden Grafik.

Die Grafik kann man wie folgt interpretieren:

  • Senden beide Mobilstationen mit gleicher Leistung, so ist die Empfangsleistung des roten Nutzers A an der Basisstation aufgrund des Pfadverlustes deutlich kleiner als die des blauen Nutzers B (linkes Szenario). In großen Makrozellen kann der Unterschied bis zu 100 dB ausmachen. Dadurch wird das rote Signal weitgehend durch das blaue verdeckt.
  • Man kann den Near–Far–Effekt weitgehend vermeiden, wenn der weiter entfernte Nutzer A mit höherer Leistung sendet als Nutzer B, wie im rechten Szenario angedeutet. An der Basisstation ist dann die Empfangsleistung beider Mobilstationen gleich.


Anmerkung: Bei einem idealisierten System (Einwegekanal, ideale A/D–Wandler, vollständig lineare Verstärker) sind die übertragenen Daten der Nutzer orthogonal zueinander und man könnte die Nutzer auch bei sehr unterschiedlichen Empfangsleistungen einzeln detektieren. Diese Aussage gilt für UMTS (Mehrfachzugriffsverfahren: CDMA) ebenso wie für für das 2G–System GSM (FDMA/TDMA) und für das 4G–System LTE (TDMA/OFDMA).

In der Realität ist jedoch die Orthogonalität aufgrund folgender Ursachen nicht immer gegeben:

  • verschiedene Empfangspfade ⇒ Mehrwegekanal,
  • nicht ideale Eigenschaften der Spreiz– und Scramblingcodes bei CDMA,
  • Asynchronität der Nutzer im Zeitbereich (Grundlaufzeit der Pfade) und im Frequenzbereich (nicht ideale Oszillatoren und Dopplerverschiebung aufgrund der Mobilität der Nutzer).

Folglich sind die Nutzer nicht mehr orthogonal zueinander und der Störabstand des zu detektierenden Nutzers gegenüber den anderen Teilnehmern ist nicht beliebig hoch. Bei GSM und LTE kann man von Störabständen von 25 dB und mehr ausgehen, bei CDMA jedoch nur von ca. 15 dB, bei hochratiger Datenübertragung eher noch von etwas weniger.


Träger–zu–Interferenz–Leistungsverhältnis (CIR) – Zellatmung

Unter Kapazität wird allgemein die Anzahl der verfügbaren Übertragungskanäle pro Zelle verstanden werden. Da aber bei UMTS die Teilnehmerzahl im Gegensatz zum GSM nicht streng begrenzt ist, lässt sich hier keine feste Kapazität angeben.

  • Bei perfekten Codes stören sich die Teilnehmer gegenseitig nicht. Dadurch wird die maximale Nutzerzahl allein durch den Spreizfaktor $J$ und die verfügbare Anzahl der zueinander orthogonalen Codes bestimmt, die aber ebenfalls limitiert ist.
  • Praxisnäher sind nichtperfekte, nur quasi–orthogonale Codes. Hier wird die „Kapazität” einer Funkzelle vorwiegend durch die entstehenden Interferenzen bzw. das Träger–zu–Interferenz–Leistungsverhältnis (englisch: Carrier–to–Interference Ratio, CIR) bestimmt.

Wie aus folgender Grafik zu ersehen ist, hängt das CIR direkt von der Anzahl der aktiven Teilnehmer ab.

Je mehr Teilnehmer aktiv sind, desto mehr Interferenzleistung entsteht und desto kleiner wird das CIR. Desweiteren hängt dieses für UMTS entscheidende Kriterium auch von folgenden Größen ab:

  • der Topologie und dem Nutzerverhalten (aufgerufene Dienste),
  • dem Spreizfaktor $J$ und der Orthogonalität des verwendeten Spreizcodes.

Um den störenden Einfluss der Interferenzleistung auf die Übertragungsqualität zu begrenzen, gibt es zwei Möglichkriten:

  • Zellatmung: Nimmt bei UMTS die Anzahl der aktiven Teilnehmer signifikant zu, so wird der Zellenradius verkleinert und (wegen der nun weniger Teilnehmer in der Zelle) auch die aktuelle Interferenzleistung geringer. Für die Versorgung der Teilnehmer am Rande der verkleinerten Zelle springt dann eine weniger belastete Nachbarzelle ein.
  • Leistungsregelung: Überschreitet die Gesamtinterferenzleistung innerhalb einer Funkzelle einen vorgegebenen Grenzwert, so wird die Sendeleistung aller Teilnehmer entsprechend herabgesetzt und/oder die Datenrate reduziert, was eine schlechtere Übertragungsqualität für alle zur Folge hat. Hierzu mehr auf der folgenden Seite.


Leistung und Leistungsregelung in UMTS

Als Regelgröße bei der Leistungsregelung in UMTS wird das Verhältnis zwischen der Signalleistung und der Interferenzleistung verwendet. Dabei gibt es Unterschiede zwischen dem FDD– und TDD–Modus.

Wir betrachten die Leistungsregelung im FDD–Modus genauer. In der Grafik erkennt man zwei verschiedene Regelkreise:

  • Der innere Regelkreis steuert die Sendeleistung auf der Basis von Zeitschlitzen, wobei in jedem Zeitschlitz ein Leistungskommando übertragen wird. Die Leistung des Senders wird mit Hilfe der CIR–Schätzungen im Empfänger und den Vorgaben des Radio Network Controllers (RNC) aus dem äußeren Regelkreis bestimmt und verändert.
  • Der äußere Regelkreis regelt auf Basis von Rahmen mit 10 Millisekunden Dauer. Er wird im RNC realisiert und ist dafür zuständig, den Soll–Wert für den inneren Regelkreis zu bestimmen.

Der Ablauf der FDD–Leistungsregelung sieht folgendermaßen aus:

  • Der RNC gibt einen Sollwert für das Träger–zu–Interferenz–Verhältnis (CIR–Sollwert) vor.
  • Der Empfänger schätzt den CIR–Istwert und generiert Steuerkommandos für den Sender.
  • Der Sender ändert entsprechend dieser Steuerkommandos die Sendeleistung.

Das Prinzip der Leistungsregelung im TDD–Modus ähnelt der oben vorgestellten Regelung für den FDD–Modus, in der Abwärtsrichtung sind sie sogar praktisch identisch.

  • Die TDD–Leistungsregelung ist jedoch viel langsamer und dadurch auch unpräziser als bei FDD. Eine schnelle Leistungsregelung ist in diesem Fall aber auch gar nicht möglich, da jeder Teilnehmer jeweils nur einen Bruchteil des Zeitrahmens zur Verfügung hat.


Link–Budget

Bei der Planung von UMTS–Netzen ist die Berechnung des Link-Budgets ein wichtiger Schritt. Die Kenntnis des Link–Budgets ist sowohl bei der Dimensionierung der Versorgungsgebiete als auch für die Bestimmung der Kapazität und der Dienstgüte–Anforderungen erforderlich. Ziel des Link–Budgets ist die Berechnung der maximalen Zellgröße unter Berücksichtigung folgender Kriterien:

  • Art und Datenrate der Services,
  • Topologie der Umgebung,
  • Systemkonfiguration (Lage und Leistung der Node Bs, Handover–Gewinn),
  • Service–Anforderungen (Verfügbarkeit),
  • Art der Mobilstation (Geschwindigkeit, Leistung),
  • finanzielle und wirtschaftliche Aspekte.


Die Berechnung des Link–Budgets wird am Beispiel eines Sprachübertragungskanals im UMTS–Downlink dargestellt. Zu den beispielhaften Zahlenwerten ist zu bemerken:

  • Die Sendeleistung $P_{\rm S}$ beträgt 19 dBm, was ca. 79 mW entspricht. Hierbei ist der Antennenverlust mit 2 dB berücksichtigt.
  • Die Rauschleistung $P_{\rm R}$ = 5 · 10–11 mW ist das Produkt aus UMTS–Bandbreite und Rauschleistungsdichte ( $P_{\rm R}$ = –103 dBm ).
  • Die Interferenzleistung ist $P_{\rm I}$ = –99 dBm (1.25 · 10–10 mW). Damit ergibt sich die gesamte Störleistung zu $P_{\rm R+I}$ = $P_{\rm R} + P_{\rm I}$ = 1.75 · 10–10 mW (– 97.5 dBm).
  • Die Antennenempfindlichkeit ergibt sich zu –97.5 – 27 + 5 – 17 + 3.5 = – 133 dBm. Ein großer negativer Wert ist hierbei „gut”.
  • Der maximal zulässige Pfadverlust soll einen möglichst großen Wert besitzen. Man erhält im Beispiel 19 – (–133) = 152 dBm.
  • Das Link–Budget beinhaltet den Margin für Fading und den Handover–Gewinn und beträgt im Beispiel 140 dBm.
  • Der maximale Zellradius lässt sich aus dem Link–Budget mit einer empirischen Formel von Okumura–Hata bestimmen. Es gilt:



UMTS–Funkressourcenverwaltung

Zentrale Aufgabe der Funkressourcenverwaltung (englisch: Radio Resource Management, RRM) ist die dynamische Anpassung der Funkübertragungsparameter an die aktuelle Situation (Fading, Bewegung der Mobilstation, Auslastung, usw.) mit dem Ziel,

  • die Übertragungs– und Teilnehmerkapazitäten zu steigern,
  • die individuelle Übertragungsqualität zu verbessern und
  • die vorhandenen Funkressourcen ökonomisch zu nutzen.

Nachfolgend werden die im Schaubild zusammengestellten wichtigsten RRM–Mechanismen erläutert.

Sendeleistungsregelung – Das Radio Resource Management versucht, die Empfangsleistung und damit das Träger–zu–Interferenz–Verhältnis (CIR) am Empfänger konstant zu halten oder zumindest zu vermeiden, dass ein vorgegebener Grenzwert unterschritten wird. Ein Beispiel für die Notwendigkeit der Leistungsregelung ist der Near–Far–Effekt, der bekanntlich zu einem Verbindungsabbruch führen kann.

Die Schrittweite der Leistungsregelung beträgt 1 dB oder 2 dB, die Frequenz der Regelungskommandos 1500 Kommandos pro Sekunde.

Regelung der Datenrate – Bei UMTS ist ein Austausch zwischen Datenrate und Übertragungsqualität möglich, die sich über die Wahl des Spreizfaktors realisieren lässt. Eine Verdopplung des Spreizfaktors entspricht hierbei einer Halbierung der Datenrate und erhöht die Qualität um 3 dB (Spreizgewinn).

Zugangskontrolle – Um Überlastsituationen des gesamten Netzes zu vermeiden, wird vor dem Aufbau einer neuen Verbindung überprüft, ob die notwendigen Ressourcen vorhanden sind. Andernfalls wird die neue Verbindung abgewiesen. Diese Überprüfung wird durch Abschätzung der Sendeleistungsverteilung nach der Aufnahme der neuen Verbindung realisiert.

Lastregelung – Diese wird aktiv, wenn trotz Zugangskontrolle eine Überlast auftritt. In diesem Fall wird ein Handover zu einem anderen Node B initiiert und – falls dies nicht möglich ist – werden die Datenraten bestimmter Teilnehmer gesenkt.

Handover – Die Funkressourcenverwaltung ist schließlich auch für das Handover verantwortlich, um unterbrechungsfreie Verbindungen zu gewährleisten. Die Zuordnung der Mobilstationen zu den einzelnen Funkzellen erfolgt auf Grundlage von CIR–Messungen.


Aufgaben zu Kapitel 4.3

Aufgabe 4.5: PN-Modulation

Zusatzaufgabe 4.5Z: Zur Bandspreizung bei UMTS

Aufgabe 4.6: OVSF-Codes

Aufgabe 4.7: RAKE-Empfänger

Quellenverzeichnis

  1. 3gpp Group: UMTS Release 6 – Technical Specification 25.213 V6.4.0., Sept. 2005.