Mobile Kommunikation/Technische Neuerungen von LTE: Unterschied zwischen den Versionen
Zeile 79: | Zeile 79: | ||
== FDD, TDD und Halb–Duplex–Verfahren== | == FDD, TDD und Halb–Duplex–Verfahren== | ||
<br> | <br> | ||
− | Eine weitere wichtige Neuerung von LTE ist das Halb–Duplex–Verfahren, welches eine Mischung aus den beiden bereits von UMTS bekannten | + | Eine weitere wichtige Neuerung von LTE ist das Halb–Duplex–Verfahren, welches eine Mischung aus den beiden bereits von UMTS bekannten [[Beispiele_von_Nachrichtensystemen/Allgemeine_Beschreibung_von_UMTS#Vollduplexverfahren|Duplexverfahren]] darstellt: |
− | + | *'''Frequency Division Duplex''' (FDD), und<br> | |
− | * | + | *'''Time Division Duplex''' (TDD) .<br><br> |
Solche Duplexverfahren sind erforderlich, damit Uplink und Downlink klar voneinander getrennt sind und die Übertragung reibungslos funktioniert. Die Grafik illustriert den Unterschied zwischen FDD– und TDD–basierter Übertragung.<br> | Solche Duplexverfahren sind erforderlich, damit Uplink und Downlink klar voneinander getrennt sind und die Übertragung reibungslos funktioniert. Die Grafik illustriert den Unterschied zwischen FDD– und TDD–basierter Übertragung.<br> | ||
− | [[Datei:P ID2281 Mob T 4 2 S4a v1.png|center|frame|Übertragungschema bei FDD (oben) bzw. TDD (unten)|class=fit]] | + | [[Datei:P ID2281 Mob T 4 2 S4a v1.png|center|frame|Übertragungschema bei FDD (oben) bzw. TDD (unten)|class=fit]] |
Mit Hilfe der beiden Methoden FDD und TDD kann LTE sowohl in gepaarten, als auch in ungepaarten Frequenzbereichen betrieben werden. Die beiden Verfahren stellen gewissermaßen einen Gegensatz dar: | Mit Hilfe der beiden Methoden FDD und TDD kann LTE sowohl in gepaarten, als auch in ungepaarten Frequenzbereichen betrieben werden. Die beiden Verfahren stellen gewissermaßen einen Gegensatz dar: | ||
Zeile 92: | Zeile 92: | ||
*TDD wurde für ungepaarte Spektren konzipiert. Zwar benötigt man nun für Uplink und Downlink nur noch ein einziges Band. Sender und Empfänger müssen sich nun allerdings bei der Übertragung abwechseln. Das Hauptproblem von TDD ist die erforderliche Synchronität der Netze.<br><br> | *TDD wurde für ungepaarte Spektren konzipiert. Zwar benötigt man nun für Uplink und Downlink nur noch ein einziges Band. Sender und Empfänger müssen sich nun allerdings bei der Übertragung abwechseln. Das Hauptproblem von TDD ist die erforderliche Synchronität der Netze.<br><br> | ||
− | + | In obiger Grafik sind die Unterschiede zwischen FDD und TDD zu erkennen. Man sieht, dass man bei TDD beim Wechsel von Downlink zu Uplink (bzw. umgekehrt) eine Guard Period einfügen muss, damit es nicht zu einer Überlagerung der Signale kommt.<br> | |
− | |||
− | In | ||
Obwohl FDD in der Praxis voraussichtlich stärker genutzt werden wird (und die FDD–Frequenzen für die Provider auch sehr viel teuerer waren), gibt es durchaus auch einige Gründe, die für TDD sprechen: | Obwohl FDD in der Praxis voraussichtlich stärker genutzt werden wird (und die FDD–Frequenzen für die Provider auch sehr viel teuerer waren), gibt es durchaus auch einige Gründe, die für TDD sprechen: | ||
Zeile 101: | Zeile 99: | ||
*Die TDD–Technik ermöglicht verschiedene Modi, die festlegen, wie viel Zeit für Downlink bzw. Uplink verwendet werden soll und kann so auf individuelle Anforderungen abgestimmt werden.<br><br> | *Die TDD–Technik ermöglicht verschiedene Modi, die festlegen, wie viel Zeit für Downlink bzw. Uplink verwendet werden soll und kann so auf individuelle Anforderungen abgestimmt werden.<br><br> | ||
− | Für die eigentliche Neuerung, das Halb–Duplex–Verfahren, benötigt man zwar wie bei FDD auch ein gepaartes Spektrum. Sender und Empfänger der Basisstation wechseln sich aber trotzdem wie bei TDD ab: Jedes Endgerät kann gleichzeitig entweder nur Senden oder nur Empfangen.<br> | + | Für die eigentliche Neuerung, das '''Halb–Duplex–Verfahren''', benötigt man zwar wie bei FDD auch ein gepaartes Spektrum. Sender und Empfänger der Basisstation wechseln sich aber trotzdem wie bei TDD ab: Jedes Endgerät kann gleichzeitig entweder nur Senden oder nur Empfangen.<br> |
− | [[Datei:P ID2276 Mob T 4 2 S4b v1.png|Übertragungsschema bei Halb–Duplex|class=fit]] | + | [[Datei:P ID2276 Mob T 4 2 S4b v1.png|center|frame|Übertragungsschema bei Halb–Duplex|class=fit]] |
− | + | Aus dieser Grafik erkennt man: | |
*Durch eine zweite Verbindung zu einem anderen Endgerät mit vertauschtem Downlink/Uplink–Raster kann trotzdem das gesamte zur Verfügung stehende Band voll genutzt werden.<br> | *Durch eine zweite Verbindung zu einem anderen Endgerät mit vertauschtem Downlink/Uplink–Raster kann trotzdem das gesamte zur Verfügung stehende Band voll genutzt werden.<br> | ||
− | * | + | *Der wesentliche Vorteil des Halb–Duplex–Verfahrens besteht aber darin, dass durch die Verwendung des TDD–Konzepts die Anforderungen an die Endgeräte stark sinken und sich diese einfacher und billiger produzieren lassen.<br><br> |
− | Dass diesem Aspekt in der Standardisierung große Bedeutung zugemessen wurde, lässt sich auch an der Verwendung von OFDMA im Downlink und SC–FDMA im Uplink erkennen: Dadurch erreicht man eine längere Batterielaufzeit der Endgeräte und es können günstigere Bauteile verwendet werden. Mehr dazu finden Sie im [ | + | Dass diesem Aspekt in der Standardisierung große Bedeutung zugemessen wurde, lässt sich auch an der Verwendung von OFDMA im Downlink und SC–FDMA im Uplink erkennen: Dadurch erreicht man eine längere Batterielaufzeit der Endgeräte und es können günstigere Bauteile verwendet werden. Mehr dazu finden Sie im Kapitel [[Mobile_Kommunikation/Die_Anwendung_von_OFDMA_und_SC-FDMA_in_LTE#Allgemeines_zur_LTE.E2.80.93.C3.9Cbertragungstechnik|Die Anwendung von OFDMA und SC-FDMA in LTE]]. |
− | == Mehrantennensysteme | + | == Mehrantennensysteme== |
<br> | <br> | ||
Verwendet ein Funksystem mehrere Sende– und Empfangsantennen, so spricht man von Multiple Input Multiple Output (MIMO). Dabei handelt es sich nicht um eine LTE–spezifische Entwicklung. So nutzt beispielweise auch WLAN diese Technologie. Das Prinzip der Mehrantennensysteme wird in der folgenden Grafik am Beispiel von 2×2–MIMO (zwei Sende– und zwei Empfangsantennen) verdeutlicht.<br> | Verwendet ein Funksystem mehrere Sende– und Empfangsantennen, so spricht man von Multiple Input Multiple Output (MIMO). Dabei handelt es sich nicht um eine LTE–spezifische Entwicklung. So nutzt beispielweise auch WLAN diese Technologie. Das Prinzip der Mehrantennensysteme wird in der folgenden Grafik am Beispiel von 2×2–MIMO (zwei Sende– und zwei Empfangsantennen) verdeutlicht.<br> |
Version vom 30. Oktober 2017, 15:40 Uhr
Inhaltsverzeichnis
Zur Sprachübertragung bei LTE
Anders als die bisherigen Mobilfunkstandards unterstützt LTE nur eine paketorientierte Übertragung. Für die Sprachübertragung wäre jedoch eine verbindungsorientierte Übertragung mit fester Reservierung der Ressourcen besser, da eine „gestückelte Übertragung” – wie es beim paketorientierten Verfahren der Fall ist – relativ kompliziert ist.
Das Problem der Einbindung von Sprachübertragungsverfahren war eine der großen Herausforderungen bei der Entwicklung von LTE, denn die Sprachübertragung ist für die Netzbetreiber weiterhin die größte Einnahmequelle. Es gab einige Ansätze, wie dem Internet–Artikel [Gut10][1] entnommen werden kann.
(1) Eine sehr einfache und nahe liegende Methode ist Circuit Switched Fallback (CSFB). Hier wird für die Sprachübertragung eine leitungsgebundene Übertragung verwendet. Das Prinzip ist:
- Das Endgerät meldet sich im LTE–Netz an und parallel dazu auch noch in einem GSM– oder UMTS–Netz. Bei eingehendem Anruf erhält das Endgerät von der Mobile Management Entity (MME, Kontrollknoten im LTE–Netz zur Nutzer–Authentifizierung) eine Nachricht, woraufhin eine leitungsgebundene Übertragung über das GSM– oder das UMTS–Netz aufgebaut wird.
- Ein Nachteil dieser Lösung (eigentlich ist es eine „Problemverschleierung”) ist der stark verzögerte Verbindungsaufbau. Außerdem verhindert CSFB die komplette Umstellung des Netzes auf LTE.
(2) Eine weitere Möglichkeit zur Integration von Sprache in ein paketorientes Übertragungssystem bietet Voice over LTE via GAN (VoLGA), die auf der von 3GPP entwickelten GAN-Technologie (Generic Access Network) basiert. In aller Kürze lässt sich das Prinzip wie folgt darstellen:
- GAN ermöglicht leitungsbezogene Dienste über ein paketorientiertes Netzwerk (IP–Netzwerk), beispielsweise WLAN (Wireless Local Area Network). Mit kompatiblen Endgeräten kann man sich so im GSM–Netz über eine WLAN–Verbindung registrieren lassen und leitungsbasierte Dienste nutzen. VoLGA nutzt diese Funktionalität, in dem es WLAN durch LTE ersetzt.
- Vorteilhaft ist die schnelle Implementierung von VoLGA, da keine langwierige Neuentwicklung und keine Änderungen am Kernnetz notwendig sind. Allerdings muss dem Netz als Hardware ein sogenannter VoLGA Access Network Controller (VANC) hinzugefügt werden. Dieser sorgt für die Kommunikation zwischen Endgerät und der Mobile Management Entity bzw. dem Kernnetz.
Auch wenn VoLGA für Sprachverbindungen nicht auf ein GSM– oder UMTS–Netz zurückgreifen muss wie CSFB, wurde es auf Grund ihrer Benutzerunfreundlichkeit vom Großteil der Mobilfunkgemeinde auch nur als (unbefriedigende) Brückentechnologie betrachtet. T–Mobile war lange ein Verfechter der VoLGA–Technologie, beendete im Februar 2011 jedoch ebenfalls die weitere Entwicklung.
Im Folgenden beschreiben wir einen besseren Lösungsvorschlag. Stichworte sind IP Multimedia Subsystem (IMS) sowie Voice over LTE (VoLTE). Die Betreiber in Deutschland haben relativ spät auf diese Technologie umgestellt: Vodafone und O2 Telefonica Anfang 2015, die Telekom Anfang 2016. Dies ist auch der Grund dafür, dass der Umstieg auf LTE in Deutschland (und in Europa allgemein) schleppender verlief als in den USA. Viele Kunden wollten nicht die höheren Preise für LTE zahlen, so lange es keine gut funktionierende Lösung für die Integration der Sprachübertragung gab.
VoLTE – Voice over LTE
Der aus heutiger Sicht (2016) erfolgversprechendste, teilweise bereits etablierte Ansatz zur Integration der Sprachdienste in das LTE–Netz ist Voice over LTE – kurz: VoLTE. Dieser offiziell von der GSMA – die weltweite Industrievereinigung von mehr als 800 Mobilfunkanbietern und über 200 Herstellern von Mobiltelefonen und Netzinfrastruktur – verabschiedete Standard ist ausschließlich IP–paketorientiert und basiert auf dem IP Multimedia Subsystem (IMS), das bereits 2010 in der UMTS–Release 9 definiert wurde. Die technischen Fakten zu IMS sind:
- Das IMS–Basisprotokoll ist das von Voice over IP bekannte Session Initiation Protocol (SIP). Es handelt sich dabei um ein Netzprotokoll, mit dem Verbindungen zwischen zwei Teilnehmern aufgebaut und gesteuert werden können. Dieses Protokoll ermöglicht die Entwicklung zu einem vollständig (für Daten und Sprache) IP–basierten Netzwerk und bietet damit Zukunftssicherheit.
Der Grund, warum sich die Einführung von VoLTE gegenüber der LTE–Etablierung im Datenverkehr um vier Jahre verzögert hat, liegt im schwierigen Zusammenspiel von „4G” mit den älteren Vorgängerstandards GSM („2G”) und UMTS („3G”). Hierzu ein Beispiel:
- Verlässt ein Mobilfunknutzer seine LTE–Zelle und wechselt in ein Gebiet ohne 4G–Versorgung, so muss ein unmittelbarer Wechsel zum nächstbesten Standard (3G) erfolgen.
- Sprache wird hier technisch völlig anders übermittelt, nicht mehr durch viele kleine Datenpakete ⇒ „paketvermittelt”, sondern sequentiell in den eigens für den Teilnehmer reservierten logischen und physikalischen Kanälen ⇒ „leitungsvermittelt”.
- Diese Umsetzung muss derart schnell und problemlos verlaufen, dass der Endkunde davon nichts merkt. Und diese Umsetzung muss für alle Mobilfunkstandards und Techniken funktionieren.
Nach Ansicht aller Experten wird VoLTE das mobile Telefonieren ähnlich positiv beeinflussen, wie LTE das mobile Internet seit 2011 vorangebracht hat. Wesentliche Vorteile für die Nutzer sind:
- Eine höhere Sprachqualität, da VoLTE AMR–Wideband Codecs mit 12.65 bzw. 23.85 kbit/s nutzt. Außerdem werden die VoLTE–Datenpakete für möglichst niedrige Latenzen priorisiert.
- Ein enorm beschleunigter Verbindungaufbau innerhalb von einer oder zwei Sekunden, während es bei Circuit Switched Fallback (CSFB) unangenehm lange dauert, bis eine Verbindung steht.
- Ein niedriger Akkuverbrauch, deutlich geringer als bei „2G” und „3G”, damit verbunden eine längere Akkulaufzeit. Auch gegenüber gängigen VoIP–Diensten ist der Energiebedarf bis zu 40% geringer.
Aus Sicht der Provider ergeben sich folgende Vorteile:
- Eine bessere Spektraleffizienz: Doppelt so viele Gespräche im gleichen Frequenzband als bei „3G”. Oder: Bei gleichem Gesprächsaufkommen steht für Datendienste mehr Kapazität zur Verfügung.
- Eine einfache Implementierung von Rich Media Services (RCS), etwa für Videotelefonie oder zukünftige Anwendungen, durch die neue Kunden geworben werden können.
- Eine bessere Akzeptanz der höheren Bereitstellungskosten durch LTE–Kunden, wenn man nicht zum Telefonieren in ein „niederwertiges” Netz wie „2G” oder „3G” ausgelagert werden muss.
Bandbreitenflexibilität
LTE lässt sich durch die Verwendung von OFDM mit relativ wenig Aufwand an unterschiedlich breite Frequenzbänder anpassen. Diese Tatsache ist eine aus verschiedenen Gründen – siehe [Mey10][2] – wichtige Eigenschaft, insbesondere für die Netzbetreiber:
- Abhängig von den gesetzlichen Vorgaben in verschiedenen Ländern können die Frequenzbänder für LTE unterschiedlich groß sein. Auch der Ausgang der staatenspezifischen Versteigerungen der LTE–Frequenzen (getrennt nach FDD und TDD) hat die Breite der Spektren beeinflusst.
- Oft betreibt man LTE im Hinblick auf eine spätere Migration in der „Frequenz–Nachbarschaft” etablierter Funkübertragungssysteme, mit deren Abschaltung in Kürze gerechnet wird. Steigt die Nachfrage, so kann man LTE nach und nach auf den frei werdenden Frequenzbereich ausweiten.
- Als Beispiel sei die Migration der Fernsehkanäle nach der Digitalisierung genannt: Im jetzt frei gewordenen VHF–Frequenzbereich um 800 MHz wird ein Teil des LTE–Netzwerks angesiedelt – siehe Grafik zur Frequenzbandaufteilung.
- Eigentlich könnten die Bandbreiten mit einem Feinheitsgrad von bis zu 15 kHz (entsprechend einem OFDMA–Unterträger) gewählt werden. Da dies jedoch unnötig Overhead produzieren würde, hat man als kleinste adressierbare LTE–Ressource eine Dauer von einer Millisekunde und eine Bandbreite von 180 kHz festgelegt. Ein solcher Block entspricht zwölf Unterträgern (180 kHz geteilt durch 15 kHz).
Um die Komplexität und den Aufwand bei der Hardwarestandardisierung möglichst gering zu halten, hat man sich zudem auf eine ganze Reihe zulässiger Bandbreiten zwischen 1.4 MHz und 20 MHz geeinigt. Die folgende Auflistung – entnommen aus [Ges08][3] – gibt die standarisierten Bandbreiten, die Anzahl der verfügbaren Blöcke sowie den „Overhead” an:
- 6 verfügbare Blöcke in der Bandbreite 1.4 MHz ⇒ relativer Overhead ca. 22.8%,
- 15 verfügbare Blöcke in der Bandbreite 3 MHz ⇒ relativer Overhead ca. 10%,
- 25 verfügbare Blöcke in der Bandbreite 5 MHz ⇒ relativer Overhead ca. 10%,
- 50 verfügbare Blöcke in der Bandbreite 10 MHz ⇒ relativer Overhead ca. 10%,
- 75 verfügbare Blöcke in der Bandbreite 15 MHz ⇒ relativer Overhead ca. 10%,
- 100 verfügbare Blöcke in der Bandbreite 20 MHz ⇒ relativer Overhead ca. 10%.
Da sonst einige LTE–spezifische Funktionen nicht funktionieren würden, müssen mindestens sechs Blöcke bereitgestellt werden. Der relative Overhead ist bei kleiner Kanalbandbreite (1.4 MHz) vergleichsweise hoch: (1.4 – 6 · 0.18)/1.4 ≈ 22.8%. Ab einer Bandbreite von 3 MHz beträgt der relative Overhead konstant 10%. Weiter gilt, dass alle Endgeräte auch die maximale Bandbreite von 20 MHz unterstützen müssen [Ges08][3]
FDD, TDD und Halb–Duplex–Verfahren
Eine weitere wichtige Neuerung von LTE ist das Halb–Duplex–Verfahren, welches eine Mischung aus den beiden bereits von UMTS bekannten Duplexverfahren darstellt:
- Frequency Division Duplex (FDD), und
- Time Division Duplex (TDD) .
Solche Duplexverfahren sind erforderlich, damit Uplink und Downlink klar voneinander getrennt sind und die Übertragung reibungslos funktioniert. Die Grafik illustriert den Unterschied zwischen FDD– und TDD–basierter Übertragung.
Mit Hilfe der beiden Methoden FDD und TDD kann LTE sowohl in gepaarten, als auch in ungepaarten Frequenzbereichen betrieben werden. Die beiden Verfahren stellen gewissermaßen einen Gegensatz dar:
- FDD benötigt ein gepaartes Spektrum, also jeweils ein Frequenzband für die Übertragung von der Basisstation in Richtung Endgerät (Downlink) und eines für die Übertragung in umgekehrter Richtung (Uplink). Downlink sowie Uplink können dabei aber gleichzeitig übertragen werden.
- TDD wurde für ungepaarte Spektren konzipiert. Zwar benötigt man nun für Uplink und Downlink nur noch ein einziges Band. Sender und Empfänger müssen sich nun allerdings bei der Übertragung abwechseln. Das Hauptproblem von TDD ist die erforderliche Synchronität der Netze.
In obiger Grafik sind die Unterschiede zwischen FDD und TDD zu erkennen. Man sieht, dass man bei TDD beim Wechsel von Downlink zu Uplink (bzw. umgekehrt) eine Guard Period einfügen muss, damit es nicht zu einer Überlagerung der Signale kommt.
Obwohl FDD in der Praxis voraussichtlich stärker genutzt werden wird (und die FDD–Frequenzen für die Provider auch sehr viel teuerer waren), gibt es durchaus auch einige Gründe, die für TDD sprechen:
- Frequenzen sind – wie sich bei der Versteigerung 2010 wieder gezeigt hat – ein rares und teures Gut. TDD benötigt aber nur die halbe Frequenzbandbreite.
- Die TDD–Technik ermöglicht verschiedene Modi, die festlegen, wie viel Zeit für Downlink bzw. Uplink verwendet werden soll und kann so auf individuelle Anforderungen abgestimmt werden.
Für die eigentliche Neuerung, das Halb–Duplex–Verfahren, benötigt man zwar wie bei FDD auch ein gepaartes Spektrum. Sender und Empfänger der Basisstation wechseln sich aber trotzdem wie bei TDD ab: Jedes Endgerät kann gleichzeitig entweder nur Senden oder nur Empfangen.
Aus dieser Grafik erkennt man:
- Durch eine zweite Verbindung zu einem anderen Endgerät mit vertauschtem Downlink/Uplink–Raster kann trotzdem das gesamte zur Verfügung stehende Band voll genutzt werden.
- Der wesentliche Vorteil des Halb–Duplex–Verfahrens besteht aber darin, dass durch die Verwendung des TDD–Konzepts die Anforderungen an die Endgeräte stark sinken und sich diese einfacher und billiger produzieren lassen.
Dass diesem Aspekt in der Standardisierung große Bedeutung zugemessen wurde, lässt sich auch an der Verwendung von OFDMA im Downlink und SC–FDMA im Uplink erkennen: Dadurch erreicht man eine längere Batterielaufzeit der Endgeräte und es können günstigere Bauteile verwendet werden. Mehr dazu finden Sie im Kapitel Die Anwendung von OFDMA und SC-FDMA in LTE.
Mehrantennensysteme
Verwendet ein Funksystem mehrere Sende– und Empfangsantennen, so spricht man von Multiple Input Multiple Output (MIMO). Dabei handelt es sich nicht um eine LTE–spezifische Entwicklung. So nutzt beispielweise auch WLAN diese Technologie. Das Prinzip der Mehrantennensysteme wird in der folgenden Grafik am Beispiel von 2×2–MIMO (zwei Sende– und zwei Empfangsantennen) verdeutlicht.
Das Neue an LTE ist nicht die eigentliche Nutzung von Multiple Input Multiple Output, sondern die besonders intensive, nämlich 2×2–MIMO im Uplink und maximal 4×4–MIMO im Downlink. Beim Nachfolger LTE–Advanced ist die Nutzung von MIMO noch ausgeprägter, nämlich „4×4” im Uplink und „8×8” in Gegenrichtung.
Ein MIMO–System weist gegenüber Single Input Single Output (SISO, nur eine Sende– und eine Empfangsantennen) Vorteile auf. Man unterscheidet je nach Kanal zwischen mehreren Gewinnen:
- Leistungsgewinn gemäß der Anzahl von Empfangsantennen: Kombiniert man die über mehrere Antennen eintreffenden Funksignale in geeigneter Weise (Spatial Combining), so erhöht man die Empfangsleistung und verbessert so die Funkverbindung. Mit einer Verdoppelung der Antennen erreicht man einen Leistungsgewinn von maximal 3 dB.
- Diversitätsgewinn durch Raumdiversität (englisch: Spatial Diversity): Verwendet man mehrere räumlich getrennte Empfangsantennen in einer Umgebung mit starker Mehrwegeausbreitung, so ist das Fading an den einzelnen Antennen meist unabhängig voneinander und die Wahrscheinlichkeit, dass alle Antennen gleichzeitig von Fading betroffen sind, ist sehr gering.
- Datenratengewinn: Dieser steigert die Effizienz von MIMO vor allem in einer Umgebung mit erhöhter Mehrwegeausbreitung, insbesondere dann, wenn Sender und Empfänger keine direkte Sichtverbindung haben und die Übertragung über Reflexionen erfolgt. Die Verdreifachung der Antennenzahl bei Sender und Empfänger führt zu einer Verdoppelung der Datenrate.
Nicht möglich ist jedoch, dass alle Vorteile gleichzeitig eintreten. Abhängig von der Kanalbeschaffenheit kann es auch passieren, dass man nicht einmal die Wahl hat, welchen Vorteil man nutzen will.
Neben den MIMO-Systemen gibt es auch noch folgende Zwischenstufen:
- MISO–Systeme (nur eine Empfangsantenne, somit ist kein Leistungsgewinn möglich), und
- SIMO–Systeme (nur eine Sendeantenne, nur kleiner Diversitätsgewinn).
Mehrantennensysteme (2)
Der Begriff „MIMO” fasst Mehrantennenverfahren mit unterschiedlichen Eigenschaften zusammen, die jeweils in gewissen Situationen von Nutzen sein können. Vier davon sind in der Grafik veranschaulicht.
Die folgende Beschreibung ist auf die vier hier gezeigten Schaubildern abgestimmt.
- Werden die weitgehend unabhängigen Kanäle eines MIMO–Systems einem einzigen Teilnehmer zugeteilt (Schaubild links oben), so spricht man von Single–User MIMO. Durch 2×2–MIMO verdoppelt sich die Datenrate gegenüber dem SISO–Betrieb und mit jeweils vier Sende– und Empfangsantennen kann die Datenrate bei guten Kanalbedingungen nochmals verdoppelt werden.
- LTE ermöglicht maximal 4×4–MIMO allerdings nur im Downlink. Als Empfänger (Endgeräte) kommen bei 4×4–MIMO aufgrund der Komplexität von Mehrantennensystemen nur Laptops mit LTE–Modems in Frage. Bei einem Handy beschränkt man sich auf 2×2–MIMO.
- Im Gegensatz zum Single–User MIMO ist das Ziel beim Multi–User MIMO nicht die maximale Datenrate für einen Empfänger, sondern die Maximierung der Anzahl der Endgeräte, die das Netz gleichzeitig nutzen können (Schaubild oben rechts). Dabei werden verschiedene Datenströme zu unterschiedlichen Nutzern übertragen. Dies ist besonders an Orten mit hoher Nachfrage nützlich, wie zum Beispiel an Flughäfen oder in Fußballstadien.
- Ein Mehrantennenbetrieb dient aber nicht nur der Maximierung von Nutzerzahl oder Datenrate, sondern im Falle von schlechten Übertragungsbedingungen können mehrere Antennen auch ihre Leistung bündeln und so gezielt Daten zu einem Nutzer übertragen, um dessen Empfangsqualität zu verbessern. Man spricht dann von Beamforming (Schaubild unten links), wodurch auch die Reichweite einer Sendestation erhöht wird.
- Die vierte Möglichkeit ist Antennendiversität (Schaubild unten rechts). Dadurch erhöht man die Redundanz (hinsichtlich Systemauslegung) und macht die Übertragung robuster gegen Störungen. Ein einfaches Beispiel: Es gibt vier Kanäle, die alle die gleichen Daten übertragen. Fällt ein Kanal aus, so sind immer noch drei Kanäle vorhanden, die die Information transportieren können.
Systemarchitektur (1)
Die LTE–Architektur ermöglicht ein vollständig auf dem IP–Protokoll basierendes Übertragungssystem. Um dieses Ziel zu erreichen, musste die für UMTS spezifizierte Systemarchitektur nicht nur verändert, sondern teilweise komplett neu konzipiert werden. Dabei wurden auch andere IP–basierte Technologien wie mobiles WiMAX oder WLAN integriert, um in diese Netze problemlos wechseln zu können.
In UMTS–Netzen (linke Grafik) ist zwischen einer Basisstation (NodeB) und dem Kernnetz noch der Radio Network Controller (RNC) zwischengeschaltet, der für den Wechsel zwischen verschiedenen Zellen hauptverantwortlich ist und der zu Latenzzeiten von bis zu 100 Millisekunden führen kann.
Die Neukonzipierung der Basisstationen (eNodeB anstelle von NodeB) und die Schnittstelle X2 sind die entscheidenden Weiterentwicklungen von UMTS hin zu LTE. Die rechte Grafik illustriert insbesondere die mit der neuen Technologie einhergegangene Reduzierung der Komplexität gegenüber UMTS (linke Grafik). Auch die LTE–Systemarchitektur lässt sich in zwei große Bereiche einteilen:
- das LTE–Kernnetz Evolved Packet Core (EPC),
- die Luftschnittstelle Evolved UMTS Terrestrial Radio Access Network (EUTRAN) – eine Weiterentwicklung von UMTS Terrestrial Radio Access Network (UTRAN).
EUTRAN überträgt die Daten zwischen dem Endgerät und der LTE–Basisstation ⇒ „eNodeB” über die sogenannte S1–Schnittstelle mit zwei Verbindungen, eine für die Übertragung von Nutzdaten und eine zweite für die Übertragung von Signalisierungsdaten. Aus obiger Grafik erkennt man:
- Die Basisstationen sind außer mit dem EPC auch mit den benachbarten Basisstationen verbunden. Diese Verbindungen (X2–Schnittstellen) bewirken, dass möglichst wenige Pakete verloren gehen, wenn sich das Endgerät aus dem Umkreis einer Basisstation in Richtung einer anderen bewegt.
- Dazu kann die Basisstation, deren Versorgungsgebiet der Nutzer gerade verlässt, eventuell noch zwischengespeicherte Daten direkt und schnell an die „neue” Basisstation weitergeben. Damit ist eine (weitgehend) durchgehende Übertragung sichergestellt.
- Die Funktionalität des RNC geht zum Teil in die Basisstation, zum anderen in die Mobility Management Entity (MME) im Kernnetz über. Diese Reduktion der Schnittstellen verkürzt die Signaldurchlaufzeit im Netzwerk und das Handover signifikant auf 20 Millisekunden.
- Die LTE–Systemarchitektur ist zudem so ausgelegt, dass sich zukünftig Inter–NodeB–Verfahren (wie Soft–Handover oder Cooperative Interference Cancellation) einfach integrieren lassen.
Systemarchitektur (2)
Das LTE–Kernnetz Evolved Packet Core (EPC) eines Netzbetreibers – in der Fachsprache Backbone – besteht aus verschiedenen Netzwerkkomponenten. Das EPC ist mit den Basisstationen über das Backhaul (englische Bezeichnung für Rücktransport) verbunden. Darunter versteht man die Anbindung eines vorgelagerten, meist hierarchisch untergeordneten Netzknotens an einen zentralen Netzknoten.
Momentan besteht das Backhaul zum Großteil aus Richtfunk und sogenannten E1–Leitungen. Diese sind Kupferleitungen und erlauben einen Durchsatz von ca. 2 Mbit/s. Für GSM– und UMTS–Netzwerke waren diese Verbindungen noch ausreichend, aber bereits für großflächig vermarktetes HSDPA reichen solche Datenraten nicht. Für LTE ist ein solches Backhaul komplett unbrauchbar:
- Das langsame Kabelnetzwerk würde die schnellen Funkverbindungen ausbremsen, und es wäre insgesamt kein Geschwindigkeitszuwachs festzustellen.
- Aufgrund der geringen Kapazitäten der Leitungen mit E1–Standard wäre auch ein Ausbau mit weiteren baugleichen Leitungen nicht wirtschaftlich.
Das Backhaul muss also im Zuge der LTE–Einführung neu entworfen werden. Dabei ist es wichtig, Zukunftssicherheit im Auge zu behalten, steht doch die nächste Generation LTE–Advanced bereits vor der Einführung. Schenkt man dem von Experten propagierten Moore's Law für Mobilfunkbandbreiten Glauben, so ist die teure Neuverlegung von Kabeln der wichtigste Faktor für die Zukunftssicherheit.
Aufgrund der rein paketorientierten Übertragungstechnik bietet sich für das LTE–Backhaul der ebenfalls IP–basierte Ethernet–Standard an, der mit Hilfe von Lichtwellenleitern realisiert wird. Die Firma Fujitsu stellt in der Studie Fujitsu Network Communications Inc.: 4G Impacts to Mobile Backhaul. PDF–Internetdokument, 2009 die These auf, dass die momentane Infrastruktur noch für die nächsten zehn bis fünfzehn Jahre eine wichtige Rolle für das LTE–Backhaul spielen wird.
Für den Generationenwechsel hin zu einem Ethernet–basierten Backhaul gibt es zwei Ansätze:
- der parallele Betrieb der Leitungen mit E1 und Ethernet–Standard,
- die sofortige Migration zu einem auf Ethernet basierenden Backhaul.
Ersteres hätte den Vorteil, dass die Netzbetreiber den Sprachverkehr weiterhin über die alten Leitungen laufen lassen und ausschließlich den bandbreitenintensiven Datenverkehr über die leistungsfähigeren Leitungen abwickeln könnten. Die zweite Möglichkeit wirft einige technische Probleme auf:
- Die vorher durch die langsamen E1-Standard–Leitungen transportierten Dienste müssten sofort auf ein paketbasiertes Verfahren umgestellt werden.
- Ethernet bietet (anders als der jetzige Standard) bisher keine End–to–End–Synchronisierung, was beim Funkzellenwechsel zu starken Verzögerungen bis hin zu Dienstunterbrechungen führen kann – also eine gewaltige Einbuße der Servicequalität. Im Konzept SyncE werden jedoch von der Fa. Cisco bereits Vorschläge unterbreitet, wie die Synchronisation realisiert werden könnte.
Für Ballungsgebiete wäre eine direkte Umstellung des Backhauls sicher lohnenswert, da für eine vergleichsweise hohe Zahl an neuen Nutzern nur relativ wenige neue Kabel verlegt werden müssten. Im ländlichen Raum ergäben sich aber durch größere Grabungsarbeiten schnell hohe Kosten. Dies ist aber genau der Bereich, der laut Vereinbarung zwischen den (deutschen) Mobilfunkbetreibern und der Bundesregierung als erstes abgedeckt werden muss. Hier müsste (und wird wohl) der meist vorhandene Richtfunk auf hohe Datentaten erweitert werden.
Aufgaben
Zusatzaufgaben:4.2 MIMO–Anwendungen bei LTE
Quellenverzeichnis
- ↑ Gutt, E.: LTE – eine neue Dimension mobiler Breitbandnutzung. PDF-Dokument im Internet, 2010.
- ↑ Meyer, M.: Siebenmeilenfunk. c't 2010, Heft 25, 2010.
- ↑ 3,0 3,1 Gessner, C.: UMTS Long Term Evolution (LTE): Technology Introduction. Rohde&Schwarz, 2008.