Technische Literatur

Publikation mit aktuellen Forschungs- und Entwicklungsberichten aus dem Bereich der Telekommunikation. Sie begleitet seit 61 Jahren die Aus- und Weiterbildung von Mitarbeitern der Deutschen Telekom, Branchenfirmen sowie Fachhochschulen. 
  

Inhaltsverzeichnisse:

Inhalt des 53. Jahrgangs (1999)

 

Inhalt des 54. Jahrgangs (2000)

 

Inhalt des 55. Jahrgangs (2001)

 

Inhalt des 56. Jahrgangs (2002)

  Inhalt des 57. Jahrgangs (2003)
  Inhalt des 58. Jahrgangs (2004)
  Inhalt des 59. Jahrgangs (2005)
  Inhalt des 60. Jahrgangs (2006)
 

Inhalt des 61. Jahrgangs (2007)

 

 

 

 

 

 

Inhalt des 53. Jahrgangs (1999)
 

Ausgabe

Thema

  1/99

Dr.-Phil. Eckart Hundt, Dipl.-Ing. Hans-Peter Huth, Dr.-Ing. André Kaup, Dr,.-Ing. Jürgen Pandel

Das MINT-Projekt - Multimediakommunikation auf integrierten Netzen und Terminals (Teil 2)

Dieses Vorwort beschreibt das vom Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie geförderte Verbundprojekt "Mulitmediakommunikation auf Integrierten Nezten und Terminals - MINT", das am 1.1.1996 begann und über drei Jahre lief. Neben deer Organisaiton des Projekts und den Hauptarbeitspunkten werden die wichtigsten Ergebnisse der gemeinsamen Forschung- und Entwicklungsarbeiten beschrieben. Darüber hinaus erfoglt eine Einfühurng in die nachfolgenden fünf Beiträge dieses Themenhefts, in denen die einzelenen Themen und die erreichten Ergebnisse im Detail beschrieben werden. Hierzu gehören "Inhouse-Netze", die "die digitale terrestrische Übertragung über DVB-T und DAB", "der MPEG-4 Standard und ausgewählte Applikationen", "die Mulitmediakommunikation über DECT, ISDN und LAN" und "Multimediaterminals inklusive Nutzeroberflächen".

  2/99

Dr.-Ing. Stephan Rupp

Intelligente Netze - Schlüsseltechnologie im Wettbewerb

Was wird eigentlich der Wettbewerb in der Telekommunikaiton bringen? Wird das Telefonieren nur billiger oder gibt es auch mals was Neuses? Wenn man den optimistischen Prognosen über das Wachstum der Teilnehmer in den Mobilnetzen und im Internet glaubt, wird es in Deutschland bald über 45 Mio. Telefonteilnehmer, 30 Mio. Mobilteilnehmer und 20 Mio. Benutzer von On-Line-Diensten geben. Werden die Angebote für Telefonanschlüsse, Mobiltelefone und On-Line-Dienste weiter isoliert bleiben? Oder wird sich ein Angebot an neuen Kommunikationslösungen etablieren, paketiert für den individuellen Bedarf im geschäftlichen Bereich bzw. im privaten Bereich? Welchen Einfluß wird diese Entwicklung auf die Technik der Netze haben? Man darf davon ausgehen, dass eine Schlüsseltechnologie in den kommenden Jahren hierfür die Intelligenten Nezte sind. Der Beitrag gibt einen Überblick über den Status und die künftige Entwicklung Intelligenter Netze. Es werden die grundsätzliche Architektur beschrieben, einige Telekommunikationsdienste aus Sicht des Endkunden sowie Infrastrukturdienste, wie z. B. die Portabiblität der Rufnummer.

  3/99

Dr. Frank Nack, Dipl.-Inform. Arnd Steinmetz

Der kommende Standard zur Beschreibung multimedialer Inhalte - MPEG-7

Der Beitrag gibt einen Überblick über die wesentlichen Aspekte des derzeitigen Status des in der Entwicklung befindlichen generischen ISO/IEC-Standards MPEG-7 zur Codierung der Beschreibung multimedialer Daten. Er beschreibt seine Einordnung in die Familie der übrigen MPEG-Standards sowie die Zeitplanung der Standardisierung. Ziele der Standardisierungsbemühungen sind die Inhaltsbeschreibung von Mulitmediadaten, die Flexibilisierung des Datenmanagements sowie die Globalisierung der Datenhaltung. Die möglichen Anwendungen liegen in allen Bereichen der Archivierung ebenso wie in interaktiven Diensten des Video on Demand, der Fernsehausstrahlung, Überwachungssystemen, Teleshopping, Videokonferenzen, Ausbildung, Film- und Fernsehproduktion und vielen anderen mehr. Der Beitrag gibt eine Einführung in die Anforderungen, die Konzepte und die Terminologie des Standards und nimmt eine Abgrenzung zu anderen, existierenden Ansätzen der Beschreibung multimedialer Daten vor. Alle Angaben beziehen sich auf den Stand Januar 1999.

  4/99

Dipl.-Ing. Harald Orlamünder

IP und ATM

Zwei Entwicklungen streiten um die Vorherrschaft in der Telekommuniaktion: ATM und das Internet mit seinem Internet Protokoll (IP). Aber muss es wirklich ein Gegeneinadnder sein? Viele unterschiedliche vorschläge liegen vor, die ganz grob nach ihrem Ursprung in "Internet-gebtriebene" - hauptsächlich im ATM-Forum spezifizierte - unterschieden werden können. Als wichtigster Vertreter der ersten Kategorie kann das "Multiprotocol Label Switching" (MPLS) gelten; die zweite Katagorie favorisiert hauptsächlich das "Multiprotocol over ATM" (MPOA). Gernerell ist das Ziel, eine Verknüpfung der ATM-Schicht mit der IP-Schicht herzustellen, um die ATM-Charakteristika, z. B. garantierte Qualität, auch dem IP zur Verfügung zu stellen. Dabei wird davon ausgegangen, dass ein Switching auf ATM-Schicht ein schnellers Weiterleiten der Pakete bewirkt. Dieser Beitrag zeigt die verschiedenen Möglichkeiten der Integration auf, wie sie in der internationalen Diskussion behandelt werden.

5,6/99

Dr.rer.nat. Armin Erhhardt, Dr.-Ing. Andreas Gladisch, Dr.-Ing. Norbert Hanik, Dr.-Ing. Bernhard Hein, Dr.rer.nat. Georg Lehr, Dr-Ing. Manfred Rocks

Wellenlängenmultiplextechnik in zukünftigen photonischen Netzen

Weltweit werden mit zunehmender Tendenz Glasfaserkabel installiert. Ausgehend  von etwa 43 Millionen Kabelkilometern in 1997 wird auch weiterhin von einer 20%igen jährlichen Wachstumsrate ausgegangen. Damit haben viele Netzbetreiber die besten Voraussetzungen, einen Migrationsweg von einfachen Punkt-zu-Punkt-Übertragungssystemen, bei denen die verfügbare Bandbreite der Faser nur zu einem Bruchteil ausgenutzt wird, hin zu komplexen photonischen Netzen zu beschreiten. Entscheidende Bedeutung für die zeitliche und inhaltliche Ausgestaltung eines solchen Weges hat u. a. der derzeitig zu beobachtende stark steigende Datenverkehr, aber auch der technische Fortschriftt und die Kosten für neue photonische Komponenten (spezielle Glasfasern, Polymerfaser, optischer Verstärker, Transponder, Fasergitter, Transceiver ...) und Multi-Gigabis/s-Systeme. Derzeitig ist weltweit ein unaufhaltsamer Trend zur Streckenausrüstung mit WDM-Systemen uzu verzeichnen; damit legen die Netzbetreiber die Basis für flexible, mit großen Kapazitätsreserven ausgestattete Teilnetze. Die Deutsche Telekom begann im Jahr 1997 mit der Technik-Erprobung auf WDM-Teststrecken, führte aber bereits ein Jahr später die WDM-Technik auf einigen ausgewählten Strecken im Netz ein.

7,8/99

Dipl.-Ing. Horst Hessenmüller, Dr.-Ing Kai Achtmann, Dr.-Ing. Joachim Charzinski, Dr.-ing. Matthias Frank, Dipl.-Ing. Johannes Faerber, Dipl.-Ing. Erwin Lehmann, Dipl.-Ing. Siegfried Paul, Dipl.-Ing. Uwe Quecke, Dipl.-Ing. Jens Tölle, Dipl.-Ing. Wolfgang Zirwas

Das europäische Projekt AMUSE - Der HFR-Feldversuch in München -

Im Sommer 1998 fand ein dreimonatiger Feldversuch in München statt, bei dem mehrere hundet realen Teilnehmern Multimedia-Dienste über eine hybride Glasfaser-Funk-Plattform (FR) angeboten wurden. Der Feldversuch fand im Rahmen des europäischen Projekts AMUSE statt.

  9/99

Dipl-Ing., Rüdiger Geib

Das Produkt ATM Beschreibung, Betrieb,Tarifierung

Dieses Dokument beschreibt ATM-Produkte des Jahres 1998. Es ist gedacht für alle, die sich mit ATM-Produkten befassen. ATM ist die erste Technik, mit der Kommunikationsprodukte unterschiedlichster Bandbreite und Qualitäten in einem Netz unterstützt werden können. Hier hat ATM mittlerweile längst Marktreife erreicht. In vielen Bereichen bietet ATM weiterhin Raum für neue Entwicklungen. Auch darauf soll hier eingegangen werden. Der thematische Schwerpunkt liegt jedoch bei der Darstellung von aktuellen ATM-Produkten. Im Mittelpunkt dieser Beschreibung stehen Mietleitungs-ähnliche ATM-Produklte. Auf Produkte, die vermittelte ATM-Verbindungen im Sinne des Telefonnetzes (kurzzeitig genutzte Verbindungen) verwenden, wird nur am Rande eingegangen. Die im folgenden gewählte Darstellungsweise verzichtet auf komplexe wissenschaftliche Zusammenhänge. Der Autor hofft, damit auch Kräften aus Betrieb und Vertrieb ATM-Produkte in angenehmer und informativer Art und Weise näherzubringen. Von den Anregungen zum Studium der zahlreichen Quellen können wiederum Leser aus allen Bereichen der Telekommunikation profitieren, da es sich oft um Verweise auf neue Entwicklungen handelt. 

10/99

Dipl.-Ing. Gerhard Wachholz, Dipl.-Ing. Michael Geipl, Dipl.-Imng. Lothar Grimm, Dipl.-Inf. Ralf Konrad, Dipl.-Ing. Veit Vogel

Das TINA-Konzept und seine Anwendung bei der Deutschen Telekom

Unter Mitwirkung der führenden Telekommunikations-Netzbetreiber und -Hersteller sowie von Herstellern aus dem IT-Bereich wurde seit 1993 die Telecommunications Information Networking Architecture (TINA) als zukunftsweisende Architekur für Telelkommunikationsnetze entwickelt. Zwischenzeitlich hat TINA einen Reifegrad erreicht, der die Umsetzung dieses Konzepts erlaubt. Der vorliegende Beitrag beschreibt zunächst am Beispiel der TINA-Diensteplattform und des Dienstes Elektronisches Auftragsmanagement (EAM) die Anwendung von TINA bei der Deutschen Telekom. Er gibt sodann - als Hintergrundinformation zu TINA - einen Einblick in die Grundbegriffe objektorientierter verteilter Softwaresysteme und in die Common Object Request Broker Architcture (CORBA). Es folgt eine Einführung in die grundsätzlichen Konzepte von TINA und deren Integration in bestehende Telekommunikationsnetze (ISDN, ATM-Netz, Internet, Mobilnetz).  

11/99

Dipl.-Ing. Werner Mayer

Die Vorbereitung von Vermittlungssystemen auf das Jahr 2000

Der Wechsel ins Jahr 2000 bringt im Bereich der Computer- und Informationsverarbeitungssysteme erhebliche Probleme mit der Verarbeitung der "OO" als zweistellige Darstellung der Jahreszahl 2000. Die Netzbetreiber von Telekommunikationsnetzen, die solche Systeme einsetzen, müssen Vorsorge für die Funktionalität ihrer Netze treffen. Die Deutsche Telekom hat im Rahmen ihres Jahr-2000-Projektes eine umfangreiche Inventarisierung aller Systeme durchgeführt und nichtkonforme Systeme ausgetauscht bzw. hochgerüstet. In den Testlaboren der T-Nova in Nürnberg, Berlin und Bremen wurden mit Hilfe von Test- und Refernezanlagen alle verfügbaren Netzelemente in Systemeinzeltests, Netztests und Inter-Carriertests auf Jahr-2000-Konformität überprüft. Obwohl kein Test eine Garantie für die Funktionalität darstellt, sind die Telekommunikationsnetze gut auf den Wechsel ins Jahr 2000 und das neue Millenium vorbereitet.

12/99

Dipl.-Ing. Heinz-Jürgen Bothe

Centrex - Ein innovatives Kommunikationsprodukt

Der Beitrag beschreibt das innovative Kommunikationsprodukt Centrex. Es leitet sich ab von "central office exchange service" und bezieht sich auf die erweiterte Nutzung der öffentlichen digitalen Vermittlungsknoten (DIV) zur Bereitstellung von Diensten für virtuelle Nebenstellenanlagen. Nachstehend werden beschrieben: die Funktionalitäten, die Leistungsmerkmale, der Vermittlungsplatz, die digitalen Vermittlungsknoten, sowohl für den internen als auch für den externen Verkehr.

Inhalt des 54. Jahrgangs (2000)
 

Heft 1 - 3

Prof. Dr. rer. nat. H. Hillmer

Der Transistor – die Entwicklung von den Anfängen bis zu den frühen integrierten    Schaltungen

Inhaltsangabe: Die vorliegende Abhandlung beschreibt die Geschichte der modernen Halbleiter-Mikro­elektronik, insbesondere des Transistors, von den Anfängen bis zu den ersten Schritten der elektronischen Integration. Den Grundstein zum Erfolg der modernen Computertechnik, der Daten – und Telekommunikation legten die Erfindung und die technologische Realisierung einer zentralen Bauelemente-Komponente: des Transistors. In der Literatur wird als Beginn dieser Entwicklung ein Ereignis angesehen, das vor etwas mehr als fünfzig Jahren ablief. Am 16. Dezember 1947 gipfelten zahlreiche Vorarbeiten von Walter Brattain, John Bardeen und Weilliam Shockley (Bell Laboratories, USA) in der ersten experimentellen Demonstration eines Verstärkungsseffektes auf der Basis des Germanium-Spitzentransistors. Die immense Tragweite dieser Arbeiten konnte damals weder von den unmittelbar beteiligten Wissenschaftlern noch dem Nobelpreis Komitee, welches diese Arbeiten 1956 für würdig erachtete, sie mit der höchsten wissenschaftlichen Auszeichnung zu ehren, vorhergesehen werden.

Heft 4:

Dipl.-Wirtsch.-Ing. Otto Baireuther, Dipl.-Ing. Klaus Jürgen Czimeczik

Netzsicherheit als permanente Aufgabe der Netzbetreiber

Inhaltsangabe: Sicherheitsmerkmale in der Telekommunikation spielen innerhalb der Öffentlichkeit eine immer größere Rolle. Insbesondere in einer strengen Wettbewerbssituation wird Sicherheit als Teil der Qualitätsmerk­male von Telekommunikationsprodukten ein großer Stellenwert beigemessen. Im Beitrag wird gezeigt, dass Sicherheitsarbeit einen Anteil an allen anderen Prozessen im Unternehmen hat und ein Produkt von dessen Design-Phase, über die technische Realisierung bis hin zur Abrechnung und zum Ende des Kunden­verhältnisses begleitet. Schwerpunkt der Betrachtung ist dabei die Netzsicherheit, d. h. die Sicherheit der Produktionsinfra­struktur des Netzbetreibers. Die Umsetzung der in diesem Prozess entstandenen Sicherheitsvorgaben, -regelun­gen und Systemänderungen wird durch einen eigenständigen Auditierungsprozess überwacht und verifiziert. Ein­ge­leitet wird der Artikel mit der Aufzählung von Risikobereichen in verschiedenen Abschnitten des Netzes und Abwehrmaßnahmen, die von großen Netzbetreibern wie der Deutschen Telekom AG, dagegen eingesetzt werden..

Heft 5

Dipl.-In.g Rüdiger Sellin

Neue mobile Perspektiven mit WAP (Wireless Application Protocol) und GPRS (General Packet Radion Service)

Inhaltsangabe: Zwei Macrotrends beherrschen die Gegenwart der Telekommunikation: der Trend zur mobilen Kommunikation sowie das beinahe grenzenlose Wachstum des Internets. Bereits heute nutzen 78 % aller Mobilfunkteilnehmer zusätzlich das Internet als Kommunikationsmedium, etwa um E-Mails zu versenden oder um aktuelle Informationen abzurufen. Nun verschmelzen die Stärken beider Welten durch den mobilen Internet­zugang, der heute noch schmalbandig erfolgt, künftig aber breitbandig möglich sein wird. Das sogenannte Wireless Application Protocol (WAP) erlaubt den mobilen Zugriff auf eine ganze Palette von Anwendungen. Offenbar sind nicht nur die Hersteller von WAP-fähigen Endgeräten, sondern auch die Lieferanten von WAP-Servern von der Nachfrage überrascht, was sich bis vor kurzem noch in Produktionsrückständen und ent­sprechend langen Lieferfristen zeigte. Fast könnte man von einer „Goldgräberstimmung“ sprechen, denn auch jene IT Service Provider, die WAP-Portals beim Kunden aufstellen und konfigurieren, melden eine große Nachfrage mit entsprechend hohen Renditen. Mittlerweile sind bereits eine ganze Reihe von WAP-Anwendun­gen am Markt vertreten, und auch die ersten Endgeräte der neuesten Generation finden langsam den Weg in die Regale der Fachgeschäfte.

Darüber hinaus sorgt ein neuer Trägerdienst für höhere Geschwindigkeiten und neue Möglichkeiten der mobilen Datenübermittlung: GPRS (General Packet Radio Service). GPRS ist eine Ergänzung zu GSM (Global System for Mobile Communications) und entspricht aufgrund seiner Charakteristik (Paket- statt Leitungsvermittlung) viel eher den Bedürfnissen der mobilen Datenkommunikation als die heutigen Datenübertragungsdienste im GSM. Der Beitrag gibt einen Überblick über die neuen Dienste und Endgeräte im Bereich WAP und die technischen Möglichkeiten von GPRS

Heft 6

R. Müller, Dipl.-Ing. Peter Sturm

Vom Breitbandverteilnetz zum Breitbandkommunikaitonsnetz

Inhaltsangabe:Die heutigen Breitbandverteilnetze wurden mit einer auf Kupfer-Koaxial-Technik basierenden Technik mit einem Frequenzbereich bis 450 MHz ausgebaut. Zum Upgrade der 450-MHz-Technik wird die nachfolgend beschriebene Hybrid-Fiber-Coax-Technik mit einem Frequenzbereich bis 862 MHz und breitbandigem Rückkanal eingesetzt. Neben den reinen Verteildiensten ermöglicht diese Technologie das Angebot neuer interaktiver Produkte, wie Video on Demand, Homeshopping, Internetzugang, IP-Telefonie, etc.In dem Beitrag werden neben einem allgemeinen Systemüberblick hauptsächlich die Einsatz- und Dimensionierungsregeln behandelt, wie sie auch von den Autoren für die Kabel Deutschland GmbH (KDG) erstellt wurden. Weitere technische Details sind Bestandteile der Technischen Spezifikationen (TS) und können zur Wahrung der Urheber- und Schutzrechte nicht veröffentlicht werden. 

Heft 7/8

Dipl.-Inform. Carla Capellmann, Dipl.-Ing. Michael Geipl, Dipl.-Ing. Christof Lorang

Mit Parlay und JAIN in die Zukunft des Intelligenten Netzes

Inhaltsangabe: 1998 wurden zwei Initiativen gegründet, die beide im Kontext des Intelligenten Netzes einzuordnen sind: Parlay und JAIN. Beiden gemeinsam ist das Ziel, die Entwicklung von Diensten über verschiedene Netze (PSTN, Mobilnetz, IP-basierte Netze) zu vereinfachen sowie die Dienstentwicklung auch Dritt-Dienstanbietern zu ermöglichen. Hierzu wird in beiden Initiativen an der Spezifikation einer offenen Programmierschnittstelle (API) zu verschiedenen Kommunikationsnetzen gearbeitet. Der vorliegende Beitrag gibt einen Überblick über Motivation und Ziele, Organisation, Architektur und Zeitplan beider Initiativen.

Heft 9/10:

Dipl.-Ing Rüdiger Sellin

Neue mobile Perspektiven mit WAP (Wireless Application Protocol) und GPRS (General Packet Radion Service)

Inhaltsangabe:Im Marktsegment der Unternehmensnetze (Enterprise Networks) herrscht eine gewisse Verun­sicherung. Einerseits sorgte die europaweite Liberalisierung der Telekommunikation für fallende Preise bei den Telefongesprächen. Andererseits ist das Wachstum des Internetverkehrs immer noch gewaltig, so dass in den meisten Telekommunikationsnetzen bereits heute mehr Daten als Sprache übertragen werden. Hier hat vor allem das Protokoll IP (Internet Protocol) als universelles Medium zum Transport fast aller Datentypen an Popularität gewonnen. Und beinahe wöchentlich kommen neue IP-Anwendungen hinzu und beschleunigen den Trend zur sogenannten IP-Konvergenz. So ist Voice over IP (VoIP) nüchtern betrachtet auch nichts anderes als eine weitere IP-Anwendung. Und trotz dieser Tatsache (oder gerade deswegen) herrscht bei VoIP eine Euphorie, die aber bisweilen auch von einer gewissen Ernüchterung begleitet ist. Bis zum hochqualitativen und flächen­deckenden VoIP-Dienst in öffentlich zugänglichen IP-Netzen wird noch einige Zeit verstreichen.Hingegen wird VoIP auch wirtschaftlich interessant, wenn ein Unternehmen ohnehin dem Trend zur IP-Konvergenz folgen will. Vor diesem Hintergrund ist VoIP heute ein ernst zu nehmendes Thema bei der Ausgestaltung von Enterprise Networks, und so überrascht es auch nicht, dass die meisten seriösen Angebote fast ausnahmslos in diesem Bereich liegen, was sie auch leichter vergleichbar macht. Die Frage ist nur, wie ein Unternehmen mit mehreren Niederlassungen und vorhandener Vernetzung in Richtung VoIP migrieren soll. Im vorliegenden Beitrag werden diese Fragen behandelt.

Heft 11/12

Dr.-Ing. Ralf-Peter Braun

Optical Metro Networks

Inhaltsangabe:Der derzeitige Wandel von der Industrie- zur Informationsgesellschaft geht mit einem derart hohen Bedarf an Übertragungskapazität einher, der noch vor einigen Jahren undenkbar gewesen war. So benötigt die wachsende Konvergenz der Märkte für Telekommunikation und Informationstechnologie sowie Medien, Erlebniswelt und telematische Sicherheit, kurz TIMES, immer größere Übertragungskapazitäten, insbesondere auch in den Metro/Regionalnetzen.Im vorliegenden Beitrag wird zunächst ein Überblick über den derzeitigen Stand der Metronetze gegeben, einschließlich der Entwicklung des Verkehrs, der Technik, der Netze und des Marktes. Anschließend wird auf die vielfältigen Anforderungen für die Metro/Regionalnetze eingegangen. Insbe-sondere stehen die Vielfalt der Datenformate und Client-Signale im Vordergrund, die in eine transparente Metro-Transportnetzplattform integriert werden müssen. Weitere Anforderungen ergeben sich durch die effiziente Nutzung der Übertragungsbandbreite sowie durch erweiterte Verkehrsstrukturen und Netztopologien. Die einzige Möglichkeit, die vielfältigen Anforderungen erfüllen zu können, besteht im Einsatz der transparenten optischen WDM-Technik. Das Management und die funktionale Architektur von WDM-Metronetzen sind wichtig für die Netzkonvergenz der verschiedenen Bereiche und zur Bereitstellung der Managementfunktionen, z. B. eine schnelle Bereitstellung der Dienste und eine gesicherte Übertragung. Das non-intrusive Monitoring für transparente Metronetze wird untersucht, um die Übertragungsqualität der vielfältigen Formate zu gewährleisten. Nach einer Zusammenfassung der spezifischen Metrosituation werden abschließend einige europäische Projekte mit einem Bezug zu Metronetzen kurz beschrieben.

Inhalt des 55. Jahrgangs (2001)
 

Heft 1

Dipl.-Ing. Heinz Koch, Dipl.-Math Laura Liess, Dipl.-Ing. Jens Gundermann (T-Nova, Deutsche Telekom Innovationsgesellschaft mbH, Technologiezentrum)

Ist Voice over IP reif für Carriernetze? 

Inhaltsangabe: Die ersten Voice over IP (VoIP)-Standards und -Produkte sind jetzt schon ein paar Jahre alt. In dieser Zeit haben klassische Netzbetreiber und ISPs verschiedene VoIP-Piloten aufgesetzt. Trotzdem ist der damals vorausgesagte rasante Massenerfolg ausgeblieben. Der Grund ist, dass die ersten VoIP-Lösungen, von den Herstellern als eine neue, billigere Technik für einen alten Dienst entwickelt, weder die Bedürfnisse der Netzbetreiber noch die der Endkunden berücksichtigten. Inzwischen wurden für VoIP neue technische Ansätze entwickelt, die einen hochwertigen Voice-Dienst und neue, integrierte Voice/Internet-Dienste ermöglichen. Der Beitrag gibt einen Überblick über den gegenwärtigen Entwicklungsstand und die Zukunftschancen der VoIP-Technologie in Carriernetzen. Dabei werden folgende Themen dargestellt: - Nutzen und Motivation für VoIP;- Anforderungen der Carrier an die VoIP Technologie (Skalierbarkeit, QoS, Management, Verfügbarkeit, Sicherheit);- Standardisierungsaktivitäten und Protokolle (RTP, H.323, SIP, BICC, MGCP und MeGaCo);- Dienste und Dienstegenerierung mit VoIP;- Einige Netzszenarien;Empfehlungen zur Einführung von VoIP.. 

Heft 2

Dr.-Ing. Gottfried Luderer (Arizona State University Tempe, Arizona, USA)

Zur Ideengeschichte der Software-Architektur

Inhaltsangabe: In diesem Beitrag wird der Versuch unternommen, einige übergreifende Begriffe in der Entwicklung der Software-Architektur zu finden und zu definieren. Der Ansatz ist von der Ideengeschichte in der Geschichtswissenschaft inspiriert. Zunächst wird der Begriff der Software-Architektur und seine Bedeutung in der Fernmeldetechnik untersucht. Dann folgt eine Betrachtung des Betriebssystems als Paradigma für ein verallgemeinertes Schichtenmodell. Anhand der historischen Entwicklung der Betriebssysteme wird gezeigt, wie man versucht hat, verschiedenartige Untersysteme unter nur einem Allgemeinbegriff zu behandeln, um damit eine Vereinfachung zu erzielen. Vereinfachung führt nicht nur zur Erhöhung der Verständlichkeit, sondern auch zur Qualitätsverbesserung. Formalisierung ist eine weitere Methode zu den gleichen Zwecken. Auf die formale Definition des Systembegriffes und des Software-Lebenszyklus folgt dann die Einführung des Begriffes Bindungszeitpunkt, mit einigen Beispielen aus verschiedenen Bereichen: Hardware-Architektur, Java, Betriebssysteme und CORBA. Dann wird der Begriff des Primärfokus diskutiert, das heißt, in welchem Maße die vorherrschende Entwurfspriorität die Architektur beeinflusst. Selbstbeschränkung als Methodik wird als nächstes diskutiert. Dann folgt eine Betrachtung über verteilte Systeme, die schließlich zur Objekt-Orientierung führt. Zum Schluss folgen mehrere Betrachtungen über Netzwerke, zunächst über Netzwerk-Intelligenz und Kommunikationsmoden an sich, dann über Konfigurierung und Trends, diese zu automatisieren. Der Essay schließt mit der Gegenüberstellung von verbindungsloser und verbindungsorientierter Kommunikation, der ein kultureller Aspekt im Sinne der Ideengeschichte unterlegt wird.

Heft 3

Dipl.-Phys. Oliver Stahlhut (Universität Hannover, Institut f. Theoretische Nachrichtentechnik und Informationsverarbeitung)

Bericht über eine Internationale Konferenz "Zukunft der Medien"

Inhaltsangabe: Am 8. und 9. Mai fand in Florenz eine Konferenz zum Thema "Zukunft der Medien" statt. Gastgeber und Organisator war die AEI (Associazione Elettrotecnica ed Elettronica Italiana), die im Namen von EUREL (Convention of National Societies of Electrical Engineers of Europe) operierte. Die Beiträge befassten sich neben den zukünftigen technischen Entwicklungen im Bereich der Telekommunikation auch intensiv mit der gegenwärtigen Marktsituation, den Anforderungen und Bedürfnissen potentieller Endanwender, Mediengestalter und -produzenten und insbesondere mit dem Schutz der Urheberrechte im allgemeinen. In diesem Beitrag soll ein Überblick über die Trends der Technik, Marktprognosen und Zukunftsperspektiven zu einigen ausgewählten Bereichen der Telekommunikation gegeben werden.

Heft 4/5

Prof. Dr. sc. phys. Dr.-Ing. Herbert F. Mataré

Erlebnisse eines deutschen Physikers und Ingenieurs von 1912 bis zum Ende des Jahrhunderts

Inhaltsangabe: Schilderung der Lebensumstände und des Studien- und Werdeganges eines Physikers und Ingenieurs, der zwei Weltkriege erlebte und während des zweiten Weltkrieges an der Radarentwicklung beteiligt war, was schließlich zur Halbleitertechnik und zum Transistor führte.Dieser Lebenslauf beleuchtet die Entwicklung der heute stark verkoppelten Hochtechnologien auf beiden Seiten des Atlantischen Ozeans.

Heft 6

Assessor Michael Reifenberg, Ing. Norbert Hahn (Firma Lucent Technologies

Optische Netze für die Telekommunikation der Zukunft - Höherer Bandbreitenbedarf erfordert neue Kommunikationsinfrastruktur

Inhaltsangabe: Information und Kommunikation gehören zu den elementaren Voraussetzungen der menschlichen Existenz. Diese Feststellung gewinnt dadurch an Bedeutung, dass der Bestand menschlichen Wissens exponentiell wächst und dass die rasche Umsetzung dieses Wissens zu einem entscheidenden Erfolgsparameter geworden ist. Entsprechend den sich wandelnden Bedürfnissen der Wissens- und Informationsgesellschaft haben sich auch die Anforderungen an die Kommunikationsnetze verändert. Insbesondere um den steigenden Bedarf an Übertragungskapazität in ökonomischer Art und Weise bereitstellen zu können, zeichnet sich eine Entwicklung von elektronischen zu rein optischen Netzen ab. Der folgende Beitrag beschreibt aus dem Blickwinkel eines Netzausrüsters die Entwicklungen und Tendenzen im Bereich von Hochgeschwindigkeitskommunikationsnetzen. Die Schwerpunkte sind die Entwicklung von der Elektronik zur Optik, neue Halbleitertechnologien, optimierte Nutzung von Glasfasern, neue Laser- und Verstärkertechnologien für optische Netze, die Mehrfachnutzung des Übertragungsweges, die Steuerung in optischen Transportnetzen sowie ein Ausblick auf mögliche zukünftige Netzarchitekturen.

Heft 7

Dipl.-Ing. Heinz Koch, Dipl.-Math Laura Liess, Dipl.-Ing. Jens Gundermann (T-Nova, Deutsche Telekom Innovationsgesellschaft mbH, Technologiezentrum)

Neue Kommunikationsstrukturen - Der Durchbruch ist geschafft 

Inhaltsangabe: Nachdem Voice over IP schon seit einigen Jahren heftig diskutiert wird, zeichnet sich nun ein allgemeiner Konsens unter Standardisierungsgremien, Carriern, Internet Service Providern (SIP), Anwendungsentwicklern, Herstellern und potenziellen Nutzern ab, neue Internet-Protokolle und -Technologien einzusetzen. In diesem Beitrag werden die Vorteile neuer Kommunikationsstrukturen erörtert. Es wird hinterfragt wo wir heute auf diesem Gebiet stehen und wer und was die treibenden Kräfte sind. Dabei wird auf sich abzeichnende Trends und neue Anwendungen eingegangen.Ein weiterer Schwerpunkt ist eine Beschreibung der technischen Basis für die Applikationen von morgen. Hierbei wird insbesondere auf XML&Co und die Internet-Multimedia-Conferencing-Architektur und -Protokolle eingegangen.Last but not least werden derzeit verfügbare SIP-Produkte und Tools vorgestellt.

Heft 8

Dr.-Ing. Oliver Schreer, Dipl.-Ing Peter Kauff (Heinrich-Hertz-Institut, Berlin)

Immersive 3D-Videokonferenz

Inhaltsangabe: Dieser Beitrag beschreibt ein Konzept für ein Videokonferenzsystem, das für die Teilnehmer ein besonders hohes Maß an Tele-Präsenz vermittelt. Nach einer Darstellung des grundlegenden Konzeptes wird die technische Realisierung erläutert. Das System basiert auf dem Prinzip des Shared Virtual Table, mit dem es möglich ist, realistische 3D-Videoobjekte der Konferenzteilnehmer in eine gemeinsame virtuelle Umgebung zu integrieren, um so eine möglichst natürliche Reproduktion einer realen Konferenzsituation zu erreichen.

Heft 9/10

Dipl.-Wirt.-Ing. Andras Hegers, Dipl.-Ing. Steffen Bürgel, Dipl.-Ing. Frank Eifler, Dipl.-Ing. Klaus Möller, Dipl.-Ing. MSc. Jens Müller, Dipl.-Ing. Frank Zecha (Market Development OPTical Internet, Noprtel Networks GmbH & Co. KG, Frankfurt/Main)

Applikationen und Dienste in Metronetzen

Inhaltsangabe: Durch den enorm gestiegenen Bedarf an Übertragungsbandbreiten und den vieldiskutierten "Flaschenhals" der letzten Meile rückt die Wichtigkeit DWDM-basierender Metronetze immer mehr in den Vordergrund. In diesem Beitrag wird, nach einigen grundsätzlichen Betrachtungen und einem kurzen Überblick über Systemtechnik und mögliche Netztopologien, auf Dienste und Anwendungen eingegangen, die mittels Metronetzen entweder effizienter gestaltet werden können oder überhaupt erst möglich sind. Schwerpunkte sind Anwendungen schneller Ethernetverbindungen, Beispiele aus dem Speicherbereich im Großrechnerumfeld und Videoapplikationen.In einem weiteren Teil dieses Beitrags werden Technologien beschrieben, die in der nahen Zukunft Metronetze weiter revolutionieren werden. Im datenorientierten Umfeld wird die Resilient Packet Ring (RPR)-Technologie auch nicht-DWDM-basierten Netzen zu höherer Effizienz verhelfen. ASTN ist die Basis für dynamische optische Netze der Zukunft, mit der Möglichkeit, durch die anwendungsgesteuerte Bereitstellung großer Übertragungskapazitäten Netze effizienter zu nutzen und Kunden mit einem hohen Bandbreitenbedarf neue Dienste zur Verfügung zu stellen. Abschließend werden anhand der MetroCor-Faser von Corning beispielhaft die Eigenschaften und Einsatzmöglichkeiten eines Lichtwellenleiters beschrieben, der eigens für den Einsatz im Metroumfeld entwickelt und optimiert wurde.

Heft 11/12

Dr. Peter Conradi, Dipl.-Ing. Horst Neumann, Dr.-Ing. Kai Hahn (Institut f. Rechnerstrukturen, Universität Siegen)

Digitale Satellitenkommunikation

Inhaltsangabe: Dieser Artikel präsentiert einen Überblick zur Technik der digitalen Satellitenkommunikation. Die Satellitenkommunikation wird hierbei aus den Blickwinkeln der modernen internetgestützten Breitband-Informationstechnik für Endnutzer, der Modulations- und Codierungstechnik und der kommunizierenden Endgeräte beschrieben. Anliegen der Autoren ist es, Techniken vorzustellen, mit denen die zur Verfügung stehende Kanalkapazität des Satelliten möglichst effizient genutzt werden kann. Ein wesentliches Augenmerk wird hierbei auf die Multicast-Technik gelegt.Dr.-Ing. Oksana N. Romashkova, Hochschuldozentin an der Staatlichen Universität für Verkehrswesen MIIT in MoskauEin fraktales Belastungsmodell für drahtlose NachrichtennetzeInhaltsangabe: Information und Kommunikation gehören zu den elementaren Voraussetzungen der menschlichen Existenz und entwickeln sich in letzter Zeit sprunghaft. Nach wie vor werden zu deren Realisierung Nachrichtennetze genutzt. Schrittweise verdrängen drahtlose, funkbasierte Lösungen die traditionellen drahtgebundenen Systeme. Der Auf- und Ausbau beider Wege ist wichtig und erfordert Optimierungen. Es wird ein Weg gezeigt, wie man dabei die Verteilung der Belastung in einem zu bedienenden Territorium, speziell in dicht besiedelten Gebieten, besser als bisher berücksichtigen kann. 

Inhalt des 56. Jahrgangs (2002)

Heft 1

Dipl.-Ing. Martin Piastowski (Institut für Nachrichtentechnik, TU Braunschweig

HFC-Netze: Verkehrs- und Performanceanalyse

Inhaltsangabe: Mit der Erweiterung der bestehenden Kabelfernsehnetze zu hybriden Glasfaser-/Koax-Netzen entsteht eine sehr leistungsfähige Alternative zu den bestehenden Zugangsnetzen. In diesem Beitrag wird beschrieben, welche Kommunikationsprotokolle notwendig sind, um Daten effizient über diese Netze zu transportieren. Danach wird am Beispiel von HTTP-Verkehr analysiert, welche Übertragungsgeschwindigkeiten sich mit diesen Netzen erreichen lassen. Dazu wird aus Messungen in einem realen Netz ein Verkehrsmodell abgeleitet. Mit diesem Modell wird anhand einer Protokollsimulation untersucht, welche Parameter auf der MAC-, Transport- und Anwendungsschicht die Leistungsfähigkeit beeinflussen. Als Ergebnis zeigt sich, dass auf dem "Shared Medium" Kabelfernsehnetz Downstreamdatenraten von 900 kbit/s je Nutzer realistisch sind, wenn 200 Teilnehmer an einen Upstreamkanal angeschlossen sind.

   

Heft 2/3

Dipl.-Ing. Lothar Grimm, Dipl.-Ing. Gerald Lorang, Dipl.-Inf. Thomas Unterschütz (T-Systems GmbH)

Standardisierung der Deutschen Telekom bei der OMG

Inhaltsangabe: In den vergangenen 10 Jahren hat sich der Trend zu verteilter, objektorientierter Middleware durchgesetzt. Diese Middleware beinhaltet eine Software-Schicht, die den Anwendungsentwickler von der Behandlung von Verteilungs- und Transportfunktionen entbindet. Eines der wichtigen Standardisierungsgremien auf diesem Gebiet ist die Object Management Group (OMG), die u. a. die CORBA- und UML-Standards entwickelt hat. In diesem Beitrag werden zunächst die Organisation und der Standardisierungsprozess der OMG vorgestellt, die wichtigsten OMG-Standards CORBA, Unified Modelling Language (UML), CORBA Component Model (CCM) und Model Driven Architecture (MDA) beschrieben, die Standardisierungsaktivitäten der Deutschen Telekom bei der OMG vorgestellt und der bei T-Systems eingesetzte Open Source Object Request Broker (ORB) MICO näher vorgestellt.

Heft 4-5

Dipl.-Ing. Roland Schott (T-Systems Technologiezentrum Darmstadt)

Quality of Service in IP- und MPLS-Netzen

Inhaltsangabe: Der Beitrag gibt einen Überblick über Quality of Service (QoS) in IP- uind MPLS-Netzen – der Schwerpunkt liegt auf IP-Netzen mit zusätzlicher MPLS-Funktionalität. Der Aspekt von QoS gewinnt zunehmend an Bedeutung und wurde im bisherigen Internet oder in IP-basierten Netzen bei den meisten Internet Service Providern (ISPn) außer Acht gelassen. Damit zukünftige Anwendungen und Dienste wie Voice over IP (VOIP) mit entsprechender Qualität übertragen werden können, sind QoS-Mechnismen auch in IP- bzw. MPLS-Netzen erforderlich. Außerdem wird auf die Grundlagen von QoS in IP-Netzen eingeganen und ein Überblick gegeben, welche Ansätze es hier gibt. Dabei handelt es sich um Ansätze in Bezug auf absolute und relative QoS in IP-Netzen. Es werden einzelne QoS-Mechanismen und deren Ausprägungen beschrieben. Im einem weiteren Teil des Beitrags wrid auf MPLS eingegangen und beschrieben, wie bei MPLS-basierten Netzen QoS realisiert werden kann undwie dies im Zusammenhang mit QoS-Funktionen in gewöhnlichen IP-Netzen steht. Abschließend werden QoS-Mechanismen in LANs vorgestellt und ein Ausblick zu QoS in IP- und MPLS-Netzen gegeben.

Heft 6

Dipl.-Ing. Rüdiger Sellin, Freiberuflicher Trainer & Redakteur, Utzenstorf (Bern/Schweiz)

Innovationen rund um den Mobilfunk

Inhaltsangabe: Die breitbandige mobile Übertragungstechnik nach dem UMTS-Standard (Universal Mobile Telekcommunication System) lässt noch auf sich warten. Eine größere Menge entsprechender Endgeräte aus den Händen der Marktführer steht wohl erst 2003 zur Verfügung. Und die sogenannte „Killerapplikation, ein äußerst populärer Dienst mit hervorragenden Perspektiven , ist auch noch nicht überzeugend definiert. Gleichwohl wird bereits heute die Aufrüstung der bestehenden GSM-Mobilfunknetze mit innovativer Technik zum Testfall für UMTS. Dies betrifft zum Beispiel die Erweiterung der Endgeräte mit Wireless Java, welches ganz neue Dienste wie den Multimedia Messaging Service (MMS) erst ermöglicht. Dazu soll das neue Wireless Local Area Network (WLAN) einen Vorgeschmack auf breitbandige Dienste wie bei UMTS geben. Schließlich sorgt die noch junge Bluetooth-Technik für weniger Kabel im Büro und einen deutlich höheren Komfort bei Businessanwendungen. Das Jahr 2002 steht daher ganz im Zeichen dieser drei Innovationen, die in diesem Beitrag vorgestellt werden soll..

Heft 7-8

Dr. Tomas Bohinc (T-Systems, Human Ressources, Jörgen Erichsen (Deutsche Telekom AG, Zentralbereich Innovationsmanagement

Innovationsmanagement – Wie aus Ideen Produkte werden

Inhaltsangabe: Von 100 Ideen sind 50 erfolgversprechend, und von diesen haben dann nur 10 auf dem Markt auch Erfolg. Nur dann spricht man von Innovationen, wenn sie ein technisches, organisatorisches oder soziales Problem auf eine völlig neue Art und Weise lösen und sich im Markt bewährt haben. Sie sind die Voraussetzung dafür, dass ein Unternehmen auf dem Markt besteht und sich entwickelt. In den immer schneller werdenden Märkten kommt es vor allem darauf an, gezielt Ideen zu entwickeln, diese sehr frühzeitig auf ihre Marktchancen hin zu bewerten und dann möglichst schnell auf den Markt zu bringen. Dies ist längst nicht mehr die Tätigkeit einzelner Innovatoren oder von Forschungs- und Entwicklungsabteilungen. Innovationsmanagement muss, um erfolgreich zu sein, alle Bereiche und Mitarbeiter des Unternehmens einschließen. Das Innovationsmanagement umfasst alles, was sich mit dem Wesen von Innovation, der Ideenentstehung, Bewertung und Umsetzung befasst. Es beschreibt Prozesse, Methoden und Werkzeuge, mit denen die Generierung von Ideen und deren Umsetzung gemanagt werden.

Heft 9-10

Prof. Dr.sc.Phys. Dr.-Ing. Herbert F. Mataré

Von der Radartechnik zur modernen Kommunikationstechnik (Einige persönliche Reminiszenzen als Beitrag zur Technikgeschichte

Inhaltsangabe: Der Beitrag beinhaltet eine kurze Darstellung der technischen Entwicklung der Halbleiter-Physik und –Technik, wie diese sich aus der im letzten Weltkrieg entwickelten Radartechnik herauskristallisierte. Der Autor war sowohl in der deutschen Radar-Empfängertechnik bei Telefunken während des Krieges als auch nach dem Krieg in Frankreich und in den USA in einer Reihe bekannter Laboratorien und Firmen sowie an Universitäten und als Industrieberater für Festkörper-Elektronik tätig..

Heft 11-12

Dr. Tomas Bohinc (T-Systems, Human Ressources

Es gibt mehr Chaos als man denkt – Eine Einführung in die Chaostheorie

Inhaltsangabe: Im umgangssprachlichen Sinn bezeichnet man als chaotisch etwas, was völlig ungeordnet und verworren ist. Viele Phänomene in unserer Welt haben auf den ersten Blick etwas chaotisches. Turbulenzen, Klima- oder Wirtschaftssysteme sind dafür ein Beispiel. Die Chaostheorie beschäftigt sich damit, diese scheinbar verworrenen Erscheinungen zu erklären. Das Überraschende dabei ist, dass diese auf den ersten Blick chaotischen Systeme eine hohen Grad von Ordnung aufweisen. Diese kann jedoch nicht mit den deterministischen Gesetzen der Naturwissenschaft, wie z. B. der Newton’schen Mechanik, erklärt werden. Intensive For­schungen auf dem Gebiet der Chaostheorie begannen Anfang der sechziger Jahre, als der amerikanische Meteorologe E. Lorenz bei der Berechnung von Wetterprognosen entdeckte, dass schon kleine Veränderungen in den Ausgangsbedingungen eine ganz andere Wetterprognose ergeben können. Diese als Schmetterlingseffekt berühmt gewordene Erkenntnis machte deutlich, dass Zustände von an sich nach physikalischen Gesetzen berechenbaren Systemen nicht vorhersagbar sind. Damit hatte sich in der Naturwissenschaft das Paradigma des Deterministischen Chaos etabliert. Dieses sagt aus, dass, auch wenn die Gesetze und Kräfte in einem System bekannt sind, dessen Entwicklung nicht vorhergesagt werden kann. Und dies ist keine Ausnahme, sondern trifft auf die meisten Systeme in Biologie, Astronomie, Ökonomie oder Medizin zu. Ebenfalls in den sechziger Jahren entwickelte Benoit Mandelbrot, ein französischer Mathematiker, die fraktale Geometrie, mit deren Hilfe natürliche Gebilde, wie Bäume, Sträucher, Berge oder Wolken, sehr gut beschrieben werden können. Computergrafiken von Fraktalen machten die Chaostheorie in den 80er Jahren in weiten Kreisen populär.Ein weiterer Baustein in der Erforschung chaotischer Systeme war die Entdeckung, dass solche Systeme die Fähigkeit besitzen, sich selbst zu organisieren. Humberto Maturana und Franzisco Valera entwickelten hierzu die Theorie der autopoietischen  Systeme, die bis hin zur Theorie der sozialen Systeme (die von Niklas Luhmann, einem der führenden deutschen Sozialwissenschaftler entwickelt wurde) ihre Bedeutung hat. In der Chaostheorie fließen Erkenntnisse der unterschiedlichen Disziplinen zusammen. Sie ist ein interdisziplinäres Erklärungsmodell für viele Phänomene in der Natur und der Gesellschaft.

Inhalt des 57. Jahrgangs (2003)
 

Heft 1-2

Prof. A. Pakstas, London Metropolitan University, Department of Computing

Intranets and Extranets (Seiten 1 – 21) in englischer Sprache

Inhaltsangabe: Intranets and extranets are types of networks which are based on the internet protocols (TCP/IP, HTTP etc.) The article describes features of these networks and compares them with intergroupware. Examples of extranet applications are given. Open application standards are described in more detail. Network security issues are considered and a role of scurity policy is emphasized. Various schemes of applying encryption are described. Special attention is devoted to the secure Virtual Private Networks (VPNs) and use of tunnels for enabling VPNs. Cost issues related to running of the Web-site and various methods of remote access (ISDN, mobile) are considered. Example of the estimate for the cost of down time is given. Intranet and extranet trends are presented.

Dipl.-Ing. Rüdiger Sellin, Freiberuflicher Trainer & Redakteur, Utzenstorf (Bern/Schweiz)

Innovative Ethernet-Standards aus dem IEEE verbessern die Unternehmenskommunikation
(Seiten 23 – 64)

Kaum ein Thema im Telekommunikationsbereich erhitzt die Gemüter so wie die regulierungspolitische Seite der Zugangsnetze. Stichworte sind hier die sogenannte Entbündelung der letzten Meile (Unbundeling of the Local Loop), verbunden mit leidenschaftlich geführten Diskussionen um die Preise für die Überlassung der Hausan­schlüsse, gefolgt von der unrealistischen Forderung nach der totalen Freigabe des gesamten Telekommunikations­marktes, was angeblich besonders den Geschäftskunden mit hohen Investitionsvolumina und entsprechend längeren Abschreibungsfristen nutzen sollen. Neue Zugangstechniken, wie die weiter anwachsende xDSL-Familie, und immer schnellere Datennetze in den Kernnetzen sorgen für zusätzliche Verunsicherung, weil das Angebot immer weiter diversifiziert wird. Die entsprechenden Produkteneuheiten sorgen aber stets für Furore, so etwa die Wireless Local Area Networks (WLANs) als draht­lose Alternative zu den heutigen Anschlussnetzen oder das neu lancierte 10-Giga­bit-Ethernet (10GE). In Kombination mit dem draht­gebundenen Ethernet in the First Mile (EFM) steht mit 10GE nun eine durchgängige Übertragungstechnik für schnelle Unternehmensnetze zur Verfügung. Besonders die Kombination sorgt für Zündstoff: EFM dient sozusagen als Zubringer zu den schnellen Datenautobahnen in 10GE-Tech­nologie. Entsprechend groß ist das Interesse an den Treffen der jeweiligen Arbeitsgruppen im Institute of Electrical and Electronic Engineers (IEEE). Rund die Hälfte der dortigen Standar­disie­rungsarbeiten drehen sich zur Zeit um Neuerungen und Erweiterungen des Ethernet-Standardes (IEEE 802.3). Die industrieseitigen Aktivitäten und Eingaben zu den betreffenden Standards zu WLANs, 10GE und EFM dominieren die IEEE-Meetings deutlich. Damit setzt sich das IEEE mit neuesten Innovationen zur praxis­orientierten Datenkommunikation erneut an die Spitze aller Standardisierungs­gremien. Der Beitrag beschreibt nach einer kurzen Rückblende in die vom IEEE geprägte Geschichte der Daten­kommunikation diese drei Technologien. Betrachtungen zum Marktangebot sowie zu einem bereits realisierten EFM-Projekt runden den Beitrag ab.

Heft 3-4

Dr. Gerhard Haßlinger, T-Systems

Charakteristik des Verkehrs im Internet: Konsequenzen für die Netzplanung, Dimensionierung und QoS

Die Entwicklung des Verkehrsaufkommens im Internet ist Gegenstand zahlreicher Studien zum einem im Gebiet der Verkehrsmessungen und zum anderen im Gebiet der Modellierung, Analyse und Simulation von Komponenten und der Gesamtsicht einer IP-Transport-Plattform. Dies ist kein Selbstzweck, da Beeinträchtigung der Quality of Service (QoS) im Normalbetrieb mit intakter Netzinfrastruktur vorwiegend auf die Variabilität des Verkehrsaufkommen zurückzuführen sind. Sporadische Überlastungen wirken sich durch variable Verzögerungen und, soweit Pufferkapazitäten nicht ausreichen, durch Datenverluste aus. Die voranschreitende Integration von Diensten in IP-Netzen erfordert eine Erweiterung des Supports für hinzukommende QoS-Anforderungen und verbreitert ebenfalls das Spektrum an Verkehrsprofilen, die von einer Vielfalt verschiedener Anwendungen erzeugt werden. Der Beitrag geht zunächst auf Beschreibungsmethoden für Verkehr aus der Statistik und Stochastik ein, die anschließend in den Zusammenhang mit QoS-Kriterien für Transport-Dienste mit und ohne Echtzeit-Anforderungen gestellt werden. Neben der Charakteristik von Verkehrsquellen wird die Steuerung von Verkehrsflüssen betrachtet, wie sie vom Transportprotokoll TCP auf die Masse der transferierten Daten im In-ternet ausgeübt wird. Auch werden Kontrollmechanismen auf anderen Protokollebenen diskutiert. Als grundlegende Modelle zur Analyse und Leistungsbewertung von Vermittlungssystemen werden (Semi-)Markov Prozesse und selbstähnliche Prozesse mit fraktalen Eigenschaften gegenübergestellt, mit deren Hilfe Eingangsverkehre darstellbar sind, jeweils in Anpassung an die in Messungen beobachtete Korrelation in verschiedenen Zeitbereichen. Dazu wird die Relevanz der Verkehrscharakteristik, der Bewertungsverfahren und Parameter mit Hinblick auf die Netzplanung und -dimensionierung erörtert.

Heft 5-6

Dipl.-Ing. Michael Geipl, Dipl.-Inform. Thomas Unterschütz, T-Systems Nova GmbH, TZ Darmstadt

Application Server im Umfeld von Telekommunikation, Web-Services, Open Source und CCM

Dieser Beitrag beleuchtet das Spannungsfeld zwischen einem telekommunikations-spezifischen Application Server und den darauf betriebenen Web-Services bei einen CCM-basierten Ansatz im Open Source Umfeld.

Sämtliche dieser Aspekte sind als aktuelle Themenkomplexe der Telekommunikationsindustrie von hoher Bedeu­ung: Application Server sind die State-of-the-art-Architek­tu­ren für Integration, Infrastruktur- und Betriebs­mgebung der aktuellen, auf Web-Service-Konzepten aufsetzenden Dienste. Allerdings sind die verfügbaren Application-Server-Produkte mit einigen Fallstricken versehen, die unter Berücksichtigung des Open-Source-Gedankens sowie der innovativen Ansätze der Komponententechnologie weitestgehend entschärft werden können. In ihrer Kombination stellt ein auf dem CORBA-Komponentenmodell basierender Open Source Application Server eine vielversprechende Weiterentwicklungsrichtung in einem der Herzstücke der Tele­kommunikations­ndustrie, nämlich der Plattformtechnologie, dar und berücksichtigt gleichzeitig die zunehmende Konvergenz von Telekommunikations- und Informationstechnologien im Kontext der Next Generation Networks.

Prof. Dr. rer. nat. W. Hampe, Institut für Angewandte Physik Westfälische Wilhelms-Universität Münster

Können „Agenten“ in absehbarer Zeit unsere Terminkalender organisieren?

Die Handy-Produktion stagniert, sie hat ihren Höhepunkt offensichtlich schon überschritten. Eine Wiederbelebung ist nicht zu erwarten, weil die Designer bereits alle Mög­lichkeiten ausgeschöpft haben, die die digitale, sequentielle Datenverarbeitung bietet. Die Grundlage für die Weiterentwicklung eines Handys, mit dem der Benutzer akustisch kommunizieren kann und das zudem die gehörte, verarbeitete Information selbständig bewertet und gegebenen­falls auch abspeichert, kann nur eine vergleichsweise einfache Schaltung sein, die die Daten analog und parallel verarbeitet. In diesem Beitrag wird ein Weg skizziert, den die biologische Evolution schon vor Jahrmillionen beschritten hat und der Hinweise auf eine mögliche Nachbildung liefert..

Heft 7-8

Andreas Bley, Dr. Arie M. C. A. Koster, Alexander Kröller, Dr. Roland Wessäly, Adrian Zymolka,Zuse-Institut Berlin (ZIB) atesio GmbH

Kosten- und Qualitätsoptimierung in Kommunikationsnetzen

Der scharfe Wettbewerb innerhalb der Telekommunikationsbranche zwingt die Netzbetreiber dazu, ihre Investitionen genau zu planen und immer wieder Einsparungsmaßnahmen durchzuführen. Gleichzeitig ist es jedoch wichtig, die Qualität der angebotenen Dienste zu verbessern, um neue Kunden zu gewinnen und langfristig an sich zu binden. Die mathematische Optimierung bietet sich für viele solcher Aufgabenstellungen als hervorragend geeignetes Planungswerkzeug an. Ziel dieses Artikels ist es, ihre Methodik und ihre Anwendung speziell zur Kosten- und Qualitätsoptimierung in Kommunikationsnetzen vorzustellen. Anhand von vier konkreten Planungs­aufgaben aus dem Bereich der Festnetzplanung wird aufgezeigt, wie sich komplexe Zusammenhänge in flexiblen mathematischen Modellen abbilden lassen und welche Verfahren zur automatisierten Bearbeitung der Probleme eingesetzt werden können. Die hier vorgestellten Methoden zeichnen sich insbesondere dadurch aus, dass sie neben hochwertigen Lösungen auch eine Qualitätsgarantie liefern, mit der sich die Lösungen fundiert bewerten lassen. Die dokumentierten Ergebnisse aus verschiedenen Industrieprojekten belegen die Eignung und Güte der mathematischen Optimierung für die Praxis.

Heft 9-10

Teil 1, Zusammenarbeit mit dem UniMagazin Hannover

Prof. Dr.-Ing. Heyno Garbe, Dipl.-Ing. Michael Camp, Institut für Grundlagen der Elektotechnik und Messtechnik der TU Hannover

Wenn der Chip streikt

Mikroelektronische Bauelemente sind eine Achillesferse der modernen Gesellschaft. Medizinische Geräte, Energieversorgung – alles funktioniert per Computerchip. Am Institut für Grundlagen der Elektrotechnik und Messtechnik wird untersucht, wo die Ursachen für Ausfälle liegen, um die Schaltungen sicherer zu machen.

Prof. Dr. Maciej Lewenstein, Dr. habil. Dagmar Bruß, Norman Plaß, Abteilung Theoretische Quantenoptik des Instituts für Theoretische Physik an der Universität Hannover

Damit Geheimes auch geheim bleibt – Quantenmechanik ermöglicht abhörsichere Kommunikation

Geheime Informationen auch wirklich nur demjenigen zukommen zu lassen, für den sie bestimmt sind, daran liegt Banken, Firmen, Geheimdiensten und Militärs viel. Doch mindestens genauso viel liegt anderen daran, diese verschlüsselten Informationen zu dechiffrieren. Am Institut für Theoretische Physik wird daran gearbeitet, mit Hilfe der Quantenmechanik eine wirklich sichere Verschlüsselungsmethode weiterzuentwickeln.

Prof. Dr.-Ing. Bernardo Wagner, Dipl.-Ing. Jan Kiszka, Institut für Systemes Engineering, Fachgebiet Echtzeitsysteme an der Universität Hannover

Der Hacker in der Waschmaschine – Risiken der wachsenden Vernetzung sicherheitskritischer Systeme

Steuerungen mit Internetzugang bieten nicht nur enormes Potenzial, sie bergen auch große Sicherheitsrisiken. Denn nicht nur der autorisierte Nutzer kann kilometerweit entfernt sein – auch Hacker können ihre Angriffe aus der Ferne starten. Am Fachgebiet Echtzeitsysteme werden Sicherheitsbarrieren entwickelt, die unerlaubte Zugriffe aufhalten.

Prof. Dr.-Ing. Christian Müller-Schloer

Anpassung des Computers an den Menschen

Organic Computing an der Universität Hannover

Kontext und Lokalität

Der vertrauenswürdige Computer

Teil 2 Prof. Dr. Wolfgang Gaul, Stefan Weil

Mobile Gaming – Markt mit Zukunft?

Mit der technologischen Weiterentwicklung der Mobilkommunikation seit den 90er Jahren sind auch die Anwendungsbereiche der Endgeräte gewachsen. Unter dem Mobile-Gaming-Markt versteht man den Markt der Spiele für mobile Endgeräte im Allgemeinen und Mobiltelefone im Besonderen. Dieser Beitrag untersucht diesen Markt und weist im Hinblick auf zukünftige Entwicklungen auf wachstumsfördernde und -hemmende Faktoren hin. Ausgehend von Erläuterungen zur Geschichte von Computer­spielen werden verschiedene für den Mobile-Gaming-Markt relevante technologische Grundlagen vorgestellt. Dabei wird insbesondere die Java-Technologie als momentaner Markttreiber hervorgehoben. Der Markt und dessen Teilnehmer werden untersucht und insbesondere momentane Barrieren für ein schnelles Marktwachstum aufgezeigt. Abschließend werden zwei besonders aktuelle Themen im Mobile-Gaming-Markt beleuchtet: Multiplayer-Spiele und Mobiltelefone, die speziell auf Spiele ausgerichtet sind.

Heft 11-12

Dr. Tomas Bohinc

Wissensmanagement – Der Beitrag der Organisation, der Technik und des Menschen zum Aufbau von Wissen

Die Telekommunikationsindustrie hat auf dreifache Weise zur Entwicklung des Wissensmanagements beigetragen. Erstens wurde durch die weltweite Vernetzung durch leistungsfähige Netze der Aufbau von globalen Wissensnetzwerken in und zwischen Unternehmen möglich. Die ständige Verbesserung der Endgeräte ermöglicht den Nutzern einen immer komfortableren Zugriff auf Informationen und Wissen, das in diesen Netzen gespeichert ist.  Und drittens ist die Telekommunikationsindustrie als wissensintensive Branche selbst darauf angewiesen Wissen, schnelle und effektiv weiterzuentwickeln und in ihren Unternehmen bereitzuhalten. Der Beitrag stellt den gegenwärtigen Stand des Wissensmanagements in all seinen Aspekten dar. Ausgehend von der Definition von Wissen und der Wissensbasis für ein Unternehmen werden die Prozesse des Wissensmanagements beschrieben. Hieran schließt sich die Darstellung der dafür entwickelten Instrumente, der wissensfreundlichen Architektur, der Technik für das Wissensmanagement, der verschiedenen Organisationsformen und der Wissenskultur an. Für die Einführung von Wissensmanagement wird ein Vorgehensmodell beschrieben, das sowohl die Aspekte der Implementierung der Technik wie auch der kulturellen Aspekte enthält. Der Beitrag schließt mit der Beschreibung eines Szenarios für die Zukunft des Wissensmanagements ab.

Inhalt des 58. Jahrgangs (2004)
 

Heft 1 - 4

Center for Interdisciplinary Nanostructure Science and Technology – CINSaT, Universität Kassel

In den folgenden Kapiteln werden ausgewählte Aspekte der Nanotechnologie behandelt wie sie von den einzelnen im Wissenschaftlichen Zentrum CINSaT zusammenwirkenden Wissenschaftlern bearbeitet werden. Die Ziffern in den Klammern hinter den nachfolgenden Schlüsselwörtern beziehen sich auf die einzelnen Kapitel des vorliegenden Bandes: Selbstorganisation (1 - 4), Wechselwirkung von Nanostrukturen mit Licht und die Herstellung von Nanostrukturen auf der Basis von Licht (2 - 5, 7), technologisches Ätzen (3, 4), Nanostrukturen auf Oberflächen (1 - 5), chemische Nanostrukturen (7, 8, 12), biologische Nanostrukturen (1, 3, 7, 9, 10, 12) und schließlich Nanowerkzeuge und Aktuatorik (9, 5, 4, 3).

  1  Einführung in die Nanotechnologie
     
Prof. Dr. Hartmut Hillmer, Prof. Dr. Frank Träger

  2  Nanoteilchen auf Oberflächen: Von innovativer Grundlagenforschung zu
      interdisziplinärer Anwendung
      Prof. Dr. Frank Träger

  3  Periodische Nanostrukturen in der Photonik – Grundlagen, natürliche Vorbilder,

      Herstellung und Anwendung in der hochbitratigen Datenkommunikation
    
 Prof. Dr. Hartmut Hillmer

  4  Realisierung von funktionalen Nanostrukturen mit selbstjustierenden Ätztechniken
      Dr. Egbert Oesterschulze, Prof. Dr. Rainer Kassing

  5 Femtosekunden-Spektroskopie
     Prof. Dr. Thomas Baumert

  6  Elektronenkorrelationen und Elektronen-Phonon-Kopplung
      in nanostrukturierten Metalloberflächen
  
   Prof. Dr. René Matzdorf

7 Mikro- und Nanostrukturen anorganisch-mineralischer Baustoffe
  
   Dr. Bernhard Middendorf, Dr. Carsten Vollmer, Prof. Dr.-Ing. Michael Schmidt

  8  Funkionalisierte Liganden: Von der Homogenkatalyse zu funktionalen Oberflächen
      Prof. Dr. Ulrich Siemeling

  9  Multifunktionelle Hybridproteine zur Untersuchung dynamischer
      Strukturen in lebenden Zellen
     
Prof. Dr. Markus Maniak

10  Chip-Design für die biomolekulare Interaktionsanalyse
  
   Dr. Carsten Zeilinger, Prof. Dr. Friedrich W. Herberg

11  Rasterkraftmikroskopie von Nukleinsäuren: Einzelmoleküluntersuchungen
      molekularer Wechselwirkungen

     Dr. rer.nat. Michael Bonin, Prof. Dr. rer.nat. Wolfgang Nellen

12  Intensitätsstarke Farbstoffe zur Umwandlung von Lichtenergie
      Prof. Dr. Rüdiger Faust

Heft 5-6

Dr. Klaus Grobe, ADVA AG, Optical Networking Hannover

Metro Optical Networking Teil 1

Die vorliegende Ausgabe von Telekommunikation Aktuell gibt einen Überblick über den Bereich des Metro Optical Networking, wobei auch die neueren Trends insbesondere in Richtung der Regio-Netze berücksichtigt werden. Neben den Haupttreibern - den maßgeblichen Anwendungen und den zugehörigen Protokollen - wird vor allem auf neuere Standards eingegangen, die die zukünftige Basis für kosteneffiziente und flexible optische Metronetze darstellen werden.Nach einer kurzen Einleitung erfolgt in Kapitel 2 die genauere Betrachtung des Metro-Marktes und seiner derzeitigen Haupttreiber. Diese können als Ethernet-, Wellenlängen- und Storage-Services zusammengefasst werden. Kapitel 3 betrachtet im Anschluss hieran die wichtigsten physikalischen Grundlagen der faseroptischen Übertragung. Störeffekte wie Dämpfung, chromatische Dispersion, Polarisationsmodendispersion und diverse nichtlineare Effekte beeinträchtigen vor allem Übertragungen bei hohen Bitraten (10 Gb/s) und auf längeren Strecken (>100 km), sodass sie für Metrokern- und Regio-Anwendungen zunehmend berücksichtigt werden müssen. Kapitel 4, Grundlagen optischer Metro-Netze, stellt das zentrale Kapitel dieser Ausgabe dar. Es behandelt im einzelnen die Komponenten von optischen Metro-Systemen, den Bereich Protection und Restoration sowie insbesondere die neuen, relevanten Standards für GFP, OTN, GMPLS und Metro Ethernet Networks (z. B. EFM). Weiterhin werden einige Grundlagen für Storage Area Networking dargestellt. Im Anschluss hieran werden in Kapitel 5 einige reale Metro- und Regio-Projekte beschrieben. Dies berücksichtigt den neueren Trend bezüglich des Einsatzes von Metro-Systemen für Regio-Anwendungen ebenso wie einen der ersten Real-World-Demonstratoren für GMPLS-Interworking. Diesem Kapitel schließen sich eine Zusammenfassung sowie ein Literaturverzeichnis an.

Heft 7-8

Dipl.-Ing. Thomas Wedi, Panasonic European Laboratories, Langen, Dipl.-Ing. Matthias Narroschke, Universität Hannover, Institut für Nachrichtentechnik und Informationsverarbeitung

Der H.264/AVC Videocodierstand

H.264/AVC ist der zur Zeit aktuellste Videocodierstandard. Er wurde in Zusammenarbeit der ISO/IEC Moving Pictures Experts Group (MPEG) und der ITU-T Video Coding Experts Group (VCEG) entwickelt. Im Vergleich zu vorangegangen Standards, ermöglicht H.264/AVC eine signifikant höhere Codiereffizienz. Über ein breites Spektrum an Anwendungen und Datenraten werden bei gleicher subjektiver Bildqualität des decodierten Videosignals Datenrateneinsparungen von 50 % erreicht. Dieser Beitrag gibt einen Überblick über den H.264/AVC-Standard. Dabei werden die verwendeten Codiertechniken vorgestellt und die Unterschiede zu früheren Standards herausgestellt.Stichwörter: Video-Codierung, H.264/AVC, MPEG, ITU, Bewegungskompensierende Prädiktion, Transformationscodierung, Entropiecodierung, CABAC, CAVLC, Intra-Prädiktion, Codiereffizienz, Profiles und Levels.

Dr. Bernd Edler, Universität Hannover, Laboratorium für Informationstechnologie

Audiocodierung in MPEG-4

Der MPEG-4-Audiostandard spezifiziert eine effiziente, objektbasierte Darstellung von Musik- und Sprachsignalen für interaktive Anwendungen. Der Bereich möglicher Datenraten deckt einen Bereich von 2 kbit/s für reine Sprachsignale in Telefonqualität bis ca. 128 kbit/s für Stereosignale in CD-Qualität ab. Dieses hohe Maß an Flexibilität wurde durch Einbeziehung verschiedener Codiertechniken erzielt, wie z. B. spezielle Sprachcodierverfahren, transformationsbasierte Audiocodierverfahren und Verfahren, die auf einer parametrischen Signaldarstellung beruhen.Dieser Beitrag gibt einen Überblick über die einzelnen Codiertechniken und zeigt auf, wie diese innerhalb definierter Anwendungsprofile mit jeweils begrenztem Realisierungsaufwand miteinander kombiniert werden können.

Dipl.-Ing. Axel Weissenfeld, Prof. Dr.-Ing. Jörn OstermannUniversität Hannover, Institut für Theoretische Nachrichtentechnik und Informationsverarbeitung, Fachbereich Elektrotechnik und Informationstechnik

Gesichtsanimation in MPEG-4

Der Beitrag gibt einen Überblick über Gesichtsanimationen mittels MPEG-4. Das Gesichtsmodell und die Gesichtsanimationsparameter zur Steuerung einer Gesichtsanimation werden spezifiziert. Außerdem werden die Codierverfahren des MPEG-4 Encoders für die Gesichtsanimationsparameter vorgestellt. Der Beitrag schließt mit einer Integration eines Sprachsynthesizers in das Gesichtsanimationssystem eines MPEG-4 Decoders. Ein solcher MPEG-4 Decoder erzeugt eine Gesichtsanimation mit Sprachausgabe, die als Teil einer modernen Mensch-Maschine-Schnittstelle für interaktive Dialogsysteme genutzt werden kann.

Heft 9-10

Dr. Klaus Grobe, ADVA AG, Optical Networking Hannover

Metro Optical Networking Teil 2

Die vorliegende Ausgabe von Telekommunikation Aktuell gibt einen Überblick über den Bereich des Metro Optical Networking, wobei auch die neueren Trends insbesondere in Richtung der Regio-Netze berücksichtigt werden. Neben den Haupttreibern - den maßgeblichen Anwendungen und den zugehörigen Protokollen - wird vor allem auf neuere Standards eingegangen, die die zukünftige Basis für kosteneffiziente und flexible optische Metronetze darstellen werden.Nach einer kurzen Einleitung erfolgt in Kapitel 2 die genauere Betrachtung des Metro-Marktes und seiner derzeitigen Haupttreiber. Diese können als Ethernet-, Wellenlängen- und Storage-Services zusammengefasst werden. Kapitel 3 betrachtet im Anschluss hieran die wichtigsten physikalischen Grundlagen der faseroptischen Übertragung. Störeffekte wie Dämpfung, chromatische Dispersion, Polarisationsmodendispersion und diverse nichtlineare Effekte beeinträchtigen vor allem Übertragungen bei hohen Bitraten (10 Gb/s) und auf längeren Strecken (>100 km), sodass sie für Metrokern- und Regio-Anwendungen zunehmend berücksichtigt werden müssen. Kapitel 4, Grundlagen optischer Metro-Netze, stellt das zentrale Kapitel dieser Ausgabe dar. Es behandelt im einzelnen die Komponenten von optischen Metro-Systemen, den Bereich Protection und Restoration sowie insbesondere die neuen, relevanten Standards für GFP, OTN, GMPLS und Metro Ethernet Networks (z. B. EFM). Weiterhin werden einige Grundlagen für Storage Area Networking dargestellt. Im Anschluss hieran werden in Kapitel 5 einige reale Metro- und Regio-Projekte beschrieben. Dies berücksichtigt den neueren Trend bezüglich des Einsatzes von Metro-Systemen für Regio-Anwendungen ebenso wie einen der ersten Real-World-Demonstratoren für GMPLS-Interworking. Diesem Kapitel schließen sich eine Zusammenfassung sowie ein Literaturverzeichnis an.

Heft 11-12

Dr. Herbert Burkhard

Durchstimmbare Halbleiterlaserdioden

Die in diesem Beitrag beschriebene Laserdioden-Physik ist die Basis für einen ganz wesentlichen Teil eines optischen Übertragungssystems, nämlich den Halbleiterlaser in unterschiedlicher Ausprägung, z. B. als DFB-Laser oder als DBR-Laser (in Mehrsektionsstruktur). Ein großer Teil der hier beschriebenen Bauelemente einschließlich ihrer Grundlagen wurden im damaligen Forschungszentrum der Deutschen Telekom entwickelt und im Zusammenhang mit Systemarbeiten u. a. im Netz der Deutschen Telekom getestet. Nach der Entscheidung der Telekom-Leitung zur Beendigung dieser Forschungsarbeiten im TZ (Technologiezentrum) wurde die unmittelbar mit den Halbleiterlaser-Aktivitäten befasste Gruppe in eine privatrechtliche Firma (IPAG) überführt, die diese Arbeiten am gleichen Ort erfolgreich weiterführt. Die im Kapitel 4 beschriebenen Arbeiten an optisch gepumpten Vertical Cavity Surface Emitting Lasern wurden vom Autor nach seinem Ausscheiden aus der Telekom durchgeführt und sind soweit noch nicht veröffentlicht worden

Inhalt des 59. Jahrgangs (2005)

Heft 1-2

Dipl.-Ing. Wolfgang Schmitz, Leiter Technik-Einführung, T-Com-Zentrale, Deutsche Telekom AG

Die wichtigsten Herausforderungen für etablierte Telekommunikations-unternehmen beim Übergang zu Netzen der nächsten Generatio

Die VoIP-Revolution des letzten Jahrzehnts ist ein Meilenstein in der Geschichte der Kommunikation, der nicht weniger dramatisch ist als die Einführung des Telefons im Jahre 1876. Alles in allem wird die Einführung der NGN-Technologie als Garant für langfristige Wettbewerbsvorteile betrachtet. Die Einführung konvergierter Systeme bildet die Grundlage für die Vision konvergenter Netze, die nahtlose, plattformübergreifende Dienste anbieten.
Die grundlegenden Anforderungen, die von einer NGN-Plattform erfüllt werden müssen, sind eine Kostensenkung für bestehende Dienste und die flexible Bereitstellung neuer, integrierter Sprach- und Datendienste.
Die Voraussetzungen für die Einführung und Verbreitung von VoIP sind von Land zu Land sehr verschieden. Carrier werden eine maßgeschneiderte Lösung entwickeln müssen, die für ihre jeweilige Migration zur VoIP-Technologie am besten geeignet ist.
Im Hinblick auf die geplante Vorgehensweise befürwortet T-Com zwei Ansätze. Während der Schwerpunkt beim Overlay-Ansatz auf dem Angebot neuer umsatzgenerierender Dienste liegt, konzentriert sich der Substitutionsansatz auf die Senkung der Betriebskosten. Die Substitution ist im Vergleich zum Overlay-Ansatz ein langfristiger Prozess, bei dem die bestehende TDM-Technologie innerhalb eines Zeitraums von etwa acht bis zehn Jahren komplett ersetzt wird.

1 Einführung
2 Der Werdegang neuer Technologien
3 Die Herausforderung für etablierte Telekommunikations-Netzbetreiber
4 Was versteht man unter NGN?
5 Die Einführung des "Triple Play"
6 Wie soll es weitergehen?
6.1 VoIP-Ansätze
6.2 Der Overlay-Ansatz der T-Com
6.3 Der Substitutionsansatz der T-Com
7 Die NGN-Projekte der T-Com: KonTIP, NGN Overlay und MiTPlaN
8 Fazit

Dipl.-Ing. Bernhard Klotz, Alcatel SEL AG Stuttgart und Dipl.-Ing. Peter Frohmüller, S.E.S.A.AG Berlin

Messen und analysieren bei VoIP - Ein Erfahrungsbericht -

Bei der Einführung der VoIP-Technologie in Telefonnetze wird oft die Sprachqualität als kritischer Faktor betrachtet. Und auch der MOS-Wert als Qualitätsmaßstab für Sprachqualität wird häufig zitiert.
Was bedeutet aber Sprachqualität in der Praxis? Durch welche Einflüsse und in welchen Netzelementen wird die Sprachqualität verschlechtert? Und wie kann die Sprachqualität in realen Netzen gemessen werden?
Der Beitrag geht kurz auf die Funktionsweise von VoIP und auf die dafür erforderlichen Netzkomponenten sowie auf die Definition von Sprachqualität ein. Anhand von Beispielen aus der Praxis im Labor und im Feld werden Messergebnisse vorgestellt und interpretiert. Einige charakteristische Effekte, wie Paketverlust und Echo und deren Verarbeitung, werden teilweise von Systemen verschiedener Hersteller dargestellt und besprochen. Abschließend wird der Einfluss der wichtigsten Parameter auf die Sprachqualität aufgezeigt.

1 Einführung
2 Funktionale Komponenten von VOIP
3 Telefonie in Breitbandnetzen
4 Zweck der Messungen
5 Messaufbau und Tools
6 Messungen und Auswertung
6.1 Abläufe auf der Teilnehmerleitung
6.2 Übertragungstechnische Parameter des Residential Gateways Phased Arrays
6.3 Wirkung des Echo Cancellers
6.4 Packet Loss Concealment
6.5 Qualität in Abhängigkeit des Paketverlusts
6.6 Verzögerungszeit
7 Schlussbetrachtung

Heft 3-4

Prof. Dr. Norbert Pohlmann, Leiter des Instituts für Internet-Sicherheit und Prof. im Fachbereich Informatik, FH Gelsenkirchen

Security for Future Service in Next Generation Networks

1 Ausgangspunkt
2 Wie sehen Netze heute aus?
3 Zukünftige Netze (NGNs)
4 Sicherheitsanforderungen an NGNs
5 Identity Management
6 E-Mail-Verlässlichkeit
7 Web Service Security
8 Gemeinsame Sicherheitsinfrastruktur
9 Gefahren der Zukunft?
10 Wie sicher ist "sicher"?
11 Eine Frage der Vertrauenswürdigkeit
12 Wer hat die Macht?
13 Fazit

Dipl.-Wi.-Ing. Karsten Knüttel und Prof. Dr. Thomas Magedanz, Frauhofer Institute FOKUS Berlin, Technical University of Berlin

IP MULTIMEDIA SUBSYSTEM, A SYSTEM DESCRIPTION FOR A SERVICE ORIENTED NETWORK ARCHITECTURE

Even though the work of the two main specification bodies of the 3G world, 3GPP and 3GPP2, is based on a varying recent background and differs a lot on bearer level, both defined an All-IP Core Multimedia Domain based on Internet Engineering Task Force (IETF) protocols like the Session Initiation Protocol (SIP) and Diameter.
This integrated system is a pre-condition of the revenues and the merge of the two most successful paradigms in communications: cellular networks and the Internet. A variety of appealing applications based on value added service enabling technologies like OSA/Parlay, Parlay X, SIP Servlet, CPL and CGI will fire the IP Multimedia Subsystem (IMS) with informational, communicational and multimedia input and logic.
This article provides an overview to the IMS and deals with the different specified options to integrate application servers into the IMS. Proceedings and results of the reference implementations at the Fraunhofer Institute FOKUS are described and provide the basis for a comparison.

0 Abreviations
1 Introduction
2 IMS Standard Overview
2.1 IMS System Description
2.2 IMS Protocol Description
2.3 Proxy Call State Control Function
2.4 Interrogating Call State Control Function
2.5 Serving Call State Control Function
2.6 Home Subscriber Server
2.7 AS
2.8 MRF / BGCF / MGCF
3 Application Service Provisioning in the IP Multimedia Subsystem
3.1 SIP Call Processing Language
3.2 SIP Common Gateway Interface
3.3 SIP Servlet
3.4 OSA/Parlay
3.5 Parlay X
3.6 IP Multimedia Service Switching Function
4 IMS Playground @ FOKUS
4.1 SIP CPL
4.2 SIP Servlet
4.3 Parlay X
4.4 OSA/Parlay
5 Applications and Enablers
6 Conclusion
6.1 VoIP-Ansätze
6.2 Der Overlay-Ansatz der T-Com
6.3 Der Substitutionsansatz der T-Com
7 References

Heft 5/6

Prof. Dr. rer. nat. Friedrich K. Jondral, Universität Karlsruhe (TH), Institut für Nachrichtentechnik, Karlsrhuhe

Signalverarbeitung in der Funktechnik – vom Digitalen Empfänger zum Cognitive Radio

Inhaltsangabe

Die Funkübertragungstechnik fasziniert die Menschen seit der Entdeckung der elektromagnetischen Wellen in den achtziger Jahren des neunzehnten Jahrhunderts. Ausgehend von der Analogtechnik hat in der Folge der von Shannon's Arbeiten angeregten Entwicklungen in der zweiten Hälfte des zwanzig­sten Jahrhunderts die Digitaltechnik Einzug in die drahtlose Kommunikation gehalten; der Durchbruch ist ihr mit der Einführung der zellularen Mobilfunksysteme der zweiten Generation in den neunziger Jahren gelungen. Der vorliegende Übersichtsartikel beschreibt, wie auf der Grundlage des digitalen Radios im einundzwanzigsten Jahrhundert die Entwicklung zu in höchstem Maße adaptiven Funkgeräten, hier als Cognitive Radios bezeichnet, und Funksystemen weitergehen kann.

Prof. Dr. Kurt Schneider, Dipl.-Wirt.-Inf. Daniel Lübke und Dipl.-Math. Thomas Flohr
Universtität Hannover, Fachgebiet Software Engineering

Softwareentwicklung zwischen Disziplin und Schnelligkeit

Inhaltsangabe

„Software ist aus unserem modernen Leben nicht mehr wegzudenken: Von der Waschmaschine bis zur Gehaltsabrechnung begleitet sie uns privat und im Beruf. Der Bedarf nach immer komplexerer Soft­ware wächst und erfordert entsprechend ausgefeilte Prozesse, um diese Software zu entwickeln. Eine wesent­liche Herausforderung besteht darin, die Prozesse und Projekte so zu gestalten, dass sie die nötige Qualität hervorbringen, aber keine unnötige Bürokratie erfordern. Die Vision des "Soft­ware Engineering nach Maß" verbindet klassische, reife Entwicklungsprozesse mit leichtge­wichtigen Elementen aus Agilen Methoden und stützt sich unter anderem auf kontrollierte Experimente. Idealerweise sollen Projekte mit Hilfe verschiedener Mechanismen an ihre Situation und ihre Mög­lichkeiten angepasst werden. Eine wichtige Rolle spielen dabei Informations­fluss­analysen, die auch die Verteilung von Erfahrungen berücksichtigen.“
Heft 7 - 10

Prof. Dr.-Ing. Joachim Speidel, Universität Stuttgart, Institut für Nachrichtenübertragung

Multiple Input Multiple Output (MIMO) – Drahtlose Nachrichtenübertragung hoher Bitrate und Qualität mit Mehrfachantennen

Inhaltsangabe:

Drahtlose Übertragungssysteme mit mehreren Antennen auf der Sende- und Empfangsseite haben in den letzten Jahren großes Interesse in Forschung und Entwicklung erzielt. Solche „Multiple-Input-Multiple-Output (MIMO“-Systeme erlauben bei gleicher Bandbreite eine höhere Bitrate und zeigen eine geringere Anfälligkeit gegenüber Störungen auf dem Übertragungsweg. Daher sind die Verfahren für künftige Erweiterungen von UMTS und WLAN, besonders aber für neue, breitbandige Mobilkommunikationssysteme der 4. Generation vorgesehen. Dieser Beitrag gibt eine Übersicht über die wesentlichen Prinzipien und zeigt deren Leistungsfähigkeit.
Heft 11 - 12

Dr. Klaus Grobe, ADVA AG Optical Networking Clifton Moor, YorkYO30 4GU, UK

40 Gb/s techniques for metro optical networking in englischer Sprache

Inhaltsangabe:

40G ist die nächste Hierarchie-Stufe bei der Aufrüstung optischer Transportnetze, mit Hinblick auf die Kanal-Bitrate. Erste relevante Anwendungen für 40G-Schnittstellen sind in Form von Ver­netzun­gen zwischen High-End-Routern vorhanden. Viele dieser Anwendungen werden im Metro- und Regional­bereich, bei Entfernungen von bis zu einigen 100 km, stattfinden. Um den Übertragungs­problemen bei den sehr hohen Kanalbitraten zu begegnen, wurden neue Verfahren wie CSRZ-, Duobinär- oder DPSK-Modulations entwickelt (bzw. wiederentdeckt). Diese unterschied­lichen Ver­fahren weisen unterschied­liche Reichweiten und unterschiedliche Kosten auf. Im Metro- und Regional-Bereich wird 40G zudem auch als Upgrade-Technologie für bestehende 10G-Systeme aufgefasst. Die 40G-Systeme müssen also kopropagierende, NRZ-IMDD-modulierte Signale bei 10G und auch 2,5G tolerieren können. Die vorliegende Ausgabe von Telekommunikation Aktuell behandelt Grundlagen der 40G-Übertragung und identifiziert solche 40G-Modulations­verfahren, die für den Einsatz in Metro- und Regional-Netzen aus heutiger Sicht am besten geeignet erscheinen.
Inhalt des 60. Jahrgangs (2006)
Heft 1 - 3

Impulsbasierte UWB-Systeme – ein Überblick

Dr.-Ing. H. Jäkel, Dipl.-Ing. M. Eisenacher, Universität Karlsruhe (TH), Institut f. Nachrichtentechnik

Inhaltsangabe

Ultrabreitbandige Funktechnik (Ultra-Wideband, UWB) steht zunehmend im Blickpunkt des Interesses. Die Anwendung der ultrabreitbandigen Technik verspricht verbesserte Leistungsfähigkeit bei geringem Leistungsverbrauch und gleichzeitiger Lokalisierungsfähigkeit. Seitens einiger etablierter Funkdienste bestehen Vorbehalte gegenüber UWB-Technologien. Der vorliegende Artikel bietet einen Überblick über die Funktionsweise des impulsbasierten UWB und möchte dadurch das Wissen um die Funk­tionsprinzipien impulsbasierter UWB-Technik leicht zugänglich machen. Die Darstellung konzentriert sich auf die physikalische Schicht von impulsbasierten UWB-Systemen, deren Sender- und Empfängerkonzepte und die daraus resultierenden Spektraleigenschaften.

Interworking von UMTS und WLAN: Nutzen und Sicherheitsaspekte

Prof. Dr. habil. Claudia Eckert, Leiterin des Fraunhofer-Instituts f. Sichere Informationstechnologie (SIT) in Darmstadt und Inhaberin des Lehrstuhls für Sicherheit in der Informationstechnik an der TU Darmstadt und Dr.-Ing. Kpatcha M. Bayarou, Leiter des Forschungsbereiches Sichere mobile Systeme (SIMS) beim Fraunhofer-Institut für Sichere Informationstechnologie (SIT) in Darmstadt

Inhaltsangabe

Lange vor dem kommerziellen Start der UMTS-Netze in Deutschland hatten Wireless LANs nach IEEE 802.11(b) ihren Durchbruch als kabelloser Netzzugang im Unternehmen, in den Hochschulen, zu Hause und auch an öffentlichen Plätzen. Vielfach wurde deshalb der kommerzielle Erfolg so ge­nann­ter „Hotspots“, also öffentlich zugänglicher WLANs mit geringer Nutzungsgebühr, als Ursache für eine be­vorstehende Totgeburt des auf paketorientierte Daten- und Sprachübertragung ausgelegten UMTS-Netzes genannt. Neue Initiativen wie „Greenspot“, dem Clearinghouse Angebot des Verbandes der deut­schen Internetwirtschaft sowie wissen­schaftliche Ansätze zur Lösung der beim Roaming auftretenden Probleme (Vertrauens- bzw. Vertrags­beziehungen zwischen den einzelnen Hotspot-Be­trei­­bern und den Carriern) deuten auf die wirtschaftliche Relevanz des Themas hin. Da sich einzelne Hotspots zwar durchaus kostengünstig etablieren lassen, eine flächendeckende Versorgung mit WLAN jedoch technologisch aufgrund der fehlenden Backbone­infra­struktur nicht erreichen lässt, wäre die konsequente Schlussfolgerung ein Interworking der beiden zu realisieren. Das UMTS-Netz würde dann in der Fläche eine (etwas kosten­intensivere und in der Bandbreite beschränkte) Ver­sorgung mit Sprache und Daten garantieren, während an Hotspots die hohe Bandbreite und die geringen Gebühren einer IEEE 802.11-Nutzung Vorteile bei der Datenübermittlung ermöglichten. Das Interworking dieser grundverschie­denen Technologien wirft technische und wirtschaftliche Heraus­forde­rungen auf, die aus der simultanen Nutzung beider Netze und einem Handover zwischen diesen resultieren. Von besonderer Wichtigkeit hierbei ist die Sicherheit für den Nutzer und dessen End­gerät, seine persönlichen Daten und vor allem die korrekte Abrechenbarkeit der Dienste- und Netz­nutzung bei diversen Anbietern. Konkret betreffen diese Probleme die zu verwendenden AAA-Mechanismen (insbesondere Authentisierungsunterschiede zwischen WLAN und UMTS) sowie das Billing & Accounting bei der Inan­spruchnahme des Netzzuganges oder der Mehrwertdienste unter­schiedlicher Anbieter.

Der Beitrag skizziert den derzeitigen Status der technischen Entwicklung zum WLAN-UMTS Interworking, stellt den Nutzen sowie die Sicherheitsanforderungen und die derzeit verfügbaren und in Entwicklung befindlichen Authentisierungsmechanismen (u. a. IEEE 802.1x, EAP-TLS, EAP-AKA, EAP-SIM) vor und erläutert die bislang noch offene Sicherheitsprobleme.

Die Technik des deutschen Drahtfunks

W. Waldow (Abdruck der Erstveröffentlichung von 1941)
Heft 4 - 5

Leistungsbewertung optisch-transparenter Netze unter dynamischen Verkehrsanforderungen

Prof. Dr.-Ing. Ines Rennert, Dipl.-Ing. Manuel Keipert, Deutsche Telekom AG, Fachhochschule Leipzig und Dipl.-Ing. Ralf Hülsermann, T-Systems Enterprise Services GmbH, Berlin

Inhaltsangabe

Die Entwicklung optischer Transportnetze ist ausgerichtet auf verteilte Netzsteuerungsfunktionen und die Möglichkeit zur automatischen Rekonfiguration von Verbindungen. Dem damit verbundenen dynamischen Charakter der Verkehrsströme wird eine leistungsfähige Netzarchitektur gegenüber­gestellt. Neben der Zunahme der Verkehrsdynamik ist weiterhin eine Verschiebung der Bandbreiten­anforde­run­gen hin zu höheren Granularitäten zu beobachten, die eine Bereitstellung von optisch-transparenten Ver­bindungen sehr effizient erscheinen lässt.

Bei der simulatorischen Leistungsbewertung dynamischer optisch-transparenter Netze wurde eine direkte Abhängigkeit der Blockierungswahrscheinlichkeit für Verbindungsanfragen von der Entfer­nung zwischen den Endknoten einer Verbindung beobachtet. Zur Gewährleistung einer einheitlichen Dienstgüte für alle Anfragen wurde ein auf der Fuzzy-Theorie basierender Regel­algorithmus mit dem Ziel der Angleichung der Blockierungswahrscheinlichkeit für alle Anfragen unabhängig von der Entfernung der Endknoten entwickelt. In mehreren Fallstudien wird die Wirksamkeit des Regel­algorithmus in Verbindung mit unterschiedlichen Routingverfahren untersucht und nachgewiesen.

Migrationsaspekte IN-NGN - Der Übergang in die nächste Generation

Dipl.-Ing. (FH) Thorsten Thews, EWE TEL GmbH, Oldenburg

Inhaltsangabe

Dieser Artikel beschreibt den Nutzen von IN-Diensten auch für kleinere Netzbetreiber (Allein­stellungs­merkmale, Kostenersparnis, Umsetzung regulatorischer Anforderungen) und liefert theoreti­schen Hintergrund zur Diensteebene als zentrale Steuerungsebene und der Rolle des IN als Trans­aktions­konverter in heterogenen Netzen. Den Abschluss bilden Gedanken zur Open Service Platform im NGN und der Dienstemigration.

Breitbandkommunikation im Fokus: Leistungsstarke Infrastruktur für den Technologiestandort Deutschland

Wolfgang Schmitz, Leiter Technik-Einführung, T-Com Zentrale, Deutsche Telekom AG

Inhaltsangabe

T-Com schafft mit einem neuen Hochgeschwindigkeitsnetz die Basis für innovative multimediale Online-Dienstleistungen und bringt Deutschland in die Spitzengruppe der Breitbandstaaten. Das Investitionsvolumen beträgt zunächst Ausbaustufe 500 Millionen Euro. Die eingesetzte Technik ist eine Innovation für den Standort Deutschland und weltweit führend.
Heft 6

Gesundheit in technischen elektromagnetischen Feldern

Prof. Dr. Jiri Silny, femu – Forschungszentrum für Elektromagnetische Umweltverträglichkeit, Universitätsklinikum der Rheinisch-Westfälischen Technischen Hochschule Aachen

Inhaltsangabe

Die mutmaßlichen gesundheitlichen Wirkungen technischer elektromagnetischer Felder des Alltags werden anhand der umfangreichen wissenschaftlichen Literatur überprüft. Die Publikationen werden gemäß der verwendeten Exposition zunächst nach niederfrequenten (bis 10 MHz) und hochfrequenten (10 MHz - 300 GHz) Feldern unterschieden und anschließend in Gruppen mit vergleichbaren Wirkungen und Untersuchungsmethoden (epidemiologische Studien, Tierexperimente oder Reagenz­glas-Untersuchungen) bewertet. Eine Wirkung elektromagnetischer Felder auf den Menschen kann erst als belegt gelten, wenn sich unabhängig erbrachte und konsistente Ergebnisse aus allen drei Gruppen von Untersuchungen gegenseitig ergänzen. Dies ist bisher nur für Wirkungen starker elektro­magnetischer Felder im Organismus der Fall, wie sie im Alltag nicht vorkommen. Selbst die Schwellenwerte für harm­lose Effekte sind dabei mindestens um eine Potenz höher als die Werte der im Alltag auftretenden Felder. Dessen ungeachtet befassen sich zahlreiche medizinisch/biologische Untersuchungen mit den relativ schwachen elektromagnetischen Feldern des Alltags. Hier deuten einige epidemiologische Studien zwar einen statistischen Zusammenhang zwischen Leukämie bei Kindern und Magnetfeldern im Feldstärke- und Frequenz-Bereich der Stromversorgung an, doch wird die Ursächlichkeit dieses Zusammenhangs von nationalen wie internationalen Fachgremien wegen fehlender Untermauerung durch experimentelle Untersuchungen bestritten. Für andere Endpunkte wie neurologische Einflüsse oder die sog. Elektrosensibilität lassen sich Wirkungen weder für niederfrequente noch für hochfrequente Felder wissenschaftlich belegen, und zwar weder für Erwachsene, noch für Kinder oder kranke Personen. Die in der Öffentlichkeit verbreitete Ansicht, dass in unserer Alltagsumwelt vorkommende technische elektromagnetische Felder gesundheitliche Gefahren bergen, wird nach heutigem Stand durch die wissen­schaftliche Literatur nicht gestützt. Es besteht allerdings ein geringes, aber leicht vermeidbares Risiko, dass elektronische Implantate wie Herzschrittmacher in einigen wenigen Situationen des Alltags durch elektromagnetische Felder gestört werden könnten.

Energie durch die Haut – Der wiederaufladbare implantierbare Defribrillator

Dipl.-Ing. Daniel Detsch, Prof. Dr Helmut Haase, Institut f. Grundlagen der Elektrotechnik und Messtechnik und Prof. Dr. Michael Niehaus, Kardiologie der Medizinischen Hochschule Hannover

Inhaltsangabe

Das Institut für Grundlagen der Elektrotechnik und Messtechnik entwickelt zusammen mit der kardio­lo­gischen Abteilung der Medizinischen Hochschule Hannover einen wiederaufladbaren implantier­baren Defribrillator. Betroffenen Patienten können damit Operationen erspart werden, da sich das Gerät durch die Haut auflagen lässt und nicht ausgetauscht werden muss, wie es bei heutigen Defribillatoren noch der Fall ist.
Heft 7-12

Beiträge zur Informationstechnologie

Fakultät für Elektrotechnik und Informatik, Leibniz Universität Hannover

Hardware-Realisierungen komplexer Bild- und Videosignalverarbeitung

Prof. Dr.-Ing. P. Pirsch, Dipl.-Ing. A. Dehnhardt, Dipl.-Ing. H. Flatt, Dipl.-Ing. S. Flügel

Auf dem Weg zur Nanoelektronik

Prof. Dr. H. J. Osten

Einsatz von RFID-Systemen zur kontaktlosen Identifikation von Objekten durch Funkübertragung

Dr.-Ing. M. Camp, Prof. Dr.-Ing. H. Eul

Rauschmessungen und rauscharme Verstärker im Mikrowellenbereich

Prof. Dr.-Ing. Ilona Rolfes

Nanoelektronische Aspekte und GigaHz-Anwendungen integrierter Analogschaltungen

Prof. Dr.-Ing. habil. W. Mathis

Medium Access Control (MAC) – Protokolle für UWB-Systeme – Ein Überblick

Dipl.-Ing. M. D. Pérez Guirao, Dipl.-Ing. G. Rahmatollahi, Dipl.-Wirtsch.-Ing. K. D. Bartke, Prof. Dr.-Ing. K. Jobmann

Fortschritte in der Multimediakommunikation

Dr.-Ing. B. Edler, Dipl.-Ing. S. Klomp, Dipl.-Ing. M. Munderloh, Dipl.-Ing. M. Narroschke, Dipl.-Ing. D. T. Nguyen, Dipl.-Math. N. Stefanoski, Dipl.-Ing. Y. Vatis, Prof. Dr.-Ing. J. Ostermann

Automatische Qualitätssicherung von Geoinformation unter Nutzung optischer Fern­erkundungsdaten: Systemdesign und praktische Ergebnisse

Prof. Dr.-Ing. C.-E. Liedtke, Dipl.-Ing. S. Müller, Dipl.-Ing. A. Behrens

Integration virtueller Objekte in natürliche Bildsequenzen

Dipl.-Math. K. Cordes, Prof. Dr.-Ing. J. Ostermann

Gesichtsanimation mit Image-based Rendering für Dialogsysteme

Dipl.-Ing. A. Weissenfeld, M. S. K. Liu, Prof. Dr.-Ing. J. Ostermann

Vorwort

Der Begriff Informationstechnologie wird hier nicht als direkter Transfer des englischen Wortes „information technology“ verstanden, sondern soll aus den beiden Bereichen Informationstechnik und Halbleitertechnologie abgeleitet sein. Durch die Verbindung der beiden Bereiche soll die ganze Spann­weite von den Verfahren der Generierung, Verarbeitung und Übertragung von Informationen bis hin zur techno­logischen Implementierung mit Halbleiterbauelementen eingeschlossen sein. Fokus dieses Heftes sind Beiträge zur Informationstechnologie der Fakultät für Elektrotechnik und Informatik der Leibniz Universität Hannover.

Die Informationstechnik an der Leibniz Universität Hannover hat ihren Vorläufer in der Fern­melde­technik später zur Nachrichtentechnik erweitert, die seit etlichen Jahrzehnten innerhalb der Elektro­technik besteht. Maßgebliche Erweiterungen gab es in der Nachrichtentechnik in den 1970er Jahren. Im Zuge der Abgabe der Schiffstechnik der Universität Hannover an die TU Hamburg-Harburg in den 1980er Jahren wurden zusätzliche Professuren der Informationstechnik und der Techni­schen Informatik ge­schaffen. Im Zuge der Bildung von Fakultäten als größere Einheiten wurde im April 2005 eine Fakul­tät für Elektrotechnik und Informatik ge­gründet, die durch Zusammenschluss der ehemaligen Fach­bereiche Elektro­technik und Informationstechnik sowie Informatik entstand. Die Stärke dieser neuen Fakultät liegt in der Möglichkeit zur integrierten Forschung und Lehre mit dem Schwerpunkt Informationstechnik/Technische Informatik. Die inhaltliche Ausrichtung der Fakultät mit der starken Verzahnung von Elektrotechnik und Informatik ist einmalig in Nieder­sachsen. Die Informationstechnik gilt als Schlüsseltechnologie und wird in Zukunft als eine alle technischen Bereiche überspannende Technologie Entwicklung und Fortschritt entscheidend mitbestimmen.

Die Mikro- und Nanoelektronik bildet dabei die Basis für immer komplexere integrierte Bausteine. Hier geht es uns in Hannover um Weiterentwicklungen für die derzeit als Hardware der Informations­technik dominierende Si-basierte Elektronik. Darüber hinaus werden im Verbund mit anderen Fachgebieten der Universität im Rahmen des Laboratoriums für Nano- und Quantenengineering (LNQE) die Grundlagen für völlig neuartige nanoelektronische Lösungen geschaffen. Dieser Teil der Mikroelektronik schließt ebenfalls theoretische Ansätze zur Beschreibung nanoelektronischer Bau­elemente und Systeme mit ein. Die System- und Softwaretechnik stellt Hardware- und Software­syste­me, von eingebetteten Mikro­controllern bis zu ganzen Rechnernetzen, für unterschiedliche Anwen­dungs­bereiche zur Verfügung. Der steigende Softwareanteil in technischen Systemen, die zunehmen­de Verteilung der Ressourcen und immer größere Datenmengen erfordern neuartige Methoden für Softwareentwurf, Datenmanagement, Sicherheit und für die Mensch-Maschine-Kommunikation. Die Kommunikationstechnik, also Aufnahme, Verarbeitung und Übertragung von Information – insbeson­dere in multimedialen Anwendungen - spielt dabei eine grundlegende Rolle. Die Forschung im Bereich der Informationstechnik steht unter dem Einfluss der schnellen Entwicklung der Mikroelektronik zu immer leistungsfähigeren und kostengünstigeren Signal­prozessoren. Sie ermöglicht es, zunehmend komplexere Systeme wirtschaftlich zu realisieren sowie immer komplexere Datennetze zu installieren. Als Folge vollzieht sich ein Strukturwandel der Informationstechnik, der gekennzeichnet ist durch:

•  den Übergang von der analogen Übertragung zur digitalen Übertragung

•  die Erweiterung der Fernsprech-Kommunikation zur Multimedia-Kommunikation

•  die Ergänzung der leitungsgebundenen Kommunikation durch die Mobilkommunikation bei hohen Frequenzen

•  die Erzeugung, Verarbeitung und Darstellung dreidimensionaler Information einschließlich virtueller Objekte und Szenen.

Die umfangreichen Forschungsarbeiten der verschiedenen Institute der Fakultät unterstützen diese Ent­wicklung. Sie werden in enger Zusammenarbeit mit anderen universitären Partnern und Forschungseinrichtungen sowie Partnern der deutschen und europäischen Industrie durchgeführt.

In diesem Heft wollen wir Ihnen eine kleine Auswahl von Forschungsthemen der Fakultät vorstellen. Diese Zusammenstellung kann natürlich nur einen begrenzten Überblick über alle Aktivitäten unserer Fakultät liefern. Unsere Auswahl umfasst die folgenden Schwerpunkte, aufgelistet in der Kette „Hardware - Übertragung - Verarbeitung“:

•  neue Hardwarelösungen für schnelle Elektronik

•  kontaktlose Identifikation von Objekten durch Funkübertragung (RFID)

•  Rauschmesstechnik im Mikrowellenbereich

•  GigaHz-Anwendungen integrierter Analogschaltungen

•  Ultra Wideband Technologie (UWB)

•  komplexe Bild- und Videosignalverarbeitung

Wir wünschen Ihnen viel Spaß bei der Lektüre und stehen jederzeit gern für weiterreichende Informationen zur Verfügung. Wir empfehlen Ihnen auch die Internetseiten der Fakultät ( www.et-inf.uni-hannover.de ).

Prof. Dr. H. Jörg Osten Prodekan der

Fakultät für Elektrotechnik und Informatik

der Leibniz Universität Hannover
Inhalt des 61. Jahrgangs (2007)
Heft 1-2

Dipl.-Ing. Yanxiang Chen; Dipl.-Ing. Helmut Möhlig ( Deutsche Telekom AG, T-Com Zentrum Technik Einführung)

Ein messtechnischer Nachweis der Zeiterfassungsgenauigkeit der Kommunikationsdatenerfassung (KDE) von vermittelnden Netzknoten (VNK)

Inhaltsangabe

Im folgenden Beitrag werden zunächst erforderliche Begriffe der Metrologie und das GUM-Verfahren erläutert.

Die Beschreibung der Messaufgabe, des Messprinzips und der Messmethode führt dann, unter Berücksichtigung technischer Anforderungen aus TKV § 5 und Beachtung der Messunsicherheit, zum Messverfahren für die Zeitpunkterfassung und die Zeitdauererfassung.

Aus den Analysen der Messunsicherheit für die reale Zeitpunkterfassung und reale Zeitdauererfassung werden die für die Auswertung erforderlichen mathematischen Modellfunktionen abgeleitet, die, unter Anwendung des GUM-Verfahrens, vollständige Messergebnisse mit Angabe der Messunsicherheit ergeben.

Mit den Entscheidungsregeln nach DIN EN/ISO 142531-1 wird die Prüfentscheidung über die Konformität der Zeiterfassungsgenauigkeit der Kommunikationsdatenerfassung getroffen.

Im Anhang werden für die Zeiterfassungsgenauigkeit der Kommunikationsdatenerfassung von VNK typische Messergebnisse der Zeitpunkterfassung und Zeitdauererfassung angegeben, wie sie in einer Testumgebung mit der dargestellten Messanordnung erhalten wurden.

Die numerische Auswertung der Messungen erfolgte mit Hilfe einer GUM Workbench.
Heft 3-4

Dr.-Ing. Michael Camp; Prof. Dr.-Ing. Hermann Eul ( Universität Hannover, Institut für Hoch-frequenztechnik und Funksysteme, Appelstr. 9a, 30167 Hannover; Smart Devices GmbH & Co. KG, An der Universität 2, (www.smartdevices.de), 30823 Garbsen)

Lösungskonzepte zur Antennenproblematik beim Einsatz von RFID-Systemen im UHF-Bereich

Inhaltsangabe

Die neu entwickelte RFID-Technologie (Radio Frequency Identification) [1] ermöglicht die Identifizierung von beliebigen Objekten mittels so genannter Transponder (Transmitter – Responder), die als Identifikationsmerkmal eine eindeutige Nummer beinhalten und direkt mit den zu identifizierenden Objekten verbunden werden. Über eine Basisstation kann diese Information mittels Funkübertragung abgerufen werden. Die Besonderheit von RFID-Systemen im Vergleich mit kontaktlosen Identifikationssystemen auf Funkbasis, die in der Vergangenheit eingesetzt wurden, besteht in erster Linie in den sehr kleinen Systemdimensionen der Transponder. Dies wird möglich durch neu entwickelte integrierte Schaltungen, die auf einem einzigen Chip sämtliche erforderlichen Elektronikkomponenten enthalten. Zudem ist durch neu entwickelte Produktionsverfahren eine extrem schnelle und kostengünstige Massenproduktion von Transpondern möglich. Damit eröffnen sich der RFID-Technologie Einsatzgebiete, die bisher aus Kostengründen oder aufgrund großer physikalischer Abmessungen der Systeme verschlossen waren.

Der Einsatz von RFID-Transpondern zur Kennzeichnung von Produkten mit unterschiedlichen elektromagnetischen Eigenschaften erfordert die Entwicklung neuer Antennensysteme, die in der Lage sind, Verschiebungen der Resonanzfrequenzen, die durch Fremdmaterial in der Antennenumgebung auftreten, ausgleichen zu können.

Dieser Beitrag beschreibt verschiedene Verfahren zur Lösung der Antennenproblematik beim Einsatz von RFID-Transpondern im UHF-Bereich. Zum einen werden spezielle Breitbandantennensysteme vorgestellt welche es ermöglichen, Resonanzverschiebungen der Antennensysteme durch Fremdmaterial in der Antennenumgebung auszugleichen [2], [3]. Zum anderen wird eine Möglichkeit dargestellt, durch den Einsatz von Parallelinduktivitäten die Transponderbandbreiten zu vergrößern. Beide Maßnahmen führen zu eine deutlichen Verringerung der für einen Einsatz im Einzelhandel erforderlichen Antennensysteme und damit zu deutlichen Kostenreduktionen.

 

Dr. Klaus Grobe ( ADVA AG Optical Networking)

Passive Optical Networks

Summary

Passive Optical Networks – PONs – play an increasing role in today's metro access networks. As compared to Active Optical Networks (AON), they can offer significant cost advantages, in particular for mass roll-outs of broadband (100 Mb/s to 1 Gb/s per customer and beyond) Ethernet-based services. Today, two major PON standards are broadly deployed, with the Gigabit PON (GPON) standard being in massive use in the United States, and the Ethernet PON (EPON) standard being used in Asia-Pacific. These PONs can deliver accumulated bandwidths of 2.5 Gb/s and 1.25 Gb/s, respectively. Typical splitting ratios, i. e., number of customers, range around 1:32.

The PON standards as they are deployed today will not be able to cope with near-future requirements regarding per-customer bandwidth, splitting ratio, and maximum system power budget, or maximum reach. These requirements are necessary to tackle future metro network evolution which to a certain extent will see the collapse of metro access and backhaul into long-reach, ultra-high capacity PONs. Wavelength-Domain-Multiplexed PONs – WDM-PONs – are the key to these requirements. No WDM-PON standards exist today, and many different proposals have been made which may lead to efficient WDM-PONs. This article also gives an overview on current WDM-PON techniques and related metro network developments.

Heft 5

Dipl.-Math. Henning Krieghoff; Dipl.-Inform. Hans-Peter Meske ( Rohde & Schwarz SIT GmbH, Berlin)

Wie sicher können moderne Kommunikationssysteme durch Technik werden?

Inhaltsangabe

Die Sicherheit von modernen Kommunikationssystemen unterliegt vielschichtigen Einflussfaktoren. Diese Faktoren und ihre Zusammenhänge sowie der Beitrag, den Methoden der Kryptografie in diesem Kontext zu leisten vermögen, werden auf anschauliche und verständliche Art und Weise dargestellt. Der Beitrag basiert auf einem Vortrag, den Dipl.-Math. Henning Krieghoff, Geschäfts­führer der Rohde & Schwarz SIT GmbH, anlässlich des 48. Innovationsforums der IfKom auf der CeBIT 2007 gehalten hat.