TE Perspektiven

Konnektivität für Rechenzentren
im Zeitalter der digitalen Innovation

Autor: David Helster, Branchenexperte und Engineering Fellow im Ruhestand

Digitale Innovation beruht auf der Fähigkeit, mehr Daten schneller zu übertragen. In den 1980er Jahren wurde die Kabeltechnologie, die zehn Megabit Daten pro Sekunde übertragen konnte, allgemein verfügbar und die Grundlage für moderne Netzwerke – und das Internet selbst – war geboren.

 

Diese Technologie hat eine erstaunlich lange Lebensdauer: Sie ist auch heute noch weitgehend kompatibel mit den Netzwerkkarten in Computern, obwohl die in den heutigen privaten Netzwerken üblichen Kabel bequem 1 Gigabit pro Sekunde (Gbit/s) übertragen können, das 1.000-fache der Kapazität der ersten Modelle. Inzwischen ist jedoch die Menge der Daten, die wir übertragen, speichern, analysieren und verarbeiten müssen, erheblich gestiegen. Das liegt daran, dass jeder Fortschritt bei der Datenübertragungsgeschwindigkeit neue, innovative Wege zur Nutzung dieser erhöhten Kapazität hervorgebracht hat. So haben künstliche Intelligenz und maschinelles Lernen nur deshalb den heutigen Reifegrad erreicht, weil wir in der Lage sind, riesige Datenmengen schnell zu bewegen und zu verarbeiten.

 

Das Tempo der digitalen Innovation hat sich zwar nicht verlangsamt, allerdings wird die Überwindung jeder neuen Geschwindigkeitsschwelle im Netz immer schwieriger. Der Hochgeschwindigkeits-Datenaustausch ist heute an einem Punkt angelangt, an dem die physikalischen Eigenschaften der Kabel und Verbindungen, über die sie übertragen wird, es schwieriger denn je machen, wirtschaftlich tragfähige Lösungen zu entwickeln – und es ist das Rechenzentrum, in dem der Bedarf an dieser Geschwindigkeit am größten ist.

Kupfer ist immer noch König

In den Rechenzentren werden die Informationen gespeichert, die wir täglich abrufen, um uns gegenseitig Nachrichten zu schicken, Waren im Einzelhandel online zu bestellen und uns durch den Berufsverkehr zu bewegen. Obwohl globale Hochgeschwindigkeitsnetze diese Daten über weite Strecken transportieren können, liegt der eigentliche Knackpunkt zwischen den Servern in großen Rechenzentren, wo die rechenintensive Arbeit des Trainings von KI-Modellen und der Analyse riesiger Datensätze stattfindet.

 

In den heutigen Rechenzentren kann eine einzige Verbindung Daten effizient und zuverlässig mit etwa 100 Gigabit pro Sekunde (Gbit/s) zwischen Servern, Schaltern und anderen Computern übertragen. Das ist ungefähr das 10.000-fache des Durchsatzes, der mit den ersten Netzwerkkabeln in den 1980er Jahren möglich war. Interessanterweise ist die Technologie in diesen Kabeln im Großen und Ganzen immer noch ähnlich.

Trotz der Fortschritte im Bereich der Glasfasertechnik ist die passive Kupferleitung nach wie vor das bevorzugte Transportmittel, um Daten mit hoher Geschwindigkeit über kurze Entfernungen zu übertragen. Kupfer ist in der Fertigung und Bereitstellung deutlich billiger als Glasfaser. Darüber hinaus kann sie Leistungsvorteile gegenüber optischen Kabeln bieten, da optische Signale an beiden Enden einer Verbindung noch in elektrische Impulse umgewandelt werden müssen.

 

Infolgedessen dreht sich ein Großteil der Arbeit von TE darum, Wege zu finden, die Möglichkeiten des einfachen Kupferdrahtes zu erweitern. Der nächste kritische Meilenstein, der erforderlich ist, um die zunehmende Nutzung von Echtzeit-Datenanalysen und Anwendungen der künstlichen Intelligenz zu unterstützen: 200 Gbit/s.

Ein Ingenieur analysiert die Konnektivitätsleistung in einem Rechenzentrum.
Effiziente, schnelle und zuverlässige Datenleistung ermöglichen

Erreichen des Schwellenwerts von 200 Gbit/s

Eine der größten Herausforderungen beim Erreichen des Schwellenwerts von 200 Gbit/s besteht darin, dass die höheren Frequenzen, die für die Übertragung von Daten mit diesen Geschwindigkeiten erforderlich sind, mehr Möglichkeiten für Signalverluste schaffen. Es gibt zwar Kabel und Steckverbinder, die diese Frequenz bewältigen und gleichzeitig den Signalverlust begrenzen können, aber sie sind meist groß und teuer. TE arbeitet daran, die Präzision dieser hochwertigen, teuren Verbindungen zu geringeren Kosten zuverlässig zu reproduzieren, sodass Rechenzentren sie in großem Maßstab einsetzen können.

Die Grundzüge dieses Problems sind nicht neu. Der Kompromiss zwischen Leistung, Fertigung und Zuverlässigkeit war bisher der Dreh- und Angelpunkt bei jedem Fortschritt in Sachen Kabelgeschwindigkeit. Leider ist es mit jeder Geschwindigkeitserhöhung schwieriger geworden, einen brauchbaren Kompromiss zu finden. Auch wenn wir auf dem Weg zu effizienten, wirtschaftlichen 200-Gbit/s-Verbindungen voranschreiten, sind Verbindungstechnologien, die höhere Geschwindigkeiten erreichen, bereits am Horizont zu erkennen.

Zukünftige Geschwindigkeiten könnten mehr als nur neue Kabel erfordern

Irgendwann werden wir einen Punkt erreichen, an dem der Ertrag abnimmt, wenn wir versuchen, zusätzliche Geschwindigkeit allein aus Kupferdraht zu gewinnen. Das bedeutet jedoch nicht zwangsläufig, dass Sie auf eine andere Kabeltechnologie umsteigen müssen. Stattdessen werden Fortschritte bei der Ausstattung von Rechenzentren wahrscheinlich Teil der Lösung sein, um die Datengeschwindigkeiten der nächsten Generation zu erreichen. Neue Architekturen könnten effizientere Verbindungen ermöglichen und gleichzeitig zusätzliche Möglichkeiten zur Verbesserung der Latenzzeit bieten. Zum Beispiel könnte man die physischen Verbindungen zwischen Servern und Switches ändern, indem man Drähte direkt an Chipkomponenten anschließen lässt.

 

Große technologische Sprünge wie dieser sind teuer und für einen einzelnen Komponentenhersteller nur schwer zu bewerkstelligen. Stattdessen wird die Entwicklung neuer Wege zur Verbindung mehrerer Komponenten in einem Netzwerk eine enge Zusammenarbeit zwischen den verschiedenen Akteuren der Branche erfordern. TE ist sehr aktiv in Gesprächen über Netzwerkarchitekturen der nächsten Generation. Wir arbeiten auch eng mit unseren Kunden zusammen, um sicherzustellen, dass die von uns entwickelten Lösungen in das gesamte Ökosystem passen.

Veränderte Architekturen bieten auch die Möglichkeit, über schnellere Signalverbindungen hinaus Effizienzgewinne zu erzielen. So ist zum Beispiel die Hitze ein wichtiges Thema für die Betreiber von Rechenzentren, da sie die Leistung und Zuverlässigkeit beeinträchtigen kann. Insbesondere optische Kabelverbindungen sind für ihre Wärmeentwicklung berüchtigt und erfordern ein gutes thermisches Design.

 

Um dieses Problem in den Griff zu bekommen, bringen sich die Wärmetechniker von TE in den Produktentwicklungsprozess ein, um sicherzustellen, dass unsere Produkte Signale kostengünstig und zuverlässig übertragen. Unsere Ingenieure haben zum Beispiel innovative Produkte entwickelt, um Abstandspads zu ersetzen, eine gängige Lösung für eine thermische Verbindung zwischen zwei Oberflächen. Die Wärmebrücke von TE verbessert die Wärmeübertragung von optischen Hochleistungsmodulen.

 

Die Integration dieser wärmeableitenden Technologien in unsere Produkte verbessert das gesamte Ökosystem des Rechenzentrums und macht es möglich, mehr Geräte in einen Schalter zu packen.

Zwei Kollegen stehen vor einem Rechenzentrum und unterhalten sich
Wie man die Leistung von Rechenzentren optimiert und gleichzeitig die Auswirkungen auf die Umwelt minimiert.

Über den Horizont hinaus

Die Geschwindigkeit, mit der wir große Datenmengen bewegen können, schafft auch neue Möglichkeiten für die Architektur von Rechenzentren – einschließlich einer Entwicklung hin zum disaggregierten Computing, das Computer im Wesentlichen weniger physisch macht. Anstatt eine Reihe von Computern mit ihren eigenen separaten Prozessor-, Arbeitsspeicher- und Speicherkapazitäten miteinander zu verbinden, zerlegen disaggregierte Architekturen jeden Teil eines Computers in seine eigenen Teile. Ein riesiger gemeinsamer Speicherpool könnte dann viele leistungsstarke Datenprozessoren bedienen.

 

Gepoolter Speicher ist seit langem entscheidend für Cloud Computing und verteilte Rechenzentren. Jetzt eröffnen schnellere Verbindungen und niedrigere Latenzzeiten die Möglichkeit, andere Teile von Computern zu virtualisieren und so die Ressourcen effizienter zu nutzen.

In naher Zukunft wird uns die Notwendigkeit, immer komplexere KI-Modelle zu trainieren, um anspruchsvollere Anwendungen in der Medizin, im Einzelhandel und beim autonomen Fahren zu unterstützen, dazu zwingen, mehr Daten schneller zu sammeln, zu speichern und zu verarbeiten. Wir haben gerade erst begonnen zu sehen, wie wirkungsvoll diese Technologien sein können.

 

Große KI-Anwendungen werden mit Hochgeschwindigkeitsverbindungen der nächsten Generation besser skalierbar und breiter verfügbar sein. Aber es wäre töricht anzunehmen, dass sich die digitale Innovation – oder die Geschwindigkeit, die wir brauchen, um sie zu erreichen – in nächster Zeit verlangsamen wird. Während wir uns dem Meilenstein von 200 Gbit/s nähern, denken wir bei TE bereits darüber nach, was notwendig ist, um den nächsten und übernächsten Meilenstein zu erreichen.

Über den Autor

David Helster, Engineering Fellow, Data and Devices

David Helster

David Helster ist ein Branchenexperte und Senior Fellow im Ruhestand. Zuvor war er bei TE im Segment Digital Data Networks tätig. Während seiner gesamten 31-jährigen Karriere hat er Hochgeschwindigkeitssysteme und -verbindungen für Systemarchitekturen und Signalintegritäts-Technologien entwickelt. David hat einen BSEE von der Drexel University.