TE Perspective: Die Leistung von Rechenzentren
Autor: Sudhakar Sabada, SVP & GM, Data & Devices
Da die Modelle der künstlichen Intelligenz (KI) immer ausgefeilter werden, ändert sich auch die Architektur von Rechenzentren, sodass immer größere Datenmengen schneller und effizienter verarbeitet werden können.
Die aus KI-Modellen gewonnenen geschäftlichen Erkenntnisse haben die Produktivität in einer Reihe von Industrien gesteigert. Von KI-gestützten Chatbots, die einen 24/7-Kundensupport in Finanzinstituten bieten, bis hin zu Gesundheitsplattformen, die Patientendaten in Echtzeit analysieren und Anbietern helfen, potenzielle Komplikationen vorherzusagen und schneller einzugreifen – die Anwendungen für datengesteuerte Computersysteme nehmen laufend zu. Da diese Modelle immer ausgefeilter werden, steigt auch die Datenmenge, die sie konsumieren müssen, immer weiter. Und das alles, ohne die Entwicklung der generativen KI zu berücksichtigen, die auf immer größere Sprachmodelle angewiesen ist. Diese Sprachmodelle benötigen immer mehr Rechenleistung, um Ergebnisse erzielen zu können.
Um diese Anwendungen zu unterstützen, müssen Rechenzentren bei der Verarbeitung großer Datenmengen viel effizienter und effektiver werden. Dieser Trend verändert sowohl die Geräte, die sie nutzen, als auch die Technologie, mit der sie verbunden sind.
Für die effektive Unterstützung von KI-Workloads sind Systeme mit der höchsten Bandbreite und der geringsten Latenz erforderlich. Die rechenintensive Arbeitslast hat sich über die standardmäßigen, traditionellen Zentralprozessoren (CPUs) für Computer hinaus zu leistungsfähigeren Grafikprozessoren (GPUs) entwickelt, die so genannt werden, weil sie ursprünglich für das Rendern komplexer Bilder entwickelt wurden, indem sie eine große Anzahl relativ unkomplizierter Berechnungen gleichzeitig durchführen. GPUs wurden zur bevorzugten Engine für KI-Anwendungen, die den Abschluss mehrerer Berechnungen in kurzer Zeit erfordern. Jetzt werden GPUs durch Tensor-Processing-Units (TPUs) ergänzt, die KI-Berechnungen noch weiter beschleunigen.
Es gibt jedoch eine Grenze für das, was ein einzelner Prozessor leisten kann. Durch die Verknüpfung von Prozessorclustern kann die verfügbare Rechenleistung erhöht werden. Die technologische Herausforderung beim Aufbau dieser Cluster besteht darin, sie effizient miteinander zu verbinden.
Das schnelle und zuverlässige Verschieben großer Datenmengen zwischen mehreren Komponenten erfordert eine Reihe unterschiedlicher Steckverbinder. Die GPUs, die die schwere Arbeit erledigen, und die CPUs, die die Verwaltung der Arbeitslast während des gesamten Prozesses orchestrieren, werden mit Sockel- und Mezzanine-Steckverbindern auf den Leiterplatten angebracht. Hochgeschwindigkeitskabelsätze und Kabelkartuschen verbinden die elektrischen Anschlüsse auf der Backplane mit den Leiterplatten und anderen Komponenten des Servers. Andere I/O-Steckverbinder (Input/Output) verschieben Daten von einem Server auf einen anderen und verbinden Cluster über mehrere Server hinweg.
Um effizient und effektiv arbeiten zu können, müssen diese Steckverbinder so konzipiert sein, dass sie die Spezifikationen des Formfaktors erfüllen und gleichzeitig die Geschwindigkeit der Datenübertragung maximieren. Die schnellsten KI-Lösungen übertragen heute Daten mit rund 56 Gigabit pro Sekunde. In den bereitgestellten Systemen wird diese Zahl im nächsten Jahr auf 112 Gigabit pro Sekunde und zwei bis drei Jahre später schließlich auf 224 Gigabit pro Sekunde ansteigen.
Mit jeder Erhöhung der Datenrate schrumpft die Fehlerspanne für die Aufrechterhaltung eines zuverlässigen Signals, um eine zuverlässige Systemleistung zu gewährleisten. 224 Gigabit pro Sekunde zuverlässig über eine Kupferverbindung zu leiten, bedeutet, an den Grenzen der Physik zu arbeiten. Diese anspruchsvollen Leistungsspezifikationen addieren sich zu der Notwendigkeit, Steckverbinder zu entwickeln, die mechanisch und thermisch robust genug für den Einsatz in einer rauen Betriebsumgebung sind.
Um diese Anforderungen zu unterstützen, stellt TE eine Vielzahl von Steckverbindern her, die mit den richtigen Funktionen ausgestattet sind und gleichzeitig Leistung, Kosten, Zuverlässigkeit und Langlebigkeit in Einklang bringen. Dazu gehören Steckverbinderschnittstellen, die beschleunigte Recheneinheiten auf verschiedenen Leiterplatten montieren, sowie Sockel für die Implantation der Prozessoren, die zur Steuerung der Datenbewegung im System verwendet werden. Um diese Komponenten mit sehr hohen Geschwindigkeiten zu verbinden, hat TE auch eine Reihe von internen Kabelsätzen für Hochgeschwindigkeits-Konnektivität auf Leiterplatten, Backplane-Kabelsätze sowie Kartuschen und Hochgeschwindigkeits-Steckverbinder entwickelt, die den Systemintegrationsprozess vereinfachen und einen modularen Ansatz für den Aufbau und die Skalierung dieser Systeme unterstützen, immer mit dem Ziel, die höchste Geschwindigkeit und die geringste Latenz zu erreichen.
Das Verschieben von Daten dorthin, wo sie benötigt werden, ist nur die halbe Miete. Die Komponenten, aus denen KI-Cluster bestehen, benötigen auch Strom, um ihre Aufgabe zu erfüllen, und in der Regel erfordert mehr Rechenleistung mehr elektrische Leistung, um sie anzutreiben. Die Verteilung dieser Leistung erfordert auch effizientere Steckverbinder, die ein Höchstmaß an Systemleistung unterstützen.
Um rechenintensive Anwendungen zu unterstützen, müssen diese Komponenten auch robust sein, um sicherzustellen, dass sie den Anforderungen des Dauerbetriebs zuverlässig standhalten. Um sicherzustellen, dass die sich entwickelnden Architekturen diese anspruchsvollen Spezifikationen weiterhin erfüllen, müssen Komponentenhersteller eine breite Palette von Stromkabeln und Steckverbindern für alle Formfaktoren bereitstellen.
Die höhere Leistung, die von hochentwickelten KI-Computing-Komponenten benötigt wird, erzeugt auch mehr Wärme, was eine stärkere Wärmeableitung zu einem kritischen Faktor macht. Die Konnektivität auf der Vorderseite eines KI-Systems gehört oft zu den größten Wärmequellen, was diesen Bereich zu einem wichtigen Ziel für Effizienzsteigerungen macht. Zum Beispiel verfügen die I/O-Produkte von TE über integrierte Kühlkörperfunktionen, um Wärmeleistung von diesen Modulen wegzuleiten und den Betrieb kühler zu halten, wodurch die Gesamteffizienz und Zuverlässigkeit des Systems verbessert wird.
Die Nachfrage nach mehr Geschwindigkeit und Bandbreite, um immer ausgefeiltere KI-Anwendungen auf Rechenzentrumsebene zu unterstützen, ist im Grunde genommen unersättlich. Auch bei der Bereitstellung der heutigen Lösungen denken unsere Kunden aktiv darüber nach, wie sie eine schnellere und effizientere Architektur für den nächsten Schritt in der Entwicklung des Rechenzentrums entwerfen können.
Manchmal können die in Steckverbindern integrierten Funktionen den Ansatz für die Systemarchitektur ändern. Als wir beispielsweise schon früh eng mit einem Kunden zusammenarbeiteten, um das Design seines Systems zu untersuchen, entwickelte sich die Strategie von einem System, das auf Leiterplatte-auf-Leiterplatte-Steckverbinder basierte, zu einem System, das stattdessen eine kabelbasierte Backplane verwendete, wodurch ein flexibleres und effizienteres Design entstand.
Solche Innovationen sind möglich, weil wir frühzeitig mit unseren Kunden zusammenarbeiten, um ihre aktuellen Anforderungen zu begreifen und zu verstehen, wo sie morgen sein wollen. Da KI die Transformation von Rechenzentren beschleunigt, wird diese Art der Zusammenarbeit unerlässlich sein, um die Branche weiterhin schnell genug voranzubringen und mit der steigenden Nachfrage nach immer mehr Rechenleistung Schritt zu halten.
Sudhakar Sabada ist Senior Vice President und General Manager des Geschäftsbereiches Data & Devices bei TE Connectivity. In dieser Funktion verantwortet er die gesamte P&L des Unternehmens, das im Großen und Ganzen der Elektronikindustrie in den Marktsegmenten Cloud, künstliche Intelligenz, Unternehmen, Telekommunikation und Geschäftskunden dient. Er beaufsichtigt auch die Entwicklung des Bereichs IoT, der Kommunikationslösungen und Innovationen in allen Lebensbereichen hervorbringt. Darüber hinaus leitet er die Geschäfts- und Produktstrategie, die Markteinführungsaktivitäten sowie die Engineering- und Fertigungsfunktionen.
Weitere Artikel über technische Innovationen