Maschinelles Lernen in Datencenterarchitekturen

Trend

Eine neue Generation von Datenanwendungen

Bei der Entwicklung von Maschinellem Lernen für ein Datencenter müssen von Anfang an alle Faktoren berücksichtigt werden, die die Leistung, Skalierbarkeit und Ausfallsicherheit betreffen.

Die richtige Architektur kann für ein erfolgreiches Integrieren von maschinellem Lernen in Datencenter entscheidend sein. Die Infrastruktur des Datencenters kann für die Aktivierung der Funktionalität einer IT-Architektur entscheidend sein, da der größte Teil ihres Inhalts von der IT-Architektur übertragen wird oder in ihr seinen Ursprung hat.

 

Bei der Entwicklung von maschinellem Lernen für das Datencenter sollten bereits zu Beginn, also während der Planung, alle Faktoren berücksichtigt werden, die die Leistung, Skalierbarkeit und Ausfallsicherheit der Anlage beeinflussen. Um dies zu erreichen, konzentrieren sich Systemdesigner in der Regel auf die Entwicklung einer flexiblen Architektur, die neue Anwendungen schnell unterstützen kann.

 

Wenn diese Aspekte nicht bereits während der Planung berücksichtigt werden, kann dies zu ineffizienten oder ungenauen Datenarchitekturen führen, die letztendlich totale System- und Stromausfälle verursachen können, bei denen Betreiber von Datencentern enorme Mengen an kritischen Daten verlieren.

 

Es gibt mehrere Faktoren, die diese Art von Fehler verursachen können, einschließlich der falschen Berechnung des Strombedarfs, der falschen Auswahl der Energieanlagen und der falschen Konstruktion des automatischen Übertragungsmechanismus. Um die Möglichkeiten des maschinellen Lernens in der heutigen Datencenterarchitektur zu optimieren, sollten Systementwickler die häufigsten Probleme berücksichtigen, die zu Systemfehlern führen, genauso wie die Komponenten, die die Ursachen dieser Probleme beheben können.

Einblicke des CTO zum Cloud Computing
Video auf Englisch

TE CTO und VP Erin Byrne spricht über ihre Sichtweisen bezüglich Cloud Computing und Megatrends, die die Designarchitektur beeinflussen.

Einblicke des CTO zum Cloud Computing
Video auf Englisch

TE CTO und VP Erin Byrne spricht über ihre Sichtweisen bezüglich Cloud Computing und Megatrends, die die Designarchitektur beeinflussen.

Ein Problem der heutigen Datencenterindustrie ist, dass die Begriffe Künstliche Intelligenz (KI) und maschinelles Lernen (ML) häufig als Synonyme verwendet werden, was zu Verwirrung und Ungenauigkeiten führen könnte. Man muss unbedingt vor Augen haben, dass maschinelles Lernen typischerweise eine Teilgruppe der künstlichen Intelligenz ist. Bei KI liegt der Fokus auf der Entwicklung von Maschinen, die „denken” können, während es beim maschinellen Lernen in der Regel darum geht, Algorithmen zu definieren, anhand derer die Maschinen durch sich wiederholende Funktionen „lernen” können. Während maschinelles Lernen kein neues Konzept ist, besteht eine der Veränderungen der letzten Jahre in der höheren Rechenleistung von Computern und den geringeren Kosten pro Bit. Diese Veränderung kann Designern helfen, Möglichkeiten zu finden, maschinelles Lernen in unserem Alltag noch präsenter werden zu lassen, wie es bei Empfehlungsdiensten wie Google und Netflix bis hin zu integrierten Social Media-Apps und der Fingerabdruck- und Gesichtserkennung auf Smartphones bereits der Fall ist.

 

Seit der Entstehung der frühesten ML-Anwendungen in der Luft- und Raumfahrtindustrie, die es vielen Flugzeugdesignern ermöglicht haben, innovative Flügeldesigns zu entwerfen, haben viele Designer ihre Denkweise über die Nutzung von maschinellem Lernen geändert und im Bestreben, das Design zu optimieren, ein umfassendes Verständnis für die Neuausrichtung von Potenzialen und Kompromissen entwickelt.

 

Dieser Wandel wirkt sich auf das Datencenter aus, wo wir inzwischen häufig sehen können, wie der Einsatz von KI und ML in begrenzten Anwendungen auf Standardcomputern und Standalone-Boxen übergeht in eine Reihe von Anwendungen, die siliziumspezifisch sind. Dies kann der Branche die Tür öffnen, sich auf die Optimierung des Datencenternetzwerks zu konzentrieren und KI und ML in jedem Teil dieses Netzwerks zu nutzen, um die Funktionalität im Laufe der Zeit zu erweitern.

Für die nächsten fünf Jahre wird erwartet, dass sich der Einsatz von maschinellem Lernen von dedizierten Infrastrukturen hin zu flexibleren Infrastrukturen verlagert, die die Fähigkeit zur sofortigen Skalierung, Veränderung und Diversifizierung bieten können. Während eine der Hauptfunktionen der ML-Datenerfassung auf Mensch-Maschine-Interaktionen ausgerichtet ist, bietet sich immer mehr die Gelegenheit für Interaktionen zwischen Maschine und Maschine, die möglicherweise keine manuelle Dateneingabe oder Eingriffe durch den Menschen erfordern. Wenn Maschinen mit der Erstellung von Kommunikationspfaden beginnen, könnten die Systeme dabei helfen, Daten auf eine Weise zu verarbeiten und zu übertragen, die uns neue Einblicke in größere Datenmengen verschaffen könnte.  

 

Der Prozess des Hinzufügens von ML zu Datensystemen wie Servern und Datenracks ist oft sehr unterschiedlich. Er hängt davon ab, was der Systemdesigner zu erreichen versucht, und welchen Arbeitsaufwand der Datencenteroperator betreiben muss, um ML im Inneren zu integrieren. 

 

Oft wird maschinelles Lernen in neue oder vorhandene Datencenter integriert, um ein vorhandenes bekanntes Problem zu lösen, z. B. Probleme in großen Lern-Pods oder Netzwerkprobleme aufgrund von Algorithmen, die aus empfangenen Daten entwickelt wurden. Die meisten Lösungen werden heute in der Regel an die Größe des Problems angepasst.

 

Zu den Herausforderungen bei der Entwicklung von Kundenlösungen gehören die Optimierung der Stromverteilung, die Reduzierung des thermischen Niveaus und die Verbesserung der Leistung von Hochgeschwindigkeitsdatenverbindungen mit niedriger Latenz. Da in einem Datencenter normalerweise alles miteinander verbunden sein muss, sollten die Systemkomponenten so flexibel sein, dass sie auf kleinem Raum installiert werden und funktionieren können und die erwarteten Geschwindigkeitsanforderungen erfüllen, ohne die Wärmeleistung zu erhöhen.

 

Oft müssen Designer bei der Planung der Architektur die Nähe von Hardware berücksichtigen. Um dieses Gleichgewicht zu erreichen, können Kompromisse bei Design, Kosten, Stromversorgung und Kühlanlagen erforderlich sein. Normalerweise gibt es eine Obergrenze dafür, wie viel Strom in Datencentern richtig gesteuert und gekühlt werden kann. Diese Obergrenze kann Designern als Orientierungshilfe für Kompromisse dienen und es ihnen ermöglichen, effizientere Beschleuniger und Systemdesigns zu entwickeln und fortschrittliche Wärmelösungen einzusetzen.

Bei TE arbeiten wir mit unseren Kunden zusammen, um die Komponenten zu entwickeln und herzustellen, die die Anforderungen des maschinellen Lernens in Datencentern erfüllen können – vom Hyperscaling und der richtigen Anordnung bis hin zu Anforderungen, die Edge Computing ermöglichen können. Wir bieten Lösungen für hohe Geschwindigkeit und Leistungseffizienz in Datencenterarchitekturen, einschließlich Direct Attach, externer Kupferkabelsätze – mit  Schnittstellen sowie unsere XLA-Sockel-Technologie (Extra Large Array), Card Edge Steckverbinder, STRADA WHISPER Backplane-Steckverbinderkabelsätze und interne Hochgeschwindigkeits-Kupferkabel. Diese Produkte werden für unsere Kunden meist auf der Basis des Systemdesigns ausgewählt, in dem sie verwendet werden sollen. Unsere Stromversorgungsdesigns beinhalten Stromkabelsätze, Busbars, Stromverteilungssysteme und Wärmemanagementlösungen.

 

Dank der Zusammenarbeit mit TE können unsere Kunden zuverlässige, langlebige und leistungsstarke Lösungen erwarten, während sie hinsichtlich der Lösung möglicherweise auftretender Architekturprobleme von den Ingenieuren fachkundig beraten werden. Durch diese Zusammenarbeit können unsere Kunden effiziente Lösungen der nächsten Generation entwickeln, die sie schnell skalieren können, um maschinelles Lernen in den Kern ihres Datensystems zu integrieren. Unsere Ingenieure helfen dabei, Leistungsprobleme zu beheben, damit sich unsere Kunden auf andere Prioritäten konzentrieren können, wie z. B. die Arbeit an der Entwicklung von Projekten auf Anwendungsebene und die Lösung abstrakter Probleme mit Software.

TE Autoren

  • Mike Tryson, Vice President und Chief Technology Officer, Digital Data Networks
  • Erin Byrne, Vice President und Chief Technology Officer, Industrial Solutions
  • Dave Helster, TE Engineering Fellow im Ruhestand
  • Jonathan Lee, Senior Engineering Manager – Global Bulk Cable
  • Christopher Blackburn, Technologist – System Architecture