Points de vue de TE

La connectivité des centres de données à l'ère du numérique

Auteur : David Helster, Ingénieur, Données et Périphériques

L'innovation numérique repose sur la capacité à faire circuler plus de données, plus rapidement. Dans les années 1980, la technologie du câble capable de transporter dix mégabits de données par seconde s'est largement répandue et les fondements des réseaux modernes – et de l'internet lui-même – sont nés.

 

Cette technologie a eu une durée de vie étonnamment longue. Elle demeure largement compatible avec les cartes réseau des ordinateurs d'aujourd'hui, même si les câbles des réseaux résidentiels actuels sont capables de transporter 1 gigabit de données par seconde (Gbit/s), soit 1 000 fois la capacité des premiers modèles. Cependant, la quantité de données que nous devons transmettre, stocker, analyser et traiter a considérablement augmenté. En effet, chaque progrès dans la vitesse de transmission des données a suscité de nouvelles façons innovantes d'utiliser cette plus grande capacité. Par exemple, l'intelligence artificielle et l'apprentissage automatique ont seulement atteint aujourd'hui leur niveau actuel en raison de nos capacités à transmettre et à traiter rapidement des quantités massives de données.

 

Bien que le rythme de l'innovation numérique n'ait pas ralenti, il devient de plus en plus difficile de franchir chaque nouveau seuil de vitesse pour les réseaux. Aujourd'hui, les communications de données à haut débit atteignent un niveau tel que les propriétés physiques des câbles et des connexions rendent plus difficile que jamais la production de solutions économiquement viables – et c'est dans les centres de données que le besoin de vitesse est le plus critique.

Le cuivre est toujours roi

Les centres de données hébergent les informations que nous utilisons quotidiennement pour envoyer des messages, commander des produits en ligne et être guidés dans les embouteillages aux heures de pointe. Bien que les réseaux mondiaux à haut débit puissent transférer ces données sur de grandes distances, le point de congestion ultime a lieu entre les serveurs des grands centres de données, dans lesquels s'effectue un travail de calcul intense pour développer des modèles d'intelligence artificielle et analyser d'énormes groupes de données.

 

Dans les centres de données modernes, une seule connexion permet de transférer des données de manière fiable et efficace entre des serveurs, des commutateurs et d'autres ordinateurs à une vitesse d'environ 100 gigabits par seconde (Gbit/s). C'est environ 10 000 fois le débit rendu possible par les premiers câbles de réseau des années 1980. Curieusement, la technologie utilisée dans ces câbles est encore très similaire.

Malgré les progrès de la fibre optique, le fil de cuivre passif reste le mode de transport privilégié pour faire circuler des données à grande vitesse sur de courtes distances, car il est nettement moins cher à fabriquer et à déployer que la fibre optique. De plus, le cuivre peut offrir des avantages en termes de performances par rapport au câblage optique, car ces derniers doivent toujours être convertis en impulsions électriques à chaque extrémité de la connexion.

 

En conséquence, une grande partie du travail de TE a consisté à trouver des moyens permettant de renforcer les capacités du simple fil de cuivre. Le prochain palier critique pour faciliter l'utilisation croissante des applications d'analyse de données en temps réel et d'intelligence artificielle est 200 Gbit/s.

Un ingénieur analyse les performances de connectivité dans un centre de données.

Assurer l'efficacité, la rapidité et la fiabilité des données

Atteindre le seuil de 200 Gbit/s

L'un des principaux défis à relever pour atteindre le seuil de 200 Gbit/s réside dans le fait que les fréquences plus élevées nécessaires à la transmission de données augmentent les risques de perte de signaux. Il existe des câbles et des connecteurs capables de supporter ces fréquences tout en limitant les pertes de signaux, mais ils ont tendance à être volumineux et à coûter cher. TE s'efforce de reproduire de manière fiable et à moindre coût la précision de ces connexions, afin que les centres de données puissent les adopter à grande échelle.

Les grandes lignes de ce problème ne sont pas inconnues. Le compromis entre les performances, la fabrication et la fiabilité a toujours été au cœur de toutes les avancées en matière de vitesse pour les câbles. Malheureusement, il est devenu de plus en plus difficile de trouver un compromis viable pour chaque augmentation de vitesse. Bien que nous progressions vers des connexions efficaces et économiques pour les vitesses de 200 Gbit/s, des technologies de connexion permettant d'atteindre des vitesses encore plus élevées se profilent déjà à l'horizon.

Un homme parle avec son smartphone tout en regardant une ville intelligente connectée à la 5G.

Concevoir l'avenir connecté de tous les objets

Les vitesses de demain pourraient nécessiter plus que de simples nouveaux câbles

À terme, nous finirons par atteindre un point de rendement décroissant lorsque nous essaierons d'obtenir des vitesses supérieures uniquement à partir du fil de cuivre. Toutefois, cela ne signifiera pas nécessairement de passer à une technologie de câble complètement différente. En effet, les avancées en matière d'équipement des centres de données feront probablement partie de la solution pour atteindre la prochaine génération de vitesse de transmission des données. De nouvelles architectures pourraient permettre des connexions plus efficaces tout en offrant des possibilités supplémentaires pour réduire les temps de réponse. On pourrait, par exemple, modifier les interconnexions physiques entre les serveurs et les commutateurs en permettant aux fils de se connecter directement aux composants.

 

De grands sauts technologiques comme celui-ci sont chers à réaliser et difficiles à mener par un seul fabricant de composants. Au lieu de tout cela, le développement de nouvelles façons de connecter de multiples composants sur un réseau nécessitera une étroite collaboration entre les différents acteurs de l'industrie. TE est très actif dans les discussions sur les architectures de réseau de la prochaine génération. Nous travaillons également en étroite collaboration avec nos clients pour nous assurer que les solutions que nous développons s'adaptent à l'ensemble de l'écosystème.

L'évolution des architectures offre également des possibilités de gains en efficacité qui vont au-delà des interconnexions de signaux les plus rapides. Par exemple, la chaleur est une préoccupation importante pour les opérateurs de centres de données car elle peut dégrader les performances et la fiabilité. Les connexions de câbles optiques, en particulier, sont connues pour produire de la chaleur et nécessitent donc une bonne conception thermique.

 

Pour aider à résoudre ce problème, les ingénieurs en génie thermique de TE interviennent pendant le processus de développement pour veiller à ce que nos produits transmettent des signaux de manière fiable et rentable. Ainsi, nos ingénieurs ont développé des produits innovants pour remplacer les tampons d'espacement, une solution courante pour une connexion thermique entre deux surfaces. Le pont thermique de TE améliore le transfert de chaleur des modules optiques haute puissance.

 

L'intégration de ces technologies de dissipation de chaleur dans nos produits améliore l'ensemble de l'écosystème du centre de données, ce qui permet d'intégrer plus d'appareils dans un commutateur.

Et après ?

La vitesse à laquelle nous pouvons déplacer de grands volumes de données crée également de nouvelles possibilités pour l'architecture des centres de données, y compris une évolution vers l'informatique désagrégée qui réduit essentiellement la part physique des ordinateurs. Au lieu de connecter un ensemble d'ordinateurs dotés chacun de leurs propres processeurs, mémoire et capacités de stockage, les architectures désagrégées divisent chaque partie d'un ordinateur en un élément distinct. Un énorme « réservoir » de mémoire partagée pourrait alors servir à de nombreux processeurs puissants.

 

Les systèmes de mémoire groupée sont depuis longtemps indispensables pour le cloud computing et les centres de données distribués. Désormais, des interconnexions plus rapides et des signaux avec un temps de réponse plus faible ouvrent des possibilités pour virtualiser d'autres parties des ordinateurs, ce qui permet une utilisation plus efficace des ressources.

À plus court terme, la nécessité de former des modèles d'IA de plus en plus complexes pour soutenir des applications plus sophistiquées dans la médecine, le secteur commercial et la conduite autonome nous poussera à collecter, stocker et traiter plus de données, et plus rapidement. Nous commençons tout juste à voir à quel point ces technologies peuvent avoir un impact.

 

Les applications d'IA de grande envergure seront plus adaptables et largement disponibles grâce aux interconnexions à haut débit de nouvelle génération. Mais il serait insensé de supposer que l'innovation numérique – ou les vitesses dont nous avons besoin pour l'atteindre – ralentira de sitôt. Chez TE, alors que nous approchons du cap des 200 Gbit/s, nous réfléchissons déjà à ce qu'il faudra faire pour atteindre le prochain niveau, et celui d'après.

À propos de l'auteur

David Helster, Engineering Fellow, Data and Devices

David Helster

David Helster est ingénieur associé au sein de la division Données et Périphériques de TE Connectivity. Il a conçu des systèmes et des interconnexions à haute vitesse tout a long de ses 31 années de carrière. Il dirige actuellement les groupes technologiques chargés de l'architecture des systèmes et de l'intégrité des signaux. À ce titre, il veille à ce que les besoins techniques futurs des clients et de l'industrie soient en phase avec le développement stratégique des produits de TE. David a obtenu son BSEE à l'Université Drexel.