データ センターの制御室で生成 AI システムを実行する IT エンジニア。

データ センターの性能に関する TE の視点

拡張可能な AI コンピューティングのためのコネクティビティ イノベーション

著者: Sudhakar Sabada、Data and Devices 部門 SVP 兼 GM

人工知能 (AI) モデルは一段と高度に複雑化しているため、 データ センターでは、増大し続けるデータをより迅速かつ効率的に処理するため、そのアーキテクチャを変更しています。

 

AI モデルが生み出したビジネス インサイトによって、広範な産業分野で生産性が高まっています。金融機関で 24 時間 365 日のカスタマー サポートを提供している AI 搭載のチャット ボットから、患者のデータをリアルタイムで分析して合併症の可能性を予測し、より迅速な介入ができるよう医療従事者を支援するヘルスケア プラットフォームまで、データ主導型のコンピューティング システムの用途が拡大し続けています。これらのモデルがより高度に複雑化するにつれ、その実行に用いられるデータ量も同じように増加し続けています。これはすべて、生成 AI の開発を考慮に入れる前の、結果を得るのにより強力な計算能力を必要としたため、大規模言語モデルのさらなる肥大化に頼っていた時のことです。

 

これらの用途に対応するため、データ センターは膨大な量のデータをより効率的かつ効果的に処理しなければなりませんでした。このような傾向は、使用する機器や、その接続に使用する技術に変化をもたらしています。

拡張可能なデータ センター アーキテクチャの開発

AI の作業負荷を効果的にサポートするには、利用できる最も高い帯域幅の最も低い遅延システムが必要です。 集約処理による作業負荷は、これまでコンピューターを動かしてきた標準的な中央演算処理装置 (CPU) の能力を超え、より強力なグラフィックス プロセッシング ユニット (GPU) へと移行してきました。GPU は当初、比較的単純な多数の計算を同時に行って複雑な画像をレンダリングする目的で設計されたため、このように呼ばれます。GPU は、短時間で多数の計算を完了することが必要な AI 用途に適したエンジンとなりました。現在、GPU はテンソル プロセッシング ユニット (TPU) に増強され、AI 計算をさらに加速できます。

 

しかし、単独のプロセッサで成し遂げることには限界があります。プロセッサのクラスタを連結することによって、データ センターで、利用できる計算能力の総量を増やせます。これらのクラスタを構築する際の技術的な問題は、クラスタを効率的につなぎ合わせる能力です。

生成 AI アーキテクチャを運用するためデータ センターのラックをプログラミングする AI エンジニア。
未来のデータ センター アーキテクチャの設計

コネクタが拡張性の鍵

多数のコンポーネント間で膨大な量のデータを迅速かつ確実に移動するには、多種多様なコネクタが必要です。 力仕事をする GPU と、プロセス全体にわたる作業負荷を管理統制する CPU は、ソケット コネクタと Mezzanine コネクタを用いてプリント基板に取り付けられています。高速ケーブル アセンブリとケーブル カートリッジは、サーバのバックプレーン上にある電気接続をサーバ上の回路基板やその他のコンポーネントに接続します。その他の入出力 (I/O) コネクタは、データをあるサーバから別のサーバに移動し、多数のサーバにまたがるクラスタを連結します。

 

効率的かつ効果的に動作するためには、これらのコネクタをフォーム ファクタの仕様に合わせると同時に、データ転送速度も最大になるように設計する必要があります。今日、最も高速な AI ソリューションでは、1 秒あたり 56 ギガビット前後でデータを転送できます。展開しているシステムでは、あと 1 年ほどでこの数字が 1 秒あたり 112 ギガビットに、そして最終的に 2~3 年後には 1 秒あたり 224 ギガビットにまで増大すると思われます。

 

データ速度がステップアップするごとに、信頼性の高い信号を維持して信頼性の高いシステム性能を保証するための誤差は縮小します。1 秒あたり 224 ギガビットで銅線接続を確実に通過する場合、物理学の限界域で動作していることを意味します。このような厳しい性能仕様だけでなく、過酷な動作環境で十分に使用できる機械的にも熱的にも堅牢なコネクタを設計することも重要です。

 

この点に対応するため、TE では、性能、コスト、信頼性、および耐久性のバランスを取りながら、適切な機能を考慮して設計したさまざまなコネクタを製造しています。これらのコネクタには、アクセラレーテッド コンピューティング プロセッシング ユニットをさまざまな回路基板に取り付けるためのコネクタ接続部や、システム全体のデータ移動を制御するプロセッサを挿入するためのソケットが含まれます。 これらのコンポーネントを超高速でつなぐために、TE では、高速ボード レベル接続用の内部ケーブル アセンブリ製品、ケーブル バックプレーン アセンブリ製品、さらにシステムの統合プロセスを単純化し、これらのシステムを構築し拡張するためのモジュール方式をサポートするカートリッジとハイスピード コネクタも開発しました。開発では、実用的な最高速度と最低待機時間への対応を常に見据えています。

AI コンピューティングの強化

必要な場所にデータを移動しても、まだ半分しか終わっていません。 AI クラスタを構成するコンポーネントにも、その機能を果たすため電力が必要です。一般に、計算能力が高くなるほど、それを動かすためにより多くの電力が必要です。その電力を分配するにも、最高レベルのシステム性能をサポートする、より効率の高いコネクタが必要です。

 

コンピュート インテンシブな用途に対応するため、これらのコンポーネントも、連続動作の要求に確実に耐えられる堅牢性を備えていなければなりません。進化を続けるアーキテクチャがこれらの要求の厳しい仕様に適合し続けるために、コンポーネントの製造元は、あらゆるフォーム ファクタに対応する多様な電源ケーブルとコネクタを提供する必要があります。

 

高度に複雑化した AI コンピューティング コンポーネントが必要とする電力が高くなるほど、より多くの熱が発生するため、放熱性を高めることが極めて重要になります。AI システムのフロント パネル上にある接続は、多くの場合、最大の熱発生源の 1 つとなるため、その区域は効率を上げるための重要なターゲットです。たとえば、TE の I/O 製品にはヒート シンク機能が備わっていて、これらのモジュールから熱エネルギーを外に逃がしてより低温で動作できるため、システム全体の効率と信頼性が向上します。

最前線のコラボレーション

データ センター レベルでますます高度に複雑化する AI の用途に対応するため、さらなる高速化と広い帯域幅を求める動きは、事実上とどまるところを知りません。 最新のソリューションを展開していても、お客様は、データ センターの進化における次のステップに備え、より高速でより効率的なアーキテクチャを設計する方法について積極的に考えています。

 

時に、コネクタに組み込まれた機能によって、システムのアーキテクチャへのアプローチが変わることもあります。たとえば、あるお客様とはシステム設計の初期検討段階から緊密に協力していたため、基板対基板コネクタ ベースのシステムから、ケーブル ベースのバックプレーン コネクタを使用するシステムに戦略を変えても、より柔軟で効率的な設計にたどり着けました。

 

このようなイノベーションが可能なのは、当社がお客様と早い段階から共同で取り組み、お客様の現在の要望と将来の計画を理解しているためです。AI によってデータ センターの変換が加速しても、さらに高い計算能力を求める動きに迅速に対応できるよう、引き続き産業界とのこのような協力関係を進めていくことが不可欠です。

著者について

Sudhakar Sabada, SVP & GM, デジタルデータネットワーク

Sudhakar Sabada

Sudhakar Sabada は、TEのデジタルデータネットワーク事業部でシニアバイス・プレジデント兼ゼネラル マネージャを務めています。この職務において、クラウド、人工知能、エンタープライズ、電気通信、小売業の市場セグメントを含む電子機器業界を広範に扱う同事業部の全体的な PL に関する責任を負っています。さらに、日常生活のあらゆる分野に通信ソリューションとイノベーションをもたらすモノのインターネット (IoT) 事業の開発も監督しています。ビジネス戦略と製品戦略、市場投入活動、設計部門と製造部門も統率しています。