AIパフォーマンス強化のためのテストソリューション

AIインフラストラクチャをテストするための最も広範なソリューションを提供します

人工知能の開発と展開をエンドツーエンドでサポート

テレダイン・レクロイは、20 年以上にわたり、データセンターで人工知能を実現するテクノロジーの信頼性の高い運用において重要な役割を果たしてきました。当社のテスト ソリューションは、高性能コンピューティングと分析、データの効率的な移動とアクセスを可能にするネットワーク、クラウドのホット ストレージとコールド ストレージのバックボーンとなるストレージ デバイスなど、エコシステム全体で使用されています。当社は、ハイパースケール環境で使用される PCI Express、CXL、NVMe、ギガビット イーサネット、SAS などのテクノロジーに関する最先端のソリューションを、早期導入者からシステム インテグレーターまで、設計エンジニアとテスト エンジニアに提供しています。

    人工知能 - 相互接続

    Rescale 計算する

    AI アプリケーションでは、膨大な量のデータを高スループットかつ低レイテンシで分析するために、データセンターでの高性能コンピューティングが必要であり、これが現代のコンピューターおよびデータ中心のアーキテクチャを推進します。
    人工知能 - ネットワーク

    ネットワーク

    ラック、データ センター、キャンパス内で大量のデータを移動することで、より高速で効率的なネットワーク テクノロジーの追求が加速します。
    人工知能 - ストレージ

    ストレージ

    ストレージ容量に対する需要の増加と、どこからでもデータにアクセスしたいという要望により、クラウドおよびハイブリッド ストレージ ソリューション、およびストレージ インターフェイス テクノロジーが進化しています。

    コンピューティング - 相互接続、処理、データフロー、メモリ管理

    AI の変革力の中核にあるのは、それをすべて可能にするコンピューティングと処理の要件です。AI ワークロードは、データ センターのハイパフォーマンス コンピューティング (HPC) の変革を推進し、1 秒あたり数兆回の計算を実行して、驚異的な速度と精度で画像認識、自然言語理解、トレンド予測を可能にします。並列処理システムにより、AI は人間の脳の複雑さを反映して、効率的にマルチタスクを実行できます。

    PCIe / CXLを表現するAI脳のカラフルな画像
    記憶とAIを管理する頭のカラフルな画像

    テレダイン・レクロイ Summit アナライザー、エクササイザー、ジャマー、インターポーザー、テスト システムは、PCIe を使用して AI をサポートする最速かつ最新のシステムを構築および最適化するのに役立ちます。これらのデバイスとコンピューティング システムは、GPU やカスタム シリコン チップなどの AI アクセラレータを中央処理装置 (CPU) に接続する高速インターフェイスを使用します。その継続的な進化により、AI システムは最先端のテクノロジを維持し、明日のデータ駆動型の世界の課題に対応できるようになります。

    • スケーラビリティ: PCIe は世代が進むごとに帯域幅が倍増し、AI アプリケーションの需要の高まりに対応しています。最新の PCIe 6.0 仕様では、ピンあたり 64 GT/s のデータ転送速度が提供され、AI システムがますます複雑化するタスクを処理できるようになります。
    • 多才PCIe は、ディープラーニング システム用の大型チップから、数百ペタフロップスの処理能力を必要とする大規模なニューラル ネットワークを処理するために拡張可能な小型の空間アクセラレータまで、さまざまなフォーム ファクターで使用されます。
    • エネルギー効率新しい PCIe バージョンでは低電力状態が導入され、AI システムの電力効率が向上します。これは、持続可能でコスト効率の高い AI 運用に不可欠です。
    • 相互接続性PCIe は、AI インフラストラクチャ内のコンピューティング、アクセラレータ、ネットワーク、ストレージ デバイスの相互接続を容易にし、消費電力を抑えて最大限の到達範囲を実現する効率的なデータ センター ソリューションを実現します。

    CXL は AI の展望を形成する上で大きな可能性を秘めており、Teledyne LeCroy ソリューションは今日の CXL システムをテストして最適化する唯一の方法です。メモリ効率、レイテンシの削減、パフォーマンスはすべて、CXL テストとコンプライアンスをサポートする Teledyne LeCroy ソリューションを使用して実現されます。これらはすべて、低レイテンシと高スループットを維持するために不可欠です。これは、大規模なデータセットへの迅速なアクセスを必要とする、帯域幅を集中的に使用する AI ワークロードにとって特に重要です。

    • メモリ容量の拡張CXL を使用すると、大規模なメモリ プールを複数のプロセッサまたはアクセラレータに接続できます。これは、大規模なデータセットを扱う AI/HPC アプリケーションにとって非常に重要です。
    • 待ち時間の短縮: CXL の低レイテンシ設計により、コンピューティング要素間でのデータの高速移動が保証されます。AI/ML ワークロードは、待機時間が最小限に抑えられるというメリットを得られます。
    • 相互運用性(インターオペラビリティ)CXL はベンダー中立の互換性を促進し、さまざまなアクセラレータとメモリ モジュールがシームレスに連携できるようにします。
    • 強化されたメモリ帯域幅CXL はメモリ帯域幅を大幅に向上させ、データ集約型のワークロードがボトルネックなしでデータにアクセスできるようにします。

    ネットワーク - 高速イーサネット、データ スループット、ファブリック、ネットワーク

    GPT-$ のような最近の大規模言語モデルでは、スケーラブルなネットワークを介してさまざまなソースから配信される数億以上のパラメータが必要です。このため、高速ネットワークとネットワーキング テクノロジは、これらの新しいワークロードに最適化された低レイテンシと効率的な情報転送をサポートする必要があります。

    AIインフラへの有線接続
    AIバックエンドテストのための世界規模のネットワークを様式化

    1 Gbps (ギガビット/秒) で動作するギガビット イーサネットは、高速なデータ転送速度を提供します。この速度は、AI ワークロードで大規模なデータセットを処理するために不可欠です。1 Tbps (テラビット/秒) で動作するテラビット イーサネットは、膨大なデータセットのシームレスな交換を可能にします。モノのインターネット (IoT)、人工知能 (AI)、ビッグ データ分析などの新興テクノロジーをサポートします。

    タイトル ページ イメージ - 人工知能向けに最適化されたデータ センター スイッチのテスト方法 - ホワイト ペーパー 人工知能向けに最適化されたデータセンタースイッチのテスト方法 - ホワイトペーパー
    • リアルタイム応答性: AI システムには低レイテンシが不可欠です。ギガビット イーサネットは遅延を最小限に抑え、GPU、CPU、ストレージ デバイスなどのコンポーネント間のタイムリーなやり取りを保証します。
    • リアルタイムの意思決定: テラビット イーサネットにより、リアルタイムの AI 主導の意思決定が可能になります。高帯域幅により、AI ノード間の効率的な通信が保証されます。
    • ロスレスネットワーク: 従来のイーサネットでは、混雑時にパケットがドロップされ、AIモデルの精度に影響する可能性があります。しかし、新しい技術では「ロスレス」伝送が実現し、高負荷時でもデータの整合性が確保されます。
    • スケーラビリティAIモデルの複雑さが増すにつれ、スケーラブルなインフラストラクチャが重要になります。ギガビットイーサネットは、追加のサーバーやデバイスを接続することでシームレスな拡張を可能にします。テラビットイーサネットは指数関数的な成長に対応し、効率的な接続とデータ交換を保証します。

    Teldyne LeCroy XENA 製品により、企業は AI バックエンド ネットワーク ファブリックを最適化し、将来を見据えて、大量のタイムクリティカルなトラフィックを処理できるようになります。AI ワークロードのデータ センター アーキテクチャでは、多くの場合、スパイン アンド リーフ構造が採用され、2 ~ 3 Gbps のポート速度を備えた低遅延 L400/L800 ネットワーク インフラストラクチャを介して、数千の AI アクセラレータとストレージ ソリューションが接続されます。RDMA over Converged Ethernet (RoCE) は、ストレージ データ転送プロトコルの有望な選択肢です。

    タイトル ページ イメージ - 人工知能向けに最適化されたデータ センター スイッチのテスト方法 - ホワイト ペーパー 人工知能向けに最適化されたデータセンタースイッチのテスト方法 - ホワイトペーパー
    • データセンターブリッジング(DCB): 通常のベストエフォート トラフィック (ロスレス トラフィック) と並行して、RDMA パケット (ロスレス トラフィック) の高スループット、低レイテンシ、パケット損失ゼロの転送を実現します。
    • 優先フロー制御 (PFC): バッファが特定のしきい値を超えていっぱいになったときに、送信者にパケットの送信を一時停止するように指示することで、パケット損失を防ぎます。
    • 輻輳通知 (CN)RoCEv1 および RoCEv2 は、ロスレス ネットワークでの輻輳の拡散を軽減し、遅延を減らし、バースト耐性を向上させるために使用できる輻輳のネットワーク デバイス間のシグナリングを実装します。
    • 拡張トラフィック選択 (ETS): 各サービス クラス (CoS) に最小保証帯域幅の割り当てを有効にします。

    ストレージ - SSD、データセンター、データ管理

    AI ストレージ ソリューションは、AI/ML ワークロードのスケーリング要件に迅速に適応する必要があります。ストレージ容量とパフォーマンスのスケーラビリティは、進行中の運用を中断することなくサポートされ、過剰プロビジョニングや使用率の低下を防ぐ必要があります。そのすべてにおいて、構造化データと非構造化データをサポートします。ストレージ インフラストラクチャの中核となるのは、ソリッド ステート ドライブ、回転メディア、高帯域幅メモリ要素で使用される NVMe、SAS、CXL などのテクノロジです。

    AIとOakgate SSDデバイステスト
    記憶とAIを管理する頭のカラフルな画像
    AIヘッドとSASボックスのカラフルな画像

    AI と機械学習 (ML) の登場により、包括的なソリッド ステート ストレージ デバイス (SSD) テストの必要性がますます高まります。AI ワークロードの計算要件が高いため、データ センターでの SSD の需要が AI によって増加すると予想されます。AI アプリケーションは膨大な量のデータを生成して処理するため、高速データ アクセスと処理機能を備えたストレージ ソリューションが必要になります。

    • データアクセスと処理速度の向上: AI タスクで使用される大規模なデータセットと複雑なアルゴリズムを処理するために不可欠です。AI アプリケーションでは読み取りと書き込みの頻繁な操作が必要になることが多いため、パフォーマンスと耐久性の点で従来の HDD よりも SSD の方が適しています。この需要により、SSD テクノロジーやその他の高性能ストレージ ソリューションのイノベーションが促進される可能性があります。
    • 専門的で多様な作業負荷: AI アプリケーションの要件に合わせて特別に調整されたストレージ ソリューションに対する需要が高まる可能性があります。これには、ディープラーニング アルゴリズム、リアルタイム分析、大規模データ処理向けに最適化されたストレージ システムが含まれる可能性があります。
    • ストレージシステムの最適化: 効率、信頼性、パフォーマンスの向上。これには、機械学習アルゴリズムを使用してストレージの使用パターンを予測したり、データの階層化を自動化したり、データ圧縮技術を改善したりすることが含まれます。

    テレダイン・レクロイ OakGate ソリューションは、特に AI や機械学習のワークロード向けにデータセンターに革命を起こす可能性のある新しい CXL (Compute Express Link) メモリ デバイスのテスト機能を提供します。CXL を使用する AI プラットフォームでは、CPU と GPU、FPGA、TPU などのアクセラレータ間の高速で一貫したメモリ アクセスが必要ですが、CXL メモリ デバイスはデータ転送速度を大幅に向上させ、レイテンシを削減し、システム全体のパフォーマンスを向上させます。

    • 機能およびパフォーマンス検証テスト: 新しい CXL デバイスが市場にリリースされたときに標準に従って動作することを保証します。
    • 品質およびコンプライアンステストこれは、AI モデルのトレーニングと推論の時間が短縮されることを意味し、最終的にはデータセンターでの機械学習操作がより効率的かつ強力になります。
    • トレーニングと推論の時間: データセンターでのより効率的で強力な機械学習操作と、異なる処理ユニット間の一貫したメモリアクセスの向上のために AI システムをテストすることで、より複雑で洗練された AI アルゴリズムとワークフローが実現します。

    シリアル アタッチド SCSI (SAS) のテストは、特にデータの保存と取得の面で AI アプリケーションをサポートするために不可欠です。SA​​S システムが徹底的にテストされ、準拠していることを確認することで、AI アプリケーションは、効果的な AI 運用の基礎となる、信頼性が高く、高速で、スケーラブルなデータ ストレージ ソリューションのメリットを享受できます。

    • 高速データ転送SAS は、大規模なデータセットへの迅速なアクセスを必要とする AI アプリケーションに不可欠な高速データ転送速度を提供します。これにより、AI モデルを効率的にトレーニングおよび展開できます。
    • 信頼性と冗長性SAS システムは、信頼性と冗長性機能で知られています。これは、データが常に利用可能であり、障害から保護されることを保証するため、AI にとって重要です。
    • スケーラビリティSAS はスケーラブルなストレージ ソリューションをサポートしており、AI システムが成長し、パフォーマンスを犠牲にすることなく増加するデータ量を処理できるようになります。
    • 互換性SAS はさまざまなストレージ デバイスやインターフェイスと互換性があり、さまざまな AI アプリケーションや環境に幅広く対応できます。
    • コンプライアンステストSASのコンプライアンステストは、ハードウェアがパフォーマンスと信頼性の業界標準を満たしていることを保証します。これは、これらのストレージソリューションに依存するAIシステムの整合性を維持するために重要です。

    お問合せ/無料デモ申込み/メルマガ登録

    あらゆるご質問にお答えいたします。お返事おまちしております