AIワークロードが徐々に複雑になり規模が大きくなるにつれ、既存のGPU基盤のシステムは効率性と持続可能性の両方でさらに大きな限界に直面しています。過度な電力消費とインフラへのニーズにより、大規模なデーターセンターの長期的な運営において、性能および費用面でボトルネックが発生しているからです。

ATOM-Maxはこのような限界を解消するために、大規模な推論に特化したアーキテクチャで設計されており、従来の加速器に比べより高い率性と張性を提供しています。これにより、最も高度なエンタープライズおよびデーターセンター規模のAIワークロードでも、高い稼働率とスループットを保証できます。また、電力率の最適化と炭素削減のニにも応えられる持続可能なインフラを構築していきます。

拡張可能な高効率の推論

ATOM-Maxは大規模なAI推論に特化した構造で、優れた演算性能と高帯域幅メモリへのアクセス性能を兼ね備えています。

  • 128 TFLOPS (FP16)、最大1024 TOPS (INT4)の性能で、LLMとエンタープライズ規模のAIワークロードを安定的に処理します。
  • PCIe Gen5 x16基盤のド間直接通信(card-to-card communicationにより低遅延と高速のデータ交換ができ、ノード間の水平拡張をしやすくします。

大規模な推論環境向けに設計されたATOM™-Maxは、高い稼率、予測可能なレイテンシ、簡なデプロイを保証し、今日のデーターセンターのインフラとも完全互換できます。

総保有コスト(TCO)削減の中核

大規模な推論環境では、スルプットや電力率(Performance-per-Watt)、デプロイの柔軟性とのバランスが欠かせません。既存のGPUシステムは高いCapEx·OpExを求めるため持続的な拡張が難しいのが現状です。これに対し、ATOM-Max (RBLN-CA25)は運営環境でもTokens-per-Second per Watt (TPS/W)基準でL40Sを上回る性能効率を提供することができます。

データ・メモリの管理を密に統合してドウェアの稼率を最大限に引き上げ、アイドルオーバーヘッドと資源ロスを最小限に抑えます。 このようなーキテクチャの効率性はTCOの削減効果につながり、デプロイの規模が大きくなるにつれ、このメリットはさらに大きくなります。

ATOM™-Max:スケーリング可能な電力効率

既存のインフラは電力効率やメモリのボトルネック、デプロイのコストなどさまざまな課題に直面しています。ATOM™-Maxはこうした構造的な問題を解決します。

より大規模なスケール、さらに大幅な削減 ― 高集積の演算効率

350Wの電力の予算内で

  • 128 TFLOPS (FP16)
  • 1024 TOPS (INT4)
    性能を提供し、ラック当たりのスループットを最大化します。

同じワークロードを行うために必要なサーバー数を減らすことで、インフラコストを削減システムの率を向上させます。

ワークロードが大きくなればなるほど、規模の経済economies of scale)の効果も大きくなります。したがって、ATOM™-Maxは大規模なAIインフラに最適な選択肢といえます。

ハードウェア-ソフトウェアの共同最適化

ATOM™-Maxはハードウェアとソフトウェアの協調最適化(Co-optimization)により、高レベルの同期化および共有メモリ(SHM)の構造を採用しており、メモリ効率と稼働率を最大限に引き上げます。コンパイラはAIモデルをATOM™-Maxのアーキテクチャに最適化した実行コマンドに自動変換し、レイテンシと演算オーバーヘッドを最小限に抑えた状態で、最高の性能を実現できます。

[ATOM™-Max加速器を搭載した高集積のAIサーバー]

次世代AIサーバーのアーキテクチャ

域幅メモリ

64GBの高帯域幅メモリ(HBM)と1024 GB/sのメモリ域幅を提供し、LLMおよび大規模なAI推論に必要な理速度と容量を同時に確保します。最適化したデータフロー設計でボトルネックを解消し、スループットを最大限に引き上げます。

円滑な張性

ATOM™-Maxは単一カードの性能を超え、最大8枚まで多重カドの張(Multi-card Scalingに対応できます。用の高速インタドコネクタ(High-speed intercard connectorにより、カード間のデーター転送遅延を最小化するため、大規模なAI演算環境でも優れた拡張性能を発揮できます。

[マルチカードの拡張向けの高速インターカードコネクタ]

結論

AI推論への需要が学習(Training)より多い時代に、既存のGPU中心のインフラは徐々に非効率になっています。高い電力費用とインフラ負担、運用制限が成長の妨げとなっています。ATOM-Maxはこうした構造的な限界を解決する用のAI推論加速器であり、以下のメリットを提供しています。

  • より高い演算密度で効率的かつ大規模な推論
  • 低い電力消費でTCOおよび環境負担を
  • 次世代AIモデル向けの円滑な張性

電力効率がよく高集積設計を採用したATOM-Maxは、持続可能性と優れた費用対効果を両立し次世代AIインフラの拡張において欠かせない存在です。