ATOM™-Max Pod
RDMA基盤の高速ネットワークで実現するラックスケールAIインフラ
Rack-to-Rackの拡張性とRDMAネットワークによって実現された
高性能AIクラスター
ATOM™-Max Podは、ノード間分散処理が必要な大規模AI推論サービス向けに構成されたラックスケールインフラです。リベリオンのAI加速器やRDMA基盤の高速ネットワーク、さらに慣れ親しんだソフトウェアスタックまで統合したターンキーインフラとして提供しています。また、サーバー8台で構成されたMini-Podから、エンタープライズ向けAIサービスで求められるスケールへ柔軟に拡張できます。
Multi-Node
System Architecture
8ノードからスタート
400GB/s
RDMA Fabric
超低レイテンシのクラスタリング
64 NPUs
Per Pod
線形的な性能拡張
All-in-One
Turnkey Solution
即時デプロイ可能
Limitless
Scale-Out Architecture
ATOM™-Maxサーバー8台で構成されたMini Podから、数十台のサーバーで構成されたPodまで、RSDにより一つに統合したクラスタとして柔軟にスケールアウト可能です。ワークロードが増えてもリソースを柔軟に運営できる上、線形的な性能向上が期待できます。
Ultra-Low Latency
RDMA Fabric
ATOM™-Max Pod内のサーバーは、400GB/s RDMA基盤の高速ネットワークによって相互に接続されています。リソース集約型の大型AIモデルに欠かせない分散処理を遅延なく運営するのに最適なインフラです。
All-in-One
Turnkey Infrastructure
AI加速器からRDMAスイッチ、ノード間ネットワークまで統合したインフラを提供しています。検証済みのハードウェアおよびソフトウェアスタックを基に、AI商用サービスに即時に導入できます。大規模なインフラ導入にかかる手間を省き、運用効率を最大限に引き上げられます。
Ready-to-Deploy
Rebellions Enterprise AI Solution
ATOM™-Max Podには、エンタープライズ環境に最適化したリベリオンのSW Product、「Enterprise AI Solution」を導入できます。エンタープライズ向けAIサービングのFull Lifecycleをコスト効率よくサポートする最適なソリューションをご体験ください。
NPUで実現する産業別のAIイノベーション
Enterprise
拡張可能なAIインフラで開発から運用まで
企業全体のAI導入の効率化を図ります。
Construction
AI基盤の安全監視システムで、建設現場の事故を事前に予防する安全を確保できます。
Healthcare
カスタマイズされた健康管理から精密医療サービスまで、AIヘルスケア・サポートサービスを構築できます。
Finance
金融データをリアルタイムで安全に処理し、次世代の金融サービスインフラを構築することができます。
Manufacturing
Physical AI基盤のスマートファクトリーで、製造の生産性を革新することができます。
Telecom
安定的な大規模AIサービスを運営し、差別化された通信サービスの実現および顧客満足度を向上させることができます。
Rebellions SDK
Deploy with Confidence from Day One.
既存のPyTorchコードをそのまま利用でき、使い慣れた開発環境をご利用頂けます。
vLLMを利用して最適なスケジューリングを行うことができます。
Tritonを含むさまざまなDevツールをサポートしています。
複雑な設定が要らず、簡単にデプロイできます。
Driver SDK
NPU作動に必要な基本システムSWおよびツール一覧Core system software and essential tools for NPU excution
NPU SDK
モデルおよびサービス開発向けのSWツール一覧
Model Zoo
リベリオンNPUで即時に使える300+ PyTorchとTensorFlowモデルを提供
Cloud SDK
CloudのNPUリソース管理向けのSW一覧







