ATOM™-Max Server
大規模AI推論向けの高性能サーバー
単一サーバーから始まる大規模AI推論
ATOM™-Maxサーバーは高効率の電力設計を基に、単一サーバーのみで大規模AI推論を安定的に行います。 ATOM™-Max NPU Cardは最大8枚で構成可能で、数百種類のAIモデル(Vision AI、LLM、Multi-Modal AI、 Physical AIなど)と主要なAIサービスの運用ツール(vLLM、Triton、K8sなど)に対応します。GPUで使い慣れた開発環境をそのままで利用できますので、チュートリアルを見ながら気軽に始めてみてください。
1,024 TFLOPS
Peak Performance
FP16基準で最大の演算性能
512GB, 8TB/s
GDDR6 Memory
大容量・高帯域幅のメモリー
Typical ~3.4kW
Max Power Consumption 4.3kW
エネルギーの最適設計
4U
Form Factor
データセンターの最適化
Compatible Software
OS
Ubuntu, RHEL, AlmaLinux, Rocky Linux
Frameworks & Tools
Hugging Face, PyTorch, TensorFlow, Triton
Inference Serving
vLLM, Triton Inference Server, TorchServe
Orchestration
Docker, OpenStack, Kubernetes, Ray
Performance at
Any Scale
ユーザーからのリクエストが急増してもサービスの性能は落ちません。
大規模AIサービスを実現するために、ATOM™-Maxサーバーは、サーバー1台で毎秒数千個のトークンを生成し、毎秒数千フレームを分析するなど圧倒的な性能を誇ります。
Sustainable
AI Infrastructure
サーバールーム内の限定的な電力容量でも、最大のAI推論能力を提供します。ATOM™-Maxサーバーは、高い電力効率でAIインフラの総所有コスト(TCO)を大幅に削減でき、持続可能なAIビジネス環境を実現します。
Full-stack
Software Support
ATOM™-Maxは、最も活用率が高いオープンソースソフトウェア(OSS)生態系と互換性を持っています。大量のリクエストにも効率よく対応し、柔軟なリソース運用およびモニタリング向けのさまざまなAIサービスの運用ツール( vLLM、 Triton Inference Server、K8s、Prometheusなど)を通じて、end-to-endサービスが構築できます。
Variety of
Models and Applications
LLM、Vision AI、Multi-Modal AI、Physical AIなどの数百種類の最新AIモデルを即時に利用できます。チャットボットや企業向けの検索エンジン、要約·分析、AI監視カメラ、さらには画像や動画生成サービスまで、企業のニーズに合わせたAIサービスをご提供頂けます。
Develop
As You Always Have
Rebellionsの新しいハードウェアを導入しても、使い慣れている開発環境を変更する必要はありません。
ATOM™-Maxはユーザーフレンドリーな開発環境を提供しますので、PyTorch、TensorFlowなどこれまで使っていた標準ワークフローのままで開発ができます。チュートリアルを見ながら簡単に始められます。
NPUで実現する産業別のAIイノベーション
Enterprise
拡張可能なAIインフラで開発から運用まで
企業全体のAI導入の効率化を図ります。
Construction
AI基盤の安全監視システムで、建設現場の事故を事前に予防する安全を確保できます。
Healthcare
カスタマイズされた健康管理から精密医療サービスまで、AIヘルスケア・サポートサービスを構築できます。
Finance
金融データをリアルタイムで安全に処理し、次世代の金融サービスインフラを構築することができます。
Manufacturing
Physical AI基盤のスマートファクトリーで、製造の生産性を革新することができます。
Telecom
安定的な大規模AIサービスを運営し、差別化された通信サービスの実現および顧客満足度を向上させることができます。
Rebellions SDK
Deploy with Confidence from Day One.
既存のPyTorchコードをそのまま利用でき、使い慣れた開発環境をご利用頂けます。
vLLMを利用して最適なスケジューリングを行うことができます。
Tritonを含むさまざまなDevツールをサポートしています。
複雑な設定が要らず、簡単にデプロイできます。
Driver SDK
NPU作動に必要な基本システムSWおよびツール一覧Core system software and essential tools for NPU excution
NPU SDK
モデルおよびサービス開発向けのSWツール一覧
Model Zoo
リベリオンNPUで即時に使える300+ PyTorchとTensorFlowモデルを提供







