GPU に対応したデータセンター
AI データセンターでディープラーニング ワークロードを実行する

お客様の情報を登録後ダウンロードいただけます:

GPU 対応データセンターのスケーリングに関する検討事項

ホワイトペーパー (PDF: 477 KB)

 

企業のデータセンターやハイパースケールデータセンターは、大量のデータを処理する AI やディープ ニューラル ネットワーク (DNN) を使用したワークロードを前提として構築されるようになってきています。必要となるコンピューティングは非常に大きく、GPU の力が大きなメリットをもたらします。GPU サーバーに対応したデータセンターは格段に高い効率性とパフォーマンスを実現し、より少ない電力で高度なワークフローを実行することができ、床面積もより小さくて済みます。


このホワイトペーパーでは、電力、冷却方法のほか、ラック レイアウト、ストレージ、システム、ネットワークなどのアーキテクチャに焦点を当てながら、データセンターを「GPU 対応」にするベスト プラクティスについて説明します。また、NVIDIA® DGX-1™ および NVIDIA® Tesla® V100 GPU で大量のコンピューティングを必要とするワークロードについて詳しく考察することで、コストを最小限に抑え、今日の高度なワークロードを大規模に実行する方法を紹介します。

GPU に対応したデータセンターの規模拡大に関する考察 技術概要
 

 
*入力必須項目です。
 
Copyright © 2018 NVIDIA Corporation 法務情報 | 個人情報の保護