Tesla

NVIDIA® Tesla® P100
最新型データセンターを実現するコンピューティングの無限の可能性
最新型データセンターを実現するコンピューティングの無限の可能性

世界最先端のデータセンター GPU

自動運転を制御する人工知能。未来の気候変動の予測。癌を治療する画期的な薬剤。世の中には解決すべき最重要課題がいくつもありますが、いずれも膨大な計算量を必要とします。現代のデータセンターは汎用の計算ノードを何台も相互接続して運用しており、重要なハイパフォーマンスコンピューティング (HPC)ハイパースケールワークロードに対する性能が十分とは言えません。

NVIDIA® Tesla® P100 GPU は、前例のない最先端のデータセンターアクセラレータです。新たに開発された NVIDIA Pascal™ GPU アーキテクチャにより、汎用ノード数百台分を超える性能を持つ世界最速の計算ノードが誕生しました。少ない台数で高い性能をもたらす超高速ノードにより、データセンターではスループットを大幅に向上させる一方で、コストを削減できます。

400 を超える HPC アプリケーション (上位 10 個のうち 9 つが含まれています) に加え、すべてのディープラーニングフレームワークが高速化されるため、HPC のどのお客様も自社のデータセンターにアクセラレータを展開できます。

 

Tesla P100 と NVLink によってデータセンターアプリケーションのパフォーマンスが最大で 50 倍向上

NVIDIA Tesla P100 performance versus Tesla K80
 

TESLA P100 アクセラレータの特徴と利点

Tesla P100 は半導体からソフトウェアまで新しい発想で構成され、随所に革新的な技術を使用しています。それぞれの先駆的テクノロジがパフォーマンスの劇的な飛躍をもたらし、世界最速の計算ノード開発を推進しています。

 
アーキテクチャによる指数関数的なパフォーマンス向上

Pascal アーキテクチャによる指数関数的なパフォーマンス向上

新しい NVIDIA Pascal™ アーキテクチャの導入により、Tesla P100 は HPC やハイパースケールワークロードに対する最高水準の性能を獲得しました。21 テラフロップスを超える FP16 パフォーマンスを備えた Pascal は、ディープラーニングの刺激的な可能性を切り拓くのに最適なアーキテクチャです。

 
を介した大規模アプリケーション

NVIDIA NVLink を介した大規模アプリケーション

相互接続は往々にしてパフォーマンスを低下させます。革命的な NVIDIA NVLink™ 高速相互接続は、現存するクラス最高のテクノロジに比べて 5 倍のパフォーマンスを発揮し、複数の GPU にまたがるアプリケーションの展開を支えます。
注: このテクノロジは、PCIe 向けの Tesla P100 では利用できません。

CoWoS と HBM2 がもたらす、かつてない効率

CoWoS と HBM2 がもたらす、かつてない効率

Tesla P100 は HBM2 テクノロジを実装した CoWoS (Chip on Wafer on Substrate) を組み込んで、コンピューティングとデータを同一パッケージに統合し、前世代の 3 倍を超えるメモリ性能を実現しています。



 
簡潔なプログラミングを可能にするページマイグレーションエンジン

簡潔なプログラミングを可能にするページマイグレーションエンジン

ページマイグレーションエンジンのおかげで、開発者はデータの動きを管理することに気をとられず、コンピューティング性能のチューニングに集中できます。GPU の物理メモリサイズを超えて、最大 2 テラバイトまでアプリケーションを展開できるようになりました。

 
CoWoS は Taiwan Semiconductor Manufacturing Company Limited の登録商標です。
Tesla P100

ストロングスケール HPC に対応する NVIDIA Tesla P100

Tesla P100 と NVIDIA NVLink™ テクノロジを搭載した超高速ノードでは、ストロングスケールアプリケーションの処理を加速し、より短時間で解決に導くことができます。NVLink により、1 台のサーバノードにつき最大 8 つの Tesla P100 を相互接続でき、帯域幅は PCIe の 5 倍になります。HPC やディープラーニングにおける膨大な計算を必要とする世界の最重要課題の解決を支援します。

 

混合ワークロード HPC に対応する NVIDIA Tesla P100

PCIe 向けの Tesla P100 を利用すると、混合ワークロード HPC データセンターでスループットを大幅に向上させる一方で、コストを削減できます。たとえば、PCIe で相互接続した 4 つの Tesla P100 が駆動する 1 台の GPU アクセラレーションノードで、さまざまなアプリケーションに利用できる 32 台の汎用 CPU ノードを置き換えることができます。はるかに少ない台数の強力なノードですべてのジョブを完了できるため、お客様はデータセンターのコスト全体を最大 70% 削減できます。

混合ワークロード HPC に対応する NVIDIA Tesla P100
 

NVIDIA Tesla P100 アクセラレータの性能仕様

 
  P100 for PCIe-Based
Servers
P100 for NVLink-Optimized Servers
Double-Precision Performance 4.7 TeraFLOPS 5.3 TeraFLOPS
Single-Precision Performance 9.3 TeraFLOPS 10.6 TeraFLOPS
Half-Precision Performance 18.7 TeraFLOPS 21.2 TeraFLOPS
NVIDIA NVLink™ Interconnect Bandwidth - 160 GB/s
PCIe x16 Interconnect Bandwidth 32 GB/s 32 GB/s
CoWoS HBM2 Stacked Memory Capacity 16 GB or 12 GB 16 GB
CoWoS HBM2 Stacked Memory Bandwidth 732 GB/s or 549 GB/s 732 GB/s
Enhanced Programmability with Page Migration Engine Check Check
ECC Protection for Reliability Check Check
Server-Optimized for Data Center Deployment Check Check

NVIDIA Tesla P100
を今すぐ利用する

Tesla P100 は、ディープラーニング向けに設計された NVIDIA® DGX-1™ システムで利用可能です。

詳細を見る

NVIDIA Tesla
購入方法

NVIDIA Tesla GPU によって加速された
システムを見つける。

今すぐ購入