Tesla

ユーザーエンゲージメントの強化
ディープラーニング推論ワークロードにおけるスループットと応答性を向上させます。
ディープラーニング推論ワークロードにおけるスループットと応答性を向上させます

ディープラーニング推論の高速化

人工知能 (AI) の新時代において、GPU ディープラーニングは、複雑なタスクにおいて人間を超える正確さを実現し、私たちの日常体験をより素晴らしいものにします。インタラクティブスピーチ、コンピュータービジョン、および予測分析は、GPU で学習させたディープラーニングモデルが以前は不可能だと思われていた分野で素晴らしい結果を示した一例です。このような高い正確さにより、複雑な学習済みのネットワークが爆発的に増加しています。AI ベースのサービスは、推論のために CPU で展開された最新のネットワークでは、ユーザーエンゲージメントに必要な応答性を提供できません。

ディープラーニング推論ワークロードに対して優れたスループットと応答性を提供するよう設計されている NVIDIA® Tesla® P40 および P4 アクセラレーターは、完璧なソリューションを提供します。 NVIDIA Pascal™ アーキテクチャ ™ーが採用されているこれらの製品は CPU の 60 倍を超える推論性能を発揮し、複雑なディープラーニングモデルでさえもリアルタイムの応答性を提供します。

 

NVIDIA TESLA 推論アクセラレーター

Deep Learning Inference Latency

Deep Learning Inference Throughput

 
NVIDIA Tesla P40

最大のディープラーニング推論スループット

Tesla P40 は、ディープラーニング推論のスループットを最大化するよう設計されています。GPU あたり 47 TOPS (Tera-Operations Per Second) の推論性能を持ち、8 つの Tesla P40 は 100 台を超える CPU サーバーに匹敵します。

 

スケールアウト サーバーにおける超高効率ディープラーニング

Tesla P4 はスケールアウト サーバーを高速化するよう設計されており、CPU の 40 倍という素晴らしいエネルギー効率性を提供します。

Pdf
Tesla P4
 

DEEP LEARNING ACCELERATOR FEATURES AND BENEFITS

これらの強力な GPU は予測の高速化を実現し、AI アプリケーションの素晴らしいユーザー体験を可能にします。

 
100 倍のスループットにより、爆発的に増加するデータに対応

100 倍のスループットにより、爆発的に増加するデータに対応

センサー ログ、イメージ、動画、およびレコードの形式で日々生成される量のデータを CPU で処理することは非経済的です。Pascal を採用した GPU により、データセンターはディープラーニング展開ワークロードに対するスループットを劇的に向上させ、この怒涛のようなデータからインテリジェンスを抽出することができます。ディープラーニング ワークロードにおいて、8 つの Tesla P40 を搭載したサーバーは、100 台以上の CPU 専用サーバーに匹敵するため、取得コストを抑えつつスループットの向上を実現できます。

 
新しい AI ベースのビデオサービス向けの専用デコード エンジン

新しい AI ベースのビデオサービス向けの専用デコード エンジン

Tesla P4 および P40 は、推論を実行する NVIDIA CUDA® コアと並行して動作する、ハードウェアアクセラレーションを使用した専用のデコードエンジンを搭載しており、最大 39 HD のビデオストリームをリアルタイムで分析できます。ディープラーニングをビデオパイプラインに統合することにより、お客様はスマートで革新的な新しいレベルのビデオサービスをユーザーに提供できます。

低電力スケールアウト サーバーのかつてない効率性

低電力スケールアウト サーバーのかつてない効率性

極めて効率性の高い Tesla P4 GPU は、その小さなフォーム ファクターと 50/75 W の電力フットプリント設計で、高密度に最適化されたスケールアウト サーバーを高速化します。ディープラーニング推論ワークロードにおいて、CPU 比 40 倍の素晴らしいエネルギー効率性を発揮します。これにより、ハイパースケールのお客様は、既存インフラでのスケーリングが可能になり、AI ベースのアプリケーションの需要の急激な増加に対応できます。



 
NVIDIA TensorRT™ および DeepStream SDK による高速展開

NVIDIA TensorRT™ および DeepStream SDK による高速展開

TensorRT は、ディープラーニング モデルを本稼動展開向けに最適化するために作成されたライブラリです。学習済みのニューラルネット (通常、32 ビットまたは 16 ビット データ) を低精度の INT8 処理向けに最適化します。NVIDIA DeepStream SDK は Pascal GPU の性能を利用して、ビデオ ストリームのデコードと分析を同時に行います。

 

NVIDIA TESLA P40 および P4 アクセラレーターの機能とメリット

 
  Tesla P4 超高効率スケールアウト サーバー向け Tesla P40 最大推論スループット サーバー向け
単精度演算性能 5.5 テラフロップス 12 テラフロップス
整数演算 (INT8) 22 TOPS* 47 TOPS*
GPU メモリ 8 GB 24 GB
メモリ帯域幅 192 GB/秒 346 GB/秒
システムインターフェース ロープロファイル PCI Express フォームファクタ デュアルスロット、フルハイト PCI Express フォームファクタ
電力 50 W/75 W 250 W
ハードウェアアクセラレーションを使用したビデオエンジン デコード エンジン x 1, エンコード エンジン x 2 デコード エンジン x 1, エンコード エンジン x 2

*ブースト クロック有効時の Tera-Operations per Second

NVIDIA TESLA P40 および P4 製品パンフレット

Pdf
 
 

今すぐ NVIVIDA TESLA P40 および P4 をご購入ください

ディープラーニング推論向け Tesla P40 および P4 発売中

ご購入はこちら