NVIDIA のデータセンター向け推論プラットフォームが、AI 活用サービスの新たな波を推進|NVIDIA
 

NVIDIA のデータセンター向け推論プラットフォームが、AI 活用サービスの新たな波を推進

 
 

Tesla T4 GPU と新しい TensorRT ソフトウェアにより、インテリジェントな音声、動画、画像およびレコメンデーションのサービスを実現

2018 年 9 月 13 日 - GTC Japan - 全世界で AI を活用したサービスの成長を加速させている NVIDIA は、業界最先端の推論アクセラレータによって、音声、動画、画像およびレコメンダーのサービスを実現する、AI データセンター プラットフォームを発表しました。

この NVIDIA TensorRT™ Hyperscale 推論プラットフォームには、自社の画期的な NVIDIA Turing™ アーキテクチャをベースにした NVIDIA® Tesla® T4 GPU と新たな推論ソフトウェアの包括的なセットが含まれています。

エンドツーエンド アプリケーション向けに、より低いレイテンシで最高速の性能を発揮する、このプラットフォームにより、ハイパースケールなデータセンターにおいて、新しいサービスを提供することが可能になり、たとえば、検索クエリへの対応では、可能性のある結果のリストを示すのではなく、自然言語でのインタラクションや直接的な回答を行えるようになります。

NVIDIA のバイス プレジデント 兼 アクセラレーテッド ビジネス担当 ゼネラル マネージャーであるイアン バック (Ian Buck) は次のように述べています。「NVIDIA のお客様は、あらゆる製品とサービスが AI を搭載し、AI によって改良される未来を心待ちにしていらっしゃいます。これまで想像されていた以上の速さと効率性を実現させるために、NVIDIA TensorRT ハイパースケール プラットフォームが構築されました」

巨大な規模のデータセンターでは、毎日、数十億の音声クエリや翻訳、画像、動画、レコメンデーションおよびソーシャル メディアのインタラクションが処理されています。これらの用途では、処理を行うサーバーと組み合わされた、異なったタイプのニューラル ネットワークが個別に必要となります。

データセンターを最適化して、スループットとサーバーの利用度を最大化させるために、NVIDIA TensorRT ハイパースケール プラットフォームには、リアルタイム推論ソフトウェアと Tesla T4 GPU が搭載されており、これによって、CPU 単体の場合に比べて、クエリの処理速度が最大で 40 倍早くなります。

NVIDIA では、AI 推論業界は今後 5 年間で 200 億ドルのマーケット規模に成長すると推測しています。

業界最先端の AI 推論プラットフォーム
NVIDIA TensorRT ハイパースケール プラットフォームには、パワフルで、効率性に優れた推論のために最適化された、ハードウェアとソフトウェアの包括的なセットが含まれています。主要なエレメントは以下の通りです。

  • NVIDIA Tesla T4 GPU – 320 の Turing Tensor コアと 2,560 の CUDA® コアを搭載した、この新しい GPU には、 FP32 から FP16、INT8、さらに INT4 までの、フレキシブルな多倍精度演算を行う、画期的な性能が備わっています。ほとんどのサーバーに簡単に実装できる、エネルギー効率に優れた、75 ワットで小型の PCIe フォームファクターにパッケージされたこの GPU は、FP16 での最高性能で 65 TOPS(Trillion Operations Per Second)、INT8 で 130 TOPS、および INT4 で 260 TOPS の演算性能を有しています。
  • NVIDIA TensorRT 5 – 推論オプティマイザーにしてランタイム エンジンである NVIDIA TensorRT 5 は、Turing Tensor コアに対応しており、ニューラル ネットワーク最適化のための一連の機能がさらに強化されており、混合精度のワークロードが加速されます。
  • NVIDIA TensorRT 推論サーバー – コンテナー化された、このマイクロサービス ソフトウェアにより、アプリケーションは、データセンターでの処理において、AI モデルを使用することができます。NVIDIA GPU Cloud コンテナー レジストリより無料で入手できる、このエンジンは、データセンターのスループットと GPU の利用度を最大化させるほか、すべての人気の AI モデルおよびフレームワークに対応しており、Kubernetes および Docker に統合させることができます。

世界中のテクノロジ リーダーからのサポート
NVIDIA の新しい推論プロットファームをサポートする声が、世界中の主要なコンスーマー向け/企業向けテクノロジ企業から寄せられています。

Microsoft の Bing および AI 製品担当 コーポレート バイス プレジデントであるジョーディ リバス (Jordi Ribas) 氏は、次のように述べています。
「Microsoft では、AI を活用した、イノベーティブなサービスをお客様に提供しようと努めています。リアルタイムの推論ワークロードで NVIDIA GPU を使うことにより、Bing の先進の検索機能が向上し、画像のオブジェクト検知のレイテンシを短縮できるようになっています。NVIDIA の次世代の推論用ハードウェアとソフトウェアを活用し、AI を搭載した製品およびサービスの利点をより多くの人々にお届けするのを楽しみにしています」

Google Cloud のプロダクト マネージャー、クリス クルバン (Chris Kleban) 氏は、次のように述べています。
「AI はどんどん普及しており、お客様が AI モデルのデプロイを成功させるためには、推論の能力が欠かせません。そのため、Google Cloud Platform がまもなく NVIDIA の Turing Tesla T4 GPU に対応するのをとても嬉しく思っています」

Google Cloud Platform で T4 GPU の早期利用をリクエストする方法を含めた、詳しい情報はこちらでご覧いただけます。

大手サーバー メーカー全社を含む、他の企業も、以下のように、NVIDIA TensorRT ハイパースケール プラットフォームへの対応を表明しています。

「Cisco の UCS ポートフォリオは、AI のライフサイクルのあらゆるフェーズを支える、ポリシー主導型かつ GPU 加速型のシステムおよびソリューションを提供するものです。NVIDIA Turing アーキテクチャをベースにした、NVIDIA Tesla T4 GPU により、Cisco のお客様は、AI 推論ワークロード用のもっとも効率的なアクセラレーターを利用できるようになり、それによって、より早く知見を得て、行動を起こすまでの時間を大きく短縮させることができます。
— Cisco データセンター グループ、プロダクト マネージメント担当バイスプレジデント、カウストゥバ ダス (Kaustubh Das) 氏

「Dell EMC は、お客様が IT を変革し、人工知能のような進歩の恩恵を受けていただくことに焦点を当てています。サーバー システムの世界的な大手プロバイダーである Dell EMC は、お客様が最終的に目標を達成できるように、引き続き PowerEdge サーバー ポートフォリオの機能を拡張いたします。NVIDIA と当社との密接な連携、および同社の Tesla ポートフォリオから最新の GPU アクセラレーターを導入してきたという歴史は、お客様が AI のトレーニング (学習) と推論で最先端に立ち続けるようにする当社の活動において、重要な意味を持っています」
— Dell EMC サーバー & インフラストラクチャ システム、プロダクト マネージメント兼マーケティング担当バイス プレジデント、ラヴィ ペンディカンティ (Ravi Pendekanti) 氏

「富士通では、NVIDIA の Tesla T4 GPU を当社のグローバルな Fujitsu Server PRIMERGY システムのラインアップに組み込む予定です。効率性に優れた、NVIDIA のこの最新の GPU アクセラレーターを活用することにより、当社では、高まり続ける AI のニーズに合わせて高度に最適化されたサーバーを、世界中のお客様にお届けできるようになります」
— 富士通株式会社 データセンタプラットフォーム事業本部 プロダクト事業部 事業部長、前田 英信 氏

「HPE では、より早い知見とエクスペリエンスの向上を実現するためのインテリジェンスを高めたいと考えています。NVIDIA Turing アーキテクチャをベースにした NVIDIA Tesla T4 GPU により、当社では、最先端の推論を得るための、データセンターの近代化と加速を続けていきます」
— Hewlett Packard Enterprise バイスプレジデント兼 HPC / AI グループ担当ゼネラル マネージャー、ビル マニュエル (Bill Mannel) 氏

「IBM Cognitive System では、当社のディープラーニング トレーニングおよび推論用ソフトウェアである PowerAI と IBM Power Systems AC922 加速サーバーを備えた、簡潔な AI プラットフォーム上でハードウェアとソフトウェアの両方を最適化し、それによってディープラーニングの訓練時間を 4 倍早めることができます。当社では、NVIDIA とのパートナーシップおよびイノベーションの歴史があり、IBM Power プロセッサ上での業界唯一の CPU-to-GPU NVIDIA NVLink 接続を共同開発してきましたので、新しい NVIDIA T4 GPU を活用して、推論ワークロードでの最先端企業としての立場をさらに強化できるのを喜ばしく思っています」
— IBM 機能管理担当バイスプレジデント、スティーブ シブレー (Steve Sibley) 氏

「NVIDIA が、NVIDIA TensorRT 推論サーバーを通じて Kubernetes に GPU 推論をもたらしてくれるのを喜ばしく思っており、Kubeflow との統合によって、多様なインフラストラクチャを横断して AI 推論をシンプルで、ポータブルで、スケーラブルな方法でユーザーに提供できるのを楽しみにしています」
— Kubeflow 共同創業者兼プロダクト マネージャー、デイビッド アロンチック (David Aronchick) 氏

「オープンソースかつクロスフレームワークの推論は、機械学習モデルのプロダクション デプロイメントに不可欠です。当社は、GPU と CPU の両方で大規模な推論を行うためのパワフルなソリューションをもたらしてくれる、NVIDIA TensorRT 推論サーバーにより、AI アプリケーションのデプロイがより早くなり、インフラストラクチャの利用度が向上するのを、喜ばしく思っています。
— Oracle Cloud Infrastructure 製品開発担当バイス プレジデント、カッシュ イフティハール (Kash Iftikhar) 氏

「Supermicroは、5G、Smart City および IoT デバイスといったテクノロジに主導され、急速に発展しつつある、高スループットの推論マーケットに向けてイノベーションを提供しています。このようなマーケットでは、膨大な量のデータが生成され、リアルタイムの意思決定が必要とされます。当社では、NVIDIA TensorRT と Turing アーキテクチャベースの新しい T4 GPU アクセラレータとの組み合わせは、上記のような新しくて、要件が厳しい、レイテンシセンシティブなワークロードに理想的な組み合わせであると考えており、GPU システムの製品ラインで、これらを積極的に活用する予定にしています」 — Supermicro 社長兼 CEO チャールズ リャン (Charles Liang) 氏

NVIDIA について
NVIDIA が 1999 年に開発した GPU は、PC ゲーム市場の成長に拍車をかけ、現代のコンピューター グラフィックスを再定義し、並列コンピューティングを一変させました。最近では、GPU ディープラーニングが最新の AI、つまりコンピューティングの新時代の火付け役となり、世界を認知して理解できるコンピューター、ロボット、自動運転車の脳の役割を GPU が果たすまでになりました。今日、NVIDIA は「AI コンピューティング カンパニー」として知名度を上げています。詳しい情報は、www.nvidia.com/ja-jp/ をご覧ください。

NVIDIA の最新情報は、以下の方法で入手できます。
公式ブログ NVIDIA blogFacebookGoogle+TwitterLinkedIn および Instagram、NVIDIA に関する動画 YouTube、画像 Flickr

____________________________________

インテリジェント音声、動画、画像、およびレコメンダー サービスを可能にする Tesla T4 GPU 及び TensorRT ソフトウェア、音声、画像、およびレコメンデーション サービスのための業界で最も高度な推論アクセラレーションを発揮する NVIDIA の AI データセンター プラットフォーム、Turing アーキテクチャと新しい推論ソフトウェアを基盤とする TeslaT4 GPU を含む NVIDIA TensorRT ハイパースケール推論プラットフォームの利点、性能、および能力、他の製品よりも低いレイテンシでより速い性能を発揮して、ハイパースケール データ センターが新しいサービスを提供することを可能にするその能力、すべての製品とサービスが、それまで考えられていたよりも速く、そして効率的に実現するために構築される AI と TensorRT Hyperscale プラットフォームによって手が加えられ、改善される未来へ疾走する顧客、評価された AI 推論業界が今後 5 年間のうちに遂げる成長の価値、Tesla T4 GPUの性能と特性、さまざまな精度のワークロードに向けたニュートラル ネットワークの最適化を拡張する NVIDIA TensorRT 5、アプリケーションが AI モデルを使用することを可能にする NVIDIA TensorRT 推論サーバー、NVIDIA GPU クラウド コンテナー レジストリからのその利用可能性と GPU の利用を最大化するその能力、Microsoft が画像の対象検出レイテンシを低減することを可能にする NVIDIA GPU、および人々が AI 製品およびサービスから利益を享受する方法を拡張する目的で NVIDIA の次世代のハードウェアとソフトウェアを使って作業することを期待する Microsoft、Google Cloud プラットフォーム上の Tesla T4 GPU にサポートを直ちに追加することを計画する Google Cloud、ますます広がる AI、および AI モデルをデプロイするために顧客が必要としている重要な能力になりつつある推論、NVIDIA TensorRT ハイパースケール プラットフォームの支援を表明する大手サーバーメーカー、Cisco の顧客に AI 推論ワークロードのための最も効率的なアクセラレーターへのアクセスを提供する NVIDIA Tesla T4 GPU、顧客を支援するために PowerEdge サーバー製品群を改良する Dell EMC、および顧客を支援する上で重要な役割を果たす NVIDIA との協力、Tesla T4 GPU を自社のシステム群に組み込むという富士通(株)の計画、および自社の顧客に高まりつつある AI のニーズに向けて最適化されたサーバーを提供している富士通(株)、データセンターの近代化と加速を継続し、最先端での推論を可能にすることを目的に Tesla T4 を使用している HPE、推論ワークロードのために自社の最先端企業としての立場を拡張する目的で Tesla T4 GPU アクセラレーターを研究するという IBM の計画、NVIDIA の製品を Kubeflow に統合し、多様なインフラに AI 推論をデプロイするための方法をもたらしている Kubernetes、AI アプリケーションのより高速なデプロイを可能にし、インフラの利用を向上させる NVIDIA TensorRT 推論サーバーの特性、データを生成し、リアルタイムの意思決定を必要とする市場で革新技術を開発する Supermicro、および GPU システム製品群で NVIDIA 製品を活用することなど、本プレスリリースにおける一定の記載は将来の見通しに関する記述であり、予測とは著しく異なる結果を生ずる可能性があるリスクと不確実性を伴っています。かかるリスクと不確実性は、世界的な経済環境、サードパーティに依存する製品の製造・組立・梱包・試験、技術開発および競合による影響、新しい製品やテクノロジの開発あるいは既存の製品やテクノロジの改良、当社製品やパートナー企業の製品の市場への浸透、デザイン・製造あるいはソフトウェアの欠陥、ユーザーの嗜好および需要の変化、業界標準やインターフェイスの変更、システム統合時に当社製品および技術の予期せぬパフォーマンスにより生じる損失などを含み、その他のリスクの詳細に関しては、Form 10-K での NVIDIA のアニュアル レポートならびに Form 10-Q での四半期レポートなど、米証券取引委員会 (SEC) に提出されている NVIDIA の報告書に適宜記載されます。SEC への提出書類は写しが NVIDIA の Web サイトに掲載されており、NVIDIA から無償で入手することができます。これらの将来予測的な記述は発表日時点の見解に基づくものであって将来的な業績を保証するものではなく、法律による定めがある場合を除き、今後発生する事態や環境の変化に応じてこれらの記述を更新する義務を NVIDIA は一切負いません。

© 2018 NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIA ロゴ、CUDA、NVIDIA Turing、NVLink、TensorRT および Tesla は、米国およびその他の国々の NVIDIA Corporation (エヌビディア コーポレーション) の商標かつ/あるいは登録商標です。その他の会社名や製品名についても、それらに関連付けられる各会社の商標である可能性があります。製品の特徴、価格、発売・販売および仕様は、予告なしに変更されることがあります。