TESLA

GPUアプリケーション

機械学習

これまで産業界とアカデミック界双方のデータ科学者達が、機械学習により画像分類、ビデオ分析、発話認識、自然言語処理など多様なアプリケーションで画期的な向上を生み出すためにGPUを使用してきました。特にディープラーニングは、多量の未分類のトレーニングデータから特徴分析を実行できるシステムを作り出すために、最新の多層の「ディープ」ニューラルネットワークを使用するものであり、この分野には今まで多大な投資と研究が行われてきました。 

機械学習は何十年間も行われてきました。そして、大量のトレーニングデータの利用可能性と、GPU コンピューティングが提供するパワフルで効率的な並列コンピューティングという比較的最近の2つの傾向により、この機械学習の利用にさらに拍車がかかっています。GPUは、データセンター構造の使用を極端に低減しながら、より短時間で重要度別にさらに大型のトレーニングセットを活用して、このディープニューラルネットワークをトレーニングするために使用されています。またGPUは、クラウドで分類や予測を行うためにこれらのトレーニング済みの機械学習モデルを実行する際にも使用されています。これにより、より低電力で小規模な基礎構造で、さらに大量のデータやスループットがサポートされています。

初期に機械学習用のGPUアクセラレータを採用した機関の中には、最大のウェブ・ソーシャルメディア企業の他に、データサイエンスや機械学習の主流研究機関があります。数千もの演算コア、そしてCPU単体と比較して10倍から100倍のアプリケーション・スループットを備えたGPUは、ビッグデータを処理する際にデータ科学者から選ばれてきました。

 

機械学習アプリケーションのベンチマーク

機械学習アプリケーションのベンチマーク

「GPUがあれば、事前に録音された発話やマルチメディアコンテンツのトランスクリプションが、さらに速くなります。CPUの実装と比較して、33倍速い認識が実現できるのです。」  

カーネギーメロン大学、イアン・レーン(Ian Lane)教授

 
 

他のデータ科学者が機械学習の分野で研究を進める様子をご覧いただいて、開始時に役立つツール、ソフトウェアのフレームワーク、コンピューティング構成に関する情報を入手してください。

 
 
機械学習用ツール
  • Caffe: 畳み込みニューラルネットワークアルゴリズム用のフレームワーク
  • cuda-convnet:高パフォーマンスの C++/CUDA による畳み込みニューラルネットワークの実装
  • Theano:数式表現の定義、最適化、評価を行うPython ライブラリ
  • Torch7: 機械学習のアルゴリズム用の化学コンピュテーション・フレームワーク 
  • cuBLAS: GPUで加速化した完全標準 BLASライブラリ・バージョン
  • MATLAB: コンピュテーション、可視化、プログラミングを統合した使いやすいHPC言語
  • cxxnet: ニューラルネットワークのツールキット
機械学習に関する最近の記事
機械学習に関する技術トピック
 
機械学習に関する技術論文
 
機械学習でGPUを使用する企業と研究機関
Adobe Baidu Facebook Flickr IBM
Microsoft Netflix Nuance Yandex  
 
推奨システム設定
開発ワークステーション トレーニングクラスタ
2x NVIDIA Tesla K40 GPU アクセラレータ NVIDIA Tesla K40 GPU アクセラレータ8基
2x Intel Xeon CPU (8 コア以上) 2x Intel Xeon CPU (8 コア以上)
64 GB システムメモリ 256 GB のシステムメモリ
 

設定オプション

設定オプション
 
 

GPU アクセラレータのご購入に関する情報は、Tesla が購入できる場所 のページをご覧ください。