人工知能(AI)業界ウォッチャーと本記事の読者なら、NVIDIAがGPUベースのディープラーニングとAIの巨人であることはご存じだろう。NVIDIAの最高経営責任者(CEO)、Jensen Huang氏は米国時間3月27日、同社の年次イベントGPU Technology Conference(GTC)2018で、同社のGPUハードウェアおよびソフトウェアの大幅なアップデートを発表した。
NVIDIAは同日、自動運転車テストのシミュレーション技術とプロフェッショナル向けグラフィック技術に関するニュースも発表した。
本稿では、AIおよびディープラーニング関連の以下の3点の発表に絞ってお伝えする。
- データセンター向けGPUプラットフォーム「Tesla V100」(およびハードウェア製品)のアップグレード
- ディープラーニングの推論ソフトウェアを性能強化
- Armと提携し、ArmベースのIoTチップにNVIDIAのディープラーニングアクセラレータ技術を提供
GPUのメモリを倍増
まず大きなニュースは、コアテクノロジそのものだ。Tesla V100 GPUは、既存の製品(16Gバイト)の2倍の32Gバイトのメモリを搭載する。メモリが増えるほど、より深いディープラーニングモデルを扱えるようになり、つまり、モデルの予測性能の精度が上がる。
新しいGPU技術は即日NVIDIAの「DGX Systems」で利用可能になった。それに加えて、Cray、Hewlett Packard Enterprise、IBM、Lenovo、Supermicro、TyanなどのOEMが2018年の第2四半期中に各社の製品で採用していく見込みだ。
新GPUスイッチと2ペタフロップスのサーバ
プラットフォームのアップグレードで2つ目のニュースは、「NVSwitch」の発表だ。これは同社のインターコネクト技術「NVLink」を拡張したもので、NVIDIAによると、最高の「PCI Express」スイッチの5倍の帯域幅を提供し、より多くのGPUによる接続を可能にする。その結果、より大きなデータセットを扱え、複数のニューラルネットを並列で訓練できる。
32GバイトのGPUとNVSwitchの発表は、それぞれ印象深いものだ。だがさらに、この2つはNVIDIAの「DGX-1」サーバのアップグレード版に搭載される。「DGX-2」と名付けられた新サーバは、V100 GPUを16基搭載し、メモリは512Gバイトだ。16基のGPUはNVSwitchの働きにより、1つのメモリスペースとして共有される。NVIDIAによると、DGX-2は世界初の2ペタフロップス(毎秒2000兆回の浮動小数点演算を行う)システムであり、「ディープラーニング研究とコンピューティングの限界を押し広げようとしているデータサイエンティストのために構築した」という。
32GバイトのGPUは、ディープラーニングだけでなく、様々な高性能コンピューティング(HPC)分野で活用されるだろう。そのために、NVIDIAは「CUDA」、「TensorRT」、「NVIDIA Collective Communications Library(NCCL)」、「cuDNN」、ロボティックSDK「Isaac」をアップデートした。
CNET Japanで全文を見る
0 件のコメント:
コメントを投稿