SB C&Sの最新技術情報 発信サイト

C&S ENGINEER VOICE

NVIDIA Deep Learning & AI

AI/RPA

Deep Learning を加速し AI を実現するパワフルなエンジン、”GPU” と ”DGX”

AI や Deep Learning をより加速するために最適なツールこそが GPU であり、DGX です。
大きな変革と課題解決に向けたエンジンとして、画期的なスピードとスケールを実現します。

製品一覧

NVIDIA Tesla V100 PCIe

NVIDIA Tesla V100 は AI, HPC, そしてグラフィックス処理を高速化する史上最高のデータセンター向け GPU です。
最新の NVIDIA Volta アーキテクチャにより、Tesla V100 は 1 基で最大 100 CPU 分のパフォーマンスを発揮し、
かつては不可能と考えられていた課題に取り組むデータサイエンティスト、研究者、エンジニアを強力に支援します。

主な機能と特長

  • NVIDIA Volta アーキテクチャ

    CUDA コアと Tensor コアの組み合わせにより、Tesla V100 搭載サーバーの性能は HPC やディープラーニング用途で 100 台のコモディティ CPU サーバーに匹敵

  • TENSOR コア

    新たな 640 個の Tensor コアにより、Tesla V100 PCIe は 112 Tensor Tera FLOPS のディープラーニング性能を発揮

  • メモリ 32 GB

    前世代比で 2 倍のメモリを搭載

  • HBM2

    900 GB/s に向上した帯域幅と 95 %向上した DRAM 効率により、STREAM 計測で前世代比 1.5 倍のメモリバンド幅を実現

  • 最大効率モード

    ラックあたり計算性能を最大 40 %向上可能、性能上限の 80 %を最大消費電力の半分で実現

  • プログラミング効率

    新しい独立したスレッドスケジューリングにより同期の粒度を細かく設定可能で、小さなジョブを複数同時に処理する効率向上

NVIDIA Tesla V100 SXM2

NVIDIA Tesla V100 SXM2 フォームファクタは、GPU 間を双方向最大 300 GB/s のデータ通信で接続する新世代 NVLINK により、前世代比で 2 倍のスループットを発揮します。
究極のパフォーマンスが求められる HPC, Deep Learning のワークロードを強力にサポートします。

主な機能と特長

  • NVIDIA Volta アーキテクチャ

    CUDA コアと Tensor コアの組み合わせにより、Tesla V100 搭載サーバの性能は HPC やディープラーニング用途で 100 台のコモディティ CPU サーバに匹敵

  • TENSOR コア

    新たな 640 個の Tensor コアにより、Tesla V100 は 125 Tensor Tera FLOPS のディープラーニング性能を発揮

  • 新世代 NVLINK

    双方向最大 300GB/s で接続する新世代 NVLINK は、前世代比で 2 倍のスループットを発揮

  • HBM2

    900GB/s に向上した帯域幅と 95 %向上した DRAM 効率により、STREAM 計測で前世代比 1.5 倍のメモリバンド幅を実現

  • 最大効率モード

    ラックあたり計算性能を最大 40 %向上可能、性能上限の 80 %を最大消費電力の半分で実現

  • プログラミング効率

    新しい独立したスレッドスケジューリングにより同期の粒度を細かく設定可能で、小さなジョブを複数同時に処理する効率向上

NVIDIA DGX Station

オフィス向けに設計された NVIDIA DGX Station は、最先端の AI 技術を搭載した世界初の個人/中小規模向けスーパーコンピューターです。
あらゆる NVIDIA DGX Systems の動力源となっている NVIDIA GPU Cloud Deep Learning Stack を基盤としており、ご自身のデスクで行った作業を DGX Systems やクラウドに拡張できます。

主な機能と特長

  • GPU 水冷システムによる圧倒的な静音性

    オフィスへの設置のため、他ワークステーションの 1/10 の騒音レベルと、ディープラーニングや分析における高いパフォーマンスを実現

  • NVIDIA Tesla V100 ×4基搭載で 500 Giga FLOPS の高性能

    NVIDIA Tesla V100 × 4基によりディープラーニング性能 500Giga FLOPS を実現する、最初で唯一のワークステーション

  • NVLINK により PCIe 接続の GPU に対し5倍の I/O 性能実現

    NVIDIA Tesla V100 PCIe を特別に NVLINK 接続することにより、GPU 間接続帯域を大幅に向上

  • オフィスの100V電源で動作可能

    最大消費電力1500W 電源増設なしにオフィス内の標準的な100V電源で動作

  • ディープラーニングを迅速に開始

    コンテナベースのソフトウェア配布により大規模な Deep Neural Network を迅速に実装

  • NVIDIA によるエンタープライズサポート

    Deep Learningの ノウハウ、専門的なトレーニング、アップグレードと更新、重要な問題の優先的な解決など、エンタープライズグレードのサポート

NVIDIA DGX-1

NVIDIA DGX-1 は、最適化された演算性能、ソフトウェア、ディープラーニング パフォーマンスの組み合わせにより、AI 研究への取り組みをサポートする統合ソフトウェアおよびハードウェアシステムです。

主な機能と特長

  • ディープラーニングを 140 倍高速化

    CPU のみで 711 時間かかる学習をわずか 5.1 時間で実行(CPU: Dual Xeon E5-2699v4 2.6GHz, ResNet-50, 90Epoch)

  • NVIDIA Tesla V100 ×8基搭載で 1 Tera FLOPS の高性能

    ディープラーニング性能 1 Tera FLOPS を実現する最高パフォーマンスサーバー

  • PCIe 接続比で 10 倍の速度を実現

    NVIDIA Tesla V100 SXM2 の NVLINK 接続により GPU 間接続帯域は 300 GB/s を実現

  • 10GbE ポートに加えて InfiniBand EDR x4 を標準実装

    高帯域幅・低レイテンシ・800GB/s の通信パフォーマンスでより多くの計算需要に応えるスケールアウトに対応

  • ディープラーニングを迅速に開始

    コンテナベースのソフトウェア配布により大規模な Deep Neural Network を迅速に実装

  • NVIDIA によるエンタープライズサポート

    Deep Learning のノウハウ、専門的なトレーニング、アップグレードと更新、重要な問題の優先的な解決など、エンタープライズグレードのサポート

NVIDIA DGX-2

ディープラーニング スーパーコンピューターである DGX-1 をさらに進化させた、増大する計算需要とより複雑な AI 課題に挑戦する、世界で最も強力な最上位 AI システムです。

主な機能と特長

  • Dual CPU 300台分のハイスケールリソース

    Intel Xeon Platinum CPU x2, 1.5TB Memory, Tesla V100 SXM3 x16, NVSwitch x12 のリソースで最難題を解決

  • 2 Tera FLOPS の高性能

    NVIDIA Tesla V100 SXM3 ×16基によりディープラーニング性能 2 Tera FLOPS を実現する世界最速パフォーマンスサーバー

  • 革新的な AI ネットワーク構造 ”NVIDIA NVSwitch”

    NVIDIA NVSwitch の GPU 間ネットワーク構造により 2.4 TB/s の GPU 間帯域幅を実現し、前世代比 24 倍高速化

  • InfiniBand EDR 8portとDual 10/25/40/50/100 GbE

    トータル 1600 GB/s の双方向バンド幅と低レイテンシでハイパフォーマンス通信を実現

  • ディープラーニングを迅速に開始

    コンテナベースのソフトウェア配布により大規模な Deep Neural Network を迅速に実装

  • NVIDIA によるエンタープライズサポート

    Deep Learning のノウハウ、専門的なトレーニング、アップグレードと更新、重要な問題の優先的な解決など、エンタープライズグレードのサポート