エヌビディア(NVDA:Nvidia)の魅力・凄さとは?競合他社分析を通じて、同社のテクノロジー上の競争優位性に迫る!

- 本稿では、エヌビディア(NVDA:Nvidia)のテクノロジーと競合他社分析を通じて、テクノロジー上の競争優位性を特定し、同社の魅力、並びに、凄さを詳しく解説していきます。
- エヌビディアのOVXは仮想空間のシミュレーションに使用され、AVXは高速データ処理を可能にする命令セットで、AIロボティクスのトレーニングを加速する新しいライブラリGROOTも開発されています。
- エヌビディアは、200GB/sのシングルレーンSerDesを活用し、競合他社を圧倒するネットワーキング技術を持ち、システム全体を提供することで独自の競争優位性を築いています。
- 同社のNIMsは、ハードウェアを活用したAIマイクロサービスの迅速なデプロイを可能にし、エヌビディアはハイパースケーラー市場において、顧客の差別化を薄める巧妙な戦略を取っています。
※「エヌビディア(NVDA:Nvidia)の強み:BlackwellやGB200とは?製品の詳細と推論最適化の仕組みに迫る!」の続き
エヌビディア(NVDA:Nvidia)のOVX / AGX / GROOT
まだ完成度は低いものの、興味深かったのがエヌビディア(NVDA:Nvidia)のOVXとAVXのデモでした。
OVXとはエヌビディアの高性能シミュレーションプラットフォームで、仮想空間のシミュレーションやAIモデルのテストに使用されます。
一方で、AVXとは高度なベクトル演算命令セット(Advanced Vector Extensions)の略で、プロセッサによる高速なデータ処理を可能にします。
また、ここではGROOTについても触れておきたいと思います。
GROOTは、エヌビディアが開発する新しいライブラリで、主にAIロボティクスにおけるトレーニングを加速するために使用されると考えられています。
私はこの講演のこの部分全体を、ハブ・アンド・スポーク型(中央の「ハブ」と複数の「スポーク」で構成された構造を指し、情報の中心点と周辺の関係を表現)でOmniverse(エヌビディアが提供する仮想コラボレーションおよびシミュレーションのプラットフォーム)のビジョンを広げたものと捉えています。
プラットフォームのDGX(エヌビディアが提供する高性能AIトレーニング向けの専用コンピュータシステム)はモデルのトレーニングと作成を行い、OVXがそのシミュレーションを担当します。
そして最後にAGX(エヌビディアの高性能コンピューティングプラットフォームで、特に自動運転やロボティクス向けに設計)がシミュレーションにフィードバックを統合し、システムが現実世界との相互作用をより良くする仕組みです。
OVXはL40(エヌビディアの高性能GPUの一つで、AI推論やグラフィックスレンダリングに最適化)を中心に据えた推論用マシンで、トレーニング用というより推論に特化しています。
DGXが世界モデルを作成すると、OVXとAGXがハブとスポークの役割を果たし、現実の世界と仮想モデルが相互に作用することを可能にします。
そしてGROOTの登場です。
これは、おそらくトランスフォーマー(自然言語処理に特化した深層学習モデルの一種)ベースのモデルを使った新しいライブラリで、ヒューマノイドロボット(人間の形を模したロボットで、人間のように動くことを目指して設計されている)の作成とトレーニングをさらに迅速にする可能性があります。
これが現行のソリューションよりどれほど優れているかはまだ分かりませんが、最近のLLM(大規模言語モデル)の進展を考えると、ロボティクスの発展を大きく加速させることを期待しています。
エヌビディア(NVDA:Nvidia)のNIMs(Nvidia AI Microservices)
NIMsは、エヌビディア(NVDA:Nvidia)のハードウェアを活用したソフトウェア配信の一例です。
NIMsは、エヌビディアのハードウェア上で動作するAIマイクロサービスのことです。
これにより、AIアプリケーションの迅速なデプロイやスケーリングが可能になり、効率的にソフトウェアを展開して利用することができます。
NIMs自体がAIを劇的に変えるわけではありませんが、AIの導入方法には大きな変革をもたらす可能性があります。
NIMsは、エヌビディアが進めるソフトウェアとハードウェアの統合の一環であり、GPU上で展開されるパッケージ化された「ドロップレット(クラウド環境で提供される小さな仮想サーバーやアプリケーションコンポーネント)」として、エヌビディアがどのようにソフトウェアを配信しているかを示す優れた例です。
参加するにはエヌビディアのGPUを持っている必要がありますが、エヌビディアが提供するサポートを考えると、それは十分に価値があると感じます。
では、次章では、非常に興味深かった具体的な競争環境について話していきたいと思います。
エヌビディア(NVDA:Nvidia)の競合分析: エヌビディアの競争優位性とは?
はっきり言っておきたいと思います。
エヌビディア(NVDA:Nvidia)のは現在、競合を圧倒しており、当基調講演でもそれがより確かなものとなっています。
いくつかの秘密兵器を持っていますが、特に200 GB/sのシングルレーンSerDesは非常に印象的です。
200 GB/sのシングルレーンSerDesとは、1レーンで最大200ギガバイト毎秒のデータを送受信できるシリアライザー/デシリアライザー(SerDes)の技術です。
これにより、非常に高速で効率的なデータ転送が可能になり、特に高性能なコンピューティングやネットワーク接続で使用されます。
このネットワーキング技術により、エヌビディアはブロードコム(AVGO)やアドバンスト・マイクロ・デバイセズ(AMD)などのライバルを1世代先んじています。
今回の主役はネットワーキングであり、72 GPU(72個のGPUを使ったシステムの構成)を搭載したポッド(一緒にまとめられた複数のコンピュータやデバイスのグループ)が全て800GB/s(1秒間に800ギガバイトのデータを転送できる速度)で接続されるという大規模なスケールアウト(システムの性能や処理能力を向上させるために、サーバーやノードなどのコンピュータユニットを横に追加して拡張する方法)は、従来の8 GPU(8個のGPUを使用するシステムの構成)のコヒーレンシー(複数のプロセッサやGPU間でデータの一貫性を保つ仕組み)と比べても格段に拡張されています。
つまり、エヌビディアはチップを売っているのではなく、システム全体を提供しているのです。
この違いを理解しないと、本質を見誤ってしまいます。
エヌビディアが今回発表したのはB100ではなく、DGX NVL72です。
以前は8 GPUのDGXポッド(エヌビディアが提供するAIトレーニング向けの高性能なコンピューティングシステム)をユニットとして販売していましたが、今はスケールアップ(システム全体の性能を向上させるために、既存のコンピュータや、CPUやメモリ等のサーバーのハードウェアを強化すること)に注力しています。
推論とトレーニングの向上は、シリコンだけでなくポッド全体を通じてより高いレベルで提供されており、このソリューションはハイパースケーラーにとって採用せざるを得ないものになると考えています。
噂によると、想定よりも低いASP(平均販売価格)の上昇があるようですが、これはエヌビディアがシリコン面積の増加により若干の粗利益率の低下を受け入れる一方で、システム全体で安定した利益を上げるための戦略のようです。
また、エヌビディアは競合他社が参入しづらい部分に利益の源泉を移しており、それによりネットワークコンピューティングや200 GB/s SerDes(1秒間に200ギガバイトのデータを転送できるシリアライザー/デシリアライザー)、Direct Copper(電子機器を銅ケーブルで直接接続する方法で、高速なデータ伝送が可能)といったシステム内の各パーツで競争力を高めています。
例えば、より多くの顧客がGrace(エヌビディアが開発した高性能なサーバー向けCPUで、特にAIやデータセンターのワークロードに最適化されている)の追加コストを支払うことを受け入れるでしょう。
なぜなら、エヌビディアのシステム全体としての価値が、個々の部品の合計をはるかに上回っているからです。
ネットワーク技術が際立ち、エヌビディアはチップだけでなくシステム全体でしっかりとした利益を得られるでしょう。
これにより、AMDがチップだけでエヌビディアの優位性を崩すことは難しくなり、システム全体での競争が求められることになります。
銅(Copper)とダイレクトドライブ
銅のダイレクトドライブ(モーターやコンポーネントを直接接続して動作させる方式)は、少なくとも現行世代では破られることのない、優れたかつコストを抑えたソリューションの一例です。
まず、DSPなしケーブルの銅のリニアダイレクト(直線的な動作を行うために設計された駆動方式やシステム)を提供できる可能性がある企業はブロードコム(AVGO)だけであると見ています。
しかし、現在この技術が提供されているのはアルファベット(GOOG/GOOGL)一社のみなので、まだ広く利用されているとは言えません。
ブロードコムが、例えばアドバンスト・マイクロ・デバイセズ(AMD)のような製品でこのレベルの互換性を提供することは難しいでしょう。
DSPなしで銅を使用することは、競合他社と比較してコストと消費電力で圧倒的な優位性を持つ、非常に緊密に統合されたソリューションの一例です。
エヌビディアのジェンセンCEOは、このラック(サーバーやネットワーク機器を効率的に収納・設置するためのフレームやキャビネット)にトランシーバー(データを送受信するための装置)を使用する場合、少なくとも15%多くの消費電力が必要になると述べていました。
エヌビディア(NVDA:Nvidia)のシステム全体のインテリジェンス
DPU(データ処理に特化したプロセッサで、主にネットワーク管理、ストレージ処理、セキュリティ機能などのタスクをオフロードして、CPUやGPUの負担を軽減)やネットワーキングレベルで何かが起こっており、インネットワークコンピューティング(ネットワーク内でデータ処理を行う技術)によってネットワークレベルのインテリジェンスが生まれています。
この推論における効率的フロンティアは、少なくとも次世代の競合他社には達成が難しいものだと思われます。
HBM(高速なデータ転送を可能にするメモリ)のみのスケーリングは紫色で示されており、B200単体と比べて2〜5倍の改善は、Graceとネットワーキングスタックの改良によるものです。
そして、最後にもう一度RASについて触れておきます。
こちらのブログ記事では、クラスター全体の構築がいかに大変かが述べられていました。
エヌビディア(NVDA:Nvidia)もこれには無敵ではなく、記事ではグーグル(GOOG/GOOGL)の方が全体的に優れていることが示唆されています。
しかし、オープンな競争相手であるアドバンスト・マイクロ・デバイセズ(AMD)がこれを改善するのはしばらく難しいのではないかと思います。
アドバンスト・マイクロ・デバイセズや競合について言えば、次にコンソーシアムについて触れ、エヌビディアがそれをどのようにうまく活用しているのかについて話したいと思います。
エヌビディア(NVDA:Nvidia)の独走:コンソーシアムを打ち破る
コンソーシアム(特定の目的や利益を共有するために、複数の企業や団体が協力して形成するグループや組織)について話をしたいと思います。
これはディラン氏のこちらの「CXL Is Dead In The AI Era(CXLは終わった)」という優れた記事を踏まえたものですが、少し私の考えを述べたいと思います。
現実として、コンソーシアムの仕様はエヌビディア(NVDA:Nvidia)の独走のロードマップに追いつくには遅すぎます。
イーサネット(コンピュータネットワークの通信技術の一つで、主にLANで使用される標準的な有線通信プロトコル)の標準は、エヌビディアが目指す1レーンあたり200ギガの速度に比べて大きく遅れており、エヌビディアは焦点を絞り、一体化することで、他の半導体企業が委員会の合意に振り回されることを避けています。
ここでの具体例はブロードコム(AVGO)やアドバンスト・マイクロ・デバイセズ(AMD)です。
エヌビディアは、オープン業界が提供しようとしているものよりも、より高速で安価な独自規格を追求しているのです。
また、ハイパースケーラー(AWS等の大規模なデータセンターやクラウドサービスを提供する企業や組織)たちがオープン標準を求めた理由は、競合を弱体化させ、複数の供給元を確保するためだと考えています。
しかし、エヌビディアはこの流れを逆手に取り、エヌビディア以外からは手に入らない優れたソリューションを提供することで対抗しています。
これこそが、エヌビディアがハイパースケーラーのインフラ基盤を徐々に侵食していく道筋です。
SuperPodsとシステム販売
エヌビディア(NVDA:Nvidia)は徐々にハイパースケーラーの領域に進出しつつあります。
システムを企業に販売するという巧妙な戦略を取っているのです。
これまでハイパースケーラーは、市販の半導体を購入して独自のネットワークやインフラスタック(ITシステムやサービスを支えるための基本的な構成要素の集合体)に組み込んでいました。
おそらく2005年頃にはネットワークにほとんど違いがなかったでしょうが、2020年には新規参入者がハイパースケーラーと同じ規模と利益率でCPUファームを構築するのはほぼ不可能でした。
この規模こそが「ハイパー」と呼ばれる理由です。
しかし、エヌビディアが登場しました。
エヌビディアはチップではなくシステムを売ることに決めました。
そして、最高のリファレンスデザイン(DGX SuperPod)を無償で提供しつつ、独自の規格やソリューションをこの製品に組み込むことで、競争優位性と利益の大部分を保持しながら、顧客側の差別化を薄めています。
SuperPodsは、エヌビディアが提供する高性能なコンピューティングシステムで、特にAIトレーニングやデータ処理に特化しています。
複数のDGXサーバーをまとめて構成されており、効率的にスケールアウトが可能です。
これにより、大規模なAIモデルのトレーニングや推論を迅速に行うことができます。
SuperPodsは、データセンターやクラウド環境での高いパフォーマンスを実現するために設計されています。
言い換えれば、エヌビディアはソリューションを販売することで、ハイパースケーラーという存在そのものの意味を薄めているのです。
CoreWeaveとAWS(AMZN)のGPUは実質的に同じ製品であり、エヌビディアはハイパースケーラーの差別化を減らしています。
ハイパースケーラーがGPUを運用したり独自プロジェクトを進めたりする際のコスト優位性はほとんどなく、おそらく10年前に開始されたGoogle(GOOG/GOOGL)のTPUが例外と言えるでしょう。
その結果、ハイパースケーラーが半導体技術を追いつかせるための取り組みは遅れを取ることになり、半導体の進化やネットワーク・システムレベルの改善のペースについていけなくなるでしょう。
そのため、エヌビディアのシステムレベルの専門知識に頼らざるを得なくなります。
今後、ハイパースケーラーが最先端の半導体を作る競争はさらに厳しくなり、エヌビディアが毎年新しいGPUを出荷する「ティックタック」モデル(製品の開発サイクルやリリースサイクルのこと)を追いかけるのはますます困難になります。
その間、エヌビディアがシステムを提供することで、ハイパースケーラーのインフラの差別化は薄れていくでしょう。
より安価なエネルギーで大規模化することは、それほど強固な防衛策にはなりません。
ハイパースケーラーとエヌビディアの競争は、インフラ規模と半導体技術の改善の戦いです。
私は半導体の進化がハイパースケーラーの提供するものよりもはるかに困難だと思っています。
ハイパースケーラー内のAIアクセラレータプロジェクトでさえ、その進化のペースについていけるものはごくわずかでしょう。
唯一の脱出策は単純です。
Googleはタイミングよく自前のシステムを整え、システムレベルでの考え方を持つことで、長期的に有効な戦略に繋がるはずです。
マイクロソフト(MSFT)、アップル(AAPL)、アマゾンにとっては、流通網が唯一の頼みの綱です。
彼らがその優位性をどれだけ活かせるか、頑張ってほしいところです。
新たなAIチャレンジャーがハイパースケーラーからシェアを奪えば、長期的にはエヌビディアにとっての勝利となるでしょう。
その一方で、エヌビディアは世界最大級のインストールベースを活かし、ソフトウェア配信の拡大を目指しています。
最先端のシリコンを作ることが差別化のポイントとなり、その競争で誰が勝つかは明らかです。
結局のところ、すべてはエヌビディアのジェンセンCEOのシミュレーションに過ぎないのです。
その他のエヌビディア(NVDA)に関するレポートに関心がございましたら、是非、こちらのリンクより、エヌビディアのページにアクセスしていただければと思います。
また、私のプロフィール上にて、私をフォローしていただければ、最新のレポートがリリースされる度にリアルタイムでメール経由でお知らせを受け取ることが出来ます。
私の半導体に関するレポートに関心がございましたら、是非、フォローしていただければと思います。
アナリスト紹介:ダグラス・ オローリン / CFA
オローリン氏のその他の半導体関連銘柄のレポートに関心がございましたら、是非、こちらのリンクより、オローリン氏のプロフィールページにアクセスしていただければと思います。