DeepSeek(ディープシーク)とエヌビディアの関係性:DeepSeekはエヌビディアのCUDAの支配力を弱める脅威?

- 本稿では、中国発のAIであるDeepSeek(ディープシーク)がエヌビディア(NVDA)のCUDAの支配力を弱めているとの声が聞かれる中、DeepSeekとエヌビディアの関係性、並びに、DeepSeekの将来性を詳しく解説していきます。
- DeepSeekは、AIの運用コストを10分の1に削減できる可能性のある、費用対効果の高い学習および推論アーキテクチャを発表しました。これは、既存のインフラに対する挑戦となる可能性があります。
- 最近のデータによると、主要な技術地域においてAWS H100のスポット価格が短期的に急騰しましたが、これは全体のGPU需要のごく一部にしか影響を及ぼしていません。
- DeepSeekは、過去のIT業界の変革と類似したトレンドを引き起こした可能性があり、最終的に業界の成長を牽引したのはインフラ提供者ではなく、アプリケーション開発者であったケースと共通点が見られます。
- この流れにより、AI向けの専用ASICが登場する中で、エヌビディアが依然として優位性を維持できるのか、上位レイヤーでの価値創出へのシフトが進むのかという疑問が浮上しています。
※「【Part 1】中国のAI「DeepSeek(ディープシーク)」とは?何がすごいのか?ChatGPTとの比較を通じて競争優位性に迫る!」の続き
前章では、「中国のAI「DeepSeek(ディープシーク)」とは?何がすごいのか?」という疑問に答えるべく、OpenAIが提供するChatGPTとのテクノロジー上の詳細な比較を通じて、DeepSeekの競争優位性と将来性を詳しく解説しております。
本稿の内容への理解をより深めるために、是非、インベストリンゴのプラットフォーム上にて、前章も併せてご覧ください。
DeepSeek(ディープシーク)エヌビディア(NVDA)の関係とは?
DeepSeek(ディープシーク)は、モデルとインフラの両面において、これまでにないほど効率的な学習および推論アーキテクチャを導入し、米国株式市場に変革をもたらしています。その根本的な考え方はシンプルです。最先端のモデルが現在のコストの10分の1で学習・運用できるようになれば、AIチップの需要は大幅に減少し、それに伴うインフラ、モデル、関連するAI投資への波及的な支出も大きく縮小する可能性があります。 さらに、この変革を加速させる要因として、DeepSeekはCUDAを回避し、エヌビディア(NVDA)のCUDAライブラリのすぐ下のレイヤーで動作するアセンブリ言語「PTX」を活用することで、CUDAの支配力を弱めています。
因みに、CUDA (Compute Unified Device Architecture) とは、エヌビディアが開発した並列コンピューティングプラットフォームおよびプログラミングモデルです。これにより、GPU(グラフィックス処理ユニット)を汎用計算(GPGPU: General-Purpose computing on Graphics Processing Units)に活用できるようになります。
一見すると、これは直感に反するように思えます。歴史的に、新しい技術が大幅なコスト削減を達成した際、大衆市場での普及が進むことで需要が急増し、価格の下落を上回る成長を遂げることが多くありました。これは「ジュボンズのパラドックス」として知られる現象です。メインフレームからPC、モバイルデバイスに至るまで、このパターンは繰り返されてきました。最近では、OpenAIがGPT-4の運用コストを12分の1に削減したことで、ARR(年間経常収益)をほぼゼロから40億ドル以上に拡大させたことも、この市場動向を裏付ける事例となっています。
しかし、Semianalysisによる最近の分析では、DeepSeekの登場がすでに短期的な供給ショックを引き起こしていると指摘されています。発表後、AWS H100のスポットインスタンス価格が急騰し、需要の増加と市場への即時的な影響が浮き彫りとなりました。
※スポットインスタンス:クラウドプロバイダー(主にAWS、Azure、Google Cloudなど)が未使用のコンピューティングリソースを割引価格で提供する一時的な仮想マシンのこと。
(出所:AWS)
実際の状況はより複雑です。価格の上昇は特定の地域に集中しており、主にus-west-1およびus-west-2、つまり北カリフォルニアとオレゴンのエリアで顕著に見られます。これらはテック業界の中心地であり、例えばメタ・プラットフォームズ(META)、アルファベット(GOOG)、アップル(AAPL)はサンフランシスコ(北カリフォルニア)に、マイクロソフト(MSFT)とアマゾン(AMZN)はシアトル(オレゴン)に本社を構えています。一方、これらの主要なテクノロジーハブ以外では、米国内外を問わず価格の変動は比較的限定的です。
さらに、このデータは2024年12月19日からのものです。これ以前の数か月間の価格推移が明確に示されていない点について疑問が残ります。市場が時間とともにどのように反応してきたのか、最近の価格急騰が長期的なトレンドの一部なのか、それとも一時的な異常値なのかを判断するためには、より早い時期の動向を分析することが重要です。
(出所:AWS - us-east-1(バージニア)および us-east-2(オハイオ)のA100スポットインスタンス価格履歴)
(出所:AWS - us-eastにおけるH100スポットインスタンス価格履歴)
(出所:AWS - us-west-1(北カリフォルニア)におけるH100スポットインスタンス価格履歴)
AWSコンソールのスポットインスタンス価格履歴を見ると、12月から1月にかけてus-west-1およびus-west-2でH100のスポット価格がわずかに上昇したものの、その変動は限定的であり、11月の価格を超えることはありませんでした。
ここで重要なのは、これがスポット価格である点です。クラウドサービスプロバイダー(CSP)は、通常GPUインスタンスの料金体系として契約ベース、オンデマンド、スポットの3種類を提供しています。GPUの供給不足、大規模な初期投資の必要性、過剰な設備投資のリスクといった要因から、ハイパースケーラーは一般的に顧客に契約ベースの価格モデルを選択させる傾向があります。実際、スノーフレーク(SNOW)やDatabricksなど多くの企業がGPUインスタンスを契約ベースで利用しており、このためスノーフレークは高額な契約に伴う粗利益率の圧迫を報告しています。
オンデマンドインスタンスはコストが比較的低く、従量課金制のモデルに基づいています。一方、スポットインスタンスはさらに安価ですが、大きな制約があります。それはユーザーがインスタンスを独占的に利用できないことです。スポットインスタンスは、契約ベースまたはオンデマンドインスタンスがアイドル状態になったときにのみ利用可能となり、クラウドサービスプロバイダー(CSP)はこの余剰リソースを低価格で再販します。しかし、契約ベースやオンデマンドの需要が増加すると、スポットインスタンスは終了される可能性があります。
現在、GPUへの圧倒的な需要を背景に、GPUインスタンス市場は売り手市場となっており、大半のインスタンス(95%以上)が契約ベースまたはオンデマンドとして提供されています。スポットインスタンスはGPU全体の供給量の5%未満にすぎず、大手ハイパースケーラー(AWSなど)ではこの割合が2〜3%程度まで低下します。したがって、仮にスポットインスタンスの需要が30%増加したとしても、それは全体のGPU需要の2%の30%増に過ぎず、影響は約0.6%程度となります。そのため、GPU全体の需要や価格への影響は限定的です。
一方で、スポットインスタンス以外の利用率も上昇しています。CoreweaveのようなTier-2のCSPでは、H100の稼働率が95〜100%に達しており、これは既存のLLM(大規模言語モデル)ユーザーがLlamaを本番環境に導入した上で、DeepSeekを試験環境用に追加購入していることが主な要因です。Llamaモデル(特にLlama 70B)は運用コストが低いため、コスト重視のユーザーには選ばれやすいですが、DeepSeekのV3およびR1はFP8でネイティブに学習された671Bモデルのみ提供されています。このモデルのサイズは671GBであり、さらにMTP(Multi-Token Prediction)モジュールに14GBが必要です。
また、FP16/BF16を使用するユーザーにとっては、モデルサイズが1,543GBまで膨れ上がります。一方、コストを抑えるために精度や正確性を一部犠牲にすることを選択するユーザーには、4-bit量子化(Q4)のバージョンがあり、この場合は386GBで済みます。
FP16/BF16を使用する場合、最低でも16基のH100 GPUが必要ですが、Q4バージョンであればわずか6基のH100で運用できます。その結果、DeepSeek V3のデプロイには、一般的なオープンソースモデルよりも多くのH100が必要になります。これは、通常のオープンソースモデルがより小規模なパラメータサイズを持ち、メモリ消費量が少ない傾向にあるためです。例えば、アリババ(BABA)が最近発表したQwen 32Bは、その典型的な例です。さらに、DeepSeek V3は独自のMoE(Mixture of Experts)アーキテクチャとMTP(Multi-Token Prediction)モジュールを採用しており、適切にデプロイするためには追加のエンジニアリング作業が求められます。
現時点では、多くのデプロイ環境において、MTPモジュールが完全に有効化されていない、またはPD(Prefill & Decode)推論クラスタが正しくデプロイされていない可能性が高いです。DeepSeekが使用する352基のGPUクラスタを導入しない場合、H100を16基のみ使用すると、各GPUにより多くのエキスパート(専門モデル)をロードする必要があり、その結果、メモリ使用量が増加し、最終的にメモリボトルネックに到達してしまいます。これにより、計算リソースを最大限に活用できない状態になります。
この問題を回避するため、一部のユーザーはH200 GPUの使用を選択しています。しかし、H200は依然として供給が不足しており、価格も高騰しているため、導入のハードルが高い状況が続いています。
では、供給ショックは今も続いているのか?
はい、長期的には、DeepSeekによる効率向上がAIの需要を刺激し、トークン単価の下落を十分に補うと考えています。ここで重要なのは、学習や推論に必要な計算リソースの需要が減少することではなく、インテリジェンスのコストが大幅に下がることです。これにより、AIチップの購入者にとってFLOPS(コンピュータが1秒間に処理できる浮動小数点演算の回数を示す指標)あたりの価値が向上し、ROI(投資対効果)が改善します。もし彼らがこのインテリジェンスを活用し、低コストのトークンを効果的に使うことができれば、その成長余地は非常に大きいでしょう。
私たちは、コストが下がるにつれて、新たなトークンの活用方法が次々と生まれると予測しています。これは、過去数十年間においてネットワーク、ストレージ、コンピュートのコストが劇的に下がったことで、ITインフラの上位レイヤーに爆発的なアプリケーションの成長をもたらしたのと同じ流れです。こうしたアプリケーションは、メインフレームが登場した当初には想像すらできなかったものです。
では、エヌビディアはDeepSeekの影響にどのように対応するのかを考えるにあたって、他の業界の企業が同じように価格決定権を脅かす革新的技術に直面した場合にどのように対応するかを想定すると、理解しやすくなります。ただし、価格と将来の収益の関係は単純な直線的な関数ではないため、この問題は非常に複雑です。
例えば、投資家としてルイ・ヴィトン・モエ・ヘネシー(LVMH:LVMUY)が製品価格を10分の1に下げるとしたら、そのビジネスを懸念するでしょうか? 答えは明らかに「はい」です。なぜなら、LVMHは高級品を扱っているからです。
同様に、もしスーパーが価格を10分の1に引き下げた場合、投資家はそのビジネスを懸念するでしょうか? これも「はい」です。なぜなら、同じ地域の人口が一定である限り、消費者が10倍の量の食料品を購入することはないからです。
では、投資家として、AWSが価格を10分の1に引き下げる場合、そのビジネスを懸念するでしょうか? その答えはタイミングと状況によります。たとえば、2010年代初頭の段階で長期間にわたって段階的に価格を引き下げるのであれば、市場の普及を加速させる賢明な戦略と考えられます。しかし、コスト削減と連動せずに突然10分の1まで値下げする場合、それはリスクとなります。過去10年間、AWSはコンピュート、ストレージ、ネットワークの価格が下がる中でも、COGS(売上原価)がそれ以上に低下したことで、高い収益性を維持してきました。
また、AWSがコスト削減なしに価格を下げ続ける場合、それは顧客にとってメリットとなり、クラウドインフラ上で成長するソフトウェアアプリケーション業界を後押しする可能性があります。ただし、これはAWSが価格競争力だけに依存せず、差別化を維持できるかどうかにかかっています。この論理は、エヌビディアにも当てはまります。
現在、最先端モデルにおけるインテリジェンスのコストやトークンの価格は依然として高く、多くの人にとってアクセスが困難です。これらのコストを引き下げることで、より多くの人がAIを活用できるようになり、結果的にエヌビディアの需要も拡大するでしょう。現時点ではAIの普及はまだ初期段階にあるため、価格の低下は市場の成長を後押しするはずです。
しかし、もしトークン価格が10分の1に下がる一方で、エヌビディアの価格が下がらなかった場合、供給ショックが発生する可能性があります。この価格下落は、需要の増加によってある程度相殺されるものの、エヌビディアのようなインフラプレイヤーよりも、上位レイヤーのアプリケーション開発者にとって有利な状況を生むかもしれません。このシナリオは、エヌビディアの投資家にとって大きな懸念材料となります。
現在の仮説では、AIのバリューチェーンは従来のCPU市場とは大きく異なると考えられます。インテル(INTC)やAMD(AMD)のような企業は、IT支出全体のごく一部しか取り込めず、ソフトウェアベンダーがより大きな利益を得ています。この構造は、CPUスタックが成熟し、コモディティ化していること、そしてCPUの計算コストが極めて低下し、真の価値がアルゴリズムやアプリケーションに移行していることが要因です。
現在の重要な論点は、基盤モデルの開発者とエヌビディアが引き続きAIの価値の約80%を占めるのか、それとも上位レイヤーのアプリケーション開発者がより大きなシェアを獲得するのかという点です。この議論は、メインフレーム時代にあった考え方と類似しています。当時、多くの人がチップメーカーやインフラ企業がIT業界を支配すると考えていました。しかし、x86アーキテクチャやLinux、オープンソースソフトウェアの普及により、最終的にはアプリケーションベンダーがより多くの価値を生み出し、業界の成長を牽引しました。
DeepSeekは、AIのバリューチェーンにおける同様の転換点となる可能性があります。つまり、エヌビディアのようなインフラプレイヤーからアプリケーション開発者へと価値が移行することです。この流れは不可避とも考えられます。なぜなら、高い投資対効果(ROI)を持つアプリケーションの存在が、AIチップやインフラにかかる莫大なコストを正当化するために不可欠だからです。
この状況を踏まえ、2つの重要な疑問が浮かび上がります。
1️⃣ エヌビディアは、現在の競争優位性を維持し、AIのバリューチェーンにおける支配的地位を守ることができるのか?
2️⃣ エヌビディアは、CPUメーカーであるインテルやAMDのような運命を避けるため、スタックの上位レイヤーにまで事業領域を拡大し、その地位を確立できるのか?
DeepSeekがエヌビディアのCUDAという競争優位性に与える影響、そして今後のチップ設計全体に及ぼす影響については、より詳細な分析が必要です。この点については、別途詳しく取り上げる予定ですが、短期から中期的には、エヌビディアの優位性は依然として揺るがないと考えています。その主な理由は、CUDAが深く根付いたエコシステムを持ち、開発者による強い支持を受けていることです。これらの要素は、容易に模倣できるものではありません。
しかし、CUDAの競争優位性は時間とともに徐々に低下していく可能性があります。GPGPUアーキテクチャがより専用のAI ASICへと移行する中で、CUDAが新たな需要、特にDeepSeekがもたらす変化に対応し続けることは、次第に難しくなっていくかもしれません。
本編は以上となりますが、さらなるDeepSeekとエヌビディアに関する詳細な分析レポート等を見逃さないためにも弊社のプロフィール上にてフォローをお願いします!
📢拡散希望
✨ 知識は共有することでさらに価値を増します✨
🚀この記事が少しでも参考になったと感じたら、ぜひX(旧Twitter)等でシェアをお願いいたします🚀
弊社はテクノロジー銘柄に関するレポートを毎週複数執筆しており、弊社のプロフィール上にてフォローをしていただくと、最新のレポートがリリースされる度にリアルタイムでメール経由でお知らせを受け取ることができます。
加えて、その他のアナリストも詳細な分析レポートを日々執筆しており、インベストリンゴのプラットフォーム上では「毎月約100件、年間で1000件以上」のレポートを提供しております。
弊社のテクノロジー銘柄に関する最新レポートを見逃さないために、是非、フォローしていただければと思います!
加えて、足元では、市場の投資家が最も注目すAI関連銘柄であるパランティア・テクノロジーズ(PLTR)に関する下記の詳細な分析レポートも執筆しておりますので、インベストリンゴのプラットフォーム上より併せてご覧ください。
アナリスト紹介:コンヴェクィティ
📍テクノロジー担当
コンヴェクィティのその他のテクノロジー銘柄のレポートに関心がございましたら、こちらのリンクより、コンヴェクィティのプロフィールページにてご覧いただければと思います。
インベストリンゴでは、弊社のアナリストが「高配当銘柄」から「AIや半導体関連のテクノロジー銘柄」まで、米国株個別企業に関する分析を日々日本語でアップデートしております。さらに、インベストリンゴのレポート上でカバーされている米国、及び、外国企業数は「250銘柄以上」(対象銘柄リストはこちら)となっております。米国株式市場に関心のある方は、是非、弊社プラットフォームより詳細な分析レポートをご覧いただければと思います。