【Part 2】Snowflake(SNOW:スノーフレーク)の生成AIを含むAI戦略とは?新CEOによる影響も含め徹底解説!

- 本編は、注目の米国テクノロジー企業であるSnowflake(SNOW:スノーフレーク)の競争優位性、並びに、最新のバリュエーションと今後の株価見通しを分析した長編レポートとなり、3つの章で構成されています。
- 本稿Part 2では、「Snowflakeの生成AIを含むAI戦略とは?」という疑問に答えるべく、新CEOによる影響も含め、同社のAI分野における進展を詳しく解説していきます。
- Snowflakeは、大規模言語モデル(LLM)の本番運用において、精密AIやプライバシー保護を重視し、少ない計算リソースで高いROIを実現する独自の優位性を持つプラットフォームです。
- LLMの性能向上が停滞する中、合成データや独自データの活用、検索強化生成(RAG)などを駆使して、効率的なAIシステムを構築する戦略が重要視されています。
- Snowflakeの競争力はCEOを中心とした優れた経営陣や迅速な製品開発にあり、データ共有機能や独自モデルの構築により、テクノロジー市場での地位を確立しています。
※「【Part 1】Snowflake(SNOW:スノーフレーク)は何がすごい?同社の最新の製品基盤強化に関する取り組みを徹底解説!」の続き
前章では、「Snowflakeは何がすごいのか?」という疑問に答えるべく、同社の製品基盤強化に関する取り組みやIcebergを巡るストレージ戦争に関して詳しく解説しております。
本稿の内容への理解をより深めるために、是非、インベストリンゴのプラットフォーム上にて、前章も併せてご覧ください。
Snowflake(SNOW:スノーフレーク)の生成AIを含むAI戦略
これまで、生成AI(GenAI)の分野では、LLM(大規模言語モデル)の性能向上のために、人間がコード化したロジックにあまり時間をかけるべきではないというのが一般的なコンセンサスでした。理由として、比較的短期間でスケーリング則によりさらなる進展が期待されていたからです。
しかし、2024年末に近づくにつれ、このコンセンサスが変わり始めています。最先端モデルの進化が予想よりも遅いことが明らかになりつつあります。LLMに人間がコード化したロジックを統合することで、生成AIシステムの性能を大幅に向上させる可能性があることが分かってきました。
さらに、企業が生成AI(GenAI)アプリケーションを本番環境に導入し始めると、大規模なスケーリングのコストが非常に高額であることに気づき始めています。機械学習(ML)、深層学習(DL)、複数のLLM(大規模言語モデル)、微調整されたSLM(小規模言語モデル)、ベクトルストア、その他のコンポーネントを組み合わせた生成AIシステムを、人間のロジックを取り入れて微調整・最適化することで、最先端モデルに完全に依存する場合に比べ、コストのごく一部で優れたパフォーマンスを実現できます。要するに、FLOPS(計算能力)やコンピュートリソースを増やすことで性能を向上させることは可能ですが、人間のロジックを活用した生成AIは、より少ないFLOPSで高いパフォーマンスを引き出し、将来のモデルにも適応できる柔軟性を持っています。
パロアルトネットワークス(PANW)のCEOであるニケシュ・アローラ氏は、同社の多くの実運用事例や顧客の要望が、高精度で信頼性のある現実的な用途に対応できる「精密AI」を必要としていることを強調しました。これは現在、生成AI(GenAI)の普及を妨げる最大の課題の一つとなっています。精密AIを実現するには、機械学習(ML)、深層学習(DL)、そして人間がコード化したロジックを組み合わせたAIシステムが必要です。LLM(大規模言語モデル)だけでは、十分な精度やパフォーマンスを達成できません。この新しいパラダイムを象徴する例として、RAG(検索強化生成)が挙げられます。
その結果、Snowflake(SNOW:スノーフレーク)はLLM(大規模言語モデル)の導入第2波、つまりLLMを本番環境に展開する段階で大きな可能性を秘めていると考えています。本番環境でLLMを成功裏に実装するためには、AIの精度を向上させること、プライバシー権を保護すること、そしてFLOPS(計算能力)あたりの価値を最大化して高いROI(投資対効果)を確保することが不可欠です。
Snowflake(SNOW:スノーフレーク)とスケーリング則の課題
最近のスケーリング則に関する進展により、Snowflake(SNOW:スノーフレーク)のようなプラットフォームの重要性と価値が時間とともに増すと考えられています。GPT-4のリリースから数四半期が経過しましたが、OpenAI、GOOGL、Anthropicはいずれも次世代のフロンティアモデルの訓練に苦戦しています。噂では、これらの企業が最新の基盤モデル(FM)の事前訓練を完了しているとされていますが、新モデルで大幅な性能向上を達成するのが難しい状況だとされています。さらに、これらのモデルの調整や方向付けにも課題があり、専門的な知識が必要なため、微調整(ファインチューニング)が広く普及することはないだろうという見解を裏付けています。
合成データ
最先端モデルの進展が鈍化しているもう一つの理由は、インターネットを含むほとんどの公開データが、既に過去世代のLLM(大規模言語モデル)の訓練に利用されていることにあります。新たな公開データの生成ペースが限られているため、次世代の基盤モデルで大幅な性能向上を支えるための新しい素材が不足しているのです。
さらに、LLMの訓練データの大部分は、オープンなクローリングデータやTwitter、Reddit、場合によってはYouTubeの文字起こしから得られており、これは世界中のデータのわずか2%に過ぎません。その結果、LLMは本来訓練可能な膨大な知識を活用できていない状況にあります。
これに対処するには、合成データやより多くの独自データが必要です。合成データは、LLM(大規模言語モデル)の性能向上を目的として、既存のデータに頼らず新たなデータを生成することを目指す新興分野です。具体的には、既存のLLMを活用して構造化された知識やQ&Aセット、嗜好セットを生成することが一般的です。しかし、現時点での合成データ生成の取り組みは大きな進展を示していません。多くの研究者は、合成データがエントロピーを低下させる(予測可能または繰り返しが多くなることでモデルが効果的に学習する能力を制限する)傾向があることを発見しています。これは、既存のLLMが最も可能性の高い次のトークンを基に出力を生成するため、その出力を別のLLMに入力すると、予測可能性がさらに高まり、エントロピーが低下したシーケンスが生じるためです。
しかし、人間の知識や世界そのものは、低い確率で起こる出来事や予測不可能なこと、新たな情報によって既存の理解が挑戦されることで成り立っています。これが、合成テキストがLLM(大規模言語モデル)の性能向上に大きく寄与していない理由です。現時点では、最良の場合でも、先端的なLLMをより効率的なSLM(小規模言語モデル)にファインチューニングまたは蒸留するために使用され、FLOPS(計算能力)あたりの価値を向上させることに貢献しています。
そのため、GPT-4o Mini、Grok-2 Mini、Claude 3 Haiku、Phi-3、DeepSeek V3など、新しいSLMが次々と登場しているのです。これらは、LLMの能力をより効率的に活用する方法を示しています。言い換えれば、これまでのところ、合成データは既存のLLMをより効率的にすることには成功していますが、その知能を拡張することにはあまり成功していないのです。
独自データ
合成データがより困難なアプローチである一方で、より直接的な方法は、未活用のまま残っている98%の独自データを活用し、それをLLM(大規模言語モデル)の性能向上に役立てることです。しかし、問題はどの企業も独自データを公開することを望んでおらず、内部的にも自社データを効果的に整理し追跡するのに苦労している点です。
ここでSnowflakeの重要性が際立ちます。同社のデータ共有機能は、企業のプライバシーやコンプライアンス要件を確保しながら、独自データの流通を促進します。同社は企業が自社データをより良く整理し、それを高付加価値のAI本番活用ケースに結びつけることで、大幅な性能向上を実現しつつ、セキュリティやコンプライアンスを損なうことなく対応可能にします。
マルチモダリティ
テキストデータの生成や未活用データの発掘に加えて、画像、動画、音声などのデータタイプを取り入れたマルチモーダルLLMを構築するというアプローチもあります。これらのデータタイプはテキストデータに比べて桁違いに大規模である一方、構造が曖昧であるため、LLMが解析し、有意義な知識を抽出するのが難しいという課題があります。
Snowflake(SNOW:スノーフレーク)とテスト時トレーニング(TTT)の関係
データのスケーリングに加えて、テスト時トレーニング(TTT)に必要な計算能力をスケールアップする方法もあります。OpenAIは、そのo1モデルを通じてTTTの力を実証しています。
一部の批評家は、TTTが他のアプローチと比べて「モート(競争優位性)」が低いと指摘しており、OpenAIもこの点をますます意識していると考えられます。o1は本質的に、拡張されたコンテキストウィンドウと「思考の連鎖(CoT)」を統合したGPTモデルです。ユーザーへの回答を生成する前に、o1はまずメインの質問に対応するためのサブクエスチョンをリストアップします。つまり、o1は最終的な回答を生成する前に、より長く深く考える仕組みになっています。このプロセスでは、最終出力が生成されるまでに10万以上の中間トークンが処理されることもあります。
しかし、OpenAIはこれらの中間プロセスを非公開にしており、ユーザーがo1のCoT(思考の連鎖)や中間トークンにアクセスすることを禁じています。これにより、o1が推論システムのトレーニングに利用されるのを防いでいます。私たちは、これはo1モデルの競争優位性(モート)が比較的低いことが理由だと考えています。もし中間トークンが公開されれば、競合他社がこの手法を迅速に模倣する可能性があるからです。実際、アルゴリズムに強い研究所の中には、DeepSeek R1のような類似モデルを既に開発しているところもあります。
最近リリースされたo3モデルは、性能面で大きな飛躍を遂げましたが、その代償としてさらに多くの中間トークンを必要とします。平均すると、o3は1つの応答を生成するのに3,300万トークンを使用します。これをわかりやすく説明すると、ChatGPTが通常1,000トークンを生成するのに対し、o3は33,000倍の推論計算能力を必要とし、使用コストも33,000倍高くなります。
(出所:OpenAI)
(出所:OpenAI)
興味深いことに、o1とo3の両方で、モデルに考える時間を長く与えるほど、より良い結果が得られるという点が注目されています。特に長時間の設定では、o3は研究用数学問題セット(おそらく最も難易度が高く、数学者が解くのに数時間から数日かかることもあるセット)の25%の問題に解答することが可能です。
現在、TTT(テスト時トレーニング)は、基盤モデル(FMs)の性能をさらにスケールさせる最も有望なアプローチと考えられています。しかし、その代償として計算能力の要求が増大し、単純なタスクではFLOPS(計算能力)あたりの価値が低下する可能性があります。このようなタスクは、より高度なRAG(検索強化生成)や、独自データ、追加の事実情報、事前に計算された結果をLLMに提供することで、より効率的に処理できる可能性があります。
スケーリング則の補強が必要
全体的に見て、Snowflake(SNOW:スノーフレーク)は基盤モデル(FM)の進展が鈍化し、FLOPS(計算能力)あたりの価値が重視され、精密AIが求められる状況で有利な立場にあります。同社は以下の戦略的優位性により、企業が精密AIに向かうのを支援し、より少ない計算リソースでより高いROIを実現しています。
・フロンティアモデルの進展の鈍化:基盤モデルの性能向上が停滞しつつある。
・合成データの課題:合成データ生成の進展が十分でない。
・推論スケーリングの高コスト化:推論スケーリングが非常に高額になりつつある。
・RAG+エージェントパラダイム:RAG(検索強化生成)とエージェントの組み合わせが次の大きなトレンドとして浮上している。
さらに、Snowflakeは最近、Anthropicをモデルガーデンに追加しました。当初、SnowflakeとDatabricksの両社はMistralを採用しましたが、Mistralの勢いは急速に失速しています。Mistralの衰退は、主にMistralデータセットを用いてLlamaをファインチューニングすることでモデルを改善していたことに起因すると、私たちはメタ・プラットフォームズ(META)に関する下記の分析レポートで予測していました。
特に注目すべき点は、SnowflakeがAnthropicの追加に成功した一方で、Databricksがそれに苦戦していることです。AnthropicはDatabricksのセキュリティ対策に慎重な姿勢を示しており、一方のDatabricksは、オープンソースの取り組みや迅速なMVP(最小実用製品)開発に重点を置いているため、Anthropicのような主要な独自モデルプロバイダーが求める十分なセキュリティガードレールを提供できていないようです。
Snowflake(SNOW:スノーフレーク)の実行速度と新CEO
Snowflake(SNOW:スノーフレーク)の最大の競争優位性はその人材にあり、その中心となるのがCEOです。Ramaswamy氏に対する多くの否定的な見方は、主に感情的な反応やFrank Slootman会長のリーダーシップとの比較に基づいており、Ramaswamy氏自身の強みが十分に評価されていないのは興味深いところです。一部では、私たちがSnowflakeのIRチームの延長線上にあるかのように、経営陣の発言を盲目的に受け入れていると思われているようですが、もちろんそうではありません。
実際には、同社の経営陣の論理性と実行力には感銘を受けています。他のSaaS企業と比べても、彼らの動きはより戦略的だと感じることが多々あります。とはいえ、同社のアプローチには一定の弱点もあると認識しています。
Snowflake(SNOW:スノーフレーク)の過去志向のFP&A
同社のFP&A(財務計画および分析)は経験的で過去志向のアプローチを採用しており、市場の変化と必ずしも一致せず、特に経済環境の変化期においては、過度に保守的で信頼性を欠く場合があります。このアプローチを投資家が完全に受け入れると、株価の大きな変動につながる可能性があります。
Snowflake(SNOW:スノーフレーク)の製品の成熟度とセキュリティへの過度な重視
製品の成熟度とセキュリティを優先する姿勢は、オラクル(ORCL)が支配していた従来のデータベースの世界では理にかなっていました。しかし、急速に進化するAI分野では、このような重点の置き方はあまり適切ではありません。
Frank Slootman会長の役割
Frank Slootman氏は、特に営業やマーケティングのスケールアップにおいて卓越したCEOであることは間違いありません。しかし、彼の主な関心はテクノロジー分野にあるわけではありません。この役割の多くは、現在もCTOや他の主要な技術リーダーとして活躍しているSnowflakeの技術系共同創業者に委ねられています。
しかし、Ramaswamy氏は実際にはもう一人の優れた人選であり、場合によってはSlootman氏よりも適任と言える可能性があります。多くの人がRamaswamy氏を「沈みゆく船」のスケープゴート(身代わり)と見なし、Slootman氏は早々にその船から降りたがっていたと考えていましたが、実態は異なります。
これまでのFUD(Fear, Uncertainty, and Doubt:恐怖、不確実性、疑念)とは異なり、私たちはRamaswamy氏が悪い人選ではないと考えています。彼は珍しく、企業を単に年商1億ドルから10億ドルに成長させるだけでなく、数十億ドル規模から100億ドル、さらには1,000億ドル規模へとスケールアップさせる方法を知る数少ない経営者です。彼は技術、特にML(機械学習)やAIについて深い知識を持っています。なぜなら、彼が以前勤めていたアルファベット(GOOGL)の広告事業はMLを実運用に組み込んだ最初期の成功例とされており、Ramaswamy氏自身もデータベースやAIに精通した技術系のPhDを持っています。
すでに彼の実行力には有望な兆しが見られます。たとえば、SnowflakeのAI PaaSプラットフォーム「Cortex」のプライベートプレビューおよびGA(一般提供)の迅速な展開、トップレベルのAI人材を迅速に採用する能力、そして推論コスト、トレーニングコスト、RAG(検索強化生成)性能で先行する同社独自のフロンティアモデル「Arctic」の構築などです。
しかし、私たちは、Slootman氏とRamaswamy氏の両者と共に働いた経験を持つSnowflakeの現職CFOであるMichael Scarpelli氏が、Ramaswamy氏の人柄を最も的確に描写していると考えています。
(出所:Koyfin)
むしろ、Ramaswamy氏はSlootman氏の「より優れたバージョン」と言えるかもしれません。彼の特徴は以下の通りです:
・非常に攻撃的で競争心が強い
・イーロン・マスク氏のように長時間働く
・若くてエネルギッシュ
・動きが速い
・AIやオープンソース、主要な取り組みに深く関与している
・世間の認識とは異なり、営業およびマーケティング(S&M)の専門知識を持っている
・大規模な組織を運営し加速させる方法を熟知している
・運営効率、ROI、生産性に注力している
・結果や迅速な対応を徹底的に追求している
明らかに、市場の投資家たちはRamaswamy氏のリーダーシップを徐々に評価し始めていますが、その認識が完全に変わるまでには時間がかかるかもしれません。最近の同社の動き、特にDatavoloの買収、Polaris、Arcticに注目すると、同社が自社の閉じたエコシステムを堅守しながらも、Databricksのオープンコア領域に進出しているのが明らかです。一方で、Databricksは外部の技術運営をあまり活用せず、収益化により重点を置いているようです。
Ramaswamy氏の戦略的手腕を最も象徴する例が、オープンソース版Polarisの発表です。これにより、Databricksは準備が整っていなかったUnity Catalogを急遽オープンソース化せざるを得なくなりました。その後、PolarisはApache財団にインキュベーションプロジェクトとして受け入れられ、事実上、標準的なオープンソースカタログとしての地位を確立しました。
基盤的な視点から見ると、Databricks対Snowflakeの競争はピークに近づいており、現時点ではSnowflakeが競争上の優位性を持っているように見えます。
最終章であるPart 3では、Snowflakeの詳細なバリュエーション分析を通じて、同社の今後の株価見通しと将来性を詳しく解説していきます。
その他のスノーフレーク(SNOW)に関するレポートに関心がございましたら、是非、こちらのリンクより、スノーフレークのページにてご覧いただければと思います。
また、弊社はテクノロジー銘柄に関するレポートを毎週複数執筆しており、弊社のプロフィール上にてフォローをしていただくと、最新のレポートがリリースされる度にリアルタイムでメール経由でお知らせを受け取ることができます。
加えて、その他のアナリストも詳細な分析レポートを日々執筆しており、インベストリンゴのプラットフォーム上では「毎月約100件、年間で1000件以上」のレポートを提供しております。
弊社のテクノロジー銘柄に関する最新レポートを見逃さないために、是非、フォローしていただければと思います!
加えて、Part 1の冒頭で説明した通り、弊社は2025年1月27日時点で、既にスノーフレークに関する16件のレポートをインベストリンゴ上でリリースしておりますので、同社への理解を一層深めるために、それらのレポートも併せてご覧いただければと思います。
Snowflakeの買収戦略に関して
アナリスト紹介:コンヴェクィティ
📍テクノロジー担当
コンヴェクィティのその他のテクノロジー銘柄のレポートに関心がございましたら、こちらのリンクより、コンヴェクィティのプロフィールページにてご覧いただければと思います。
インベストリンゴでは、弊社のアナリストが「高配当銘柄」から「AIや半導体関連のテクノロジー銘柄」まで、米国株個別企業に関する分析を日々日本語でアップデートしております。さらに、インベストリンゴのレポート上でカバーされている米国、及び、外国企業数は「250銘柄以上」(対象銘柄リストはこちら)となっております。米国株式市場に関心のある方は、是非、弊社プラットフォームより詳細な分析レポートをご覧いただければと思います。