DeepSeekが人工知能(AI)業界を揺るがしてから、1週間以上が経過した。DeepSeekが、AI業界の有力企業も使用している計算処理チップを限られた分量だけ使って訓練したとされるオープンウェイトモデル(重みが公開されているモデル)として公開したことは、OpenAIに衝撃を与えた。
OpenAIの社員は、DeepSeekが同社のモデルを「不適切に蒸留」してモデルを作成した可能性があると指摘している。また、このスタートアップの成功は、OpenAIのような企業が計算リソースを過剰に投入しているのではないかという疑念をウォール街に抱かせることとなった。
「DeepSeekのR1はAIにおけるスプートニク的瞬間だ」と、シリコンバレーで大きな影響力のある発明家であり、挑発的な発言で知られるマーク・アンドリーセンはXに投稿した。
競合の登場に広がる危機感
DeepSeekの登場を受けて、OpenAIは新モデル「o3-mini」を当初の予定よりも早く発表することにした。このモデルはAPIとチャット形式の両方で提供される。情報筋によると、o3-miniはo1に匹敵する推論能力と、4oの速度を兼ね備えたモデルである。つまり、高速で低コストかつ性能が高い、DeepSeekに対抗するために設計されたモデルということだ(OpenAIの広報担当者ニコ・フェリックスは、「o3-mini」の開発はDeepSeekの登場前から進めており、1月末の公開を目標としていたと説明している)。
OpenAIの社員の士気は上がっている。DeepSeekが世間の注目を浴びるなか、OpenAIの社内では、より効率的にならなければ、新たな競争相手に後れをとるかもしれないという危機感が広がったのだ。
とはいえ問題の一端は、OpenAIがもともと非営利の研究機関として設立され、その後、営利を追い求める有力企業へと転身した経緯にある。社員によると、研究チームと製品チームの間で権力争いが続いており、その結果、高度な推論機能を担当するチームとチャットを担当するチームの間に対立が生じているという(OpenAIの広報担当者ニコ・フェリックスは、これは「誤り」であるとし、プロダクト最高責任者のケビン・ワイルと研究最高責任者のマーク・チェンは「毎週ミーティングを開き、製品と研究の優先事項について密に連携しています」と説明した)。
OpenAIの一部の社員は、ユーザーの質問が高度な推論を必要とするものかどうかを自動で判断して対応できる、ひとつのチャットモデルを開発すべきだと考えている。しかし、これはまだ実現していない。その代わり、ChatGPTのユーザーはドロップダウンメニューから「GPT-4o(ほとんどの質問に最適)」か「o1(高度な推論を使用)」から使用するモデルを選択する仕組みになっている。
OpenAIの収益の大半はチャット機能によるものであるにもかかわらず、経営陣はo1により関心があり、計算リソースも多く割り当てていると、一部の社員は主張する。「経営陣はチャットに関心がありません」と、(読者の想像どおり)チャット部門で働いていた元社員は語る。「誰もがo1の開発に携わりたがっていました。注目度の高いプロジェクトだったからです。しかし、o1のコードベースは新機能の開発や改良に適した設計ではなく、開発の勢いが生まれませんでした」。この元社員は秘密保持契約を理由に、匿名を条件に取材に応じた。
DeepSeekのモデルとの共通点
OpenAIは強化学習を活用しモデルを改良する試みを長年続けており、その結果、高度な推論を備えた「o1」が完成した(強化学習とは罰則と報酬を使ってAIモデルを訓練する手法のことだ)。
DeepSeekは、OpenAIが先駆けた強化学習の手法をもとに、高度な推論能力をもつ独自のモデル「R1」を開発している。「DeepSeekは言語モデルに強化学習を適用することが効果的であるという知見を活かしたのです」と、OpenAIの元研究者は語る。この元研究者は、会社について公に発言できる立場にはない。
「DeepSeekが使った強化学習の手法は、OpenAIのものとよく似ています」と、OpenAIの別の元研究者は語る。「ただし、DeepSeekはより質の高いデータと洗練されたシステムを使って、これを適用しました」
OpenAIの社員によると、o1の研究には速度を重視した「berry」と呼ばれるコードベースが使用されている。「開発の品質を重視するか、処理速度を優先するかというトレードオフがありました」と、事情に詳しい元社員は語る。
o1は大規模な研究開発プロジェクトだったことから、コードベースに制約があったとしても、トレードオフがあること自体に問題はなかった。しかし、それは何百万人ものユーザーが利用するチャット機能には適したものではない。チャット機能は、より信頼性の高い別のコードベース上に構築されているからだ。o1が製品として公開されると、OpenAIの社内プロセスに亀裂が生じ始めた。
「なぜ研究開発用のコードベースを使っているのか? 本来の製品開発用のコードベースでやるべきではないのか?」と疑問の声が上がりました」と元社員は説明する。「これに対する社内の反発は非常に大きなものでした」
社内に広がる軋轢
昨年、OpenAIは社内で「プロジェクト・スプートニク」を立ち上げている。このプロジェクトはコードのどの部分を統合し、どの部分を分けておくべきかを整理するためのものだった。
しかし、社員の多くは、このプロジェクトは徹底的に実施されなかったと考えている。スタックを統合するのではなく、「berry」の使用を優先するよう促されただけだったのでチャット部門の一部からは不満の声が上がった。これに対し、OpenAIの広報担当者は「プロジェクト・スプートニクは問題なく実施されました」と主張している。
コードベースの問題は、実際の業務にも影響を及ぼしていたと情報筋は語る。本来、社員がモデルの訓練のための処理を実行した後、処理に使用されたGPUはほかの人が使えるように解放される。しかし、「berry」のコードベースの構造上、必ずしもそうはならなかった。「GPUが占拠されてしまうのです」と元社員は語る。「その結果、システムが行き詰まってしまいました」
チップの獲得競争は変わらない
OpenAIの外では、DeepSeekの成功をどう解釈すべきかについて業界内の意見は分かれている。NVIDIAの株価が急落したことは記憶に新しい。これは、投資家の間でAI開発に必要なチップの数を、業界が過大評価しているのではないかという懸念が広がったことが一因である。
しかし、この見方は短絡的だと専門家は指摘する。DeepSeekが主張するように、より効率的なモデルの開発方法が見つかったのなら、それによって開発プロセスが早まる可能性はある。しかし、最終的に勝者となるのは「最も多くのチップをもつ企業」であることには変わりない。
「同じ性能を得るために必要な計算リソースは減るかもしれませんが、どの企業もさらに大きなモデル開発のためにより多くのチップを得えようとしています」と、AI政策の独立系研究者であるマイルズ・ブランドエッジは語る。ブランドエッジはOpenAIに6年間在籍し、直近では汎用人工知能(AGI)の導入に向けた準備を専門とするシニアアドバイザーを務めていた。
OpenAIの新インフラプロジェクト「Stargate」で、社内のリソース不足感は和らぐかもしれない。Stargateの最初のデータセンターを手がけるCrusoeは、テキサス州アビリーンで99万8000平方フィート(約9万2,700平方メートル)もある施設の建設をすでに開始したと、同社の広報担当アンドリュー・シュミットは語る。
このプロジェクトの詳細は明らかになっていないが、今後複数のデータセンターやチップ製造設備、スーパーコンピューターを網羅するものへと拡大する可能性があるという。OpenAIは、このプロジェクトを率いる新たな最高経営責任者(CEO)を任命する予定だ。少なくとも計画上はそうなっている。
現在のCEOであるサム・アルトマンについて、別の元社員はこう語る。「彼は未来に何が起きるかについて、もっともらしい約束をします。しかし、いざそのときが来ると、彼の言葉はまったく当てになりません」
(Originally published on wired.com, translated by Nozomi Okuma, edited by Mamiko Nakano)
※『WIRED』によるOpenAIの関連記事はこちら。
雑誌『WIRED』日本版 VOL.55
「THE WIRED WORLD IN 2025」
『WIRED』の「THE WIRED WORLD IN 20XX」シリーズは、未来の可能性を拡張するアイデアやイノベーションのエッセンスが凝縮された毎年恒例の大好評企画だ。ユヴァル・ノア・ハラリやオードリー・タン、安野貴博、九段理江をはじめとする40名以上のビジョナリーが、テクノロジーやビジネス、カルチャーなど全10分野において、2025年を見通す最重要キーワードを掲げている。本特集は、未来を実装する者たちにとって必携の手引きとなるだろう。 詳細はこちら。