DeepSeek R1、無料で使えるAIとしては最強クラス (1/6)

新清士の「メタバース・プレゼンス」 第93回

DeepSeek R1に揺れる世界(ChatGPTで筆者作成)

1月20日に、中国のAI企業DeepSeekがリリースした大規模言語モデル(LLM)の「DeepSeek R1」が世界中に衝撃を与えています。OpenAIの「o1」に匹敵する性能とアピールされているにも関わらず、誰にも扱えて、緩いライセンスでオープンウェイトモデルとして公開されるとはまったく予想外でした。今までのLLM開発をけん引してきたアメリカを中心とするAI大手各社に大幅な戦略の見直しを迫るほどのものでした。一方で、政治バイアスが明確に組み込まれていることもあり、日本でも警戒が広がっています。ローカルPCで動作するDeepSeek R1はどれほどの性能のものなのか、早速試してみました。

アメリカ有利だったLLM開発に中国が追いついた

発表によると、DeepSeek R1は各種比較テストでo1に匹敵する性能であると主張しています。また、教師モデルを持たず、強化学習だけでo1レベルに達したとアピールしています。数学などの難易度の高い問題を解くことが得意なようです。パラメーター数はトータルでは6710億、実際の推論時に使うアクティブパラメーターは370億、さらに記憶容量を決めるコンテキスト長は12万8000トークンにまで対応しているという巨大LLMモデルです。ファイルサイズは650GBに及び、これはo1に匹敵すると考えられています。

DeepSeekが公開した技術論文では、DeepSeek R1は、o1に匹敵する性能と紹介されている

当初の報道では、開発費が600万ドル(約8億円)とされ、大きな衝撃を与えました。ChatGPTの開発費に比べて10分の1以下であるというわけです。社員も150人しかおらず、1500人以上と言われるOpenAIに比べると非常に小さな規模です。しかし、その後の米Semianalysis誌によると、中国のヘッジファンドHigh-Flyer Capital(高飛資本)から資金提供を受けており、株式などの取引用のAIのために多額のコンピューティング環境への投資をしており、人件費なども含めると実際の投資額は5億ドル(約750億円)になると推測されており、そこまで小規模というわけではないようです。それでも、北米企業が圧倒的な優位性を維持できていると考えられていたLLM開発で、中国企業に一気に追いつかれた可能性が出てきました。

ツイートする

カテゴリートップへ

この連載の記事

Leave a Reply

Your email address will not be published. Required fields are marked *