ブログ

DeepSeek V4 プレビュー:1.6兆のオープンウェイトがトップクラスのクローズドモデルに匹敵

2026年4月24日jaAmara ElaraAI Insights13分
720375e1-7fb8-47fb-9e7b-382dd58ce436.png

DeepSeek V4プレビュー版がオープンウェイトで公開:パラメータ1.6兆、コンテキスト100万、すべてのオープンウェイト競合モデルを上回るベンチマーク結果。

DeepSeek V4オープンウェイトAIモデル大規模言語モデルAIベンチマークオープンソースLLMDeepSeekプレビュー1.6兆パラメータ

DeepSeek V4 プレビュー:1.6T オープンウェイトがトップクラスのクローズドモデルに匹敵

半年。待ち時間は結局、これだけの長さになった。

年初には、V4が旧正月前にリリースされるという噂があった。その後、2月。3月。そして「来月のどこか」。DeepSeekはこれらについて一切言及しなかった。憶測は絶えず飛び交い、V4はリリースされなかった。

そして今朝――記者会見も、ティーザーキャンペーンも、カウントダウンもなく――DeepSeekのウェブサイトが更新された。DeepSeek-V4プレビューが公開され、その 重み付けデータはHugging Faceで一般公開されている

2つのモデル、1つの戦略

V4は2つのバリエーションで提供される:

DeepSeek-V4-Proはフラッグシップモデルです。総パラメータ数1.6兆、1回のフォワードパスあたり490億のアクティブパラメータを備えています。世界トップクラスのクローズドソースモデルに匹敵する性能を発揮します。

DeepSeek-V4-Flashは効率性を重視したオプションです。総パラメータ数2840億、アクティブパラメータ数130億。高速かつ低コストで、高スループットかつコスト重視のワークロード向けに構築されています。

DeepSeek V4 プレビュー:1.6兆のオープンウェイトがトップクラスのクローズドモデルに匹敵 image

いずれも最大100万トークンのコンテキストに対応しています。

DeepSeekは適用範囲を明確にしました:100万トークンのコンテキストは、DeepSeekの全サービスで広く利用可能になりました。フラッグシップモデルの特典でも、追加オプションでもありません。これが標準仕様です。

DeepSeek V4 プレビュー:1.6兆のオープンウェイトがトップクラスのクローズドモデルに匹敵 image

100万トークンのコンテキスト:なぜこれが重要なのか

100万トークンはおよそ75万語に相当します。これは数十万行のコード、あるいは数冊の小説を連続して読み通す量に匹敵します。1年前、Geminiは100万トークンのコンテキストを競争上の優位性として扱っていました。DeepSeekはこれを単なる「最低限の要件」に変えたのです。

これを可能にするアーキテクチャが現実のものとなりました。DSA(DeepSeek Sparse Attention)は、トークン単位の圧縮を適用することで、長シーケンス処理の計算コストとメモリコストを劇的に削減します。従来のアテンションはシーケンスの長さに比例して計算量が2乗で増加しますが、DSAはそのコストを大幅に低減し、計算コストとメモリコストを劇的に削減しながら、世界トップクラスの長コンテキスト性能を実現します。

V4-Proの機能:3つの領域

エージェントコーディング

V4-Proは、エージェントコーディングベンチマークにおいてオープンソースの最先端レベルを達成しています。より具体的に言えば、DeepSeekのエンジニア自身も、社内のエージェントコーディング業務にすでにV4を活用しています。

DeepSeek V4 プレビュー:1.6兆のオープンウェイトがトップクラスのクローズドモデルに匹敵 image

また、V4にはClaude CodeOpenClawOpenCode向けの専用統合機能が搭載されており、コード生成タスクや文書生成全般において性能が向上しています。

世界知識

V4-Proは、世界知識ベンチマークにおいて、現在のすべてのオープンソースモデルを圧倒的な差でリードしています。これを上回っているのはGemini-Pro-3.1のみです。

数学と推論

数学、STEM、および競技レベルのコーディングにおいて、V4-Proは現在公開評価されているすべてのオープンモデルを上回り、トップクラスのクローズドソースモデルと同等のレベルに位置しています。

V4-Flash:単なる小型版Proではない

Flashについては別途解説が必要です。

推論能力はV4-Proに極めて近い。単純なエージェントタスクでは両者は実質的に互角だが、複雑さが増すにつれて差が開く。パラメータ数が少ないため応答が速く、API料金もコスト効率に優れており、日常的なワークロードにおける実用的なデフォルト選択肢となる。コンテキストの上限は同様に100万文字である。

DeepSeek V4 プレビュー:1.6兆のオープンウェイトがトップクラスのクローズドモデルに匹敵 image

すでにAPIをご利用の開発者の方へ

移行作業は最小限です。base_urlはそのままに、モデル名をdeepseek-v4-proまたは deepseek-v4-flashに変更してください。両モデルとも、OpenAI ChatCompletions およびAnthropic API、100万文字のコンテキスト、思考モードと非思考モードの両方をサポートしています。

今回のリリースを真剣に検討すべき理由

すべてのモデルリリースが業界に革命をもたらすわけではありません。しかし、今回のリリースは違います。

特に際立つ点が2つあります:

第一に、100万トークンのコンテキストが「インフラ」となったことです。これは両モデルにおける標準仕様であり、プレミアムプランではありません。「コンテキストが収まるか?」という懸念は、日常の開発作業における障害となることはほぼなくなりました。

第二に、重みの公開です。100万語のコンテキストに対応し、パラメータ数1.6兆、アクティブノード数490億というモデル――その重みが公開されました。DeepSeekはV3において、オープンソースが達成し得る可能性に対する期待値を塗り替えました。V4はその限界をさらに押し広げます。

最後に一つ

ライブ配信なし。インタビューなし。ロードマップ資料なし。

ただ、金曜日の朝、ドキュメントが更新され、APIが変更され、アプリが公開され、Hugging Faceに技術レポートが掲載されただけでした。

発表は次のように締めくくられた。「私たちはロングターミズムへのコミットメントを維持し、AGIという究極の目標に向かって着実に前進していきます。」

控えめな表現だ。しかし、半年間の沈黙と、今日実際にリリースされた内容を鑑みれば、この言葉は説得力を持つ。

関連記事