DeepSeek V4を触ってみた——1兆パラメータのオープンモデルは本物か

2026年3月、DeepSeekがV4をリリースしました。1兆パラメータのオープンウェイトモデル。「GPT-5.4やClaude Opus 4.6に匹敵するオープンモデル」という触れ込みです。オープンソース界隈がざわついたこのモデル、実際どうなのか試してみました。

DeepSeek V4のスペックを整理する

まず基本情報をおさらいします。

項目              内容
──────────────────────────────────
パラメータ数      1兆(1T)
アーキテクチャ    Mixture of Experts(MoE)
ライセンス        商用利用可能なオープンウェイト
コンテキスト      128K tokens
対応言語          英語・中国語・日本語ほか多言語
推論方式          MoEにより実効パラメータは約200B相当

1兆パラメータと聞くと「個人じゃ動かせないだろ」と思いますが、MoE(Mixture of Experts)アーキテクチャなので、推論時に全パラメータが活性化するわけではありません。実効的にはだいたい200Bパラメータ程度の計算量で動きます。とはいえ、ローカルで動かすにはA100×4枚くらいは欲しいところです。

API経由で使ってみる

ローカル実行はハードルが高いので、まずはAPI経由で試すのが現実的です。DeepSeekの公式APIが使えます。

# 環境: Python 3.12 / openai 1.60+
# DeepSeek APIはOpenAI互換なのでopenaiライブラリが使える
# pip install openai

from openai import OpenAI

client = OpenAI(
    api_key="your-deepseek-api-key",
    base_url="https://api.deepseek.com"
)

response = client.chat.completions.create(
    model="deepseek-chat",  # V4が自動で使われる
    messages=[
        {"role": "system", "content": "あなたは経験豊富なPythonエンジニアです。"},
        {"role": "user", "content": "FastAPIでJWT認証を実装するコードを書いて"}
    ],
    max_tokens=4096,
)

print(response.choices[0].message.content)

OpenAI互換のAPIなので、既存のコードのbase_urlとAPIキーを差し替えるだけで動きます。この互換性は地味にありがたい。LangChainやLlamaIndexからも同じ要領で呼べます。

コーディング性能を試してみた

良かった点:多言語対応のコード生成

Python、TypeScript、Go、Rustの4言語でそれぞれHTTP APIサーバーを書かせてみました。どの言語でもまともなコードが出てきます。特にPythonとTypeScriptは、Claude Sonnet 4.6と比べても遜色ないレベル。エラーハンドリングや型定義もちゃんとしています。

微妙だった点:長文の文脈保持

128Kのコンテキストがありますが、長いコードベースを読ませたときに後半の情報が薄くなる傾向がありました。10ファイル以上を一度に渡すと、最初のファイルの内容を忘れて矛盾した修正を提案してくることがある。この辺はClaude Opus 4.6の1Mコンテキストとは差を感じます。

驚いた点:日本語での技術説明

中国製モデルなので日本語は微妙かと思いきや、技術的な説明文はかなり自然でした。ただし、カジュアルな日本語(ブログ記事のような文体)を書かせると硬い表現になりがち。技術ドキュメントやREADMEの生成には十分使えます。

ローカル実行するなら

自社サーバーやプライベートクラウドで動かしたい人向けの情報です。

# vLLMでの起動例(A100 80GB x 4 推奨)
pip install vllm

python -m vllm.entrypoints.openai.api_server     --model deepseek-ai/DeepSeek-V4     --tensor-parallel-size 4     --max-model-len 65536     --trust-remote-code     --port 8000

# 起動後はOpenAI互換APIとしてアクセス可能
# curl http://localhost:8000/v1/chat/completions ...

正直、個人のGPUマシンで動かすのは厳しいです。クラウドGPUを借りるにしても、A100×4だと時給$10〜15くらいかかります。「とりあえず試したい」ならAPI経由一択。ローカル実行は「社外にデータを出せない」などの明確な理由がある場合に検討する形になります。

GPT-5.4・Claude Opus 4.6と比べてどう?

率直に言うと、総合力ではまだGPT-5.4やClaude Opus 4.6に及びません。特に長い推論チェーンが必要なタスク(複雑なバグの原因特定、大規模リファクタリングなど)では差を感じます。

ただし、コスパは圧倒的です。DeepSeek APIの料金はClaudeやGPTの5分の1〜10分の1程度。「8割の品質を2割のコストで」と考えれば、日常的なコード生成やドキュメント作成には十分すぎるレベルです。

それと、オープンウェイトであることの価値は大きい。ファインチューニングして自社ドメインに特化させる、エアギャップ環境で動かす、といった使い方はクローズドモデルにはできません。

よくある質問

はい。DeepSeek V4はオープンウェイトで商用利用可能なライセンスです。ファインチューニングしたモデルを自社プロダクトに組み込むこともできます。ただし、利用規約は必ず確認してください。

API経由の場合、データはDeepSeekのサーバーを経由します。機密データを扱う場合はローカル実行を検討してください。モデルの重み自体はHugging Faceで公開されているので、中身を検証することも可能です。

MoEアーキテクチャの効率化、多言語対応の強化、コーディング性能の大幅向上が主な改善です。V3と比べてコーディングベンチマークで20〜30%のスコア向上が報告されています。

まとめ

  • DeepSeek V4は1兆パラメータのオープンウェイトモデル。MoEにより実効200B相当で動く
  • APIはOpenAI互換で、既存コードからの移行が簡単
  • 総合力ではGPT-5.4やClaude Opus 4.6に及ばないが、コスパとオープン性で差別化
  • ローカル実行にはA100×4以上が必要。まずはAPI経由で試すのが現実的

参考: DeepSeek - Hugging Face

K
AWS・Python・生成AIを専門とするソフトウェアエンジニア。AI・クラウド・開発ワークフローの実践ガイドを執筆しています。詳しく見る →