- 012025年1月、DeepSeek R1の公開は「AIはGPUに金をかけた者が勝つ」という常識を破壊した。
- 02わずか600万ドルの訓練コストでOpenAIのo1に匹敵する推論性能を示し、業界に衝撃を与えた。
- 03あれから1年——業界の勢力図はどう変わり、私たちは何を学ぶべきか。
2025年1月、DeepSeek R1の公開は「AIはGPUに金をかけた者が勝つ」という常識を破壊した。
わずか600万ドルの訓練コストでOpenAIのo1に匹敵する推論性能を示し、業界に衝撃を与えた。
あれから1年——業界の勢力図はどう変わり、私たちは何を学ぶべきか。
#01 何が起きたのか
2025年1月、中国のスタートアップDeepSeekが「DeepSeek R1」をMITライセンスで公開しました。訓練コストは約600万ドルと報告され、当時のOpenAI最上位モデルo1に匹敵する数学・コーディング性能を示しました。この発表は米国ナスダックのNVIDIA株を一時17%下落させ、AI業界の「計算量=性能」という前提を揺るがしました。
DeepSeekが採用したMoE(Mixture of Experts)アーキテクチャ、Chain-of-Thought蒸留、GRPOという独自の強化学習手法は、その後世界中の研究者が追試・改良しました。1年後の現在、MetaのLlama 4やAnthropicの新モデルにもその影響が色濃く見られます。
#02 なぜ重要なのか
DeepSeekの衝撃は単なる「安いモデルが出た」という話ではありません。効率的な訓練手法の公開によって、「高性能AIは巨大企業だけのもの」という構造が崩れ始めました。中国のAI研究が欧米に肩を並べる水準に達したことも、地政学的な観点から無視できません。
また、DeepSeekが公開したことでオープンソースAIの勢いが増し、Metaのオープン戦略を後押しする形になりました。MicrosoftやAWSがDeepSeekモデルを自社クラウドで提供するという、競合モデルを商用インフラで販売する逆説的な事態も生まれました。
#03 で、私たちの生活にどう影響?
AI利用コストの大幅な低下が進んでいます。DeepSeekの登場を機に各社が競って価格を引き下げ、1年前と比べてAPIコストは平均で数分の一になりました。日本語対応の無料・低価格AIツールが急増したのもこの流れの恩恵です。
「金かけた方が勝つ」が崩れた瞬間よね。
Claude Code派だから乗り換えはしてないけど、効率訓練の流れがAnthropicにも波及してるなら間接的に恩恵受けてる気がする。

