DeepSeekとSakana AIに見る生成AIの新たな潮流
生成AI(ジェネレーティブAI)の進化は、私たちの生活やビジネスの風景を劇的に変え続けています。2025年に入り、AI技術は新たな段階へと突入し、その挑戦はますます多様化しています。
本記事では、生成AIの新たな潮流として注目される3つの主要なポイントを、具体的な例やたとえ話を交えながら解説します。特に、新興企業であるDeepSeekとSakana AIの技術革新に焦点を当て、これらの企業がどのようにしてAI業界に新風を巻き起こしているのかを探ります。
1. 論点が学習から推論にシフト
従来のLLM学習の潮流
これまで、大規模言語モデル(LLM)の開発は主にモデルの学習(トレーニング)に焦点が当てられてきました。OpenAIのGPTシリーズやGoogleのBERTなどがその代表例です。これらのモデルは、大量のデータを用いて膨大なパラメータを学習し、高度な自然言語処理能力を獲得してきました。
推論の重要性の高まり
近年、AIモデルの開発において、学習フェーズだけでなく推論フェーズの重要性が急速に高まっています。
推論とは、学習済みモデルを用いて実際のタスクを実行するプロセスであり、その効率性やコストは、AIの実運用における経済合理性を左右する大きな要素です。
この背景には、学習に対する投資対効果の低下が挙げられます。従来は、より大規模なデータセットを用いた追加学習や、計算リソースを増やすことでモデルの性能を向上させる手法が一般的でした。しかし、学習コストの増大に対して得られる性能向上の幅が次第に小さくなり、いわゆる「学習の限界」に直面しつつあります。 また、特定のタスクにおいては、新規の高品質なデータの確保が難しくなっているだけでなく、すでに世の中のデータの大部分が学習に活用され尽くしており、新たに学習すべき情報自体がほとんど残されていないという課題も顕在化しています。
こうした状況の中で、「既存の知識をいかに効率的に活用し、より精度の高い推論を行うか」という視点が重要になっています。
特に、「パワハラプロンプト」や「繰り返しの考察を行う手法」といった技術は、AIが自律的に問題を解決し、より精緻な結果を導き出すための手段として注目されています。これは、単に大量のデータを学習させるのではなく、限られた知識から最大限の価値を引き出す方向へとAI活用のトレンドがシフトしていることを示しています。
今後、AI技術の発展においては、いかに低コストで高精度な推論を実現するかが、学習フェーズと並ぶ重要な研究課題となるでしょう。
※)パワハラプロンプトはこちらの記事を参照してください。
パワハラプロンプトとは?出力結果を改善させる汎用プロンプトの解説とその実行結果を検証
たとえ話: 「高性能なシェフとキッチンの効率化」
生成AIの学習フェーズを「シェフの技術習得」と例えると、推論フェーズは「料理の提供」に相当します。高性能なシェフが高度な料理技術を習得しても、料理を効率的に提供できなければ顧客満足度は下がります。ここで、「パワハラプロンプト」や「繰り返しの考察を行う手法」は、シェフが限られた時間と資源の中で最適な料理を提供するためのキッチンマネジメントや調理プロセスの改善に相当します。これにより、シェフは効率的に料理を提供しつつ、高品質な料理を維持できるのです。
DeepSeekとSakana AIのアプローチ
DeepSeekは、推論の効率化に注力し、従来のLLMと同等の性能を25分の1のコストで実現するR1モデルを開発しました。これは、動的精度調整技術を採用し、必要な場面でのみ高精度を使用することで、推論コストを大幅に削減しています。また、GRPO(Group Relative Policy Optimization)を用いた強化学習により、AIが自律的に問題を解決し、より効果的な推論を行えるようにしています。
Sakana AIも同様に、Transformer²を用いて並列処理性能を向上させ、推論の効率性を高めています。これにより、従来のモデルに比べて処理速度を大幅に改善し、リアルタイムでの応答性を向上させています。また、Sakana AIは繰り返しの考察を行う手法を取り入れ、AIがより精緻な回答を導き出すためのプロセスを最適化しています。
2. 大規模至上主義からコンパクトモデルへ
大規模至上主義の限界
従来、LLMの発展は「大規模化」が中心テーマでした。モデルのパラメータ数を増やすことで性能を向上させるというアプローチです。
しかし、この方法には限界があります。モデルが巨大になるほど、学習や推論にかかるコストが増加し、環境負荷も高まります。また、一つの巨大モデルでは多様なタスクに対する専門性を持たせることが難しく、汎用性と専門性のバランスを取ることが困難です。
コンパクトモデルの台頭
これに対抗する形で、よりコンパクトで効率的なモデルの開発が注目されています。
コンパクトモデルとは、少ないパラメータで高い性能を発揮するモデルのことです。
これらは、計算資源の消費を抑えつつ、必要なタスクに対して十分な精度を提供します。
コンパクトモデルは、特にリソースが限られた環境やリアルタイムアプリケーションにおいて有用です。
たとえ話: 「小型スポーツカーと大型SUV」
AIモデルの大規模至上主義を「大型SUV」に例えると、コンパクトモデルは「小型スポーツカー」に相当します。
大型SUVは多くの乗客や荷物を運ぶ能力があり、力強い走行が可能ですが、その分燃費が悪く、維持費も高くなります。
一方、小型スポーツカーは運転が楽しく、燃費も良く、維持費も抑えられるため、特定のニーズに非常に適しています。同様に、コンパクトモデルは必要なタスクに対して効率的に動作し、コストとリソースの面で優れたパフォーマンスを発揮します。
DeepSeekとSakana AIの取り組み
DeepSeekのR1モデルは、MoE(Mixture-of-Experts)技術を採用し、タスクを複数の専門家モデルに分割しています。これにより、必要な専門家のみを活用し、効率的にタスクを処理しています。また、各エキスパートモデルが特定の分野に特化することで、全体の性能と効率を最適化しています。
Sakana AIのTransformer²も、従来のTransformerアーキテクチャを二重化することで、複数のエキスパートモデルを並列に制御し、高速かつ効率的な処理を実現しています。これにより、異なるタスクに対して専門的なモデルを柔軟に活用し、全体のパフォーマンスを向上させています。さらに、コンパクトな設計により、リソース消費を抑えつつ高い精度を維持しています。
GPUパワーセーブモードへの挑戦
AI技術の発展に伴い、GPU(Graphics Processing Unit)の需要が急増しています。
特に、LLMのトレーニングや推論には大量のGPUリソースが必要となり、そのコストも高騰しています。これは、企業にとって大きな負担となり、AI導入の障壁となる可能性があります。さらに、環境への影響も無視できず、持続可能なAI開発が求められる中で、GPUの効率的な利用が急務となっています。
このような状況に対し、GPUリソースを効率的に使用する技術が求められています。
GPUのパフォーマンスを最大限に活用しつつ、消費電力やコストを削減することが重要です。これにより、AI技術の普及が促進され、より多くの企業や研究機関がAIを活用できるようになります。
GPU版「ジェボンズのパラドックス」
ジェボンズのパラドックスとは、技術の進歩によりエネルギー効率が向上すると、逆に総エネルギー消費が増加する現象を指します。これは、効率的な家電製品が普及することで、より多くの人々がそれらを使用し、結果的に全体のエネルギー消費が増えるという考え方です。
これをAIに置き換えると、GPUのエネルギー効率が向上することで、AIの利用がさらに拡大し、総GPU消費が増加する可能性があります。したがって、単に効率化を図るだけでなく、AIの使用を適切に管理し、持続可能な方法で活用することが求められます。
家庭で使用する家電製品も、エネルギー効率が高いものほど、電気代を抑えつつ快適な生活を実現します。例えば、エネルギー効率の良い冷蔵庫は、同じ冷却能力を持ちながらも消費電力が少なく済みます。同様に、AIにおいてもGPUパワーを効率的に活用する技術は、運用コストを抑えつつ高性能を維持するために不可欠です。
ジェボンズのパラドックスを踏まえつつ、GPUパワーの効率的な活用が進むことで、AI技術はますます社会に根付いていくでしょう。
DeepSeekとSakana AIの共通点と市場への影響
DeepSeekとSakana AIのソリューション
DeepSeekの動的精度調整技術は、必要な場面でのみ高精度を使用し、それ以外では省エネモードを採用することで、GPUリソースの消費を最小限に抑えています。これにより、総合的なコスト削減と効率化を実現しています。
また、MoEを活用することで、必要なエキスパートモデルのみを動的に呼び出し、GPUリソースを効率的に配分しています。
Sakana AIのTransformer²は、並列処理性能を向上させることで、同時に複数のタスクを処理し、GPUリソースの有効活用を図っています。これにより、処理速度を維持しつつ、GPUの消費を抑えることが可能となっています。また、SVF(Scalable Vector-based Framework)により、大量のベクトルデータを効率的に処理し、GPUリソースの最適化を実現しています。
共通点
- 新興AIスタートアップ
- 設立年: 両社とも2023年に設立されました。
- 設立地: DeepSeekは中国・杭州、Sakana AIは日本・東京で設立されています。
- 急成長と注目: 新規参入企業として、急速にAI業界内で注目を集めています。
- 効率性とコスト削減の追求
- DeepSeek: MoEや動的精度調整技術を活用し、計算コストを大幅に削減。
- Sakana AI: Transformer²による並列処理の最適化やSVFによる効率的なデータ処理で運用コストを削減。
- 革新的な技術アプローチ
- 両社ともに従来の技術に革新を加え、AIモデルの性能向上とコスト削減を同時に達成することを目指しています。
- DeepSeek: MoEや強化学習(GRPO)を採用。
- Sakana AI: Transformer²やSVFなど独自の技術を採用。
- 競合他社への挑戦
両社ともに、GAFA(M)(Google, Apple, Facebook [Meta], Amazon, Microsoft)などの大手AI企業に対抗する形で市場に参入し、価格競争や技術革新を促進しています。 - 市場へのインパクト
- 両社の登場により、AIモデルの価格破壊や新たな技術革新が促進され、業界全体の進化を加速させています。
- DeepSeekの「AIのピンドゥオドゥオ」とSakana AIの革新的技術は、業界内外で大きな注目を集めています。
市場への影響
DeepSeekとSakana AIの登場は、AI業界に新たな旋風を吹き込みました。
特に、中小規模の企業やスタートアップにとって、これまで大規模なリソースを持つ大手企業と競争することは困難でしたが、これらの新興企業の技術革新により、コスト効率の高いソリューションが提供されるようになりました。
これにより、AI技術の普及が加速し、より多くの企業や研究機関がAIを活用できる環境が整いつつあります。
さらに、エコモードやコンパクトモデルの制御など、効率的なリソース管理技術が注目を浴びることで、環境負荷の低減や持続可能なAI開発が促進されています。
まとめ
2025年における生成AIの新たな挑戦として、以下の3つのポイントが浮かび上がります。
❶ 推論の重視:
学習フェーズだけでなく、実際の運用における推論効率が重要視されるようになっています。DeepSeekやSakana AIは、推論コストの削減と効率化に注力し、実用性を高めています。特に、パワハラプロンプトや繰り返しの考察を行う手法により、AIの推論能力が飛躍的に向上しています。
❷ エキスパートモデルの制御:
大規模至上主義から、特定のタスクに特化したコンパクトモデルへと移行しています。これにより、AIシステム全体の性能向上とコスト削減が実現されています。DeepSeekのMoEやSakana AIのTransformer²は、この潮流を牽引する技術として注目されています。s
❸ GPUパワーセーブモードへの挑戦:
GPUリソースの需要が急増する中で、効率的なリソース管理技術が注目されています。ジェボンズのパラドックスを踏まえつつ、DeepSeekの動的精度調整技術やSakana AIの並列処理最適化技術は、GPUパワーの効率的な活用を実現し、AI技術の持続可能な発展に寄与しています。
DeepSeekとSakana AIは、これらの新たな潮流に対応することで、AI業界における新しいスタンダードを築きつつあります。彼らの技術革新と市場戦略が、今後の生成AIの発展にどのような影響を与えるのか、引き続き注目が必要です。
おわりに
生成AIの進化は止まることなく、新たな挑戦とともに成長を続けています。
DeepSeekとSakana AIのような新興企業の台頭は、AI技術の多様化と効率化を促進し、業界全体の発展に寄与しています。
しかし、これらの技術が実際にどの程度の効果を発揮するかは、今後の検証と実用事例の蓄積が必要です。私たちは、常に最新の技術動向を追い、冷静な視点で評価し続けることが求められます。
最新の続報を楽しみに待ちながら、AI技術の進化とその社会的影響に対する理解を深めていきましょう。
以上
ケニー狩野(中小企業診断士、PMP、ITコーディネータ)
キヤノン(株)でアーキテクト、プロマネとして多数のプロジェクトをリード。
現在、株式会社ベーネテック代表、株式会社アープ取締役、一般社団法人Society 5.0振興協会評議員ブロックチェーン導入評価委員長。
これまでの知見を活かしブロックチェーンや人工知能技術の推進に従事。趣味はダイビングと囲碁。
2018年「リアル・イノベーション・マインド」を出版。