アリババ、効率性を追求した次世代AI基盤モデルを発表
中国の人工知能分野を牽引するアリババグループは、大規模モデルの性能を維持しながらも大幅に小型化・低コスト化した次世代基盤モデルを開発しました。サウスチャイナ・モーニング・ポストによると、アリババクラウドは新たな大規模言語モデル「Qwen3-Next-80B-A3B」を公開し、「効率的なLLMの未来」を掲げています。
小型化とコスト削減を実現
新モデルは、1週間前に発表されたアリババ最大のAIモデルと比べて約13分の1のサイズでありながら、同社の歴代最高水準の性能を発揮するとされています。開発者によれば、このモデルは一部のタスクで従来モデル「Qwen3-32B」より10倍高速に動作し、学習コストを90%削減することに成功しました。
Stability AIの共同創業者Emad Mostaque氏はX(旧Twitter)で「昨年のほとんどのモデルを凌駕している」とコメント。しかも学習コストは50万ドル(約7,300万円)未満と推定されています。比較として、Googleの「Gemini Ultra」(2024年2月発表)は約1億9,100万ドル(約280億円)のコストがかかっています。
ライバルを凌ぐ性能
AIベンチマーク企業Artificial Analysisによると、「Qwen3-Next-80B-A3B」は最新版のDeepSeek R1や、アリババ支援のスタートアップMoonshot AIによるKimi-K2を上回る結果を示しました。
複数の研究者は成功要因として「ハイブリッドアテンション」と呼ばれる新手法を挙げています。特にMITとNvidiaが提案した「Gated DeltaNet」を活用し、重要な情報を選別することで効率的かつ精度の高い注意機構を実現しました。
Mixture-of-Expertsによる効率化
新モデルは「Mixture-of-Experts(MoE)」アーキテクチャも採用。512人の「専門家(エキスパート)」ネットワークを持ちながら、同時に稼働するのはわずか10個に制限されています。これにより、DeepSeek-V3.1と同等の性能を、わずか30億のアクティブパラメータで達成しました。
その結果、アリババのクラウド上での運用コストも大幅に削減され、より現実的な運用が可能になったとしています。
小型モデルへのシフト
AI業界では、コスト増大への懸念から「より小さく効率的なモデル」への関心が高まっています。Nvidiaの研究者は小型モデルを「エージェントAIの未来」と位置づけ、Tencentや北京のスタートアップZ.aiも数十億パラメータ規模の軽量モデルを公開しています。
新モデルは単一のNvidia H200 GPUで稼働可能であり、オープンソースプラットフォーム「Hugging Face」では公開から24時間以内に2万件近いダウンロードを記録しました。アリババは「次世代モデルの方向性を示すもの」と強調しています。
出典: Yahoo! Finance