2月27日、PANewsは、業界が次世代フラッグシップモデルDeepSeek V4の登場を待ち望む中、DeepSeekチームがひっそりと新たな学術論文を発表したと報じました。この論文では、エージェントワークロードにおける大規模モデル(LLM)推論パフォーマンスに特化して最適化された革新的な推論システム「DualPath」が紹介されています。「デュアルパス読み取りKVキャッシュ(メモリキャッシュに類似)」メカニズムを導入することで、ストレージネットワークの負荷が再配分され、オフライン推論のスループットが最大1.87倍、オンラインサービスの1秒あたり平均エージェント実行回数が1.96倍に向上します。論文の序文では、大規模モデルがシングルターンのチャットボットや独立型推論モデルから、自律的なプランニング、ツールの呼び出し、マルチターンのインタラクションによる実用的なタスクの解決が可能なエージェントシステムへと急速に進化していると述べられています。アプリケーション パラダイムのこの変化により、大規模モデル推論のワークロードに大きな変化がもたらされています。従来の人間と大規模モデルのインタラクションから、人間と大規模モデルと環境のインタラクションへと変化し、インタラクション ラウンドは数十、数百ラウンドにまで達します。
DeepSeek の新しい論文では、エージェントのスループットをほぼ 2 倍にする DualPath 推論システムが提案されています。
共有先:
著者:PA一线
この内容は市場情報の提供のみを目的としており、投資助言を構成しません。
PANews公式アカウントをフォローして、強気・弱気相場を一緒に乗り越えましょう

