DeepSeek의 새로운 논문에서는 에이전트의 처리량을 거의 두 배로 늘리는 DualPath 추론 시스템을 제안합니다.

2월 27일, PANews는 업계가 차세대 플래그십 모델인 DeepSeek V4를 애타게 기다리는 가운데, DeepSeek 팀이 조용히 새로운 학술 논문을 발표했다고 보도했습니다. 이 논문은 에이전트 워크로드 환경에서 대규모 모델(LLM) 추론 성능에 최적화된 혁신적인 추론 시스템인 DualPath를 소개합니다. "듀얼 패스 읽기 KV 캐시(메모리 캐시와 유사)" 메커니즘을 도입하여 스토리지 네트워크 부하를 재분배함으로써 오프라인 추론 처리량을 최대 1.87배, 온라인 서비스의 초당 평균 에이전트 실행 횟수를 1.96배 향상시켰습니다. 논문 서두에서는 대규모 모델이 단일 턴 챗봇 및 독립형 추론 모델에서 자율적인 계획 수립, 도구 호출, 다중 턴 상호 작용을 통한 실질적인 작업 해결이 가능한 에이전트 시스템으로 빠르게 진화하고 있다고 언급합니다. 이러한 응용 패러다임의 변화는 대규모 모델 추론 워크로드에 상당한 변화를 가져오고 있습니다. 즉, 전통적인 사람과 대규모 모델 간의 상호 작용에서 사람과 대규모 모델, 그리고 환경 간의 상호 작용으로 바뀌고 있으며, 상호 작용 횟수는 수십 번 또는 수백 번에 달할 수 있습니다.

공유하기:

작성자: PA一线

이 내용은 시장 정보 제공만을 목적으로 하며, 투자 조언을 구성하지 않습니다.

PANews 공식 계정을 팔로우하고 함께 상승장과 하락장을 헤쳐나가세요