작성자: CJ_Blockchain
2025년 2월 3일, DeepSeek-R1이라는 모델이 국가 슈퍼컴퓨팅 인터넷 플랫폼에 조용히 출시되었습니다.
다음 달, 이 모델은 최고의 비공개 소스 모델과 직접적으로 비교할 수 있는 성능과 "매우 저렴한" 학습 비용 덕분에 전 세계적으로 큰 인기를 얻었습니다.
이로 인해 미국 AI 관련 주식이 급락했고, 중국 AI 업계에서는 "딥시크(DeepSeek)" 시대가 도래했습니다.
2026년 3월 10일, Bittensor의 Subnet 3 Templar는 역사상 가장 큰 규모의 분산형 대규모 언어 모델(LLM) 사전 학습인 Covenant-72B의 완료를 발표했습니다.
이는 역사상 가장 큰 규모의 분산형 대규모 언어 모델 사전 학습 실행입니다.
약 1조 1천억 개의 토큰 데이터 세트에 72억 개의 매개변수를 포함하고, Bittensor Subnet 3 네트워크를 통해 완전히 구현된 이 시스템은 허가 없이 운영되며 70개 이상의 독립적인 노드가 자유롭게 참여할 수 있습니다.
Bittensor는 DeepSeek과 같은 혁신적인 순간을 스스로 만들어냈습니다.
I. 템플러(SN3): 데이터 수집에서 핵심 교육으로의 패러다임 전환
템플러의 전신은 오메가 랩스가 운영했던 SN3로, 초기에는 멀티모달 데이터의 수집 및 분석에 집중했습니다. 비텐서 메커니즘의 발전과 함께 이 서브넷은 "데이터 전송기"에서 "모델 구축기"로 전략적인 도약을 이루었습니다.
템플러는 현재 대규모 모델 사전 학습을 위한 글로벌 분산 인프라로 자리매김하고 있습니다. 템플러는 인센티브 메커니즘을 통해 전 세계의 이기종 컴퓨팅 파워를 통합하여 대규모 모델 학습에서 발생하는 극도로 높은 계산 비용과 중앙 집중식 검열 문제를 해결하는 것을 목표로 합니다. 코버넌트-72B의 성공적인 배포는 이러한 분산형 프로덕션 모델의 성숙도를 입증합니다.
II. 서약-72B: 분산형 교육의 규모 한계를 뛰어넘다
Covenant-72B는 Templar의 획기적인 성과이며, 현재 분산 네트워크에서 가장 큰 규모의 밀집 아키텍처 사전 학습 모델입니다.
주요 특징: 720억 개의 파라미터를 가지고 있으며, 고성능 DCLM 코퍼스를 기반으로 사전 학습되었습니다.
성능 벤치마크: 기본 모델 평가에서 성능은 Meta의 Llama-2-70B와 거의 동일한 수준입니다.
명령어 최적화: 미세 조정을 거친 후, Covenant-72B-Chat은 IFEval(명령어 준수) 및 MATH(수학적 추론) 측면에서 강력한 경쟁력을 보여주며, 특정 지표에서는 동일한 규모의 비공개 소스 모델보다도 우수한 성능을 나타냅니다.
추론 효율성: 이 모델은 초당 450개의 토큰이라는 매우 높은 처리량을 달성하여 실제 응용 분야에서 대규모 모델의 응답 지연이라는 문제점을 해결합니다.
III. SparseLoCo 알고리즘: 분산 학습의 핵심 엔진
일반적인 인터넷 환경에서 72비트 모델을 학습시키는 데 있어 가장 큰 어려움은 노드 간 통신 대역폭 병목 현상입니다. Templar는 핵심 알고리즘인 SparseLoCo를 활용하여 이 문제를 획기적으로 해결했습니다.
초고속 압축: 이 알고리즘은 핵심 그래디언트 성분 중 1~3%만 선택하여 전송하고 데이터를 2비트로 양자화하여 네트워크 대역폭 요구량을 크게 줄입니다.
저주파 동기화: 기존 클러스터의 단계별 동기화와 달리 SparseLoCo는 노드가 전역 동기화를 수행하기 전에 15~250단계 동안 로컬에서 반복 작업을 수행할 수 있도록 합니다.
오류 보정: 로컬 기울기 누적 메커니즘을 통해 정보의 97% 이상이 손실되더라도 모델 수렴 정확도가 저하되지 않습니다.
이러한 기술적 접근 방식은 인피니밴드와 같은 고가의 전용 회선 클러스터 없이도 전 세계에 분산된 일반 네트워크를 사용하여 최고 수준의 인텔리전스를 구현할 수 있음을 입증합니다.
IV. 산업 평가 및 시장 반응
템플러의 기술적 성과는 주류 AI 커뮤니티와 자본 시장의 관심을 끌었습니다.
권위 있는 인정:
앤트로픽 공동 창립자인 잭 클라크는 분석 보고서에서 템플러를 세계 최대 규모의 활발한 분산형 교육 네트워크로 분류하며, 그 성장률이 업계의 예상을 뛰어넘었다고 언급했습니다.
올인 팟캐스트 진행자이자 실리콘 밸리의 유명 투자자인 제이슨 칼라카니스는 최근 자신의 블로그에서 비텐서의 작동 방식에 대해 심층적으로 설명하고 인수 가능성을 시사했습니다.
조직 구조:
그레이스케일은 TAO에 대한 보유 지분을 지속적으로 늘려가며, 탈중앙화 AI 부문에서 TAO를 핵심 투자 대상으로 삼고 있습니다.
DCG는 특히 Bittensor(TAO) 생태계 개발을 가속화하는 데 중점을 두고 Yuma를 설립했는데, 이는 DCG의 탈중앙화 AI에 대한 가장 크고 직접적인 투자로 여겨집니다.
시장 성과:
TAO : 템플러가 720억 달러 규모의 대형 모델 학습을 완료했다고 발표한 후, TAO는 30% 이상 급등하며 변동성이 심한 비트코인 시장 속에서도 절대적인 강세를 보여주었습니다.
$Templar (SN-3): 주인공인 Templar는 7일 만에 75% 급등하며 Bittensor에서 Emission 배출량 포착 부문 선두주자가 되었습니다. 현재 시가총액은 7천만 달러에 불과합니다.
V. 서브넷 투자 잠재력 및 생태계 한계
템플러의 성공은 비텐서 생태계에 완전히 새로운 가능성을 열어주었습니다.
가치 한계 돌파: 오랫동안 비텐서는 그저 "공허한 인센티브"에 불과하다는 비판을 받아왔습니다. 템플러는 이 프로토콜이 상업적으로 경쟁력 있는 생산성 도구를 만들어낼 수 있음을 입증하며, TAO의 가치 평가 기준을 "스토리 중심"에서 "제품 중심"으로 전환시켰습니다.
이기종 컴퓨팅 성능의 잠재력: "이종 SparseLoCo"의 개발을 통해 향후 소비자용 그래픽 카드(예: RTX 4090)는 수천억 개의 매개변수를 가진 모델 학습에 직접 참여하여 컴퓨팅 성능 자원의 균등화를 실현할 수 있을 것입니다.
서브넷의 확실성 확보 기회: dTAO 메커니즘 하에서, 강력한 기술적 장벽을 갖추고 지속적으로 고성능 모델을 생산할 수 있는 템플러와 같은 서브넷은 장기적으로 매우 높은 할당 가치를 지닌 토큰을 보유하게 됩니다.
템플러의 현재 MC=75m, FDV=350m
현재 주요 대형 모델 개발 기업의 기업 가치는 다음과 같습니다: OpenAI(8400억 달러), Anthropic(3500억 달러), Minimax(450억 달러).
템플러를 이들 기업과 직접적으로 비교할 수는 없지만, 현재처럼 관련성이 떨어지는 이야기, 시들해지는 관심, 그리고 탈중앙화에 대한 신뢰가 약화되는 상황에서 템플러의 등장은 탈중앙화 AI에 분명히 활력을 불어넣었습니다.
결론
템플러는 분산 환경이 데이터를 저장할 뿐만 아니라 지능을 생성할 수도 있음을 입증했습니다. 코버넌트-72B는 단지 시작일 뿐입니다. SN3(사전 학습), SN39(컴퓨팅 성능), SN81(강화 학습)의 수직적 통합을 통해 블록체인 상에서 작동하는 분산형 오픈AI 프로토타입이 탄생했습니다.
암호화폐 산업은 초창기부터 수많은 예측을 뒤집어 왔습니다. 한때 각광받았던 탈중앙화 스토리지, 탈중앙화 컴퓨팅 파워, 탈중앙화 컴퓨터는 모두 실현 불가능한 것으로 판명되었습니다. 하지만 그럼에도 불구하고 꾸준히 탈중앙화의 길을 나아가며 성과를 거두는 프로젝트들이 있다는 것은 고무적인 일입니다.
템플러의 성공은 비텐서에게 있어 딥시크(DeepSeek)의 중요한 순간일 뿐만 아니라, 암호화폐 시장 전체에도 딥시크의 중요한 순간이 될 수 있습니다.

