PANews는 12월 17일, 곤카(Gonka) 브라우저 데이터 에 따르면 분산형 AI 추론 네트워크인 곤카의 총 컴퓨팅 성능이 거의 20배 급증하여 NVIDIA H100 칩 1만 개에 해당하는 10,729개(12월 17일 기준)에 달했다고 보도했습니다. 이 규모는 국가급 대규모 AI 컴퓨팅 센터 또는 주요 클라우드 제공업체의 핵심 AI 클러스터와 맞먹는 수준으로, 수백억 개의 대규모 모델 학습과 수천억 개의 모델에 대한 지속적인 고처리량 추론을 동시에 지원할 수 있습니다.
곤카는 전 세계 GPU 자원을 분산 방식으로 통합하여 중앙 집중식 데이터 센터 없이도 지속적으로 확장 가능한 고성능 AI 컴퓨팅 네트워크를 구축합니다. 이번 컴퓨팅 성능 향상은 곤카가 세계 최고 수준의 AI 인프라 네트워크 대열에 공식적으로 합류했으며, 상용 수준의 API 서비스 기능을 갖추었음을 의미합니다.
곤카는 현재 5가지 주요 AI 추론 모델을 지원합니다. 메인넷 출시 후 단 3개월 만에 추론 모델의 일일 총 사용량이 에포크당 거의 1억 토큰에 달했습니다. 주력 모델인 Qwen3-235B-Instruct만 해도 하루 약 3천만 토큰이 사용되며, 폭발적인 성장 잠재력을 보여주고 있습니다. 현재 30개 이상의 국가 및 지역에서 약 600개의 활성 노드가 곤카 컴퓨팅 네트워크에 참여하고 있으며, 매일 2,000명 이상의 사용자가 AI 추론 서비스를 이용하고 있습니다. 데이터는 곤카의 추론 사용량 증가율이 네트워크 노드 및 컴퓨팅 파워 증가율을 훨씬 앞지르고 있음을 보여주며, 곤카의 탈중앙화 추론 서비스에 대한 시장의 강력한 수요와 비즈니스 모델의 타당성을 입증합니다.
앞서 보도된 바와 같이, 고효율 분산형 AI 추론 및 학습 네트워크인 Gonka는 최근 Bitfury로부터 5천만 달러의 투자를 유치했으며, OpenAI 투자사인 Coatue와 Solana 투자사인 Slow Ventures 등의 지원을 받고 있습니다. Gonka는 AI와 DePIN을 결합한 분야에서 가장 주목받는 신흥 인프라 중 하나로 꼽힙니다.
