PANews는 12월 30일, gonkascan.com의 최신 데이터에 따르면 곤카 네트워크의 총 컴퓨팅 파워가 H100급 GPU 12,000개를 넘어 기존 대규모 AI 컴퓨팅 센터 수준에 근접했다고 보도했습니다. 9,000개 이상의 고용량 메모리 GPU(H100/H200 등)가 사용되고 있으며, 그 비중은 계속 증가하고 있습니다. 네트워크의 실질적인 컴퓨팅 파워 비중을 주도하며 수십억 개의 매개변수를 가진 모델에 대한 고동시 추론 작업을 안정적으로 지원할 수 있도록 합니다. 중급 및 고급 GPU의 광범위한 참여는 노드의 진입 장벽을 크게 낮췄습니다. 최소 메모리 요구 사항만 충족하면 누구나 MLNode 운영에 참여할 수 있습니다.
데이터에 따르면 곤카 네트워크는 H200, H100, A100과 같은 데이터 센터급 컴퓨팅 성능은 물론 RTX 6000 Ada, A6000, A40, RTX 4090과 같은 전문가 및 소비자용 그래픽 카드를 포함하여 거의 40개에 달하는 GPU 모델을 지원합니다. 이는 다단계로 구성 가능한 글로벌 컴퓨팅 파워 공급 구조를 형성하여 곤카의 높은 호환성과 효율성을 자랑하는 분산형 컴퓨팅 파워 경로를 보여주고, AI 추론 및 학습을 위한 더욱 개방적이고 유연한 인프라 지원을 제공합니다.
한편, 곤카 네트워크에서 5대 주요 AI 추론 모델의 일일 사용자 수는 3,000명을 넘어섰으며, 추론 수요는 높은 증가세를 지속하고 있습니다. Qwen3, 235B, A22B, Instruct, FP8 등의 모델은 곤카 네트워크에서 안정적이고 높은 사용 빈도를 보이며, 테스트 단계를 벗어나 주류 AI API의 초기 실제 운영 워크로드에 근접하고 있습니다.
Gonka는 전 세계 GPU 컴퓨팅 파워를 효율적으로 통합하여 분산형 방식으로 AI 추론 및 학습을 위한 허가 없는 인프라를 제공하는 것을 목표로 합니다. 미국 AI 개발사인 Product Science Inc.에서 인큐베이팅된 이 프로젝트의 창립팀은 Snap Inc.의 핵심 제품 책임자 출신인 리버만 남매로 구성되어 있습니다. Gonka는 Coatue(OpenAI 투자사), Slow Ventures(Solana 투자사), Bitfury, K5, Insight, 그리고 Benchmark의 파트너들을 포함한 투자자들로부터 총 6,900만 달러 이상의 투자를 유치했습니다.
