PANews는 1월 19일, 탈중앙화 AI 컴퓨팅 네트워크인 곤카(Gonka)가 최근 커뮤니티 AMA(Ask Me Anything)를 통해 개념 증명(PoC) 메커니즘과 모델 운영 방식에 대한 단계적 개선 사항을 설명했다고 보도했습니다. 주요 개선 사항은 다음과 같습니다. PoC와 추론에 동일한 대규모 모델 사용, PoC 활성화 방식을 지연 전환에서 거의 실시간 트리거링으로 변경, 그리고 다양한 모델과 하드웨어의 실제 계산 비용을 더 잘 반영하도록 컴퓨팅 파워 가중치 계산 방식 최적화입니다.
공동 창립자 데이비드는 앞서 언급한 조정 사항들이 단기적인 성과나 개별 참여자를 위한 것이 아니라, 네트워크의 컴퓨팅 성능이 급속도로 확장됨에 따라 합의 및 검증 구조를 발전시키기 위한 필수적인 과정이라고 밝혔습니다. 목표는 고부하 상황에서도 네트워크의 안정성과 보안을 향상시켜 향후 대규모 AI 워크로드를 지원할 수 있는 기반을 마련하는 것입니다.
커뮤니티 논의에서 제기된, 현재 단계에서 소형 모델의 토큰 출력량이 높은 문제에 대해, 팀은 모델 크기에 따라 동일한 토큰 수에 대한 실제 컴퓨팅 파워 소비량에 상당한 차이가 있음을 지적했습니다. 네트워크가 더욱 높은 컴퓨팅 파워 밀도와 복잡한 작업으로 발전함에 따라, 곤카는 컴퓨팅 파워 구조의 장기적인 불균형으로 인해 네트워크의 전반적인 확장성에 영향을 미치는 것을 방지하기 위해 실제 컴퓨팅 비용에 맞춰 컴퓨팅 파워 가중치를 점진적으로 조정하고 있습니다.
최신 개념 증명(PoC) 메커니즘을 통해 네트워크는 PoC 활성화 시간을 5초 미만으로 단축하여 모델 전환 및 대기로 인한 계산 낭비를 최소화하고, 더 많은 GPU 리소스를 효율적인 AI 컴퓨팅에 활용할 수 있도록 했습니다. 동시에 모델 운영을 통합함으로써 합의와 추론 간 노드 전환에 따른 시스템 오버헤드를 줄여 전반적인 계산 효율성을 향상시켰습니다. 또한, 단일 카드 및 중소형 GPU도 마이닝 풀 협업, 에포크별 유연한 참여, 추론 작업 등을 통해 지속적으로 보상을 획득하고 거버넌스에 참여할 수 있다고 강조했습니다.
