저자 | Gonka.ai
이전 기사에서 우리는 인공지능 산업이 구조적 변화를 겪고 있다는 판단을 여러 차례 언급했습니다. 경쟁의 초점이 모델 성능에서 컴퓨팅 파워의 제어 및 할당으로 옮겨가고 있다는 것입니다.
모델은 복제할 수 있고, 알고리즘도 따라잡을 수 있지만, 컴퓨팅 파워의 생산, 할당 및 제어 방식은 급속도로 집중되고 있으며, 누가 진정으로 차세대 AI 경쟁에 참여할 수 있을지를 점차 결정짓고 있습니다.
이는 감정적인 판단이 아니라 산업, 기술 및 인프라의 발전 과정을 장기간 관찰한 결과입니다.
이 글에서는 이러한 판단을 넘어, 종종 간과되지만 매우 중요한 관점을 제시하고자 합니다. 바로 AI 컴퓨팅 파워 문제는 단순한 기술이나 제품 문제가 아니라, 본질적으로 인프라 프로토콜 문제라는 점입니다.
I. 인공지능의 진정한 병목 현상은 더 이상 모델 수준에 있지 않습니다.
오늘날 인공지능 산업에서 반복적으로 간과되는 사실은 인공지능 개발을 제한하는 요소가 더 이상 모델 성능이 아니라 컴퓨팅 파워의 가용성이라는 점입니다.
현재 주류 인공지능 시스템의 공통적인 특징은 모델, 컴퓨팅 능력, 인터페이스, 그리고 가격 결정력이 소수의 중앙 집중식 주체에 고도로 집중되어 있다는 점입니다. 이는 특정 기업이나 국가의 '선택'이라기보다는, 개방적이고 협력적인 메커니즘이 부족한 자본 집약적 산업의 자연스러운 결과입니다.
컴퓨팅 파워가 "클라우드 서비스"라는 이름으로 패키지화되어 판매될 때, 의사 결정 권한은 자연스럽게 다음과 같은 영역에 집중됩니다.
칩 제조 능력
에너지 및 데이터 센터 규모
자본 구조 및 지정학적 이점
이로 인해 컴퓨팅 파워는 점차 "자원"에서 구조적 권력의 형태로 진화해 왔습니다. 결과적으로 컴퓨팅 파워는 비싸지고 가격 책정이 매우 불투명해졌으며, 지정학적 요인, 에너지 통제, 수출 통제 등의 영향을 받아 개발자와 중소 규모 팀에게 매우 불리한 환경이 되었습니다.
고성능 GPU의 생산, 배포 및 공급망 관리는 소수의 하드웨어 제조업체와 하이퍼스케일 클라우드 서비스 제공업체에 집중되어 있어 스타트업뿐만 아니라 지역 및 국가 전체의 AI 경쟁력에까지 영향을 미치고 있습니다. 많은 개발자에게 컴퓨팅 파워는 더 이상 '기술적 자원'이 아니라 '진입 장벽'이 되었습니다. 문제는 단순히 가격만이 아니라 장기적이고 예측 가능한 컴퓨팅 파워의 가용성, 특정 기술 및 공급망에 종속되는지 여부, 그리고 컴퓨팅 경제 자체에 참여할 수 있는지 여부입니다.
인공지능이 범용적인 기본 역량이 된다면, 컴퓨팅 파워의 생산 및 배분 메커니즘은 오랫동안 고도로 폐쇄적인 상태로 유지되어서는 안 됩니다.
II. 비트코인에서 AI까지: 인프라 프로토콜의 공통 논리
우리가 비트코인을 언급하는 이유는 가격이나 금융적 속성을 논하기 위해서가 아니라, 비트코인이 전 세계 물리적 자원을 진정으로 조율하는 데 성공한 몇 안 되는 프로토콜 시스템 중 하나이기 때문입니다.
비트코인은 단순히 "회계" 문제만을 해결한 것이 아니라, 세 가지 더 근본적인 문제를 해결했습니다.
낯선 사람들이 지속적으로 현실 세계의 자원에 투자하도록 동기를 부여하는 방법
이러한 자원이 실제로 투자되어 일자리를 창출했는지 어떻게 확인할 수 있을까요?
중앙 제어 장치 없이 장기적인 시스템 안정성을 유지하는 방법은 무엇일까요?
이는 하드웨어와 에너지를 프로토콜 내에서 검증 가능한 "기여"로 변환하는 매우 간단하면서도 우회 불가능한 방식입니다.
인공지능 컴퓨팅 능력은 과거 에너지와 컴퓨팅 능력의 관계와 놀라울 정도로 유사한 방향으로 나아가고 있습니다.
어떤 기능이 필수적이고 매우 희소할 경우, 궁극적으로 필요한 것은 더욱 정교한 상용 패키징이 아니라 장기적으로 자원을 조정할 수 있는 프로토콜 계층입니다.
곤카 네트워크에서:
"작업"이란 검증 가능한 AI 컴퓨팅 자체를 의미합니다.
인센티브와 거버넌스 권한은 자본이나 담론이 아니라 진정한 컴퓨팅 파워 기여에서 비롯됩니다.
GPU 리소스는 추상적인 보안 작업에 사용되기보다는 가능한 한 의미 있는 AI 작업에 사용됩니다.
이는 컴퓨팅 성능을 "개방형 인프라"로 재정의하려는 시도입니다.
3. 왜 학습 대신 AI 추론부터 시작해야 할까요?
우리가 인공지능 추론부터 시작하기로 한 것은 학습이 중요하지 않아서가 아니라, 추론이 현실 세계에서 가장 시급한 컴퓨팅 병목 현상이 되었기 때문입니다.
인공지능이 실험 단계에서 상용 단계로 전환됨에 따라, 지속적인 추론의 비용, 안정성, 예측 가능성은 개발자들에게 실질적인 문제로 대두되고 있습니다. 그리고 바로 이 시점에서 중앙 집중식 클라우드 서비스의 한계가 가장 명확하게 드러납니다.
네트워크 설계 관점에서 추론은 다음과 같은 몇 가지 핵심적인 특징을 가지고 있습니다.
지속적이고 측정 가능한 작업량
분산 환경에 더 적합한 효율성 최적화
이를 통해 컴퓨팅 능력 검증 및 인센티브 메커니즘이 타당한지 여부를 확실히 확인할 수 있습니다.
교육은 분명히 중요하며, 저희는 향후 교육 기능을 도입할 계획입니다. 이미 네트워크 수익의 일부를 장기적인 교육 수요를 지원하는 데 할당했습니다. 하지만 그 인프라는 실제 환경에서 먼저 테스트되고 가동되어야 합니다.
V. 분산 컴퓨팅 능력: "가짜 컴퓨팅"을 피하는 방법은 무엇일까요?
흔히 제기되는 질문은 다음과 같습니다. 분산 환경에서 노드가 실제로 AI 연산을 수행하는지, 아니면 결과를 조작하는지 어떻게 확인할 수 있을까요?
우리의 해결책은 검증 로직을 계산 자체에 내장하여, 지속적이고 진정한 계산적 기여를 통해 영향력을 발휘하는 것입니다.
이 네트워크는 노드들이 짧은 연산 시간 동안 대규모의 무작위로 초기화된 Transformer 모델에 대한 추론 작업을 수행하도록 요구합니다. 이러한 작업에는 다음이 포함됩니다.
사전 계산할 수 없습니다
과거 결과는 재사용할 수 없습니다.
비용이 위조 비용보다 더 높습니다.
이 네트워크는 모든 계산을 완벽하게 검토하지 않습니다. 대신, 지속적으로 검증하고 검증 강도를 동적으로 높여 경제적으로 부정행위가 불가능하도록 만듭니다. 꾸준히 정확한 결과를 제출하는 노드는 자연스럽게 더 높은 참여도와 영향력을 얻게 됩니다.
VI. 중앙집권화된 거대 기업과 경쟁할 것인가, 아니면 다양한 차원에서 문제를 해결할 것인가?
우리는 오픈AI, 구글, 마이크로소프트를 "대체"하려는 것이 아닙니다.
대형 기술 기업은 폐쇄형 시스템 내에서 효율적인 AI 스택을 구축하는 데 유리한 위치에 있습니다. 그러나 이러한 모델은 본질적으로 다음과 같은 문제점을 야기합니다.
접근 제한됨
가격 투명성 부족
역량이 소수의 주체에 집중되어 있음
우리는 이러한 시스템들이 제대로 다루지 못하는 부분, 즉 개방성, 검증 가능성, 그리고 인프라 수준의 컴퓨팅 파워 조정에 초점을 맞춥니다.
이는 서비스가 아니라 하드웨어 공급업체와 개발자가 컴퓨팅 효율성과 현실성에 대해 직접 협상할 수 있도록 하는 시장이자 프로토콜입니다.
7. 컴퓨팅 파워는 "상품화"될까요? 그 가치는 어디로 향할까요?
많은 사람들은 추론 비용이 감소함에 따라 궁극적으로 가치가 모델 계층에 집중될 것이라고 믿습니다. 그러나 이러한 판단은 종종 중요한 전제를 간과합니다.
컴퓨팅 능력은 무한정 공급되는 상품이 아닙니다.
컴퓨팅 성능은 다음과 같은 요인에 의해 제한됩니다.
칩 제조 능력
에너지 및 지리적 분포
인프라 조정 효율성
전 세계적으로 추론 수요가 계속 증가함에 따라 진정으로 부족해질 것은 안정적이고 예측 가능하며 확장 가능한 컴퓨팅 파워 공급이 될 것입니다. 이러한 자원을 조정할 수 있는 자가 구조적 가치를 좌우하게 될 것입니다.
우리가 하려는 것은 모델을 소유하는 것이 아니라, 단순히 "유료 사용자"가 되는 것을 넘어 더 많은 참여자들이 컴퓨팅 파워 경제 자체에 직접 참여할 수 있도록 하는 것입니다.
8. 분산 컴퓨팅 파워가 장기적인 과제인 이유는 무엇입니까?
우리의 판단은 이론에 근거한 것이 아니라, 중앙 집중식 환경에서 AI 시스템을 구축해 온 실제 경험에 기반한 것입니다.
인공지능이 핵심 역량이 되면 컴퓨팅 파워에 대한 결정은 더 이상 단순한 기술적 문제가 아니라 전략적 문제가 됩니다. 이러한 집중 현상은 상업적 차원에서 지정학적, 주권적 차원으로까지 확대되고 있습니다.
인공지능이 새로운 인프라라면, 컴퓨팅 파워를 어떻게 조율하느냐가 미래 혁신의 개방성을 결정할 것이다.
역사적으로 생산성을 진정으로 향상시키는 모든 기술적 물결은 궁극적으로 개방형 인프라 계층을 필요로 했습니다. 인공지능도 예외는 아닐 것입니다.
결론: 미래를 향한 두 가지 길
우리는 다음 두 가지 가능한 미래 중 하나를 향해 나아가고 있습니다:
컴퓨팅 능력은 소수의 기업과 국가에 지속적으로 집중되어 인공지능이 폐쇄적인 역량이 되고 있습니다.
또는 개방형 프로토콜을 통해 전 세계 컴퓨팅 파워를 조정함으로써 진정한 기여자에게 가치가 흐르도록 할 수 있습니다.
곤카는 자신들이 정답이라고 주장하지는 않지만, 우리는 어느 편에 설지 분명히 알고 있습니다.
인공지능이 세상을 근본적으로 바꿀 것이라면, 이를 뒷받침하는 컴퓨팅 인프라 또한 재설계되어야 할 필요가 있다.

