当算力成为基础设施:关于AI去中心化路径的进一步思考

  • AI竞争焦点转移:文章指出,AI行业的竞争焦点正从模型能力转向对算力的控制与分配方式。算力的生产、分配与控制正快速集中,成为决定谁能参与下一阶段AI竞争的关键。

  • 算力成为核心瓶颈:当前AI发展的主要限制不再是模型能力,而是算力的可获得性。主流AI体系将模型、算力、接口与定价权高度耦合在少数中心化主体手中,导致算力昂贵、不透明,并受地缘政治等因素影响,对开发者和中小团队构成准入门槛。

  • 借鉴比特币的协议逻辑:文章提出,AI算力问题本质上是一个基础设施协议问题。可以借鉴比特币等成功协调全球物理资源的协议系统,通过开放协议来激励、验证和协调算力贡献,将算力重新定义为“开放基础设施”。

  • 从推理环节切入:项目选择从AI推理(Inference)开始构建去中心化算力网络,因为推理是当前最紧迫的算力瓶颈,其工作负载连续、可测量,更适合在去中心化环境中进行效率优化和验证激励机制。

  • 确保计算真实性:针对去中心化环境中可能出现的“做假计算”问题,网络通过设计无法预计算、无法复用结果且作假成本高于真实计算成本的任务,并结合持续抽查与动态验证机制,使作假在经济上不成立。

  • 定位为基础设施协议:该方案并非旨在取代OpenAI、Google等中心化巨头,而是专注于它们难以覆盖的开放、可验证的基础设施层级。它旨在创建一个让硬件提供者与开发者直接围绕算力效率与真实性进行博弈的市场与协议。

  • 算力的长期价值:尽管推理成本可能下降,但受芯片制造、能源与地理分布等因素限制,稳定、可预测的算力供给将长期稀缺。协调这些资源的能力将掌握结构性价值。去中心化协议旨在让更多参与者能直接参与算力经济,而非仅作为付费用户。

  • 两种未来路径:文章最后提出,我们可能走向两种未来:一是算力持续集中在少数主体手中,AI成为封闭能力;二是通过开放协议协调全球算力,让价值流向真实贡献者。作者明确支持后一种路径,认为支撑AI的算力基础设施值得被重新设计。

总结

作者|Gonka.ai

在此前几篇文章中,我们已经反复提到一个判断:AI 行业正在经历一次结构性的转移——竞争焦点正从模型能力,转向对算力的控制与分配方式。

模型可以被复现,算法可以被追赶,但算力的生产、分配与控制方式,正在快速集中,并逐渐决定谁能够真正参与下一阶段的 AI 竞争。

这并不是情绪化的判断,而是来自长期观察产业、技术与基础设施演化后的结果。

本篇文章,我们在这个判断之上,进一步补充一个经常被忽视、但极其关键的视角:AI 算力问题,本质上是一个基础设施协议问题,而非单纯的技术或产品问题。


一、AI 的真正瓶颈,已经不在模型层

在今天的 AI 产业中,一个被反复忽视的事实是:限制 AI 发展的,不再是模型能力,而是算力的可获得性。

当前主流 AI 体系的共同特征是,模型、算力、接口与定价权高度耦合在同一批中心化主体手中。这并非某一家公司或某一国家的“选择”,而是资本密集型产业在缺乏开放协调机制时的自然结果。

当算力被封装为“云服务”出售时,决定权自然会向以下几个方向集中:

  • 芯片制造能力

  • 能源与数据中心规模

  • 资本结构与地缘优势

这使得算力逐渐从一种“资源”,演化为一种结构性权力。算力因此变得昂贵且价格高度不透明,受制于地缘政治、能源与出口管制,对开发者和中小团队高度不友好。

先进 GPU 的生产、部署与调度高度集中在少数硬件厂商与超大规模云服务商手中,不仅影响初创公司,也正在影响整个地区与国家的 AI 竞争力。对许多开发者而言,算力已经从“技术资源”演变为“准入门槛”。问题不只是价格高低,而是能否获得长期、可预测的计算能力,是否被锁定在单一技术与供应体系中,以及是否能参与到底层算力经济本身。

如果 AI 将成为通用基础能力,那么算力的生产与分配机制,就不应长期停留在高度封闭的状态。


二、从比特币到 AI:基础设施协议的共同逻辑

我们提到比特币,并不是为了讨论其价格或金融属性,而是因为它是少数真正成功协调了全球物理资源的协议系统之一。

比特币解决的,从来不只是“记账”问题,而是三个更底层的问题:

  1. 如何激励陌生个体持续投入真实世界资源

  2. 如何验证这些资源确实被投入并产生工作

  3. 如何在没有中心控制者的情况下,维持系统长期稳定

它用极其简单、但难以绕过的方式,把硬件与能源转化为协议内可验证的“贡献”。

AI 算力,正在走向与当年能源和算力极其相似的位置。

当一种能力足够基础、足够稀缺,它最终需要的不是更精巧的商业包装,而是一个能够长期协调资源的协议层。

在 Gonka 网络中:

  • “工作”被定义为可验证的 AI 计算本身

  • 激励与治理权来自真实算力贡献,而非资本或叙事

  • GPU 资源被尽可能用于有意义的 AI 工作,而不是抽象的安全消耗

这是一种将算力重新定义为“开放基础设施”的尝试。


三、为什么从 AI 推理开始,而不是训练?

我们选择从 AI 推理(Inference) 开始,并非因为训练不重要,而是因为推理已经成为现实世界中最紧迫的算力瓶颈。

随着 AI 从实验走向生产环境,持续推理的成本、稳定性与可预测性,正在成为开发者真正关心的问题。而恰恰在这一环节,集中化云服务的局限性最为明显。

从网络设计角度看,推理具备几个关键特征:

  • 工作负载连续、可测量

  • 更适合去中心化环境的效率优化

  • 能真实检验算力验证与激励机制是否成立

训练当然重要,我们也计划在未来引入训练能力,并已将部分网络收入用于支持长期训练需求。但基础设施必须先在真实需求中跑通。


五、去中心化算力,如何避免“做假计算”?

一个常见质疑是:在去中心化环境中,如何确保节点真的在做 AI 计算,而不是伪造结果?

我们的答案是:将验证逻辑内嵌进计算本身,使影响力来自持续、真实的计算贡献。

网络通过短周期的计算阶段(Sprint),要求节点在随机初始化的大型 Transformer 模型上执行推理任务。这些任务:

  • 无法预计算

  • 无法复用历史结果

  • 成本高于作假成本

网络并不对每一次计算做全量复核,而是通过持续抽查与动态提高验证强度,使作假在经济上不成立。长期稳定提交正确结果的节点,会自然获得更高的参与度与影响力。


六、与中心化巨头竞争,还是在不同层级解决问题?

我们并不试图“取代” OpenAI、Google 或 Microsoft。

大型科技公司在封闭体系内构建高效 AI 堆栈,这是它们的优势所在。但这种模式天然会带来:

  • 访问受限

  • 定价不透明

  • 能力向少数主体集中

我们关注的是这些体系难以覆盖的层级:开放、可验证、基础设施级别的算力协调。

它并非一个服务,而是一种市场与协议,让硬件提供者与开发者直接围绕算力效率与真实性进行博弈。


七、算力是否会被“商品化”?价值会流向哪里?

很多人认为,随着推理成本下降,价值最终会集中在模型层。但这一判断往往忽略了一个前提:

算力并不是无限供给的商品。

算力受制于:

  • 芯片制造能力

  • 能源与地理分布

  • 基础设施协调效率

当推理需求在全球范围持续增长,真正稀缺的将是稳定、可预测、可扩展的算力供给。而谁能协调这些资源,谁就掌握了结构性价值。

我们试图做的,并不是拥有模型,而是让更多参与者能够直接参与算力经济本身,而不是只能作为“付费用户”。


八、为什么去中心化算力是一个长期命题?

我们的判断并非来自理论,而来自在中心化环境中构建 AI 系统的现实经验。

当 AI 成为核心能力,算力决策往往不再是技术问题,而是战略问题。这种集中正在从商业层面,扩展到地缘与主权层面。

如果 AI 是新的基础设施,那么算力的协调方式,将决定未来创新的开放程度。

历史上,每一次真正释放生产力的技术浪潮,最终都需要一个开放的基础设施层。AI 也不会例外。


结语:两种未来路径

我们正在走向两种可能的未来之一:

  • 算力被少数公司与国家持续集中,AI 成为封闭能力

  • 或者,通过开放协议协调全球算力,让价值流向真实贡献者

Gonka 并不声称自己是答案,但我们清楚自己站在哪一边。

如果 AI 将深刻改变世界,那么支撑它的算力基础设施,也值得被重新设计。

分享至:

作者:Gonka

本文为PANews入驻专栏作者的观点,不代表PANews立场,不承担法律责任。

文章及观点也不构成投资意见

图片来源:Gonka如有侵权,请联系作者删除。

关注PANews官方账号,一起穿越牛熊