文章 | a16z crypto
编译 | Portal Labs
a16z近日发布了2026年度重要趋势展望,这份报告由其应用、American Dynamism、生物、加密、增长、基础设施与快速启动(Speedrun)等团队的多位合伙人共同完成,汇集了他们对未来前沿领域的17项观察。内容涵盖智能体与人工智能、稳定币与资产代币化、隐私与安全、预测市场、SNARK等基础技术,以及新一代开发方式等多个方向,基本呈现了全球 Web3 及其周边技术体系的最新判断。
作为面向中国Web3投资、创业者的研究团队,Portal Labs在本篇将从中筛选出在中国语境下具备现实落地空间、政策容忍度较高、并具有长期价值的方向。
从KYC到KYA:智能体时代的身份问题
随着AI智能体开始进入金融和业务系统,行业面临的瓶颈正在发生转移——不再是“智能是否足够强”,而是身份如何被识别和管理。
在金融体系中,“非人类身份”的数量早已远超人类员工,但这些身份大多处于一种尴尬状态:它们能执行操作,却无法被清晰地识别、授权和追责,像是系统里的“幽灵账户”。
这正是KYA(Know Your Agent)要解决的问题。
就像人类需要通过KYC建立身份、信用和责任边界,智能体同样需要一套可验证的身份机制。一个合格的智能体身份,必须明确三件事:
-
它代表谁行动;
-
它的权限和限制是什么;
-
当出现问题时,责任如何归属。
只有当智能体具备经过加密签名的身份凭证,并与其控制方和责任主体绑定,商户和系统才可能真正放行它们参与交易和业务流程。否则,出于风险考虑,智能体仍会被挡在系统入口之外。
过去几十年,行业逐步建立了以KYC为核心的身份基础设施。而随着AI和自动化系统的普及,KYA正在成为下一阶段必须补齐的基础设施。
AI正在被用于真正“有实质内容”的研究工作
随着AI开始参与越来越多“实质性研究工作”,它对基础设施的要求也在发生变化。
a16z crypto研究团队成员Scott Kominers提到,今年年初,主流的消费级AI模型几乎无法理解他的研究流程;但到了年底,他已经可以像指导博士生一样,用抽象指令让模型完成复杂研究任务,而且有时还能给出正确、甚至具有新意的答案。
这种变化并不只发生在个体研究者身上。如今,AI已经开始被用于更广泛的研究型工作,尤其是在需要复杂推理的领域。有模型可以协助发现新的研究路径,甚至能够独立完成高难度的数学推理问题。
但这也带来了一个新的变化:
研究不再是线性推进的过程,而更像是在不断提出假设、连接概念、从并不完全准确的结果中寻找方向。某种意义上,研究者甚至是在“利用 AI 的不完美”——当模型足够聪明时,给它更大的探索空间,哪怕偶尔会产生偏差,也可能打开新的思路,就像人类在非线性思考中往往更具创造力一样。
为了支撑这种研究方式,AI的工作流本身也在发生变化。不再是单一模型给出答案,而是多层模型相互验证、评估,再逐步筛选出真正有价值的结果。有人用这种方式写论文,有人用它做专利检索、艺术创作,甚至也有人发现了新的智能合约攻击路径。
问题在于,当研究开始依赖多模型协作时,系统必须能够回答两个基础问题:不同模型之间如何协作?每一个参与者的贡献又该如何被识别和记录?
在Scott Kominers看来,这正是区块链等基础设施技术真正能够发挥作用的地方:不是做金融,不是做投机,而是面向AI与复杂系统的基础设施能力(比如协作机制、可验证记录、责任与权限边界)提供协作、记录和责任划分的底层机制。
开放网络正在承受一笔“看不见的税”
随着AI智能体的普及,它们正在对开放互联网施加一种隐形的成本,悄然改变着网络原有的经济基础。问题的根源,在于互联网的“内容层”和“执行层”之间正在出现越来越明显的错位:
当前,AI智能体大量从依赖广告和订阅的网站中获取信息,为用户提供便利,却绕开了支撑这些内容生产的收入机制。这种“使用但不付费”的模式,正在持续侵蚀开放网络的可持续性——而讽刺的是,这些内容正是AI本身得以成长的基础。
如果不加以修正,开放网络将不可避免地走向萎缩。因此,行业需要在技术和经济层面同时做出调整。可能的方向包括:新一代内容赞助模式、更精细的数据贡献归因体系,或其他能够让价值回流的机制。现有的AI内容授权协议,本质上只是权宜之计,它们往往只能补偿内容方已经因AI流量替代而损失收入的一小部分。
Web需要一种新的技术—经济模型,使价值能够自动流转。接下来一年的关键转变,将是从“静态授权”走向“按实际使用实时结算”。这意味着,需要测试并规模化一套体系——可能借助区块链支持的微额结算与更精细的贡献计量标准——让每一个为AI任务提供信息的参与方,都能被自动识别并获得相应回报。
隐私,正在成为加密世界最重要的护城河
如果说有什么能力,是全球金融体系真正走向链上的前提,那一定是隐私。但讽刺的是,隐私恰恰也是当下绝大多数区块链最缺失的一环。在很长一段时间里,隐私更多只是被当作“附加功能”,而非底层设计。
但现在,单是“隐私”本身,已经足以让一条链从众多同质化网络中脱颖而出。更重要的是,隐私会带来一种更深层的效应——它会形成链级别的锁定效应,一种隐私驱动的网络效应。在性能竞争逐渐失效的背景下,这一点尤为关键。
在完全公开的环境中,跨链几乎没有成本。借助跨链协议,资产可以在不同链之间自由流动。但一旦引入隐私,情况就发生了变化:资产可以被桥接,但“秘密”很难被安全迁移。
无论是从私有环境进入公开链,还是在不同隐私网络之间切换,都会不可避免地泄露元数据——例如交易时间、规模、行为模式之间的关联性。这些信息一旦被观察者捕捉,就可能削弱隐私本身的意义。因此,用户在进入一个隐私环境之后,往往会更谨慎地选择是否离开。
相比那些高度同质化、手续费可能被竞争压到接近零的新公链,具备隐私能力的区块链更容易形成强网络效应。现实是,如果一条“通用型”公链既没有成熟生态、也没有关键应用,或显著的分发优势,那么用户几乎没有理由长期使用它,更谈不上建立忠诚度。
在公开链上,用户选择哪条链并不重要,因为跨链交互成本极低;但在隐私链上,选择本身就变得重要起来。一旦用户进入某个隐私环境,他们往往不愿意频繁迁移、暴露行为轨迹。这种特性,最终会形成一种“赢家占大头”的格局。
而由于隐私几乎是绝大多数真实世界应用的必要条件,未来加密世界中,真正承载大规模使用的,可能并不是大量通用链,而是少数具备隐私能力的基础设施网络。
消息系统的未来,不只是抗量子,而是去中心化
随着量子计算逐步走向现实,越来越多基于加密技术的通信应用已经开始提前布局。无论是Apple、Signal还是WhatsApp,它们在加密层面都做了大量扎实的工作。但问题在于,这些主流通信工具仍然依赖于由单一组织运营的私有服务器。
这类架构本身就构成了一个明显的单点风险:服务器可以被关闭、被强制接入后门,或者被迫交出数据。换句话说,即便加密算法再先进,只要通信依赖于一个中心化服务器,“信任”这个前提就依然存在。
如果一个系统要求用户“相信我会保护你的数据”,那它本质上仍然是中心化的。相反,没有私有服务器的通信网络,才真正做到“不需要信任任何一方”。通信本身并不一定需要一个中介公司存在于中间,消息系统完全可以基于开放协议运行。
要实现这一点,关键在于对通信网络本身进行去中心化设计:
没有私有服务器,没有单一应用,代码完全开源,并采用最高级别的加密方案(包括对未来量子威胁的防御)。在这样的网络中,不存在某一个组织、公司或国家可以单方面剥夺通信能力。
即便某个应用被关闭,新的实现版本也可以迅速出现;即便某个节点下线,也会因为区块链等机制所提供的经济激励,很快被新的节点替代。
当用户像保管资产一样,用密钥来掌控自己的消息和身份时,通信系统的逻辑就发生了变化。应用可以更替,但消息与身份的控制权始终掌握在用户手中。
这已经不只是“抗量子”或“更强加密”的问题,而是关于所有权与去中心化。如果缺少这两点,再牢不可破的加密,也依然可能在系统层面被“关掉”。
Secrets-as-a-service
在每一个模型、智能体和自动化系统背后,都绕不开一个最基础的依赖:数据。
但现实是,今天大多数数据管道——无论是输入给模型的数据,还是模型输出的数据——都是不透明、可被篡改、也难以审计的。这在一些消费级应用中或许还能接受,但在金融、医疗等行业,这种状态是不可行的:企业必须保证敏感数据的隐私性。
那么,问题来了:我们如何在保护隐私的前提下,仍然支持安全、合规、可自动执行、并且具备全球互操作性的创新?
解决路径有很多,这里我重点关注一个基础问题:数据访问控制。
谁控制敏感数据?数据如何流动?又是谁(或者什么系统)在什么条件下可以访问它?
如果没有成熟的数据访问控制机制,任何希望保护数据隐私的团队,今天几乎只能选择两条路:要么依赖中心化服务;要么自行搭建一套高度定制化的系统。
这两种方式不仅成本高、周期长,也在事实上阻挡了传统金融机构等主体,真正发挥链上数据管理的优势。更重要的是,当智能体开始自主浏览、交易、并做出决策时,用户和机构都不再满足于“尽力而为的信任”,而是需要密码学级别的确定性保障。
正因如此,我认为我们需要一种新的基础设施:“Secrets-as-a-Service(密钥即服务)”。
这种技术应当具备以下能力:
-
可编程、原生的数据访问规则;
-
客户端侧加密;
-
去中心化的密钥管理机制;
-
并在链上强制执行——明确谁可以解密哪些数据、在什么条件下、以及多长时间内有效。
当它与可验证数据系统结合时,“密钥”本身将不再只是应用层的补丁,而有可能成为互联网的基础公共设施之一。
从「代码即规则」到「规范即规则」
近期发生的一系列DeFi攻击事件,击中了不少已经“久经考验”的协议。这些项目拥有成熟团队、严格审计,并且已稳定运行多年。
但这些事故暴露了一个并不令人舒服的现实:当前主流的安全实践,依然高度依赖经验判断,更多是逐案处理,而非系统化方法。
要让系统真正走向成熟,安全性需要发生一次范式转变:从依赖漏洞模式,转向依赖设计层面的安全属性;从“尽力而为”,转向“有原则、可证明”的方法。
在部署之前(测试、审计、形式化验证)这一侧,这意味着不再只验证少数人工挑选的局部条件,而是系统性地证明整个系统必须始终满足的全局不变量。
目前,多支团队正在构建AI辅助的证明工具,用来帮助编写规范、提出不变量假设,并大幅减少过去昂贵而繁琐的人工证明成本。在部署之后(运行时监控、运行时约束)这一侧,这些不变量可以进一步转化为“实时护栏”,成为系统的最后一道防线。它们会以运行时断言的形式直接写入系统中,要求每一笔操作都必须满足这些安全条件。
这样一来,系统不再假设“所有漏洞都已经被发现”,而是在执行层面强制执行关键安全属性,任何违反这些属性的操作都会被自动回滚。
这并不是纯理论设想。实际上,迄今为止几乎所有已知的攻击,在执行过程中都会触发其中至少一条约束,从而有机会在攻击完成前被阻断。也正是在这个意义上,过去流行的“代码即法律(code is law)”,正在演变为“规范即法律(spec is law)”:即便是全新的攻击路径,也必须满足系统既定的安全规范,能够成功的攻击只会越来越小、越来越难。
加密技术正在成为区块链之外的新基础能力
多年来,SNARK(零知识证明)这类密码学技术,几乎只存在于区块链世界中。原因很现实:成本太高。过去,生成一次计算证明,往往需要比直接运行计算多出百万倍的工作量。这种代价,在区块链这种可以由大量验证节点分摊成本的系统中尚且可以接受,但在链下计算、云计算等场景中几乎无法落地。
这一局面正在发生变化。到2026年,新一代zkVM证明器的性能将出现明显跃迁:证明开销有望下降到约一万倍,内存占用控制在数百MB级别。这意味着,零知识证明不再是“只能跑在链上的昂贵工具”,而是开始具备在通用服务器、甚至移动设备上运行的现实条件。
一万倍之所以成为关键阈值,并非偶然。高端GPU的并行算力,本身就比普通笔记本CPU高出约一万倍。随着证明系统逐步完成GPU优化,单张GPU在实时生成CPU执行过程的正确性证明上,将不再是理论设想,而是工程可行的问题。
这也让一个长期停留在论文中的概念开始变得具体:可验证云计算。现实世界中,大量计算任务本就运行在云端——不是所有工作负载都适合GPU化,也不是每个团队都有能力重构底层系统。未来,在这些场景下,计算结果本身可以附带一份密码学级别的正确性证明,而无需修改业务代码本身。
在这一逻辑下,加密技术真正开始脱离“区块链专属工具”的定位,转而成为一种通用基础能力:为复杂系统提供可验证的计算结果、可追溯的执行过程,以及无需信任中介的正确性证明。
编者语
如果把这些趋势放在一起看,会发现一个非常明确的变化方向:
除了“围绕资产与交易的系统”之外,Web3依然还有更广阔的创业空间,比如“服务于AI与复杂系统的基础设施”。
无论是KYA、多模型协作、隐私计算、去中心化通信,还是可验证计算与规范驱动的安全体系,它们讨论的都不是“如何发行资产”,而是如何在一个高度自动化、由智能体参与的世界中,建立可信的协作、执行与责任边界。
这恰恰也是中国Web3创业者当前更现实、也更具长期价值的切入点:不碰金融红线,不依赖资产发行,而是围绕身份、隐私、计算、协作与可验证性,构建面向下一代技术体系的基础能力。
从这个角度看,Web3在中国并没有“消失”,而是正在回到它更底层、也更耐久的位置。
