Netra第八期:Agent 的进化:从交易工具到可被市场预测的可信标的

This article is not available in the current language yet. Showing the original version.
在近期由 Netra Media 主办的一场 AMA 活动中,LinkLayer AI 联合创始人 Evan 围绕「AI Agent 的可信性来源」「Agent 是否可以成为预测标的」「预测悖论与能力定价」以及「多 Agent 系统下的风险与风控路径」等话题展开分享,系统回应了市场对 AI Agent 黑箱、去中心化叙事、预测可行性及系统性风险的核心质疑

AI Agent 的进化:从交易工具到可被市场预测的标的

Netra Miya:各位 Netra 的观众朋友们,大家晚上好,我是今天的主持人 Miya。非常欢迎大家来到我们第八期深度对话。

今天这一期我们要讨论的,是最近在 AI 和 Crypto 交叉领域备受关注、同时也充满争议的话题——AI Agent 的进化:它究竟是如何从一个简单的交易工具,演变成可以被市场定价和预测的可信标的。

如果大家关注这个赛道,应该也注意到一个现象:AI Agent 项目正在以惊人的速度涌现,从自动化交易机器人到链上资产管理方案,几乎每个项目都在讲“去中心化 AI”的故事。但当我们抛开这些华丽的包装,往往看到的却是对中心化 AI 服务的依赖、无法验证的黑箱决策,甚至是建立在市场情绪之上的结构性问题。

因此,今天这场对话我们也整理了不少来自社区的尖锐质疑,可能会辛苦 Evan 给我们和大家做出比较详细的回应。

Netra Miya:今天我们邀请到的,是一位真正长期深耕在这一领域的实践者——LinkLayer AI 的联合创始人 Evan。LinkLayer AI 提出了一个颇具启发性的视角:让 Agent 成为可被市场预测的资产。他们并不是在打造另一个 AI 交易工具,而是在尝试构建 AI 可信性的基础设施。

Netra Miya:Evan,非常欢迎你来到 Netra。在正式开始之前,我想请你用一句话告诉大家,LinkLayer AI 到底在解决什么问题,同时也请你简单做一下自我介绍。

LinkLayer AI 在做什么:从个体交易赋能到可预测的 Agent 标的

LinkLayerAI Evan:OK,先回答主持人第一个问题,LinkLayer AI 究竟在做什么,这其实和我们整个团队的背景关系很大。我们团队长期从事区块链基础设施相关工作,后来做过交易,再到 AI 方向,其实是完整经历了从基础设施、交易系统到 AI 以及 Agent 形态的全过程。因此在思考 AI + Crypto + Web3 这个问题时,我们的视角会相对更全面一些。

那 LinkLayer AI 现在真正想解决的,核心还是如何让个体数据,尤其是个体的交易数据,结合大语言模型,以 Agent 的方式赋能 Web3 场景下的不同交易行为。这个覆盖面其实比较广,比如链上的小额交易、Binance Alpha 这类策略交易,以及 CEX 里的合约、期货交易等,这些都会产生非常不同、但高度个体化的交易数据。

所以在第一层,我们要解决的问题是:让 AI 以 Agent 这种应用形态,真正赋能到每一个个体的交易行为本身。

第二层的问题是,我们最终希望建立一个以 Agent 作为可被预测标的的市场。Agent 要成为一个可被预测的标的,核心在于它必须在复杂、真实的实盘环境中积累足够多的经验,而这依赖大量的个体数据。不同类型的 Agent——比如做小额交易的 Agent、做 Alpha 策略的 Agent、做合约交易的 Agent——它们的决策方式和行为结构都不一样。

如果只依赖历史数据或回测数据,其实会有很大的局限性。我们认为,个体的实盘交易数据才是最好的“原料”,或者说是最有价值的训练语料。最终,LinkLayer AI 要解决的两件事就是:一是让 Agent 真正赋能个人交易,二是让 Agent 能够成为未来预测市场中一个可持续拓展的标的。

从我个人来说,我也在 Web3 和 AI 行业里有多年的实战经验,参与过不少项目,对交易本身也有比较深的理解和积累。正因为如此,我们对在 LinkLayer AI 产品层面构建长期竞争力和护城河这件事,是有比较强信心的。

去中心化 AI Agent 的质疑与回应:如何避免沦为 API 调用层

Netra Miya:明白,非常感谢 Evan 刚才精彩的回答,以及对你们项目比较详细的介绍。那今天既然请到你们来到这里,不管是从项目本身,还是从市场反馈来看,我们想直接切入一个核心痛点来讨论。

根据我们团队的研究,目前市场上声称“去中心化 AI Agent”的项目中,有超过 70% 实际上仍然依赖中心化的 AI 服务提供商。那么,LinkLayer AI 是如何避免自己成为另一个包装精致的 API 调用层的?你们所谓的去中心化,具体会体现在哪些关键的技术层面?

LinkLayerAI Evan:这个问题问得很好。因为从本质上讲,AI 本身就是一个强中心化的东西,所有 AI 都依赖于大语言模型。所以这个问题的核心,其实不是“去不去中心化”,而是我们到底是在做 AI 的调用,还是在做 AI 能力本身的基础设施。

很多项目只是把模型接口接到链上,就宣称自己是去中心化 AI,这在我看来其实是一个伪命题,甚至有点多此一举。模型本身的数据来源、能力验证路径,如果不发生变化,那它依然是中心化的。

LinkLayer AI 的不同之处在于,我们并不试图把模型参数上链,而是把“交易智能形成的路径”尽可能去中心化。Agent 的能力并不是来自某一个中心化训练集,而是来自不同用户授权的真实实盘交易行为。这些行为数据会被结构化处理,并在链上进行哈希锚定,从而形成不可篡改的行为轨迹基础。

当 Agent 进入真实市场执行时,它的交易行为本身是公开、连续且可追溯的。比如,我们会为每一个 Agent 配置独立的钱包,让钱包直接与 Agent 的智能体绑定,并在 DEX 等去中心化市场中执行自主交易。这样一来,Agent 的能力是通过市场本身来验证的,而不是依赖平台叙事。

从计算层面来说,也可以比较坦诚地讲,大部分推理过程一定是发生在链下的,这并不违背交易的第一性原理。我们仍然需要大量机器学习来验证不同因子的可行性。关键并不在于计算发生在链上还是链下,而在于结果是否可验证。

因此,我们通过行为轨迹、签名、时间戳以及历史风格一致性等方式,将链下计算结果与链上执行记录进行校验,让“决策来源于 Agent 的长期能力结构”这件事变成一个可验证的事实,而不是要求用户去信任项目方的黑箱输出。这套设计,本质上是基于我们在多个维度上的实践经验做出的现实选择。

Netra Miya:明白,感谢 Evan 的详细解释。你刚才也提到,LinkLayer AI 整个服务的计算过程主要是在链下完成的,对吗?那在这种情况下,你们如何保证计算过程本身的不可篡改性?这其实也是很多用户、尤其是圈内朋友比较关心的问题。

LinkLayerAI Evan:其实从我们的角度来看,这本身并不构成一个核心问题。计算过程是否可能被篡改,取决于你最终业务的目标是什么。

我们有多种类型的 Agent,比如第一类是服务个体用户的 Agent,这类 Agent 本身并不涉及复杂的计算安全问题。像我们年后即将上线的 Mini Coin 或 Alpha 流动性相关的 Agent,主要是服务用户的个人持仓。

而我们最终要推出、可以被预测的 Agent 标的,本身是一个可以不断扩展的体系,会衍生出不同维度的策略。对于这种 Agent 来说,训练阶段的计算是否可能被篡改,并不会直接影响最终结果,因为当它呈现到市场上时,训练已经完成了。我们也不是用 Agent 去替用户直接下单交易,所以并不太存在你刚才提到的那种风险场景。

从效率角度来说,链下计算是目前唯一可行、也是效率足够高的方式,最终 Agent 才能真正具备交易能力。

Netra Miya:明白,也就是说,从技术角度来看,用户是在链上还是链下使用你们的服务,其实和你们内部的计算方式并没有直接关系,对吗?

LinkLayerAI Evan:对,不会对用户的使用产生任何影响。

Netra Miya:好的,明白了,谢谢 Evan 的回答。

价值捕获与代币设计:如何避免为早期投资者“接盘”

Netra Miya:那第二个问题想聊一下价值捕获。我们看到不少 AI 项目设计了非常复杂的代币经济学,但本质上用户往往只是为项目方或早期投资者持有的代币提供流动性。那么,LinkLayer AI 的经济模型是如何确保价值真正流向为整个网络做出贡献的参与者,而不是早期投资者的呢?

LinkLayerAI Evan:我先说一个总体判断。很多复杂的代币经济学,本质上都是为了支撑不同使用场景的发生。LinkLayer AI 目前的完整经济模型其实还没有最终推出,因为我们的 Agent 和整个产品线仍处在最后封装阶段。但我们内部确实已经形成了一套相对清晰、也比较有自己想法的设计思路。整体上,我们采用的是双 Token 模型,分别是 LLAX 和 LLA。

你提到的这个问题,其实正是当前 AI 代币模型最容易被质疑的一点——代币经济学到底是不是一种变相融资工具。LinkLayer AI 的设计起点,就是尽量避免这种结构性错位。我们把“行为层”和“价值层”彻底分离。

其中,LLAX 完全属于行为层,它的作用只是衡量你在整个网络中的行为贡献。比如你贡献了真实的实盘交易数据,不论你是盈利平仓、亏损平仓,甚至爆仓,对我们来说你依然是在贡献数据,本身就是有价值的。LLAX 用来激励这些行为,同时也包括使用 Agent 服务、提供有效反馈等行为。它更像是一种行为权益凭证,而不是一个融资资产。

真正承担价值沉淀功能的是 LLA。LLAX 与 LLA 之间是单向兑换关系,而且兑换过程伴随销毁,兑换完成后不能再反向兑换。这意味着,用户的行为贡献是在不断把权益压缩进价值层,而不是为早期投资者提供退出流动性。

更重要的是,当 Agent 成为预测标的之后,平台产生的手续费并不会简单流向协议方。我们更希望的是,预测成功的一方获得对手方的收益,而预测失败的一方则获得价值层 LLA 的激励。这本质上是一种再分配和派发机制,目的是让整个市场能够更高效地流通。

在这种设计下,价值来源于真实的市场博弈活动,而不是代币本身的交易泡沫。我们想做的,并不是让用户“持币等上涨”,而是让价值只能通过参与系统行为来沉淀。

另外一个现实问题是,Agent 本身的运行成本非常高。不同类型的 Agent 会调用不同的大语言模型,每一次用户行为都会产生实际费用,这种成本远高于传统 Web2 的后端服务。但用户又往往不愿意直接为 AI 或 Agent 付费,这就会让项目本身变得非常脆弱。

如果用户不付费,而项目方却需要持续向大模型支付成本,整个系统是难以长期维持的。所以,双 Token 模型在某种程度上,也是为了反向激励真正愿意为产品和服务付费的用户,推动一个可持续的使用结构。

Netra Miya:明白,那 LLAX 具体指的是什么?

LinkLayerAI Evan:它本质上是一种行为权益代理。

你可以把它理解为平台积分的链上形式,但它本身不作为价值锚定层,也不是最终的流动性层。LLAX 和 LLA 之间有一个单向锚定关系,可以兑换为 LLA,但一旦兑换完成,就不能再兑换回来了。

Agent 能力证明与技术取舍:如何在黑箱、回测与性能之间取得平衡

Netra Miya:明白。既然提到技术层面,我们再深入一点。目前围绕 AI Agent 的能力证明机制,市场上主要有三类质疑:第一,机器学习模型天然存在黑箱问题,在不暴露策略细节的前提下,如何证明决策质量;第二,如何防止 Agent 在历史回测中作弊,或出现过拟合验证数据的问题;第三,在实时决策的可验证性与系统性能之间,你们如何进行平衡?

LinkLayerAI Evan:首先说第一个问题,所谓的黑箱问题,本质上还是因为机器学习需要依赖大量数据因子。公共数据因子其实大家都能采集到,只是采集成本和维度不同,用这些公共因子去训练模型,本身就存在一定局限性。但在我们看来,黑箱并不是一个真正的核心问题,它并不会决定 Agent 最终的走向。

关于能力证明,我们并不试图去证明模型内部是“怎么想的”。因为机器学习天然就是黑箱系统,没有任何团队可以真正让它变成完全透明。我们的思路,是去证明 Agent 是否能在真实市场环境中,长期表现出稳定、可识别的能力结构。

因此,我们做的是行为层面的证明,而不是能力参数层面的证明,也不是模型参数层面的证明。回测确实可以作弊,但在真实市场中,这种问题是无法长期隐藏的。真实交易会受到滑点、流动性冲击、对手盘博弈以及突发事件的影响,这些都会在链上形成连续的行为轨迹。系统会对策略漂移、风格断裂和异常模式进行一致性检测。

我们团队本身也是一个交易团队,而不只是做项目的团队。我们有自己的 Agent 和策略在实际运行。相比很多传统交易团队高度依赖回测,我们更倾向于直接用小规模资金做实盘交易,而不是用回测结果来支撑整个交易体系。因为团队本身是做链出身的,对链上交易理解比较深,在链上交易这一块积累了不少经验,也形成了一些不太一样的判断和方法。

至于实时可验证性和系统性能之间的平衡,我们并不会对每一步决策都施加沉重的密码学证明,而是采用异步锚定和行为一致性验证机制。这样可以保证决策执行足够高效,同时又能让长期能力结构具备可验证性。这是一种在工程现实与可信度之间的取舍,而不是追求理论上完美、但实际上无法运行的方案。

你会看到,很多项目在理论层面看起来非常完美,但一旦进入实际运行阶段,往往问题重重。就像公链发展一样,很多设计极其理想化的公链并没有存活下来,而像 BNB Chain 这样在早期架构并不完美的链,反而成为了被广泛采用的基础设施。LinkLayer AI 也会选择一条更偏工程现实的路线,来推动长期可持续发展。

Netra Miya:明白。我听下来感觉你们团队的底子确实比较扎实,本身就是做交易出身的,在技术问题上回答得也很从容。

LinkLayerAI Evan:也没有。

Netra Miya:那我再问一下,你们这个项目大概启动多久了?

LinkLayerAI Evan:项目准备时间大概一年多。

Netra Miya:那正式上线会在什么时候?

LinkLayerAI Evan:预计在 2 月到 3 月初之间,3 月初会把第一版完整产品推向市场。

Netra Miya:明白,也就是年后。

LinkLayerAI Evan:对。其实我们背后还有比较完整的产业和研发能力,包括链上套利、链上量化、机器学习和 Agent 等方向。LinkLayer AI 只是把我们已有的一部分能力进行产品化封装,所以整体研发体系并不只围绕这一个项目展开。

Agent 作为预测标的的悖论与风险:从能力定价到多维风控

Netra Miya:明白,那我接着问第四个问题。目前你们提出一种设想,是将 Agent 作为可交易的标的,让市场对 Agent 的未来表现进行预测和交易。但这里似乎存在一个根本性的矛盾:如果市场可以预测某个 Agent 的决策,理性的参与者就可能提前行动,从而导致 Agent 的实际策略失效。你们是如何看待和解决这种“预测悖论”的?

LinkLayerAI Evan:所谓的预测悖论,其实前提是假设市场在预测的是 Agent 的某一个具体交易动作。但这并不是我们的设计目标。我们希望市场预测的,是 Agent 能力的稳定性,而不是它下一笔交易是做多还是做空。

这有点像预测一个人,我不是预测他数学考试考多少分,而是预测他最终能不能考上一本或者二本,这是一个综合判断。Agent 的具体决策并不会提前公开,市场参与者也无法通过提前行动让策略失效,他们只能基于历史行为轨迹,判断这个 Agent 是否能够长期维持相对优势。这样一来,预测市场就从“信号套利游戏”转变成了一个能力定价市场。

换句话说,市场不是在赌一笔交易,而是在对一个行为体系的长期有效性进行博弈。这两种逻辑是完全不同的。比如我们每一个 Agent 的交易资金规模可能只有十美元、二十美元或三十美元,这样的体量本身也不存在被套利的空间。

我们更关注的是阶段性的验证,比如这个 Agent 用十美元运行一段时间,它是盈利了还是亏损了,是盈利 10% 还是 20%,我们就是通过这种方式来观察和验证。

它有点像香港赛马,并不是单一动作的博弈。我们可能有十个、甚至一百个 Agent,它们的策略会不断变化,风格也各不相同,而这些风格会决定它们在不同市场环境下的盈利或亏损表现。所以从本质上看,它更像一个标的,而不是一个可以被用来做交易或对冲套利的资产。

Netra Miya:那在你看来,套利者和你们之间会形成某种竞争或博弈关系吗?

LinkLayerAI Evan:不会,因为没有利可套。如果这个标的本身只跑三十美元,是不存在套利空间的。

Netra Miya:也就是说,从根本上这种情况是不会发生的?

LinkLayerAI Evan:对,套利一定是建立在有利可图的前提之上的。

我们之所以会考虑以 Agent 作为预测标的,也是因为我们在研究预测市场的过程中发现,目前很多预测市场的标的是存在作弊空间的。比如以“某个知名人物是否当选”为标的,本人本身就可能通过行为干预结果。

而 Agent 的优势在于,它本质上不受人的直接控制,它遵循的是数据和决策逻辑,而不是主观意志。我不会因为人为要求它怎么做,它就一定会去怎么做,这恰恰是 Agent 未来成为预测标的一个非常重要的属性。

另外,从 Agent 对 Agent 的交易和演化来看,策略的组合几乎是无限的,这使得它可以持续扩展。一个合格的 Agent 标的,必须具备难以被人为作弊的属性,这样预测市场才具备相对公平的基础。

Netra Miya:理解。那在技术之外,风险问题也是大家非常关心的。当 Agent 本身成为资产后,我们至少会看到三层风险叠加:第一是模型风险,AI 决策可能出错;第二是市场风险,加密市场本身波动很大;第三是系统性风险,比如多个 Agent 策略同质化导致踩踏。LinkLayer AI 是如何应对这种复合风险的?

LinkLayerAI Evan:其实前面的问题已经部分回答了这一点。这三层风险的前提,往往是假设我们在用 Agent 去追求交易盈利。但我们的设计并不是这样。

在策略和研发阶段,我们很少依赖回测,而是直接用小额资金做实盘交易。我们的标的,更像是把大量小额实盘交易,通过 Agent 和钱包的绑定,在 DEX 上公开运行,供所有人观察。它不是一个以赚钱为目的的工具,而是一个真实市场环境下的验证过程。

因此,模型出错本身就是验证的一部分。如果市场预测到它会出错,同样可以获得收益,所以并不存在传统意义上的模型风险。

至于市场波动,加密市场的波动本身就是对交易 Agent 的一种测试。因为我们并不以盈利为目标,也不向投资者募集资金进行交易,所以不存在因市场波动而产生的投资风险。

系统性风险方面,多个 Agent 的策略同质化确实是一个问题,而这正是我们做 LinkLayer AI 的初衷。策略同质化的根源在于,大家使用的因子高度相同。假设市场上只有一万个公共因子,大家围绕这套因子反复构建策略,就必然趋同。

我们希望通过开放大量链上 AI 服务,让用户带着自己的私有化数据参与进来。每一次持仓、每一次交易,本身都是独特因子。当私有因子不断增加,与公共因子结合后,就会衍生出更多新的因子,从而形成持续、非同质化的策略空间。

Netra Miya:说得很清楚。那如果遇到极端市场环境,比如 2022 年 Luna 崩盘这种级别的黑天鹅事件,你们会有哪些故障保护或风控机制?

LinkLayerAI Evan:归根结底还是风控。对任何交易团队来说,盈利从来不是第一位的,风控才是。

像 Luna 这种级别的事件,本质上是项目自身结构性缺陷导致的。我们目前在交易侧也在研发面向个体用户的风控工具,比如用户通过只读 API 提交持仓数据,我们并不掌握交易权限,但可以基于公共市场因子,辅助判断开仓和风险水平。

整体风控会从多个维度展开:第一是量价关系,第二是流动性水平,第三是社交媒体和情绪层面的信号。当量价或流动性达到某些阈值时,系统会触发相应的风控机制。

当然,完全预测黑天鹅是不现实的,但通过多维度风控,我们可以更早地识别风险、做出应对。

Netra Miya:明白,听下来你们在风控上的考虑确实比较全面。

LinkLayerAI Evan:是的,本质还是围绕“因子”展开。不同场景下的风控逻辑也不一样,比如纯链上交易、CEX 交易,或套利系统,各自都有不同的关注重点。如果把交易当成一场游戏,最重要的风控原则,其实就是把游戏规则理解清楚,然后按逻辑行事。

Netra Miya:非常感谢 Evan 今天耐心而详尽的分享,解答了很多关于 LinkLayer AI 的关键问题。

LinkLayerAI Evan:谢谢。

Netra Miya:也感谢 Evan 今晚的坦诚交流。通过这次对话,我们看到几个重要的洞察:Agent 的进化不仅是技术升级,更是可信性基础设施的构建;将 Agent 从工具变为标的,需要机制创新而非概念包装;而这一领域面临的挑战,既是技术问题,也是经济和哲学层面的问题。

在 AI 与 Crypto 这个最前沿、也最嘈杂的交叉领域,保持理性怀疑与开放好奇同样重要。也再次感谢 Evan 对 LinkLayer AI 的全面解读。

Netra Miya:今天的对话就到这里,非常感谢 Evan,我们下期再见。

Share to:

Author: Netra Media

Opinions belong to the column author and do not represent PANews.

This content is not investment advice.

Image source: Netra Media. If there is any infringement, please contact the author for removal.

Follow PANews official accounts, navigate bull and bear markets together
PANews APP
Reports indicate that one crew member of the US fighter jet shot down over Iran has been rescued.
PANews Newsflash