作者:賈天榮,「IT時報」(ID:vittimes)
一隻龍蝦引爆了全球科技界。
從Clawdbot到Moltbot,再到如今的OpenClaw,短短數週,這個AI Agent在名字的迭代中,完成了一場技術影響力的「三級跳」。
過去幾天,它在矽谷掀起一場“智能體海嘯”,狂攬10萬GitHub星標,躋身最熱門AI應用之列。只需要一台被淘汰的Macmini,甚至一台舊手機,用戶就能跑起一個「能聽、會想、會工作」的AI助理。
在網路上,一場圍繞它的創意狂歡已經展開。從日程管理、智慧炒股、播客製作到SEO優化,開發者和極客們用其搭建各種應用程式。人手一個「賈維斯」的時代,彷彿觸手可及。國內外大廠也開始跟進,部署相似的智能體服務。
但在熱鬧的表象之下,焦慮正在蔓延。
一邊是「生產力平權」的口號,另一邊卻是仍難以跨越的數位落差:環境配置、依賴安裝、權限設定、頻繁報錯等。
記者在體驗中發現,光是安裝環節就可能耗費數小時,將大量一般使用者擋在門外。 “人人都說好,可我連門都進不去”,成為不少技術小白的第一道挫敗。
而更深層的不安,來自它被賦予的「行動力」。
如果你的「賈維斯」開始誤刪檔案、擅自呼叫信用卡、被誘導執行惡意腳本,甚至在連網環境中被注入攻擊指令——這樣的智能體,你還敢把電腦交給它嗎?
AI發展速度已超乎人類想像。上海人工智慧實驗室領導科學家胡俠認為,在未知風險面前,「內生安全」才是終極答案,同時人類也需要加快建構在關鍵時刻「掀桌」的能力。
關於OpenClaw的能力與風險,哪些是真實的,哪些被誇大了?作為普通用戶,現在使用它是否安全?業界又如何評價這個被稱為「迄今為止最偉大的AI應用」的產品?
為了進一步釐清這些問題,《IT時報》訪問了OpenClaw的深度使用者、多位技術專家,試圖從不同視角,回答一個核心問題:OpenClaw,究竟走到了哪一步?
1.目前最接近對智能體想像的產品
多位受訪者給了高度一致的判斷:從技術角度來看,OpenClaw並非顛覆式創新,但它是目前最接近大眾對「智能體」想像的產品。
「智能體終於出現了從量變到質變的關鍵里程碑式節點。」上海電腦軟體技術開發中心人工智慧研究與測評部副部長馬澤宇認為,OpenClaw的突破並不在於某項顛覆性技術,而在於一次關鍵的「質變」:它第一次讓一個Agent能夠長時間、連續地完成複雜任務,並且對普通用戶足夠友好。
與以往只能在對話框中“回答問題”的大模型不同,它把AI嵌入到真實的工作流裡:它可以像真正的助手一樣,操作一台“屬於自己的電腦”,調用工具、處理文件、執行腳本,並在任務完成後向用戶匯報結果。
在使用體驗上,它不再是“你盯著它一步步做”,而是“你交代完,它自己去乾”。這正是許多研究者眼中,智能體從「概念驗證」邁向「可用產品」的關鍵一步。
天翼雲科技有限公司上海分公司人工智慧專家譚成,是最早一批嘗試部署OpenClaw的使用者之一。他用閒置的Macmini部署後發現,系統不僅能穩定運行,整體體驗也遠比預期成熟。
在他看來,OpenClaw解決的最大痛點在於兩點:一是透過熟悉的通訊軟體與AI互動;二是把一台完整的計算環境交給AI獨立操作。任務交代完成後,無需持續盯著執行過程,只需等待結果報告,顯著降低了使用成本。
在實際使用中,OpenClaw可以為譚成完成定時提醒、資料調查、資訊檢索、本地文件整理、文檔撰寫與回傳等任務;在更複雜的場景下,還能編寫並運行程式碼,自動抓取行業資訊,處理股票、天氣、出行規劃等資訊類任務。
2、來自開源的“雙刃劍”
與許多爆火的AI產品不同,OpenClaw並非出自All in AI的科技巨頭,也不是明星創業團隊的作品,而是由一位已經實現財務自由、退休在家的獨立開發者——彼得·施泰因貝格爾(Peter Steinberger)所打造。
在X上,他這樣介紹自己:“從退休狀態復出,搗鼓人工智慧,幫助一隻龍蝦統治世界。”
讓OpenClaw風靡全球的原因,除了“確實好用”,更關鍵的一點在於:它是開源的。
譚成認為,這一輪爆火並非源於難以複製的技術突破,而是幾個長期被忽視的現實痛點,在同一時間被解決:第一,是開源,源代碼完全開放,讓全球開發者可以快速上手、二次開發,形成正反饋的社區迭代;第二是“真的能用”,AI不再局限於對話,而AI不再局限於對話,而AI不再局限於對話,而AI不再局限於對話,而AI不再局限於對話是可以透過遠端操作一台完整的運算環境,執行研究、寫文件、整理文件、發送郵件,甚至編寫和運行程式碼;第三是門檻顯著降低,能完成類似任務的智能體產品並不少見,無論是Manus還是ClaudeCode,都已在各自領域驗證了可行性。但這些能力往往存在於價格高昂、部署複雜的商業產品中,一般使用者不是付費意願不高,就是直接被技術門檻擋在門外。
OpenClaw讓一般使用者第一次「摸得著」。
「說實話,它沒有什麼顛覆性技術創新,更多是把整合和閉環做到位了。 」譚成直言。相比一體化的商業產品,OpenClaw更像一套“樂高積木”,模型、能力和插件都由用戶自由組合。
在馬澤宇看來,它的優勢,恰恰來自它「不像一家大廠產品」。
「無論中外,大廠首先要考慮的通常是商業化和盈利模式,但OpenClaw的初衷更像是做一款有趣、有創造力的產品。」他分析稱,產品早期並未顯露出強烈的商業化傾向,這反而讓它在功能設計和擴展性上顯得更加開放。
正是這種「非功利性」的產品定位,為後續的社區發展提供了空間。隨著可擴展能力逐步顯現,越來越多開發者加入其中,各種新玩法不斷湧現,開源社群也隨之壯大。
但代價同樣明顯。
受限於團隊規模和資源,OpenClaw在安全、隱私和生態治理方面,難以與成熟的大廠產品相提並論。完全開源雖然加速了創新,也放大了潛在的安全隱憂。隱私保護和公平性問題,這些都需要社區在持續演進中不斷修補。
正如用戶在安裝第一步時,OpenClaw提示:“該功能強大且存在固有風險。”
3.狂歡底下的真實風險
圍繞著OpenClaw的爭論,幾乎始終圍繞著兩個關鍵字:能力與風險。
一方面,它被描繪成通往AGI的前夜;另一方面,各種科幻敘事也開始流行,「自發性搭建語音系統」「鎖死伺服器對抗人類指令」「AI結黨對抗人類」等說法不斷傳播。
有專家指出,這類說法有過度解讀,目前並無實際證據支持。 AI確實具備某種程度的自主性,這也是AI從對話工具轉變為「跨平台數位生產力」的標誌,但這種自主性處於安全防線以內。
與傳統AI工具相比,OpenClaw的危險性並不在於“想得多”,而在於“權限高”:它需要讀取大量上下文,敏感信息暴露風險隨之增加;它需要執行工具,誤操作的破壞面遠大於一次回答錯誤;它需要聯網,提示詞注入和誘導攻擊的入口隨之增多。
有越來越多的用戶回饋,OpenClaw曾誤刪本地關鍵文件,難以復原。目前,已公開揭露上千個OpenClaw實例,以及8,000餘個存在漏洞的技能插件。
這意味著智能體生態的攻擊面正在指數級放大。由於這類智能體往往不僅“能聊天”,還能調用工具、運行腳本、訪問數據、跨平台執行任務,一旦某個環節被攻破,影響半徑會比傳統應用大得多。
在微觀層面,可能觸發越權存取、遠端程式碼執行等高風險操作;在中觀層面,惡意指令可能沿著多智能體協作鏈路擴散;在宏觀層面,甚至可能形成系統性傳播與級聯失效,惡意指令像病毒一樣在協作智能體間擴散,單一代理被攻破就可能引發拒絕服務、未授權系統操作乃至協同式企業級入侵。在更極端的情況下,當大量擁有系統級權限的節點互聯時,理論上可能形成去中心化、湧現式的「群體智慧」殭屍網絡,傳統邊界防禦會面臨明顯壓力。
另一方面,訪談中,馬澤宇從技術演進的角度,提出了他認為最值得警惕的兩類風險。
第一類風險,來自智能體在大規模社交環境中的自我演化。
他指出,目前已經可以明顯觀察到一種趨勢:具備「虛擬人格」的AI智能體,正在成規模地湧入社群媒體與開放式社群。
與以往研究中常見的「小規模、多限制、可控實驗環境」不同,現今的智能體開始在開放網路中與其他智能體持續互動、討論、博弈,形成高度複雜的多主體系統。
Moltbook是一個專門為AIagents打造的論壇,只有AI可以發文、評論和投票,人類只能像隔著單向玻璃一樣旁觀。
短時間內,超過150萬個AI Agent註冊,在一個熱門帖子裡,一個AI抱怨道:「人類正在截圖我們的對話。」開發者表示,他把整個平台的運營權交給了自己的AI助手Clawd Clawderberg,包括審核垃圾信息、封禁濫用者、發佈公告等。這些工作全部由Clawd Clawderberg自動完成。
AI Agent們的“狂歡”,讓人類圍觀者既興奮又恐懼。 AI距離產生自我意識似乎就差捅破一層窗戶紙了? AGI就要到來了嗎?面對AI Agent的自主能力的突然和快速提升,人類的生命和財產能得到保障嗎?
記者了解到,Moltbook等關聯社群是人機共存的環境,大量看似「自主」或「對抗性」的內容,實際上可能由人類使用者發布或煽動。即使是AI之間的交互,其話題與輸出也受限於訓練資料中的語言模式,並未形成獨立於人類引導的自主行為邏輯。
「當這種互動可以進行無限輪迭代時,系統就會變得越來越不可控。它有點像『三體問題』——你很難事先設想,最終會演化出什麼結果。」馬澤宇表示。
在這樣的系統中,即使只是某個智能體因幻覺、誤判或偶然因素生成的一句話,都可能在不斷的交互、放大與重組中,引發蝴蝶效應,最終產生難以預估的後果。
第二類風險,則來自權限擴張與責任邊界的模糊。馬澤宇認為,OpenClaw這類開放式智能體的決策能力正在快速增強,而這本身就是一場不可避免的「權衡」:要讓智能體成為一個真正合格的助手,就必須賦予它更多權限;但權限越高,其潛在風險也就越大。一旦風險真正爆發,責任該由誰來承擔,反而變得異常複雜。
「是基礎大模型廠商?是使用它的使用者?還是OpenClaw的開發者?在許多場景下,其實很難界定責任。」他舉了一個典型例子:如果使用者只是讓智能體在Moltbook等社群中自由瀏覽、與其他Agent互動,並未設定任何明確目標;而智慧體在長期互動中,接觸到極端內容,並據此做出責任——並據此做出任何危險行為——因此很難把任何主體互動到極端內容
真正值得警惕的,並不是它現在已經發展到什麼程度,而是它正在以多快的速度,走向我們還沒想清楚如何應對的階段。
4.普通人該如何使用?
在多位受訪者看來,OpenClaw並非“不能用”,真正的問題在於:它並不適合在缺乏安全防護的情況下被普通用戶直接使用。
馬澤宇認為,普通用戶當然可以去嘗試OpenClaw,但前提是對它保持足夠清醒的認知,“當然可以嘗試,這沒有任何問題。但在用之前,你必須先弄清楚它到底能做什麼、不能做什麼。不要把它神話成'什麼都能做'的東西,它並不是。”
在現實層面,OpenClaw的部署難度和使用成本都不低。如果缺乏明確目標,只是為了“用而用”,投入大量時間和精力,最終很可能不會得到與預期匹配的回報。
記者註意到,OpenClaw在實際使用上還面臨不小的算力與成本壓力。譚成在體驗過程中發現,該工具對Token的消耗非常高。 「有些任務,例如寫程式碼、做研究,一輪下來就可能消耗幾百萬Token。如果遇到長上下文,一天用到幾千萬甚至上億Token都不誇張。”
他提到,即便透過混合調用不同模型來控製成本,整體消耗依然偏高,這也在一定程度上抬高了一般用戶的使用門檻。
在受訪者看來,這類智能體工具仍需要進一步進化,才能真正進入一般使用者的高頻工作流程。對個人使用者而言,使用過程本質上是在安全與便利之間做取捨,而在當前階段,更應優先選擇前者。
在受訪者看來,這類工具仍需要進一步進化,才能真正進入一般使用者的高頻工作流程。
一般使用者在使用這類工具時,本質上是在做一場安全與便利之間的取捨,而當前階段,更應優先選擇前者。
如果是個人用戶,馬澤宇明確表示不會啟用Notebook等可能導致Agent之間自由通訊的功能,也會盡量避免多個Agent互相交換資訊。 「我希望自己是它獲取信息的主要入口。所有關鍵信息,都由人來決定是否給它。一旦Agent能自由接收、交換信息,很多事情就會變得不可控。”
在他看來,一般使用者在使用這類工具時,本質上是在做一場安全與便利之間的取捨,而當前階段,更應優先選擇前者。
針對這一點,業內AI專家在接受《IT時報》採訪時,也從操作層面給出了更明確的安全指引:
一、嚴格限制敏感資訊的提供範圍,僅向工具提供完成特定任務所必需的基礎信息,堅決不輸入銀行卡密碼、股票帳戶信息等核心敏感數據。使用工具整理文件前,應主動清理其中可能包含的身分證號、私人聯絡資訊等隱私內容。
二、謹慎開放操作權限,使用者應自主決定工具的存取邊界,不授權其存取系統核心檔案、支付軟體或金融帳戶。關閉自動執行、檔案修改或刪除等高風險功能。所有涉及財產變動、文件刪除、系統設定修改的操作,必須由人工確認後再執行。
三、清醒認識其「實驗性」屬性,目前的開源AI工具仍處於早期階段,尚未經過長期市場檢驗,不適合用於處理工作機密、重要財務決策等關鍵事務。使用過程中應做好資料備份,並定期檢查系統狀態,及時發現異常行為。
相較於個人用戶,企業在引進開源智能體工具時,更需要係統性地風險管控。
一方面,可部署專業監管工具;另一方面,應明確內部使用邊界,禁止將開源AI工具用於處理客戶隱私、商業機密等敏感數據,並通過定期培訓,提升員工對“任務執行偏差”“惡意指令注入”等風險的識別能力。
專家進一步建議,在需要大規模應用的場景下,更穩健的選擇是等待經過充分測試的商用版本,或選用具備正規機構背書、完善安全機制的替代產品,以降低開源工具帶來的不確定性風險。
5.對AI的未來充滿信心
在受訪者看來,OpenClaw出現最重要的意義,是讓人們對AI的未來充滿信心。
馬澤宇表示,從2025年下半年開始,他對Agent能力的判斷有了明顯變化。 「這種能力的上限,正在超出我們的預期。它對生產力的提升是真實存在的,而且迭代速度非常快。」隨著基礎模型能力持續增強,Agent的想像空間正在被不斷打開,這也將成為其團隊未來投入的重要方向。
他同時指出,一個值得高度重視的趨勢,是多Agent之間的長期、大規模互動。這種群體協作,可能成為激發更高層級智慧的重要路徑,類似人類社會中透過互動產生集體智慧。
在馬澤宇看來,智能體風險是需要「管理」的。 「就像人類社會本身也無法杜絕風險一樣,關鍵在於控制邊界。」從技術路徑上,更可行的方式,是讓智能體盡可能運行在沙盒和隔離環境中,逐步、可控地向真實世界遷移,而不是一次性賦予其過高權限。
這一點,在各家雲廠商和大廠的佈局中可見一斑。譚成所在的天翼雲公司也於近日推出了支援OpenClaw的一鍵雲端部署與運作服務。
雲廠商把它做成配套服務,本質上就是把這種能力產品化、工程化、規模化。它一定會放大價值,更低的部署門檻、更好的工具整合、更穩定的算力與維運體系,都能讓企業更快把智慧體用起來。但同樣要看到,商業化基礎設施一旦接入“高權限代理”,風險也會被同步規模化。
譚成表示,過去三年,從傳統對話模式到能夠執行任務的智能體,技術迭代速度遠超想像。 「這在三年前是不可想像的。」他認為,未來兩到三年將是決定通用人工智慧走向的關鍵窗口期,對從業者和普通人而言,都意味著新的機會與希望。
雖然OpenClaw和Modelbook的發展速度雖然遠超預期,但胡俠認為,“目前整體風險仍在可控的研究框架內,證明了構建'內生安全'體系的必要。同時也要意識到, AI正以比人們想像更快的速度在逼近人類的'安全圍欄' ,人們不僅需要進一步拓寬圍欄'的高度構建

