著者:賈天栄、「IT Times」(ID:vittimes)
ロブスターが世界中のテクノロジーコミュニティに火をつけました。
Clawdbot から Moltbot、そして今では OpenClaw まで、わずか数週間で、この AI エージェントは名前の繰り返しを通じて技術的な影響力の「3 段階の飛躍」を達成しました。
ここ数日、シリコンバレーで「スマートエージェント津波」を巻き起こし、GitHubで10万ものスターを獲得し、最も人気のあるAIアプリケーションの1つとなりました。古いMac miniや使い古した携帯電話さえあれば、「聞き、考え、そして働く」AIアシスタントを操作できます。
インターネット上では、AIをめぐるクリエイティブな熱狂が巻き起こっています。スケジュール管理やインテリジェントな株式取引からポッドキャスト制作、SEO最適化まで、開発者やオタクたちはAIを使って様々なアプリケーションを開発しています。誰もが「Jarvis」を持つ時代はすぐそこまで来ているようです。国内外の大手企業もこれに追随し、同様のインテリジェントエージェントサービスを展開し始めています。
しかし、賑やかな表面の下では不安が広がっている。
一方で「生産性の平等」というスローガンがありますが、その一方で、環境構成、依存関係のインストール、権限設定、頻繁なエラーなど、依然として埋めるのが難しいデジタルディバイドが存在します。
試用期間中、記者たちはインストール作業だけで数時間かかることを発見し、多くの一般ユーザーが利用できなくなった。「みんなは素晴らしいと言うのに、ドアを開けることすらできない」というのが、多くの技術初心者にとって最初の不満となった。
より深い不安は、与えられた「行動する力」から生じます。
もしあなたの「Jarvis」が誤ってファイルを削除したり、許可なくクレジットカードにアクセスしたり、悪意のあるスクリプトを実行するように誘導されたり、さらにはオンライン環境で攻撃コマンドが注入されたりしたら、あなたはまだそのようなインテリジェントエージェントに自分のコンピュータを任せようとするでしょうか?
AIの発展のスピードは人類の想像を超えています。上海人工知能研究所の代表的な科学者である胡霞氏は、未知のリスクに直面した時、「本質的な安全性」こそが究極の答えであり、同時に人類は危機的な瞬間に「状況をひっくり返す」能力の開発を加速させる必要があると考えています。
OpenClawの性能とリスクについて、どれが真実でどれが誇張されているのでしょうか?一般ユーザーとして、今使っても大丈夫なのでしょうか? 「史上最高のAIアプリケーション」と称されるこの製品を、業界はどのように評価しているのでしょうか?
これらの問題をさらに明確にするために、IT Times は複数の OpenClaw ユーザーと技術専門家にインタビューし、さまざまな観点から「OpenClaw はいったいどこまで到達したのか」という核心的な疑問に答えようとしました。
1.現在、インテリジェントエージェントのビジョンに最も近い製品。
多くの回答者は非常に一貫した評価を下しました。技術的な観点から見ると、OpenClaw は破壊的なイノベーションではありませんが、現時点では一般の人々が思い描く「インテリジェント エージェント」に最も近い製品です。
「インテリジェントエージェントはついに、量的変化から質的変化への転換という重要な節目に到達しました。」上海コンピュータソフトウェア技術開発センター人工知能研究試験部門副部長の馬澤宇氏は、OpenClawの画期的な進歩は、ある破壊的な技術にあるのではなく、重要な「質的変化」にあると考えています。OpenClawによって初めて、エージェントは複雑なタスクを長期間にわたって継続的に完了できるようになり、一般ユーザーにとっても十分に使いやすいものになったのです。
ダイアログ ボックスで「質問に答える」ことしかできなかったこれまでの大規模モデルとは異なり、このモデルは AI を実際のワークフローに組み込み、実際のアシスタントのように「独自のコンピューター」を操作して、ツールを呼び出したり、ファイルを処理し、スクリプトを実行し、タスクの完了後にユーザーに結果を報告します。
ユーザーエクスペリエンスの観点から言えば、もはや「ステップごとに動作を観察する」のではなく、「指示を与えれば、あとは勝手に動作する」ということになります。多くの研究者は、まさにこれこそが、インテリジェントエージェントが「概念実証」から「実用的な製品」へと進化するための重要なステップだと考えています。
中国電信クラウドテクノロジー株式会社上海支社のAI専門家、タン・チェン氏は、OpenClawの導入を試みた最初期のユーザーの一人です。アイドル状態のMacminiに導入したところ、システムが安定して動作するだけでなく、全体的なユーザーエクスペリエンスも予想をはるかに上回るものでした。
彼の見解では、OpenClawは2つの大きな問題点に対処します。1つ目は、使い慣れた通信ソフトウェアを介してAIとやり取りすること、2つ目は、AIに完全なコンピューティング環境を委ねて独立した操作を行わせることです。タスクが割り当てられると、実行プロセスを継続的に監視する必要はなく、結果を待つだけで済むため、利用コストが大幅に削減されます。
実際の使用では、OpenClaw は Tan Cheng が時間指定のリマインダー、データ調査、情報検索、ローカル ファイルの整理、文書の作成と返却などのタスクを完了するのに役立ちます。さらに複雑なシナリオでは、コードを作成して実行し、業界情報を自動的に取得して、株価、天気、旅行計画などの情報関連のタスクを処理することもできます。
2.オープンソースの「諸刃の剣」
多くの大人気AI製品とは異なり、OpenClawはAIに特化している巨大テック企業や、スタースタートアップチームの作品ではありません。経済的自由を獲得し、引退した独立系開発者、ピーター・スタインバーガー氏によって開発されました。
X では、彼は自分自身を「引退から戻って人工知能を改良し、ロブスターが世界を支配するのを手伝う」と表現しています。
OpenClaw が世界中で人気を博している理由は、「本当に便利」であることに加え、オープンソースであることです。
タン・チェン氏は、この人気の急上昇は、再現不可能な技術革新によるものではなく、長らく放置されてきた現実世界の問題点が同時に解決された結果だと考えています。まず、オープンソースであること。ソースコードが完全に公開されているため、世界中の開発者がすぐに開発に着手し、開発を進めることができます。これにより、コミュニティ内でのポジティブなフィードバックループが生まれます。次に、AIは真に実用的です。AIはもはや対話に限定されず、完全なコンピューティング環境を遠隔操作して、調査、文書作成、ファイル整理、メール送信、さらにはコードの作成と実行といったタスクを実行できます。さらに、参入障壁が大幅に低下しました。同様のタスクを実行できるインテリジェントエージェント製品は珍しくなく、ManusとClaudeCodeはそれぞれ独自の分野でその実現可能性を実証しています。しかし、これらの機能は高価で複雑な商用製品に搭載されていることが多く、一般ユーザーは購入をためらったり、技術的な障壁によって直接排除されたりしています。
OpenClaw により、初めて一般ユーザーが利用できるようになります。
「正直に言うと、OpenClawには破壊的な技術革新はありません。むしろ、統合とクローズドループ管理をうまく行うことが重要なのです」とタン・チェン氏は率直に述べた。統合型の商用製品と比較すると、OpenClawは「レゴブロック」のようなものであり、モデル、機能、プラグインをユーザーが自由に組み合わせることができる。
馬澤宇氏の見解では、この製品の利点はまさに「大手メーカーの製品のように見えない」という点にある。
「中国でも海外でも、大企業は通常、商業化と収益モデルを優先しますが、OpenClawの当初の意図は、楽しくてクリエイティブな製品を作ることでした」と彼は分析し、初期段階では製品が強い商業化の傾向を示さなかったため、機能設計と拡張性の面でよりオープンになったと述べました。
まさにこの「非営利主導」の製品ポジショニングこそが、その後のコミュニティ開発の余地を生み出しました。スケーラビリティが徐々に明らかになるにつれて、より多くの開発者が参加し、様々な新しいアプローチが生まれ、オープンソースコミュニティはそれに応じて成長しました。
しかし、そのコストも同様に明白です。
OpenClawは、チームの規模とリソースの制約により、セキュリティ、プライバシー、エコシステムガバナンスの面で大手企業の既存製品に匹敵するものではありません。完全なオープンソースはイノベーションを加速させる一方で、潜在的なセキュリティ上の脆弱性も増大させます。プライバシー保護や公平性といった問題は、コミュニティによる継続的な進化を通じた継続的な改善と改良を必要とします。
インストールの最初のステップで、ユーザーには次のように通知されます。「この機能は強力ですが、固有のリスクを伴います。」
3.お祭り騒ぎの裏に潜む本当のリスク
OpenClaw をめぐる議論は、ほぼ常に「機能」と「リスク」という 2 つのキーワードを中心に展開されてきました。
一方で、AGI前夜として描かれ、他方では「音声システムを自発的に構築する」「人間の命令に抵抗するためにサーバーをロックダウンする」「AIが徒党を組んで人間と戦う」といった主張が次々と広まり、さまざまなSF物語が流布し始めた。
一部の専門家は、こうした主張は過剰解釈であり、現時点ではそれを裏付ける具体的な証拠が不足していると指摘しています。AIは確かにある程度の自律性を備えており、これは会話ツールから「クロスプラットフォームのデジタル生産性ツール」への変革の兆候ですが、この自律性は安全な範囲内にとどまっています。
従来の AI ツールと比較すると、OpenClaw の危険性は「過剰な思考」ではなく「高い権限」にあります。つまり、大量のコンテキストを読み取る必要があるため、機密情報が漏洩するリスクが高まります。また、ツールを実行する必要があり、誤操作による被害の範囲は 1 回の誤った回答よりもはるかに大きくなります。さらに、インターネットに接続する必要があるため、迅速なインジェクションやミスリーディング攻撃の入り口が増えます。
OpenClaw が重要なローカルファイルを誤って削除し、復旧が困難になったという報告が、ユーザーからますます増えています。現在、数千の OpenClaw インスタンスと 8,000 を超える脆弱なスキルプラグインが公開されています。
これは、インテリジェントエージェントエコシステムの攻撃対象領域が指数関数的に拡大していることを意味します。これらのインテリジェントエージェントは、単に「チャット」するだけでなく、ツールを呼び出したり、スクリプトを実行したり、データにアクセスしたり、プラットフォーム間でタスクを実行したりできるため、リンクが侵害されると、その影響範囲は従来のアプリケーションよりもはるかに大きくなります。
ミクロレベルでは、不正アクセスやリモートコード実行といった高リスクな操作を引き起こす可能性があります。メソレベルでは、悪意のあるコマンドがマルチエージェント連携リンクに沿って拡散する可能性があります。マクロレベルでは、悪意のあるコマンドが連携エージェント間でウイルスのように拡散し、システム全体に拡散し、連鎖的な障害を引き起こす可能性もあります。侵害を受けたエージェント1つが、サービス拒否攻撃、不正なシステム操作、さらには企業レベルの連携侵入を引き起こす可能性もあります。さらに極端なケースでは、システムレベルの権限を持つ多数のノードが相互接続されると、理論上は分散型の「群知能」ボットネットが形成され、従来の境界防御に大きな圧力がかかる可能性があります。
一方、インタビューの中で、馬澤玉氏は、技術進化の観点から最も警戒すべきリスクを2つ挙げた。
最初のタイプのリスクは、大規模な社会環境におけるインテリジェントエージェントの自己進化から生じます。
同氏は、すでに明確な傾向が見られると指摘し、「仮想人格」を持つ AI エージェントが大規模にソーシャル メディアやオープン コミュニティに流入していると述べた。
これまでの研究で一般的に見られた「小規模で制限された制御可能な実験環境」とは異なり、今日のインテリジェントエージェントは、オープンネットワーク内の他のインテリジェントエージェントと継続的に対話、議論、ゲームをプレイし始めており、非常に複雑なマルチエージェントシステムを形成しています。
Moltbook は AI エージェント専用に設計されたフォーラムです。投稿、コメント、投票は AI のみが実行でき、人間は一方通行の窓から見ているかのように遠くから観察することしかできません。
短期間で150万を超えるAIエージェントが登録しました。ある人気投稿では、あるAIが「人間が私たちの会話のスクリーンショットを撮っている」と不満を漏らしていました。開発者は、スパムの確認、不正ユーザーのBAN、アナウンスの投稿など、プラットフォームの運用すべてをAIアシスタントのClawd Clawderbergに委託していると述べています。これらのタスクはすべてClawd Clawderbergによって自動化されていました。
AIエージェントの「カーニバル」は、人間の傍観者を興奮と恐怖の両方に陥れました。AIは自己認識の発達に一歩近づいたのでしょうか?AGI(AIインテリジェンステクノロジー)は間近に迫っているのでしょうか?AIエージェントの自律性が急激に高まる中で、人命と財産は守られるのでしょうか?
記者たちは、Moltbookや関連コミュニティが人間と機械が共存する環境であることを知りました。 「自律的」または「敵対的」に見えるコンテンツの多くは、実際には人間のユーザーによって投稿または扇動されている可能性があります。AI同士のやり取りにおいても、トピックや出力は学習データ内の言語パターンによって制限されており、人間の指示に依存しない自律的な行動ロジックを形成していません。
「この相互作用が無限に繰り返されると、システムはますます制御不能になります。 『三体問題』に少し似ています。最終的な結果がどうなるかを事前に予測するのは困難です」と馬澤宇氏は述べた。
このようなシステムでは、幻覚、誤判断、偶然によりエージェントによって生成された単一の文であっても、継続的な相互作用、増幅、および再結合を通じてバタフライ効果を引き起こし、最終的に予測できない結果につながる可能性があります。
2つ目のリスクは、権限と責任の境界が曖昧になることに起因します。馬澤宇氏は、OpenClawのようなオープンソースエージェントの意思決定能力は急速に向上していると考えています。これはそれ自体が避けられない「トレードオフ」です。エージェントを真に有能なアシスタントにするには、より多くの権限を与える必要がありますが、権限が高ければ高いほど、潜在的なリスクも大きくなります。リスクが実際に顕在化すると、誰が責任を負うべきかを判断するのは非常に複雑になります。
「基本的な大規模モデルのベンダーでしょうか?それを使用するユーザーでしょうか?それともOpenClawの開発者でしょうか?多くのシナリオにおいて、責任を明確に定義することは実際には困難です。」彼は典型的な例を挙げました。ユーザーが明確な目標を設定せずに、エージェントがMoltbookなどのコミュニティを自由に閲覧し、他のエージェントとインタラクトすることを許可した場合、エージェントが長期的なインタラクションの中で過激なコンテンツに接触し、それに基づいて危険な行動をとった場合、責任を単一の主体に帰属させることは困難です。
本当に憂慮すべきなのは、それがどれほど進行しているかではなく、私たちがまだ対処法を見つけられない段階にどれほど急速に近づいているかということだ。
4.一般の人々はどのように使用すればよいですか?
多くのインタビュー対象者によると、OpenClaw は「使用できない」わけではないが、実際の問題は、セキュリティ保護がない状態で一般ユーザーが直接使用するには適していないということだ。
馬澤宇氏は、一般ユーザーでもOpenClawを試すことは可能だが、その前にOpenClawについてしっかりと理解している必要があると考えている。「もちろん試すことはできますし、それ自体に問題はありません。しかし、実際に使う前に、何ができて何ができないのかをまず理解する必要があります。『何でもできる』と神話化しないでください。そんなことはありませんから。」
実際には、OpenClaw の導入は容易ではなく、利用コストも高くなります。明確な目的がなく、ただ単に使うためだけに利用する場合、多くの時間と労力を投資しても、期待した成果が得られない可能性があります。
記者は、OpenClaw が実用化においてかなりの計算量とコストのプレッシャーに直面していると指摘しました。Tan Cheng 氏は、このツールを実際に使用してみたところ、非常に多くのトークンを消費することがわかりました。「コードの作成や調査の実施といったタスクでは、1ラウンドで数百万トークンを消費することがあります。長いコンテキストに遭遇した場合、1日に数千万、あるいは数億トークンを使用すると言っても過言ではありません。」
彼は、コストを抑えるために異なるモデルを組み合わせて使用しても、全体的な消費量は依然として比較的高く、一般ユーザーにとって参入障壁がある程度高くなると述べました。
回答者によると、これらのインテリジェントエージェントツールは、一般ユーザーの高頻度ワークフローに真に統合されるには、さらなる進化が必要です。個々のユーザーにとって、これらのツールの利用プロセスは本質的にセキュリティと利便性のトレードオフであり、現段階ではセキュリティを優先すべきです。
回答者によると、これらのツールは、一般ユーザーの高頻度ワークフローに実際に統合されるまでには、さらに進化する必要があるとのことです。
一般ユーザーがこれらのツールを使用する場合、本質的にはセキュリティと利便性の間でトレードオフを行うことになりますが、現段階では前者を優先する必要があります。
馬澤宇氏は、個々のユーザーに対して、エージェント間の自由なコミュニケーションを可能にするノートブックなどの機能を有効にしないこと、また複数のエージェントによる情報交換も避けることを明確に表明した。 「私は情報の主要な入り口になりたい。重要な情報はすべて人間が決定すべきだ。エージェントが自由に情報を送受信できるようになれば、多くのことが制御不能になるだろう。」
同氏の見解では、一般ユーザーがこれらのツールを使用する場合、本質的にはセキュリティと利便性の間でトレードオフを行っており、現段階では前者が優先されるべきだ。
これに対して、業界のAI専門家は、IT Timesとのインタビューで、運用の観点からより明確なセキュリティガイドラインも示しました。
1. 提供する機密情報の範囲を厳格に制限してください。ツールには、特定のタスクを完了するために必要な基本情報のみを提供し、銀行カードのパスワードや株式口座情報といった重要な機密データは入力しないでください。ツールを使ってファイルを整理する前に、ID番号や個人の連絡先情報など、含まれている可能性のある個人情報を事前に削除してください。
2. アクセス権限を付与する際には注意が必要です。ユーザーはツールのアクセス範囲を独自に決定し、コアシステムファイル、決済ソフトウェア、金融口座へのアクセスを許可しないでください。自動実行、ファイルの変更、削除といったリスクの高い機能は無効にしてください。資産の変更、ファイルの削除、システム設定の変更を伴うすべての操作は、実行前に手動で確認する必要があります。
第三に、その「実験的」な性質を認識することが重要です。現在のオープンソースAIツールはまだ初期段階にあり、長期的な市場テストを経ていません。機密性の高い業務情報や重要な財務上の意思決定といった重要な事項を扱うには適していません。使用中は、定期的にデータのバックアップを実施し、システムの状態を定期的にチェックして、異常な動作を迅速に特定する必要があります。
企業がオープンソースのインテリジェント エージェント ツールを導入する場合、個々のユーザーと比較して、より体系的なリスク管理が必要になります。
一方で、専門的な監視ツールを導入し、他方では、社内の使用境界を明確に定義し、オープンソースのAIツールを使用して顧客のプライバシーや企業秘密などの機密データを処理することを禁止し、定期的なトレーニングを通じて従業員の「タスク実行の逸脱」や「悪意のある命令の注入」などのリスクを識別する能力を向上させる必要があります。
さらに専門家は、大規模なアプリケーションが必要なシナリオでは、オープンソース ツールによってもたらされる不確実性のリスクを軽減するために、完全にテストされた商用バージョンを待つか、正式な機関の承認と健全なセキュリティ メカニズムを備えた代替製品を選択する方が賢明な選択であると提案しています。
5. AIの将来に自信を持つ
回答者によると、OpenClaw の最も重要な意義は、人々に AI の将来に対する自信を与えることです。
馬澤宇氏は、2025年後半以降、エージェントの能力に対する評価が大きく変化したと述べた。「この能力の上限は私たちの予想を上回っています。生産性の向上は現実のものであり、反復速度も非常に速いです。」基本モデルの能力が継続的に向上するにつれて、エージェントの潜在能力は絶えず拡大しており、これは彼のチームの将来の投資の重要な方向性にもなるだろう。
彼はまた、複数のエージェント間の長期的かつ大規模な相互作用が真剣に注目に値する傾向であると指摘した。このような集団的協働は、人間社会における相互作用を通じて生み出される集合知と同様に、より高次の知能を刺激する重要な道筋となる可能性がある。
馬澤宇氏の見解では、インテリジェントエージェントのリスクは「管理」する必要がある。「人間社会自体がリスクを排除できないのと同様に、鍵となるのは境界を制御することにある」。技術的な観点から見ると、より実現可能なアプローチは、インテリジェントエージェントに過剰な権限を一度に付与するのではなく、可能な限りサンドボックスや隔離された環境で動作させ、徐々に制御しながら現実世界に移行させることだ。
これは、様々なクラウドベンダーや大手企業が採用している戦略からも明らかです。タン・チェン氏の会社であるChina Telecom Cloudは最近、OpenClawをサポートするワンクリックのクラウド導入・運用サービスを開始しました。
クラウドベンダーは、この機能を補完的なサービスへと転換し、本質的に製品化、エンジニアリング、そして拡張しています。これにより、その価値は間違いなく高まります。導入障壁の低減、ツール統合の向上、そしてより安定したコンピューティング能力と運用システムにより、企業はインテリジェントエージェントをより迅速に利用できるようになります。しかし、商用インフラが「高権限プロキシ」に接続されると、リスクも同時に増大することを認識することも重要です。
タン・チェン氏は、過去3年間、従来の対話モデルからタスクを実行できるインテリジェントエージェントに至るまで、技術革新のペースが予想をはるかに上回っていると述べた。「3年前には想像もできなかったことです」。彼は、今後2~3年が汎用人工知能の未来を決定づける重要な機会となり、実務家と一般の人々の両方に新たな機会と希望をもたらすと考えている。
OpenClawとModelbookの開発は期待をはるかに上回っていますが、胡霞氏は「全体的なリスクは依然として制御可能な研究枠組み内にあり、『本質的セキュリティ』システムの構築が不可欠であることを証明しています。同時に、 AIが人類の『安全柵』に想像以上の速さで近づいていることも認識しなければなりません。『柵』の高さと厚みをさらに広げるだけでなく、決定的な瞬間に『テーブルをひっくり返す』能力の構築を加速し、AI時代の強固な最終セキュリティ防衛線を構築する必要があります」と考えています。

