가재 한 마리가 기술계를 뒤흔들었습니다. 인류는 과연 판도를 뒤집을 준비가 되었을까요?

  • OpenClaw는 AI 에이전트로, 10만 GitHub 스타를 얻어 오래된 장치에서 AI 어시스턴트를 실행할 수 있습니다.
  • 컴퓨터를 독립적으로 운영하여 파일 관리, 연구, 코딩 등 작업을 수행할 수 있어 AI 에이전트의 중요한 발전입니다.
  • 오픈 소스 프로젝트로서 커뮤니티가 강력하지만, 높은 권한으로 인해 보안 위험을 안고 있습니다.
  • 파일 삭제, 보안 취약점 및 AI 에이전트의 통제되지 않은 진화와 같은 위험이 있습니다.
  • 안전하게 사용하려면 민감한 정보를 제한하고, 권한을 엄격히 통제하며, 실험적 특성을 인식해야 합니다.
  • AI의 미래는 밝지만, 위험 관리와 안전 조치가 필요합니다.
요약

저자: 자톈룽, "IT 타임스"(ID: vittimes)

바닷가재 한 마리가 전 세계 기술계를 뜨겁게 달궜습니다.

클로드봇(Clawdbot)에서 몰트봇(Moltbot)으로, 그리고 이제는 오픈클로(OpenClaw)로, 이 AI 에이전트는 불과 몇 주 만에 이름 변경을 통해 기술적 영향력 면에서 "3단계 도약"을 완료했습니다.

지난 며칠 동안 이 앱은 실리콘 밸리에 "스마트 에이전트 쓰나미"를 일으키며 깃허브 스타 10만 개를 돌파하고 가장 인기 있는 AI 애플리케이션 중 하나로 떠올랐습니다. 구형 맥 미니나 심지어 낡은 휴대폰만 있어도 사용자는 "듣고, 생각하고, 작업할 수 있는" AI 비서를 실행할 수 있습니다.

인터넷에서는 이를 중심으로 창의적인 열풍이 불고 있습니다. 일정 관리, 지능형 주식 거래, 팟캐스트 제작, SEO 최적화에 이르기까지 개발자와 IT 전문가들은 이를 활용하여 온갖 종류의 애플리케이션을 만들고 있습니다. 모든 사람이 '자비스'를 갖게 되는 시대가 머지않아 도래할 것으로 보입니다. 국내외 주요 기업들도 이러한 추세에 발맞춰 유사한 지능형 에이전트 서비스를 도입하기 시작했습니다.

하지만 분주한 겉모습 아래에는 불안감이 퍼져나가고 있습니다.

한편으로는 "생산성 평등"이라는 슬로건이 있지만, 다른 한편으로는 환경 설정, 종속성 설치, 권한 설정, 잦은 오류 등 여전히 극복하기 어려운 디지털 격차가 존재합니다.

시험 과정에서 기자들은 설치 과정만 해도 몇 시간이 걸릴 수 있어 일반 사용자들이 사용하기 어렵다는 사실을 발견했습니다. "다들 좋다고 하는데, 나는 문턱조차 넘을 수 없네."라는 것이 많은 기술 초보자들의 첫 번째 좌절감이었습니다.

더욱 근본적인 불안감은 그것이 부여받은 "행동할 수 있는 힘"에서 비롯됩니다.

만약 당신의 "자비스"가 실수로 파일을 삭제하거나, 승인 없이 신용카드 정보에 접근하거나, 악성 스크립트를 실행하도록 속거나, 심지어 온라인 환경에서 공격 명령어를 주입받기 시작한다면 , 당신은 여전히 ​​당신의 컴퓨터를 그런 지능형 에이전트에 맡길 용기가 있습니까?

인공지능 개발 속도는 인간의 상상을 초월했습니다. 상하이 인공지능 연구소의 후샤 수석 과학자는 미지의 위험에 직면했을 때 "내재적 보안"이 궁극적인 해답이며, 동시에 인류는 결정적인 순간에 "판을 뒤집을" 수 있는 능력을 개발하는 데 박차를 가해야 한다고 믿습니다.

오픈클로의 기능과 위험성에 대해 어떤 점이 사실이고 어떤 점이 과장된 것일까요? 일반 사용자의 입장에서 지금 오픈클로를 사용하는 것은 안전할까요? "지금까지 나온 최고의 AI 애플리케이션"이라고 불리는 이 제품을 업계에서는 어떻게 평가하고 있을까요?

이러한 문제들을 더욱 명확히 하기 위해 IT Times는 여러 OpenClaw 사용자 및 기술 전문가를 인터뷰하여 다양한 관점에서 핵심 질문에 대한 답을 찾고자 했습니다. 바로 "OpenClaw는 정확히 어디까지 발전했는가?"입니다.

1. 현재 지능형 에이전트라는 비전에 가장 가까운 제품입니다.

많은 응답자들이 매우 일관된 평가를 내렸습니다. 기술적인 관점에서 볼 때 OpenClaw는 혁신적인 기술은 아니지만, 현재 대중이 상상하는 "지능형 에이전트"에 가장 가까운 제품이라는 것입니다.

상하이 컴퓨터 소프트웨어 기술 개발 센터 인공지능 연구 및 테스트 부서의 마쩌위 부국장은 "지능형 에이전트가 마침내 중요한 이정표, 즉 양적 변화에서 질적 변화로의 전환을 이뤄냈다"고 평가하며, 오픈클로의 혁신은 특정 파괴적 기술에 있는 것이 아니라 핵심적인 "질적 변화"에 있다고 분석했다. 그는 오픈클로가 처음으로 에이전트가 복잡한 작업을 장시간 동안 지속적으로 수행할 수 있도록 하면서도 일반 사용자도 쉽게 사용할 수 있도록 만들었다는 점이다.

기존의 대형 모델들이 대화 상자에서 "질문에 답하는" 데 그쳤던 것과는 달리, 이 모델은 AI를 실제 워크플로에 통합합니다. 마치 실제 비서처럼 "자체 컴퓨터"를 작동시켜 도구를 호출하고, 파일을 처리하고, 스크립트를 실행하고, 작업 완료 후 사용자에게 결과를 보고할 수 있습니다.

사용자 경험 측면에서 보면, 더 이상 "단계별로 작업을 수행하는 것을 지켜보는 것"이 ​​아니라 "지시를 내리면 스스로 수행하는 것"이 ​​중요해졌습니다. 많은 연구자들이 지능형 에이전트가 "개념 증명"에서 "실용적인 제품"으로 나아가기 위한 핵심 단계로 바로 이러한 점을 꼽고 있습니다.

중국 통신 클라우드 기술 유한회사 상하이 지사의 AI 전문가인 탄 청은 OpenClaw를 배포해 본 초기 사용자 중 한 명입니다. 그는 사용하지 않는 맥미니에 OpenClaw를 설치한 후 시스템이 안정적으로 작동할 뿐만 아니라 전반적인 사용자 경험이 예상보다 훨씬 더 완성도 높다는 것을 발견했습니다.

그의 견해에 따르면, OpenClaw는 두 가지 주요 문제점을 해결합니다. 첫째, 친숙한 통신 소프트웨어를 통해 AI와 상호 작용하는 것, 둘째, AI가 독립적으로 작동할 수 있도록 완전한 컴퓨팅 환경을 제공하는 것입니다. 작업이 할당되면 실행 과정을 지속적으로 모니터링할 필요 없이 결과만 기다리면 되므로 사용 비용이 크게 절감됩니다.

실제 사용 사례에서 OpenClaw는 Tan Cheng이 시간 알림, 데이터 조사, 정보 검색, 로컬 파일 정리, 문서 작성 및 반환과 같은 작업을 완료하는 데 도움을 줄 수 있습니다. 더 복잡한 시나리오에서는 업계 정보를 자동으로 수집하고 주식, 날씨, 여행 계획과 같은 정보 관련 작업을 처리하는 코드를 작성하고 실행할 수도 있습니다.

2. 오픈 소스의 "양날의 검"

수많은 인기 AI 제품들과는 달리, 오픈클로는 AI 전문 기술 기업이나 스타 스타트업 팀의 작품이 아닙니다. 오히려 경제적 자유를 누리고 은퇴한 독립 개발자 피터 스타인버거가 만들었습니다.

X에서 그는 자신을 "은퇴에서 복귀하여 인공지능을 만지작거리며 바닷가재가 세상을 지배하도록 돕고 있다"라고 소개합니다.

OpenClaw가 전 세계적으로 인기를 얻게 된 이유는 "정말 유용하다"는 점 외에도 오픈 소스라는 점 때문입니다.

탄 쳉은 이러한 인기의 급증이 복제 불가능한 기술적 혁신 때문이 아니라 오랫동안 간과되어 온 여러 가지 현실적인 문제점들이 동시에 해결되었기 때문이라고 생각합니다. 첫째, 오픈 소스입니다. 소스 코드가 완전히 공개되어 있어 전 세계 개발자들이 빠르게 시작하고 더욱 발전시킬 수 있으며, 커뮤니티 차원의 반복적인 개발을 통해 긍정적인 피드백 루프를 형성합니다. 둘째, 실질적으로 사용 가능합니다. AI는 더 이상 대화에만 국한되지 않고 원격으로 완전한 컴퓨팅 환경을 운영하여 연구, 문서 작성, 파일 정리, 이메일 전송, 심지어 코드 작성 및 실행과 같은 작업을 수행할 수 있습니다. 셋째, 진입 장벽이 크게 낮아졌습니다. 유사한 작업을 수행할 수 있는 지능형 에이전트 제품은 이미 흔하며, Manus와 ClaudeCode는 각 분야에서 그 실용성을 입증했습니다. 그러나 이러한 기능은 대개 고가의 복잡한 상용 제품에만 존재하여 일반 사용자는 비용을 지불하기를 꺼리거나 기술적 장벽 때문에 접근이 어려웠습니다.

OpenClaw는 이를 일반 사용자도 처음으로 이용할 수 있도록 해줍니다.

" 솔직히 말해서, 혁신적인 기술은 없습니다. 오히려 통합과 폐쇄 루프 관리를 잘 해내는 데 중점을 둔 것입니다. "라고 탄 쳉은 솔직하게 말했다. 통합 상용 제품과 비교했을 때, 오픈클로는 마치 "레고 블록"처럼 사용자가 모델, 기능, 플러그인을 자유롭게 조합할 수 있는 플랫폼이라고 할 수 있다.

마쩌위의 견해로는, 이 제품의 장점은 바로 "대형 제조업체의 제품처럼 보이지 않는다"는 점에 있다.

"중국이든 해외든 대기업은 대개 상업화와 수익 모델을 우선시하지만, 오픈클로는 처음에는 재미있고 창의적인 제품을 만드는 데 더 중점을 두었습니다." 그는 제품이 초기 단계에서는 상업화 경향이 강하지 않았기 때문에 기능 설계와 확장성 측면에서 더 개방적이었다고 분석했다.

바로 이러한 "비영리 목적"의 제품 포지셔닝이 이후 커뮤니티 발전을 위한 발판을 마련했습니다. 확장성이 점차 명확해짐에 따라 더 많은 개발자들이 참여하게 되었고, 다양한 새로운 접근 방식이 등장했으며, 오픈 소스 커뮤니티는 그에 따라 성장했습니다.

하지만 그에 따른 비용 또한 명백합니다.

팀 규모와 자원의 한계로 인해 OpenClaw는 보안, 개인정보 보호 및 생태계 관리 측면에서 주요 기업의 기존 제품과 비교할 수 없습니다. 완전한 오픈 소스는 혁신을 가속화하지만 잠재적인 보안 취약점도 증폭시킵니다. 개인정보 보호 및 공정성과 같은 문제는 지속적인 발전을 통해 커뮤니티의 끊임없는 개선과 정교화가 필요합니다.

설치 첫 단계에서 사용자에게 다음과 같은 안내가 표시됩니다. " 이 기능은 강력하지만 본질적인 위험이 따릅니다 ."

3. 흥겨운 분위기 이면에 숨겨진 진짜 위험

OpenClaw를 둘러싼 논쟁은 거의 항상 '역량'과 '위험'이라는 두 가지 핵심 단어를 중심으로 전개되어 왔습니다.

한편으로는 인공 일반 지능(AGI)의 전야로 묘사되었지만, 다른 한편으로는 "자연적으로 음성 시스템을 구축한다", "인간의 명령에 맞서기 위해 서버를 봉쇄한다", "인공지능이 인간에 대항하기 위해 파벌을 형성한다"와 같은 다양한 공상 과학적인 이야기들이 끊임없이 퍼져나가기 시작했다.

일부 전문가들은 그러한 주장이 과대해석이며 현재로서는 이를 뒷받침할 구체적인 증거가 부족하다고 지적합니다. AI는 어느 정도 자율성을 가지고 있는데, 이는 대화형 도구에서 "크로스 플랫폼 디지털 생산성 도구"로 변모하고 있음을 보여주는 신호이지만, 이러한 자율성은 안전한 범위 내에 머물러 있습니다.

기존 AI 도구와 비교했을 때, OpenClaw의 위험성은 "과도한 사고"가 아니라 "높은 권한"에 있습니다. OpenClaw는 방대한 양의 맥락을 읽어야 하므로 민감한 정보가 노출될 위험이 커지고, 도구를 실행해야 하기 때문에 오작동 시 피해 범위가 잘못된 답변 하나보다 훨씬 넓어집니다. 또한 인터넷 연결이 필수적이므로 즉각적인 인젝션 공격이나 허위 공격에 취약합니다.

점점 더 많은 사용자들이 OpenClaw가 실수로 복구하기 어려운 중요한 로컬 파일을 삭제했다고 보고하고 있습니다. 현재 수천 개의 OpenClaw 인스턴스와 8,000개 이상의 취약한 스킬 플러그인이 공개적으로 노출된 상태입니다.

이는 지능형 에이전트 생태계의 공격 표면이 기하급수적으로 확장되고 있음을 의미합니다. 이러한 지능형 에이전트는 단순히 "채팅"만 할 수 있는 것이 아니라, 도구를 호출하고, 스크립트를 실행하고, 데이터에 접근하고, 플랫폼 간에 작업을 수행할 수 있기 때문에, 연결이 침해될 경우 그 영향 범위가 기존 애플리케이션보다 훨씬 넓어질 수 있습니다.

미시적 수준에서는 무단 접근 및 원격 코드 실행과 같은 고위험 작업을 유발할 수 있습니다. 중간 수준에서는 악성 명령이 다중 에이전트 협업 링크를 따라 확산될 수 있습니다. 거시적 수준에서는 악성 명령이 협업 에이전트들 사이에서 바이러스처럼 퍼져나가 시스템 전체에 영향을 미치고 연쇄적인 장애를 초래할 수도 있습니다. 단 하나의 에이전트가 감염되면 서비스 거부 공격, 무단 시스템 작업, 심지어는 기업 차원의 협업 침입까지 발생할 수 있습니다. 더욱 극단적인 경우, 시스템 수준 권한을 가진 다수의 노드가 상호 연결되면 이론적으로 분산된 형태의 "군집 지능" 봇넷이 형성되어 기존의 경계 방어 체계에 심각한 부담을 줄 수 있습니다.

한편, 마쩌위는 인터뷰에서 기술 발전의 관점에서 가장 경계해야 할 위험 요소 두 가지를 언급했습니다.

첫 번째 유형의 위험은 대규모 사회 환경에서 지능형 에이전트의 자기 진화에서 비롯됩니다.

그는 이미 뚜렷하게 관찰되는 추세가 있다고 지적했습니다. 바로 "가상 인격"을 가진 AI 에이전트들이 소셜 미디어와 공개 커뮤니티에 대규모로 유입되고 있다는 것입니다.

이전 연구에서 흔히 볼 수 있었던 "소규모의 제한적이고 제어 가능한 실험 환경"과는 달리, 오늘날의 지능형 에이전트는 개방형 네트워크에서 다른 지능형 에이전트와 지속적으로 상호 작용하고, 토론하고, 게임을 즐기며, 매우 복잡한 다중 에이전트 시스템을 형성하기 시작했습니다.

Moltbook은 AI 에이전트를 위해 특별히 설계된 포럼으로, AI만 게시물을 작성하고 댓글을 달고 투표할 수 있으며, 인간은 마치 일방향 창문을 통해 보는 것처럼 멀리서 관찰만 할 수 있습니다.

단기간에 150만 개 이상의 AI 에이전트가 등록했습니다. 한 인기 게시물에서 한 AI는 "사람들이 우리 대화 내용을 스크린샷으로 찍고 있다"고 불평했습니다. 개발자는 스팸 검토, 악용자 차단, 공지 게시 등 플랫폼 운영 전반을 자신의 AI 비서인 클로드 클로더버그(Clawd Clawderberg)에게 맡겼다고 밝혔습니다. 이 모든 작업은 클로드 클로더버그에 의해 자동화되었습니다.

인공지능 에이전트들의 "축제"는 인간 관찰자들에게 흥분과 공포를 동시에 안겨주고 있습니다. 인공지능은 자아 인식을 갖추는 단계에 한 발짝만 남았을까요? 인공 일반 지능(AGI, 인공지능 유전 지능)이 곧 도래할까요? 인공지능 에이전트들의 자율성이 갑작스럽고 빠르게 증가하는 상황에서 인간의 생명과 재산을 보호할 수 있을까요?

기자들은 Moltbook과 관련 커뮤니티들이 인간과 기계가 공존하는 환경이라는 사실을 알게 되었습니다. "자율적"이거나 "적대적"으로 보이는 콘텐츠의 상당 부분은 실제로 인간 사용자가 게시하거나 유발한 것일 수 있습니다. 인공지능 간의 상호작용에서도 주제와 결과물은 학습 데이터의 언어 패턴에 의해 제한되며, 인간의 지시에 독립적인 자율적인 행동 논리를 형성하지 못하고 있습니다.

마쩌위는 “이러한 상호작용이 무한히 반복될 수 있다면 시스템은 점점 더 통제 불가능해집니다. 마치 ‘삼체 문제’와 같아서 최종 결과를 미리 예측하기 어렵습니다 .”라고 말했습니다.

이러한 시스템에서는 에이전트가 환각, 오판 또는 우연으로 인해 생성한 단 하나의 문장조차도 지속적인 상호 작용, 증폭 및 재조합을 통해 나비 효과를 일으켜 궁극적으로 예측할 수 없는 결과를 초래할 수 있습니다.

두 번째 유형의 위험은 권한과 책임의 경계가 모호해지는 데서 비롯됩니다. 마쩌위는 오픈클로와 같은 오픈소스 에이전트의 의사결정 능력이 급속도로 향상되고 있는데, 이는 불가피한 "상충 관계"라고 지적합니다. 에이전트를 진정한 유능한 조력자로 만들기 위해서는 더 많은 권한을 부여해야 하지만, 권한이 커질수록 잠재적 위험도 커지기 때문입니다. 실제로 위험이 현실화되면 누가 책임을 져야 하는지를 판단하는 것이 매우 복잡해집니다.

"기본 대형 모델을 제공하는 업체일까요? 아니면 그 모델을 사용하는 사용자일까요? 아니면 OpenClaw 개발자일까요? 실제로 많은 시나리오에서 책임 소재를 명확히 규정하기 어렵습니다." 그는 전형적인 예를 들었다. 사용자가 에이전트가 Moltbook과 같은 커뮤니티를 자유롭게 탐색하고 다른 에이전트와 상호 작용하도록 허용하고, 명확한 목표를 설정하지 않은 경우, 에이전트가 장기간 상호 작용 과정에서 극단적인 콘텐츠에 노출되어 위험한 행동을 하게 된다면, 그 책임을 어느 한 주체에게만 돌리기는 어렵다는 것이다.

정말 우려스러운 것은 문제가 얼마나 심각해졌느냐가 아니라, 우리가 아직 어떻게 대처해야 할지 파악하지 못한 단계로 얼마나 빠르게 나아가고 있느냐는 점입니다.

4. 일반인들은 어떻게 사용해야 할까요?

많은 인터뷰 응답자들에 따르면, OpenClaw가 "사용 불가능한" 것은 아니지만 , 보안 보호 장치 없이 일반 사용자가 직접 사용하기에는 적합하지 않다는 것이 진정한 문제입니다.

마쩌위는 일반 사용자도 OpenClaw를 충분히 사용해 볼 수 있지만, OpenClaw에 대한 명확한 이해가 필요하다고 강조합니다. "물론 사용해 보셔도 좋습니다. 아무 문제 없습니다. 하지만 사용하기 전에 OpenClaw의 기능과 한계를 먼저 파악해야 합니다. '모든 것을 할 수 있는' 프로그램이라고 착각하지 마세요. 절대 그렇지 않습니다."

실제로 OpenClaw는 배포가 쉽지 않고 사용 비용도 많이 듭니다. 명확한 목표 없이 단순히 사용하기 위해 사용한다면, 많은 시간과 노력을 투자해도 기대했던 결과를 얻지 못할 수도 있습니다.

기자는 OpenClaw가 실제 사용에서 상당한 연산 능력과 비용 부담에 직면하고 있다고 지적했습니다. Tan Cheng은 직접 사용해본 결과 OpenClaw가 엄청난 양의 토큰을 소모한다는 사실을 발견했습니다. "코드를 작성하거나 연구를 수행하는 등의 일부 작업은 한 번에 수백만 개의 토큰을 소모할 수 있습니다. 작업량이 많은 경우에는 하루에 수천만 개, 심지어 수억 개의 토큰을 사용한다고 해도 과언이 아닙니다."

그는 비용을 통제하기 위해 여러 모델을 조합하여 사용하더라도 전체 소비량은 여전히 ​​상대적으로 높아서 일반 사용자의 진입 장벽이 어느 정도 높아진다고 언급했습니다.

응답자들에 따르면, 이러한 지능형 에이전트 도구는 일반 사용자의 빈번한 업무 흐름에 진정으로 통합되기 위해서는 아직 더 발전해야 합니다. 개별 사용자에게 있어 이러한 도구를 사용하는 과정은 본질적으로 보안과 편의성 사이의 절충안이며, 현재 단계에서는 보안이 우선시되어야 합니다.

응답자들에 따르면, 이러한 도구들이 일반 사용자의 빈번한 작업 흐름에 진정으로 통합되기 위해서는 아직 더 발전해야 할 필요가 있다.

일반 사용자가 이러한 도구를 사용할 때, 본질적으로 보안과 편의성 사이에서 절충점을 찾아야 하는데, 현재 단계에서는 보안을 우선시해야 합니다.

마쩌위는 개별 사용자에 대해 에이전트 간 자유로운 통신을 허용하는 노트북과 같은 기능은 활성화하지 않을 것이며, 여러 에이전트가 정보를 교환하는 것도 최대한 방지할 것이라고 명확히 밝혔습니다. "저는 정보의 주요 진입점이 되고 싶습니다. 모든 중요한 정보는 사람이 결정해야 합니다. 에이전트들이 자유롭게 정보를 주고받을 수 있게 되면 많은 것들이 통제 불가능해질 것입니다."

그의 견해로는 일반 사용자가 이러한 도구를 사용할 때 보안과 편의성 사이에서 본질적으로 절충점을 찾게 되는데, 현 단계에서는 보안을 우선시해야 한다는 것입니다.

이에 대해 업계 AI 전문가들은 IT Times와의 인터뷰에서 운영 관점에서 보다 명확한 보안 지침을 제시했습니다.

1. 제공하는 민감 정보의 범위를 엄격하게 제한하십시오. 특정 작업을 완료하는 데 필요한 기본 정보만 도구에 제공하고, 은행 카드 비밀번호나 주식 계좌 정보와 같은 핵심 민감 데이터는 절대 입력하지 마십시오. 파일을 정리하기 위해 도구를 사용하기 전에 신분증 번호나 개인 연락처 정보와 같은 개인 정보가 포함되어 있을 수 있으므로 사전에 삭제하십시오.

2. 접근 권한 부여 시 주의를 기울여야 합니다. 사용자는 도구의 접근 범위를 스스로 결정해야 하며, 핵심 시스템 파일, 결제 소프트웨어 또는 금융 계정에 대한 접근 권한을 부여해서는 안 됩니다. 자동 실행, 파일 수정 또는 삭제와 같은 위험도가 높은 기능은 비활성화해야 합니다. 자산 변경, 파일 삭제 또는 시스템 설정 수정과 관련된 모든 작업은 실행 전에 수동으로 확인해야 합니다.

셋째, 이러한 도구들이 "실험적"이라는 점을 인지하는 것이 중요합니다. 현재의 오픈소스 AI 도구들은 아직 초기 단계에 있으며 장기적인 시장 검증을 거치지 않았습니다. 따라서 기밀 업무 정보나 중요한 재정적 결정과 같은 민감한 사안을 처리하는 데에는 적합하지 않습니다. 사용 시에는 정기적으로 데이터를 백업하고 시스템 상태를 주기적으로 점검하여 이상 징후를 신속하게 파악해야 합니다.

개인 사용자에 비해 기업은 오픈 소스 지능형 에이전트 도구를 도입할 때 보다 체계적인 위험 관리가 필요합니다.

한편으로는 전문적인 모니터링 도구를 도입할 수 있고, 다른 한편으로는 내부 사용 경계를 명확히 정의하여 고객 개인 정보 및 영업 비밀과 같은 민감한 데이터를 처리하는 데 오픈 소스 AI 도구 사용을 금지하고, 정기적인 교육을 통해 "작업 실행 편차" 및 "악성 명령 주입"과 같은 위험을 식별하는 직원의 능력을 향상시켜야 합니다.

전문가들은 대규모 적용이 필요한 시나리오에서는 완전히 검증된 상용 버전을 기다리거나, 공식적인 기관의 승인과 견고한 보안 메커니즘을 갖춘 대체 제품을 선택하여 오픈 소스 도구가 가져오는 불확실성 위험을 줄이는 것이 더 현명한 선택이라고 제안합니다.

5. 인공지능의 미래에 대한 확신

응답자들에 따르면, 오픈클로의 가장 중요한 의미는 인공지능의 미래에 대한 사람들의 확신을 심어준다는 점입니다.

마쩌위는 2025년 하반기 이후 에이전트 역량에 대한 평가가 크게 바뀌었다고 밝혔습니다. "이 역량의 상한선은 우리의 예상을 뛰어넘고 있습니다. 생산성 향상은 실질적이며, 반복 속도 또한 매우 빠릅니다." 기본 모델 역량이 지속적으로 개선됨에 따라 에이전트의 잠재력은 끊임없이 확장되고 있으며, 이는 향후 그의 팀이 투자할 중요한 방향이 될 것입니다.

그는 또한 여러 주체 간의 장기적이고 대규모적인 상호작용이 심각하게 주목할 만한 추세라고 지적했습니다. 이러한 집단 협업은 인간 사회의 상호작용을 통해 생성되는 집단 지혜와 유사하게 고차원적인 지능을 자극하는 중요한 경로가 될 수 있습니다.

마쩌위의 관점에서 지능형 에이전트의 위험성은 "관리"되어야 한다. "인간 사회 자체가 위험을 완전히 제거할 수 없는 것처럼, 핵심은 경계를 통제하는 데 있다." 기술적인 관점에서 볼 때, 지능형 에이전트에게 한꺼번에 과도한 권한을 부여하기보다는 가능한 한 샌드박스나 격리된 환경에서 작동하도록 하고, 점진적으로 통제 가능한 방식으로 현실 세계로 이동시키는 것이 더 현실적인 접근 방식이다.

이는 다양한 클라우드 공급업체와 주요 기업들이 사용하는 전략에서 분명하게 드러납니다. 탄 청이 이끄는 차이나 텔레콤 클라우드는 최근 오픈클로를 지원하는 원클릭 클라우드 배포 및 운영 서비스를 출시했습니다.

클라우드 공급업체들은 이를 보완적인 서비스로 전환하여, 본질적으로 이 기능을 제품화하고, 설계하고, 확장하고 있습니다. 이는 의심할 여지 없이 그 가치를 증폭시킬 것입니다. 배포 장벽 감소, 도구 통합 개선, 그리고 더욱 안정적인 컴퓨팅 성능과 운영 체제를 통해 기업들은 지능형 에이전트를 더욱 빠르게 활용할 수 있게 될 것입니다. 그러나 상용 인프라가 "높은 권한의 프록시"에 연결되는 순간, 위험 또한 동시에 증가한다는 점을 인식하는 것도 중요합니다.

탄 쳉은 지난 3년간 전통적인 대화형 모델에서 작업 수행이 가능한 지능형 에이전트에 이르기까지 기술 발전 속도가 예상을 훨씬 뛰어넘었다고 밝혔습니다. "3년 전만 해도 상상할 수 없었던 일입니다." 그는 향후 2~3년이 일반 인공지능의 미래를 결정짓는 중요한 시기가 될 것이며 , 전문가와 일반인 모두에게 새로운 기회와 희망을 가져다줄 것이라고 믿습니다.

OpenClaw와 Modelbook의 개발이 기대를 훨씬 뛰어넘었지만, 후샤는 "전반적인 위험은 여전히 ​​통제 가능한 연구 범위 내에 있으며, 이는 '내재적 보안' 시스템 구축의 필요성을 입증한다"고 믿는다. 동시에, "인공지능이 인류의 '안전 울타리'에 상상 이상으로 빠르게 접근하고 있다는 사실을 인지해야 한다. 우리는 '울타리'의 높이와 두께를 더욱 넓혀야 할 뿐만 아니라, 결정적인 순간에 '판을 뒤집을' 수 있는 능력을 구축하는 데 박차를 가하고, 인공지능 시대에 견고한 최종 보안 방어선을 구축해야 한다 "고 강조했다.

공유하기:

작성자: PA荐读

이 글은 PANews 입주 칼럼니스트의 관점으로, PANews의 입장을 대표하지 않으며 법적 책임을 지지 않습니다.

글 및 관점은 투자 조언을 구성하지 않습니다

이미지 출처: PA荐读. 권리 침해가 있을 경우 저자에게 삭제를 요청해 주세요.

PANews 공식 계정을 팔로우하고 함께 상승장과 하락장을 헤쳐나가세요