원작자: 이하오톈
인공지능(AI) 시대에 변호사들은 기밀 유지 의무를 위반하지 않고 AI를 어떻게 효과적으로 활용할 수 있을까요? 의뢰인 계약서를 ChatGPT에 직접 붙여넣을 경우 징계 조치를 받을 수 있습니다. 이 글에서는 변호사의 기밀 유지 의무, 주의 사항, 그리고 AI 서비스 제공업체 선정이라는 관점에서 제가 구축한 환경을 소개합니다.
변호사의 비밀유지 의무
1. 중국: 변호사법 제33조
첫째, 잘 알려진 "중화인민공화국 변호사법" 제33조에는 다음과 같이 규정되어 있습니다.
변호사는 업무 수행 과정에서 알게 된 국가 기밀이나 영업 비밀을 비밀로 유지해야 하며, 의뢰인의 사생활을 누설해서는 안 된다. 또한 변호사는 업무 수행 과정에서 알게 된 정보나 상황 중 의뢰인이나 다른 사람이 공개를 원하지 않는 정보나 상황을 비밀로 유지해야 한다.
중국에서는 변호사법에 따른 비밀유지 의무가 형사 처벌 의 대상이 될 정도로 강화되었습니다. 형법 제309조는 공개해서는 안 되는 사건 정보를 누설하는 행위를 범죄로 규정하고 있습니다. 또한, 변호사업무관리조치 제38조는 변호사가 업무 수행 과정에서 알게 된 영업비밀 및 개인정보를 누설하는 것을 명시적으로 금지하고 있습니다.
현재 각 지역 변호사 협회와 법무부는 인공지능 생성기 활용에 대한 구체적인 지침을 마련해 놓지 않았습니다. 따라서 우리는 미국의 관련 규정을 참고할 수 있습니다.
2. 미국: ABA 모델 규칙 1.6 및 뉴욕주 변호사 윤리위원회 규칙 1.6
뉴욕주 변호사 자격증(또는 다른 미국 주 변호사 자격증)을 소지하고 있다면, 고객 정보를 기밀로 유지해야 할 의무는 단순한 직업 윤리의 문제가 아니라 법적으로 강제되는 징계 규정입니다.
뉴욕주 RPC 규칙 1.6은 다음과 같이 명시합니다 .
"변호사는 의뢰인이 충분한 설명을 듣고 동의하지 않는 한, 고의로 기밀 정보를 누설해서는 안 된다."
여기서 "기밀 정보"라는 용어는 매우 광범위합니다. 법원 기밀에만 국한되지 않고, 변호사가 사건을 대리하는 과정에서 알게 된 모든 정보 , 즉 의뢰인의 이름, 주소, 재무 정보, 거래 조건, 사업 전략 등을 정보 출처와 관계없이 모두 포함합니다.
더욱 중요한 것은 규칙 1.6(c) 입니다.
변호사는 의뢰인 대리와 관련된 정보가 부주의로 또는 무단으로 공개되거나 무단으로 접근되는 것을 방지하기 위해 합리적인 노력을 기울여야 한다.
이는 고객 정보를 선제적으로 공개할 수 없을 뿐만 아니라, 그러한 공개를 방지하기 위해 합리적인 조치를 취해야 함을 의미합니다.
2024년 7월, 미국변호사협회(ABA)는 생성형 인공지능 사용과 관련하여 미국 법조계에서 발표한 최초의 포괄적인 윤리 지침 인 공식 의견서 512호를 공식 발표했습니다. 이 의견서에는 다음과 같은 내용이 명시적으로 언급되어 있습니다.
변호사는 의뢰인 담당자와 관련된 정보를 (생성형 AI) 도구에 입력하기 전에 해당 정보가 도구 내부 또는 외부의 다른 개인에게 "공개"되거나 "접근될" 가능성을 평가해야 합니다.
의견 512는 AI 도구를 클라우드 컴퓨팅 서비스에 비유하며 변호사에게 다음과 같은 사항을 요구합니다.
- 이번 조사는 사용된 AI 도구의 신뢰성, 보안 조치 및 데이터 처리 정책에 초점을 맞췄습니다.
- 도구 구성이 기밀성과 보안을 보호하는지 확인하십시오 .
- 비밀유지 의무가 강제력을 갖는지(예: 계약상 구속력이 있는지) 확인하십시오 .
- 제공자 정책 위반 또는 변경 사항 모니터링
간단히 말해서, 철저한 규정 준수 평가를 거치지 않은 이상 고객 계약서를 ChatGPT에 직접 붙여넣을 수 없습니다 .
이는 우리가 어느 관할권에서 활동하든 기밀 유지 의무는 절대적인 기본 원칙이라는 것을 의미합니다.
3. 인공지능이 기밀 유지 의무를 더 복잡하게 만드는 이유는 무엇입니까?
고객 계약 내용을 소비자용 AI 애플리케이션(ChatGPT, Claude, Kimi 등)에 입력할 때, 해당 텍스트는 제3자 서버로 전송됩니다. 제공업체가 데이터를 모델 학습에 사용하지 않는다고 주장하더라도 다음과 같은 위험이 여전히 존재합니다.
- 데이터 전송 : 고객의 개인 식별 정보(PII)는 당사의 관리 범위를 벗어나 제3자 인프라로 전송됩니다.
- 훈련 위험 : 소비자용 제품은 모델 훈련을 위한 입력값을 사용할 수 있습니다(서비스 계약을 주의 깊게 검토해야 합니다).
- 위반 노출 : 이제 우리는 자체적인 윤리적 의무를 이행하기 위해 공급업체의 보안 조치에 의존합니다.
- 감사 공백 : 데이터 전송 후 발생한 상황을 확인할 수 없습니다.
- 정보에 입각한 동의 : 모든 AI 상호작용에 대해 고객의 동의를 얻는 것은 현실적으로 불가능합니다.
대부분의 변호사들은 인공지능(AI)을 아예 사용하지 않거나(경쟁력 상실) "일단 써보고 결과를 보자"는 접근 방식을 취합니다(징계 조치 위험). 어느 쪽도 좋은 해결책이 아닙니다. 관련 고려 사항들은 3절에서 자세히 다루겠습니다.
OpenClaw: 어떻게 시작해야 할까요?
1. OpenClaw란 무엇인가요?
OpenClaw는 오픈 소스 다중 에이전트 AI 비서 플랫폼입니다. 간단히 말해, OpenClaw는 자체 하드웨어에서 실행되는 "AI 게이트웨이"로, 각기 다른 역할, 메모리 및 도구를 가진 여러 AI 에이전트를 동시에 관리할 수 있습니다.
2. 핵심 기능
3. 어떻게 작동하나요?
OpenClaw는 로컬 장치에서 "게이트웨이"로 실행됩니다.
OpenClaw 자체는 무료 오픈 소스이지만, 다음이 필요합니다.
- 작동 중인 장치.
필요하지 않은 컴퓨터는 무엇이든 사용하셔도 됩니다. 맥 미니도 괜찮습니다. 하지만 맥 사용을 권장합니다. 현재 OpenClaw 생태계가 대부분 맥/리눅스를 기반으로 구축되어 있기 때문입니다. 윈도우 버전 개발에도 많은 사람들이 참여하고 있지만, 현재로서는 맥 버전이 더 안정적입니다.
알리바바 클라우드나 텐센트 클라우드 같은 서비스 제공업체에서 VPS를 임대하세요. 키미는 최근 원클릭 배포 도구인 오픈클로(OpenClaw)를 출시했습니다. 저렴한 비용으로 오픈클로를 사용해보고 싶다면 오픈클로부터 시작해 보세요.
- AI 모델용 API 키 (예: 클라우드 기반 모델 사용 시)
Google Gemini, Alibaba Cloud, Dark Side of the Moon과 같은 LLM 클라우드 서비스 제공업체에서 직접 API를 구매할 수 있습니다. 가격 외에도 개발자로부터 API를 구매하는 또 다른 장점은 일부 클라우드 서비스 제공업체에서 배치 API 서비스를 제공한다는 점입니다. 시급하지는 않지만 대량으로 처리해야 하는 작업의 경우, 클라우드 서비스 제공업체는 24시간 이내 응답을 조건으로 50% 할인 혜택을 제공합니다.
두 번째 옵션은 OpenRouter 또는 Silicon Streaming과 같은 대규모 모델 통합 플랫폼(LLM Aggregator)입니다. 이러한 클라우드 서비스 제공업체의 장점은 다양한 LLM 옵션을 제공하는 통합 인터페이스와 라우팅 기능을 통합하여 서로 다른 LLM 간의 자동 변환을 가능하게 한다는 점입니다.
또는 (클라우드에 의존하고 싶지 않다면) Ollam+ 오픈소스 모델을 로컬에 설치할 수도 있습니다. 이 옵션은 유연하며 호스트 구성에 따라 달라집니다.
4. 제가 맥 미니를 사용하는 이유는 무엇인가요?
- 로컬 운영 및 프로덕션 환경 격리 : 전용 컴퓨터를 사용하면 OpenClaw가 오작동하여 중요한 작업 파일을 삭제하는 것을 방지할 수 있습니다. 물론 VPS를 임대하는 것도 물리적 격리를 가능하게 합니다. 하지만 VPS는 일반적으로 클라우드에 위치한 Linux 시스템이므로 로컬 운영만큼 원활한 사용자 경험을 제공하지는 않습니다. 우수한 네트워크 환경이 필요한 작업에는 VPS가 여전히 좋은 선택입니다. 또한, 임대 VPS는 일반적으로 사양이 낮으며, 고사양 VPS를 임대하려면 비용이 많이 듭니다.
- 애플 실리콘 통합 메모리 : M4 칩의 통합 메모리 아키텍처는 고가의 GPU 없이도 대규모 AI 모델을 메모리에 직접 로드하여 실행할 수 있도록 합니다. 이 통합 메모리 아키텍처는 윈도우에서 흔히 볼 수 있는 비디오 메모리와 플래시 메모리를 결합한 것입니다. 이를 통해 대규모 모델 실행 시 메모리를 유연하게 할당할 수 있으며, 별도의 그래픽 카드를 구매하는 것보다 비용 효율적입니다.
- 32GB 메모리 : 35B 파라미터 MoE 모델(예: Qwen 3.5 35B)을 실행하기에 충분하며, 추론 속도는 초당 약 18토큰입니다.
- 극도로 낮은 전력 소비, 컴팩트한 크기, 그리고 매우 낮은 소음 : 맥 미니는 대기 모드에서 약 5W, AI 모델을 최대 부하로 실행할 때 15~30W의 전력을 소비합니다. 한 달 내내 24시간 가동해도 전기 요금은 10위안도 채 되지 않습니다. 새로운 맥 미니는 손바닥만 한 크기로 책장이나 책상 한쪽 구석에 쉽게 놓을 수 있습니다. AI 모델을 최대 부하로 실행할 때조차도 소음이 매우 적습니다.
기밀 유지를 할 때 무엇에 주의해야 할까요?
OpenClaw 또는 기타 법률 업무용 AI 도구를 사용할 때는 세 가지 수준의 기밀 유지에 주의해야 합니다.
1. 통신 채널의 기밀 유지
인공지능 비서와의 소통 채널은 우리의 첫 번째 방어선입니다.
기밀성이 매우 높은 법률 업무의 경우, 통신 채널로는 종단간 암호화 소프트웨어를 우선적으로 사용하는 것이 좋습니다. "제 의뢰인들은 보통 위챗으로 연락하지 않나요?"라고 질문하실 수도 있습니다. 맞습니다. 의뢰인이 주로 위챗을 사용한다는 것은 묵시적 동의가 있는 것으로 간주됩니다. 즉, 의뢰인은 위챗을 정보 전송 채널로 사용하는 데 동의한 것입니다. 만약 저희가 암호화되지 않은 채널을 통해 의뢰인의 기밀 정보를 전송한다면, 최소한 의뢰인의 서면 동의를 먼저 받아야 합니다.
2. API 제공업체 선택: 비용 효율성 vs. 기밀성
이는 가장 중요하면서도 가장 쉽게 간과되는 문제입니다.
- 코딩 계획
최근 몇 년 동안 국내 클라우드 업체들은 최상위 모델 API 접근 권한을 매우 저렴한 가격으로 제공하는 매력적인 "코딩 플랜"을 출시해 왔습니다.
알리바바 클라우드의 바이리안 플랫폼을 예로 들어보겠습니다.
- 라이트 요금제: 첫 달 7.9엔, 둘째 달 20엔, 이후 매달 40엔입니다.
- 프로 플랜: 첫 달 39.9엔, 둘째 달 100엔, 이후 매월 200엔.
- 포함된 모델: Qwen3.5-Plus, Kimi K2.5, GLM-5, MiniMax M2.5
가격은 확실히 매력적입니다. 구독 모델이기 때문에 API 사용량 제한을 초과할 걱정도 없습니다. 다만, 바이롄 코딩 플랜의 데이터 정책에 있는 다음 문구를 꼭 확인해 주세요.
"코딩 플랜을 사용하는 동안 모델 입력값과 모델에서 생성된 콘텐츠는 서비스 개선 및 모델 최적화에 사용됩니다."
이는 의뢰인 정보가 포함될 수 있는 법률 문서를 포함하여 우리가 입력하는 모든 정보가 모델 학습 및 최적화에 사용된다는 것을 의미합니다. 변호사에게 있어 이는 기밀 유지 의무를 직접적으로 위반하는 행위입니다.
- API를 선택할 때 고려해야 할 주요 정보
코딩 플랜은 기밀 정보를 처리할 수 없으며 (물론 클라우드 서비스 제공업체는 기밀 정보 처리를 위한 코딩 플랜을 제공하지 않습니다), 따라서 API 토큰을 직접 구매하는 것이 더 나은 선택일 수 있습니다. AI 모델 API를 선택할 때 변호사는 서비스 계약에서 다음 사항들을 검토해야 합니다.
- 주요 API 제공업체 비교
API 제공업체가 ZDR(제로 데이터 복구)을 보장하고 학습 목적으로 사용하지 않는다고 주장하더라도, 변호사가 이러한 약속의 이행 여부를 완전히 검증할 수는 없다는 점을 강조하는 것이 중요합니다. 클라우드 서비스 제공업체가 개별 사용자에게 이러한 주장을 검토할 수 있는 접근 권한을 부여할 리는 없다고 생각합니다. ABA 의견 512호로 돌아가 보면, 변호사는 AI 도구의 보안 조치를 조사하고 기밀 유지 이행 여부를 확인해야 합니다. 기밀 유지 조치 이행 여부를 확인할 수 없다면, 해당 API는 의견 512호의 요건을 충족하지 못한다고 판단할 수 있습니다. LLM(법률 문서 관리)은 블랙박스와 같아서 데이터가 전송된 후 정확히 어떤 일이 발생하는지 확인할 수 없습니다.
3. 가장 안전한 옵션: 로컬 모델
기밀 유지에 대한 요구 사항이 최고 수준이라면, 로컬 운영 모델만이 100% 데이터 보안을 보장할 수 있는 유일한 해결책입니다.
이점:
• 데이터는 기기를 벗어나지 않으므로 100% 개인 정보 보호가 보장됩니다.
• API 수수료 없음, 사용 제한 없음
• 네트워크에 의존하지 않고 항상 사용 가능합니다.
• 공급자 정책 변경의 영향을 받지 않습니다.
결점:
• 추론 속도 저하 (클라우드 환경에서 100 tok/s 이상에 비해 18 tok/s)
• 해당 모델의 성능은 최첨단 클라우드 모델(GPT-4o, Claude Opus 등)에 비해 떨어집니다.
• 하드웨어 비용이 필요합니다.
• 컨텍스트 창은 메모리에 의해 제한됩니다.
권장 로컬 모델:
참고: MoE(Mixture of Experts) 는 총 35바이트의 파라미터를 가지고 있지만, 각 추론 과정에서 약 3바이트의 파라미터만 활성화하는 모델 아키텍처입니다. 따라서 계산 부하와 메모리 요구량을 크게 줄일 수 있습니다. 이러한 이유로 35바이트 모델은 32GB RAM을 탑재한 Mac Mini에서도 원활하게 실행될 수 있습니다.
내 설정
저는 뉴욕에서 변호사로 활동하고 있으므로, 의견서 512호를 기반으로 제가 실제로 사용하는 OpenClaw 설정은 다음과 같습니다.
1. 커뮤니케이션 채널
Signal(종단간 암호화)은 법률 업무의 주요 채널로 사용됩니다. 법률 대리인(변호사)과의 모든 대화는 Signal을 통해 이루어지며, 통신 수준에서 완벽한 암호화를 보장합니다. 일상적이고 기밀이 아닌 업무는 Telegram을 통해 처리됩니다.
2. 모델 구성
저는 하이브리드 모델 전략을 채택했습니다.
3. 핵심 보안 프로세스: 익명화된 파이프라인
이는 전체 구성에서 가장 중요한 부분입니다. 민감한 문서를 작성하거나 검토하기 위해 강력한 클라우드 AI를 사용해야 할 때:
핵심은 mapping.json 파일 (실제 데이터와 자리 표시자 간의 매핑 테이블) 이 기기를 벗어나지 않는다는 점입니다. 클라우드 기반 AI는 "{COMPANY_1}이 {COMPANY_2}의 30%를 인수한다"는 정보만 인식할 뿐, 실제 당사자가 누구인지는 알지 못하며 알 수도 없습니다.
4. 클라우드 기반 편집 도구로 소비자용 AI인 클로드 코드(Claude Code)를 선택해야 하는 이유는 무엇일까요?
- 구독 : Max 플랜은 월 100달러 또는 200달러이며, API 사용량 기반 요금제보다 경제적입니다.
- 최신 고성능 모델 : 구독자는 최신 출시 모델(예: Claude Opus 4)을 바로 사용할 수 있습니다.
- API 가격 비교 : Claude API 입력 비용은 백만 토큰당 3달러이고, 출력 비용은 백만 토큰당 15달러입니다. 복잡한 계약을 검토하는 데 수백만 개의 토큰이 소모될 수 있으므로, 사용량 기반 구독 방식으로는 구독료를 훨씬 초과하게 됩니다. 가격이 문제가 되지 않는다면, 암호화 후 Opus API를 직접 사용하는 것이 더 원활한 경험을 제공하지만 비용은 더 많이 들 것입니다. 현재 제 토큰 사용량을 기준으로 Claude API만 사용할 경우 월 500달러 이상이 소요될 것으로 예상됩니다.
이 솔루션은 클라우드 AI가 기밀 정보를 수신한 적이 없으므로 ABA 공식 의견 512의 모든 요구 사항을 근본적으로 충족합니다.
5. 하드웨어 구성
6. 비용 계산
반면, Harvey AI와 같은 기업용 법률 AI 플랫폼은 사용자당 월 1,000~1,200달러(약 7,200~8,600엔)의 가격으로 책정되며, 일반적으로 최소 20석 이상이 필요합니다.
7. 오픈 소스 프로젝트
이 구성 및 워크플로를 GitHub에 오픈 소스로 공개했습니다.
VibeCodingLegalTools(https://github.com/Reytian/VibeCodingLegalTools) - 법률 실무를 위한 Rule 1.6 준수 AI 워크플로우
본 프로젝트에는 다음이 포함됩니다:
완전 익명화/익명화 해제 도구(LDA)
- OpenClaw 구성 템플릿
- 에이전트 워크스페이스 템플릿
- 고객 메모리 시스템 템플릿
- 상세한 윤리 규정 준수 분석
법률 AI에 대한 나의 생각
1. 완벽한 현지화가 이상적이지만, 현재로서는 현실적이지 않습니다.
이상적인 세상에서는 변호사들이 AI를 완전히 로컬에서 실행해야 합니다. 모든 데이터는 변호사 자신의 기기에 보관되어 유출 위험이 전혀 없어야 하죠. 하지만 현실은 이렇습니다.
- 모델 성능 격차 : 로컬에서 실행 가능한 모델(35바이트 파라미터 수준)과 최첨단 클라우드 모델(수조 바이트 파라미터 수준) 간에는 상당한 성능 격차가 존재합니다. 간단한 법률 상담 및 정보 검색에는 로컬 모델로도 충분하지만, 복잡한 계약서 작성, 다단계 법적 추론, 고품질 텍스트 생성과 같은 작업에는 로컬 모델의 성능이 여전히 부족합니다.
- 하드웨어 비용 : 700억 개 이상의 파라미터를 처리하는 고성능 로컬 모델을 실행하려면 64GB 이상의 메모리가 필요하므로 하드웨어 비용이 급격히 증가합니다. 이는 개인 변호사나 소규모 로펌에게는 경제적으로 부담이 될 수 있습니다.
- 모델 업데이트 지연 : 오픈 소스 모델은 상용 최첨단 모델보다 업데이트 속도가 항상 느립니다.
2. 클라우드에 전적으로 의존하는 것에도 문제가 있습니다.
반면에 클라우드 API에 전적으로 의존하는 것 또한 해결책이 아닙니다.
API 제공업체가 ZDR(데이터 무보존)을 약속하고 데이터가 학습에 사용되지 않을 것이라고 하더라도, 변호사가 의심스러운 데이터 유출을 조사하는 것은 사실상 불가능합니다 .
LLM은 블랙박스 입니다. 우리가 수집한 데이터가 학습에 사용되었는지 확인하기 위해 블랙박스를 열어볼 수 없습니다. 우리는 제공업체의 약속만을 믿을 수밖에 없습니다.
변호사 입장에서 "신뢰"는 규정 준수 전략이 아닙니다. 규칙 1.6은 "합리적인 노력"을 요구하는 것이지, 합리적인 신뢰를 요구하는 것이 아닙니다.
3. 현재로서는 하이브리드 모델이 최적의 솔루션입니다.
이것이 제가 하이브리드 모델 전략을 선택한 이유입니다.
1. 일반 상담 → 현지 모델 : 간단한 법률 문제, 정보 검색 및 예비 분석은 모두 현지에서 완료됩니다.
2. 복잡한 작업 → 클라우드 API : 더 강력한 추론 능력이 필요한 경우 신뢰할 수 있는 API를 사용하되, 민감한 정보 전송은 피해야 합니다.
3. 민감한 문서 → 익명화 파이프라인 : 기밀 문서에 클라우드 기반 AI 처리가 필요한 경우, 먼저 로컬에서 익명화된 후 클라우드로 전송되어 처리되고, 최종적으로 로컬에 복원됩니다.
이 솔루션의 핵심 아이디어는 기술적 수단(익명화)을 사용하여 신뢰 격차를 해소하는 것입니다. 고객 데이터는 AI 제공업체에 제공된 적이 없으므로, AI 제공업체가 고객 데이터를 제대로 보호할 것이라고 믿을 필요가 없습니다.
클라우드 기반 AI는 고객의 실제 이름 대신 항상 "{COMPANY_1}"과 "{PERSON_1}"로 인식합니다.
결론
인공지능이 변호사를 대체하지는 않을 것입니다. 하지만 인공지능을 활용할 줄 아는 변호사는 결국 그렇지 못한 변호사를 대체하게 될 것입니다.
핵심은 AI를 사용할지 여부가 아니라 어떻게 사용할지입니다. 기밀 유지는 법률 실무의 초석이며, AI 도입의 장애물이 되어서는 안 되고, 오히려 AI 솔루션 선택의 기준으로 삼아야 합니다.
Legal AI는 무엇을 판매하고 있나요? 제 생각에는 두 가지가 있는 것 같습니다.
1. 지식;
2. 도구.
저는 대부분의 변호사들이 이미 충분한 지식을 갖추고 있다고 생각합니다. 그들에게 필요한 것은 단지 더 적합한 도구일 뿐입니다. 맥 미니 가격이 하비 AI 월 구독료보다 저렴하다면, 개인 변호사들에게는 자체적인 규정 준수 도구를 구축하는 것이 더 실용적인 선택일 수 있습니다.
맥 미니, 오픈클로(OpenClaw) 제품군, 그리고 암호화된 통신 채널만 있으면 규정을 준수하는 AI 기반 법률 워크스테이션을 구축할 수 있습니다.
본 문서는 법률 자문을 구성하지 않습니다. 변호사는 본 문서에 설명된 업무 절차를 해당 관할 지역의 특정 윤리 규정에 따라 평가하고 필요한 경우 전문가 윤리 지침을 구해야 합니다.
참고 자료:
- 미국변호사협회(ABA) 전문가 윤리규칙 제1.6조
- ABA 공식 의견 512호 — 생성형 인공지능 도구(2024)
- 중화인민공화국 변호사법 (2017년 개정판)
- 오픈클로(https://openclaw.ai/)
- VibeCodingLegalTools—GitHub (https://github.com/Reytian/VibeCodingLegalTools)

