원작자: 벤 톰슨, 스트라테처리
작성: 페기, 블록비츠
편집자 주: 4월 27일, OpenAI와 마이크로소프트는 협력 계약을 수정하여 Azure가 더 이상 OpenAI 모델에 대한 독점권을 보유하지 않게 되었습니다. 이로써 OpenAI는 AWS와 같은 다른 클라우드 플랫폼으로 제품을 확장할 수 있게 되었습니다.
참고: Azure는 마이크로소프트의 클라우드 컴퓨팅 플랫폼으로, 일반적으로 마이크로소프트 Azure라고 불립니다. AWS 및 구글 클라우드와 마찬가지로, 주로 기업에 서버, 데이터베이스, 스토리지, 네트워킹, 보안 및 AI 모델 배포와 같은 클라우드 서비스를 제공합니다.
외부인들에게는 이것이 단순히 클라우드 서비스 유통 채널의 변화처럼 보일 수 있지만, 샘 알트만과 AWS CEO 맷 가먼의 대화를 보면 더욱 중요한 변화는 AI가 "모델 호출"에서 "엔터프라이즈급 워크플로"로 이동하고 있다는 점입니다.
이 글은 기술 비즈니스 분석 매체인 스트라테처리(Stratechery)가 샘 알트만과 맷 가먼과 진행한 인터뷰를 번역한 것입니다. 오픈AI와 AWS의 협력으로 탄생한 베드락 매니지드 에이전트(Bedrock Managed Agents)를 중심으로 클라우드 컴퓨팅과 AI 플랫폼 마이그레이션의 유사점, 엔터프라이즈급 에이전트 배포의 어려움, 에이전트코어(AgentCore)와 매니지드 서비스의 차이점, 그리고 AI 인프라 경쟁에서 AWS의 위치 등을 다룹니다.
참고: 스트라테처리(Stratechery)는 기술 분석가 벤 톰슨이 설립했으며, 기술 기업 전략 변화, 플랫폼 경제, 클라우드 컴퓨팅, 인공지능(AI), 미디어 산업에 중점을 두고 있습니다. 주로 심층 분석과 임원 인터뷰로 구성된 콘텐츠를 제공하며, 실리콘 밸리의 기술 및 투자 업계에서 높은 영향력을 행사하고 있습니다. 대형 기술 기업의 전략적 움직임을 파악하는 중요한 창구로 여겨집니다.
Bedrock Managed Agents의 핵심은 AWS 고객이 OpenAI 모델을 활용할 수 있도록 지원하는 것뿐만 아니라, 이러한 모델을 AWS의 기본 ID, 권한, 로깅, 거버넌스, 배포 및 보안 시스템에 통합하는 것입니다. 다시 말해, 기업에 진정으로 필요한 것은 더 똑똑한 채팅 창이 아니라, 조직 내에서 운영되고, 데이터에 접근하고, 작업을 수행하며, 권한 경계를 준수할 수 있는 "가상 동료" 시스템입니다.
이번 협력의 가장 주목할 만한 측면은 바로 이것입니다. AI 경쟁의 초점이 "누가 가장 강력한 모델을 가지고 있는가"에서 "누가 그 모델을 활용 가능한 기업 인프라로 전환할 수 있는가"로 옮겨가고 있다는 점입니다. 개별 개발자 환경에서는 Codex가 로컬 환경을 활용하여 복잡한 문제들을 해결할 수 있지만, 기업 환경에서는 에이전트가 데이터베이스, SaaS, 권한 시스템, 보안 경계 및 규정 준수 요구 사항을 처리해야 합니다.
어떤 의미에서 이번 협력은 클라우드 컴퓨팅 초기의 논리를 반영합니다. AWS는 기업의 창업 비용을 낮춰 소규모 팀이 자체 서버를 구축하지 않고도 인터넷 제품을 개발할 수 있도록 지원했습니다. 이제 OpenAI와 AWS는 기업들이 AI 에이전트를 배포할 때 진입 장벽을 낮추어 모델, 권한, 데이터 및 보안 시스템을 직접 구축하지 않고도 AI를 실제 비즈니스 프로세스에 통합할 수 있도록 지원하고자 합니다. 이번에는 도입 속도가 더 빠르고 기업의 요구가 더 시급하다는 점이 다릅니다.
따라서 이 글은 AWS에서 OpenAI 모델을 "나열"하는 것에 관한 것이 아니라, AI 인프라가 다음 단계로 진입하는 것에 관한 것입니다. 모델, 클라우드, 데이터, 그리고 기업 접근 제어 시스템이 긴밀하게 통합되고 있는 시대입니다. 미래의 경쟁은 더 이상 API 가격, 칩 성능, 또는 모델 순위에 관한 것이 아니라, 기업이 안심하고 사용하고, 지속적으로 확장하며, 진정으로 실행할 수 있는 AI 플랫폼을 누가 구축할 수 있느냐에 달려 있을지도 모릅니다.
다음은 원문입니다.
소개
안녕하세요. 어제 말씀드린 대로, 오늘 Stratechery 인터뷰는 제 원래 발표 일정(목요일에서 화요일로)보다 앞당겨졌지만, 인터뷰 주제에 대한 엠바고 제한 때문에 실제 방송 시간(오전 6시에서 오후 1시로)은 늦어졌습니다.
지난 며칠 동안 이 금지 조치로 인해 저는 다소 난처한 입장에 놓였습니다. 지난 금요일, 저는 OpenAI CEO 샘 알트만과 AWS CEO 맷 가먼을 만나 OpenAI 기반의 Bedrock Managed Agents에 대해 인터뷰했습니다. 당연히 제가 제기한 질문 중 하나는, 이 협력이 Azure가 OpenAI 모델에 대한 독점적 접근 권한을 갖도록 하는 OpenAI와 Microsoft 간의 계약과 정확히 어떻게 조화를 이루는가 하는 것이었습니다.
참고: Bedrock Managed Agents는 AWS에서 제공하는 관리형 AI 에이전트 서비스로, OpenAI에서 지원하는 모델 기능을 제공합니다. 이 서비스는 기업이 AWS에서 OpenAI 모델을 호출할 수 있도록 할 뿐만 아니라, AWS의 기본 ID 인증, 액세스 제어, 로깅, 보안, 거버넌스 및 배포 시스템에 모델을 통합합니다. 이를 통해 기업은 자체 클라우드 환경 내에서 작업을 수행하고, 내부 데이터에 액세스하며, 권한 경계를 준수하는 AI 에이전트를 구축할 수 있습니다. 간단히 말하면, AWS 기업 환경 내에서 실행되는 OpenAI 에이전트 인프라라고 이해할 수 있습니다.
일요일 늦게 마이크로소프트가 월요일 아침에 뭔가 발표를 할 거라는 소문을 들었습니다. 혹시 선제적 소송 같은 건 아닐까 궁금하네요!
월요일, 마이크로소프트와 오픈아이얼은 오픈아이얼이 AWS를 포함한 다른 클라우드 서비스 제공업체에서도 제품을 제공할 수 있도록 계약을 개정했다고 발표했습니다.
그리하여 이번 인터뷰가 성사되었습니다.
저는 마이크로소프트와 오픈AI 간의 이번 새로운 협약이 양측 모두에게 합리적이라고 생각합니다. 마이크로소프트 공식 발표에 나온 새로운 협약의 주요 내용은 다음과 같습니다.
마이크로소프트는 여전히 OpenAI의 주요 클라우드 파트너입니다. OpenAI 제품은 마이크로소프트가 필요한 기능을 지원할 수 없거나 지원하지 않기로 결정하지 않는 경우를 제외하고는 주로 Azure에서 출시될 예정입니다. 이제 OpenAI는 모든 클라우드 제공업체를 통해 고객에게 모든 제품을 제공할 수 있습니다.
마이크로소프트는 2032년까지 오픈AI의 모델 및 제품 관련 지적 재산권에 대한 라이선스를 계속 제공할 예정입니다. 다만, 마이크로소프트의 라이선스는 더 이상 독점적이지 않습니다.
마이크로소프트는 더 이상 오픈AI에 수익 분배금을 지급하지 않을 것입니다.
• 오픈아이(OpenAI)의 마이크로소프트에 대한 수익 분배는 2030년까지 계속될 것입니다. 이 계약은 오픈아이의 기술 발전과 관계없이 변경되지 않지만, 총액에는 상한선이 있습니다.
주요 주주인 마이크로소프트는 앞으로도 오픈AI의 성장에 직접적으로 관여할 것입니다.
저는 마지막 요점이 가장 중요하다고 생각합니다. 이전에는 Azure가 OpenAI 모델을 제공할 수 있는 유일한 하이퍼스케일 클라우드 제공업체로서 진정한 경쟁 우위를 확보했습니다. 그러나 이러한 독점권은 OpenAI의 성장을 저해하는 요인이기도 합니다. 특히 점점 더 많은 기업들이 기존 클라우드 플랫폼에서 모델에 접근하는 것을 우선시하는 상황에서는 더욱 그렇습니다. 저는 이것이 Anthropic의 핵심 경쟁 우위였다는 점을 여러 차례 지적해 왔습니다. 다시 말해, Azure의 독점권은 실제로 Microsoft의 OpenAI 투자에 해를 끼치고 있습니다. 올해 Anthropic의 빠른 성장을 고려할 때, Microsoft는 Azure의 차별성이 다소 약화되더라도 이 투자를 보호해야 합니다.
동시에 OpenAI는 AWS를 엄청난 기회로 보고 있으며, 향후 몇 년 동안 Azure 관련 수익의 일부를 포기할 의향까지 보이고 있습니다. 앞서 언급한 내용과 함께 고려해 보면, 이는 Azure 경영진이 독점권을 잃는 것을 더 쉽게 받아들이도록 만듭니다. 결국 Azure의 손익계산서는 OpenAI에 수익의 일부를 지불하지 않아도 훨씬 더 좋아 보일 것이기 때문입니다. 또한 OpenAI는 Microsoft를 인공 일반 지능(AGI) 관련 계약 조건에서 해방시켰습니다. 이제 어떤 일이 발생하더라도 두 회사 간의 계약은 2032년까지 유효합니다.
이제 OpenAI의 차기 목표가 AWS가 될 것이라는 점은 상당히 분명해졌습니다. 이를 뒷받침하는 가장 강력한 증거는 이번 인터뷰의 주제인 OpenAI 기반의 Bedrock Managed Agents입니다. 이 제품을 가장 쉽게 이해하는 방법은 Codex의 AWS 버전이라고 생각하는 것입니다. Codex는 지역화되어 있기 때문에 많은 복잡한 문제, 특히 보안 문제를 자연스럽게 해결할 수 있다는 점에서 효과적입니다. 하지만 조직 내 여러 부서와 시스템에 걸쳐 에이전트를 운영하는 것은 완전히 다른 문제입니다. 이 제품의 목표는 이미 대부분의 데이터를 AWS에 보유하고 있는 조직이 이러한 워크플로를 더 쉽게 사용할 수 있도록 하는 것입니다.
이번 인터뷰에서는 AWS가 클라우드 컴퓨팅이라는 새로운 분야를 어떻게 개척했고 스타트업에 어떤 영향을 미쳤는지에 대해 이야기했습니다. 또한 AI와 이러한 패러다임 변화 사이의 유사점과 차이점도 살펴보았습니다. 이어서 Bedrock Managed Agents에 대해 자세히 알아보고, Amazon의 기존 AgentCore 제품과 어떻게 다른지 논의했습니다. Trainium에 대해서도 이야기하고, 대부분의 AI 사용자에게 칩이 그다지 중요하지 않은 이유, 그리고 Google이 풀스택 통합을 강조하는 것과 달리 협업이 논리적인 선택인 이유에 대해서도 살펴보았습니다.
다시 한번 알려드립니다. 인터뷰를 포함한 모든 스트라테처리 콘텐츠는 팟캐스트로 청취하실 수 있습니다. 이메일 상단의 링크를 클릭하여 팟캐스트 플레이어에 스트라테처리를 추가하세요.
인터뷰에 참여하세요.
인터뷰 내용
본 인터뷰는 내용의 명확성을 높이기 위해 약간의 편집을 거쳤습니다.
OpenAI가 AWS에 합류하면서 Azure의 독점 시대가 막을 내렸습니다.
벤 톰슨(진행자): 맷 가먼, 샘 알트먼—맷, 스트라테처리에 오신 것을 환영합니다. 샘, 다시 오신 것을 환영합니다. 저는 이전에 2025년 10월, 2025년 3월, 그리고 2023년 2월에 알트먼 씨를 인터뷰한 적이 있습니다.
샘 알트만(오픈AI CEO): 감사합니다.
맷 가먼(AWS CEO): 초대해 주셔서 감사합니다.
진행자: 맷, 스트라테처리에 처음 출연하셨네요. 아쉽게도 샘이 함께 있어서 평소처럼 "게스트 소개" 코너는 진행하기 어려울 것 같습니다. 게다가 샘은 저희가 켈로그 시절을 회상하는 걸 듣고 싶어 하지 않을지도 모르고요. 그래도 동문이 팟캐스트에 나와주셔서 정말 반갑습니다.
맷 가먼: 네, 이곳에 오게 되어 기쁩니다. 다음 기회에 다시 뵙고 더 자세한 이야기를 나눌 수 있기를 바랍니다.
진행자: 정말 멋지네요. 인턴 시절부터 AWS와 함께해 오셨고, 이제 AI 열풍 속에서 AWS 조직 전체를 이끌고 계시네요. AI 사업을 구축하는 것과 초기 일반 컴퓨팅 사업을 구축하는 것 사이에 어떤 유사점과 차이점이 있다고 생각하시나요? (일단은 이렇게 표현해 보겠습니다.)
맷 가먼: 제가 보기에 두 가지 공통점은 개발자들이 이전에는 할 수 없었던 일들을 할 수 있게 되었다는 점, 그리고 개발자들이 느끼는 흥분과 열정입니다. AWS를 처음 시작했을 때 가장 멋졌던 점 중 하나는 개발자들이 이전에는 대기업만 이용할 수 있었던 인프라에 갑자기 접근할 수 있게 되었다는 것입니다. 과거에는 데이터 센터 구축에 수백만 달러의 예산을 투입할 수 있는 기업만이 이러한 인프라를 이용할 수 있었습니다. 하지만 이제 개발자들은 신용카드와 약간의 비용만 있으면 애플리케이션을 출시할 수 있습니다. 이는 인터넷 개발자들이 할 수 있는 일의 범위를 극적으로 확장시켰습니다.
우리의 생각은 사람들이 원하는 것은 무엇이든 만들 수 있다는 것이었습니다. 우리는 그들이 무엇을 해야 할지 미리 정하지 않았습니다. 창의력은 전 세계에 존재하며, 강력한 도구만 주어진다면 흥미롭고 놀라운 것들을 만들어낼 것이라고 믿었습니다.
저는 AI가 개발자들에게 제공하는 역량이 적어도 그만큼, 어쩌면 그 이상으로 혁신적이라고 생각합니다. 이제 무엇이 가능해졌는지 생각해 보세요. 애플리케이션을 개발하기 위해 10년 동안 프로그래밍을 배울 필요가 없습니다. 수백 명 규모의 거대한 팀이나 몇 달씩 걸리는 개발 과정도 필요 없습니다. 소규모 팀으로도 빠르게 개발하고 신속하게 반복 개선할 수 있습니다. AI는 전 세계 모든 분야에서 혁신을 가능하게 하고 있습니다. 여러 면에서 과거의 변화와 매우 유사합니다. AI가 고객들에게 가져다주는 가능성을 보는 것은 정말 흥미진진합니다.
진행자: 하지만 AWS가 등장했을 당시에는 유일한 업체였기 때문에 장점과 단점 모두 자연스럽게 당신에게 돌아갔습니다. AWS 시대에는 범용 컴퓨팅, 즉 컴퓨팅을 대체 가능하고 유연하며 저렴하게 만드는 것이 중요했는데, AI 분야, 특히 학습 단계에서는 고도로 수직 통합된 슈퍼클러스터, 매우 정교한 네트워크, 그리고 소프트웨어와 하드웨어 간의 긴밀한 상호 작용이 성공적인 추상화 모델로 자리 잡은 것 같다는 느낌을 받으신 적이 있나요? 이것은 의도적인 결과였을까요? 이번에는 완전히 처음부터 시작하는 것도 아니고, "유일한 업체"도 아니었습니다. 과거에도 대규모 컴퓨팅에 대한 구체적인 이해가 있었지만, 적어도 AI 초기에는 그것이 완벽하게 맞아떨어지지 않았던 것 같습니다.
맷 가먼: 이게 우리에게 얼마나 다른지는 잘 모르겠습니다. 정말 다른 점은 놀라울 정도로 빠른 도입 속도라고 생각합니다. 아마 모두가 놀랐을 겁니다. 샘, 의견이 다르시면 자유롭게 덧붙이세요. 하지만 사람들이 이러한 기능을 받아들이고 이해하는 속도는 모두의 예상을 뛰어넘었다고 생각합니다.
지금은 우리가 클라우드 컴퓨팅 사업을 처음 시작했을 때와는 완전히 다릅니다. 당시에는 서점이 왜 컴퓨팅 파워를 제공해야 하는지 설명하는 데 엄청난 시간을 쏟았습니다. 클라우드 컴퓨팅이 무엇인지 설명하는 데에도 많은 노력을 기울여야 했죠. 당시의 어려움은 지금 사람들이 종종 잊고 있지만, 2006년에는 누구도 전 세계 컴퓨팅 환경이 클라우드로 옮겨갈 것이라고 생각하지 않았습니다. 정말 많은 설명과 설득 작업이 필요했던 시절이었습니다.
진행자: 지금 설명이 좀 필요할까요? 많은 사람들이 처음에는 훈련 시대에 머물러 있는 반면, 우리가 생각하는 '추론 시대'는 완전히 다른 개념이잖아요. 설명 능력을 다시 활성화해야 할까요?
맷 가먼: 네, 필요하긴 하지만 사람들이 당신의 말을 이해하는 속도는 이제 완전히 달라졌습니다. 그래서 사람들이 "이거 멋있어 보이네, 똑똑한 챗봇이랑 대화할 수 있다니"에서 "실제로 우리 사업에서 일을 처리할 수 있겠다"로 나아가기까지는 분명히 교육 과정이 필요합니다. 하지만 기술 발전 속도를 고려하면 이 과정은 상대적으로 빠르게 진행되어 왔습니다.
진행자: 오늘 제품 관련 주제로 바로 넘어가겠습니다. 샘, 스타트업 생태계의 관점에서 돌이켜보면 AWS는 분명 혁명적인 존재였습니다. 사업 시작의 장벽을 완전히 바꿔놓았죠. 이제 누구나 사업을 시작할 수 있게 되었습니다. 시드 투자와 엔젤 투자자들이 등장했고, 자금 조달의 문턱이 낮아졌습니다. 파워포인트 프레젠테이션에 "서버를 구매해야 합니다"라고 쓸 필요도 없어졌습니다. 먼저 애플리케이션을 개발한 후 시리즈 A나 그 이후 라운드 투자를 유치할 수 있게 된 거죠.
당신의 관점에서 AWS가 열어준 세상과 오늘날 AI가 열어준 세상의 차이점과 유사점은 무엇이라고 생각하십니까?
샘 알트만: 저는 역사상 스타트업에 엄청난 힘을 실어준 플랫폼 중심의 순간이 네 번 있었다고 생각합니다. 바로 인터넷, 클라우드, 모바일, 그리고 AI입니다. 이 네 가지 중 제가 성인이 되어 처음 경험한 것은 클라우드였습니다. Y Combinator 초창기에는 클라우드가 스타트업에 얼마나 큰 변화를 가져왔는지 아무리 강조해도 지나치지 않았습니다.
그 전에는 스타트업들이 호스팅 공간을 임대하고, 자체 서버를 구축하고, 장비를 설치해야 했습니다. 매우 복잡한 과정이었고, 초기에는 많은 자금을 조달해야 했습니다. 그러다 갑자기 클라우드가 등장했습니다. 클라우드는 Y Combinator가 설립된 이후, 아마도 그 다음 해쯤에 등장했을 것입니다.
진행자: 제가 바로 묻고 싶었던 겁니다. 궁극적으로 YC와 클라우드는 당시 생각했던 것보다 훨씬 더 뗄래야 뗄 수 없는 관계인가요?
샘 알트만: 당시에는 그 두 가지가 매우 밀접하게 연관되어 있다고 생각했습니다. AWS 이전에도 클라우드 서비스의 초기 사례들이 있었기 때문에 YC는 처음부터 클라우드 열풍에 편승하고 있었다고 느꼈습니다.
진행자: AWS가 존재한다면 스타트업을 시작하는 데 필요한 자금은 예전보다 훨씬 줄어들었을 것입니다.
샘 알트만: 이건 엄청난 변화를 가져왔어요. YC가 당시에는 그렇게 파격적으로 들렸던 이유도 바로 그 때문이죠. 사람들은 "스타트업에 수만 달러를 투자하는 건 불가능해. 서버 비용만 해도 그 정도 금액은 넘을 거야."라고 말하곤 했어요. 하지만 YC 덕분에 적은 자본으로 스타트업이 할 수 있는 일들이 완전히 달라졌죠.
일반적으로 스타트업은 플랫폼에 큰 변화가 생길 때, 이전보다 더 빠른 개발 주기와 적은 자본으로 사업을 진행할 수 있을 때 성공합니다. 이것이 바로 스타트업이 대기업을 이기는 고전적인 방식입니다. 저는 경력 초기에 클라우드 컴퓨팅 분야에서 이러한 변화를 직접 목격했습니다. 지금 인공지능 기반 제품을 개발하는 기업들을 보면, 방향성이 매우 비슷하게 느껴집니다. 하지만 맷이 말했듯이, 이번에는 그 속도가 엄청나게 빠릅니다.
진행자: 현재 대기업과 업계 거물들이 클라우드 컴퓨팅을 도입했던 과거보다 인공지능을 훨씬 더 빠르게 도입하고 있는 상황인가요?
샘 알트만: 확실히 더 흔해졌죠. 하지만 저는 스타트업의 매출 성장 속도에 대해서도 이야기하고 싶습니다. 최근 YC에서 강연을 했는데, 마지막에 "YC 과정을 마치는 시점에 좋은 회사의 매출은 어느 정도라고 생각하시나요?"라고 질문했습니다. 그러자 참석자들은 "그 대답은 매달 바뀝니다. 같은 YC 기수라도 시작할 때와 끝날 때의 대답이 다를 수 있어요."라고 답했습니다. 이런 현상은 전례가 없었습니다. 이 새로운 플랫폼에서 사람들이 사업을 확장하는 속도는 제가 이전에 본 적 없는 수준입니다.
진행자: 맷, 클라우드 시대 내내 AWS는 사실상 모든 스타트업이 선호하는 클라우드였고, 이는 여러분에게 큰 이점을 제공했습니다. 그렇다면 오늘날에도 AWS가 여전히 선호되는 클라우드인 이유는 무엇일까요? 많은 사람들이 OpenAI API를 기반으로 제품을 개발하고 있기 때문일까요? 아니면 "우리는 매우 다른 관점에서 이 시장에 진입하고 있다. 이미 많은 고객들이 AI 기능을 요구하고 있지만, 우리의 인지도는 샘의 스타트업 그룹만큼 높지 않다"라고 생각하시는 건가요?
맷 가먼: 이 문제에는 여러 측면이 있다고 생각합니다. 우선, 저희는 이번 협력에 매우 기대하고 있으며, 많은 스타트업에게 매우 중요한 계기가 될 것이라고 믿습니다. 실제로 오늘날 스타트업들과 이야기를 나눠보면, 대부분의 스타트업들이 여전히 AWS를 기반으로 확장하고 있습니다. 여기에는 여러 가지 이유가 있습니다. 확장성, 가용성, 보안, 안정성이 뛰어나고, 다양한 ISV 파트너 생태계가 AWS에 기반을 두고 있으며, 고객들도 AWS를 사용하고 있기 때문입니다.
진행자: (웃음) 좋든 싫든, 모두 AWS 콘솔을 사용해 봤으니 익숙해져 있죠.
맷 가먼: 그리고 저희는 스타트업을 돕습니다. 단순히 크레딧을 주는 것뿐만 아니라 시스템 구축 방법, 시장 진출 전략 등 다양한 측면에서 스타트업 역량 강화에 많은 시간과 노력을 투자합니다. 많은 스타트업들이 이러한 지원에 감사하고 있다고 생각합니다. 저희는 스타트업이 AWS의 핵심이라고 믿기 때문에 이러한 노력을 아끼지 않습니다. 이는 창립 초기부터 지금까지 변함없는 신념입니다. 저는 여전히 매 분기마다 실리콘 밸리나 다른 곳을 방문하여 스타트업들을 직접 만나 그들의 이야기를 듣고, 저희가 개발하는 서비스가 그들의 니즈를 진정으로 충족하는지 확인합니다.
그래서 스타트업의 관심을 끌기 위한 경쟁은 20년 전보다 훨씬 치열해졌습니다. 하지만 저희에게는 여전히 스타트업 유치가 매우 중요합니다. 저희는 스타트업의 니즈를 충족시키기 위해 상당한 시간을 투자하고 있습니다.
진행자: Azure 버전의 OpenAI 서비스를 사용하는 대신 OpenAI API를 기반으로 직접 제품을 개발하는 사람들이 일반 컴퓨팅은 AWS에서 실행하고 AI 부분은 OpenAI를 사용하는 기술 스택을 채택할 가능성이 더 높다고 말하는 것이 타당할까요?
맷 가먼: 제 생각에는 이것이 오늘날 많은 스타트업에서 매우 흔한 모델인 것 같습니다.
Bedrock 관리형 에이전트: AI 에이전트를 엔터프라이즈 워크플로에 통합하기
진행자: 오늘 발표할 내용은 OpenAI 기반의 Bedrock 관리형 에이전트입니다. 제가 잘못 이해한 게 맞나요? 이 제품의 핵심은 단순히 OpenAI 모델을 AWS에서 사용할 수 있다는 것(개인적으로는 아직 허용되어서는 안 된다고 생각합니다)뿐만 아니라, OpenAI의 최첨단 모델이 ID, 권한 상태, 로깅, 거버넌스 및 배포를 포함한 AWS 네이티브 에이전트 런타임에 캡슐화되어 있다는 점인 것 같습니다. 샘, 제 이해가 맞습니까?
샘 알트만: 네, 좋은 요약입니다.
진행자: 감사합니다. 그럼 이게 정확히 무엇인가요? 쉽게 설명해 주시겠어요?
샘 알트만: 저는 인공지능의 다음 단계는 "에이전트에 텍스트를 입력하면 더 많은 텍스트를 반환한다"거나 "코드를 입력하면 더 많은 코드를 반환한다"는 수준을 넘어, 이러한 에이전트들이 기업 내부에서 다양한 종류의 업무를 수행하는 새로운 단계로 나아갈 것이라고 생각합니다.
"가상 동료"라는 표현이 제가 들어본 것 중 가장 적절한 설명이지만, 아직까지 이를 정확하게 묘사할 수 있는 완벽한 용어를 찾은 사람은 없습니다. 저희는 기업들이 상태 저장 에이전트를 실제로 만들고 활용할 수 있도록 지원하는 새로운 제품을 개발하기 위해 협력하고 있습니다. 다시 말씀드리지만, 세상이 궁극적으로 이러한 에이전트를 어떻게 부르게 될지, 어떻게 사용하게 될지는 아직 알 수 없습니다. 하지만 코덱스(Codex)에서 일어나고 있는 일들을 보면, 앞으로 어떤 방향으로 나아갈지 잘 알 수 있을 것입니다.
진행자: AI 에이전트가 제대로 작동하려면 모델만으로는 부족합니다. 런타임 환경, 호출 가능한 도구, 작업 상태, 메모리, 접근 제어, 성능 평가 등 완벽한 지원 시스템이 필요합니다. 특히 "상태"라는 단어를 언급하셨는데, 이러한 외부 인프라 구성 요소는 에이전트의 실제 작동에 얼마나 중요한가요?
샘 알트만: 그 중요성은 아무리 강조해도 지나치지 않습니다. 저는 더 이상 하네스와 모델을 완전히 별개의 것으로 보지 않습니다. 제 경험상, 코덱스에서 작업을 시작해서 놀라운 결과를 얻었을 때, 한 가지는 분명합니다. 그 공로를 누구에게 얼마나 돌려야 할지 항상 확신할 수는 없다는 것입니다.
진행자: 모델 자체가 강한 건가요, 아니면 보조 시스템(하네스)이 강한 건가요?
샘 알트만: 네, 정확히 맞습니다.
진행자: 하네스 시스템은 모델과 어느 정도까지 함께 개발되었습니까? 이러한 통합은 언제 이루어졌습니까? 학습 후 단계에서였습니까? 아니면 프롬프트 단계에서였습니까? 구체적으로 어떤 요인이 이 통합을 효과적으로 만들었습니까?
샘 알트만: 둘 다요. 사전 교육 과정의 일부는 아니지만, 여기서 더 흥미로운 점은 과거에도 여러 번 보았듯이 처음에는 완전히 분리될 수 있다고 생각했던 것들이 시스템에 점점 더 깊숙이 통합된다는 것입니다.
예를 들어, 도구 호출에 대한 초기 이해를 생각해 보세요. 지금은 이러한 모델을 사용하는 방식에서 매우 중요한 부분이 되었지만, 처음에는 학습 과정에 깊이 통합할 필요는 없다고 생각했습니다. 시간이 지남에 따라 점점 더 그렇게 해왔습니다.
저는 모델과 이를 지원하는 시스템(하네스)이 시간이 지남에 따라 점점 더 통합될 것이라고 생각합니다. 더 나아가 사전 학습과 사후 학습 또한 결국에는 더욱 통합될 것이라고 예상합니다. 진부한 말처럼 들릴지 모르지만, 저는 이것이 매우 중요한 사실이라고 믿기 때문에 다시 한번 강조하고 싶습니다. 우리는 아직 이 패러다임의 초기 단계에 있습니다. 업계는 아마도 홈브루 컴퓨터 클럽 시대 정도의 성숙도에 머물러 있을 것입니다.
진행자: 그래서 저는 이 부분이 매우 흥미롭습니다. 몇 주 전에 제가 쓴 글에서 모든 가치 사슬에는 결국 통합 지점, 즉 두 부분이 결합되어야 제대로 기능할 수 있는 중요한 지점이 있다고 했습니다. 시간이 흐르면서 많은 가치가 그 지점에 집중되는 것은 당연한 일입니다. 당시 제 생각에는 하네스와 모델의 통합이 바로 그 중요한 지점이었습니다. 이는 분명히 당신의 관심사와도 일치하는데, 제 평가에 동의하시는 것 같네요.
샘 알트만: 그건 제 관심사와도 일치하고, 저도 동의합니다. 하지만 저는 한 걸음 더 나아가고 싶습니다. 정말 중요한 건 코덱스에 원하는 내용을 입력했을 때 실제로 그 내용이 실행되는 것입니다.
진행자: 당신은 구현 세부 사항에는 관심이 없잖아요.
샘 알트만: 이러한 현상을 탐구하면서 우리는 이와 같은 사례를 너무나 많이 봐왔습니다. 처음에는 시스템 프롬프트 수준에서 처리해야 했지만, 나중에는 더 이상 필요하지 않게 된 경우들이죠. 여기서 얻을 수 있는 전반적인 결론은 모델이 더욱 똑똑해질수록 원하는 방식으로 동작하도록 만들 수 있는 유연성이 커진다는 것입니다. 당연한 말처럼 들리겠지만, 정말 그렇습니다.
진행자: 10살짜리 아이에게 무언가를 부탁하는 것이 5살짜리 아이에게 무언가를 부탁하는 것보다 쉽습니다.
샘 알트만: GPT-3 시대를 떠올려보면, 그 모델들에서 조금이라도 유용성을 끌어내기 위해 얼마나 많은 노력을 기울여야 했는지 모릅니다. 하지만 지금은 그럴 필요가 전혀 없습니다. 모델들이 기본적으로 이해하고 실행할 수 있기 때문입니다. 이러한 추세는 앞으로도 계속될 것으로 예상됩니다.
맷 가먼: 덧붙이고 싶은 말씀이 있습니다. 샘의 의견에 전적으로 동의합니다. 고객들과 이야기를 나눠보면, 그들은 실제로 이러한 시스템이 무엇을 해야 하는지 정확히 알고 있습니다. 이번 협업 이전에는 고객들이 어느 정도 직접 여러 가지를 조합해야 했습니다. 그들은 모델과 에이전트가 특정 정보를 기억하고, 원활하게 협업하며, 기존 시스템과 통합되기를 원했습니다. 이는 타사 도구에만 해당되는 것이 아니라, 고객들이 직접 개발한 도구에도 적용됩니다. 고객들은 에이전트가 자사의 데이터, 애플리케이션, 운영 환경을 이해하기를 바랐습니다. 그리고 현재로서는, 적어도 지금으로서는, 이러한 모든 통합 작업을 각 고객이 직접 수행해야 합니다.
따라서 이번 협업의 목표는 이러한 요소들을 더욱 긴밀하게 통합하여 고객이 원하는 바를 더욱 쉽게 달성할 수 있도록 하는 새로운 유형의 제품을 개발하는 것입니다. 예를 들어, ID 관리 기능은 이미 제품에 내장되어 있으며, 데이터베이스 연결 및 인증 완료 기능 또한 AWS VPC(가상 사설 클라우드) 내에서 처리됩니다. 이론적으로는 이러한 기능들을 한쪽에서는 OpenAI API를, 다른 쪽에서는 AWS를 사용하여 구현할 수도 있습니다. 하지만 이러한 통합을 통해 고객은 더욱 쉽고 빠르게 가치를 실현하고, 기업 환경에서 원하는 바를 달성할 수 있게 됩니다.
진행자: 그러니까 범용 (하네스) 시스템 내에서 작동하는 에이전트를 구축하는 것이 가능하지만 훨씬 더 어렵다는 말씀이시죠? 더 쉽게 만들려는 건가요? 아니면 이러한 구성 요소들이 함께 묶여 있지 않으면 불가능한 부분들이 있는 건가요?
샘 알트만: 앞서 말씀하신 비유로 돌아가서, AWS가 존재하기 전에는 서버실 칸막이에 앉아 서버를 여러 대 구입하고, 연결 방법을 알아내고, 네트워크 엔지니어를 직접 고용하면 많은 일을 할 수 있었습니다. 그런데 이제는 AWS 콘솔에 로그인해서 "S3 인스턴스가 하나 더 필요합니다"와 같은 작업을 클릭하기만 하면 훨씬 더 많은 작업을 할 수 있게 되었습니다. 기본적인 작업에 필요한 초기 설정 에너지와 작업량이 극적으로 줄어들었기 때문입니다.
오늘날 모델을 활용하면 정말 많은 일을 할 수 있습니다. 하지만 누군가가 저희 모델을 사용하거나 Matt이 방금 언급한 워크플로우를 구축하려고 애쓰는 모습을 볼 때마다 저는 복잡한 감정이 듭니다. 한편으로는 그들이 이 모델들을 마치 마법 같은 기술처럼 인상적으로 여기는 모습이 기쁘지만, 다른 한편으로는 그들이 실제로 작동하는 결과물을 얻기 위해 얼마나 많은 고통과 어려움을 겪었을지 생각하면 안타깝습니다.
이는 제품을 개발하는 개발자뿐만 아니라 ChatGPT 사용자들에게도 해당됩니다. ChatGPT를 사용하는 사람들조차 여기저기 복사 붙여넣기를 하며 복잡한 프롬프트를 만들려고 애쓰는 모습을 자주 보는데, 앞으로 이런 모습이 모두 사라질 거라는 생각에 기대가 큽니다. 지금은 아직 모든 것이 너무 초기 단계이고, 개선해야 할 부분이 많습니다.
호스트: BBEdit과의 연동 기능만은 삭제하지 말아 주세요. ChatGPT 앱에서 제가 가장 좋아하는 기능이거든요.
참고: BBEdit는 macOS용으로 오랫동안 사용되어 온 텍스트 및 코드 편집기입니다. 진행자는 AI 에이전트가 앞으로 복사 붙여넣기와 수동 작업을 줄여줄 것이지만, ChatGPT가 로컬 편집기와 통합되는 기능을 유지했으면 좋겠다고 반쯤 농담조로 말하고 있습니다.
샘 알트만: 알겠습니다.
진행자: (웃음) 감사합니다.
샘 알트만: 첫째, 현재로서는 이러한 작업들을 수행하기가 너무 어렵습니다. 저희는 이러한 작업들을 훨씬 더 쉽게 만들 수 있다면 개발자와 기업 모두에게 더 큰 가치를 제공할 수 있을 것이라고 생각합니다. 둘째, 현재로서는 안정적으로 작동하지 않는 것들이 많습니다. 이번 협업을 통해 단순히 사용 편의성이나 "더 이상 자체 코로케이션을 구축할 필요가 없다"는 이야기뿐만 아니라, 함께 다양한 새로운 가능성을 탐구하여 이전에는 많은 어려움과 난관을 극복해야만 가능했던 제품과 서비스를 개발할 수 있도록 지원할 것입니다.
기업용 에이전트의 진정한 과제는 권한, 데이터 및 보안에 있습니다.
진행자: "무엇을 구축할 수 있는지"에 대한 이야기는 나중에 다시 하도록 하겠습니다. 하지만 일단 Codex로 돌아가 보죠. Codex는 하네스와 모델로 구성되어 있으며 로컬에서 실행됩니다. 그렇다면 왜 지금 에이전트를 로컬에서 실행하는 것이 더 쉬울까요?
샘 알트만: 사실, 저희는 처음에는 클라우드에서 운영했습니다. 궁극적으로는 클라우드에서 운영하는 것이 바람직하다고 생각합니다.
진행자: 물론이죠. 제가 이 클라우드 제품으로 전환하는 과정을 지켜보면서 여쭤보는 겁니다. 그런데 왜 다시 로컬 환경으로 돌아가셨나요?
샘 알트만: 이미 전체 환경이 갖춰져 있기 때문입니다. 컴퓨터도 이미 설정되어 있고, 데이터도 이미 준비되어 있어서 신경 쓸 부분이 많지 않습니다. 물론 이것이 최종 상태는 아니지만, 확실히 시스템을 가동하는 데 훨씬 수월합니다.
하지만 에이전트가 실제로 클라우드에서 실행되는 세상으로 나아가는 것은 분명히 좋은 일입니다. 예를 들어, 매우 까다로운 작업을 처리해야 하거나 컴퓨터를 종료해야 하는 경우, 또는 다른 상황에서 작업을 클라우드에 위임할 수 있습니다. 이러한 방향은 확실히 환상적일 것입니다. 하지만 단기적으로는 사용자의 로컬 환경을 사용하는 것이 여전히 사용 편의성 면에서 훨씬 우수합니다.
호스트: 제가 이해하기로는, 예전 보안 모델은 '성곽과 해자' 모델과 비슷했지만, 이제는 모든 것이 적절한 권한 구조, 인증 메커니즘 등을 갖춘 새로운 제로 트러스트 보안 모델로 나아가고 있는 것 같습니다. 제 생각에 로컬에서 실행하는 것은 스스로 만든 '성곽과 해자'와 같습니다. 모든 것이 로컬에 있으므로 안전하고 관리하기 쉽다고 생각하는 거죠.
제가 이 제품을 이해하는 방식은 모든 구성 요소를 실제 운영 환경에서 제대로 작동시키려면 모든 구성 요소를 사내에 둘 수 없다는 것입니다. 처음부터 해당 환경에서 실행해야 합니다. 매트, 제 말이 맞나요?
맷 가먼: 어떤 컴퓨팅 환경도 클라이언트를 완전히 없앴다고 생각하지 않습니다. 로컬에서 실행하는 것에는 분명 장점이 있습니다. 대부분의 아이폰 앱에 로컬 구성 요소가 있는 데에는 이유가 있습니다. 연결성, 지연 시간, 로컬 컴퓨팅, 파일 및 앱 접근 등 여러 가지 이유가 있겠죠.
로컬 클라이언트는 분명히 한계가 있습니다. 샘이 지적했듯이, 로컬 클라이언트는 간단하고 잘 작동하지만, 제약이 있고 한계가 있습니다. 로컬 노트북은 확장할 수 없으며, 가진 것만 활용해야 합니다. 두 사람이 공유하는 경우와 같은 기업 환경으로 넘어가면 상황이 훨씬 복잡해집니다. 권한 및 보안 경계를 고려하는 것이 훨씬 어려워지기 때문입니다.
이 문제에는 여러 가지 측면이 있습니다. 로컬 환경 자체가 나쁘다는 것은 아니고, 단지 또 다른 환경일 뿐입니다. 결국에는 로컬 환경과 클라우드 환경을 연결하는 다리를 구축해야 할 것입니다.
호스트: 저도 정확히 같은 질문입니다. 클라우드 시대에는 컨테이너를 통해 로컬 환경과 프로덕션 환경을 더욱 가깝게 만들 수 있습니다. 하지만 에이전트 시나리오의 경우, 방금 말씀하신 것처럼 에이전트는 마치 가상 동료와 같습니다. 에이전트가 고유한 ID와 권한 등을 가지고 있다면, 에이전트를 구축하는 단계부터 최종 배포 환경과 동일한 환경에서 작업해야 할 것입니다. 제 생각에는 그렇습니다.
샘 알트만: 아직 해결해야 할 문제가 많다고 생각합니다. 예를 들어, 회사 직원이 서비스를 이용할 때 계정은 하나만 있어야 할까요? 그리고 담당 에이전트도 같은 계정을 사용해야 할까요? 아니면 서버가 누가 담당자인지 알 수 있도록 에이전트가 다른 계정을 사용해야 할까요?
진행자: 아니면, 만약 많은 에이전트가 필요하다면 어떻게 해야 할까요?
샘 알트만: 맞습니다. 우리가 정말 필요한 건 아직 파악하지 못한 무언가일 것 같습니다. 벤의 에이전트가 벤으로 로그인할 때, 벤의 계정을 사용하되 본인은 에이전트이고 실제 벤이 아니라고 밝히는 방식이죠. 아직 이 부분에 대한 기본적인 구상조차 없지만, 조만간 해결책을 찾아야 할 것 같습니다.
제 생각에는 앞으로 이와 비슷한 사례가 50개는 더 나올 것 같습니다. 에이전트가 업무 현장에 투입되어 점점 더 자율적이고 복잡한 업무를 수행하게 됨에 따라, 소프트웨어 작동 방식과 기업 및 인터넷 전반에서 접근 제어 및 권한이 어떻게 작동하는지에 대한 우리의 기존 사고방식도 진화해야 할 것입니다.
진행자: 맷, 에이전트 보안, 액세스 정책 및 이와 유사한 문제에 대해 어떻게 생각하시나요?
맷 가먼: 네, 중앙 집중식 조직으로서 이러한 유형의 워크로드를 클라우드로 더 많이 마이그레이션하면 보안 관련 측면을 더 효과적으로 제어할 수 있다고 생각합니다. 고객들과 이야기를 나눠보니, 이 부분이 확실히 그들의 우려 사항입니다. 그들은 "이처럼 강력한 모델과 에이전트는 정말 매력적이지만, 어떻게 하면 실수를 저지르지 않고 회사에 치명적인 결과를 초래할 수 있는 사태를 막을 수 있을까요?"라고 묻습니다.
이러한 우려는 현실적입니다.
이 문제는 해결 가능하기 때문에 저희가 도움을 드릴 수 있다고 생각합니다. 실제로 가능합니다. 예를 들어, "이 VPC 내에서 실행 중입니다"라고 말씀드리면 고객은 최소한 경계를 제어하고 접근 가능한 영역을 파악할 수 있으며, 게이트웨이를 통해 실행될 경우 환경 내 다른 곳에서 역할을 할당하는 것처럼 권한을 부여할 수 있다는 확신을 얻을 수 있습니다.
이러한 역량은 지난 20년간 구축해 온 것입니다. 우리는 이러한 구조를 기반으로 매우 풍부한 기능을 구축하여 Y Combinator 스타트업뿐만 아니라 전 세계 은행, 의료 기관 및 정부 기관에서도 AWS를 활용할 수 있도록 지원해 왔습니다. AWS를 중심으로 구축된 전체 보안 아키텍처는 고객이 이 기술을 더욱 빠르게 도입하는 동시에 신속하게 대응하는 데 필요한 보안 장치를 제공하는 데 도움이 될 것이라고 확신합니다.
특히 위험 회피 성향이 강한 산업 분야의 기업에서는 이러한 안전 장벽이 있으면 "이 테스트 환경에서만 작동한다면 빠르게 진행해도 괜찮다"라고 말할 수 있게 되는데, 이는 실제로 많은 고객이 더 넓은 범위의 시나리오에서 이러한 기술을 사용하기 시작하는 데 도움이 될 수 있습니다.
호스트: 방금 언급하신 기능 중 상당수는 AWS가 지난 20년간 구축해 온 것이며, 이제 이러한 기능을 에이전트에 활용하려고 하시는군요. 이러한 기능은 이미 AgentCore를 통해 제공되고 있습니다. 그렇다면 OpenAI 기반의 Bedrock Managed Agents와 Bedrock AgentCore는 어떤 관계가 있는 건가요?
참고: AgentCore는 AWS에서 기업이 AI 에이전트를 개발할 수 있도록 제공하는 "하위 수준 툴킷" 또는 "기본 구성 요소 플랫폼"으로 이해할 수 있습니다. 둘 사이의 관계는 다음과 같습니다. AgentCore = 기본 구성 요소, Bedrock Managed Agents = AWS와 OpenAI가 조립한 완성된 솔루션.
맷 가먼: 우리가 함께 만든 많은 것들은 AgentCore 빌딩 블록을 기반으로, 그 구성 요소들을 조합해서 만든 것입니다.
진행자: 그러니까 AgentCore 위에 얹힌 상위 집합 같은 거라고 할 수 있겠네요?
맷 가먼: AWS 팀과 OpenAI 팀은 AgentCore 구성 요소를 OpenAI 모델 및 기타 여러 요소와 결합하여 이 제품을 개발했습니다.
AgentCore는 저희가 제공하는 기본 구성 요소 세트로 이해하실 수 있습니다. AWS에서와 마찬가지로, 자체 에이전트 워크플로우를 구축하려면 메모리 구성 요소, 안전한 실행 환경, 권한 관리 기능 등의 모듈을 직접 사용할 수 있습니다. 이러한 기능을 직접 구성하고 조합하여 비즈니스에 적합한 에이전트 시스템을 구축할 수 있습니다. 이미 많은 고객들이 이러한 기능을 프로덕션 환경에서 활용하여 다양한 유용한 애플리케이션을 개발하고 있습니다.
진행자: 하지만 오픈아이얼과는 다르죠.
맷 가먼: 하지만 오픈AI는 그렇지 않습니다. 오늘날에는 다른 모델을 사용해야 하는 것은 사실입니다. 아니, 사실 완전히 맞는 말은 아닙니다. 오픈AI와 함께 이 작업을 수행하는 사람들이 있습니다.
진행자: 아, 그냥 클라우드에 있는 다른 모델을 호출하는 거거나 비슷한 거군요.
맷 가먼: 그들은 OpenAI 모델을 직접 호출하고 있습니다. 따라서 사람들은 오늘날에도 분명히 OpenAI를 사용하고 있습니다. 비록 베드락(Bedrock)의 기본 방식은 아니지만, 여전히 사용하고 있는 거죠. OpenAI는 개방형 생태계이기 때문에 다양한 기능을 활용하여 원하는 것을 구축할 수 있습니다. 앞으로도 사람들이 계속해서 그렇게 할 거라고 확신합니다.
샘의 비유를 빌리자면, 오늘날에는 더 이상 필요하지 않더라도 집에서 직접 컴퓨터를 조립하는 것을 즐기는 사람들이 있습니다. 사람들은 무언가를 만드는 것을 좋아합니다. 앞으로도 오랫동안 사람들이 자신만의 에이전트를 구축해 나갈 것이라고 생각합니다. 하지만 대다수의 사람들은 더 쉬운 방법을 원할 것입니다. 모든 부품을 직접 구성하고 싶어 하지 않을 것입니다. 이번 협업을 통해 우리가 선보이는 것 중 하나가 바로 그겁니다.
진행자: 이 차이점을 좀 더 명확히 하고 싶습니다. Bedrock Managed Agents는 관리형 서비스이지만, 사용자는 AgentCore를 사용하여 모델이 AWS에 있든 다른 클라우드에 있든 관계없이 다양한 모델에 연결할 수 있습니다. 샘, 이것이 OpenAI의 Azure 서비스와의 차이점인가요? 간단히 말해서, Azure에서는 사용자가 주로 OpenAI API에 직접 액세스하는 반면, Amazon에서는 보다 완벽한 관리형 에이전트 서비스를 이용할 수 있다는 말씀이시죠? 제 이해가 맞습니까?
샘 알트만: 맞습니다.
진행자: 이 부분에 대해 정말 확신하시는 건가요? 모든 조항과 범위가 정확하게 정의되어 있고, 향후 문제가 발생하지 않을 거라고 확신하시는 거죠?
샘 알트만: 네. 시간이 지나면서 상황이 발전할 거라고 생각하지만, 시작점으로서는 이 접근 방식에 매우 확신합니다.
호스트: 이 서비스는 AWS 전용인가요? 아니면 다른 클라우드 환경에서도 유사한 관리형 서비스를 제공할 예정인가요?
샘 알트만: 네, 아마존과 독점적으로 이 프로젝트를 진행할 예정이며, 매우 기대하고 있습니다.
진행자: 이러한 독점성은 "우리는 아마존의 모든 API를 사용하므로 당연히 아마존에서만 제공됩니다"라는 생각에서 비롯된 것일까요? 아니면 단순히 "아마존 API를 사용한다"는 것뿐 아니라, 관리형 경험이라는 개념 자체가 아마존에서 호스팅될 것이라는 점에서 비롯된 것일까요?
샘 알트만: 저희는 이번 프로젝트가 두 회사 간의 협력적인 노력이 되기를 진심으로 바랍니다.
진행자: 이해했습니다. 보도 자료에 언급된 내용 중 하나는 맷이 방금 말한 것과 관련이 있는데, 이론적으로는 다른 API를 호출해서 모든 데이터를 직접 연결할 수 있다는 것입니다. 하지만 이 경우에는 고객 데이터가 AWS 내에 유지됩니다. 그렇다면 OpenAI는 정확히 무엇을 볼 수 있는 걸까요? 그게 무슨 의미인가요?
맷 가먼: 네. 기본적으로 모든 것이 VPC 내에 유지되므로 데이터는 Bedrock 환경 내에서 보호됩니다.
참고: VPC는 Virtual Private Cloud의 약자로, 기업이 AWS 내에 할당하는 "프라이빗 클라우드 네트워크 공간"으로 이해할 수 있습니다.
호스트: 알겠습니다. 이 제품은 Bedrock을 통해 OpenAI 모델을 사용하고, 이 모델들은 Trainium에서 실행되는 거죠?
맷 가먼: 여러 가지 방식으로 혼합 실행될 것입니다. 일부는 트레이니움에서, 일부는 GPU에서 실행될 것입니다.
참고: Trainium은 대규모 모델 학습 및 추론을 지원하는 AWS 자체 개발 AI 가속 칩입니다. NVIDIA GPU와 마찬가지로 기본 컴퓨팅 인프라에 속합니다. 일반 기업 고객은 Trainium을 직접 사용할 필요 없이 Bedrock과 같은 관리형 서비스를 통해 기본 컴퓨팅 성능을 간접적으로 활용합니다.
진행자: 단순히 시간적인 요인 때문인가요? 몇 달 전에 공지하셨을 때 그런 말씀을 하셨던 걸로 기억하는데요...
맷 가먼: 부분적으로는 시간이 필요하고, 부분적으로는 역량이 필요합니다. 시스템을 함께 구축해 나가면서 각 부분에 맞는 다양한 구성 요소와 적절한 인프라를 조합하여 사용할 것이라고 생각합니다. 하지만 시간이 지남에 따라 점점 더 많은 부분이 Trainium 플랫폼에서 실행될 것입니다.
샘 알트만: 저희는 트레이니움에서 이 모델들을 실행해 볼 날을 매우 기대하고 있습니다.
AI 플랫폼 간의 경쟁은 모델에서 인프라로 옮겨가고 있습니다.
진행자: 충분히 이해합니다. 맷, Trainium에 대해 간단한 질문이 있습니다. 좀 더 일반적인 질문이기도 합니다. 제가 현재 Trainium을 이해하고 있는 바가 맞는지 확인하고 싶습니다. Trainium이라는 이름은 다소 안타까운데, 앞으로 Trainium의 진정한 중요성은 추론 기능에 있을 것이기 때문입니다. Trainium은 Bedrock과 같은 관리형 서비스를 통해 주로 제공될 것입니다. 즉, 클라이언트가 어떤 컴퓨팅 리소스를 사용하고 있는지조차 정확히 알지 못할 수도 있다는 뜻입니다. 제 이해가 맞습니까?
맷 가먼: 우선, 모든 AWS 서비스의 끔찍한 이름에 대한 책임은 제가 지겠습니다.
진행자: 괜찮아요. 저도 Stratechery라는 웹사이트를 운영하고 있는데, 입소문으로 퍼져나가고 있어서 이름 짓는 게 얼마나 어려운지 잘 알아요.
샘 알트만: "트레이니엄"이라는 단어가 꽤 멋지다고 생각해요.
맷 가먼: 정말 멋지네요.
진행자: 꽤 멋진 용어인데, 학습 칩보다는 추론 칩에 더 가까운 것 같네요.
맷 가먼: 네. 하지만 명칭은 차치하고, 이 칩은 학습과 추론 모두에 유용합니다. 솔직히 말해서, 이 칩은 저희에게 큰 기대를 걸고 있습니다. 현세대뿐 아니라 미래 세대에서도 엄청난 사업 기회를 창출할 것이며, 저희가 함께 개발 중인 여러 프로젝트의 주요 원동력이 될 것이라고 믿습니다.
덧붙여 말하자면, GPU와 마찬가지로 이러한 가속기 칩들과도 추상화 계층을 통해 상호 작용하게 될 거라고 생각합니다. 대부분의 고객은 노트북에서 그래픽 관련 작업을 할 때를 제외하고는 GPU와 직접 상호 작용하지 않습니다. OpenAI를 사용할 때도, 설령 GPU에서 실행되더라도 GPU와 직접 대화하는 것이 아닙니다. Claude와 대화할 때도, GPU, Trainium, TPU 중 어떤 것을 기반으로 하든 상관없이, 해당 칩들과 직접 대화하는 것이 아니라 인터페이스와 대화하는 것입니다.
대부분의 추론 작업은 소수의 모델에 의해 수행됩니다. 즉, 5개, 10개, 20개, 또는 100개의 모델이 있더라도 수백만 명의 사람들이 직접 이러한 칩을 프로그래밍하는 것은 아닙니다. 이러한 시스템은 너무 복잡하고 규모가 크기 때문에 앞으로도 이러한 상황은 지속될 것입니다. 모델을 학습시키려면 충분한 자금을 확보해야 하지만, 이를 제대로 관리할 능력을 갖춘 사람도 많지 않습니다. 이러한 시스템은 매우 복잡하며, OpenAI 팀이 대규모 컴퓨팅 클러스터에서 가치를 창출하는 능력은 놀랍습니다. 하지만 그런 팀을 보유한 사람은 많지 않습니다. 특정 칩에 관계없이, 저는 이러한 현상이 모든 가속기 칩에 적용된다고 생각합니다.
샘 알트만: 벤, 저는 우리 회사가 해야 할 일이 단순히 제품 생산 공장의 역할만 하는 것이 아니라, 고객이 진정으로 원하는 수량과 용량으로 최고의 지능형 장치를 최저 가격에 제공할 수 있는지 여부라는 생각이 점점 더 듭니다.
진행자: 현재의 가격 책정 방식, 즉 토큰 기반 가격 책정 방식을 계속 유지할 것이라고 생각하십니까? 장기적으로 볼 때 이 방식이 합리적일까요?
샘 알트만: 그건 말이 안 됩니다. 사실, 저희가 최근 출시한 5.5 모델이 흥미로운 예시입니다. 토큰당 비용은 5.4 모델보다 훨씬 높지만, 동일한 답변을 완료하는 데 필요한 토큰 수는 훨씬 적습니다. 기본적으로 답변을 완료하는 데 필요한 토큰 수는 중요하지 않습니다. 중요한 건 작업이 완료되는 것입니다. 즉, 가격과 확보 가능한 용량이 중요한 거죠.
어쩌면 제가 "토큰 공장"이라고 말한 건 잘못된 표현이었을지도 모르겠습니다. 저희는 "지능 공장"이나 그와 비슷한 개념에 더 가깝다고 할 수 있겠네요. 저희는 가능한 한 가장 낮은 가격으로 최대한 많은 "지능 유닛"을 제공하고자 합니다. 더 큰 모델을 더 적은 토큰으로 실행하든, 더 작은 모델을 더 많은 토큰으로 실행하든, GPU를 사용하든, Trainium을 사용하든, 아니면 다른 어떤 창의적인 방법을 사용하든, 고객은 그런 것에 신경 쓰지 않을 거라고 생각합니다.
사실, 그들은 이러한 사항들을 직접 처리하지 않습니다. Codex에 코드를 추가하거나 SRE(Stateful Runtime Environment)에서 새로운 에이전트를 구축할 때, 이러한 문제들을 전혀 고려할 필요가 없습니다. 오히려 이렇게 저렴한 비용으로 얼마나 많은 것을 얻을 수 있는지에 놀라기만 하면 됩니다.
호스트: 토큰 사용량 감소는 모델 자체의 문제인가요, 아니면 지원 시스템(Harness)의 문제인가요?
샘 알트만: 주로 모델 역할을 하지만, 시스템(하네스)을 지원하는 데에도 약간의 역할을 합니다.
진행자: 네, 알겠습니다. 맷, 그런데 제가 방금 샘에게 독점 계약 문제에 대해 물어봤습니다. 향후 다른 모델들에게도 유사한 관리 서비스를 제공할 계획이 있으신가요?
맷 가먼: 저희는 현재 오픈AI와 함께 이 작업을 진행하는 데 집중하고 있습니다. 함께 만들어갈 결과물에 대해 매우 기대하고 있습니다. 장기적인 계획에 대해서는, 그건 아주 오랜 시간이 걸릴 겁니다.
진행자: "장기적인 미래란 아주 긴 시간이죠." 그 질문에 대한 답변은 나중에 하셔도 괜찮습니다. 네, 꼭 여쭤봐야겠어요.
고객과 관련해서 질문이 하나 더 있습니다. 샘, 방금 말씀하신 내용을 고려했을 때, 당신의 의견도 듣고 싶습니다. 고객이 실제로 운영 환경에 진입했을 때, OpenAI의 책임은 어디까지이고 AWS의 책임은 어디서부터 시작되는 걸까요? 제 생각에는 모든 데이터가 AWS에 저장되어 있고, 고객이 상위 레벨에서 운영을 담당한다면 궁극적으로는 AWS의 책임이라고 생각합니다. 소비자 입장에서 제 이해가 맞는 건가요?
맷 가먼: 네, 맞습니다. 도움이 필요할 때는 AWS 지원팀에 문의하시면 됩니다. AWS 환경의 일부이며, AWS 위에 구축하는 모든 것입니다. AWS 계정 담당자가 언제든 도움을 드릴 것입니다. 저희는 제품을 개발할 때 OpenAI 동료들과 협력하여 제품을 최적으로 활용하는 방법이나 유사한 문제를 해결하는 데 도움을 받습니다. 경우에 따라 OpenAI의 도움이 필요한 버그가 발생하면 해당 문제를 OpenAI에 전달합니다. 하지만 AWS가 여러분의 직접적인 1차 지원 역할을 할 것입니다.
진행자: 샘, 이 사업의 규모가 오픈아이즈의 핵심 API 사업과 비교했을 때 어느 정도라고 생각하시나요?
샘 알트만: 저는 이 프로젝트가 매우 큰 규모로 성장하기를 바랍니다. 저희는 이 프로젝트에 많은 노력을 기울이고 있으며, 막대한 컴퓨팅 파워를 구매하기로 약속했습니다. 이 모든 것을 뒷받침할 만큼 충분한 수익이 발생할 것이라고 확신합니다. 제가 점점 더 확신하게 된 한 가지 프레임워크는 가격이 충분히 낮아지면 지능에 대한 수요는 사실상 무한하다는 것입니다.
진행자: 그렇다면 이런 관점에서 볼 때 수요 탄력성이 매우 높다는 말씀이시죠? 가격이 떨어지면 수요가 증가한다는 뜻인가요?
샘 알트만: 물론 그런 면도 있죠. 하지만 다른 식으로 말하자면, 물값을 낮추면 물을 더 많이 마시게 될 수도 있고, 하루에 한 번 샤워하던 것을 두 번으로 늘릴 수도 있겠죠. 어느 정도 유연성은 생기는 겁니다. 하지만 결국에는 "이제 물은 충분해."라고 말하게 될 거예요.
진행자: 그리고 만약 물이 정말 필요하다면, 가격이 아무리 비싸더라도 사게 될 거예요.
샘 알트만: 다른 공공 서비스도 마찬가지입니다. 전기 요금이 싸면 당연히 더 많이 사용하게 되죠. 하지만 지능을 공공 서비스라고 생각한다면, "가격만 낮으면 계속 더 많이 쓸 거야"라고 생각하게 만드는 다른 공공 서비스는 없을 겁니다.
맷 가먼: 흥미롭게도, 컴퓨팅 성능도 상당 부분 마찬가지입니다. 오늘날 컴퓨팅 사이클 비용을 생각해 보세요. 30년 전과 비교하면 몇 배나 저렴해졌지만, 오늘날 판매되는 컴퓨팅 성능은 그 어느 때보다 많습니다.
진행자: 네. 적어도 극도로 높은 규모에 도달하고 비용이 중요한 문제가 되기 전까지는 사람들은 컴퓨팅 비용에 대해 크게 생각하지 않습니다. 일반적으로 전략적인 관점에서 보면 모두가 컴퓨팅 능력을 충분히 갖추고 있다고 가정하죠. 그렇다면 AI가 그 지점에 도달하려면 얼마나 발전해야 할까요? 다시 말해, 사람들은 더 이상 "여기에 얼마나 많은 돈을 썼지?"를 가장 먼저 떠올리지 않는다는 뜻입니다.
샘 알트만: 지금 당장은 그런 반응이 첫 번째 반응은 아니라고 생각합니다. 오히려 지금은 "가격이 얼마든 상관없이 더 많이 줄 수 있나요? 용량이 더 필요하고, 더 비싸더라도 지불할 용의가 있습니다."라고 묻는 고객이 훨씬 많습니다. 반면에 가격 경쟁을 하는 업체는 훨씬 적습니다.
하지만 저는 우리가 앞으로도 가격을 상당히, 정말 놀라운 폭으로 낮출 수 있을 것이라고 확신합니다. 아마도 이렇게 할수록 이 분야에 더 많은 부가 유입될 것입니다. 저는 우리가 현재의 정보 수준을 유지하면서도 비용을 대폭 절감할 수 있을 것이라고 확신합니다.
다소 놀라웠던 점은 적어도 현재로서는 전체 시장 수요의 상당 부분이 절대적 프론티어 모델에 집중되어 있다는 것입니다.
진행자: 네, 이와 관련해서 여러 가지 문제가 있습니다. 최첨단 서비스 모델은 매우 비싸고, 사람들은 사실상 이전 버전을 사용할 수도 있습니다. 하지만 결국 사람들은 가장 최신 버전을 사용하고 싶어한다는 말씀이신가요?
샘 알트만: 지금까지는 그렇습니다.
맷 가먼: 저는 이것이 매우 긍정적인 신호라고 생각합니다. 우리가 진정으로 원하는 수준에는 아직 한참 멀었고, 충족되지 않은 수요가 여전히 많다는 것을 보여주기 때문입니다. 40년 전의 컴퓨팅 수요와 비슷한 상황이라고 생각합니다. 당시에는 컴퓨터가 엄청나게 비쌌지만, 지금은 모든 사람의 휴대폰이 그때보다 훨씬 더 강력한 컴퓨팅 성능을 갖추고 있고, 우리는 수십억 대의 휴대폰을 판매했습니다.
저는 인공지능 분야에서도 같은 일이 일어날 것이라고 생각합니다. 오늘날 모든 사람들이 최첨단 모델을 사용하고 싶어 하는데, 이는 유용한 작업을 수행하는 데 필수적이기 때문입니다. 또한 모든 사람들이 인공지능 외 분야의 가능성에 대해 매우 기대하고 있습니다.
시간이 흐르면서 다양한 모델들이 혼합된 형태가 될 것이라고 생각합니다. 일부 소형 모델은 최신 OpenAI 모델조차 아직 해내지 못한 일들을 해낼 수 있을 것입니다. 이러한 소형 모델들은 시간이 지남에 따라 더욱 작아지고, 저렴해지고, 빨라질 것입니다. 동시에 암이나 이와 유사한 문제들을 해결하기 위해 노력하는 초대형 모델들도 등장할 것입니다.
하지만 저는 아직 가능성의 초기 단계에 있다고 생각합니다. 초기 단계에서 이렇게 많은 수요와 빠른 성장을 볼 때, 미래는 매우 기대됩니다.
진행자: 다소 냉소적인 관점도 있지 않을까요? 샘, 당신의 고객 중 일부는 "OpenAI 모델을 정말 사용하고 싶은데, 현재 모든 데이터가 AWS에 있고, 이전할 생각이 없습니다."라고 말합니다. 매트, 당신 입장에서는 "저희 데이터도 모두 AWS에 있는데, OpenAI 모델도 가져와 줄 수 있나요?"라고 묻겠죠. 결국 핵심은 이러한 수요를 충족시키는 것입니다. AWS가 가장 큰 기업이기 때문에 수요가 엄청나다는 사실이 드러났습니다. 이것이 가장 간단한 해답일까요? 아니면 차별화된 무언가를 제공하여 양측 모두에게 새로운 고객을 유치할 수 있다고 진정으로 믿는 다른 측면이 있을까요?
샘 알트만: 저희는 AWS 고객 여러분께 서비스를 제공할 수 있게 되어 매우 기쁩니다. 많은 분들이 AWS를 좋아하시죠. 네, 맞습니다.
맷 가먼: 이 부분은 확실히 맞습니다.
진행자: (웃음) 네.
맷 가먼: 반대로, 저희 고객들도 OpenAI 기술을 이용할 수 있게 되어 매우 기뻐하고 있습니다.
샘 알트만: 하지만 저는 우리가 함께 놀라운 새로운 것을 만들어낼 수 있다고 믿습니다. 1년 후 사람들이 이 일을 되돌아볼 때, 가장 중요하게 이야기할 것이 "드디어 AWS를 통해 이러한 모델에 접근할 수 있게 됐네" 같은 이야기가 아니라, "와, 이 새로운 제품이 얼마나 중요한지 전에는 미처 몰랐네"라는 이야기가 되기를 바랍니다.
모델, 지원 시스템 및 기능 측면에서 볼 때, 우리는 완전히 새로운 형태의 컴퓨팅에 접근하고 있다고 생각합니다. 이는 기존의 "이 모델을 사용하려면 API가 필요합니다"라는 사고방식과는 매우 다를 것입니다.
맷 가먼: 전적으로 동감합니다. 그게 핵심이죠. 첫 부분도 좋지만, 두 번째 부분이야말로 우리 모두가 진정으로 흥미를 느끼는 부분이라고 생각합니다.
진행자: 이야기가 나온 김에 이 주제로 다시 돌아가 보겠습니다. 제가 생각하는 바가 있는데, 완전히 정확하지는 않을 수도 있지만, "무엇을 더 구축해야 할까요?"에 대한 여러분의 의견을 듣고 싶습니다. 특히, 궁극적으로는 진정한 미들웨어 또는 중간 계층이 필요할 수도 있다는 생각이 듭니다. 조직 내에는 다양한 데이터베이스, SaaS 애플리케이션, 그리고 여러 시스템에 걸쳐 흩어져 있는 다양한 데이터 조각들이 존재합니다. 그 위에 에이전트 계층이나 지원 시스템(하네스)이 있을 것입니다. 이 모든 것 사이에 구축해야 할 무언가가 있는 것 같습니다. OpenAI Frontier에서도 이 문제를 어느 정도 다룬 적이 있습니다. 이것이 바로 그 중간 단계일까요? 아니면 미래에 구축해야 할 부분일까요? 아니면 제 생각이 완전히 틀렸고, 이런 것은 전혀 필요 없는 것일까요?
샘 알트만: 전적으로 동감입니다. 그런 게 정말 필요해요. 최근에 특히 대기업 고객들과 이야기를 나누다 보니, "에이전트 런타임 환경이 필요해요. 데이터를 에이전트에 연결하고 토큰이 어디에 쓰이고 어디에 쓰이지 않는지 파악하고 감독할 수 있는 관리 계층도 필요하고요. 직원들을 위한 작업 공간도 있으면 좋겠어요." (코덱스 같은 게 있으면 좋겠네요.)
사람들이 요구하는 사항들은 점점 일관성을 보이고 있습니다. 하지만 이제 우리는 실제로 제품 전체를 만들어야 합니다.
진행자: 마치 이중 에이전트 계층이 필요한 것처럼 들리네요. 하나는 중간 계층을 유지하며 다양한 데이터 소스를 지속적으로 탐색하는 에이전트 계층이고, 다른 하나는 사람들이 실제로 상호 작용하는 사용자 인터페이스 계층인 거죠. 우리가 나아가고자 하는 방향과 일치하는 건가요? 아니면 제가 엉뚱한 방향으로 가고 있는 건가요?
샘 알트만: 저는 두 가지 의견 모두에 동의합니다. 오늘날 세상은 그런 모습일 수도 있죠. 하지만 모델이 진정으로 지능화된다면, 미래의 아키텍처가 실제로 어떤 모습일지는 아직 알 수 없다고 생각합니다.
이제, 사용자 에이전트 계층이라고 부를 수 있는 이 단계에서는 사람들이 여러 에이전트와 상호 작용하기를 원합니다. 우리는 사용자가 특정 기능을 위한 에이전트, 저 기능을 위한 에이전트를 구축할 수 있도록 지원하며, 이 에이전트들은 서로 통신할 수 있습니다. 또한, 회사 관리자 수준에서는 AI가 파일 시스템에서 파일을 탐색하도록 돕는 다양한 제어 메커니즘을 사용할 수 있습니다.
진행자: 그러다 어느 순간, 아무 이유 없이 과거에 집착하고 있다는 걸 깨닫게 되죠. 이런 것들은 애초에 모델에서 구현되었어야 했어요.
샘 알트만: 제가 바로 그 말을 하려고 했던 겁니다. 어느 시점에선가 "우리는 이미 놀라운 기능들을 갖추고 있으니, 아키텍처 전체를 재설계해 보자"라고 말할 수도 있겠죠.
맷 가먼: 네, 저도 동의합니다. 분명히 뭔가 새로운 것이 등장할 거라고 생각합니다. 지금 당장은 정확히 무엇인지 알 수 없지만, 그게 바로 이 분야의 매력입니다. 고객들이 직접 사용하고 만들어보면서, 그들의 경험을 통해 어떻게 하면 더 쉽고, 빠르고, 더 나은 서비스를 제공할 수 있을지 알아낼 수 있으니까요.
진행자: 샘, 이번이 저희가 제품 출시 관련 인터뷰를 하는 두 번째입니다. 지난번에는 케빈 스콧 씨와 함께 뉴 빙에 대해 이야기했었죠. 그때 당신은 구글에 상당한 위협이 될 거라고 확신하셨던 것 같은데요. 결과적으로 어떻게 됐다고 생각하시나요?
참고: 케빈 스콧은 마이크로소프트의 최고 기술 책임자입니다. 뉴 빙(New Bing)은 마이크로소프트가 오픈아이얼(OpenAI) 기술을 기반으로 2023년 2월에 출시한 AI 검색 제품입니다. 기존 검색 방식을 단순히 "링크만 보여주는" 방식에서 벗어나 "직접적인 답변을 생성하고 작업을 완료하는 데 도움을 주는" 상호작용적인 방식으로 개선하고자 했습니다. 당시 뉴 빙은 마이크로소프트가 오픈아이얼 기술을 활용하여 구글의 검색 시장 지배력에 도전하려는 중요한 시도로 여겨졌습니다.
샘 알트만: 제 생각에는 예상보다 훨씬 잘했다고 봅니다. ChatGPT는 제 생각에 페이스북 이후 처음으로 진정으로 대규모로 출시된 새로운 소비자 제품입니다.
진행자: 그럼 그게 답인가요? 다시 말해서, 예상보다 잘했지만, 그 결과가 주로 ChatGPT에만 반영되고 다른 영역에는 그렇지 않다는 말씀이시죠?
샘 알트만: 아니요, 특히 코덱스를 비롯한 API 개발은 꽤 잘 해왔다고 생각합니다. 하지만 당시 제가 생각했던 건 그게 아니었어요. 새로운 언어 인터페이스들이 사람들이 인터넷에서 정보를 찾는 방식을 바꿀 거라고 생각했죠. 구글은 정말 대단한 회사입니다. 구글이 하는 일의 폭과 깊이를 고려하면 여전히 많은 부분에서 저평가되고 있다고 생각해요. 하지만 상대적으로 봤을 때, ChatGPT의 성과에는 만족합니다.
진행자: 맷, 저도 구글에 대한 비슷한 질문이 있습니다. 이번 주에 토마스 쿠리안(구글 클라우드 CEO)이 모델부터 칩, 에이전트 레이어까지 모든 것이 위에서 아래까지 완벽하게 통합된 기술 스택에 대해 이야기했습니다. 그런데 오늘 맷 씨는 아마존의 임원을 모셨는데, 아마존은 엄밀히 말하면 내부적으로 완벽하게 통합된 회사는 아닙니다.
많은 사람들이 당신이 혁신적인 모델을 갖고 있지 않다고 비판해 왔습니다. 하지만 지금은 추론의 시대이고, 당신은 수많은 기업에 서비스를 제공해 온 경험이 있습니다. 어느 정도 중립성을 유지함으로써 오히려 더 유리한 위치에 서게 된 것은 아닐까요? 이는 의도적인 것이었습니까, 아니면 이전에는 그 중요성을 인지하지 못했지만 우연히 매우 유리한 위치에 놓이게 된 것입니까?
맷 가먼: 한 가지는 의도적인 것입니다. AWS를 시작한 이래로 우리는 항상 파트너를 최종 고객 지원에 있어 매우 중요한 부분으로 여겨왔습니다. 처음부터 파트너와 긴밀히 협력하는 것이 우리 전략의 핵심이었습니다. 다른 회사들과는 다소 다르게, 우리는 파트너가 성공하고, 우리를 기반으로 또는 우리와 함께 발전해 나간다면, 그것이 바로 우리의 성공이며, 이는 더할 나위 없이 좋은 일이라고 믿습니다.
우리는 파이를 더 크게 만들기 위해 함께 노력하는 것을 승리라고 생각합니다. 하지만 다른 사람들이 세상을 보는 방식은 꼭 같지는 않습니다. 어떤 사람들은 "나는 모든 것을 다 가져야 해"라고 말하기도 합니다. 그것도 괜찮습니다. 하나의 관점일 뿐이니까요.
하지만 저는 선택권이 중요하다고 생각합니다. 그래야 최고의 제품이 승리할 수 있죠. 물론, 이 세상에는 자사 제품도 있고, 다양한 타사 제품도 있을 수 있습니다. 하지만 저희는 고객이 자신에게 가장 적합한 것을 선택할 수 있도록 하는 것이 중요하다고 생각합니다. 만약 고객에게 가장 적합한 것이 저희가 직접 만든 제품이라면, 그것도 훌륭한 선택이죠.
저희는 파트너사가 최고의 제품을 개발하고, 그 제품이 저희 플랫폼 위에서 작동한다면 그것이야말로 고객에게 최고의 결과를 가져다주는 것이기에 진정한 승리라고 생각합니다. 저희는 항상 이러한 생각을 고수해 왔으며, AI 분야에서 Bedrock 플랫폼을 구축하는 방식 또한 마찬가지입니다. 저희는 다양한 모델과 기능을 지원하는 것을 목표로 합니다. 이는 데이터베이스부터 컴퓨팅 플랫폼에 이르기까지 모든 분야에 적용되는 원칙입니다.
그래서 저는 이것이 의도적인 전략이라고 생각합니다. 또한 고객들이 이러한 접근 방식을 좋아하기 때문에 높이 평가하는 전략이라고 생각합니다. 저희는 이 방향을 계속해서 모색해 나갈 수 있기를 기대합니다.
진행자: 네, 아주 흥미로운 말씀입니다. 소프트웨어, 플랫폼, 인프라 사이에는 균형을 맞춰야 하는데, 모두가 모두를 만족시킬 수 있다고 주장하죠. 하지만 AWS의 초창기를 돌아보면, 인프라(I)에서 시작한 것 같습니다. 제 생각에는 인프라가 거의 최대의 유연성을 제공해서 Sam과 중간 지점에서 만날 수 있게 해줬죠. Sam은 소프트웨어(S)에 강점을 가지고 있고, 우리는 함께 플랫폼(P)을 구축해 나가는 겁니다. 제 평가가 타당하다고 생각합니다.
맷 가먼: 맞습니다. 어떤 부분에서는 더 어려워지기도 합니다. 예를 들어, 저희는 "S3는 하나밖에 없다"라고 말하는데, 실제로 다른 S3 제품은 없습니다. 그래서 말씀하신 것처럼 인프라 수준의 핵심 구성 요소들에 대해서는 자체 개발에 많은 노력을 기울이고 있습니다.
하지만 기술 스택이 높아질수록 활용 가능한 기능 범위는 더욱 넓어진다고 생각합니다. 어쨌든 어떤 한 회사도 모든 애플리케이션을 독점할 수는 없을 것입니다. 기술 스택이 낮아져 모델 및 서비스 계층으로 내려갈수록 그 수는 줄어들고, 인프라 계층으로 갈수록 더욱 줄어듭니다. 저희는 파트너 포트폴리오 전체를 포용하는 것이 최종 고객에게 이롭다고 생각합니다.
진행자: 샘, 마지막으로 하실 말씀이 있으신가요?
샘 알트만: 매트가 정말 훌륭한 지적을 했다고 생각합니다. 개발자들이 지금 당장 만들 수 있는 차세대 제품에는 엄청난 잠재력이 있다고 확신합니다. 향후 1년 동안 모델 기능이 매우 가파르게 향상될 것으로 예상되는 만큼, 지금이 바로 우리가 함께 이 여정을 시작하고 이를 가능하게 하는 플랫폼을 구축하기에 완벽한 시기입니다. 사람들이 분명 좋아할 거라고 생각합니다.
진행자: 좋습니다. 맷, 샘, 스트라테처리에 출연해 주셔서 감사합니다.
맷 가먼: 정말 좋네요. 초대해 주셔서 감사합니다.
샘 알트만: 감사합니다.


