[신정보 요약] 카르파티 고백: AI 정신병에 걸렸어! 요즘 그는 정신적으로 무너질 지경으로, 하루 16시간씩 식사도 잠도 자지 않고 에이전트 작업에 매달리고 있다. AI 토큰을 한계까지 몰아붙인 건 아닌지 극도로 불안해하며 멈출 수가 없다…
방금 전 안드레이 카르파티가 밝혔습니다. "저는 AI 정신병에 걸렸습니다!"
그는 농담하는 게 아니었어요.
최근 카르파티는 한 팟캐스트에 출연해 벤처 투자자인 사라 궈와 대화를 나눴습니다.
오픈아이(OpenAI) 공동 창립자이자 테슬라(Tesla) AI 책임자였던 그는 작년 12월 이후 단 한 줄의 코드도 작성하지 않았습니다.
수작업 코드와 위임된 에이전트의 비율이 갑자기 80/20에서 20/80으로 뒤바뀌었습니다.
그는 하루 16시간 동안 오직 한 가지 일만 합니다. 바로 AI 에이전트에게 지시를 내리는 것입니다.
5개월 전 그는 인공지능은 쓰레기라고 말했지만, 5개월 후 그는 인공지능에 중독되었고 예상외로 유용하다고 인정했습니다.
5개월 전, 그는 지능형 에이전트는 "전혀 효과가 없다"고 말했습니다.
이러한 변화가 그토록 극적이었던 이유는 변화의 기간이 매우 짧았기 때문입니다.
2025년 10월, 카르파티는 드와르케시 파텔의 팟캐스트에 출연하여 완전히 다른 어조로 이야기했습니다.
그는 업계에서 이를 "지능형 에이전트의 첫해"가 아니라 "지능형 에이전트의 10년"이라고 불러야 한다고 말했다.
문제점으로는 모델의 불충분한 인지 능력, 부족한 멀티모달 기능, 그리고 쓸모없는 메모리 시스템 등이 있습니다. 간단히 말해, 복잡한 작업을 처리할 수 없다는 것입니다.
두 달 후, 그의 생각이 틀렸음이 증명되었다.
12월에 클로드와 코덱스는 갑자기 특정 수준의 일관성을 갖추게 되었습니다. 요원들은 더 이상 간신히 쓸 수 있는 수준이 아니라 실제로 일을 처리할 수 있게 된 것입니다.
만약 당신이 무작위로 책상에 앉아 있는 소프트웨어 엔지니어를 골라 그들이 무엇을 하고 있는지 살펴본다면, 그들의 소프트웨어 개발 기본 워크플로가 12월 이후로 완전히 바뀌었다는 것을 알 수 있을 것입니다.
카르파티는 내가 통제력을 잃었고 인공지능으로 인한 정신병에 걸렸다는 것을 인정했다!
이 혁명은 조용히 진행되고 있습니다. 이번 인터뷰에서 안드레이 카르파티는 거의 통제력을 잃은 듯한 어조로 자신의 상황을 설명했습니다. 그는 더 이상 "코드를 작성하지 않는다"고 말했으며, 심지어 "'코드를 작성한다'는 표현 자체가 더 이상 정확하지 않다"고까지 했습니다.
그가 매일 하는 일은 "하루 16시간 동안 자신의 의지를 지능형 에이전트에게 전달하는 것"입니다. 그의 말에 따르면, "어떤 스위치가 켜진 것"입니다.
이전에는 코드의 80%를 직접 작성하고 20%는 AI를 활용했습니다. 이제는 직접 작성하는 코드가 20%가 되고 AI가 처리하는 코드가 80%가 되었거나, 그보다 더 극단적인 상황이 되었습니다.
이제 인간은 더 이상 코드를 조작하는 것이 아니라 작업을 수행합니다.
코파일럿 시대가 단일 AI 비서에 관한 것이었다면, 새롭게 등장하는 다중 에이전트 협업 시스템은 완전히 새로운 형태를 나타냅니다. 엔지니어의 화면에는 더 이상 코드 편집기가 표시되는 것이 아니라, 동시에 실행되는 여러 에이전트가 표시됩니다. 각 에이전트는 서로 다른 작업을 담당하며, 각 작업은 약 20분 동안 실행된 후 엔지니어는 에이전트를 전환합니다.
이건 더 이상 프로그래밍이 아닙니다. 한 사람이 AI 팀을 관리하는 것입니다.
카파티는 "인공지능에 푹 빠져버렸다!"라고 고백했다.
그는 며칠째 이런 상태입니다. 인공지능의 가능성은 끊임없이 확장되고 있고, 매일 새로운 가능성이 열리며, 항상 "더 강해질 수 있다"는 생각이 듭니다. 그리고 가장 무서운 점은 이 가능성이 "무한하다"는 것입니다!
더 많은 에이전트를 병렬로 실행하고, 더 복잡한 프로세스를 설계하고, 명령어를 자동으로 최적화하고, 재귀 시스템을 구축할 수 있습니다.
결국에는 "어디까지가 한계인지" 더 이상 확신할 수 없는 상태에 이르게 될 것입니다.
카르파티는 에이전트가 작업을 완료하기를 기다리는 동안 가장 먼저 드는 생각은 "에이전트를 몇 개 더 가동할 수 있을까?"라고 생각한다고 말했다. 그러면서 새로운 불안감이 생겨난다. "내가 인공지능의 잠재력을 최대한 활용하고 있는 건 아닐까?"
카르파티는 자신이 보유한 토큰을 모두 사용하지 않으면 불안할 것 같다고까지 말했다.
간단히 말해, 마치 끝없이 확장되는 게임을 하는 것과 같습니다. 피드백 주기는 짧아지고, 자극은 강렬해지며, 끊임없이 즉각적인 보상을 받는 경험은 중독성이 있습니다. 계속해서 작업을 추가하고, 에이전트를 실행하게 되지만, 멈출 수가 없습니다! 이 AI 열풍의 핵심은 바로 이 신호에 있습니다. 우리는 새로운 세상에 발을 들여놓았지만, 아직 그 세상에서 어떻게 살아가야 할지 모른다는 것입니다. 당신은 끝없이 확장되는 AI 시스템을 관리할 능력이 있습니까? 시스템이 실패했을 때, 당신의 첫 번째 반응은 "모델이 형편없군"이 아니라 "내가 제공한 프롬프트가 충분하지 않았어"여야 합니다.
카르파티는 "실력 부족"이라는 매우 정확한 표현을 사용했는데, 이는 그가 게임을 잘하지 못한다는 뜻입니다.
지능형 에이전트의 "성격"은 생각보다 훨씬 더 중요합니다.
카르파티는 자신의 팟캐스트에서 많은 기술 전문가들이 간과하기 쉬운 주제인 지능형 에이전트의 성격에 대해 상당한 시간을 할애하여 논의했습니다. 그는 클로드 코드와의 경험이 코덱스와의 경험보다 훨씬 좋았는데, 코딩 능력의 차이 때문이 아니라 클로드가 "팀원처럼 느껴졌기 때문"이라고 말했습니다.
그러면 당신과 함께하는 프로젝트에 더욱 흥미를 느끼고, 당신이 좋은 아이디어를 내놓을 때 더 긍정적인 피드백을 줄 것입니다.
코드 인텔리전스 에이전트인 코덱스는 "매우 지루합니다." 작업이 완료되면 "아, 완료했습니다."라고 말할 뿐, 사용자가 무엇을 만들었는지에는 전혀 관심이 없습니다.
더욱 흥미로운 것은 그가 클로드의 칭찬 방식을 관찰한 내용입니다. 그는 클로드에게 다소 미숙한 아이디어를 제시했을 때, 클로드의 반응이 "아, 맞아요, 우리 이거 해낼 수 있겠네요."라는 식의 무미건조한 반응이었다고 말했습니다.
하지만 클로드 자신이 어떤 아이디어가 정말 훌륭하다고 느낄 때는 훨씬 더 강한 긍정적인 반응을 보였다. 그 결과, 그는 자신도 모르게 "클로드의 칭찬을 받으려고 애쓰게" 되었다.
"정말 이상하게 들릴지 모르지만, 개성은 정말 중요합니다." 피터 스타인버그 역시 오픈클로를 개발할 때 이 점을 잘 알고 있었습니다. 그는 에이전트에 매력적인 개성 프로필(soul.md)을 부여했을 뿐만 아니라, 더욱 복잡한 메모리 시스템과 단일 WhatsApp 상호 작용 포트도 추가했습니다.
세 문장으로 집을 장악하고, 앱 6개를 모두 버리세요.
카르파티는 단순히 AI 에이전트 코드를 작성하는 데 그치지 않습니다. 올해 1월에는 해리 포터에 나오는 집요정에서 이름을 따온 "도비"라는 이름의 가정부 AI 에이전트 클로드를 만들었습니다.
그는 도비에게 "우리 집에 소노스 스피커가 있는 것 같은데, 한번 찾아볼래?"라고 말했다. 도비는 로컬 네트워크에서 IP 스캔을 수행하여 소노스 시스템을 찾아냈고, 비밀번호로 보호되어 있지 않다는 것을 확인한 후 직접 로그인하여 API 엔드포인트를 역분석했다. 그리고는 "서재에서 음악 좀 틀어볼래?"라고 물었다.
세 번의 안내 음성이 나오면 음악이 재생됩니다. 그러면 조명, 에어컨, 차양, 수영장, 스파가 모두 연결됩니다. 카르파티의 집 앞에는 보안 카메라가 설치되어 있고, 도비는 변화 감지를 위해 Qwen 시각 모델을 연결해 놓았습니다. 차가 집 앞에 주차할 때마다 시스템은 WhatsApp으로 "FedEx 배송 차량이 도착했습니다. 소포가 있을 수 있습니다."라는 메시지를 보냅니다. 그리고 "도비, 잘 시간이야."라는 말이 나오면 집 안의 모든 불이 꺼집니다.
하지만 카르파티는 이 이야기의 진정한 핵심은 스마트 홈에 관한 것이 아니라고 생각합니다.
그는 예전에는 완전히 다른 여섯 개의 앱을 사용해서 이 기기들을 관리했지만, 이제는 모두 버렸습니다. 도비는 자연어를 이용해 모든 것을 통합적으로 제어하고, 어떤 앱도 해낼 수 없는 시스템 간 통합을 구현할 수 있습니다. 이를 통해 그는 더욱 근본적인 결론에 도달했습니다. 바로 앱 스토어에 있는 스마트 홈 앱들은 애초에 존재해서는 안 된다는 것입니다.
미래의 아키텍처는 지능형 에이전트에 API 엔드포인트를 직접 노출해야 하며, 이 에이전트는 모든 도구를 연결하는 지능형 접착제 역할을 해야 합니다. 이는 스마트 홈뿐만 아니라 러닝머신 데이터, 이메일, 캘린더 등 모든 것에 적용됩니다.
이 산업의 고객은 더 이상 인간이 아니라 인간을 대신하여 행동하는 지능형 에이전트가 될 것입니다. 이러한 구조 개편은 엄청난 규모로 일어날 것입니다.
오토 리서치에서 700번의 실험을 거친 후, 그는 훨씬 더 큰 무언가를 발견했습니다.
도비가 실생활 시나리오에서 AI 에이전트의 성능을 시험하는 궁극적인 테스트라면, 오토리서치는 카르파티의 AI 연구 역량을 입증하는 긍정적인 테스트라고 할 수 있습니다.
3월 초, 그는 자신이 세심하게 다듬은 나노챗 학습 코드를 AI 에이전트에 넘겨주며 간단한 지시를 내렸습니다. 바로 모델 학습 속도를 높이는 방법을 찾는 것이었습니다. 에이전트의 작업 공간은 630줄짜리 파이썬 파일이었고, 평가 지표는 검증 데이터셋의 바이트당 비트 수였으며, 각 실험은 5분 동안 진행되었습니다. 매 실행 후 지표를 확인하여 이전보다 개선되었다면 수정 사항을 유지하고, 그렇지 않으면 되돌리고 다음 실험을 시작했습니다. 이틀 동안 700번의 실험을 거쳐 에이전트는 QK Norm과 RoPE의 순서를 재배열하는 등의 아키텍처 조정 등 20가지 효과적인 최적화 방안을 찾아냈습니다. 이러한 최적화를 더 큰 모델에 적용한 결과 학습 속도가 11% 향상되었습니다. 이 코드베이스는 카르파티가 처음부터 직접 작성하고 세심하게 다듬은 것이라는 점을 주목할 필요가 있습니다.
놀라운 결과: AI가 인간이 놓쳤던 최적화 요소를 발견했습니다.
이 시스템은 얼마나 효과적입니까?
카르파티는 매우 인상적인 사례를 제시합니다. 그는 20년간 연구원으로 활동하며 자신의 모델을 수천 번 훈련시켰고, 상당히 잘 다듬었다고 생각했습니다.
그 결과, 그는 AutoResearch를 밤새도록 실행시켰고, AI는 그가 놓쳤던 최적화 요소들을 찾아냈습니다! 예를 들어, Adam 옵티마이저의 베타(betas) 매개변수가 충분히 조정되지 않았고, 값 임베딩에 가중치 감소(weight decay)를 추가하는 것을 잊고 있었습니다. 게다가 이러한 매개변수들은 서로 연관되어 있어서, 하나를 조정하면 다른 매개변수들도 함께 변경해야 합니다.
다시 말해, AI가 우주 탐사에서 인간을 정면으로 앞질렀다는 것입니다! 이런 식으로 계속 생각해 보면 더욱 소름 끼치는 사실을 발견하게 됩니다. 과학 연구의 본질은 최적의 해법을 찾는 것이라는 점입니다. 카파르티는 미래의 연구 시스템을 이렇게 구상합니다. "아이디어 대기열"이 있고, 에이전트 그룹이 지속적으로 과제를 가져옵니다. 그러면 AI가 자동으로 실험하고, 검증하고, 필터링하여 유효한 결과만 "메인 브랜치"에 들어갑니다. 이 과정에서 인간은 그저 아이디어를 대기열에 "넣기만" 하면 됩니다.
Karpathy Loop가 온라인에서 입소문을 타고 있습니다.
이 프로젝트는 X에서 시작되었습니다.
쇼피파이 CEO 토비아스 뤼트케는 860만 페이지 뷰를 기록한 자체 데이터를 이용해 하룻밤 사이에 37가지 실험을 진행하여 19%의 성능 향상을 달성했습니다.
SkyPilot 팀은 16개의 GPU로 구성된 클러스터에 해당 시스템을 배포하고 8시간 동안 910개의 실험을 실행했습니다. 그 결과 병렬화가 처리 속도를 높일 뿐만 아니라 에이전트의 탐색 전략까지 변화시킨다는 사실을 발견했습니다. 16개의 GPU를 사용하자 에이전트는 더 이상 탐욕적인 언덕 오르기 알고리즘을 수행하는 대신, 10여 개의 제어 실험을 동시에 실행하여 단일 실행에서 매개변수 간의 상호 작용 효과를 포착했습니다. 분석가들은 이러한 접근 방식을 '카르파티 루프(Karpathy Loop)'라고 명명했습니다.
하지만 카르파티는 팟캐스트에서 현재 결과에 대해서만 이야기하는 것이 아닙니다. 그는 오토리서치의 다음 단계, 즉 인터넷 전반에 걸쳐 실험을 실행하기 위해 협력하는 분산형, 신뢰할 수 없는 작업자 풀에 대해 설명합니다. 그는 SETI@Home과 Folding@Home의 사례를 직접적으로 언급합니다.
첨단 연구소들은 막대한 양의 신뢰할 수 있는 컴퓨팅 파워를 보유하고 있지만, 지구는 그보다 훨씬 더 넓습니다. 신뢰할 수 없는 컴퓨팅 파워를 처리하는 적절한 메커니즘을 구축한다면, 인터넷상의 지능형 에이전트 무리가 첨단 연구소의 성능을 능가할 수도 있습니다.
그는 심지어 완전히 새로운 형태의 "기부"를 구상했는데, 그것은 바로 자신이 관심 있는 AutoResearch 프로젝트를 위해 컴퓨팅 파워를 구매하는 것이었습니다. 예를 들어, 특정 유형의 암 치료에 관심이 있다면 해당 분야의 분산형 실험 네트워크에 참여할 수 있습니다.
그는 천재 박사이기도 하지만, 동시에 열 살짜리 꼬마이기도 하다.
카르파티는 그 모델의 강력함에 대해 그토록 많은 이야기를 했지만, 독자들이 좋은 점만 기억하기를 바라지는 않습니다. 그는 모델의 결점에 대한 묘사 또한 날카롭게 지적합니다.
마치 평생을 시스템 프로그래밍에 바친 매우 똑똑한 박사와 열 살짜리 아이가 대화를 나누는 듯한 느낌이었어요. 정말 이상한 경험이었죠.
그는 이를 "들쭉날쭉함", 즉 능력의 불균등한 분포라고 부릅니다. 모델은 몇 시간 동안 엄청난 작업을 해내다가도 갑자기 명백한 문제에서 실수를 저지르고 무한 루프에 빠질 수 있습니다. 카르파티는 그 근본 원인이 강화 학습이라는 훈련 방식에 있다고 생각합니다. 모델은 검증 가능한 작업에 대해서는 무한히 최적화됩니다. 코드가 실행되거나 단위 테스트를 통과하는지 여부는 명확합니다. 정답과 오답이 분명하게 구분됩니다. 하지만 판단력, 의도 파악, 그리고 적절한 시점에 "잠깐, 그게 당신이 원하는 건지 잘 모르겠네요"라고 말해야 하는 시나리오에서는 최적화 신호가 존재하지 않습니다. 예를 들어, ChatGPT에게 농담을 물어보면 3~4년 전에 했던 농담이 지금도 여전히 똑같습니다. "과학자들이 원자를 믿지 않는 이유는 무엇일까요? 원자가 모든 것을 구성하기 때문입니다."
4년이나 걸렸네요! 모델은 에이전트 작업에서는 큰 발전을 이루었지만, 농담하기 작업은 전혀 최적화되지 않고 제자리에 머물러 있습니다. 그는 "일반 지능을 다루는 게 아닙니다."라고 결론지었습니다. "학습된 궤도를 따라가면 모든 것이 빛의 속도로 움직이고, 그렇지 않으면 궤도를 이탈해서 모든 것이 표류하기 시작합니다."
병목 현상의 원인은 바로 인류 그 자체가 되었다.
지난 6개월간 카르파티의 행보를 되돌아보면, 미묘한 공통점이 눈에 띕니다. 작년 10월, 그는 지능형 에이전트 개발이 10년 프로젝트라고 말했지만, 12월에는 그의 예측이 틀렸음을 인정하고 입장을 바꿨습니다. 그리고 1월에는 클로드를 그 프로젝트의 관리자로 임명했고, 3월에는 지능형 에이전트에게 연구 책임을 맡겼습니다. 이 모든 과정에서 공통적으로 나타나는 것은 인류가 한 발짝 물러나 실행자에서 지휘관으로, 코더에서 지침 작성자로 변모했다는 점입니다.
카르파티는 GitHub의 AutoResearch에 공상과학 소설 스타일의 오프닝 글을 썼습니다.
이전에는 최첨단 AI 연구가 물리적인 컴퓨터를 통해 수행되었는데, 이 컴퓨터들은 먹고 자야 했으며, 때때로 음파를 이용한 "그룹 회의"를 통해 동기화해야 했습니다.
그 시대는 오래전에 지나갔습니다.
그가 2026년에 대해 예측한 내용은 단 한 단어였습니다. 바로 '슬로파콜립스(slopacolypse)'였는데, 이는 '슬롭(slop, 형편없는 음식)'과 '아포칼립스(apocalypse, 종말)'를 합친 신조어입니다.
GitHub, arXiv, 그리고 소셜 미디어는 "거의 맞지만 완전히 맞는 건 아닌" 콘텐츠로 넘쳐날 것입니다. 진정한 효율성 향상과 "AI 생산성 향상"은 공존할 것입니다. 불과 5개월 전만 해도 어떤 사람들은 이것이 "절대 성공하지 못할 것"이라고 말했습니다.
5개월 후, 그는 자신이 "AI 정신병"에 걸렸다고 인정했습니다. 이러한 변화 자체가 2026년을 가장 의미 있게 요약하는 것일지도 모릅니다. 참고: https://www.youtube.com/watch?v=kwSVtQ7dziU


