AI 에이전트가 빨라지는 건 확실한데, 그래서 프로세스 전체가 빨라졌느냐 하면 꼭 그렇지도 않은 것 같습니다.
이번엔 속도를 올렸는데 왜 안 빨라지는지, 그리고 그 속도가 갑자기 사라졌을 때 무슨 일이 벌어지는지에 대한 이야기에요.
포커스
빠르게 반복하는 것과 축적하는 것은 다르고, 코드가 빨라진다고 전체가 빨라지는 건 아닙니다.
‘스킬'이라는 기억 장치
에이전트의 고질적인 문제가 하나 있습니다. 세션이 끝나면 배운 걸 전부 잊는다는 거예요.
같은 실수를 반복하고, 같은 질문을 다시 하고, 어제 해결한 문제를 오늘 또 처음부터 풀어야 합니다. 빠르긴 빠른데, 축적이 안 되는 거죠.
Zhejiang대, Alibaba, Tencent 등 15개 기관이 공동으로 SkillNet이라는 연구를 발표했습니다. 에이전트가 학습한 스킬을 20만 개 이상의 공유 라이브러리로 구축해서, 한 에이전트가 배운 걸 다른 에이전트가 바로 재사용할 수 있게 하는 구조입니다.
결과가 꽤 인상적이에요. 모든 테스트 모델에서 평균 보상 40% 향상, 실행 스텝 30% 감소.
같은 날 Anthropic도 Claude Code Skills 라이브스트림을 진행했습니다. Uber가 실제 업무에서 스킬을 어떻게 쓰는지 공개하는 자리였구요. '스킬'이라는 개념이 연구실에서만 도는 게 아니라, 이미 실무에 들어와 있다는 걸 보여주는 장면이었습니다.
커뮤니티에서도 오픈소스 스킬 레포지토리를 전면 재작성하는 움직임이 나왔습니다. Anthropic이 공개한 "스킬은 좁을수록 좋다"는 원칙에 맞춰, 기존 스킬 구조를 처음부터 다시 짠 거죠.
여기서 패러다임이 바뀌고 있습니다. '빠르게 반복하는 것'에서 '축적하는 것'으로요.
에이전트가 매번 빈손으로 오는 게 아니라, 이전 세션의 경험이 쌓이고, 그게 다른 에이전트에게도 전파되는 구조. 속도가 아니라 기억이 경쟁력이 되는 셈입니다.
속도가 문제가 아니었다
에이전트가 코드를 빠르게 써주니까, 전체 개발 속도가 빨라질 거라고 기대하는 게 자연스럽습니다. 그런데 현실은 좀 다릅니다.
"AI 에이전트가 오히려 속도를 늦추는가?"라는 반직관적인 질문이 화제가 됐습니다. Uber의 사내 AI 도입 사례를 분석한 내용인데, AI 도구가 코드 작성 속도를 높여도 검토와 승인 단계에서 지연이 생기면 전체 사이클은 오히려 느려진다는 구조적 문제를 짚습니다.
"코드 작성 속도가 문제라고 생각했다면 더 큰 문제가 있다"는 글도 주목받았습니다. 골드렛의 제약이론(The Goal)을 AI 시대에 적용한 분석인데, 핵심은 간단합니다. 코드를 아무리 빨리 쳐도, 리뷰 대기, 배포 지연, 불명확한 요구사항이 병목이면 전체 속도는 거기에 묶인다는 거예요.
코드 생산량이 늘수록 비개발 단계의 정체가 오히려 심화됩니다. AI가 하루에 PR 50개를 만들어도, 리뷰할 수 있는 건 10개라면 나머지 40개는 대기열에 쌓이기만 하는 거죠.
결국 AI 도입의 효과는 코드 속도가 아니라 전체 흐름의 제약을 어디서 풀어주느냐에 달려 있습니다. 속도를 올리는 게 아니라, 어디가 느린지를 찾는 게 먼저라는 이야기입니다.
Claude가 멈춘 날
속도에 적응하면, 속도가 사라졌을 때 무슨 일이 벌어질까요.
어제 Claude Code가 대규모 서버 과부하(529 Overloaded)로 다운됐습니다. "Claude 없이는 일을 못 하겠다", "프로젝트 전체가 멈췄다"는 반응이 쏟아졌구요. Anthropic이 사용량을 2배로 늘린다고 발표한 직후 발생한 터라 더 아이러니했습니다.
이건 단순한 ...


