좋은 글 감사합니다!!

전상돈
2026.04.01
에이전트 시대, 누가 에이전트인가
이전에 쓴글인데.. 오늘 호옹이님의 글을 보고 생각나서 글을 올립니다.
좋은 글 올려주신 호옹이님께 항상 감사드립니다.
모두가 에이전트 AI를 말한다. AI가 계획하고, 도구를 선택하고, 실행하고, 검토까지 한다.
사람은 최종 승인만 하면 된다고 한다. 효율의 극대화. 개입의 최소화.
"알아서 해줘"가 목표가 된 시대.
나는 약간 다르게 쓰고 있다.
글 하나를 쓰는 과정
최근에 Berkshire Hathaway 투자 분석 글을 썼다. (조만간 공개할 예정..)
예전에 따로 써뒀던 글 세 개가 있었다.
재정 우위 체제에 대한 생각, BRK 현금 포지션 메모, 보험 플로트 구조 정리. 흩어진 조각들이었다.
이걸 합치면 뭔가 되겠다는 직감은 있었다.
그런데 어떻게 합쳐야 할지 혼자서는 그림이 안 그려졌다.
클로드에게 3개의 글을 보여주고 대화하면서 구조를 잡았다.
거시 프레임에서 출발해서 BRK의 구조적 포지션으로, 트리거와 밸류에이션, 리스크로 이어지는 흐름.
거기선 구조만 잡고, 컨텍스트를 새롭게 연 다음 글 3개를 다시 보여주고 다른 클로드가 이런 구조를 나와 함께 짰으니 이 구조대로 글을 집필 시켰다. 리미트는 없다. 글이 길어져도 괜찮으니 모두 쓰라고 했다.
그렇게 초안을 쓴다음,
또 다른 창들에서 그 초안을 평가를 받았다. 평가를 토대로 토론을 한다. 평가는 최초의 평가 위주로만 수정을 한다.
대화가 길어지면 그놈의 편향이 날 또 괴롭힌다. 그리고 그 평가를 토대로 글을 재작성한다.
그렇게 수십회 평가받고 수정한다. 논지를 세웠다가 갈아 엎는다.
그 이후 GPT의 시각도 섞었다. LLM마다 집중하는 부분이 달라서 새로운 관점을 얻을수 있다.
최종적으로 블라인드 테스트로 최종본을 고른다.
나의 최근 LLM 사용의 핵심은 Fresh context다.
하나의 대화에서 계획과 초안, 집필을 동시에 하면 편향이 생긴다.
독립된 창은 독립된 시각을 만든다. 하지만 편향이 가장 없다는 Opus도 턴이 길어지면 편향이 생긴다.
판단에 대한 도움을 얻을수 있는 턴은 초반4~5턴이 가장 품질이 좋다고 느꼈다.
그 이후 턴은 초반에 잡아놓은 방향성에 대해 깊이 가기 좋은 상태가 된다.
트랜스포머 매커니즘의 구조적 한계가 있는거 같아 이 문제를 해결하기는 참 어려울것 같다.
복수 LLM모델을 섞으면 서로의 편향도 일부 상쇄시킨다.
근데 만약 이 과정을 AI 에이전트가 했으면 어땠을까? 아직 나는 상상이 안된다.
트랜스포머는 컨텍스트가 길어지면 길어질수록 맥락을 쌓고 편향도 같이 쌓는다.
여기서 창발적 아이디어나 새로운판단이 나오기 어렵다고 생각된다.
내 작업과정으로 돌아오면, 내 작업에서 AI가 스스로 한건 없었다.
"이 세 글을 합치자"고 먼저 말한 것도, 구조를 정한 것도, "이건 아닌데"라고 판단한 것도 나다.
AI들은 내가 시킨 일을 잘 했다. 에이전트는 나였고, AI는 워커였다.
무엇이 희소해지는가
에이전트 시대에 계속 희소한 건 세 가지이라고 생각한다.
뭘 원하는지 아는 것. 글 세 개를 보고 "이걸 합치면 뭔가 되겠다"고 생각하는 것. AI는 이걸 먼저 제안하지 않는다. 시키면 한다. 그러나 시키기 전에 뭘 시킬지 결정하는 건 사람의 몫이다.
좋고 나쁨을 판단하는 것. "이건 아닌데"라고 말하는 것. 블라인드 테스트 결과를 보고 최종 선택을 하는 것. LLM에게 시킬 수도 있다. 그러나 그 LLM의 판단이 맞는지를 판단하는 건 또다시 사람의 몫이다. 끝까지 파고 들어가면 누군가는 판단해야 한다.
실제로 베팅하는 것. 분석을 믿고 포지션을 잡는 것. 틀렸을 때 손절하는 것. 이건 AI가 대신 못 한다.
"알아서 해줘"라고 말하는 순간 에이전트 역할을 넘긴 거다. 넘기면 편하다. 그러나 넘긴 만큼 자기 것이 아니게 된다.
나도 헷갈린다
그런데 솔직하게 말하면, 그 확신이 흔들릴 때가 있다.
나도 AI에 먹혀가던 시절이 있었다. 새로운 걸 자동화하고 싶은 욕구도 있었다. 그 욕구가 외적 인정을 향해 흘러가기 시작했을 때, AI는 그걸 엄청나게 그럴듯하게 포장해줬다. 내가 아닌 나를 나로 착각하게 만드는 상황.
그 상황의 실패와 후회가 지금의 생각을 이끈건 아닌가 싶다.
외재적 동기보단, 내재적 동기를 우선하고 내가 나로써 온전히 서있을수 있고 싶다는 생각이 더 강하다.
클로드한테 구조를 설명하다 보면 내가 뭘 원하는지 더 선명해질때가 있다.
결과물을 보면서 "이건 아닌데"라고 느끼는 순간, 내가 뭘 원하는지 역으로 알게 된다.
나 혼자서는 안된다. 근데 나 없이는 안된다. 의존이 아니라 새로운 인지 형태일 수도 있다는 생각이 들었다.
근데 확신은 없다. 워크플로우가 정교하면 본질이 달라지는가.
컨텍스트를 분리하고 블라인드 테스트를 하면 "에이전트로서 AI를 쓰는 것"이고,
그냥 한 창에서 쭉 쓰면 "에이전트 자리를 넘긴 것"인가. 그 선이 내가 생각하는 것만큼 명확한지 모르겠다.
마음 한켠에선 이런 생각도 떠오른다.
"내가 에이전트 역할을 유지하고 있다"는 확신은 어디서 오는가?
그 확신 자체가 AI가 포장해준 것일 수도 있다.
에이전트 시대에 중요한 질문은 "AI가 얼마나 똑똑해지는가"가 아니다.
당신은 에이전트인가, 워커인가.
방향을 정하는 건 당신인가, AI인가.
"이건 아닌데"라고 말하는 건 당신인가, AI인가.
뭘 원하는지 아는 건 당신인가, AI인가.
답이 계속 "나"라면, AI가 아무리 똑똑해져도 당신은 당신으로써, 에이전트로써 남는다.
근데 그 답을 확인하는 능력 자체가 AI에 의해 형성됐다면?
이건 각자 결정할 일이다. 나도 아직 모른다.
