AI 인프라 전쟁의 진짜 병목은 GPU가 아니다 — 딜런 패텔

AI 인프라 전쟁의 진짜 병목은 GPU가 아니다 — 딜런 패텔

avatar
호랭교관
2026.03.20조회수 143회
image.png

📌 팟캐스트 요약

  • 빅테크 4사의 2025년 합산 CapEx 약 $6,000억, 공급망 포함 시 $1조 규모에 달하며 그 대부분은 '즉시 지출'이 아닌 2027~2029년을 위한 선투자다.

  • Anthropic은 보수적 컴퓨트 전략으로 올해 심각한 용량 부족에 처했고, OpenAI는 공격적 계약으로 훨씬 많은 컴퓨트를 선점했다.

  • H100 렌탈 가격은 하락하지 않고 오히려 상승 중이며, GPU 감가상각 논쟁에서 '수익 가치 기반 가격 책정'이 '성능 대비 가격 하락' 논리를 이기고 있다.

  • 반도체 공급망의 최종 병목은 ASML의 EUV 장비 생산 능력이며, 2030년까지 연간 100대 수준에 불과하다.

  • 현재의 진짜 병목은 전력이나 데이터센터가 아니라 로직 웨이퍼와 메모리, 즉 반도체 제조 자체다.


🎙️ 오늘의 게스트가 중요한 이유

딜런 패텔은 반도체·AI 인프라 전문 리서치 기관 SemiAnalysis의 CEO다. 그는 빅테크 하이퍼스케일러의 실제 CapEx 지출 구조, TSMC 웨이퍼 할당 현황, 클라우드 컴퓨트 계약 구조 등 외부에서 접근하기 어려운 공급망 데이터를 추적하고 분석한다. AI 인프라 투자 열풍의 실체를 숫자로 검증할 수 있는 몇 안 되는 독립 분석가 중 한 명이다.


이 에피소드는 드워키시의 자택에서 녹화됐으며, 딜런은 드워키시의 룸메이트이기도 하다.


드워키시: 이번 에피소드는 룸메이트가 반도체를 가르쳐주는 에피소드입니다. 그리고 이 세트를 마지막으로 사용하는 날이기도 하죠.


딜런: 맞아요. 한 번 쓰고 나면 다시 못 쓰겠다는 생각이 들거든요. "이제 여기서 나가야 해." 드워키시는 두 번 쓴 건 안 됩니다.


💰 $6,000억 CapEx의 실체 — 언제, 어디에 쓰이는가

드워키시: 딜런은 SemiAnalysis의 CEO입니다. 딜런에게 드리고 싶은 가장 뜨거운 질문이 있어요. 아마존, 메타, 구글, 마이크로소프트 — 이 빅4의 올해 합산 예상 CapEx를 당신이 최근 발표했는데 $6,000억이더군요. 연간 렌탈 가격 기준으로 환산하면 약 50기가와트에 해당합니다.


물론 올해 50기가와트를 실제로 켤 수는 없겠죠. 그렇다면 이 돈의 상당 부분은 향후 몇 년에 걸쳐 가동될 컴퓨트를 위해 지금 지불하는 것이겠고요. 이 CapEx가 실제로 가동되는 타임라인을 어떻게 봐야 할까요?


드워키시: 비슷한 맥락에서 AI 랩들 얘기도 하고 싶습니다. OpenAI는 방금 $1,100억을 조달했고, Anthropic$300억을 조달했습니다. 올해 온라인으로 가동되는 컴퓨트를 딜런이 얘기해줘야겠지만, 총합이 4기가와트 정도 되나요?


드워키시: 1기가와트짜리 컴퓨트를 렌탈로 운영하는 데 드는 비용이 기가와트당 $100억~$130억이라고 합니다. 그렇다면 이번 라운드 조달액만으로도 올해 컴퓨트 지출을 커버하기에 충분하고, 여기에 올해 벌어들일 매출은 포함도 안 됩니다.


그렇다면 두 가지를 이해하고 싶어요. 첫째, 빅테크 CapEx가 실제로 가동되는 시간 스케일은 어떻게 되나요? 둘째, 랩들은 연간 기가와트당 $130억인데 도대체 이 돈을 왜 이렇게 많이 조달하는 건가요?


딜런: 이 하이퍼스케일러들의 CapEx가 $6,000억 수준이고, 공급망 전체를 더하면 $1조 수준이 된다고 할 때, 그 중 일부는 올해 바로 온라인이 될 컴퓨트를 위한 것입니다. 즉, 올해 지불되는 칩 비용과 기타 CapEx 항목들이죠. 그런데 상당한 부분이 셋업 CapEx입니다.


image.png

딜런: 올해 미국에서 20기가와트의 용량이 신규로 추가된다고 할 때, 그 CapEx의 일부는 사실 작년에 이미 지출됐습니다. 예를 들어 구글의 $1,800억 중 상당 부분은 2028~2029년용 터빈 보증금으로 나가고, 일부는 2027년 데이터센터 건설비로, 또 일부는 전력 구매 계약 선불금으로 지출됩니다.


이 모든 것이 초고속 스케일링을 위한 미래 준비 비용입니다. 이는 모든 하이퍼스케일러와 공급망 전반에 해당하는 얘기입니다.


딜런: 대략 올해 배포되는 20기가와트 중 많은 부분이 하이퍼스케일러 몫이고, 일부는 그 외 업체들 몫입니다. 이 모든 회사들의 가장 큰 고객은 Anthropic과 OpenAI입니다. 현재 이 두 곳은 각각 2~2.5기가와트 수준이며, 훨씬 더 빠르게 스케일업하려 하고 있습니다.


🔥 Anthropic의 컴퓨트 위기 — 보수적 전략의 대가

딜런: 지난 몇 달간 Anthropic의 행보를 보면, 월 $40억~$60억 수준으로 매출이 추가됐습니다. 이 속도로 직선 연장하면 다음 10개월 동안 $600억의 추가 매출이 발생합니다. 그게 비관적인 시나리오라고 주장하는 사람도 있을 정도입니다.


딜런: 이 $600억 매출에서, 미디어가 보도한 Anthropic의 현재 매출총이익률을 적용하면 약 $400억의 인퍼런스 컴퓨트 지출이 필요합니다. 기가와트당 렌탈 비용 약 $100억 기준으로, 4기가와트의 인퍼런스 용량을 추가해야 한다는 계산이 나옵니다. 이건 연구·개발 트레이닝 플릿이 현 수준을 유지한다는 가정에서의 수치입니다.


즉, Anthropic은 올해 말까지 5기가와트 이상에 도달해야 합니다.


드워키시: 그 얘기에서 짚고 싶은 게 있어요. Anthropic이 올해 말까지 5기가와트에 도달하기 어렵다면, 그리고 예상보다 훨씬 폭발적으로 성장한 매출도 서비스해야 하고, 내년 모델 경쟁력을 위한 연구·트레이닝도 해야 한다면 — 그 용량은 어디서 가져와야 하는 건가요?


딜런: Dario는 당신 팟캐스트에서 굉장히 보수적인 입장을 취했죠. "매출이 예상과 다른 속도로 꺾일 수 있으니 컴퓨트에 미치지 않겠다. 파산하고 싶지 않다. 책임감 있는 스케일링을 하겠다"고 했습니다.


그런데 현실에서 Anthropic은 OpenAI에 비해 완전히 뒤처졌습니다. OpenAI의 전략은 "그냥 미친 듯이 계약을 체결하자"는 거였거든요. OpenAI는 올해 말까지 훨씬 많은 컴퓨트를 확보해 놨습니다.


드워키시: 그렇다면 Anthropic이 급하게 컴퓨트를 구해야 할 때 어떤 상황이 벌어지나요? 네오클라우드로 가야 하는 건가요? 그쪽 컴퓨트가 더 떨어지나요? 어떤 측면에서 더 열등한가요? 막판에 계약하면 클라우드 제공업체에 더 높은 마진을 지불해야 하나요? 그 예비 용량은 누가 만들어 놓은 건가요?


딜런: 예비 컴퓨트를 구하는 측면에서 보면, 하이퍼스케일러에도 일부 용량이 있습니다. 모든 컴퓨트 계약이 5년 장기 계약은 아니니까요. 2023~2024년 혹은 2025년 H100들 중 단기 계약 형태로 운영되는 것들이 있습니다.


딜런: OpenAI 컴퓨트의 대부분은 5년 계약으로 체결됐지만, 다른 고객들 중에는 1년, 2년, 3년, 또는 6개월 온디맨드 계약도 많았습니다. 이런 계약들이 만료될 때, 가장 높은 가격을 기꺼이 지불할 시장 참여자가 그 용량을 가져갑니다. 그래서 H100 가격이 크게 반등해서 올라가고 있는 것입니다. 사람들은 $2 이상으로도 장기 계약을 체결하려 합니다.


딜런: 어떤 AI 랩들은 2~3년짜리 H100 계약을 시간당 $2.40에 체결하는 것도 봤습니다. Hopper 한 대를 5년 기준으로 배포하는 비용이 시간당 $1.40이라는 점을 생각해보면, 이미 2년을 쓴 장비를 2~3년 더 $2.40에 계약한다는 건 마진이 엄청나게 높다는 겁니다. 이렇게 되면 Amazon, CoreWeave, Together AI, Nebius 등 다른 공급업체들을 시장에서 밀어낼 수 있습니다.


딜런: 이런 네오클라우드들은 Hopper 비중이 높았고 — 상대적으로 더 공격적으로 Hopper를 매입했거든요 — 동시에 단기 계약을 선호했습니다(CoreWeave 제외). 그래서 Hopper 용량이 어느 정도 시장에 있기는 합니다.

Oracle이나 CoreWeave의 경우, Blackwell 관련 물량은 장기 계약으로 이미 팔렸습니다. 이번 분기에 온라인이 되는 물량은 이미 다 나갔고요. 일부는 Nebius, Microsoft, Amazon, Google 등에서 데이터센터 지연으로 약속한 수량을 맞추지 못하는 경우도 있습니다.


딜런: 그러나 네오클라우드와 일부 하이퍼스케일러 중에는 아직 팔리지 않은 용량, 또는 강력한 AGI 지향 용도가 아닌 내부 용도로 배정했다가 이제 판매로 전환할 수 있는 용량도 있습니다. 혹은 Anthropic이 모든 컴퓨트를 직접 보유할 필요도 없습니다. Amazon이 컴퓨트를 갖고 Bedrock을 통해 서비스하거나, Google이 Vertex를 통해, Microsoft가 Foundry를 통해 서비스하면서 Anthropic과 매출 분배를 하는 방식도 가능합니다.


드워키시: 즉, Anthropic은 매출의 50% 수준의 마진을 지불하거나 — 매출 분배 형태로 — 아니면 일찍 확보했더라면 내지 않아도 됐을 스팟 컴퓨트 할증료를 지불하는 상황이라는 거죠.


딜런: 맞아요, 트레이드오프가 있습니다. 하지만 동시에 한동안 4개월이나 모두가 OpenAI에게 "당신들과는 계약 안 한다"고 했던 것도 사실입니다. 말도 안 된다 싶지만, 이유는 간단했어요: "돈이 없잖아요."


지금은 다들 "OpenAI, 처음부터 믿었어요. 이제 돈이 생겼으니 어떤 계약이든 할 수 있습니다"라고 합니다. Anthropic은 그 반대 방향으로 제약을 받고 있습니다. Anthropic의 매출이 폭발적으로 성장하는 이 능력 단계에 도달한 다른 구매자가 아직 없기 때문에 더욱 그렇습니다.


image.png

📉 H100 감가상각 논쟁 — GPU는 정말 빠르게 낡는가

드워키시: 흥미로운 점을 짚으셨어요. 최고의 모델을 보유하는 것 자체는 극도로 빠르게 하락하는 자산처럼 보일 수 있습니다. 3개월 후면 더 이상 최고 모델이 아니니까요. 하지만 그게 중요한 이유는 그 상태일 때 미리 계약을 체결하고, 컴퓨트를 선점하고, 좋은 가격을 잠글 수 있기 때문이라는 거죠.


드워키시: 그리고 적어도 최근까지, 사람들이 GPU의 감가상각 주기에 대해 큰 이슈를 제기했습니다. Michael Burry 같은 베어들은 "GPUs의 실제 수명은 2년이며, 기술이 워낙 빠르게 발전하니 2년 감가상각이 맞다"고 주장했습니다. 이렇게 되면 연간 상각 CapEx가 늘어 클라우드 구축이 재무적으로 덜 매력적이 됩니다.


그런데 당신은 반대로 감가상각 주기가 5년보다도 더 길 수 있다고 시사하고 있습니다. 2030년에 "7나노 팹을 다시 돌려야 한다, A100도 다시 켜야 한다"고 할 상황이 오면, 실제 감가상각 주기가 상당히 길어지는 셈이죠. 이게 꽤 흥미로운 재무적 시사점이라고 생각합니다.


딜런: 여러 줄을 함께 풀어봐야 할 것 같네요. 하나는 GPU 감가상각이 어떻게 되느냐는 거고요.

먼저 이전 질문에 미처 답하지 못했는데, Anthropic은 자체적으로 그리고 Bedrock, Vertex, Foundry를 통한 제품 서비스까지 합산해 올해 말까지 5기가와트 안팎, 어쩌면 조금 더 도달할 수 있을 것으로 봅니다. 5~6기가와트까지는 가능하지 않을까 생각합니다. 초기 계획 대비 훨씬 상회하는 수치입니다.


OpenAI도 비슷하고, 우리 수치 기준으로는 실제로 조금 더 높습니다. 어쨌든 GPU 감가상각 주기로 돌아가서요. Michael Burry의 주장은 3년 이하입니다. 이 문제를 바라보는 두 가지 렌즈가 있습니다.


첫 번째는 기계적 관점입니다. GPU의 총소유비용(TCO) 모델인데, GPU의 가격을 프로젝션하고 클러스터의 총비용을 구성합니다. 비용 항목에는 데이터센터 비용, 네트워킹 비용, 장비 교체를 위한 인력 비용, 스페어 파츠, 실제 칩 비용, 서버 비용 등이 포함됩니다. 신용 비용과 감가상각 기간 등을 적용하면, H100 한 대를 5년 감가상각 기준으로 대량 배포 시 시간당 $1.40이라는 수치가 나옵니다.


5년짜리 시간당 $2 계약을 체결하면 매출총이익률이 약 35%이고, $1.90이면 역시 35% 안팎입니다. 그리고 5년이 지나면 GPU는 버스에서 떨어진 것처럼 폐기된다고 가정합니다.


장기 계약 없이 단기로 운영하는 경우의 반박 논리는 이렇습니다. NVIDIA가 2년마다 성능을 3~4배 올리면서 가격은 2배 혹은 50% 상승하는 데 그치니, H100의 시장 가치는 2024년에 $2였다가 2026년에는 Blackwell이 대량으로 풀리면서 시간당 $1으로 떨어질 것이라는 겁니다. 그리고 Rubin이 2027년에 대량 배포되면서 또 3배 성능이 오르면, Hopper의 가치는 시간당 $0.70으로 내려갑니다. GPU 가격이 계속 하락할 것이라는 시나리오죠.


그런데 두 번째 렌즈가 있습니다. 그 칩에서 끌어낼 수 있는 실용적 가치가 무엇이냐는 질문입니다. 만약 Rubin을 무한정 만들 수 있다면, 네, 바로 그 시나리오대로 됩니다. 새 칩이 나올수록 Hopper 스팟 가격이 떨어지겠죠. 하지만 반도체와 배포 타임라인이 극도로 제한되어 있기 때문에, 이 칩들의 가격을 결정하는 것은 "오늘 살 수 있는 대안"이 아니라 "이 칩에서 오늘 뽑아낼 수 있는 가치"입니다.


예를 들어 GPT-5.4를 봅시다. GPT-5.4는 GPT-4보다 훨씬 싸게 돌릴 수 있고, 활성 파라미터 수도 훨씬 적습니다. GPT-5.4가 희소한 MoE(Mixture of Experts)이고 GPT-4가 더 거친 MoE였다는 점에서, 파라미터 관점에서 훨씬 작습니다. 트레이닝, RL, 모델 아키텍처, 데이터 품질 등 다양한 측면에서 발전이 있었고, 그 결과 GPT-5.4는 GPT-4보다 품질이 훨씬 높으면서도 서비스 비용이 저렴합니다. H100 한 장에서 GPT-5.4를 GPT-4보다 훨씬 더 많은 토큰으로 서비스할 수 있습니다.


GPT-4 토큰의 최대 TAM이 수십억 달러 규모였다면, GPT-5.4의 TAM은 아마 $1,000억 이상입니다. 물론 채택에 시간이 걸리고, 경쟁도 있고, 지속적인 개선도 있지만, 만약 여기서 개선이 멈춘다면 H100의 가치는 GPT-4 기반 수익이 아닌 GPT-5.4 기반 수익을 얼마나 뽑아낼 수 있느냐에 달리게 됩니다.


이런 다이나믹이 상당히 흥미로운 것은, H100이 3년 전보다 오늘 더 가치 있다는 점입니다. 이건 정말 말도 안 되는 얘기인데 — 실제로 그렇습니다.


드워키시: 진정한 AGI 모델이 개발된다면, 서버에서 진짜 사람이 돌아간다면 — 뇌가 처리하는 플롭 수에 대한 추정은 손파도 같은 수치들이지만 — 플롭 기준으로 H100은 일부 추정치에서 인간 뇌와 비슷한 1e15 수준으로 봅니다. 물론 메모리는 뇌가 훨씬 큽니다. H100은 80GB인 반면, 뇌는 페타바이트급일 수 있다는 얘기도 있죠.


딜런: 아, 페타바이트를 갖고 있다고요? 1과 0의 페타바이트를 나열해봐요. 문자열 하나만 대보세요.


드워키시: 그게 사실 핵심이에요. 아니요, 우리는 그냥 역대 최고의 희소 어텐션 기법을 갖고 있는 거죠. 진지하게 생각해보면, 압축된 정보량 측면에서는 페타바이트가 맞을 수도 있어요. 인간 뇌는 극도로 희소한 MoE이니까요. 어쨌든, 인간 지식 근로자가 연간 6자리 수의 가치를 만들어낸다고 가정해봅시다. 만약 H100이 그에 근접한 가치를 만들어낼 수 있다면, 진짜 사람을 서버에 올린 셈이 된다면 — H100 한 장의 가치는 불과 몇 달 안에 자체 비용을 회수하는 수준입니다.


제가 Dario를 인터뷰할 때 하려던 말의 핵심은 이겁니다. 특이점이 2년 후에 온다고 생각하는 게 아닙니다. 물론 매출 측면에서 Dario가 더 많은 컴퓨트를 사야 한다는 건 분명하지만요. 제가 지적하려 했던 건, Dario 스스로의 말 — "2년 안에 천재들로 가득 찬 데이터센터", 최대 5년 안에 — 과 그 데이터센터가 수조 달러의 매출을 낼 것이라는 주장을 전제하면, 컴퓨트에 보수적이라는 진술과 OpenAI보다 덜 공격적이라는 진술이 내부적으로 모순된다는 겁니다.


그 지적이 묻혀버린 건, 사람들이 저를 "팟캐스터가 수천억짜리 기업 CEO한테 올인하라고 설득하려 한다"고 디스하기 바빴기 때문입니다. 저는 단지 Dario 자신의 발언들이 서로 모순된다는 걸 지적하려 했을 뿐이에요.


딜런: 모델이 이렇게 강력해질수록 GPU의 가치가 시간이 갈수록 높아진다는 관점으로 돌아가면, 지금은 OpenAI와 Anthropic만이 그 관점을 갖고 있습니다. 하지만 더 멀리 나아갈수록 모든 사람이 GPU당 가치가 폭발적으로 증가하는 걸 볼 수 있게 됩니다. 그렇기 때문에 지금 당장 컴퓨트를 커밋해야 한다는 거죠.


재미있게도, Anthropic 스타일로 말하자면, 그들이 커밋 이슈가 있다는 밈이 있습니다. 일종의 폴리아머러스 성향이랄까. Dario 얘기가 아니라 이게 밈이 됐다는 건데...


드워키시: 모든 걸 설명해주는 것 같네요. 그런데 흥미로운 경제 효과가 있어요. Alchian-Allen 효과라는 겁니다. 품질이 다른 두 상품에 동일한 고정 비용을 추가하면, 사람들은 한계적으로 더 높은 품질의 상품을 선택하게 된다는 이론입니다.


구체적으로, 맛있는 사과가 $2이고 평범한 사과가 $1이라고 하죠. 이제 수입 관세가 붙으면 각각 $3과 $2가 됩니다. 두 상품 모두 $1 올랐지만, 이전에는 2배 비쌌던 좋은 사과가 이제는 1.5배만 비쌉니다. 가격 비율이 달라진 거죠.


AI에 적용하면, GPU 가격이 올라가 컴퓨트 비용에 고정비가 추가될 경우, 사람들이 "어차피 컴퓨트에 이 돈을 쓸 것이니, 조금 더 내더라도 최고 모델을 쓰겠다"고 생각하게 된다는 겁니다. Hopper가 $2에서 $3으로 올랐다고 하면, Opus 100만 토큰과 Sonnet 200만 토큰을 만들 수 있는 Hopper 한 장에서 Opus와 Sonnet의 가격 차이가 줄어드는 겁니다. GPU 가격이 $1 오르면서 상대적 차이가 좁혀지기 때문에요.


딜런: 맞아요, 상당히 이해가 되는 얘기입니다. 실제로도 지금 가장 높은 거래량과 가장 많은 매출이 최상위 모델에 집중되어 있습니다. 컴퓨트 제한적 세계에서는 두 가지 일이 벌어집니다. 첫째, 커밋 이슈 없이 5년 장기 계약을 체결한 기업들은 엄청난 마진 우위를 확보합니다. 2~3년, 5년 전 가격에 컴퓨트를 잠갔으니까요. 반면 5년 계약 중 3년이 지나고 나서 다른 기업의 2~3년 계약이 만료되어 현재 가격에 다시 사야 한다면, 모델 가치에 기반한 가격 책정으로 인해 훨씬 비쌉니다. 일찍 커밋한 기업이 일반적으로 더 좋은 마진을 가집니다.


장기 계약 비중이 단기나 유연 계약 비중보다 훨씬 큽니다. 동시에 마진은 어디로 가느냐는 문제가 있습니다. 모델이 더 가치 있어질수록 클라우드 플레이어들이 가격을 어느 정도까지 올릴 수 있을까요?


CoreWeave를 예로 들면, 현재 평균 계약 기간이 3년 이상이고 컴퓨트의 98% 이상이 3년 이상 계약입니다. 이런 상황에서 가격을 실제로 유연하게 올리기 어렵습니다.


하지만 매년 전년도보다 훨씬 많은 용량이 추가되고 있습니다. 올해만 해도 Meta는 2022년 WhatsApp, Instagram, Facebook 서비스 + AI를 위해 보유했던 전체 컴퓨트 및 데이터센터 규모만큼을 이번 한 해에 추가합니다. 이게 올해 신규 추가 물량 하나입니다. Meta뿐 아니라 CoreWeave, Google, Amazon 등 모든 기업들이 매년 엄청난 양의 컴퓨트를 추가하고 있습니다. 이 새로운 컴퓨트는 새로운 가격에 거래됩니다.


OpenAI가 작년에 600메가와트에서 2기가와트로, 올해 2기가와트에서 6기가와트 이상으로, 내년에 6에서 12기가와트로 스케일업한다면 — 비용의 대부분은 과거 장기 계약이 아니라 신규로 추가되는 컴퓨트에 있습니다. 그 증분 컴퓨트의 가격을 누가 책정하느냐가 관건이고, 그건 인프라 제공업체들입니다.


🔑 공급망 주도권 — Nvidia는 어떻게 모든 카드를 쥐었나

딜런: 클라우드 플레이어들, 네오클라우드, 하이퍼스케일러들이 마진을 어느 정도는 받을 수 있지만, 상류로 올라가면 메모리와 로직 용량을 모두 갖고 있는 곳은 대부분 Nvidia입니다. Nvidia는 많은 장기 계약을 체결했고, 오늘 기준 $900억의 장기 계약이 있으며, 현재 메모리 벤더들과도 3년 계약을 협상 중입니다.


Amazon과 Google은 Broadcom을 통해, Amazon은 직접, 그리고 AMD와도 연결됩니다. 이 기업들이 용량을 선점했기 때문에 모든 카드를 쥐고 있습니다. TSMC는 가격을 올리지 않고 있지만, 메모리 벤더들은 상당히 가격을 올리고 있습니다. 가격을 두 세 배 올릴 것이며, 동시에 장기 계약도 체결하고 있습니다.


마진을 쌓을 수 있는 곳은 클라우드, 칩 벤더, 메모리 벤더이고, 언젠가는 TSMC나 ASML이 "우리도 훨씬 많이 받겠다"고 나설 수도 있습니다. 하지만 동시에 모델 벤더들이 미친 마진을 쌓을 수 있을까요? 적어도 올해는 모델 벤더들의 마진이 크게 상승할 것입니다. 용량 제약이 너무 심해서 수요를 파괴해야 하는 상황이기 때문입니다. Anthropic도 지금 속도로는 수요를 파괴하지 않고는 계속할 수가 없습니다.


드워키시: 로직과 메모리로 들어가 봅시다. Nvidia가 어떻게 이 두 가지를 이렇게 많이 확보할 수 있었나요? 당신 수치 기준으로 2027년까지 Nvidia가 N3 웨이퍼 용량의 70% 이상을 차지할 것이고, SK Hynix와 Samsung 메모리에서도 상당한 비중을 갖게 됩니다.


딜런: 네오클라우드 비즈니스가 어떻게 작동하는지, Nvidia가 어떻게 연결되는지 생각해보세요. 혹은 RL 환경 비즈니스와 Anthropic의 관계도 마찬가지입니다.


두 경우 모두 Nvidia는 의도적으로 보완 산업을 분열시켜 최대한 많은 레버리지를 유지하려 합니다. 어느 한 곳이 모든 컴퓨트를 갖지 못하도록 무작위 네오클라우드들에게 할당을 배포하는 거죠. 마찬가지로 Anthropic이나 OpenAI도 데이터 제공업체와 일할 때 "하나의 공급업체에 잠기지 않도록 이 업계 자체를 크게 키우겠다"고 합니다.


드워키시: 그렇다면 왜 TSMC는 3나노 공정에서 — Trainium 3, TPU v7, 기타 가속기들이 들어갈 공정인데 — Nvidia에게 다 내주고 있는 걸까요? 시장을 분열시키려 하지 않는 이유가 있나요?


딜런: 몇 가지 포인트가 있습니다. 3나노 공정으로 가면, 작년 기준 대부분이 Apple이었습니다. Apple은 2나노로 이동 중이고요. 메모리 가격이 올라가면 Apple의 물량이 줄어들 수 있습니다. 메모리 가격이 상승하면 Apple이 마진을 깎든지 이동하든지 해야 하는데, 어쨌든 장기 계약이 있어서 시간 지연이 있지만 Apple이 수요를 줄이거나 2나노로 더 빠르게 이동할 가능성이 높습니다. 현재 2나노는 모바일 칩만 가능하고, 향후 AI 칩도 이동할 예정입니다.


TSMC의 HPC(고성능 컴퓨팅), AI 칩에 대한 마진이 모바일보다 높습니다. 모바일보다 HPC에서 우위가 더 크기 때문입니다. TSMC의 계산을 보면, CPU를 만드는 기업들에게 아주 좋은 할당을 제공하고 있습니다. Amazon이 TrainiumGraviton 둘 다 3나노에 있는데, Graviton이 CPU고 Trainium이 AI 칩입니다. TSMC는 Trainium보다 Graviton 할당에 훨씬 더 열정적입니다. CPU 사업이 더 안정적이고 장기적인 성장세를 보인다고 보기 때문입니다.


빠른 성장률 시장에 모든 증분 용량을 할당하기 전에, 더 낮은 성장률을 가진 안정적인 시장에 먼저 할당하는 것이 보수적인 기업의 일반적인 접근 방식입니다. AMD의 CPU 할당도 마찬가지로 TSMC가 GPU 할당보다 훨씬 더 우호적으로 봅니다.


Nvidia는 좀 독특합니다. CPU도 있고, 스위치도 만들고, NVLink, InfiniBand, 이더넷, NIC 등 네트워킹도 합니다. 올해 말까지 Rubin 출시와 함께 이 제품군 대부분이 3나노로 이동할 예정이며, 가장 중요한 건 GPU입니다.


그런데도 Nvidia가 공급의 대부분을 가져가는 건, TSMC를 비롯한 공급망이 시장 수요를 예측하는 방식 때문이기도 합니다만, 시장 신호가 더 중요합니다. Nvidia가 Google이나 Amazon보다 훨씬 일찍 비취소, 비반환 조건의 장기 계약을 체결하고 심지어 보증금까지 지불했기 때문입니다.


Google과 Amazon은 걸림돌이 있었습니다. 칩 하나가 몇 분기 지연되는 일도 있었고, Trainium 관련 이슈들도 있었죠. 반면 Nvidia는 "더, 더, 더, 더"를 외쳤습니다. TSMC는 공급망 전체를 점검했습니다. Victory Giant 같은 중국 최대 PCB 공급업체에 "PCB 용량이 충분합니까?"를 묻고, 메모리 벤더들에게 "메모리 용량은?" 을 확인하면서 Nvidia가 요구하는 물량을 맞출 수 있다고 확인했습니다.


결국 누가 AGI에 충분히 확신이 있어서 말도 안 돼 보이는 수준의 장기 공약을 하느냐의 문제입니다. AGI에 확신이 없는 사람들에게는 이상해 보이지만, 미래에 그 비율이 완전히 다를 것이라 믿으며 기꺼이 좋은 마진에 지금 서명하는 기업들이 있습니다. 이것이 반도체 공급망에서도 똑같이 작동합니다.


드워키시: Nvidia가 AGI를 믿는다고는 생각하지 않아요. Jensen은 소프트웨어가 완전히 자동화될 거라거나 그런 걸 믿는 것 같지 않거든요. 그는 "가속 컴퓨팅"이라고 부르죠, AI 칩이라고 하지 않고.


딜런: AI 칩이 맞습니다. "가속 컴퓨팅"은 더 넓은 개념이에요. 물리 모델링과 시뮬레이션도 포함됩니다. 하지만 그가 주요 사용 사례를 정면으로 받아들이지 않는 느낌이 있어요. 저는 Jensen이 이해하고 있다고 생각합니다. 다만 Dario나 Sam처럼 AGI에 완전히 설득된 건 아닌 것 같습니다. 그래도 작년 3분기의 Google이나 Amazon보다는 훨씬 더 AGI에 가깝고, 훨씬 더 많은 수요를 봤습니다.


이유는 간단합니다. 데이터센터 건설이 눈에 보이니까요. "좋아, 이 시장 점유율을 갖고 싶다"는 거죠. 우리가 추적하는 데이터센터도 많고, 어느 벤더 것인지 불분명한 것들도 있습니다. 어느 정도는 Google과 Amazon 모두, 특히 Google은 TPU가 자체 배포에 더 좋음에도 불구하고, TPU만으로는 데이터센터를 다 채울 수 없어서 엄청난 양의 GPU도 배포해야 합니다. 팹에서 TPU를 충분히 만들 수 없는 거죠.


드워키시: Google이 TPU v7, 즉 Ironwood를 Anthropic에게 100만 장 판매했다는 얘기가 있는데, 당신은 지금 당장 그리고 앞으로도 주요 병목이 로직과 메모리 — 칩을 만드는 데 필요한 것들 — 이 될 것이라고 했습니다.

Google에는 DeepMind가 있고, 3대 주요 AI 랩 중 하나입니다. 이 병목이 이렇게 심각하다면 왜 DeepMind에 주지 않고 팔아버린 건가요?


딜런: 다시, 이건... DeepMind 직원들은 "이게 말이 됩니까? 왜 이런 결정을 한 거죠?"라고 했습니다. 하지만 Google Cloud 직원들과 Google 경영진은 다른 사고 과정을 가졌습니다.


저와 당신 모두 Anthropic의 컴퓨트 팀을 알고 있습니다. 핵심 인물 두 명 모두 Google 출신이에요. 그들이 이 불균형을 포착하고 협상을 진행해 Google이 인지하기 전에 컴퓨트 접근권을 확보했습니다.


우리 데이터에서 파악한 사건의 순서는 이렇습니다. Q3 초, 약 6주에 걸쳐 TPU 용량이 대폭 증가했습니다. 그 6주 동안 여러 차례 요청이 있었고, Google이 갑작스러운 용량 증가를 TSMC에 설명해야 할 정도였습니다. 이 증가의 상당 부분은 Anthropic에게 판매하기 위한 것이었고, Anthropic이 Google보다 먼저 기회를 봤던 겁니다.


그 뒤 Nano Banana와 Gemini 3가 나오면서 Google의 사용자 지표가 폭발했습니다. 그제야 Google 경영진이 "아, 이런" 하게 된 거죠. 그 뒤 Google이 "6개월마다 컴퓨트를 두 배로 늘려야 한다"는 발언을 하기 시작했습니다. 많이 깨어났고, TSMC에 "더 달라, 더 달라"고 했습니다. TSMC는 "미안한데, 다 팔렸어요. 2026년에는 5~10% 더 드릴 수 있지만, 2027년 물량을 작업해야 합니다"라고 답했고요.


제가 보기에 랩들 사이에 정보 비대칭이 있었습니다. 정확히는 모르지만, 공급망 웨이퍼 주문 데이터와 Anthropic·Fluidstack이 체결한 데이터센터 계약 데이터를 보면서 제 나름의 스토리를 구성했습니다. Google이 실수를 했다는 건 분명합니다.


Gemini ARR을 보면 확인됩니다. Q1~Q3는 거의 없다가 Q3 후반부터 좀 올라왔고, Q4에서야 ARR $50억에 달했습니다. Google이 처음엔 매출이 폭발하는 걸 못 봤던 거죠. 어떤 의미에서 Anthropic도 ARR이 폭발하기 전까지는 커밋 이슈가 있었습니다. 훨씬 많은 정보 비대칭 속에서 미래를 보면서도 그랬습니다. Google은 Anthropic보다 더 보수적인 데다 ARR도 훨씬 낮았으니 당연히 더 망설였겠죠.


이후 Google은 에너지 회사를 인수하고, 터빈에 보증금을 내고, 전력 토지를 대규모로 매입하고, 유틸리티 회사들과 장기 계약을 협상하는 등 데이터센터·전력 측면에서 매우 공격적으로 움직이고 있습니다. 작년 말부터 Google이 크게 각성했다고 봅니다.


⏳ 2030년 최후의 병목 — ASML과 EUV의 한계


드워키시: AI 컴퓨트 스케일링을 막는 병목이 매년 바뀌는 것 같습니다. 몇 년 전에는 CoWoS, 작년에는 전력이었고, 올해의 병목도 알려주시겠죠. 그런데 5년 후 싱귤래리티 배포를 막는 것이 무엇인지 이해하고 싶습니다.


딜런...

회원가입만 해도
이 글을 무료로 읽을 수 있어요.

이미 계정이 있으신가요?로그인하기
댓글 0
avatar
호랭교관
구독자 74명구독중 51명
1) 치열한 생각과 노력하는 과정에서 행복을 찾기 2) 확률적 사고를 바탕으로 예상되는 기대값을 그려보는 투자 3) 함께 투자하기!