[산업 > 반도체] 메모리/GPU Shortage

[산업 > 반도체] 메모리/GPU Shortage

avatar
밥풀
2026.04.11조회수 105회

1. [26.03.13] The Great AI Silicon Shortage

AI 컴퓨트 부족의 병목이 ‘패키징(CoWoS)’에서 ‘실리콘(최첨단 로직 웨이퍼 + HBM 메모리)’로 옮겨갔다

글의 핵심 주장

  • 토큰 수요가 폭증하면서(에이전틱 워크플로우/코딩 에이전트 같은 사용 확대) GPU/클러스터를 “원하는 만큼” 빌리거나 사기 어려운 상태가 지속된다고 봅니다.

  • 그래서 하이퍼스케일러들은 CAPEX(특히 데이터센터·서버)를 더 쓰고 싶어도, 결국 ‘칩을 만들 실리콘’이 부족해서 배치 속도가 제한된다는 논리예요.

  • 과거엔 CoWoS, 데이터센터 전력 같은 제약이 더 크게 보였지만, 지금 국면은 “실리콘 쇼티지(wafer + memory)”로 규정합니다.

1) 가장 큰 병목: TSMC N3(3nm) 로직 웨이퍼

  • 2023년부터 N3 계열이 양산되었고, 초반엔 스마트폰/PC 고객이 주 수요(Apple, Qualcomm, MediaTek, Intel 등).

  • 그런데 2026년 전후로 AI 가속기 세대들이 동시다발적으로 N3로 수렴한다고 봐요. (예: NVIDIA 차세대, AMD, Google TPU, AWS Trainium, Meta MTIA 등)

  • 이 “동시 수렴”이 N3 수요 쇼크를 만들었고, TSMC 증설이 그 속도를 못 따라가면서 할당 싸움(누가 웨이퍼를 더 가져가느냐)이 심해진다는 관점입니다.

  • 글에서는 AI 관련 수요가 2026년N3 생산의 60%, 2027년86%까지 갈 수 있다는 식의 프레이밍을 제시해요. (스마트폰/PC는 상대적으로 밀려나거나 N2로 더 빨리 넘어가게 될 수 있다)


2) 로직만으로는 안 끝남: HBM/DRAM도 같이 막힌다

  • 로직 웨이퍼를 더 받아도, 가속기 생산은 HBM 공급이 따라줘야 합니다.

  • 글의 논지는 대략 이래요:

    • HBM이 DRAM 웨이퍼 용량을 “빨아먹는” 구조라서(wafer-per-bit 기준 HBM이 훨씬 비효율) commodity DRAM을 crowd-out 한다

    • 세대가 갈수록 가속기 당 HBM 탑재량이 크게 증가(Blackwell→Rubin 등)하면서, “유닛 수”보다 “디바이스당 메모리”가 공급을 더 압박한다

    • HBM4로 갈수록 핀 스피드/수율 난이도가 올라가서 “명목 캐파”와 “유효 캐파”가 벌어질 수 있다


3) 결과적으로 벌어지는 일(투자 관점의 함의)

  • TSMC가 킹메이커가 ...

회원가입만 해도
이 글을 무료로 읽을 수 있어요.

이미 계정이 있으신가요?로그인하기
댓글 0
avatar
밥풀
구독자 18명구독중 45명
정리정돈을 잘하자