
CPU Shortage와 인텔 부활에 대한 시장의 기대감,
마이크론과 HBM Shortage처럼 주가 상승을 기대해도 될까?
AI 산업이 본격적으로 성장하기 시작한 이후 시장은 처음에는 GPU 자체에만 집중했습니다.
당시 시장의 핵심 논리는 단순했습니다.
더 강력한 GPU를 더 많이 확보하는 기업이 AI 시대의 승자가 될 것이라는 관점이 지배적이었습니다.
실제로 ChatGPT 이후 생성형 AI 열풍이 폭발하자 전 세계 hyperscaler와 빅테크 기업들은 경쟁적으로 NVIDIA GPU 확보에 나섰고, 시장 역시 AI 산업을 사실상 “GPU 산업”처럼 바라보기 시작했습니다.
초기 시장은 FLOPS와 CUDA 중심으로 움직였습니다. 누가 더 많은 연산 성능을 확보하는지, 누가 더 큰 GPU 클러스터를 구축하는지가 핵심이었습니다. 그러나 시간이 지나면서 산업은 예상보다 훨씬 복잡한 현실과 마주하기 시작했습니다. AI 시스템은 단순히 GPU 몇 장을 연결한다고 완성되는 산업이 아니었기 때문입니다.
실제로 대규모 AI 모델이 고도화될수록 문제는 단순 연산 성능 부족이 아니라 데이터를 얼마나 빠르고 안정적으로 이동시킬 수 있는가로 이동하기 시작했습니다. GPU 성능은 급격히 증가했지만 이를 제대로 활용하기 위한 메모리 bandwidth, 네트워크 속도, 전력 공급, 발열 제어가 동시에 따라가지 못하기 시작한 것입니다.
즉 산업은 점점 “컴퓨팅 병목”보다 “시스템적 병목”에 가까운 단계로 이동하기 시작했습니다.
실제로 최근 시장에서는 “CPU shortage”라는 표현이 반복적으로 등장하고 있습니다.

과거 CPU shortage는 팬데믹 공급망 붕괴와 서버 수요 증가로 발생했던 일시적 현상에 가까웠습니다.
그러나 최근의 CPU 수요 증가는 AI 인프라 팽창과 연결된다는 점에서 성격이 조금 다릅니다. AMD는 최근 실적 발표에서 데이터센터 CPU 수요 증가를 강조했고, AI 및 agentic AI workload 확산에 따라 서버 CPU 시장 전망치를 상향했습니다.
(AMD는 AI 수요 확대로 인해 서버용 CPU 시장의 연평균 성장률(CAGR) 전망을 기존 약 18%에서 35% 이상으로 대폭 상향 조정했습니다. 2030년 서버 CPU 시장 규모 전망치 역시 기존의 두 배 수준인 1,200억 달러(약 168조원) 이상으로 크게 높여 잡았습니다)
데이터센터 매출은 EPYC 중심으로 빠르게 증가했고, 시장은 AI 시대에도 CPU 수요가 결코 사라지지 않는다는 점을 다시 인식하기 시작했습니다.
흥미로운 점은 CPU 수요 증가가 단순 “AI 모델 연산” 때문은 아니라는 것입니다. 많은 사람들이 AI를 GPU 산업으로만 생각하지만 실제 hyperscale AI infrastructure는 GPU만으로 돌아가지 않습니다.
GPU는 대규모 병렬 연산에 특화되어 있지만, task scheduling, memory allocation, storage management, distributed communication, network handling, token processing 등은 여전히 CPU가 담당합니다.
특히 AI 클러스터가 수천~수만 개 GPU 단위로 커질수록 CPU는 단순 연산 장치가 아니라 시스템 전체를 제어하는 orchestration 역할을 수행하게 됩니다. 결국 GPU가 공장 기계라면 CPU는 공장 관리자에 가까운 위치를 맡고 있는 셈입니다.
그러나 여기서 중요한 것은 CPU shortage와 HBM shortage의 본질은 상당히 다르다는 점입니다. HBM shortage는 현재 AI 산업의 “절대 병목”에 가까운 반면, CPU shortage는 아직 “구조적 중요성은 높지만 대체 가능성도 존재하는 병목”에 가깝습니다. 이 차이는 실제 가격 상승 폭에서도 드러나기 시작했습니다.
현재 HBM은 사실상 AI 산업의 핵심 scarcity asset으로 취급받고 있습니다. 특히 HBM3E 이후에는 가격 상승 폭이 기존 DRAM 사이클과는 완전히 다른 양상을 보이고 있습니다. 업계에서는 HBM3E 가격이 일반 서버 DRAM 대비 수배 이상 높은 프리미엄을 형성하고 있으며, 세대가 올라갈수록 stack 수와 bandwidth 요구량 증가로 인해 ASP 자체가 크게 상승하고 있다고 평가합니다. 실제로 HBM은 공급사들의 생산 capacity보다 AI 수요 증가 속도가 훨씬 빠르게 올라가면서 사실상 “선판매” 구조처럼 움직이고 있습니다. Micron과 SK hynix가 수년치 HBM 공급 물량 상당 부분을 이미 확보 계약 상태라고 언급한 이유도 여기에 있습니다.
반면 CPU 시장은 상황이 조금 다릅니다. 물론 최근 데이터센터 CPU ASP 역시 상승했고, 고성능 AI 서버용 CPU 가격은 과거보다 상당히 높아졌습니다. 특히 AMD EPYC 같은 제품군은 hyperscale 수요 증가와 함께 premium pricing을 일부 확보했습니다. 그러나 CPU 가격 상승 폭은 HBM처럼 “구조적 scarcity premium” 수준까지는 아직 가지 못했습니다.
그 이유는 CPU는 여전히:
- AMD
- Intel
- ARM
- hyperscaler custom silicon
- ASIC
등 대체 구조가 존재하기 때문입니다. 특히 hyperscaler들은 Amazon Graviton, NVIDIA Grace, Google TPU ecosystem 등을 적극적으로 확장하고 있습니다.
즉 CPU는 중요하지만 “없으면 AI deployment 자체가 멈춘다” 수준의 절대 병목으로까지는 아직 평가받지 않는 것입니다.
반면 HBM은 다릅니다. 현재 AI GPU는 연산 성능 자체보다 데이터를 얼마나 빠르게 공급받을 수 있는지가 더 중요해졌습니다. GPU 코어는 충분히 빠른데 메모리 bandwidth가 이를 따라가지 못하는 상황이 발생한 것입니다. 그래서 HBM은 GPU당 탑재량이 급격히 증가하기 시작했습니다. 초기에는 GPU 하나에 적은 수의 HBM stack이 사용되었지만, Rubin 이후 로드맵에서는 HBM4 x8, HBM5 x16, 이후에는 HBM6 x32 수준까지 거론되기 시작했습니다.

즉 AI scaling은 사실상 memory scaling으로 이동하고 있는 것입니다. GPU 성능이 올라갈수록 필요한 HBM 용량과 bandwidth는 기하급수적으로 증가하고 있으며, 이는 단순 GPU die 하나를 더 생산하는 문제를 넘어 HBM stack, 인터포저, 첨단 패키징, 전력, 냉각 전체를 동시에 확장해야 하는 문제로 이어지고 있습니다.
현재 시장이 HBM shortage를 심각하게 보는 이유도 여기에 있습니다. HBM 병목은 GPU당, 서버당, 랙당, 클러스터당 모두 연결됩니다. GPU 하나의 성능이 증가할수록 필요한 메모리 bandwidth 역시 함께 증가하기 때문입니다. 결국 AI 산업은 “연산 병목”이 아니라 “데이터 이동 병목” 단계로 이동하기 시작했고, 시장은 메모리를 단순 commodity DRAM이 아니라 AI infrastructure 코어 자산으로 재평가하기 시작했습니다. Micron과 SK hynix가 과거 사이클이 있는 메모리 기업으로 평가받다가 최근 강하게 재평가받은 배경 역시 이러한 구조적 변화와 연결되어 있습니다.
반면 CPU는 아직 그 정도의 절대 병목으로 인식되지는 않습니다. 또한 AI 시대 CPU 수요 증가는 생각보다 형태가 복잡합니다. 예를 들어 최근 시장에서 자주 언급되는 Physical AI나 robotics는 CPU 수요 증가 가능성을 분명 내포하고 있습니다.
그러나 이것이 곧바로 Intel 데이터센터 CPU 슈퍼사이클로 연결된다고 보기에는 아직 불확실성이 큽니다. 왜냐하면 Physical AI는 기본적으로 edge computing 성격이 강하기 때문입니다. 로봇이나 자율 시스템은 저전력, 저지연, 실시간 반응, sensor fusion 등이 중요하며, 이는 데이터센터 CPU보다 ARM 기반 SoC나 Qualcomm 계열 구조가 더 유리할 가능성을 의미합니다.
다만 여기서 중요한 것은 시장이 최근 인텔을 다시 보기 시작하는 이유는 단순 CPU 경쟁 때문만은 아니라는 점입니다.
핵심은 AI 시대 공급망 구조 변화입니다.
현재 AI 반도체 산업에서 가장 중요한 기업 중 하나는 사실상 TSMC입니다. TSMC는 단순 GPU를 생산하는 회사가 아닙니다. 현재 AI 가속기 산업의 핵심은 CoWoS라는 첨단 패키징 기술에 있습니다. TSMC는 NVIDIA의 GPU와 SK hynix·Micron의 HBM을 가져와 인터포저 위에 초정밀 연결을 수행하고, 이를 하나의 giant AI module로 최종 조립합니다.
즉 AI 시대 반도체는 단일 칩이 아니라 GPU, HBM, 전력, 배선, 패키징이 결합된 초소형 슈퍼컴퓨터에 가까워지고 있습니다.
그리고 현재 가장 큰 병목 중 하나가 바로 CoWoS capacity입니다. GPU를 생산해도 CoWoS 패키징을 하지 못하면 출하 자체가 불가능합니다. 이 때문에 최근 산업에서는 더욱더 “TSMC 하나로 미래 AI scaling을 감당할 수 있는가?”라는 질문이 본격적으로 등장하기 시작했습니다.
여기서 최근 시장이 크게 반응한 것이 바로 Intel EMIB와 SK hynix 협력 이야기였습니다. EMIB는 Intel의 advanced packaging 기술입니다. 기존 CoWoS가 거대한 interposer 위에 GPU와 HBM 전체를 올리는 방식이라면, EMIB는 필요한 부분만 bridge 형태로 연결하는 구조입니다. 중요한 것은 단순 기술 협력이 아닙니다. 시장은 이를 “TSMC CoWoS 단일 의존 구조를 분산하려는 움직임”으로 해석하기 시작했습니다.

현재 NVIDIA와 hyperscaler, memory 업체들은 모두 CoWoS 부족 문제를 경험하고 있습니다. 즉 AI 시대 병목은 GPU shortage보다 advanced packaging shortage로 이동하기 시작한 것입니다. 이 과정에서 Intel은 단순 CPU 회사가 아니라 AI packaging platform, 미국 기반 AI assembly hub, strategic semiconductor redundancy 역할로 재평가받기 시작하고 있습니다.
특히 NVIDIA의 Rubin 세대 이후에는 이 문제가 더욱 심각해질 가능성이 거론되고 있습니다. Rubin은 단순 GPU 업그레이드 수준이 아니라 HBM4, 초고대역폭 인터커넥트, 수천 와트급 전력 구조, 거대한 패키징 면적 등이 동시에 요구되는 구조이기 때문입니다.

즉 시장은 이제 “GPU를 얼마나 잘 설계하느냐”보다 “GPU와 HBM을 얼마나 안정적으로 대량 통합 생산할 수 있느냐”를 더 중요하게 보기 시작했습니다. 그리고 바로 이 지점에서 Intel의 EMIB가 다시 주목받기 시작한 것입니다.
최근 시장에서 나온 Rubin 생산 지연 관련 이야기 역시 단순 GPU 설계 문제라기보다 HBM4 공급, 검증, 발열, 첨단 패키징 복잡성 증가와 연결되어 있다는 해석이 많았습니다.
여기서 중요한 것은 이것이 단순히 “SK hynix가 HBM 생산을 못 맞춘다” 수준의 문제가 아니라는 점입니다. 실제로는 NVIDIA가 Rubin 사양을 계속 상향하고 있고, HBM 공급사들은 이를 맞추기 위해 설계를 수정해야 하며, 동시에 TSMC의 CoWoS capacity는 이미 과포화 상태에 가까워지고 있습니다. 여기에 패키징 난이도와 전력 밀도까지 폭발적으로 증가하면서, AI 반도체 산업 전체가 하나의 거대한 통합 시스템 engineering 문제로 이동하고 있는 것입니다.
여기서 지정학이 연결됩니다. 미국 입장에서 현재 AI 산업 구조는 상당히 위험합니다. 전 세계 AI infrastructure 상당 부분이 Taiwan과 TSMC, 그리고 CoWoS에 과도하게 의존하고 있기 때문입니다. 따라서 미국 정부와 기업들은 sovereign semiconductor, 미국 내 생산, 공급망 다변화, 산업의 전략적 중복을 점점 더 중요하게 보기 시작했습니다.
과거 엔비디아의 인텔 투자 관련 뉴스가 시장에서 크게 해석된 이유 역시 단순 재무투자 이상의 의미를 가진다는 시각이 존재합니다.
엔비디아 역시 Rubin 이후 점점 거대해지는 AI module 구조 속에서 TSMC 단일 의존 리스크를 고민할 가능성이 높기 때문입니다.
실제로 Rubin 세대 이후 AI module은 HBM stack 수, bandwidth, 전력, 패키징 난이도가 모두 폭발적으로 증가하고 있습니다. 이는 단순 GPU 제조 문제가 아니라 통합적 문제가 되어가고 있다는 의미이기도 합니다.
결국 현재 AI 산업은 “누가 가장 좋은 GPU를 만드나”보다 “누가 AI supply chain 병목을 장악하나”의 단계로 이동하고 있습니다. 그리고 바로 이 지점에서 인텔에 대한 시장의 기대감이 형성되기 시작한 것입니다. 물론 아직 인텔이 TSMC 수준의 execution과 ecosystem을 확보했다고 보기는 어렵습니다. 실제로 수율 문제, 고객 신뢰, fab economics, manufacturing discipline 등 해결해야 할 과제 역시 많습니다.
그러나 시장은 이제 인텔을 단순 “CPU 경쟁에서 밀린 기업”으로만 보지 않기 시작했습니다.
오히려 인텔은 미국이 반드시 확보하려는 전략 자산, 그리고 AI 시대 공급망 다변화의 핵심 축 중 하나로 다시 해석되기 시작하고 있습니다. 그리고 만약 AI 산업이 앞으로도 지금처럼 HBM, 패키징, 전력, 공급망 병목 중심으로 진화한다면, 인텔의 재평가 가능성 역시 단순 CPU 시장 점유율 이상의 영역에서 나타날 가능성이 존재합니다.
'해외주식' 카테고리의 다른 글
| 아마존의 2026 Q1 어닝콜 , AI 전반의 모든 것에 점유율을 확보하려고 한다. (1) | 2026.04.30 |
|---|---|
| 이제 핀테크 기업 사이클이 오는 것인가? (feat. 실업수당 청구건수, C&I) (0) | 2026.04.28 |
| 셀레스티카(Celestica) 심층 리포트: 산업 분류 재정의와 리레이팅의 본질 (0) | 2026.04.28 |
| 최근 급등한 주식 맥스리니어 , 무슨 기업일까? (0) | 2026.04.27 |
| 폭락하는 소프트웨어 섹터, 시장이 놓치고 있는 구조적 진실 (0) | 2026.04.12 |