1. AI 데이터센터의 심장은 GPU라고 알려져 있음.
2. 그런데 GPU가 일하는 시간 중 실제 계산에 쓰이는 시간은 생각보다 적음. LLM 추론 과정에서 어텐션 커널 사이클의 50% 이상이 데이터 접근 지연으로 멈춰 있다는 연구 결과가 있음 (arXiv:2503.08311).
3. 나머지 시간은 데이터를 기다리고 있는 시간임.
4. 아무리 빠른 두뇌를 가져도, 교과서를 펼치는 속도가 느리면 공부 효율이 떨어지는 것과 같은 이치임.
5. 이 ‘교과서 넘기는 속도’를 혁신적으로 올리는 기술이 바로 HBM이고, 그 다음 세대인 HBF가 등장하고 있음.
PC에서 GPU까지 — 메모리 병목의 역사
GPU의 절반은 ‘멍때리는’ 시간
LLM 추론 과정에서 어텐션 커널 사이클의 50% 이상이 데이터 접근 지연으로 멈춰 있음. GPU가 아무리 빨라도 메모리가 느리면 절반은 기다리는 시간. HBM은 이 ‘대기 시간’을 혁신적으로 줄이는 기술임.
6. 1983년, IBM에서 XT라는 개인용 컴퓨터가 나왔음.
7. XT는 인텔의 8088 CPU와 RAM, 저장장치로 작동되었고, 프로그램을 돌리려면 플로피디스크를 넣고 빼는 수작업이 필요했음.
8. 플로피디스크 한 장으로는 용량이 부족해서, 워드프로세스 하나 돌리려면 디스크를 몇 장씩 교체해야 했음.
9. 1984년, 하드디스크를 내장한 AT가 나오면서 플로피디스크의 중요성은 낮아지게 됨.
10. CPU는 XT, AT, 386, 486, 펜티엄으로 계속 빨라졌고, 1990년대에 윈도우 3.0이 나오면서 본격적인 그래픽 시대가 열리게 됨.
11. 둠 같은 3D 게임이 나오자 CPU만으로는 성능의 한계에 도달했고, 그래픽을 전담 처리하는 엔비디아의 GPU가 등장하게 됨.
12. GPU는 게임을 위해 태어났지만, 계산을 동시에 처리하는 능력이 뛰어나서 활용 범위가 점점 넓어지기 시작함.
13. CPU+GPU+DRAM 구조가 나왔는데, DRAM의 문제는 속도였음.
14. CPU와 GPU가 아무리 빨리 일을 처리해도 DRAM이 느리면 기다리는 시간이 늘어나게 됨.
15. 배달앱에서 주문을 넣었는데, 주방은 빠르지만 배달 기사가 느린 상황과 비슷함.

HBM의 탄생과 HBM4 시대
16. GPU에 딱 붙어서 데이터를 빠르게 넘겨주는 HBM(High Bandwidth Memory)이 나오게 됨.
17. HBM은 메모리 칩을 층층이 쌓아올리는 방식으로, GPU 바로 옆에 붙어서 데이터 전달 속도를 극적으로 높인 것임.
18. 2026년 2월, 삼성전자와 SK하이닉스가 6세대 HBM인 HBM4 양산을 동시에 시작함 (글로벌이코노믹).
19. 당초 2026년 중반 목표였는데 3~4개월 앞당긴 공격적인 행보임.
20. HBM4의 기본 동작 속도는 11.7Gbps로, 국제 표준(JEDEC) 8Gbps보다 46% 빠름 (디일렉).
21. HBM4 한 개 가격은 약 700달러, 한화로 100만 원이 넘음 (아주경제).
22. HBM3E보다 20~30% 비싸진 가격이지만, AI 데이터센터에서는 필수 부품이라 수요가 밀려들고 있는 상황임.
SK하이닉스 vs 삼성전자 — 점유율 전쟁
HBM 시장 점유율 (2025 Q3)
출처: Astute Group (2025 Q3)
23. 시장 점유율을 보면 SK하이닉스가 압도적임.
24. 2025년 3분기 기준 SK하이닉스가 HBM 시장의 57%를 차지하고 있고, 삼성전자는 22%에 머물렀음 (Astute Group).
25. SK하이닉스는 NVIDIA의 차세대 GPU 플랫폼 ‘루빈(Rubin)’에 들어가는 HBM4 물량의 약 70%를 공급할 것으로 알려지고 있음 (TrendForce).
26. 삼성전자도 2026년에는 점유율을 30%대까지 끌어올리겠다는 목표를 세우고 맹추격 중임.
27. 2025년 연간 이익에서 SK하이닉스가 처음으로 삼성전자를 추월한 것은 HBM이 가져온 지각변동을 보여주는 상징적인 사건임 (CNBC).
HBF의 등장 — 다음 병목을 해결하는 기술
HBM4 vs HBF 비교
HBM4 (현세대)
- DRAM 적층 기술
- 용량: 24~48 GB
- GPU 옆 초고속 작업 메모리
- 2026년 2월 양산 시작
- 개당 ~700달러
HBF (차세대)
- NAND 플래시 적층 기술
- DRAM 대비 8~16배 용량
- 대용량 고속 보조 저장소
- 2027년 초 양산 목표
- 전력효율 2.69배 향상
28. 그런데 CPU-GPU-HBM 구조에서 여전히 병목이 남아있음.
29. HBM은 그때그때 필요한 데이터를 빠르게 넘겨주지만, 대량의 데이터를 오래 보관하기에는 적절하지 않음.
30. 계산이 끝난 결과나 오래 보관할 자료는 NAND 플래시에 저장하게 되는데, NAND가 GPU-HBM 옆에서 떨어져 있고 속도도 느려서 시간을 잡아먹는 하마가 되고 있음.
31. 여기서 등장한 것이 HBF(High Bandwidth Flash)임.
32. NAND를 HBM처럼 층층이 쌓아서 용량을 늘리고, HBM 바로 옆에 붙여서 속도를 끌어올리는 개념임.
HBM4 vs HBF 상세 스펙
11.7Gbps
HBM4 동작 속도
2.69x
HBF 전력효율 향상
$700
HBM4 개당 가격
16x
HBF 용량 배율
33. HBF는 DRAM 대비 8~16배 높은 용량을 제공하면서도, 성능 대비 전력 효율이 2.69배 향상된다는 시뮬레이션 결과가 나옴 (TrendForce).
34. SK하이닉스는 ‘H3’라는 하이브리드 아키텍처를 발표했는데, HBM과 HBF를 하나의 설계에 통합한 것임.
35. NVIDIA의 최신 GPU인 블랙웰(B200)과 HBM3E 8스택, HBF 8스택을 결합한 시뮬레이션에서 LLM 추론 성능이 크게 향상되었다고 함 (Blocks and Files).
기업별 HBF 전략 — 협업 vs 단독
36. HBF 개발에서 SK하이닉스와 삼성전자의 전략이 확연히 갈리고 있음.
37. SK하이닉스는 NAND에 강점이 있는 SanDisk와 공동개발 + 표준화를 추진하고 있고, 2026년 하반기 샘플 출하, 2027년 초 양산이 목표임 (SanDisk 공식발표).
38. 삼성전자는 단독개발 노선을 택했음.
39. 앞으로도 HBM4를 깎는 데 쓰이는 펨토초 레이저 그루빙 기술처럼, HBM의 적층 기술을 보유한 기업이 HBF에서도 유리할 수밖에 없는 구조임.
40. HBM4용 웨이퍼 두께가 20~30㎛까지 얇아지면서 기존 절단 방식으로는 한계에 봉착했고, SK하이닉스가 1000조분의 1초(펨토초) 레이저 기술의 도입을 선언한 상태임 (전자신문).
시장 전망과 리스크
41. 2026년 전체 HBM 시장 규모는 546억 달러(약 75조 원)로, 전년 대비 58% 성장할 것으로 전망됨 (BofA, SK하이닉스 뉴스룸).
42. 삼성전자와 SK하이닉스가 분기 영업이익 30조 원을 정조준하고 있다는 분석도 나오고 있음 (아주경제). AI 인프라 기업 비교분석에서도 다룬 바 있음.
43. 다만, 미중 반도체 전쟁이라는 리스크가 있음.
44. 미국이 2024년 12월 HBM의 대중국 수출을 금지하자, 중국은 갈륨·게르마늄의 미국 수출을 금지하는 보복카드를 꺼냈음.
45. 중국이 전 세계 갈륨 생산량의 98%를 차지하고 있는 상황에서, 중국산 희귀자원을 사용해 만든 제품의 미국 수출 금지라는 최악의 시나리오도 배제할 수 없음.
46. 한국의 희소금속 비축량은 평균 56.8일분에 불과함 (산업통상자원부). 일본은 고위험 광물 기준 최대 180일치를 비축하고 있는 것으로 알려져 있음 (IEA). 비축 기간 차이가 3배가 넘는 상황임.
47. HBM 슈퍼사이클의 수혜를 온전히 누리려면, 공급망 리스크에 대한 준비도 함께 필요하다는 말임.
공급망 리스크 체크포인트
중국이 전 세계 갈륨 생산의 98%를 차지하는 상황에서, 미중 반도체 전쟁이 희귀자원 수출 통제로 확대되고 있음. 한국의 희소금속 비축량(56.8일)은 일본(최대 180일)의 1/3 수준. HBM 슈퍼사이클의 수혜를 온전히 누리려면 원자재 공급망 다변화가 선행되어야 하는 것임.
한줄 코멘트. GPU가 절반 이상의 시간을 ‘멍때리는’ 시간에 답을 내놓은 것이 HBM이었고, HBM 다음 세대는 HBF가 될 가능성이 높음. 75조 원짜리 시장에서 SK하이닉스와 삼성전자가 벌이는 경쟁의 승부처는, 칩을 더 빨리 만드는 것이 아니라 ‘기다리는 시간’을 얼마나 줄이느냐에 달려 있음.
직장인 시사점. AI 인프라의 핵심 병목이 GPU가 아니라 메모리라는 점은 세 가지로 연결됨. 첫째, 반도체 업계 종사자라면 설계·공정보다 패키징·적층 기술 쪽 역량이 향후 커리어 가치가 높아질 수 있음. 둘째, 투자 관점에서 AI 수혜주를 볼 때 GPU 기업만이 아니라 메모리 반도체 기업의 HBM→HBF 전환 로드맵을 함께 봐야 함. 셋째, IT 인프라 기획 직무라면 데이터센터 구성 시 메모리 대역폭이 총 비용(TCO)에 미치는 영향을 이해해두면 실무에 바로 적용 가능함.
면책 조항: 본 분석은 교육/참고 목적이며 투자 권유가 아닙니다. 투자 판단은 독자 본인의 책임하에 이루어져야 합니다.
관련 글
- AI 인프라 전쟁의 진짜 병목: 1,000조 CapEx 시대의 전력과 반도체 — AI 인프라 투자의 전력·반도체 병목 분석
- AI 인프라 12개 기업 비교분석 (1편) — Peer Group과 멀티플 비교 — NVIDIA부터 한미반도체까지 비교
- AI 인프라 12개 기업 비교분석 (3편) — 섹터 동향과 투자 시사점 — AI 인프라 섹터 투자 전략
참고 자료
- arXiv:2503.08311 — LLM 추론 시 어텐션 커널의 메모리 접근 지연 분석
- 글로벌이코노믹 — 삼성전자·SK하이닉스 HBM4 양산 동시 시작
- 디일렉 — HBM4 동작 속도 11.7Gbps, JEDEC 표준 46% 초과
- 아주경제 — HBM4 단가 약 700달러, 분기 영업이익 30조 원 전망
- Astute Group — 2025 Q3 HBM 시장 점유율
- TrendForce — SK하이닉스 루빈 HBM4 70% 공급
- CNBC — SK하이닉스 연간 이익 삼성전자 첫 추월
- TrendForce — HBF 전력 효율 2.69배 향상 시뮬레이션
- Blocks and Files — SK하이닉스 H3 하이브리드 아키텍처
- SanDisk — SK하이닉스와 HBF 공동개발·표준화 발표
- 전자신문 — HBM4 펨토초 레이저 그루빙 기술 도입
- SK하이닉스 뉴스룸 / BofA — 2026 HBM 시장 546억 달러 전망
- 산업통상자원부 — 한국 희소금속 비축량 평균 56.8일
- IEA — 일본 고위험 광물 비축 최대 180일
자주 묻는 질문 (FAQ)
Q1. HBM의 탄생과 HBM4 시대?
GPU에 딱 붙어서 데이터를 빠르게 넘겨주는 HBM(High Bandwidth Memory)이 나오게 됨.
Q2. 기업별 HBF 전략 — 협업 vs 단독?
HBF 개발에서 SK하이닉스와 삼성전자의 전략이 확연히 갈리고 있음.
Q3. 시장 전망과 리스크?
2026년 전체 HBM 시장 규모는 546억 달러(약 75조 원)로, 전년 대비 58% 성장할 것으로 전망됨 (BofA, SK하이닉스 뉴스룸).
