티스토리 뷰
HBM이 AI의 '학습(Learning)'을 주도했다면,
HBF는 AI의 '추론(Inference)' 시장을 장악하기 위한 핵심 병기다.
현재 경쟁 구도는 크게 세 갈래로 나뉜다.
1. SK하이닉스 & 샌디스크: "동맹을 통한 표준 선점"
현재 HBF 시장에서 가장 공격적인 행보를 보이는 곳은 SK하이닉스다.
- 글로벌 연합군: 미국의 샌디스크(Western Digital)와 손잡고 HBF의 글로벌 표준화를 주도하고 있다. (2026년 2월, OCP 산하 공동 워크스트림 구성)
- 전략: HBM에서 쌓은 적층 기술을 낸드(SSD)에도 이식한다는 전략이다. 이미 인수한 솔리다임(옛 인텔 낸드사업부)의 데이터센터 역량을 결합해, AI 추론용 고성능 제품군부터 단계적으로 점령하겠다는 계획이다.
- 로드맵: 2026년 샘플 공급, 2027년 양산을 목표로 속도를 내고 있다.
2. 삼성전자: "메모리 통합 솔루션으로 승부"
HBM 시장에서 추격자였던 삼성전자는 HBF에서 '초격차 통합 전략'으로 역전을 노린다.
- 종합 반도체의 힘: 삼성은 D램, 낸드(SSD), 패키징 기술을 모두 보유한 유일한 기업이다.
- 단순히 부품 하나를 파는 것이 아니라, HBM + HBF + 파운드리를 하나로 묶은 'AI 서버용 턴키(일괄) 솔루션'을 고객사에 제안한다. * 패키징 : 서로 다른 반도체를 가장 효율적으로 이어 붙여 성능을 극대화 하는 기술
- 기술력: 업계 최고 수준의 V-낸드 적층 기술을 바탕으로, HBM보다 10배 이상 큰 용량을 구현하여 '용량의 격차'를 벌리는 데 집중하고 있다.
3. 엔비디아(NVIDIA): "최종 선택권을 쥔 심판"
HBF 시장의 성패는 결국 최대 고객사인 엔비디아가 이 기술을 채택하느냐에 달려 있다.
- 엔비디아의 GPU 주변을 HBM(고속 캐시)이 감싸고, 그 바깥을 HBF(대용량 지식 창고)가 감싸는 새로운 설계를 받아들여야 한다. 현재 삼성과 하이닉스 모두 엔비디아의 차세대 AI 플랫폼(Vera Rubin 등)에 HBF를 탑재시키기 위해 물밑 경쟁 중이다.
※ 추가 기술 이해
1. 왜 HBM은 '학습'인가?
AI 학습은 수조 개의 파라미터를 가진 거대 모델을 만들기 위해 엄청난 양의 데이터를 반복해서 읽고 써야 한다.
이때 가장 중요한 것은 데이터의 전송 속도(대역폭)다.
- 특징: GPU 옆에 HBM(High Bandwidth Memory)을 바짝 붙여 데이터 고속도로를 뚫어준다.
- 역할: 모델이 똑똑해지도록 끊임없이 데이터를 주입하는 통로가 된다.
2. 왜 HBF는 '추론'인가?
학습이 끝난 AI가 실제로 사용자 질문에 답하는 단계가 '추론'이다.
이때는 모델의 모든 지식을 꺼내어 확인해야 하므로, 속도만큼이나 저장 용량과 효율성이 중요해진다.
- HBF(High Bandwidth Flash): 기존의 느린 SSD와 비싼 HBM 사이의 간극을 메우는 고성능 낸드 솔루션이다.
- 특징: HBM보다 속도는 느리지만, 용량은 수십 배 크고 가격은 저렴하다.
- 역할: 수많은 AI 서비스 요청(Inference)을 처리할 때, 방대한 데이터를 빠르게 불러오는 '대용량 지식 창고' 역할을 수행한다.
'디지털,AI,IT' 카테고리의 다른 글
| [오늘의 AI] 글로벌 AI 지출 규모, 26년 말 2.5조 달러 돌파 전망 (3) | 2026.03.09 |
|---|---|
| [오늘의 AI] 소상공인을 위한 AI 실전활용 가이드 20 (0) | 2026.03.09 |
| [오늘의 AI] AI 반도체의 심장, HBM과 HBF 완벽 가이드 (삼성전자&SK하이닉스 주가가 폭발하는 이유) (0) | 2026.03.08 |
| [오늘의 AI] AI 혁명, 승자의 법칙은 변하지 않는다 (0) | 2026.03.08 |
| [오늘의 AI] AI와 협업하는 스마트한 글쓰기 (0) | 2026.03.06 |

