티스토리 뷰

HBM이 AI의 '학습(Learning)'을 주도했다면,
HBF는 AI의 '추론(Inference)' 시장을 장악하기 위한 핵심 병기다.
현재 경쟁 구도는 크게 세 갈래로 나뉜다.
 

1. SK하이닉스 & 샌디스크: "동맹을 통한 표준 선점"

현재 HBF 시장에서 가장 공격적인 행보를 보이는 곳은 SK하이닉스다.

  • 글로벌 연합군: 미국의 샌디스크(Western Digital)와 손잡고 HBF의 글로벌 표준화를 주도하고 있다. (2026년 2월, OCP 산하 공동 워크스트림 구성)
  • 전략: HBM에서 쌓은 적층 기술을 낸드(SSD)에도 이식한다는 전략이다. 이미 인수한 솔리다임(옛 인텔 낸드사업부)의 데이터센터 역량을 결합해,  AI 추론용 고성능 제품군부터 단계적으로 점령하겠다는 계획이다.
  • 로드맵: 2026년 샘플 공급, 2027년 양산을 목표로 속도를 내고 있다.

2. 삼성전자: "메모리 통합 솔루션으로 승부"

HBM 시장에서 추격자였던 삼성전자는 HBF에서 '초격차 통합 전략'으로 역전을 노린다.

  • 종합 반도체의 힘: 삼성은 D램, 낸드(SSD), 패키징 기술을 모두 보유한 유일한 기업이다.
  • 단순히 부품 하나를 파는 것이 아니라, HBM + HBF + 파운드리를 하나로 묶은 'AI 서버용 턴키(일괄) 솔루션'을 고객사에 제안한다.  * 패키징 : 서로 다른 반도체를 가장 효율적으로 이어 붙여 성능을 극대화 하는 기술 
  • 기술력: 업계 최고 수준의 V-낸드 적층 기술을 바탕으로, HBM보다 10배 이상 큰 용량을 구현하여 '용량의 격차'를 벌리는 데 집중하고 있다.

3. 엔비디아(NVIDIA): "최종 선택권을 쥔 심판"

HBF 시장의 성패는 결국 최대 고객사인 엔비디아가 이 기술을 채택하느냐에 달려 있다.

  • 엔비디아의 GPU 주변을 HBM(고속 캐시)이 감싸고, 그 바깥을 HBF(대용량 지식 창고)가 감싸는 새로운 설계를 받아들여야 한다. 현재 삼성과 하이닉스 모두 엔비디아의 차세대 AI 플랫폼(Vera Rubin 등)에 HBF를 탑재시키기 위해 물밑 경쟁 중이다.

※ 추가 기술 이해

1. 왜 HBM은 '학습'인가?
AI 학습은 수조 개의 파라미터를 가진 거대 모델을 만들기 위해 엄청난 양의 데이터를 반복해서 읽고 써야 한다.
이때 가장 중요한 것은 데이터의 전송 속도(대역폭)다.

  • 특징: GPU 옆에 HBM(High Bandwidth Memory)을 바짝 붙여 데이터 고속도로를 뚫어준다.
  • 역할: 모델이 똑똑해지도록 끊임없이 데이터를 주입하는 통로가 된다.

2. 왜 HBF는 '추론'인가?
학습이 끝난 AI가 실제로 사용자 질문에 답하는 단계가 '추론'이다.
이때는 모델의 모든 지식을 꺼내어 확인해야 하므로, 속도만큼이나 저장 용량과 효율성이 중요해진다.

  • HBF(High Bandwidth Flash): 기존의 느린 SSD와 비싼 HBM 사이의 간극을 메우는 고성능 낸드 솔루션이다.
  • 특징: HBM보다 속도는 느리지만, 용량은 수십 배 크고 가격은 저렴하다.
  • 역할: 수많은 AI 서비스 요청(Inference)을 처리할 때, 방대한 데이터를 빠르게 불러오는 '대용량 지식 창고' 역할을 수행한다.

 

 

공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
more
«   2026/03   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
글 보관함