생성형 인공지능(AI)의 확산으로 인해 고대역폭메모리(HBM) 시장이 폭발적으로 성장할 것으로 예상되고 있습니다. 이 시장에서 SK하이닉스를 선두로 삼아 삼성전자와 미국 마이크론이 본격적으로 경쟁을 벌일 것으로 예상됩니다.
오늘은 HBM3와 관련하여 큰손 엔비디아와 메모리 업체간의 경쟁과 협업데 대해서 알아보겠습니다.
1. HBM3 메모리 3파전 (에스케이 하이닉스, 삼성전자, 마이크론)
트렌드포스에 따르면 삼성, SK하이닉스, 마이크론은 5세대 HBM3E 샘플을 주요 고객사인 엔비디아에게 제출했습니다. 내년 1분기 말부터 본격적인 양산 경쟁이 시작될 것으로 예상됩니다.
HBM은 여러 층으로 쌓인 형태의 D램으로, 챗GPT와 같은 생성형 AI에서 빠른 데이터 처리가 필요한 분야에서 활용되고 있습니다. 트렌드포스는 마이크론이 가장 먼저 5세대 제품을 양산할 가능성이 높다고 분석했습니다.
마이크론은 SK하이닉스와 삼성전자에게 뒤처진 현재의 HBM 시장에서 앞서 나가기 위해 속도전에 나섰습니다. 마이크론의 HBM 시장 점유율은 올해 2분기에 4~9% 정도로 집계되었습니다. 이에 비해 SK하이닉스와 삼성전자의 점유율은 각각 46~49%로 높게 나타났습니다.
마이크론은 올해 4세대를 건너뛰고 5세대 제품 개발에 집중했습니다. 내년 1분기에는 대만의 공장에서 HBM3E 대량 생산을 준비할 계획입니다. 또한, 마이크론은 대만 파운드리 업체 TSMC와 협력하여 패키징 분야에서도 경쟁력을 확보했습니다.
HBM3 시장을 선도하고 있는 SK하이닉스는 내년 2분기부터 HBM3E 양산에 본격적으로 참여할 계획입니다.
SK하이닉스 관계자는 최근 실적 콘퍼런스콜에서 "HBM3뿐만 아니라 HBM3E도 내년에는 캐파(생산능력)가 솔드아웃될 것"이라고 밝혔습니다. 또한, SK하이닉스는 2026년까지 6세대 HBM4 개발에도 착수하여 경쟁 우위를 확보하고 있다고 평가받고 있습니다.
삼성전자는 HBM3E 제품인 '샤인볼트' 개발을 발표하며 본격적으로 차세대 제품 경쟁에 참여했습니다. 삼성전자는 HBM3E 양산을 가장 늦게 시작했지만, 압도적인 생산능력을 확보하여 내년 3분기 중에는 5세대 후속 모델인 32GB 버전을 출시할 것으로 보입니다.
삼성전자는 HBM 생산능력을 늘리기 위해 올해 대비 25% 이상 증가시킬 계획입니다. 이를 위해 삼성전자는 53조7000억원의 시설투자를 할 것으로 예상됩니다.
업계에서는 삼성전자의 HBM 생산능력이 월평균 웨이퍼 17만장 수준으로 증가하면서 SK하이닉스보다 크게 늘어날 것으로 예상되고 있습니다.
또한, 삼성전자는 패키징과 HBM 생산을 동시에 제공하는 토털 서비스를 강점으로 내세우고 있습니다.
삼성전자가 생산능력을 늘리는 이유는 HBM의 수요가 폭발적으로 증가할 것으로 예상되기 때문입니다. 엔비디아의 H100 칩은 4개의 HBM을 필요로 합니다.
엔비디아는 'H200' 및 'B100'과 같은 차세대 AI 칩을 출시할 예정이며, 각각 8개 및 6개의 HBM3E 칩을 사용할 예정입니다.
또한, AMD, 구글, 아마존 등 글로벌 빅테크 기업들도 자체 AI 칩을 준비 중입니다. 가트너는 HBM 시장 규모가 2027년까지 51억7700만달러로 증가할 것으로 예상했습니다.
2. HBM3가 뭔가요?
HBM3 관련주를 이야기 하면서 HBM3가 뭔지를 알아야 할 것 같아서 HBM3에 대해서 기술적으로 조금 자세히 정리했습니다.
SK하이닉스는 지난해 6월에 세계 최초로 HBM3를 양산하고, 올해 4월에는 24GB 용량의 HBM3 신제품을 공개했습니다. 삼성전자와 SK하이닉스는 HBM3에 대한 실적과 성과를 올해 전반에 걸쳐 경쟁하고 있습니다.
엔비디아, AMD, 인텔 등 다른 회사들도 HBM3에 주목하고 있습니다. 엔비디아의 엔비디아 호퍼 H100 데이터센터 GPU에는 120GB 용량의 HBM3가 탑재되어 있으며, AMD의 데이터센터 APU인 인스팅트 MI300도 HBM3를 사용합니다.
인텔은 차세대 데이터 서버용 GPU에 최대 288GB 용량의 HBM3 메모리를 탑재할 예정이며, 국내의 퓨리오사AI도 2세대 칩인 레니게이드에 HBM3를 탑재할 예정입니다. HBM3은 전 세계 반도체 시장에서 활발히 사용되고 있는 메모리입니다.
HBM은 기존의 D램을 수직으로 쌓아 올리고, 수천 개의 실리콘관통전극(TSV)을 사용하여 데이터 처리 속도와 칩 간 통신 속도를 크게 향상시킨 제품입니다.
HBM3는 최대 12개의 D램을 쌓아 최대 24GB의 용량을 실현할 수 있으며, 초당 819GB의 데이터 처리 속도를 가집니다.
이는 매우 빠른 전송 속도로, 1초에 5GB 영화 163편 분량을 처리할 수 있습니다. 또한, HBM3는 열 효율성이 우수하여 발열 관리가 용이하며, 에너지 소비도 낮아 시스템 안정성을 크게 향상시킵니다.