나무모에 미러 (일반/어두운 화면)
최근 수정 시각 : 2024-03-21 20:29:47

HBM

1. 개요2. 구조
2.1. 규격
3. 역사4. 장점5. 단점6. 타 규격과 성능 비교
6.1. 칩당 대역폭6.2. 그래픽카드 제품별 대역폭

1. 개요

High Bandwidth Memory (고대역폭 메모리)

대한민국의 SK하이닉스가 최초로 개발하고 양산하여 2013년에 발표한 적층형 메모리 규격이다.#

2. 구조

파일:H100_HBM.png
엔비디아 H100에 탑재된 HBM2e 모습.[1]

파일:HBM GDDR comparision.png
GDDR과 HBM의 구조 비교

기존의 GDDR 계열 SGRAM을 대체하고 보다 고대역폭의 메모리 성능을 달성하기 위해 제안되었으며, 2013년에 반도체 표준협회인 JEDEC에 의해 채택되었다. 메모리 다이를 적층하여 실리콘을 관통하는 통로(TSV)를 통해 주 프로세서와 통신을 한다는 것으로, 이를 위해서 직접 인쇄 회로 기판 위에 올려지는 GDDR 계열 SGRAM과는 달리 인터포저라는 중간 단계를 필요로 한다.

GDDR의 경우 32개의 핀을 구리배선으로 연결하면 되므로 따로 미세공정이 필요 없었다. 그러나 HBM은 1024개나 되는 미세한 핀을 연결해야 하기 때문에 그대로 기판에 붙일 수 없다. 설령 그대로 붙인다고 하더라도 1024개나 되는 배선을 기판에 구현하여 GPU에 연결하는 것도 만만치 않은 일이라[2], 중간에 인터포저를 추가하여 여기에 GPU와 HBM을 가깝게 배치해서 연결하자는 아이디어가 나왔다. 2012년에 이종간 패키징이 가능한 TSMC CoWoS가 개발되고, 2014년에 AMD와 SK하이닉스가 협력하여 HBM 개발에 성공하면서, 이후 본격적으로 HBM을 활용한 제품이 나오게 되었다.

2.1. 규격

JEDEC 표준 규격
|| 규격 || 총 채널 구성과
스택당 다이 구성 || 스택당
최대 용량 || 스택당
버스 폭 || 전압 || 클럭
(비트레이트) || 채널당
I/O 데이터
전송률 || 스택당
대역폭 || 개발 || 표준화 || 적용 ||
HBM 8 채널 × 128-bit × 4-Hi 4 GB 1024-bit 1.3 V 500 MHz
(1 Gbps)
1 GT/s 128 GB/s 2013년 2013년 2015년
HBM2 8 채널 × 128-bit × 8-Hi 8 GB 1024-bit 1.2 V 1000 MHz
(2 Gbps)
2 GT/s 256 GB/s 2015년 2016년 2016년
HBM2E 8 채널 × 128-bit × 12-Hi 24 GB 1024-bit1.2 V 1200 MHz
(2.4 Gbps)
2.5 GT/s 307 GB/s 2019년 2018년 2020년
HBM3 16 채널 × 64-bit × 16-Hi 64 GB 1024-bit 1.1 V 3200 MHz
(6.4 Gbps)
6.4 GT/s 819 GB/s 2021년 2022년 2023년
HBM3E 2023년 (미정) (미정)

3. 역사

한때 GDDR에 비해서 뚜렷하게 우세하지 못한 성능으로 인해 계륵 취급을 받은 적도 있었다. 초기 HBM 1세대가 개발되었을 때, 그래픽카드에 HBM 4개(4096bit)를 배치한 것[3]과 GDDR 12개(384bit)를 배치한 것을 비교하면, 대역폭 및 용량 차이가 그리 크지 않은데 가격은 비쌌기 때문이다. 한편으로는 그래픽 메모리를 대용량으로 필요할 만한 게임도 없었고, 대학 또는 기업의 인공지능 랩에서나 쓰이는 정도라 일반 GDDR에 비해 수요가 적었다. 이런 이유로 2019년 삼성전자에서는 시장성이 없다고 판단하고 일시적으로 사업을 철수한 적도 있었다.#

그러나 시간이 흘러 성능 개선이 이루어지면서, GDDR과 HBM간의 기술 격차가 점점 크게 벌어지는 상황이다. 특히 GDDR의 경우 단층에 따른 구조적 한계로 개선이 더딘 반면[4], HBM의 경우 메모리 다이만 잘 쌓으면 용량과 대역폭이 배로 증가하니 상대적으로 기술 발전이 빠른 편이다. 거기에 매개변수가 많아 메모리를 많이 쓸 수 밖에 없는 초거대 인공지능[5] 분야에서 수요가 급증했는데, 이들을 제대로 활용하려면 사실상 HBM 사용이 강제된다. 용량도 중요하지만 많은 모델 데이터들을 빠른 시간내 처리하기 위해선 메모리 대역폭도 중요하기 때문이다.

근본적인 구조의 차이 때문에 GDDR과 비교를 하더라도 대역폭 면에서는 HBM이 월등하게 우수하다. 삼성은 스택당 최대 8-Hi, 최대 3.2 GT/s, 410 GB/s, 총 16 GB를 지원하는 플래시볼트 HBM2E를 2020년 2월에 양산했다. SK하이닉스도 스택당 최대 8-Hi, 최대 3.6 GT/s, 460 GB/s, 총 16 GB를 지원하는 HBM2E를 개발하여 2020년 7월 대량 생산에 돌입했다고 한다. 그리고 2020년 11월 16일, NVIDIA가 3.2 Gbps와 총 2 TB/s 대역폭을 지니는 HBM2E로 업그레이드된 A100 80 GB 연산 카드를 발표했다.

2021년에 SK하이닉스의 HBM3 개발 소식이 발표된 후, 2022년 1월 27일에 HBM3의 JEDEC 표준 사양이 발표되었다. 스택당 최대 819 GB/s로 2개의 스택으로만 구성해도 약 1.6 TB/s가 되는데, GDDR6X SGRAM 21 Gbps 사양이어야 384-bit 구성시 1 TB/s를 겨우 돌파하므로, HBM3가 탑재된 제품의 투입 시기가 늦어지지 않는다면 당분간 대역폭 우위를 차지할 수 있을 것이다.

2019년에 개발을 일시 철수했던 삼성전자는 뒤늦게 4세대 HBM 개발을 시작하였고, 2022년에 HBM3 '아이스볼트(Icebolt)'를 개발하였다.# 그러나 SK하이닉스보다 1년 늦게 개발된 탓인지 엔비디아에 납품은 어려운 상황이다. 트렌트포스측에서는 삼성전자가 HBM3를 2023년 말에서 2024년 1월 사이에 양산할 것으로 전망하고 있다.#

2023년 기준 메모리반도체 시장에서 HBM이 차지하는 비중은 1% 미만이지만# 매출은 10%에 달할 정도로 고부가가치 메모리 중 하나로 자리잡았다. 인공지능 칩의 가파른 수요 증가로 인해 이에 걸맞는 처리속도에 대한 수요도 덩달아 증가하며 호조세를 맞고 있다. 2023년에는 해당 분야에서 하이닉스와 삼성전자가 각각 53%, 38%로서 도합 90% 수준의 점유율을 기록하고 있고 나머지 10%는 마이크론이 차지하고 있다. 특히 최신 HBM3의 경우 2024년 기준 SK하이닉스가 90%를 차지할 정도로 거의 독주하고 있다.# 범용 인공지능 칩 시장의 80% 가량을 차지하고 있는 엔비디아가 하이닉스와의 협력을 통해 자사 GPU에 제품을 결합하여 판매하기 때문에 시장점유율 면에서 상당히 유리한 위치를 차지하고 있다.

2023년 8월, SK하이닉스에서 HBM3E 개발에 성공하였다.#

2023년 5월, 삼성전자의 차세대 HBM에 HBM3P '스노우볼트'라는 명칭을 붙일 것으로 알려졌다.# 동년 9월에는 엔비디아에 HBM3를 공급하기로 합의했다는 소식이 들려오기도 하였다.# 그러나 HBM3 샘플을 받아본 엔비디아에서 수율 문제를 우려하여, 최종 계약에는 이르지 못하고 조건부 가계약을 맺은 것으로 알려졌다.# 특히 엔비디아 측에선 차세대 HBM 메모리 명칭을 'HBM3E'로 정했으니, 삼성전자가 붙인 'HBM3P'라는 명칭을 바꿔달라고 요구한 것으로 알려졌다.#

2023년 10월, 삼성전자에서 일명 '샤인볼트(Shinebolt)’라는 HBM3E의 개발에 성공하였다고 발표하였다.#

2023년 11월, 엔비디아는 HBM3E가 탑재된 H200과 B100을 2024년 2분기에 출시한다고 발표하였다. AMD인텔도 각각 HBM3가 탑재된 MI350과 가우디3를 출시한다.

2023년 HBM 시장 전체 규모는 40억 달러로 추정하고 있고#, 2024년에는 120억달러로 작년 대비 3배 늘어날 것으로 예상하고 있다. 하이닉스의 2023년 HBM 매출은 20억달러 수준이다.#

2024년 2월, SK하이닉스에서 16단 HBM3E 기술을 첫 공개할 것으로 알려졌다. 16단 48GB에 1.28TB/s의 대역폭을 처리할 수 있는 것으로 알려졌다.#

4. 장점

5. 단점

6. 타 규격과 성능 비교

6.1. 칩당 대역폭

기준년도 구분 핀 개수 속도 대역폭 차이
2014년 GDDR5 32 9Gbps 36GB/s 약 3.56배
HBM1 1024 1Gbps 128GB/s
2018년 GDDR6 32 18Gbps 72GB/s 약 4.26배
HBM2 1024 2.4Gbps 307GB/s
2020년 GDDR6X 32 21Gbps 84GB/s 약 5.48배
HBM2e 1024 3.6Gbps 460GB/s
2022년 GDDR6X 32 24Gbps 96GB/s 약 8.53배
HBM3 1024 6.4Gbps 819GB/s
2024년 GDDR7 32 32Gbps 128GB/s 약 9.22배
HBM3e 1024 9.2Gbps 1.18TB/s

6.2. 그래픽카드 제품별 대역폭

기준년도 제품명 구분
(용량)
칩 개수
(총 용량)
대역폭
2020년 엔비디아 RTX3090 GDDR6X
(1GB)
24개
(24GB)
936GB/s
엔비디아 RTX A6000 GDDR6
(2GB)
24개
(48GB)
768GB/s
엔비디아 A100 HBM2e
(16GB)
6개
(80GB)
2TB/s
2022년 엔비디아 RTX4090 GDDR6X
(2GB)
12개
(24GB)
1TB/s
엔비디아 H100 PCIe HBM2e
(16GB)
6개
(80GB)
2TB/s
2024년 AMD Instinct MI300X HBM3
(24GB)
8개
(192GB)
5.3TB/s
엔비디아 H200 SXM HBM3e
(24GB)
6개
(141GB)
4.8TB/s
엔비디아 B200 SXM HBM3e
(24GB)
8개
(192GB)
8TB/s
엔비디아 RTX5090(예상) GDDR7
(3GB)
12개
(36GB)
1.5TB/s


[1] 코어 양 옆으로 6개가 탑재됐으며, 바깥에 검은색 둥근모서리 사각형의 인터포저가 보인다. HBM2e 1개당 16GB이므로 총 96GB지만, 실제로는 80GB만 사용할 수 있다. 하나는 구조적 안정성 유지를 위한 더미거나 ECC 용도로 빼뒀을 가능성이 있지만, 정확한 이유는 알 수 없다.[2] 다만 인터포저를 이용한 CoWoS 패키징 공정이 워낙 공급량도 적고 비싸다보니, 기판에 직접 붙일 수 있게끔 패키징을 시도하려는 움직임도 보이고 있다.[3] 인터포저 크기를 어느정도로 구현할 수 있느냐에 따라 HBM 배치 개수가 정해지는데, 2010년대에는 4개에 불과했으나 2024년 기준으로는 6~8개 배치가 가능하다.[4] 미세 나노공정에서 개선이 이뤄져야 GDDR도 개선이 이루어지는데, 이것도 장비부터 시작해서 비용이 만만치 않다. 비메모리 분야에서는 제조비용이 얼마나 되든 간에 고성능 맞춤형 제품을 만드는게 목적이라 미세 나노공정이 쉽게 이루어지나, 메모리는 규격이 공통화 되어있고 수요와 공급의 논리에 따라 가격이 결정되므로 철저히 원가절감을 목적으로 미세화가 이뤄진다.#1#2 따라서 무작정 미세화 하기 어렵고, 하더라도 HBM처럼 드라마틱하게 성능 향상을 기대하기 어렵다.[5] 예를 들어 GPT나 Stable Diffusion과 같은 트랜스포머 기반 인공지능 모델들.[6] 특히 미세화하면 미세화 할 수록 메모리 셀에 전하를 충전시키는게 매우 어려워지기 때문에 무작정 미세화가 어렵다. 이 때문에 GDDR에서도 적층을 시도하고 있다.[7] 예로 SK하이닉스의 경우 2023년에 이미 2024년도 HBM 생산물량이 완판되었다고 밝힌 바 있다.[8] 예로 TSMC CoWos의 수율이 70%라고 하는데 그렇게 불량난 나머지 HBM은 그냥 버려진다.[9] 흔히 GPU 메모리가 고장났을 경우 뜨는 에러코드 43에서 일반적인 그래픽카드는 다리미 신공 등을 통해 요행으로라도 고치는 것을 시도해 볼 수 있으나, HBM이 적용된 그래픽카드는 애초에 냉납과 같은 솔더링의 문제로 고장이 난 것이 아니므로 이것이 불가능하다.[10] 그리고 차후 메모리를 지금보다 더욱 많이 적층하여 고용량의 HBM의 메모리를 만들 수록 필연적으로 오버클럭 포텐셜은 더 떨어질 수 밖에 없다.

분류