탐색 건너뛰기 링크입니다.
|
|
HBM[자원전체][Resources][issues]
- 개요
- HBM(High Bandwidth Memory) 고대역폭 메모리
- 엔비디아 H100에 탑재된 HBM2e 모습.[1]
- GDDR과 HBM의 구조 비교
- JEDEC 표준 규격
-
규격
|
총 채널 구성과
스택당 다이 구성
|
스택당
최대 용량
|
스택당
버스 폭
|
전압
|
클럭
(비트레이트)
|
채널당
I/O 데이터
전송률
|
스택당
대역폭
|
개발
|
표준화
|
적용
|
HBM
|
8 채널 × 128-bit × 4-Hi
|
4 GB
|
1024-bit
|
1.3 V
|
500 MHz
(1 Gbps)
|
1 GT/s
|
128 GB/s
|
2013년
|
2013년
|
2015년
|
HBM2
|
8 채널 × 128-bit × 8-Hi
|
8 GB
|
1024-bit
|
1.2 V
|
1000 MHz
(2 Gbps)
|
2 GT/s
|
256 GB/s
|
2015년
|
2016년
|
2016년
|
HBM2E
|
8 채널 × 128-bit × 12-Hi
|
24 GB
|
1024-bit
|
1.2 V
|
1200 MHz
(2.4 Gbps)
|
2.5 GT/s
|
307 GB/s
|
2019년
|
2018년
|
2020년
양산:삼성2
SK7
|
HBM3
|
16 채널 × 64-bit × 16-Hi
|
64 GB
|
1024-bit
|
1.1 V
|
3200 MHz
(6.4 Gbps)
|
6.4 GT/s
|
819 GB/s
|
2021년
|
2022년
|
2023년
|
HBM3E
|
|
|
|
|
|
|
|
2023년
|
(미정)
|
- 2016년
- 2020년
- 2월삼성 HBN2E 양산 8-Hi, 최대 3.2 GT/s, 410 GB/s, 총 16 GB
- 11월 SK HBN2E 양산 8-Hi, 최대 3.6 GT/s, 460 GB/s, 총 16 GB
- 11.16 NVIDIA A100 80 GB 연산 카드발표, 3.2 Gbps와 총 2 TB/s 대역폭을 지니는 HBM2E용
- 2021년
- 2022년 1월 27일에 HBM3의 JEDEC 표준 사양발표
- 2022
- 2023
- 6월 SK HBM3 최초양산 12H = 24GB =>NVIDIA 독점공급
- 8월 SK HBM3E 최초개발 ?GB x 8H=24GB 24년 상반기 양산계획 => 10월 SK HBM3E NVIDIA 퀄테스트
- 10월 삼성 HBM3 8단,12단 양산중 12h=24GB
- 2023년도 HBM시장점유율
- 메모리중 1% 지만 매출액 10%
- SK,삼성,마이크론 = 53%,38%,10%
- 0224년도 SK,NVIDIA 협력이 이대로 지속되면 SK가 90%예상
- 2024 HBM 개발 timeline
- 2.18 삼성전자 HBM4 개발개요발표
- 2월27일 삼성전자 HBM3E 24G비트(3GB) 12H = 36GB 최초개발성공 24년도 상반기 양산예정

- 2024 HBM3E 양산 예정(발표)
- 2월 SK 8H 10nano
- 3월 마이크론
- 상반기 삼성 24G비트(3GB) 12H = 36GB
- NVIDIA H200에 HBM3탑재예정 24년도 상반기 발표예정
- 2024 HBM3탑재 AI가속기/그래픽카드 출시예정
- 2분기 NVIDIA H200, B100
- AMD MI350, 인텔 가우디3
- NVIDIA A100 AI가속기/그래픽카드 3000만원
- NVIDIA 80GB HBM2e, Cuda:6912, interface:PCle4.0

- NVIDIA H100 5000만원 Nividia Home H100
- NVIDIA TITAN RTX 300만원
- 주가동향
LIST TOP
|