칩 기술

삼성, MS·메타 '맞춤 HBM4' 만든다

Nov 11, 2024 IDOPRESS

전용 AI칩엔 메모리에 연산 필수 … 요구에 맞게 설계 중


초당 2TB 속도·48GB 용량 … 내년 말 개발·양산 동시에

◆ 삼성전자 HBM 속도전 ◆


삼성전자가 마이크로소프트(MS)와 메타에 맞춤형으로 공급할 고대역폭메모리(HBM) '커스텀 HBM4' 개발에 착수했다. 차세대 제품인 HBM4부터는 메모리 기능뿐만 아니라 고객사 요구에 맞는 다양한 연산을 수행해야 하므로 '컴퓨팅 인 메모리(CIM)'로 불린다.


11일 반도체 업계에 따르면 삼성전자는 현재 MS와 메타에 제공할 HBM4를 개발 중이다. 반도체 업체 관계자는 "MS는 마이아100,메타는 아르테미스라는 자신들만의 인공지능(AI) 칩을 보유하고 있다"면서 "삼성전자는 메모리사업부와 연산 칩을 직접 설계할 수 있는 LSI사업부를 갖고 있어 이들 빅테크 기업에 최적의 파트너"라고 설명했다.


대다수 빅테크 기업은 자체 AI 데이터센터를 보유하고 있어 칩 구매 비용을 줄일 필요성이 크다. 이들이 AI 반도체 설계 기업 엔비디아나 AMD가 개발한 AI 칩을 구매하면서도,별도로 AI 가속기 칩을 직접 설계해 사용하는 이유다.


삼성전자는 HBM4 개발을 내년 말까지 끝낸 후 곧바로 양산에 돌입할 방침이다. 삼성전자가 이들 기업에 공급할 커스텀 HBM4의 세부 사양은 알려지지 않았지만,지난 2월 반도체 학술대회 'ISSCC 2024'를 통해 HBM4 사양(스펙)을 공개한 바 있다.


데이터 전송 속도인 대역폭은 HBM3E보다 66% 증가한 초당 2테라바이트(TB)이고,D램 단수를 16단으로 쌓아 올려 용량이 현재 36기가바이트(GB)보다 33% 늘어난 48GB에 달한다.


반도체 업체 관계자는 "HBM3까지는 발열 해결과 속도가 관건이었다"면서 "하지만 HBM4부터는 고객 요구에 맞춰 AI 연산(NPU)이나 특정 데이터 처리 기능(IP) 등을 반영할 수 있는 역량이 더 중요해진다"고 설명했다. HBM을 16단으로 안정적으로 쌓더라도 단과 단 사이에 고객이 요구하는 특별 단인 '버퍼 다이'를 설계하고 삽입할 수 있는 능력이 필요하다. 트렌드포스에 따르면 전 세계 HBM 시장 규모는 올해 182억달러(약 25조원)에 도달한 뒤 내년에는 2.5배 커진 467억달러(약 65조원)로 성장할 전망이다. AI 칩 설계 1위 엔비디아가 차세대 그래픽처리장치(GPU)인 '루빈(Rubin)'을 2026년 양산할 계획이어서,HBM 채택을 놓고 경쟁이 더욱 치열해질 전망이다.


HBM4


HBM은 여러 개의 D램을 수직으로 쌓아 만든 차세대 메모리다. HBM4는 이전 세대인 HBM3E보다 두 배 많은 데이터 전송 통로를 가지고 있어,더 빠른 데이터 전송과 높은 성능을 제공한다. HBM3E는 12개의 D램 칩을 쌓아 24GB와 32GB 용량을 지원하지만,HBM4는 16개의 D램 칩을 쌓아 최대 64GB 용량을 지원하며 2025년 하반기부터 생산될 예정이다.


[이상덕 기자 / 박승주 기자]


기술, 인공 지능, 에너지 등의 영역에서 최첨단 뉴스를위한 최고의 소스. Arinstar와의 기술의 미래를 탐구하십시오! 정보를 유지하고 영감을 유지하십시오!

빠른 탐색

우리의 선별 된 콘텐츠를 탐색하고, 획기적인 혁신에 대한 정보를 유지하고, 과학과 기술의 미래로의 여행.

© 한국의 신기술

개인 정보 정책