Construction, IT, Science, Economy etc

메모리 칩 부족 현상은 언제, 어떻게 끝날 것인가? How and When the Memory Chip Shortage Will End Despite new fabs and new technology, prices will stay high

How and When the Memory Chip Shortage Will End Despite new fabs and new technology, prices will stay high


If it feels these days as if everything in technology is about AI, that’s because it is. And nowhere is that more true than in the market for computer memory. Demand, and profitability, for the type of DRAM used to feed GPUs and other accelerators in AI data centers is so huge that it’s diverting away supply of memory for other uses and causing prices to skyrocket. According to Counterpoint Research, DRAM prices have risen 80-90 precent so far this quarter.

https://spectrum.ieee.org/dram-shortage

새로운 제조 시설과 신기술에도 불구하고

가격은 높은 수준을 유지할 것입니다.

요즘 기술 분야의 모든 것이 인공지능(AI)에 관한 것처럼 느껴진다면, 그건 사실이기 때문입니다. 특히 컴퓨터 메모리 시장에서 이러한 현상이 두드러집니다. AI 데이터 센터 의 GPU 및 기타 가속기에 사용되는 DRAM 에 대한 수요와 수익성이 엄청나게 높아 다른 용도의 메모리 공급을 줄이고 가격을 폭등시키고 있습니다. 카운터포인트 리서치 에 따르면 , 이번 분기 DRAM 가격은 80~90% 상승했습니다.

주요 AI 하드웨어 회사들은 2028년까지 칩 공급을 확보했다고 밝혔지만, PC 제조업체, 소비자 가전제품 제조사 , 그리고 수십억 비트의 데이터를 일시적으로 저장해야 하는 모든 업체들은 공급 부족과 가격 폭등에 대처하기 위해 고군분투하고 있습니다.

전자 산업은 어떻게 이런 난관에 봉착하게 되었고, 더 중요한 것은 어떻게 이 상황에서 벗어날 수 있을까? IEEE Spectrum은 경제학자와 메모리 전문가들에게 그 이유를 물었다. 전문가들은 현재의 상황이 DRAM 산업의 역사적인 호황과 불황 주기, 그리고 전례 없는 규모의 AI 하드웨어 인프라 구축이 충돌한 결과라고 말한다. 또한, AI 부문에 큰 붕괴가 일어나지 않는 한, 새로운 생산 능력과 기술이 수요를 충족시키기까지는 수년이 걸릴 것이며, 그때가 되더라도 가격은 여전히 높은 수준을 유지할 가능성이 높다.

이 이야기의 양면을 모두 이해하려면 수요와 공급 변동의 주요 원인인 고대역폭 메모리(HBM)를 알아야 합니다.

HBM이란 무엇인가요?

HBM은 3D 칩 패키징 기술을 사용하여 무어의 법칙 속도 저하를 극복하려는 DRAM 업계의 시도입니다 . 각 HBM 칩은 다이(die)라고 불리는 얇게 가공된 DRAM 칩이 최대 12개 모여 구성됩니다. 각 다이에는 TSV(Through Silicon Via)라고 불리는 수직 연결부가 여러 개 있습니다. 이 다이들은 서로 쌓여 있으며, TSV에 맞춰 배열된 미세한 솔더 볼 어레이로 연결됩니다. 이 DRAM 타워는 (약 750마이크로미터 두께로, 타워라기보다는 브루탈리즘 양식의 사무실 건물에 더 가깝습니다) 메모리 다이와 프로세서 사이에서 데이터를 전달하는 베이스 다이 위에 쌓입니다.

이 복잡한 기술 부품은 GPU 또는 다른 AI 가속기의 1밀리미터 이내에 장착되며, 최대 2,048개의 마이크로미터 크기 연결부를 통해 연결됩니다. HBM은 프로세서의 양쪽에 부착되며, GPU와 메모리는 하나의 유닛으로 통합되어 있습니다.

GPU와의 긴밀하고 고도로 연결된 연결 방식의 핵심 아이디어는 이른바 '메모리 장벽' 을 허물기 위한 것입니다 . 메모리 장벽이란 대규모 언어 모델을 실행하는 데 필요한 초당 테라바이트급 데이터를 GPU로 가져오는 데 필요한 에너지와 시간의 제약을 말합니다. 메모리 대역폭 은 언어 모델 실행 속도를 제한하는 주요 요인입니다.

HBM 기술은 10년 이상 존재해 왔으며 , DRAM 제조업체들은 그 성능을 향상시키기 위해 부단히 노력해 왔습니다.



AI 모델 의 크기가 커짐에 따라 GPU에서 HBM의 중요성도 커졌습니다. 하지만 이는 비용 증가로 이어졌습니다. SemiAnalysis의 추산에 따르면 HBM은 일반적으로 다른 유형의 메모리보다 3배 비싸며, GPU 패키지 가격의 50% 이상을 차지합니다.

메모리 칩 부족 현상 의 원인

메모리 및 스토리지 업계 전문가들은 DRAM 산업이 호황과 불황이 극심하게 반복되는 변동성이 큰 산업이라는 데 동의합니다. 스토리지 및 메모리 전문가이자 코플린 어소시에이츠 의 사장인 토마스 코플린 은 신규 공장 건설에 150억 달러 이상이 소요되기 때문에 기업들이 확장에 매우 소극적이며, 호황기에만 투자 자금을 확보할 수 있다고 설명합니다 . 하지만 이러한 공장을 건설하고 가동하는 데 18개월 이상이 걸리기 때문에, 신규 생산 능력은 초기 수요 급증 시기를 훨씬 지나서야 시장에 공급 과잉을 초래하고 가격을 하락시키는 결과를 낳습니다.

코플린은 오늘날의 가격 변동 주기의 기원이 코로나19 팬데믹을 둘러싼 반도체 공급 부족 사태 로 거슬러 올라간다고 말합니다 . 공급망 차질을 피하고 원격 근무 로의 빠른 전환을 지원하기 위해 아마존 , 구글 , 마이크로소프트 와 같은 데이터센터 거대 기업인 하이퍼스케일러들이 메모리와 스토리지 재고를 대량으로 사들여 가격을 끌어올렸다는 것입니다.

하지만 이후 공급이 안정되고 2022년 데이터센터 확장이 둔화되면서 메모리와 스토리지 가격이 급락했습니다. 이러한 불황은 2023년까지 이어졌고, 심지어 삼성 과 같은 대형 메모리 및 스토리지 업체들은 가격이 제조 원가 이하로 떨어지는 것을 막기 위해 생산량을 50%까지 줄이는 사태까지 발생했다고 코플린은 말합니다. 이는 매우 이례적이고 절박한 조치였는데, 일반적으로 기업들은 투자 가치를 회복하기 위해 공장을 최대 생산 능력으로 가동해야 하기 때문입니다.

2023년 후반에 회복세가 시작된 후, "모든 메모리 및 스토리지 회사들은 생산 능력을 다시 늘리는 데 매우 신중했습니다."라고 코플린은 말합니다. "따라서 2024년과 2025년 대부분 기간 동안 신규 생산 능력에 대한 투자는 거의 또는 전혀 없었습니다."



AI 데이터센터 붐

신규 투자 부족은 새로운 데이터 센터에 대한 수요 급증과 정면으로 충돌하고 있습니다. 데이터 센터 맵(Data Center Map)에 따르면 전 세계적으로 현재 계획 중이거나 건설 중인 신규 데이터 센터가 거의 2,000개 에 달합니다 . 이 모든 데이터 센터가 건설된다면 현재 약 9,000개인 전 세계 데이터 센터 공급량이 20% 증가할 것입니다.

맥킨지는 현재의 구축 속도가 유지된다면 2030년까지 기업들이 7조 달러를 지출할 것으로 예측하며 , 그중 대부분인 5조 2천억 달러가 AI 중심 데이터 센터에 투자될 것이라고 전망했습니다. 특히, 이 중 33억 달러는 서버 , 데이터 저장 장치 및 네트워크 장비 에 사용될 것으로 예상했습니다.

지금까지 AI 데이터센터 붐의 최대 수혜자는 단연 GPU 제조업체 엔비디아 입니다 . 데이터센터 사업 매출은 2019년 4분기 10억 달러에 조금 못 미치던 것이 2025년 10월 말 분기에는 510억 달러로 급증했습니다 . 이 기간 동안 엔비디아의 서버용 GPU는 점점 더 많은 기가바이트의 DRAM뿐만 아니라 더 많은 DRAM 칩을 요구해 왔습니다. 최근 출시된 B300은 8개의 HBM 칩을 사용하는데, 각 칩은 12개의 DRAM 다이로 구성되어 있습니다. 경쟁사들의 HBM 사용 전략도 엔비디아와 대체로 유사합니다. 예를 들어 AMD의 MI350 GPU 역시 8개의 12개 다이 칩을 사용합니다.

수요가 급증함에 따라 DRAM 제조업체의 매출에서 HBM이 차지하는 비중이 점점 커지고 있습니다. SK하이닉스 와 삼성에 이어 세계 3위 DRAM 제조업체인 마이크론은 HBM 및 기타 클라우드 관련 메모리가 2023년 DRAM 매출의 17%를 차지했던 것이 2025년에는 거의 50%까지 증가할 것으로 예상한다고 밝혔습니다 .

마이크론은 HBM 시장 규모가 2025년 350억 달러에서 2028년 1,000억 달러로 성장할 것으로 전망한다고 산제이 메흐로트라 CEO가 12월 애널리스트들에게 밝혔습니다 . 이는 2024년 전체 DRAM 시장 규모보다 큰 수치입니다. 마이크론은 당초 예상보다 2년 앞당겨 이 목표를 달성할 것으로 보고 있습니다. 메흐로트라 CEO는 업계 전반에 걸쳐 수요가 공급을 "상당히 초과할 것"이라고 전망했습니다.


미래 DRAM 공급 및 기술

"DRAM 공급 문제를 해결하는 방법은 혁신과 제조 시설 증설, 이렇게 두 가지입니다."라고 Mkecon Insights의 경제학자 미나 김은 설명합니다. " DRAM 스케일링이 어려워짐에 따라 업계는 고급 패키징 기술에 주목해 왔는데, 이는 결국 더 많은 DRAM을 사용하는 방식입니다."

마이크론, 삼성, SK 하이닉스 는 메모리 및 스토리지 시장의 대부분을 점유하고 있으며, 세 회사 모두 새로운 생산 시설을 건설 중입니다. 그러나 이러한 시설들이 가격을 의미 있게 낮추는 데 기여할 가능성은 낮습니다.

마이크론은 싱가포르 에 HBM(헤테로볼트 메모리) 생산 공장을 건설 중이며 , 2027년에 가동될 예정입니다. 또한 대만 의 PSMC로부터 인수한 공장을 재정비하여 2027년 하반기에 생산을 시작할 계획입니다. 지난달에는 뉴욕주 오논다가 카운티에 DRAM 생산 단지 건설을 위한 착공식을 가졌지 만, 이 공장은 2030년이 되어서야 본격적인 생산에 들어갈 예정입니다.

삼성은 2028년에 한국 평택에 새로운 공장을 건설하여 생산을 시작할 계획입니다 .

SK하이닉스 는 인디애나주 웨스트라파예트에 HBM 및 패키징 시설을 건설 중이며 , 2028년 말까지 생산을 시작할 예정입니다. 또한 청주에 건설 중인 HBM 생산 시설은 2027년에 완공될 예정입니다.

인텔 CEO 립부 탄은 지난주 시스코 AI 서밋 에서 DRAM 시장 전망에 대해 "2028년까지는 상황이 나아질 기미가 보이지 않는다" 고 참석자들에게 말했다 .

향후 몇 년 동안 이러한 확장이 공급 증가에 기여하지 못할 것으로 예상되는 가운데, 공급 증대를 위해서는 다른 요인들이 필요할 것입니다. 글로벌 전자 협회 (구 IPC) 의 수석 경제학자 인 숀 듀브라 박은 "기존 DRAM 선도 기업들의 점진적인 생산 능력 확장, 첨단 패키징 기술 의 수율 향상 , 그리고 공급망의 광범위한 다변화가 복합적으로 작용하여 공급 부족 문제를 해결할 것"이라고 말했습니다 . "새로운 제조 시설은 어느 정도 도움이 되겠지만, 더 빠른 효과를 보려면 공정 학습, DRAM 스태킹 효율성 향상, 그리고 메모리 공급업체와 AI 칩 설계자 간의 긴밀한 협력이 필수적입니다."

그렇다면 이러한 신규 공장들이 가동되면 가격이 내려갈까요? 장담하기는 어렵습니다. 김 교수는 "일반적으로 경제학자들은 가격이 오르는 것보다 훨씬 더디고 완만하게 내려간다는 사실을 발견했습니다. 특히 컴퓨팅에 대한 수요가 끊임없이 증가하는 현 상황에서 DRAM 역시 이러한 일반적인 관찰에서 예외가 될 가능성은 낮습니다."라고 말합니다.

한편, HBM을 더욱 많은 실리콘을 소비하는 칩으로 만들 수 있는 기술들이 개발 중입니다. HBM4 표준은 현재 칩에 12개의 DRAM 다이만 사용하고 있음에도 불구하고 16개의 DRAM 다이를 적층할 수 있습니다. 16개까지 적층하는 것은 칩 적층 기술과 밀접한 관련이 있습니다. 실리콘, 솔더, 지지 재료로 이루어진 HBM "레이어 케이크"를 통해 열을 전달하는 것이 적층 개수를 늘리거나 패키지 내부에서 HBM의 위치를 재배치하여 대역폭을 더욱 높이는 데 있어 주요 제약 요소입니다.

SK하이닉스는 첨단 MR-MUF(mass reflow molded underfill) 제조 공정을 통해 열전도율에서 우위를 점한다고 주장합니다 . 더 나아가, 하이브리드 본딩 이라는 새로운 칩 적층 기술은 다이 간 수직 거리를 사실상 0에 가깝게 줄여 열전도율을 향상시킬 수 있습니다. 2024년 삼성 연구진은 하이브리드 본딩을 이용해 16단 적층이 가능하다는 것을 입증했으며, 20단 적층도 충분히 가능할 것이라고 제시했습니다 .

https://spectrum.ieee.org/dram-shortage

댓글 없음: