The undying thirst for smarter (historically, that means larger) AI models and greater adoption of the ones we already have has led to an explosion in data-center construction projects, unparalleled both in number and scale. Chief among them is Meta’s planned 5-gigawatt data center in Louisiana, called Hyperion, announced in June of 2025. Meta CEO Mark Zuckerberg said Hyperion will “cover a significant part of the footprint of Manhattan,” and the first phase—a 2-GW version—will be completed by 2030.
https://spectrum.ieee.org/5gw-data-center
세계 최대 규모의 데이터 센터를 건설하려면 무엇이 필요할까요?
초대형 데이터 센터가 엔지니어들에게 기존 규칙을 뒤집도록 만들고 있다.
더욱 스마트한(역사적으로는 더 큰) AI 모델 에 대한 끊임없는 갈망 과 기존 모델의 활용 확대는 데이터센터 건설 프로젝트 의 폭발적인 증가를 가져왔으며 , 그 규모와 수 모두에서 전례 없는 수준에 이르렀습니다. 그중에서도 가장 주목할 만한 것은 메타(Meta)가 2025년 6월에 발표한 루이지애나주에 건설 예정인 5기가와트(GW) 규모의 데이터센터 ' 하이페리온 (Hyperion)'입니다. 메타의 CEO 마크 저커버 그는 하이페리온이 "맨해튼의 상당 부분을 차지할 것"이라고 밝혔으며, 1단계인 2GW 규모는 2030년까지 완공될 예정입니다.
이러한 프로젝트를 현실로 구현하는 임무를 맡은 엔지니어들에게 있어, 관련된 다양한 과제들은 특별한 순간을 의미합니다. 세계 최대의 기술 기업들이 5년 전만 해도 상상조차 할 수 없었던 규모로 운영될 수 있도록 설계된 컴퓨팅, 냉각 및 네트워크 기술 분야의 새로운 혁신에 아낌없이 투자하고 있기 때문입니다.
동시에, 이러한 초고속 건설 속도는 심각한 문제점을 수반합니다. 현대 데이터 센터 건설에는 임시직 근로자의 유입이 빈번하며, 소음, 교통, 오염은 물론 지역 전기 요금까지 급격히 상승시킵니다 . 또한, AI 데이터 센터의 전례 없는 24시간 에너지 수요로 인해 환경적 피해는 시설 건설 이후에도 오랫동안 우려 사항으로 남습니다. 최근 한 연구에 따르면, AI 데이터 센터는 미국 에서만 연간 수천만 톤에 달하는 이산화탄소를 배출할 수 있다고 합니다 .
이러한 문제점들에도 불구하고, 대형 AI 기업들과 그들이 고용한 엔지니어들은 거대한 데이터센터 건설에 전력을 다하고 있습니다. 그렇다면 전례 없는 규모의 데이터센터를 건설하는 데 실제로 필요한 것은 무엇일까요?
AI가 건축 설계의 판도를 바꾼다
전형적인 데이터센터 건물은 철근 콘크리트 슬래브 기초 위에 세워집니다. 여기에 철골 구조와 타설 콘크리트 벽 패널이 더해집니다. 완성된 건물은 "쉘(shell)"이라고 불리는데, 이는 구조 자체가 부차적인 문제라는 의미를 내포합니다. 메타(Meta)는 심지어 거대한 텐트를 이용해 임시 데이터센터를 구축하기도 했습니다.
하지만 최대 규모의 AI 데이터 센터는 고유한 과제를 안겨줍니다. 건설 컨설팅 회사인 Jacobs의 부사장인 로버트 헤일리 는 "가장 큰 어려움은 종종 지표면 아래에 있습니다. 불안정하거나 부식성이 강하거나 팽창성 토양은 공사 지연을 초래하고 심각한 개입을 필요로 할 수 있습니다. " 라고 말합니다 . Stantec 의 수석 기술 책임자인 아만다 카터는 대부분의 전기 인프라가 지하에 설치되기 때문에 토양의 열전도율 또한 중요하다고 강조했습니다. "토양의 열 저항이 높으면 열을 발산하기 어려울 것입니다." 엔지니어들은 공사가 시작되기 전에 수백 또는 수천 개의 토양 샘플을 채취할 수 있습니다.
적합한 부지는 부족하지 않은 것으로 보입니다. 건설 중인 데이터 센터의 수와 투자액이 급증했기 때문입니다. 이러한 막대한 투자 덕분에 데이터 센터를 건설하는 기업들은 기존의 방식을 과감히 버릴 수 있었습니다. AI 붐 이전에는 대부분의 데이터 센터가 저렴하고 효율적인 건설을 우선시하는 검증된 설계 방식을 따랐습니다. 하지만 대형 기술 기업들의 투자 의지가 커지면서 속도와 확장성에 초점을 맞추게 되었습니다.
동시에 프로젝트 기간도 단축되었습니다. 크루소(Crusoe) 의 데이터센터 운영 담당 수석 부사장인 제이미 맥그래스 는 회사가 이전에는 30~36개월이 걸리던 프로젝트를 "약 12개월" 만에 완료하고 있다고 말합니다. 모든 프로젝트가 이러한 속도로 진행되는 것은 아니지만, 속도는 모든 프로젝트에서 최우선 과제입니다.
이 때문에 필요한 노동력과 자재를 조율하는 데 어려움이 있습니다. 루이지애나주 리치랜드 패리시의 시골 지역에 위치한 메타의 하이페리온 건설 현장은 이러한 어려움을 단적으로 보여주는 사례입니다. NOLA.com의 보도에 따르면 , 상주 인구가 약 2만 명에 불과한 이 지역에 최소 5천 명의 임시 노동자들이 몰려들었습니다. 이들은 평균 이상의 임금을 받으며 식당이나 편의점과 같은 지역 사업체에 단기적인 활력을 불어넣고 있습니다. 그러나 동시에 교통 체증, 건설 소음 및 공해에 대한 주민들의 불만도 야기하고 있습니다.
주민들과의 마찰은 이러한 명백한 영향뿐만 아니라 24시간 가동으로 인한 빛 공해와 같이 즉시 예상하지 못할 수도 있는 문제까지 포함합니다 . 또한 지역 지하수위 및 유출수 변화도 중요한 문제인데, 이는 우물물을 사용하는 인근 주민들의 수질을 악화시킬 수 있습니다. 이러한 문제들로 인해 미국의 몇몇 도시는 데이터 센터 설립을 금지하는 법안을 제정했습니다 .
데이터 센터는 종종 BYOP(자체 전력 공급) 방식을 채택다.
메타의 리치랜드 패리시 사이트는 AI 데이터 센터와 그 비판자 모두에게 최우선 과제인 전력 문제를 부각시키고 있습니다.
데이터 센터는 항상 막대한 양의 전력을 소비해 왔으며, 이로 인해 데이터 센터 건설은 지역 전력 회사가 수요에 신속하게 대응할 수 있는 중심지에 집중되는 경향이 있었습니다. 버지니아의 전력 회사 인 도미니언 에너지는 재생 에너지에 중점을 두고 새로운 인프라를 구축하는 계약을 통해 이러한 수요에 부응했습니다 .
하지만 최대 규모의 AI 데이터 센터들이 요구하는 전력량은 가장 신속하게 대응하는 전력 회사들조차 예상치 못한 수준에 이르렀습니다. 캘리포니아 로렌스 버클리 국립 연구소 의 보고서에 따르면, 2014년 미국 전체 데이터 센터 산업의 평균 전력 소비량은 약 8GW에 달했습니다 . 오늘날 최대 규모의 AI 데이터 센터 캠퍼스는 각각 최대 1GW의 전력을 처리할 수 있도록 설계되었으며, 메타(Meta)의 하이페리온(Hyperion)은 5GW의 전력을 필요로 할 것으로 예상됩니다.
버몬트주에 기반을 둔 비영리 단체인 클린 에너지 그룹 의 프로젝트 책임자인 아베 라마난은 "데이터 센터는 많은 전력 회사들에게 골칫거리입니다."라고 말합니다 .
라마난은 전력 회사들이 수요 증가에 대처하기 위해 종종 "피커 발전소"를 이용한다고 설명합니다. 이러한 발전소는 대개 노후화되고 효율성이 떨어지는 화력 발전소로, 높은 운영 비용과 탄소 배출량 때문에 폐쇄 예정이었던 곳입니다. 하지만 라마난은 전력 수요 증가로 인해 이러한 발전소들이 계속 가동되고 있다고 말합니다 .
메타는 루이지애나 전력 회사인 엔터지와 협상하여 3개의 새로운 가스 터빈 발전소 건설을 통해 하이페리온에 필요한 전력을 확보했습니다 . 두 곳은 리칠랜드 패리시 부지 인근에, 나머지 한 곳은 루이지애나 남동부에 건설될 예정입니다.
엔터지는 새로운 발전소 건설을 주 정부의 이익으로 보고 있습니다. 엔터지의 전력 공급 계획 및 정책 담당 이사인 다니엘 클라인은 "엔터지와 메타의 계약 핵심은 메타가 전력 인프라 구축 비용 전액을 부담한다는 것"이라고 말했습니다 . 엔터지는 "고객 요금이 그렇지 않았을 경우보다 낮아질 것"으로 예상하고 있습니다. 하지만 이는 예외적인 경우일 수 있습니다. 블룸버그의 최근 보고서 에 따르면 데이터 센터가 있는 지역의 전기 요금이 그렇지 않은 지역보다 인상될 가능성이 더 높기 때문입니다.
총 2.26GW의 발전 용량을 갖추게 될 이 발전소들은 배기가스에서 발생하는 폐열을 회수하는 복합 사이클 가스 터빈을 사용할 예정입니다. 이를 통해 열효율이 60% 이상으로 향상되어 더 많은 연료가 유용한 에너지로 전환됩니다. 반면, 단순 사이클 터빈은 배기가스를 배출하기 때문에 효율이 약 40%로 떨어집니다.
그럼에도 불구하고, 하이페리온 발전소의 총 수명 주기 배출량은 발전소 가동 빈도와 최종 효율 기준에 따라 매년 400만 톤에서 1,000만 톤 이상의 CO2에 이를 수 있습니다. 최대 배출량은 승용차 200만 대 이상이 배출하는 양과 맞먹습니다. 다행히 메타의 모든 데이터 센터가 동일한 전력 방식을 채택하는 것은 아닙니다. 메타는 2026년 말 이전에 가동될 예정인 오하이오주의 대규모 데이터 센터 프로젝트인 프로메테우스에 원자력 에너지를 공급할 계획을 발표 했습니다 .
하지만 다른 대형 기술 기업들은 데이터 센터를 신속하게 구축해야 한다는 필요성에 따라 비효율적인 접근 방식을 취하고 있습니다.
멤피스에 위치한 xAI의 콜로서스 2는 가장 극단적인 사례입니다. 이 회사는 교외 주택가에 위치한 이 시설에 전력을 공급하기 위해 수십 대의 임시 가스 터빈 발전기를 트럭으로 실어 날랐습니다 . 한편, 오픈AI는 2026년 하반기 개장을 앞둔 텍사스주 아빌린의 새로운 스타게이트 데이터센터에 최대 300메가와트의 전력을 생산할 수 있는 가스 터빈을 설치했습니다. 두 시설 모두 엔터지가 하이페리온에 전력을 공급하기 위해 건설할 복합 사이클 발전소보다 효율이 훨씬 낮은 단순 사이클 터빈을 사용합니다.
가스 터빈에 대한 수요가 매우 높아 신형 터빈을 공급받기까지 최대 7년까지 기다려야 하는 상황입니다 . 일부 데이터 센터는 필요한 터빈을 확보하기 위해 재활용된 제트 엔진을 고려하고 있습니다 .
AI 랙이 판세를 뒤집는다
새롭고 안정적인 전력에 대한 수요는 최신 AI 데이터 센터에 탑재된 전력 소모가 많은 GPU로 인해 발생하고 있습니다.
2025년 1월, 마크 저커버그는 페이스북 게시물을 통해 메타(Meta)가 2025년 말까지 최소 130만 개의 GPU를 운영할 계획이라고 발표했습니다 . 오픈AI의 스타게이트(Stargate) 데이터센터는 45만 개 이상의 엔비디아 GB200 GPU를 사용할 예정 이며, 콜로서스(Colossus)의 확장 버전인 xAI의 콜로서스 2(Colossus 2)는 55만 개 이상의 GPU를 수용할 수 있도록 설계되었습니다 .
인공지능 워크로드에 가장 널리 사용되는 GPU는 강철과 실리콘으로 이루어진 거대한 덩어리 형태로 제작되는데, 이는 GPU를 수용하기 위해 건설된 데이터 센터와 마찬가지로 무게, 복잡성, 전력 소비량이 빠르게 증가하고 있습니다.
엔비디아의 GB200 NVL72 는 랙 규모의 시스템으로, 현재 AI 데이터 센터 분야에서 선두 주자입니다. GB200 랙 하나에는 GPU 72개, CPU 36개, 그리고 최대 17테라바이트의 메모리가 탑재됩니다. 높이는 2.2미터, 무게는 최대 1,553킬로그램에 달하며, 소비 전력은 약 120킬로와트(미국 가정 100여 가구가 사용하는 전력량과 맞먹는 수준)입니다. 엔비디아에 따르면 이는 시작에 불과하며, 향후 출시될 랙은 소비 전력이 최대 1메가와트에 이를 것으로 예상됩니다 .
Vertiv 의 인프라 솔루션 담당 수석 부사장인 빅터 페틱은 랙 규모의 AI 시스템이 빠르게 변화함에 따라 데이터 센터도 이에 맞춰 적응해야 한다고 말합니다. "AI 랙은 이전 랙보다 전력 소모가 훨씬 많고 무게도 더 나갑니다."라고 페틱은 설명하며, 데이터 센터는 추가 공간을 차지하지 않으면서 랙에 여러 개의 전원 공급 장치를 제공해야 한다고 덧붙였습니다.
랙 규모 시스템의 새로운 전력 수요는 데이터 센터 설계, 심지어는 그 규모에도 반영되는 결과를 초래합니다.
2022년 메타는 텍사스주 템플에 있는 캠퍼스에 새로운 데이터 센터 건설을 시작했습니다. AI 데이터 센터를 연구하는 세미애널리시스(SemiAnalysis) 에 따르면 , 이 데이터 센터는 다른 메타 데이터 센터와 마찬가지로 H자형 구조로 건설될 예정이었다고 합니다 .
하지만 2022년 12월, 회사 전체 데이터센터 인프라 검토의 일환으로 공사가 중단되었습니다 . 메타는 기존 구조물을 철거하고 처음부터 다시 짓기로 결정했습니다. 이러한 결정의 이유는 공개되지 않았지만, 분석가들은 기존 설계가 전력 소모가 많은 새로운 AI 랙에 충분한 전력을 공급하지 못했기 때문이라고 추측합니다. 공사는 2023년에 재개되었습니다.
메타의 대체 시설은 H자형 건물을 버리고 단순한 직사각형 형태의 긴 구조물을 채택하며, 각 구조물 양쪽에는 가스 터빈 발전기가 배치됩니다. 메타의 계획은 변경될 수 있지만, 현재 하이페리온은 13.6제곱킬로미터 규모의 리치랜드 패리시 캠퍼스에 걸쳐 수십만 개의 GPU가 탑재된 11개의 직사각형 데이터 센터로 구성될 것으로 예상됩니다.
대규모 냉각 및 연결
엔비디아의 초고밀도 AI GPU 랙은 무게와 전력 소모량뿐만 아니라 강력한 냉각 및 대역폭 요구 사항으로 데이터 센터를 변화시키고 있습니다.
데이터 센터는 전통적으로 공랭식 냉각 방식을 사용해 왔지만, 이러한 방식에는 한계가 있습니다. 싱가포르 국립대학교 냉각 연구 그룹 인 CoolestLAB 의 책임자 포셍 리 는 "냉각 매체로서 공기는 본질적으로 성능이 떨어집니다."라고 말합니다 .
앞으로 GPU는 액체 냉각 방식을 사용하게 될 것입니다 . 하지만 이는 새로운 차원의 복잡성을 야기합니다. "시설 수준까지 모든 것이 복잡해집니다."라고 리는 말합니다. "냉각수 분배 장치(CDU)라고 부르는 펌프가 필요합니다. CDU는 복잡한 배관망을 통해 랙에 연결됩니다. 그리고 이중화를 고려하여 설계해야 합니다." 랙에서는 파이프가 각 GPU 위에 장착된 냉각판에 연결되고, 데이터 센터 외부에서는 파이프가 증발식 냉각 장치를 통과합니다. 리는 공랭식 데이터 센터를 개조하는 것도 가능하지만 비용이 많이 든다고 말합니다.
AI 데이터 센터에서 사용하는 네트워킹 방식 또한 새로운 요구 사항에 맞춰 변화하고 있습니다. 기존 데이터 센터는 글로벌 인터넷 에 쉽게 접근하기 위해 네트워크 허브 근처에 위치했지만 , AI 데이터 센터는 GPU 네트워크에 더욱 중점을 두고 있습니다.
이러한 연결은 완벽한 신뢰성을 유지하면서 높은 대역폭을 지속적으로 제공해야 합니다. 네트워크 인프라 회사인 시에나(Ciena)의 부사장 마크 비버리치(Mark Bieberich)는 자사의 최신 광섬유 트랜시버 기술인 웨이브로직 6(WaveLogic 6 )이 파장당 최대 1.6테라바이트/초의 대역폭을 제공할 수 있다고 밝혔습니다. 단일 광섬유는 총 48개의 파장을 지원할 수 있으며, 시에나의 최대 고객사는 수백 쌍의 광섬유를 사용하여 총 대역폭이 수천 테라비트/초에 달합니다.
메타의 하이페리온을 비롯한 대형 AI 데이터 센터의 규모는 오해를 불러일으킬 수 있습니다. 마치 단일 데이터 센터의 물리적 크기가 중요한 것처럼 보일 수 있지만, 하이페리온은 단일 건물이 아니라 고속 광섬유로 연결된 여러 건물로 구성되어 있습니다 .
비베리히는 "데이터 센터 간 상호 연결은 절대적으로 필수적입니다."라고 말합니다. "이를 지리적으로 분산된 시설들을 갖춘 하나의 논리적인 AI 학습 시설로 생각할 수 있습니다." 엔비디아는 이를 "규모 확장(scale up)"이라는 개념과 대비하여 "규모 확대(scale across)"라고 부릅니다.
크지만 불확실한 미래
하이페리온을 비롯한 미래의 유사한 규모의 AI 데이터 센터들이 직면할 과제의 전체 규모는 아직 불분명합니다. 엔비디아는 아직 이 데이터 센터에 탑재될 랙 규모의 AI GPU 시스템을 공개하지 않았습니다. 이 시스템은 얼마나 많은 전력을 필요로 할까요? 어떤 종류의 냉각 시스템이 필요할까요? 얼마나 많은 대역폭을 제공해야 할까요? 이러한 질문들은 단지 추정만 가능할 뿐입니다.
구체적인 정보가 부족한 상황에서 AI 데이터센터 설계의 핵심은 한 가지 확실성으로 귀결됩니다. 바로 '대규모'라는 점입니다. 새로운 데이터센터 설계자들은 5년 전만 해도 상상도 할 수 없었던 규모의 전력, 냉각, 네트워크 인프라를 처리하기 위해 기존의 설계 원칙을 재정립하고 있습니다.
이러한 혁신은 거대 기술 기업들의 막대한 자금력에 힘입어 이루어지고 있는데, 이들은 2025년 한 해에만 수백억 달러를 투자하여 이러한 지출이 지속 가능한지에 대한 의문을 제기하고 있습니다 . 하지만 데이터 센터 설계 현장에서 고군분투하는 엔지니어들에게는 불가능을 가능하게 만드는 기회로 여겨지고 있습니다.
스탠텍의 카터는 "엔지니어들에게 지금이 바로 절정이라고 말합니다. 우리는 엔지니어다운 면모를 보여주고 있고, 복잡한 질문들을 받고 있습니다."라고 말하며, "오랜만에 이런 기회를 갖게 된 거죠."라고 덧붙였습니다.
이 기사는 2026년 4월호 인쇄판에 실렸습니다.





댓글 없음:
댓글 쓰기