11억 7천만 달러 데이터 계약, AI 인프라 붐의 균열 노출
2025년 말, 코어위브(CoreWeave)가 바스트 데이터(Vast Data)와 체결한 11억 7천만 달러 규모의 대규모 파트너십은 AI 인프라 업계에 큰 파장을 일으켰습니다. 겉으로 보기에는 모두에게 이득인 거래 같았습니다. 바스트는 급성장하는 코어위브의 GPU 클라우드를 위한 주요 스토리지 백본이 되었고, "AI 골드러시"를 믿는 투자자들은 환호했습니다. 그들에게 이 계약은 전문화된 AI 클라우드가 번창하고 있으며, 데이터 병목 현상에 더 스마트한 엔지니어링이 필요하고, 이러한 문제들을 해결하는 기업들로 자금이 계속 유입될 것임을 확인시켜 주었습니다.
하지만 좀 더 깊이 들여다보면, 이야기는 더 복잡해집니다. 이러한 기대감 뒤에는 실제 현금 흐름이 감당할 수 있는 수준을 넘어설 수 있는 자금 조달 및 기대의 뒤얽힌 연결망이 숨어 있습니다. 문제는 AI 워크로드가 실제 존재하지 않는다는 것이 아닙니다. 물론 존재합니다. 문제는 기업들이 수익 흐름이 지속될 수 있는 속도보다 더 빠르게 인프라를 확장하고 있는지 여부입니다.
AI의 데이터 딜레마 속으로
이 계약의 기술적 논리는 부인할 수 없습니다. 최신 AI 모델을 훈련하려면 엑사바이트(exabyte) 규모의 엄청난 데이터셋과 번개처럼 빠른 접근 속도가 필요합니다. GPU당 초당 7GB를 이야기하는 것입니다. "콜드(cold)" 데이터가 오래된 하드 드라이브나 심지어 테이프에 저장되는 기존의 계층형 스토리지 시스템은 이러한 요구를 따라갈 수 없습니다. 해당 데이터를 다시 불러와 사용하면 거대한 512개 GPU 클러스터가 몇 시간 동안 멈춰 서게 되고, 그럴 때마다 3만~5만 달러에 달하는 기회 손실이 발생합니다.
바스트 데이터는 간단하지만 강력한 해결책을 제시합니다. 이 회사의 올플래시 객체 스토어는 모든 스토리지를 단일의 고속 계층으로 통합합니다. 여기에 전용 칩으로 스토리지 작업을 처리하는 엔비디아의 블루필드(BlueField) DPU를 추가하면, CPU 오버헤드를 절반으로 줄이면서 하드웨어 암호화로 모든 것을 안전하게 유지할 수 있습니다. 32개 데이터 센터에서 25만 개 이상의 엔비디아 GPU를 관리하는 코어위브에게 이는 한 가지를 의미합니다. 바로 효율성 향상입니다. 활용률은 업계 평균인 약 75%에서 90%에 훨씬 더 가까운 수준으로 상승할 수 있습니다.
이러한 효율성 향상은 더할 나위 없이 좋은 시기에 찾아왔습니다. 코어위브는 걷잡을 수 없이 빠르게 성장하고 있습니다. 2024년 매출은 19억 달러로, 전년 대비 8배나 증가했습니다. 메타(Meta)와의 140억 달러 계약과 오픈AI(OpenAI)와의 220억 달러 이상 계약을 포함한 주요 계약들이 이러한 확장을 뒷받침하고 있습니다. 이러한 방대한 데이터를 처리하는 것은 단순한 기술적 과제가 아닙니다. 값비싼 GPU가 제 역할을 하도록 할지, 아니면 유휴 상태로 머물게 할지를 결정하는 성패를 좌우하는 요인입니다.
AI 투자의 속도 함정
그럼에도 불구하고 모든 투자자가 샴페인을 터뜨리는 것은 아닙니다. 이 거래의 구조는 의문을 제기합니다. 눈길을 끄는 11억 7천만 달러는 무엇일까요? 이는 한 번에 지급되는 단일 지급액이 아니라 다년간에 걸친 약속입니다. 코어위브는 확장 속도와 실제로 사용하는 용량에 따라 3년에서 5년에 걸쳐 지불할 것입니다. 이는 바스트의 매출이 다음 10년까지 코어위브의 성장 능력과 수익 유지 능력에 달려 있음을 의미합니다.
여기서부터 순환이 시작됩니다. 메타와 오픈AI는 나중에 필요할 GPU 용량을 위해 코어위브에 막대한 금액을 약정합니다. 코어위브는 다시 바스트와 계약을 맺어 해당 용량을 제공할 수 있도록 합니다. 그러면 바스트는 이러한 계약을 이용하여 더 높은 기업 가치를 정당화합니다. 2023년 91억 달러에서 2025년에는 300억 달러에 달할 정도로 급증했지만, 경상 매출(recurring revenue)은 약 2억 달러에 불과합니다. 각 회사의 이야기가 다음 회사를 지탱하는 식입니다.
그리고 이 모든 것의 중심에는 엔비디아가 있습니다. 이 칩 거물은 코어위브의 지분을 보유하고 있으며, 바스트에 대한 투자도 모색하는 것으로 알려져 있고, 생태계를 연결하는 필수적인 공급업체로 남아 있습니다. 엔비디아의 영향력은 모두에게 신뢰를 주지만, 동시에 위험을 집중시키기도 합니다. 한 회사가 공급망의 여러 계층에 걸쳐 핵심적인 역할을 할 때, 전체 시스템은 자체적인 낙관론을 반복하기 시작할 수 있습니다. 모두가 엔비디아가 지원하는 용량은 항상 구매자를 찾을 것이라고 믿기 때문에 수요 예측은 엄청나게 커 보입니다.
이는 사기가 아닙니다. 자본 집약적인 산업에서 흔히 볼 수 있는 패턴입니다. 도입 붐 시기에 기업들은 현실보다 조금 더 앞선 미래를 위해 구축합니다. 이는 거품이 조용히 형성되는 방식입니다. 즉, 불합리한 속도로 이루어진 합리적인 가정인 셈입니다.
이러한 이야기가 익숙하게 들린다면, 그래야 합니다. 1990년대 후반 광섬유 붐도 같은 전철을 밟았습니다. 인터넷 대역폭에 대한 수요는 실제했지만, 투자자들이 희망했던 것만큼 즉각적이지는 않았습니다. 수십억 달러가 수년간 사용되지 않던 케이블에 쏟아졌고, 상황이 종료되자 많은 공급업체가 사라졌습니다.
소수만이 가격에 반영하는 숨겨진 위험
바스트의 경우, 코어위브와의 계약은 11억 7천만 달러를 4년에 걸쳐 연간 2억2억 5천만 달러의 매출 기본선에 더한다면 단기 매출의 2030%를 차지할 수 있습니다. 이는 한 바구니에 너무 많은 달걀을 담는 격입니다. 만약 코어위브가 전력 부족, 인허가 문제, 심지어 예상보다 느린 고객 성장과 같은 지연에 직면한다면, 바스트의 매출 곡선은 하룻밤 사이에 급락할 수 있습니다.
코어위브는 자체적으로도 많은 도전에 직면해 있습니다. 수십억 달러를 GPU에 투자하고 있고, 마리모(Marimo)와 같은 소프트웨어 스타트업을 인수하여 가치 사슬을 확장하며, 해외로 사업을 넓히고 있습니다. 2025년에 단행한 75억 달러 규모의 부채 조달이 이 모든 것을 가능하게 하지만, 이는 고정된 자금으로 가변적인 수요를 쫓는 상황입니다.
한편, 주요 클라우드 기업들인 AWS, 애저(Azure), 구글 클라우드(Google Cloud)는 가만히 있지 않습니다. 이들은 이러한 종류의 워크로드를 위해 설계된 단일 영역, 저지연(low-latency) 방식을 갖춘 자체 AI 최적화 스토리지 계층을 출시하고 있습니다. 이 거대 기업들은 시장 점유율을 확보하기 위해 더 낮은 마진을 기꺼이 수용할 수 있으며, 이러한 영향력은 몇 년 안에 바스트와 재협상할 시점에 코어위브에게 타격을 줄 수 있습니다.
과도한 과대광고가 현실을 앞지를 때
명확히 하자면, 이 모든 것이 기술이 실제가 아니라는 의미는 아닙니다. 통합 플래시 스토리지는 AI 워크로드의 문제점을 진정으로 해결합니다. 더 큰 질문은 타이밍에 관한 것입니다. 실제 AI 수익화가 정당화될 수 있는 속도보다 더 빠르게 인프라 투자가 이루어지고 있는 것은 아닐까요?
만약 대기업들이 예상보다 더 오랜 시간이 걸려 1억 달러 규모의 언어 모델 프로젝트를 배포한다면, 우리는 파급 효과를 보게 될 것입니다. 과잉 생산 능력이 축적되고, 공급업체는 더딘 성장에 직면하며, 기업 가치는 흔들리기 시작할 것입니다. 이런 일이 발생하면, 고객 기반이 집중된 기업들, 즉 소수의 계약에 크게 의존하는 기업들이 대개 가장 먼저 고통을 느끼게 됩니다.
현명한 자금은 누가 흔들리든 상관없이 승리하는 엔비디아나 플래시 스토리지로의 광범위한 전환으로부터 이득을 얻는 메모리 제조업체로 계속 유입될 수 있습니다. 더 위험한 투자는 무엇일까요? 모든 새로운 대규모 계약이 보장된 것처럼 자신들의 가치를 계속 매기는 후기 단계의 민간 인프라 기업들입니다. 이는 거래가 축하받는 것이 아니라 당연히 여겨지는 후기 시장의 전형적인 위험 신호입니다.
코어위브와 바스트의 파트너십은 향후 몇 년 동안 견실한 결과를 가져올 것입니다. 하지만 남아있는 질문은 AI의 미래가 도래할지 여부가 아니라, 모두가 계획했던 것보다 조금 더 오래 걸린다면 어떤 일이 벌어질지에 관한 것입니다.
본 자료는 투자 조언이 아닙니다.
