엔비디아, 수백만 토큰 컨텍스트 처리 AI 애플리케이션 가속화를 위한 루빈 CPX 칩 발표

작성자
CTOL Editors - Lang Wang
17 분 독서

엔비디아의 루빈 CPX: AI 경제를 재편하는 '밀리언 토큰' 병목 현상 정조준

칩 제조업체, 추론 비용이 기존 GPU 역량을 넘어섬에 따라 장문 컨텍스트 워크로드를 위한 특수 프로세서 공개

엔비디아 코퍼레이션은 2025년 9월 9일, 100만 개 이상의 토큰 컨텍스트 처리가 필요한 애플리케이션의 AI 추론을 가속화하도록 설계된 특수 그래픽 처리 장치인 루빈 CPX(Rubin CPX)의 개발을 발표했다. 이 칩은 회사가 인공지능 인프라에서 발생하는 새로운 병목 현상으로 지목한 문제를 해결한다. 즉, 다단계 추론, 지속적인 메모리, 장기 컨텍스트 처리가 가능한 에이전트 시스템으로 진화한 최신 AI 모델의 계산 요구 사항을 해결하는 것이다.

엔비디아의 발표에 따르면, 소프트웨어 개발 분야의 최신 AI 애플리케이션은 전체 코드베이스에 대한 추론, 파일 간 의존성 유지, 저장소 수준의 구조 이해를 요구한다. 마찬가지로, 장편 비디오 생성 및 연구 애플리케이션은 수백만 개의 토큰에 걸쳐 지속적인 일관성과 메모리를 필요로 하는데, 이는 현재 인프라 역량을 한계까지 밀어붙이고 있다.

루빈 CPX 프로세서는 30페타플롭스(petaFLOPs)의 NVFP4 연산 성능, 128GB의 GDDR7 메모리, 그리고 비디오 디코딩 및 인코딩을 위한 하드웨어 지원을 특징으로 한다. 엔비디아는 이 칩이 GB300 NVL72 시스템 대비 3배의 어텐션(attention) 가속을 제공한다고 주장한다. 이 프로세서는 엔비디아가 '컨텍스트 단계(context phase)'라고 부르는 AI 추론의 특정 부분, 즉 대량의 입력 데이터를 수집하고 분석하여 초기 토큰 출력을 생성하는 연산 집약적인 과정에 최적화되어 있다.

엔비디아의 기술 접근 방식은 '분리형 추론(disaggregated inference)'에 중점을 둔다. 이는 AI 처리를 근본적으로 다른 인프라 요구 사항을 가진 두 가지 뚜렷한 단계로 분리하는 것이다. 컨텍스트 단계는 연산 집약적이어서 입력 데이터를 분석하기 위한 높은 처리량을 요구한다. 반면, 생성 단계는 메모리 대역폭 제약적이며, 토큰별 출력 성능을 유지하기 위해 빠른 메모리 전송과 고속 상호 연결에 의존한다. 엔비디아는 기존 GPU 아키텍처가 두 단계를 동일한 하드웨어에서 처리하여 비효율적인 자원 활용을 초래한다고 주장한다.

Rubin CPX
Rubin CPX

분리된 인텔리전스의 아키텍처

루빈 CPX의 기술적 기반은 최신 AI 추론 패턴에 대한 정교한 이해를 반영한다. 기존 방식은 동일한 하드웨어가 두 가지 근본적으로 다른 연산 단계를 처리하도록 강제한다. 즉, 입력 데이터를 분석하여 초기 이해를 생성하는 컨텍스트 단계와, 그 이해를 바탕으로 토큰별 출력을 생성하는 생성 단계다.

이러한 단계들은 인프라에 상반되는 요구 사항을 부과한다. 컨텍스트 처리는 수백만 줄의 코드베이스를 파싱하거나 수 시간 분량의 비디오 콘텐츠를 분석하는 것과 같이 대량의 입력 데이터를 수집하고 분석하기 위해 막대한 병렬 연산을 필요로 한다. 반대로, 생성은 모델이 각 후속 토큰을 반복적으로 생성하므로 메모리 대역폭과 키-값 캐시에 대한 낮은 지연 시간 액세스에 크게 의존한다.

루빈 CPX는 이러한 불일치를 전문화를 통해 해결한다. 이 프로세서는 30페타플롭스의 NVFP4 연산 성능과 128GB의 GDDR7 메모리를 제공한다. 이 구성은 컨텍스트 처리의 병렬적이고 연산 집약적인 특성에 최적화되어 있다. 특히, 더 높은 대역폭의 HBM 대신 GDDR7을 선택한 것은 엔비디아가 생성 워크로드의 메모리 집약적인 요구 사항보다는 비용 최적화된 처리량에 중점을 둔다는 점을 시사한다.

시스템 아키텍처는 개별 프로세서를 넘어선다. 엔비디아의 베라 루빈(Vera Rubin) NVL144 CPX 랙은 144개의 루빈 CPX 유닛과 144개의 표준 루빈 GPU, 그리고 36개의 베라 CPU를 통합하여 특수 추론 공장을 형성한다. 이 구성은 8엑사플롭스(exaFLOPs)의 NVFP4 연산 성능을 제공하며, 이는 회사의 GB300 NVL72 시스템 대비 7.5배 개선된 것이라고 주장된다. 또한 100TB의 고속 메모리와 1.7PB/s의 메모리 대역폭을 갖추고 있다.

경제적 필요성이 혁신을 이끌다

분리형 추론의 상업적 논리는 현재 시장의 비효율성을 검토할 때 명확해진다. 업계 분석에 따르면, 장문 컨텍스트 AI 애플리케이션을 배포하는 조직들은 종종 일반 목적의 가속기를 과도하게 프로비저닝하여 무턱대고 프리필(prefill) 성능을 확보하려 하며, 이는 상당한 자원 낭비와 요청당 비용 증가로 이어진다.

엔비디아의 자체 예측은 공격적이지만, 잠재적인 경제적 영향을 보여준다. 회사는 적절히 구성된 베라 루빈 NVL144 CPX 배포가 30배에서 50배의 투자 수익률(ROI)을 제공하여, 1억 달러의 자본 지출로 50억 달러의 수익을 창출할 수 있다고 제안한다. 이러한 공급업체 제공 지표는 독립적인 검증이 있을 때까지 회의적인 시각으로 볼 필요가 있지만, 밀리언 토큰 추론이 나타내는 경제적 기회의 규모를 반영한다.

오케스트레이션 계층은 이러한 경제성에도 똑같이 중요하다. 엔비디아 다이나모(Dynamo)는 컨텍스트 및 생성 프로세서 간의 요청 라우팅, 고속 상호 연결을 통한 키-값 캐시 전송, 그리고 분리된 인프라 전반에 걸쳐 최적의 자원 활용을 유지하는 복잡한 작업을 관리하는 조정 시스템 역할을 한다.

시장 역학 및 경쟁 대응

루빈 CPX의 출시 시기는 그 상업적 궤적을 결정할 수 있는 여러 시장 변곡점과 일치한다. 밀리언 토큰 컨텍스트 윈도우는 연구적인 호기심에서 주요 AI 플랫폼 전반의 생산 기능으로 전환되어, 이러한 워크로드를 경제적으로 처리할 수 있는 인프라에 대한 즉각적인 수요를 창출하고 있다.

초기 채택자들은 장문 컨텍스트 기능이 명확한 경쟁 우위를 제공하는 분야에서 나타날 가능성이 높다. 예를 들어, 저장소 규모의 코드 이해를 요구하는 소프트웨어 개발 플랫폼, 확장된 비디오 시퀀스를 처리하는 콘텐츠 생성 도구, 그리고 방대한 문서 컬렉션을 통합하는 연구 애플리케이션 등이 있다.

경쟁 환경은 엔비디아의 접근 방식에 기회와 도전을 동시에 제시한다. AMD의 CDNA 4 아키텍처를 기반으로 하는 인스팅트(Instinct) MI355X 플랫폼은 288GB의 HBM3e 메모리와 공격적인 가격 책정으로 추론 워크로드에 매력적인 경제성을 제공한다. AMD는 전용 프리필 프로세서가 없지만, 소프트웨어 수준의 분리(disaggregation)를 통해 잠재적으로 더 낮은 비용으로 유사한 이점을 달성할 수 있다.

특화된 추론 공급업체들은 동일한 근본적인 문제에 대한 대안적인 접근 방식을 제시한다. Groq의 LPU 아키텍처는 탁월한 지연 시간 특성으로 단일 스트림 토큰 생성에 뛰어나며, Cerebras의 웨이퍼 스케일 CS-3 시스템은 높은 처리량 시나리오를 목표로 한다. 둘 다 프리필-디코드 분리에 대한 엔비디아의 통합된 접근 방식을 제공하지는 않지만, 특정 사용 사례에서 시장 점유율을 확보할 수 있다.

메모리 풀링 기술의 등장은 경쟁 역학에 또 다른 차원을 추가한다. GPU 메모리를 보완하는 외부 메모리 시스템은 특수 실리콘 없이도 장문 컨텍스트 기능을 달성할 수 있게 할 수 있지만, 성능 특성은 다를 수 있다.

기술 검증의 중요성

루빈 CPX를 둘러싼 여러 기술적 주장은 시장에 미치는 영향이 명확해지기 전에 독립적인 검증이 필요하다. 엔비디아가 GB300 NVL72 시스템 대비 "3배의 어텐션 가속"을 주장하는 것은 상당한 성능 향상을 나타내지만, 공급업체가 제공하는 벤치마크가 실제 성능 향상으로 직접 이어지는 경우는 드물다.

생산 조건 하에서 다이나모의 오케스트레이션 기능의 효과는 특히 중요하다. 이 시스템은 프로세서 간의 키-값 캐시 전송을 효율적으로 관리하고, 분리된 구성 요소 전반에 걸쳐 최적의 배치 크기를 유지하며, 전체 시스템 성능을 결정하는 복잡한 라우팅 결정을 처리해야 한다. 최적화되지 않은 조정은 특수 하드웨어의 이점을 상쇄할 수 있다.

NVL144 CPX 랙과 같은 고밀도 구성의 전력 소비 및 냉각 요구 사항도 채택 패턴에 영향을 미칠 수 있다. 이러한 시스템을 평가하는 조직은 인수 비용과 함께 시설 개조 및 운영 비용을 고려해야 한다.

투자 함의 및 시장 포지셔닝

투자 관점에서 루빈 CPX는 엔비디아가 떠오르는 추론 경제에서 플랫폼 지배력을 확장하려는 시도를 나타낸다. 회사는 단순히 순수한 계산 성능만으로 경쟁하는 것이 아니라, 통합된 소프트웨어-하드웨어 솔루션을 핵심 차별점으로 내세우고 있다.

시장 분석가들은 분리된 추론 워크로드 최적화의 복잡성을 고려할 때 이러한 전략이 특히 효과적일 수 있다고 제안한다. 조직은 여러 공급업체에서 최상의 구성 요소를 조립하기보다는 프로세서, 상호 연결 및 오케스트레이션 소프트웨어를 통합하는 턴키 솔루션을 선호할 수 있다.

AI 애플리케이션이 더욱 정교해짐에 따라 장문 컨텍스트 추론을 위한 시장은 계속 확장되고 있다. 전체 저장소를 처리하는 코딩 비서, 확장된 콘텐츠를 생성하는 비디오 생성 도구, 그리고 포괄적인 문서 컬렉션을 분석하는 연구 에이전트는 밀리언 토큰 역량이 필요한 애플리케이션의 초기 물결에 불과하다.

그러나 실행 위험은 상당하다. 루빈 CPX의 성공은 소프트웨어 성숙도, 생태계 지원, 그리고 실제 배포에서 대안적 접근 방식 대비 명확한 경제적 이점을 입증할 수 있는 능력에 크게 좌우된다.

미래 투자 고려 사항

엔비디아의 추론 전략을 평가하는 투자자들은 루빈 CPX가 생산 배포로 나아감에 따라 몇 가지 주요 지표를 모니터링해야 한다. AMD의 MI355X 시스템과 비교한 엔드투엔드 성능 및 경제성에 대한 독립적인 벤치마크는 주장된 이점에 대한 중요한 검증을 제공할 것이다.

소프트웨어 생태계 지원의 발전은 또 다른 중요한 요소이다. TensorRT-LLM 및 vLLM과 같은 인기 있는 추론 프레임워크와의 원활한 통합은 개발자와 클라우드 공급업체 사이의 채택률을 결정할 것이다.

시장 분석가들은 엔비디아의 통합된 접근 방식을 활용하면서 AMD, 특화된 추론 공급업체, 그리고 주요 클라우드 공급업체의 잠재적인 맞춤형 실리콘 개발로부터의 경쟁적 대응에 대비하는 포지셔닝 전략을 고려할 수 있다. 엔비디아의 성능 우위 지속성은 하드웨어, 소프트웨어, 시스템 통합 전반에 걸친 지속적인 혁신에 달려 있다. 이는 엔비디아가 역사적으로 강점을 보여왔지만, 경쟁 압력이 증가하고 있는 분야이다.

밀리언 토큰 추론 시장의 초기 단계와 분리된 아키텍처의 기술적 복잡성을 고려할 때, 투자자들은 예측에 대해 적절한 주의를 기울여야 하지만, 효과적인 솔루션이 빠르게 진화하는 AI 인프라 환경에서 포착할 수 있는 상당한 기회를 인식해야 한다.

본 내용은 투자 조언이 아닙니다.

당신도 좋아할지도 모릅니다

이 기사는 사용자가 뉴스 제출 규칙 및 지침에 따라 제출한 것입니다. 표지 사진은 설명을 위한 컴퓨터 생성 아트일 뿐이며 실제 내용을 나타내지 않습니다. 이 기사가 저작권을 침해한다고 생각되면, 우리에게 이메일을 보내 신고해 주십시오. 당신의 경계심과 협력은 우리가 예의 바르고 법적으로 준수하는 커뮤니티를 유지하는 데 중요합니다.

뉴스레터 구독하기

최신 기업 비즈니스 및 기술 정보를 독점적으로 엿보며 새로운 오퍼링을 확인하세요

저희 웹사이트는 특정 기능을 활성화하고, 더 관련성 있는 정보를 제공하며, 귀하의 웹사이트 경험을 최적화하기 위해 쿠키를 사용합니다. 자세한 정보는 저희의 개인정보 보호 정책 서비스 약관 에서 확인하실 수 있습니다. 필수 정보는 법적 고지