AMD, 엔비디아보다 많은 메모리 탑재한 신형 AI 칩 출시... 차세대 AI 시스템 구동

작성자
Amanda Zhang
10 분 독서

AMD, 엔비디아의 '메모리 한계' 돌파… AI 칩 대전서 판도 흔들다

실리콘밸리 대결서 AMD의 288GB 메모리 승부수, AI 하드웨어 지형 재편

엔비디아의 인공지능 컴퓨팅 분야 오랜 지배력에 정면으로 도전하며, AMD는 업계 선두주자인 엔비디아를 핵심 사양인 메모리 용량 면에서 뛰어넘는 칩을 주력으로 내세운 야심 찬 AI 하드웨어 라인업을 공개했다. 이번 주 산호세에서 열린 'Advancing AI 2025' 행사에서 AMD는 전례 없는 288GB의 고대역폭 메모리를 탑재한 Instinct MI350 시리즈를 선보였다. 이는 엔비디아의 주력 블랙웰(Blackwell) 칩보다 50% 더 많은 용량으로, 1,500억 달러(약 200조 원) 규모의 AI 가속기 시장 경쟁 구도를 재편할 잠재력을 가지고 있다.

Lisa Su (gstatic.com)
Lisa Su (gstatic.com)

샘 올트먼(Sam Altman) 오픈AI CEO는 행사 도중 "처음 사양을 공유하기 시작했을 때 믿을 수 없었고, 완전히 미친 소리처럼 들렸다. 이는 엄청난 발전이 될 것"이라고 말하며 AMD의 기술적 성과가 지니는 중요성을 강조했다.

새로운 AMD AI 제품 팩트시트

제품명/시리즈주요 사양 및 기능성능 특징출시/판매 시기
Instinct MI350 시리즈 (MI350X & MI355X)- 아키텍처: CDNA 4, TSMC N3P 노드
- 메모리: 최대 288GB HBM3E
- 대역폭: 8TB/s
- 쿨링: 공랭식 (랙당 최대 64개 GPU) 및 수랭식 (랙당 최대 128개 GPU)
- 이전 세대 대비 AI 컴퓨팅 성능 최대 4배, 추론 성능 35배 향상
- 랙 구성 시 최대 2.6 엑사플롭스(exaFLOPS) (FP4)
- FP4 추론 시 엔비디아 블랙웰 B200 대비 토큰당 비용 효율 40% 향상
2025년 3분기 (출하 시작)
MI400/450 시리즈 (프리뷰)- 메모리: 최대 432GB HBM4
- 플랫폼: "헬리오스(Helios)" 랙 스케일 플랫폼의 핵심
- 경쟁 대상: 엔비디아의 루빈(Rubin)/베라 루빈(Vera Rubin) 플랫폼
- MI350 시리즈 대비 MoE(Mixture of Experts) 모델에서 최대 10배의 추론 성능 제공 예상2026년
헬리오스 AI 랙- 구성: 최대 72개 GPU, Zen 6 EPYC CPU, 새로운 벌카노(Vulcano) 네트워킹 칩 통합
- 설계: 수랭식, 하이퍼스케일 AI를 위한 풀 랙 통합 컴퓨팅 엔진
- 성능: 통합 구성 요소(MI400/450 시리즈)에 기반2026년
ROCm 7.0 소프트웨어 스택- CUDA에 대항하는 개방형 AI 생태계 구축 목표
- 오픈 소스 CUDA 프로젝트의 72%를 '즉시(out-of-the-box)' 재컴파일할 수 있는 CUDA-thunk 심(shim) 기능 포함
- ROCm 6.0 대비 4배 이상의 추론 성능, 3배 이상의 학습 성능 향상현재 이용 가능
개발자 클라우드- 개발자에게 AMD 최신 GPU에 즉시 접근할 수 있는 새로운 클라우드 서비스
- 엔비디아의 DGX 클라우드 렙톤(Lepton) 서비스와 유사
- (해당 없음 - 접근 플랫폼)현재 이용 가능

메모리 혁신, AI의 병목 현상 해소 노려

AMD의 새로운 CDNA 4 아키텍처와 TSMC의 첨단 N3P 제조 공정으로 구축된 Instinct MI350 시리즈는, 헤드라인급 사양에서 엔비디아를 명확히 뛰어넘는 AMD의 첫 제품이다. 칩당 288GB의 HBM3E 메모리와 8TB/s의 대역폭을 갖춘 MI350은 현대 대규모 언어 모델(LLM)을 실행하는 데 가장 큰 제약이 되어온 메모리 용량 문제를 해결한다.

AI 애플리케이션, 특히 수십억 개의 매개변수를 가진 모델과 관련된 추론 워크로드에서 이러한 메모리 이점은 실질적인 성능 향상으로 이어진다. 초기 벤치마크에 따르면 MI350은 FP4 정밀도에서 엔비디아 블랙웰 B200보다 토큰당 약 40% 더 높은 비용 효율성을 제공할 수 있으며, 이는 주로 원시 컴퓨팅 성능보다는 메모리 효율성 덕분이다.

익명을 요구한 한 고위 업계 분석가는 "이것은 AMD의 AI 전략이 마침내 구체화되는 순간"이라며 "MI350의 메모리 용량은 단순히 사양표 상의 승리를 넘어, 대규모 LLM 추론에서 가능한 것들을 근본적으로 변화시킨다"고 말했다.

이 칩은 랙당 최대 64개 GPU를 지원하는 공랭식 구성과 랙당 최대 128개 GPU를 허용하는 수랭식 변형으로 제공될 예정이며, 최대 2.6 엑사플롭스(exaFLOPS)의 FP4 성능을 제공할 잠재력을 가지고 있다. AMD는 MI350 시리즈가 2025년 3분기에 출하될 것이라고 확인했는데, 이는 엔비디아가 블랙웰 아키텍처 출하를 시작한 시점보다 약 9개월 늦다.

칩을 넘어: AMD의 풀 스택 공세

MI350이 AMD의 단기적인 공세를 나타낸다면, 회사의 장기 전략은 더욱 야심 찬 것으로 보인다. AMD는 2026년 출시 예정인 MI400/450 시리즈 칩을 미리 공개했는데, 이 칩은 차세대 HBM4 메모리를 최대 432GB까지 탑재하며 하이퍼스케일 배포를 위해 설계된 AMD의 "헬리오스(Helios)" 랙 스케일 AI 플랫폼의 핵심이 될 예정이다.

최대 72개 GPU를 Zen 6 EPYC CPU 및 AMD의 새로운 벌카노(Vulcano) 네트워킹 칩과 함께 통합하는 수랭식 시스템인 헬리오스 AI 랙은 AMD가 단순히 칩 대 칩이 아닌 전체 시스템 수준에서 엔비디아와 경쟁하려는 의도를 보여준다. 이러한 랙 스케일 접근 방식은 엔비디아의 베라 루빈(Vera Rubin) 전략을 반영하며, AI 하드웨어 시장에서 가장 크고 수익성이 높은 부문인 하이퍼스케일 데이터 센터를 목표로 한다.

AMD는 또한 소프트웨어 생태계를 크게 강화하여, 이전 버전 대비 4배 이상의 추론 성능과 3배 이상의 학습 성능 향상을 제공하는 ROCm 7.0을 출시했다. 회사는 AI 개발자들이 최신 GPU에 즉시 접근할 수 있도록 하는 새로운 개발자 클라우드 서비스를 공개했는데, 이는 엔비디아의 DGX 클라우드 렙톤(Lepton) 서비스와 유사하다.

전략적 파트너십으로 AMD의 AI 추진력 입증

주요 클라우드 제공업체와 AI 기업들은 이미 AMD의 새로운 하드웨어에 대한 지지를 표명했다. 오라클 클라우드 인프라(Oracle Cloud Infrastructure)는 131,000개 이상의 MI355X 칩 클러스터를 배포하기로 약속했으며, 이는 현재까지 공개적으로 발표된 주문 중 가장 큰 규모이다. 메타(Meta)는 라마(Llama) 모델 추론에 MI350을 구현하고 있으며, 마이크로소프트와 오픈AI는 AMD와의 협력을 심화했다.

이러한 파트너십은 AMD의 공격적인 인수 전략으로 보완되는데, AMD는 지난 1년 동안 25개의 AI 관련 스타트업을 인수하거나 투자했다. 주목할 만한 인수로는 서버 제조업체 ZT 시스템즈(ZT Systems), 칩 개발팀 언테더 AI(Untether AI), AI 스타트업 라미니(Lamini)의 인재 등이 있으며, 이 모든 것은 AMD의 엔드투엔드 AI 역량을 강화하기 위한 것이다.

월스트리트의 신중한 반응

기술적 성과에도 불구하고 월스트리트의 반응은 신중했다.

당신도 좋아할지도 모릅니다

이 기사는 사용자가 뉴스 제출 규칙 및 지침에 따라 제출한 것입니다. 표지 사진은 설명을 위한 컴퓨터 생성 아트일 뿐이며 실제 내용을 나타내지 않습니다. 이 기사가 저작권을 침해한다고 생각되면, 우리에게 이메일을 보내 신고해 주십시오. 당신의 경계심과 협력은 우리가 예의 바르고 법적으로 준수하는 커뮤니티를 유지하는 데 중요합니다.

뉴스레터 구독하기

최신 기업 비즈니스 및 기술 정보를 독점적으로 엿보며 새로운 오퍼링을 확인하세요

저희 웹사이트는 특정 기능을 활성화하고, 더 관련성 있는 정보를 제공하며, 귀하의 웹사이트 경험을 최적화하기 위해 쿠키를 사용합니다. 자세한 정보는 저희의 개인정보 보호 정책 서비스 약관 에서 확인하실 수 있습니다. 필수 정보는 법적 고지