엔비디아(NVDA) 2025-4Q 어닝콜 완벽 정리2 - Q&A
Q1. 훈련과 추론의 경계가 모호해지고 있는 상황에서 추론 전용 클러스터의 미래와 NVIDIA 및 고객에 대한 영향은 어떻게 될까요?
현재 AI 계산에는 세 가지 다른 스케일링 법칙이 있습니다. 첫째는 사전 훈련(pre-training) 스케일링으로, 멀티모달리티와 추론에서 생성된 데이터가 사전 훈련에 사용되면서 계속 확장되고 있습니다. 둘째는 사후 훈련(post-training) 스케일링으로, 강화학습 인간 피드백(RLHF), 강화학습 AI 피드백, 검증 가능한 보상을 사용합니다. 사후 훈련에 사용되는 계산량은 실제로 사전 훈련보다 더 많습니다. 이는 강화학습을 사용하는 동안 엄청난 양의 합성 데이터나 합성 생성 토큰을 만들 수 있기 때문입니다. 셋째는 테스트 타임 컴퓨팅이나 추론, 장시간 사고, 추론 스케일링입니다. 이는 사고의 연쇄, 검색 등을 포함합니다. 생성된 토큰의 양과 필요한 추론 컴퓨팅은 초기 대규모 언어 모델의 원샷 예제와 기능보다 이미 100배 더 많습니다. 이는 시작에 불과합니다. 다음 세대에는 현재보다 수천 배, 심지어 수십만 배, 수백만 배 더 많은 컴퓨팅을 필요로 하는 매우 사려 깊은 시뮬레이션 기반 및 검색 기반 모델이 나올 수 있습니다.
이런 아키텍처를 설계하는 방법에 관한 질문에는, 일부 모델은 자기회귀적이고, 일부는 확산 기반이며, 데이터 센터가 분리된 추론이나 압축된 형태를 갖기를 원할 수도 있습니다. 데이터 센터의 최적 구성을 파악하기 어렵기 때문에 NVIDIA의 아키텍처가 인기 있는 것입니다. NVIDIA는 모든 모델을 실행하고 훈련에 탁월합니다. 현재 대부분의 컴퓨팅은 추론이며, Blackwell은 이를 새로운 수준으로 끌어올립니다. Blackwell은 추론 모델을 염두에 두고 설계되었습니다. 훈련 측면에서는 몇 배 더 성능이 뛰어나지만, 장시간 사고 테스트 타임 스케일링, 추론 AI 모델에서는 25배 더 높은 처리량을 제공합니다.
NVIDIA의 아키텍처는 사전 훈련, 사후 훈련, 추론 확장 등 다양한 방식으로 데이터 센터를 구성하고 사용할 수 있어 유연하고 사용하기 쉽습니다. 이로 인해 통합 아키텍처의 집중도가 그 어느 때보다 높아지고 있습니다.
- 사전 훈련(Pre-training): AI 모델이 대량의 데이터로 기본 지식과 패턴을 학습하는 초기 단계
- 사후 훈련(Post-training): 사전 훈련 후 모델을 미세 조정하고 특정 작업에 맞게 개선하는 과정
- 추론(Inference): 훈련된 AI 모델이 새로운 입력에 대해 예측이나 결정을 내리는 과정
- 자기회귀적(Auto-regressive): 이전 출력을 기반으로 다음 출력을 순차적으로 생성하는 모델 방식
- 확산 기반(Diffusion-based): 노이즈를 점진적으로 제거하면서 데이터를 생성하는 AI 모델 방식
Q2. Blackwell 출시 상황과 시스템 레벨의 병목 현상, NVL72 플랫폼에 대한 열정은 어떻게 유지되고 있나요?
CES 이후 더 열정적이 되었습니다. 그 이유는 CES 이후 훨씬 더 많은 제품을 출하했기 때문입니다. NVIDIA는 각 Blackwell 랙에 들어가는 150만 개의 부품을 제조하는 350개의 공장을 운영하고 있습니다. 매우 복잡하지만, 성공적으로 Grace Blackwell을 확장하여 지난 분기에 약 110억 달러의 매출을 올렸습니다. 수요가 매우 높고 고객들이 Blackwell 시스템을 갖고 싶어 하기 때문에 계속해서 확장해야 합니다. 웹에서 Grace Blackwell 시스템이 온라인 상태가 된 것을 축하하는 많은 소식을 보셨을 것입니다. NVIDIA도 자체 엔지니어링, 설계 팀, 소프트웨어 팀을 위한 상당히 큰 Grace Blackwell 설치를 보유하고 있습니다. CoreWeave는 자사의 성공적인 시스템 구축에 대해 공개적으로 발표했고, 마이크로소프트와 OpenAI도 마찬가지입니다. 많은 시스템이 온라인으로 연결되고 있습니다. NVIDIA가 하는 일에 쉬운 것은 없지만, NVIDIA와 모든 파트너들이 아주 잘하고 있습니다.
- Blackwell: NVIDIA의 최신 AI 아키텍처로, 이전 세대인 Hopper보다 훨씬 뛰어난 성능을 제공
- Grace Blackwell: NVIDIA의 CPU(Grace)와 GPU(Blackwell)를 결합한 슈퍼칩
- NVL72 플랫폼: 72개의 GPU를 NVLink로 연결하는 NVIDIA의 고성능 컴퓨팅 플랫폼
Q3. Q1이 총이익률의 저점인지 확인해 주실 수 있나요? 그리고 강한 수요가 내년까지 지속될 수 있다는 확신은 어디에서 오나요? DeepSeek과 같은 혁신이 이러한 견해를 바꿨나요?
Blackwell 확장 기간 동안 총이익률은 70% 초반대가 될 것입니다. 현재는 고객에게 최대한 빨리 제공할 수 있도록 제조를 가속화하는 데 중점을 두고 있습니다. Blackwell이 완전히 확장되면 비용을 개선하고 총이익률을 향상시킬 수 있습니다. 올해 후반에는 총이익률이 70% 중반대가 될 것으로 예상합니다. 시스템의 복잡성과 젠슨이 언급한 내용을 살펴보면, 이 시스템들은 경우에 따라 맞춤화가 가능하고 여러 네트워킹 옵션, 액체 냉각 및 수냉식을 갖추고 있습니다. 따라서 향후 총이익률을 개선할 기회가 있지만, 현재는 제조를 완료하고 가능한 한 빨리 고객에게 제품을 제공하는 데 중점을 둘 것입니다.
강한 수요가 지속될 것이라는 확신에 대해서는, 먼저 데이터 센터가 구축하고 있는 자본 투자 규모에 대해 상당히 좋은 시야를 가지고 있습니다. 또한 앞으로 대부분의 소프트웨어가 머신러닝 기반이 될 것임을 알고 있어, 가속 컴퓨팅과 생성형 AI, 추론 AI가 데이터 센터에 필요한 아키텍처가 될 것입니다. NVIDIA는 최고 파트너들의 예측과 계획을 가지고 있으며, AI의 다음 혁신을 개발하는 데 필요한 많은 혁신적이고 흥미로운 스타트업들이 여전히 온라인 상태가 되고 있습니다. 스타트업들은 여전히 활발하며, 각각 상당한 양의 컴퓨팅 인프라가 필요합니다.
단기 신호(PO와 예측), 중기 신호(이전 연도와 비교한 인프라 및 자본 지출 확장 수준), 장기 신호(CPU에서 실행되는 수동 코딩에서 GPU와 가속 컴퓨팅 시스템에서 실행되는 머신러닝 및 AI 기반 소프트웨어로 소프트웨어가 변화했다는 사실)를 통해 이것이 소프트웨어의 미래라는 확신을 갖고 있습니다.
또 다른 관점에서, 지금까지 소비자 AI, 검색, 일부 소비자 생성형 AI, 광고, 추천 시스템 등 소프트웨어의 초기 단계만 활용했습니다. 다음 물결은 기업을 위한 에이전트 AI, 로봇 공학을 위한 물리적 AI, 다양한 지역이 자체 생태계를 위한 AI를 구축하는 소버린 AI입니다. 이 각각은 거의 시작 단계이며, NVIDIA는 이러한 개발의 중심에 있어 모든 다양한 곳에서 발생하는 큰 활동을 볼 수 있습니다.
- 총이익률(Gross Margin): 매출에서 제품 생산 직접 비용을 뺀 비율로, 기업의 수익성 지표
- 에이전트 AI(Agentic AI): 목표를 달성하기 위해 자율적으로 행동하고 의사결정을 내릴 수 있는 AI 시스템
- 물리적 AI(Physical AI): 물리적 세계에 대한 이해와 상호작용을 위해 설계된 AI 시스템
- 소버린 AI(Sovereign AI): 특정 국가나 지역이 자체적으로 개발하고 통제하는 독립적인 AI 시스템
Q4. 2025년 하반기에 출시될 차세대 Blackwell Ultra에 대한 수요 역학과 현재 세대 Blackwell 솔루션과의 동시 확장을 관리하는 방법은 무엇인가요?
Blackwell Ultra는 2025년 하반기에 출시됩니다. 첫 번째 Blackwell에서는 몇 달의 지연이 있었지만 완전히 회복했습니다. 팀은 회복하는 데 놀라운 일을 했고, 모든 공급망 파트너와 많은 사람들이 빛의 속도로 회복하는 데 도움을 주었습니다. 현재 Blackwell의 생산을 성공적으로 확장했습니다. 하지만 그것이 다음 기차를 멈추지는 않습니다. 다음 기차는 연간 리듬에 맞춰 진행되며, 새로운 네트워킹, 새로운 메모리, 새로운 프로세서를 갖춘 Blackwell Ultra가 출시될 예정입니다. NVIDIA는 모든 파트너 및 고객과 협력하여 이를 계획하고 있으며, 그들은 필요한 모든 정보를 갖고 있어 적절한 전환을 위해 함께 일할 것입니다.
Blackwell과 Blackwell Ultra 사이의 이번 전환에서는 시스템 아키텍처가 정확히 동일합니다. Hopper에서 Blackwell로의 전환은 NVLink 8 시스템에서 NVLink 72 기반 시스템으로 이동했기 때문에 훨씬 더 어려웠습니다. 따라서 섀시, 시스템의 아키텍처, 하드웨어, 전력 공급 등 모두 변경해야 했습니다. 이는 꽤 어려운 전환이었습니다. 하지만 다음 전환에서는 Blackwell Ultra가 그대로 들어갈 것입니다. NVIDIA는 또한 그 다음 세대인 Vera Rubin에 대해 이미 공개했으며, 모든 파트너들과 매우 긴밀하게 협력하고 있습니다. GTC에서 Blackwell Ultra, Vera Rubin에 대해 이야기하고 그 이후에 어떤 제품이 나올지 보여줄 예정입니다.
- Blackwell Ultra: NVIDIA의 차세대 AI 아키텍처로, 2025년 하반기 출시 예정
- Vera Rubin: Blackwell Ultra 이후에 출시될 NVIDIA의 미래 AI 아키텍처
- GTC(GPU Technology Conference): NVIDIA가 주최하는 기술 컨퍼런스로, 새로운 제품과 기술이 발표됨
Q5. 맞춤형 ASIC에 대해 많이 들었습니다. 맞춤형 ASIC과 상용 GPU 간의 균형에 대해 말씀해 주실 수 있나요? 이종 슈퍼클러스터가 GPU와 ASIC를 모두 사용할 계획인가요?
NVIDIA는 ASIC와는 매우 다른 것을 구축합니다. 몇 가지 차이점이 있습니다.
첫째, NVIDIA의 아키텍처는 자기회귀 모델, 확산 기반 모델, 비전 기반 모델, 멀티모달 모델, 텍스트 모델 등 어떤 것이든 범용적입니다. NVIDIA의 소프트웨어 스택 생태계가 매우 풍부하기 때문에 대부분의 흥미로운 혁신과 알고리즘의 초기 대상이 되어 좁은 것보다 훨씬 더 범용적입니다.
둘째, 데이터 처리, 훈련 데이터의 큐레이션, 데이터 훈련, 사후 훈련에 사용되는 강화 학습, 테스트 타임 스케일링을 통한 추론에 이르기까지 엔드투엔드로 매우 뛰어납니다. 즉, NVIDIA는 범용적이고, 엔드투엔드이며, 어디에나 있습니다. 단 하나의 클라우드에만 있는 것이 아니라 모든 클라우드에 있고, 온프레미스에 있을 수 있으며, 로봇에 있을 수 있어 아키텍처가 훨씬 더 접근하기 쉽고 새 회사를 시작하는 사람들에게 좋은 초기 대상이 됩니다.
셋째, NVIDIA의 성능과 리듬은 믿을 수 없을 정도로 빠릅니다. 데이터 센터는 항상 크기가 고정되어 있거나 전력이 고정되어 있습니다. NVIDIA의 와트당 성능이 2배에서 4배, 8배로 향상되면 이는 직접적으로 수익으로 이어집니다. 100 메가와트 데이터 센터가 있다면, 그 100 메가와트 또는 기가와트 데이터 센터의 성능이나 처리량이 4배 또는 8배 더 높다면, 그 기가와트 데이터 센터의 수익은 8배 더 높습니다. 과거의 데이터 센터와 다른 이유는 AI 팩토리가 생성된 토큰을 통해 직접 수익화할 수 있기 때문입니다. 따라서 NVIDIA 아키텍처의 토큰 처리량이 믿을 수 없을 정도로 빠른 것은 수익 창출 이유와 빠른 ROI 확보를 위해 이러한 것들을 구축하는 모든 회사에게 매우 가치 있습니다.
넷째, 소프트웨어 스택은 믿을 수 없을 정도로 어렵습니다. ASIC을 구축하는 것은 NVIDIA가 하는 일과 다르지 않습니다. NVIDIA도 새로운 아키텍처를 구축합니다. NVIDIA 아키텍처 위에 있는 생태계는 2년 전보다 10배 더 복잡합니다. 이는 아키텍처 위에 세계가 구축하는 소프트웨어의 양이 기하급수적으로 증가하고 있고 AI가 매우 빠르게 발전하고 있기 때문에 분명합니다. 따라서 여러 칩에 전체 생태계를 구축하는 것은 어렵습니다.
마지막으로, 칩이 설계되었다고 해서 배포되는 것은 아닙니다. 수없이 많은 칩이 만들어지지만, 시기가 오면 비즈니스 결정이 이루어져야 하며, 그 비즈니스 결정은 크기, 전력, 파인이 제한된 AI 팩토리에 새로운 엔진, 새로운 프로세서를 배포하는 것에 관한 것입니다. NVIDIA의 기술은 더 발전되고, 더 성능이 좋을 뿐만 아니라 훨씬 더 나은 소프트웨어 기능을 갖추고 있으며, 매우 중요하게도 배포 능력이 번개처럼 빠릅니다. 이러한 것들은 모두가 알고 있듯이 약한 사람들을 위한 것이 아닙니다. NVIDIA가 잘하고 이기는 데는 많은 다양한 이유가 있습니다.
- ASIC(Application-Specific Integrated Circuit): 특정 응용 프로그램이나 작업에 최적화된 맞춤형 집적 회로
- 와트당 성능(Performance per watt): 소비전력 대비 처리 성능을 나타내는 효율성 지표
- ROI(Return on Investment): 투자 수익률, 투자한 비용 대비 얻는 이익의 비율
Q6. 미국의 매출이 순차적으로 약 50억 달러 증가했는데, 다른 지역에 대한 규제가 있을 경우 미국이 그 공백을 메울 수 있을지, 그리고 이 미국으로의 변화가 계속 진행된다면 어떻게 그렇게 빠르게 성장할 수 있을지 궁금합니다.
중국은 Q4와 이전 분기와 비슷한 비율을 차지하고 있으며, 수출 통제 이전보다 약 절반 수준입니다. 하지만 비율적으로는 대략 동일합니다. 지역에 관해서는, AI가 소프트웨어라는 점이 중요합니다. 놀라운 현대 소프트웨어지만, 현대 소프트웨어이며 AI는 주류가 되었습니다. AI는 어디서나 배달 서비스, 쇼핑 서비스에 사용됩니다. 우유 한 팩을 산다면, AI가 관여했습니다. 소비자 서비스가 제공하는 거의 모든 것의 핵심에는 AI가 있습니다.
모든 학생은 AI를 튜터로 사용할 것이고, 의료 서비스는 AI를 사용하며, 금융 서비스는 AI를 사용합니다. AI를 사용하지 않는 핀테크 회사는 없을 것입니다. 모든 핀테크 회사가 AI를 사용할 것입니다. 기후 기술 회사는 AI를 사용하고, 광물 발견에도 이제 AI가 사용됩니다. 모든 고등 교육, 모든 대학은 AI를 사용하므로, AI가 주류화되어 모든 애플리케이션에 통합되고 있다고 말하는 것이 안전합니다.
NVIDIA의 희망은 물론 기술이 계속해서 안전하게 발전하고 사회에 도움이 되는 방식으로 발전하는 것입니다. 이를 통해, 이 새로운 전환의 시작에 있다고 믿습니다. 시작이라는 것은, 우리 뒤에는 수십 년 동안 데이터 센터와 컴퓨터가 구축되어 왔다는 것을 기억하세요. 그리고 그것들은 수동 코딩과 범용 컴퓨팅, CPU 등의 세계를 위해 구축되었습니다. 앞으로는 거의 모든 소프트웨어가 AI로 주입될 것이라고 말하는 것이 안전합니다. 모든 소프트웨어와 모든 서비스는 궁극적으로 머신러닝을 기반으로 할 것이고, 데이터 플라이휠은 소프트웨어와 서비스를 개선하는 부분이 될 것이며, 미래의 컴퓨터는 가속화되고 AI를 기반으로 할 것입니다. 우리는 그 여정에서 겨우 2년 밖에 되지 않았습니다. 수십 년이 걸린 컴퓨터를 현대화하는 과정에서 이 새로운 시대의 시작에 있다고 확신합니다.
AI보다 세계 GDP의 더 큰 부분을 다룰 수 있는 기회를 가진 기술은 이전에 없었습니다. 어떤 소프트웨어 도구도 그렇지 않았습니다. 이제 이것은 역사상 그 어느 때보다 세계 GDP의 더 큰 부분을 다룰 수 있는 소프트웨어 도구입니다. 따라서 성장에 대해, 그리고 무언가가 크거나 작은지에 대해 생각하는 방식은 그 맥락에서 생각해야 합니다. 그리고 그 관점에서 한 걸음 물러서서 보면, 우리는 정말로 시작에 불과합니다.
- 핀테크(Fintech): 금융(Finance)과 기술(Technology)의 합성어로, 금융 서비스에 첨단 기술을 접목한 산업
- 데이터 플라이휠(Data flywheel): 데이터가 모이면 AI가 발전하고, AI가 발전하면 더 많은 데이터가 모이는 선순환 구조
Q7. 데이터 센터 내 엔터프라이즈 부문이 전년 대비 2배 성장했다고 말씀하셨나요? 그렇다면 하이퍼스케일러보다 더 빠르게 성장한 것인가요? 또한, 하이퍼스케일러 지출이 내부 워크로드와 외부 워크로드 사이에 어떻게 나뉘는지, 그리고 새로운 AI 워크플로우와 애플리케이션이 등장함에 따라 엔터프라이즈가 소비 혼합의 더 큰 부분이 될 것으로 예상하는지 궁금합니다.
엔터프라이즈 비즈니스는 2배 성장했으며, 이는 대형 CSP(클라우드 서비스 제공업체)에서 보는 것과 매우 유사합니다. CSP가 자체 작업에서 대규모 언어 모델 작업과 추론을 하고 있다는 점을 명심하세요. 하지만 엔터프라이즈가 서비스를 받는 곳이기도 합니다. 엔터프라이즈는 CSP와 함께 있고 자체적으로 구축하기도 합니다. 둘 다 매우 잘 성장하고 있습니다.
CSP는 NVIDIA 비즈니스의 약 절반을 차지합니다. CSP는 내부 소비와 외부 소비가 있습니다. NVIDIA는 물론 내부 소비에 사용됩니다. NVIDIA는 모든 CSP와 매우 긴밀하게 협력하여 내부 워크로드를 최적화합니다. 왜냐하면 그들은 활용할 수 있는 NVIDIA 장비의 대규모 인프라를 가지고 있기 때문입니다. NVIDIA가 한편으로는 AI에, 다른 한편으로는 비디오 처리, Spark와 같은 데이터 처리에 사용될 수 있기 때문에 NVIDIA는 다용도입니다. 이런 점에서 인프라의 유용한 수명이 훨씬 더 좋습니다. 유용한 수명이 더 길다면 TCO(총소유비용)도 더 낮습니다.
두 번째 부분은 앞으로 엔터프라이즈 또는 CSP가 아닌 부분의 성장을 어떻게 보는가에 관한 것인데, 그 답은 장기적으로 훨씬 더 크다고 생각합니다. 그 이유는 오늘날 컴퓨터 산업에서 서비스되지 않는 부분이 대부분 산업이기 때문입니다. 예를 들어 자동차 회사는 소프트적인 것과 하드적인 것을 모두 만듭니다. 자동차 회사의 경우 직원들을 더 생산적으로 만들기 위한 에이전트 AI 및 소프트웨어 계획 시스템과 도구가 있습니다. GTC에서 공유할 흥미로운 내용이 많이 있습니다. 에이전트 시스템은 직원들이 회사를 설계하고, 마케팅하고, 계획하고, 운영하는 데 더 생산적이 되도록 합니다. 이것이 에이전트 AI입니다.
반면에, 제조하는 자동차도 AI가 필요합니다. 자동차를 훈련시키는 AI 시스템, 이 거대한 자동차 군단 전체를 훈련시키는 시스템이 필요합니다. 오늘날 도로에는 10억 대의 자동차가 있습니다. 언젠가는 10억 대의 자동차가 도로에 있을 것이고, 그 모든 자동차가 로봇 자동차가 될 것이며, 모두 데이터를 수집하고, AI 팩토리를 사용해 개선할 것입니다. 오늘날 자동차 공장이 있지만, 미래에는 자동차 공장과 AI 팩토리가 있을 것입니다.
그리고 자동차 내부에는 로봇 시스템이 있습니다. 이처럼 세 대의 컴퓨터가 관련되어 있습니다. 사람들을 돕는 컴퓨터가 있고, AI를 구축하는 컴퓨터가 있으며, 이는 트랙터, 잔디 깎는 기계, 인간이나 현재 개발 중인 로봇, 건물, 창고 등이 될 수 있습니다. 이러한 물리적 시스템에는 물리적 AI라고 부르는 새로운 유형의 AI가 필요합니다. 단순히 단어와 언어의 의미를 이해하는 것이 아니라, 세계의 의미, 마찰과 관성, 객체 영속성, 원인과 결과를 이해해야 합니다. 이 모든 것들은 우리에게는 상식이지만, AI는 이러한 물리적 효과를 배워야 합니다. 이것을 물리적 AI라고 부릅니다.
회사 내에서 일하는 방식을 혁신하기 위해 에이전트 AI를 사용하는 전체 부분은 이제 막 시작되었습니다. 이제 에이전트 AI 시대의 시작이며, 많은 사람들이 이에 대해 이야기하고 있고 NVIDIA는 정말 훌륭한 일들을 진행하고 있습니다. 그리고 그 후에는 물리적 AI가 있고, 그 후에는 로봇 시스템이 있습니다. 이 세 가지 컴퓨터는 모두 완전히 새로운 것입니다. 장기적으로, 이것이 모든 것 중에서 가장 큰 부분이 될 것이라는 것이 제 느낌입니다. 이는 세계 GDP가 중공업이나 산업, 또는 이를 제공하는 기업들로 대표된다는 점에서 이치에 맞습니다.
- CSP(Cloud Service Provider): 클라우드 컴퓨팅 서비스를 제공하는 회사(예: AWS, Azure, Google Cloud)
- TCO(Total Cost of Ownership): 제품이나 서비스를 구매, 설치, 운영하는 데 드는 모든 비용의 총합
- 에이전트 AI(Agentic AI): 자율적으로 작업을 수행하고 의사결정을 내리는 AI 시스템
- 객체 영속성(Object permanence): 물체가 시야에서 사라져도 계속 존재한다는 개념 인식
Q8. 2023년 Hopper 변곡점으로부터 2년이 다가오는 시점에서, 배포된 인프라를 교체 사이클 관점에서 어떻게 생각하시나요? GB300이나 Rubin 사이클에서 일부 교체 기회가 시작될 수 있을까요?
사람들은 여전히 Volta, Pascal, Ampere를 사용하고 있습니다. 그 이유는 CUDA가 잘 작동하기 때문입니다. Blackwell의 주요 사용 사례 중 하나는 현재 데이터 처리와 데이터 큐레이션입니다. AI 모델이 잘 처리하지 못하는 상황을 발견하면, 그 상황을 비전 언어 모델에 제시합니다. 예를 들어 자동차라면, 그 상황을 비전 언어 모델에 제시하면 모델이 실제로 그 상황을 살펴보고 "이것이 발생했고 나는 그것을 잘 처리했다"고 말합니다. 그런 다음 그 응답을 프롬프트로 사용하여 AI 모델에게 데이터 레이크 전체에서 그런 상황과 같은 다른 상황을 찾으라고 프롬프트합니다. 그리고 AI를 사용하여 도메인 랜덤화를 수행하고 다른 예시들을 많이 생성합니다. 그런 다음 이를 통해 모델을 훈련시킬 수 있는 훈련 데이터 세트를 만들 수 있습니다. 이렇게 Ampere를 사용하여 데이터 처리와 데이터 큐레이션, 머신러닝 기반 검색을 수행할 수 있습니다. 그런 다음 훈련 데이터 세트를 만들어 Hopper 시스템에 제시하여 훈련시킵니다. 따라서 이러한 아키텍처는 모두 완전히 CUDA 호환이므로 모든 것이 모든 것에서 작동합니다. 하지만 이미 인프라가 있다면, 덜 집약적인 워크로드를 과거의 설치 기반에 배치할 수 있습니다. NVIDIA의 모든 GPU는 매우 잘 활용됩니다.
- Volta, Pascal, Ampere: NVIDIA의 이전 GPU 아키텍처 세대
- CUDA: NVIDIA가 개발한 병렬 컴퓨팅 플랫폼 및 프로그래밍 모델
- 데이터 큐레이션(Data curation): AI 훈련에 사용될 데이터를 선별, 정리, 구성하는 과정
- 데이터 레이크(Data lake): 다양한 형태의 대규모 데이터를 원시 형태로 저장하는 중앙 저장소
- 도메인 랜덤화(Domain randomization): AI가 다양한 환경에 적응할 수 있도록 훈련 데이터의 다양성을 인위적으로 증가시키는 기법
Q9. 총이익률에 관한 후속 질문입니다. Blackwell 수율, NVLink 72와 이더넷 믹스 등 많은 요소가 있다고 이해합니다. 올해 하반기에는 분기당 약 200 베이시스 포인트씩 증가해야 귀하가 언급한 70% 중반대 범위에 도달할 수 있을 것입니다. 그리고 우리는 여전히 반도체 전반에 미치는 관세 영향에 대해 많이 알지 못합니다. 올해 하반기에 그러한 궤적에 대한 확신은 어디에서 오나요?
총이익률은 Blackwell 시스템에 포함되는 자재와 모든 것 측면에서 꽤 복잡합니다. 총이익률을 시간이 지남에 따라 더 잘 개선할 수 있는 방법에 대한 많은 기회가 있습니다. Blackwell에는 다양한 구성도 있어 총이익률 개선에 도움이 될 것입니다. 따라서 함께, 고객을 위한 이러한 정말 강력한 램핑을 완료한 후에, 많은 작업을 시작할 수 있을 것입니다. 가능하다면 단기간에 개선할 수 있다면, 그렇게 할 것입니다. 관세는 현재로서는 약간 알 수 없는 부분입니다. 미국 정부의 계획, 그 시기, 위치, 얼마나 많은지 등을 더 이해할 때까지는 알 수 없습니다.
- 베이시스 포인트(Basis point): 금융에서 사용되는 측정 단위로, 1/100 퍼센트(0.01%)를 의미
- 수율(Yield): 반도체 제조 과정에서 성공적으로 생산된 칩의 비율
- 관세(Tariff): 국가 간 거래되는 상품에 부과되는 세금
마무리 발언 - 젠슨 황 CEO
Blackwell에 대한 수요는 놀랍습니다. AI는 인식 및 생성 AI를 넘어 추론으로 진화하고 있습니다. 추론 AI를 통해 우리는 또 다른 스케일링 법칙, 즉 추론 시간 또는 테스트 시간 스케일링, 더 많은 계산을 관찰하고 있습니다. 모델이 더 많이 생각할수록 더 똑똑한 답변이 됩니다. OpenAI, Grok-3, DeepSeek-R1과 같은 모델은 추론 시간 스케일링을 적용하는 추론 모델입니다. 추론 모델은 100배 더 많은 컴퓨팅을 소비할 수 있습니다. 미래의 추론 모델은 훨씬 더 많은 컴퓨팅을 소비할 수 있습니다. DeepSeek-R1은 글로벌 열정을 불러일으켰습니다. 이는 우수한 혁신입니다. 그러나 더 중요한 것은, 세계적 수준의 추론 AI 모델을 오픈소스로 제공했다는 점입니다. 거의 모든 AI 개발자가 R1 또는 사고의 연쇄 및 R1과 같은 강화 학습 기술을 적용하여 모델의 성능을 확장하고 있습니다.
이전에 언급했듯이, 이제 AI 컴퓨팅에 대한 수요를 주도하는 세 가지 스케일링 법칙이 있습니다. AI의 전통적인 스케일링 법칙은 여전히 온전합니다. 파운데이션 모델은 멀티모달리티로 향상되고 있으며, 사전 훈련은 여전히 성장하고 있습니다. 그러나 이제는 더 이상 충분하지 않습니다. 우리는 두 가지 추가 스케일링 차원을 가지고 있습니다. 강화 학습, 미세 조정, 모델 증류가 사전 훈련보다 수십 배 더 많은 컴퓨팅을 필요로 하는 사후 훈련 스케일링, 그리고 단일 쿼리가 100배 더 많은 컴퓨팅을 요구할 수 있는 추론 시간 스케일링 및 추론입니다. 우리는 이 순간을 위해 Blackwell을 정의했습니다. 사전 훈련, 사후 훈련 및 테스트 시간 스케일링 간에 쉽게 전환할 수 있는 단일 플랫폼입니다.
Blackwell의 FP4 트랜스포머 엔진과 NVLink 72 스케일업 패브릭 및 새로운 소프트웨어 기술이 Blackwell 프로세스 추론 AI 모델을 Hopper보다 25배 더 빠르게 만듭니다. 모든 구성의 Blackwell이 전체 생산 중입니다. 각 Grace Blackwell NVLink 72 랙은 엔지니어링의 경이로움입니다. 350개의 제조 사이트에서 거의 10만 명의 공장 작업자에 의해 생산된 150만 개의 구성 요소입니다. AI는 빛의 속도로 발전하고 있습니다. 우리는 추론 AI와 추론 시간 스케일링의 시작점에 있습니다. 그러나 우리는 AI 시대의 시작에 불과합니다. 멀티모달 AI, 엔터프라이즈 AI, 소버린 AI, 물리적 AI가 곧 등장할 것입니다. 우리는 2025년에 강하게 성장할 것입니다.
앞으로, 데이터 센터는 대부분의 자본 지출을 가속 컴퓨팅과 AI에 집중할 것입니다. 데이터 센터는 점점 더 AI 팩토리가 될 것이며, 모든 회사는 임대하거나 자체 운영할 것입니다. 오늘 우리와 함께해 주셔서 감사합니다. 몇 주 안에 GTC에서 만나뵙겠습니다. 우리는 Blackwell Ultra, Rubin 및 기타 새로운 컴퓨팅, 네트워킹, 추론 AI, 물리적 AI 제품에 대해 이야기할 것입니다. 그리고 더 많은 것들이 있습니다. 감사합니다.
결론: NVIDIA의 미래 AI 비전과 전략
NVIDIA의 어닝콜 Q&A 세션을 통해 젠슨 황 CEO가 제시한 AI 비전은 현재 우리가 AI 혁명의 초기 단계에 불과하다는 점을 명확히 보여줍니다. 이 회사는 단순히 하드웨어 제조업체가 아니라, AI 컴퓨팅의 미래를 정의하는 비전을 가진 기업으로 자리매김하고 있습니다.
현재 AI 발전은 세 가지 핵심 스케일링 법칙에 의해 주도되고 있습니다: 전통적인 사전 훈련 스케일링, 사후 훈련 스케일링, 그리고 추론 시간 스케일링입니다. 특히 추론 AI는 기존의 생성형 AI보다 100배 이상의 컴퓨팅 파워를 필요로 하며, 이는 NVIDIA의 최신 Blackwell 아키텍처가 해결하고자 하는 과제입니다. Blackwell은 Hopper보다 25배 더 높은 처리량을 제공하도록 설계되었으며, 이미 110억 달러의 매출을 올리며 성공적으로 출시되었습니다.
NVIDIA의 경쟁 우위는 단순한 칩 제조를 넘어, 풍부한 소프트웨어 생태계와 범용성, 그리고 매우 빠른 혁신 주기에 있습니다. 젠슨 황은 맞춤형 ASIC과 관련한 질문에 NVIDIA의 제품이 더 범용적이고, 엔드투엔드 솔루션을 제공하며, 어디서나 접근 가능하고, 성능과 혁신 속도가 매우 빠르다는 점을 강조했습니다.
미래를 내다보면, AI는 소비자 서비스를 넘어 세 가지 새로운 영역으로 확장될 것으로 보입니다: 기업을 위한 에이전트 AI, 로봇 공학을 위한 물리적 AI, 그리고 다양한 지역 생태계를 위한 소버린 AI입니다. 특히 젠슨 황은 산업 부문의 AI 채택이 장기적으로 가장 큰 성장 분야가 될 것이라고 예측했습니다.
또한 데이터 센터가 점점 더 AI 팩토리로 변모하면서, 기업들은 AI 인프라를 임대하거나 자체 운영하게 될 것입니다. 이는 세계 GDP의 더 큰 부분을 차지할 수 있는 전례 없는 기회를 제공합니다. NVIDIA는 이 변화의 중심에 있으며, 이제 막 시작된 AI 시대에서 계속해서 혁신을 주도할 것으로 보입니다.
결론적으로, NVIDIA의 어닝콜은 단순한 실적 발표를 넘어 AI 산업의 미래 방향을 제시하는 청사진이었습니다. 그들의 기술적 리더십과 비전은 AI가 사회와 경제의 모든 측면을 변화시키는 이 결정적인 시기에 계속해서 중요한 역할을 할 것입니다.