티스토리 뷰

 

CES 2025: NVIDIA CEO 젠슨 황, 기조연설 진행 (RTX 5090 발표) 

 

https://www.youtube.com/live/XASnBeNKg6A?si=t7FuVPudmY5pplpM

 

 

What we see for CES isn't just about what's next, it's about what's possible. When technology and humanity intersect, the answer is anything. That's because tech doesn't just solve challenges; it transforms them into opportunities. 

It helps us move smarter, live healthier, and experience the world in ways we never thought possible. We are not just here for a tech event; we're here to connect, to solve, to discover together. Tech isn't just advancing; it's uniting, bringing us closer to an autonomous future, connecting us to better care, making life more connected, more dynamic, and more human. 

Today's challenges demand bold solutions, and CES is where they start to take shape. Breakthroughs in sustainability, advancements to help feed our growing world—this week isn't just a stage for breakthroughs; it's the spark for discovery. Every screen, every pixel, every part of the tech you will see here showcases the extraordinary potential of human ingenuity meeting technological power. 

Now we begin this celebration of what connects us, has the power to solve our greatest challenges, and offers endless possibilities we're yet to discover. Right here, right now, the world is watching, so let's dive in. Ladies and gentlemen, welcome to CES 2025. 

I'm Gary Shapiro, CEO and vice chairman of the Consumer Technology Association, the producer of CES. I am so thrilled to kick off this show with a keynote by one of the most consequential companies in the world. Nvidia exemplifies the cutting-edge innovation we celebrate at CES, and founder and CEO Jensen Huang is a true visionary, demonstrating the power of ideas, technology, and conviction to drive innovation and reshape our industry and our society. 

I always like to say that if I had listened a little bit more closely the last time Jensen spoke at a CTA event, I could have retired already. But over the past three decades, he has established Nvidia as a force driving change across the globe in industries ranging from healthcare to automotive and entertainment. Today, Nvidia is pioneering breakthroughs in AI and accelerated computing that touch nearly every person and every business. 

Thanks to his leadership, Nvidia's innovations enable advanced chatbots, robots for software-defined vehicles, huge virtual worlds, hypersynchronized factory floors, and so much more. Huang has been named the world's best CEO by Fortune and The Economist, as well as one of Time. Magazine's 100 most influential people in the world, but you know the fact is, like for all of us in this room, our success and his success was not preordained. 

Jensen started out working at a Denny's as a dishwasher and a busboy, so be nice to them in the future. He said that the lessons he's learned there—the value of hard work, humility, and hospitality—are what helped him keep the faith and persevere through some of NVIDIA's early challenges. 

CES에서 우리가 보는 것은 단순히 다음 단계가 아니라 가능성에 대한 것입니다. 기술과 인류가 만나면 그 해답은 무엇이든 나올 수 있습니다. 기술은 단순히 문제를 해결하는 데 그치지 않고 이를 기회로 전환하기 때문입니다.

기술은 우리가 더 스마트하게 움직이고, 더 건강하게 생활하며, 불가능하다고 생각했던 방식으로 세상을 경험할 수 있도록 도와줍니다. 우리는 단순히 기술 행사를 위해 모인 것이 아니라 함께 연결하고, 해결하고, 발견하기 위해 모였습니다.

기술은 단순히 발전하는 것이 아니라 우리를 하나로 묶어 자율적인 미래에 더 가까이 다가가게 하고, 더 나은 치료와 연결하며, 삶을 더욱 연결되고 역동적이며 인간적으로 만들어 줍니다.

오늘날의 과제에는 대담한 솔루션이 필요하며, CES는 그 솔루션이 구체화되기 시작하는 곳입니다. 지속 가능성을 위한 혁신, 성장하는 세상을 위한 발전 등 이번 주는 단지 혁신을 위한 무대가 아니라 발견을 위한 불꽃이 타오르는 곳입니다.

여러분이 보게 될 모든 화면과 픽셀, 기술의 모든 부분은 인간의 독창성과 기술의 힘이 만나 만들어낸 놀라운 잠재력을 보여줍니다. 이제 우리는 우리를 연결하고, 우리의 가장 큰 과제를 해결할 수 있는 힘을 가지고 있으며, 아직 발견하지 못한 무한한 가능성을 제공하는 것에 대한 축제를 시작합니다. 전 세계가 지켜보고 있는 지금, 바로 이곳에서 그 속으로 들어가 보겠습니다.

신사 숙녀 여러분, CES 2025에 오신 것을 환영합니다. 저는 CES를 주최하는 전미소비자기술협회의 CEO 겸 부회장인 게리 샤피로입니다. 세계에서 가장 영향력 있는 기업 중 한 곳의 기조연설로 이번 박람회의 시작을 알리게 되어 매우 기쁩니다. 엔비디아는 우리가 CES에서 기념하는 최첨단 혁신의 본보기이며, 설립자 겸 CEO인 젠슨 황은 혁신을 주도하고 업계와 사회를 변화시키는 아이디어, 기술, 신념의 힘을 보여주는 진정한 선구자입니다.

저는 항상 젠슨이 마지막으로 CTA 행사에서 연설할 때 조금만 더 귀를 기울였더라면 벌써 은퇴할 수 있었을 것이라고 말하곤 합니다. 하지만 그는 지난 30년 동안 의료부터 자동차, 엔터테인먼트에 이르기까지 다양한 산업 분야에서 전 세계 변화를 주도하는 힘으로 Nvidia를 자리매김했습니다.

오늘날 엔비디아는 거의 모든 사람과 모든 비즈니스에 영향을 미치는 AI 및 가속 컴퓨팅 분야의 혁신을 선도하고 있습니다. 그의 리더십 덕분에 엔비디아의 혁신은 첨단 챗봇, 소프트웨어 정의 차량용 로봇, 거대한 가상 세계, 초동기화된 공장 현장 등을 가능하게 했습니다.

포춘과 이코노미스트에서 세계 최고의 CEO로 선정되었으며, 타임지에서도 선정한 바 있습니다. 매거진의 세계에서 가장 영향력 있는 100인에 선정되기도 했지만, 사실 이 자리에 모인 우리 모두와 마찬가지로 그의 성공은 예정된 것이 아니었다는 사실을 알고 계실 겁니다. 젠슨은 데니스의 식당에서 설거지와 버스 보이로 일하기 시작했으니 앞으로는 친절하게 대해주세요. 그는 그곳에서 배운 교훈, 즉 근면, 겸손, 환대의 가치가 NVIDIA의 초창기 어려움 속에서도 신념을 지키고 인내할 수 있는 힘이 되었다고 말했습니다.


In just a few minutes, we'll hear from the video founder and CEO Jensen Huang on his unwavering vision of the future and where we're headed next. Stay tuned, and have a great CES! At this time, please take a moment to silence your devices; our event is about to begin. This is how intelligence is made—a new kind of factory generator of tokens, the building blocks of AI. 

Tokens have opened a new frontier, the first step into an extraordinary world where endless possibilities are born. Tokens transform words into knowledge and breathe life into images. They turn ideas into videos and help us safely navigate any environment. 

Tokens teach robots to move like the masters and inspire new ways to celebrate our victories. A martini, please. Calling R up. 

Thank you, Adam, and give us peace of... Mind when we need it most? Hi, Okta. Hi, Emma, it's good to see you again. 

Hi, Emma. We're going to take a blood sample today, okay? Don't worry, I'm going to be here the whole time. They bring meaning to numbers to help us better understand the world around us, predict the dangers that surround us, and find cures for the threats within us. 

Tokens can bring our visions to life and restore what we've lost. Zachary, I got my voice back, buddy! They help us move forward one small step at a time and one giant leap together. And here is where it all begins. 

Welcome to the stage, Nvidia founder and CEO Jensen Huang. Welcome to CES! Are you excited to be in Las Vegas? Do you like my jacket? I thought I'd go the other way from Gary Shapiro. I'm in Las Vegas, after all. 

If this doesn't work out, if all of you object, well, just get used to it. I think, I really think you have to let this sink in. In another hour or so, you're going to feel good about it. 

Well, uh, welcome to Nvidia! In fact, you're inside Nvidia's digital twin, and we're going to take you to Nvidia. Ladies and gentlemen, welcome to Nvidia! You're inside our digital twin. Everything here is generated by AI. 

It has been an extraordinary journey, an extraordinary year, and it started in 1993, ready, go with MV1. Wanted to build computers that can do things that normal computers couldn't, and MV1 made it possible to have a game console in your PC. Our programming architecture was called UD, missing the letter C until a little while later, but UDA, or Unified Device Architecture, and the first developer for UDA, and the first application that ever worked on UDA, was Sega's Virtual Fighter. 

Six years later, we invented, in 1999, the programmable GPU, and it started 20 years, 20 plus years, of incredible advance in this incredible processor called the GPU. It made modern computer graphics possible, and now, 30 years later, Sega's Virtual Fighter is completely cinematic. This is the new Virtual Fighter project that's coming; I just can't wait. 

Absolutely incredible! Six years after that, six years after 1999, we invented CUDA so that we could explain or express the programmability of our GPUs to a rich set of algorithms that could benefit from it. CUDA initially was difficult to explain, and it took years; in fact, it took approximately six years. Somehow, six years later, or so in 2012, Alex Krizhevsky, Ilya Sutskever, and Jeff Hinton discovered CUDA, used it to process AlexNet, and the rest of it is history. 

AI has been... Advancing at an incredible pace, it started with perception AI; we now can understand images, words, and sounds. To generative AI, we can generate images, texts, and sounds, and now, a genetic AI, AI that can perceive, reason, plan, and act. 

Then the next phase, some of which we'll talk about tonight, is physical AI. In 2012, now magically in 2018, something happened that was pretty incredible: Google's Transformer was released as BERT, and the world of AI really took off. Transformers, as you know, completely changed the landscape for artificial intelligence; in fact, it completely changed the landscape for computing altogether. 

We recognized properly that AI was not just a new application with a new business opportunity, but AI, more importantly, machine learning enabled by Transformers, was going to fundamentally change how computing works. Today, computing is revolutionized in every single layer, from hand coding instructions that run on CPUs to creating software tools that humans use. We now have machine learning that creates and optimizes neural networks that process on GPUs and create artificial intelligence. 

Every single layer of the technology stack has been completely changed. Incredible transformation in just 12 years! Well, we can now understand information of just about any modality. Surely you've seen text, images, sounds, and things like that, but not only can we understand those, we can understand amino acids; we can understand physics. 

We understand them, we can translate them, and generate them. The applications are just completely endless. In fact, almost any AI application that you see out there—what modality is the input it learned from, what modality of information did it translate to, and what modality of information is it generating? If you ask these three fundamental questions, just about every single application could be inferred. 

And so, when you see application after application that is AI-driven, AI native at the core of it, this fundamental concept is there. Machine learning has changed how every application is going to be built, how computing will be done, and the possibilities beyond. Well, GPUs, GeForce—in a lot of ways, all of this with AI is the house that GeForce built. 

GeForce enabled AI to reach the masses, and now AI is coming home to GeForce. There are so many things that you can't do without AI. Let me show you some of it now—that was real-time computer. 

Graphics? No, computer graphics researchers, no computer scientists would have told you that it is possible for us to trace every single pixel at this point. Ray tracing is a simulation of light; the amount of geometry that you saw was absolutely insane. It would have been impossible without artificial intelligence. 

There are two fundamental things that we did: we used, of course, programmable shading and ray traced acceleration to produce incredibly beautiful pixels. But then we have artificial intelligence be conditioned, be controlled by that pixel to generate a whole bunch of other pixels. Not only is it able to generate other pixels spatially because it's aware of what the color should be, it has been trained on a supercomputer back in Nvidia. 

So, the neural network that's running on the GPU can infer and predict the pixels that we did not render. Not only can we do that, it's called DLSS. The latest generation of DLSS also generates beyond-frame frames; it can predict the future, generating three additional frames for every frame that we calculate. 

What you saw, if we just said four frames of what you saw, because we're going to render one frame and generate three, if I said four frames at full HD, 4K. That's 33 million pixels or so. Out of that 33 million pixels, we computed only two. 

It is an absolute miracle that we can computationally, using programmable shaders and our ray-traced engine, compute two million pixels and have AI predict all of the other 33. As a result, we're able to render at incredibly high performance because AI does a lot less computation. It takes, of course, an enormous amount of training to produce that, but once you train it, the generation is extremely efficient. 

So, this is one of the incredible capabilities of artificial intelligence, and that's why there are so many amazing things that are happening. We used GeForce to enable artificial intelligence, and now artificial intelligence is revolutionizing GeForce. 

 

CES에서 우리가 보는 것은 단순히 다음 단계가 아니라 가능성에 대한 것입니다. 기술과 인류가 만나면 그 해답은 무엇이든 나올 수 있습니다. 기술은 단순히 문제를 해결하는 데 그치지 않고 이를 기회로 전환하기 때문입니다.

기술은 우리가 더 스마트하게 움직이고, 더 건강하게 생활하며, 불가능하다고 생각했던 방식으로 세상을 경험할 수 있도록 도와줍니다. 우리는 단순히 기술 행사를 위해 모인 것이 아니라 함께 연결하고, 해결하고, 발견하기 위해 모였습니다. 기술은 단순히 발전하는 것이 아니라 우리를 하나로 묶어 자율적인 미래에 더 가까이 다가가게 하고, 더 나은 치료와 연결하며, 삶을 더욱 연결되고 역동적이며 인간적으로 만들어 줍니다.

오늘날의 과제에는 대담한 솔루션이 필요하며, CES는 그 솔루션이 구체화되기 시작하는 곳입니다. 지속 가능성을 위한 혁신, 성장하는 세상을 위한 발전 등 이번 주는 단지 혁신을 위한 무대가 아니라 발견을 위한 불꽃이 타오르는 곳입니다.

여러분이 보게 될 모든 화면과 픽셀, 기술의 모든 부분은 인간의 독창성과 기술의 힘이 만나 만들어낸 놀라운 잠재력을 보여줍니다. 이제 우리는 우리를 연결하고, 우리의 가장 큰 과제를 해결할 수 있는 힘을 가지고 있으며, 아직 발견하지 못한 무한한 가능성을 제공하는 것에 대한 축제를 시작합니다. 전 세계가 지켜보고 있는 지금, 바로 이곳에서 그 속으로 들어가 보겠습니다.

신사 숙녀 여러분, CES 2025에 오신 것을 환영합니다. 저는 CES를 주최하는 전미소비자기술협회의 CEO 겸 부회장인 게리 샤피로입니다. 세계에서 가장 영향력 있는 기업 중 한 곳의 기조연설로 이번 박람회의 시작을 알리게 되어 매우 기쁩니다. 엔비디아는 우리가 CES에서 기념하는 최첨단 혁신의 본보기이며, 설립자 겸 CEO인 젠슨 황은 혁신을 주도하고 업계와 사회를 변화시키는 아이디어, 기술, 신념의 힘을 보여주는 진정한 선구자입니다.

저는 항상 젠슨이 마지막으로 CTA 행사에서 연설할 때 조금만 더 귀를 기울였더라면 벌써 은퇴할 수 있었을 것이라고 말하곤 합니다. 하지만 그는 지난 30년 동안 의료부터 자동차, 엔터테인먼트에 이르기까지 다양한 산업 분야에서 전 세계 변화를 주도하는 힘으로 Nvidia를 자리매김했습니다. 오늘날 엔비디아는 거의 모든 사람과 모든 비즈니스에 영향을 미치는 AI 및 가속 컴퓨팅 분야의 혁신을 선도하고 있습니다. 그의 리더십 덕분에 엔비디아의 혁신은 첨단 챗봇, 소프트웨어 정의 차량용 로봇, 거대한 가상 세계, 초동기화된 공장 현장 등을 가능하게 했습니다.

황은 포춘과 이코노미스트에서 세계 최고의 CEO로 선정되었으며, 타임지에서도 선정한 바 있습니다. 매거진의 세계에서 가장 영향력 있는 100인에 선정되기도 했지만, 사실 이 자리에 모인 우리 모두와 마찬가지로 그의 성공은 예정된 것이 아니었다는 사실을 알고 계실 겁니다. 젠슨은 데니스의 식당에서 설거지와 버스 보이로 일하기 시작했으니 앞으로는 친절하게 대해주세요. 그는 그곳에서 배운 교훈, 즉 근면, 겸손, 환대의 가치가 NVIDIA의 초창기 어려움 속에서도 신념을 지키고 인내할 수 있는 힘이 되었다고 말했습니다.


Everyone, today we're announcing our next generation, the RTX Blackwell family. Let's take a look. Here it is, our brand new GeForce RTX 5050 series, Blackwell architecture. 

The GPU is just a beast: 92 billion transistors, 4,000 TOPS, four petaflops of AI—three times higher than the last generation, Ada—and we need all of it to generate those pixels that I showed you: 380 ray tracing teraflops. Compute, compute the most beautiful image you possibly can. And of course, 125 Shader teraflops; there's actually concurrent Shader teraflops as well as an engine unit of equal performance, so two dual shaders. 

One is for floating point, one is for integer. GDDR7 memory from Micron, 1.8 terabytes per second, twice the performance of our last generation. We now have the ability to intermix AI workloads with computer graphics workloads, and one of the amazing things about this generation is the programmable shader is also able to now process neural networks. 

The shader is able to carry these neural networks, and as a result, we invented neuro texture compression and neuromaterial shading. As a result of that, you get these amazingly beautiful images that are only possible because we use AI to learn the texture, learn a compression algorithm, and as a result, get extraordinary results. Okay, so this is the brand new RTX Blackwell 90. 

Now, even the mechanical design is a miracle. Look at this! It's got two fans; this whole graphics card is just one giant fan. You know, so the question is, where's the graphics card? Is it literally this big? The voltage regulator design is state-of-the-art. 

Incredible design! The engineering team did a great job, so here it is. Thank you. Okay, so those are the speeds and feeds. 

So how does it compare? Well, this is RTX 490. I know, I know many of you have one. I know it—look, it's $1,599. 

It is one of the best investments you could possibly make. For $1,599, you bring it home to your $110,000 PC entertainment command center. Isn't that right? Don't tell me that's not true. 

Don't be ashamed; it's liquid-cooled, fancy lights all over it. You lock it when you leave; it's the modern home theater. It makes perfect sense. 

 And now, for $1,599, you get to upgrade that and turbocharge the living data lights out of it. Well, now with the Blackwell family, RTX 570 has 490 performance at $549—impossible without artificial intelligence, impossible without the four tops: four teraflops of AI tensor cores, impossible without the G7 memories. Okay, so 5070 has 4090 performance at $549, and here's the whole family starting from 5070 all the way up to 590; 5090 has twice the performance of a 4090. 

Starting, of course, we're producing a very large-scale availability starting January. Well, it is incredible, but we managed to put these gigantic performance GPUs into a laptop. This is a 55070 laptop for $12.99. 

This 570 laptop has a 4090 performance. I think there's one here somewhere. Let me show you this; look at this thing here. 

Let me—here, there's only so many pockets, ladies and gentlemen. Janine, Paul, can you imagine you get this incredible graphics card here? Blackwell, we're going to shrink it and put it in. Does that make any sense? Well, you can't do that without artificial intelligence, and the reason for that is because we're generating most of the pixels using our tensor cores. 

So, we retrace only the pixels we need, and we generate, using artificial intelligence, all the other pixels we have. As a result, the amount of Energy Efficiency is just off the charts. The future of computer graphics is neural rendering, the fusion of artificial intelligence and computer graphics. 

And what's really amazing is—oh, here we go, thank you—this is a surprisingly kinetic keynote. And, what's really amazing is the family of GPUs we're going to put in here. And so, the 1590, the 1590 will fit into a laptop, a thin laptop. 

That last laptop was 14, 14.9 mm. You got a 5080, 5070 Ti, and 5070. Okay, so, ladies and gentlemen, the RTX Blackwell family—well, GeForce brought AI to the world. 

AI now, AI has come back and revolutionized GeForce. Let's talk about artificial intelligence. Let's go to somewhere else at NVIDIA. 

This is literally our office; this is literally NVIDIA's headquarters. Okay, so let's talk about AI. The industry is chasing and racing to scale artificial intelligence. 

The scaling law is a powerful model; it's an empirical law that has been observed and demonstrated by researchers and industry over several generations. The scaling law says that the more training data you have, the larger the model that you have, and the more compute that you apply to it. Therefore, the more effective or the more capable your model will become. 

And so, the scaling law continues. What's really amazing is that now we're moving towards, of course, and the internet is producing about twice the amount of data every single year as it did last year. I think in the next couple of years, humanity will produce more data than all of humanity has ever produced since the beginning. 

And so, we're still producing a gigantic amount of data, and it's becoming more multimodal: video, images, and sound all. Of that data, could be used to train the fundamental knowledge, the foundational knowledge of an AI. But there are, in fact, two other scaling laws that have now emerged, and it's somewhat intuitive. 

The second scaling law is post-training scaling law. Post-training scaling law uses techniques like reinforcement learning and human feedback. Basically, the AI produces and generates answers based on a human query. 

The human, then, of course, gives feedback. Um, it's much more complicated than that, but that reinforcement learning system, with a fair number of very high-quality prompts, causes the AI to refine its skills. It could fine-tune its skills for particular domains; it could be better at solving math problems, better at reasoning, and so on and so forth. 

It's essentially like having a mentor or having a coach give you feedback after you're done going to school. You get tests, you get feedback, you improve yourself. We also have reinforcement learning, AI feedback, and we have synthetic data generation. 

These techniques are rather akin to, if you will, self-practice. You know the answer to a particular problem, and you continue to try it until you get it right. So, an AI could be presented with a very complicated and difficult problem that is verifiable functionally and has an answer that we understand—maybe proving a theorem, maybe solving a geometry problem. 

These problems would cause the AI to produce answers, and using reinforcement learning, it would learn how to improve itself. That's called post-training. Post-training requires an enormous amount of computation, but the end result produces incredible models. 

We now have a third scaling law, and this third scaling law has to do with what's called test time scaling. Test time scaling is basically when you're being used—when you're using the AI. The AI has the ability to now apply a different resource allocation; instead of improving its parameters, now it's focused on deciding how much computation to use to produce the answers it wants to produce. 

Reasoning is a way of thinking about this. Long thinking is a way to think about this. Instead of direct inference or one-hot answers, you might reason about it, you might break down the problem into multiple steps, you might generate multiple ideas, and your AI system would evaluate which one of... 

The ideas that you generated were the best ones; maybe it solves the problem step by step, so on and so forth. Now, test time scaling has proven to be incredibly effective. You're watching this sequence of technology, and all of these scaling laws emerge as we see incredible achievements from ChatGPT to 01, to 03, and now Gemini Pro. 

All of these systems are going through this journey step by step, from pre-training to post-training to test time scaling. Well, the amount of computation that we need, of course, is incredible, and we would like, in fact, we would like, in fact, for society to have the ability to scale the amount of computation to produce more and more novel and better intelligence. Intelligence, of course, is the most valuable asset that we have, and it can be applied to solve a lot of very challenging problems. 

So, scaling laws are driving enormous demand for NVIDIA computing; they are driving an enormous demand for this incredible chip we call Blackwell. Let's take a look at Blackwell. Well, Blackwell is in full production; it is incredible what it looks like. 

First of all, every single cloud service provider now has systems up and running. We have systems here from about 15... 15... 

15. Uuh, excuse me, 15 computer makers. It's being made, uh, about 200 different SKUs, 200 different configurations. 

They're liquid-cooled, air-cooled, x86 Nvidia Gray CPU versions, MV link 36 by 2, MV links 72 by 1, a whole bunch of different types of systems, so that we can accommodate just about every single data center in the world. Well, these systems are being currently manufactured in some 45 factories. It tells you how pervasive artificial intelligence is and how much the industry is jumping onto artificial intelligence in this new computing model. 

Well, the reason why we're driving it so hard is because we need a lot more computation, and it's very clear. It's very clear that, um, Janine, you know, I... it's hard to tell you: don't ever want to reach your hands into a dark place. 

Hang on a second, is this a good idea? All right, wait for it, wait for it. I thought I was worthy; apparently, you didn't think I was worthy. All right, this is my show and tell, this a show and tell. 

So, uh, this MV link system, this right here, this MV link system, this is GB200 MV link 72. It is 1 and 2 tons, 600,000 parts, approximately equal to 20 cars, 12, 12, 120 KW. It has, um, a spine behind it that connects all of these GPUs together: two miles of copper cable, 5,000 cables. 

This is being manufactured in 45 factories around the world. We build them, we liquid cool them, we test them, we disassemble them, ship them parts to the data centers, because it's 1 and A2 tons. We reassemble it outside the data centers and install them. 

The manufacturing is insane, but the goal of all of this is because the scaling laws are driving computing so hard that this level of computation, Blackwell, over our last generation, improves the performance per watt by a factor of four, performance per watt by a factor of four, and performance per dollar by a factor of three. That basically says that in one generation, we reduce the cost of training these models by a factor of three, or if you want to increase the size of your model by a factor of three, it's about the same cost. But the important thing is this: these are generating tokens that are being used by all of us when we use ChatGPT or when we use Gemini, use our phones. 

In the future, just about all of these applications are going to be consuming these AI tokens, and these AI tokens are being generated by these systems. Every single data center is limited by power, and so if the performance per watt of Blackwell is four times our last generation, then the revenue that... Could be generated. 

The amount of business that can be generated in the data center is increased by a factor of four, and so these AI factory systems really are factories today. Now, the goal of all of this is so that we can create one giant chip. The amount of computation we need is really quite incredible, and this is basically one giant chip. 

If we would have had to build a chip, one—here we go—sorry guys, you see that? That's cool! Look at that, disco lights in here, right? If we had to build this as one chip, obviously this would be the size of the wafer, but this doesn't include the impact of yield. It would have to be probably three or four times the size. But what we basically have here is 72 Blackwell GPUs or 144 dies. 

This one chip here is 1.4 exaflops; the world's largest supercomputer, fastest supercomputer, only recently achieved an exaflop. Plus, this is 1.4 exaflops of AI floating-point performance. It has 14 terabytes of memory, but here's the amazing thing: the memory bandwidth is 1.2 petabytes per second. 

That's basically the entire internet traffic that's happening right now; the entire world's internet traffic is being processed across these chips. Okay, and we have, um, 103, 130 trillion transistors in total, 2,592 CPU cores, a whole bunch of networking, and so these, I wish I could do this, I don't think I will. So these are the Black Wells, these are our ConnectX networking chips, these are the MVLink, and we're trying to pretend about the MVY, the MVLink spine, but that's not possible. 

Okay, and these are all of the HBM memories—12 terabytes, 14 terabytes of HBM memory. This is what we're trying to do, and this is the miracle. This is the miracle of the Black Wall system. 

The Black Wall die is right here; it is the largest single chip the world has ever made. But yet, the miracle is really, in addition to that, this is, uh, the Grace Black Wall system. Well, the goal of all of this, of course, is so that we can—thank you, thanks. 

 

여러분, 오늘 우리는 차세대 RTX Blackwell 제품군을 발표하게 되어 매우 기쁩니다. 함께 살펴보죠. 바로 이겁니다. 우리의 새로운 GeForce RTX 5050 시리즈, Blackwell 아키텍처입니다.

이 GPU는 정말 괴물 같은 성능을 자랑합니다. 920억 개의 트랜지스터, 4,000 TOPS(초당 테라 연산), 4 페타플롭스의 AI 성능을 제공합니다. 이는 이전 세대인 Ada보다 세 배나 높은 수치이며, 제가 방금 보여드린 픽셀을 생성하는 데 이 모든 성능이 필요합니다. 또한 380 테라플롭스의 레이 트레이싱 성능과 가장 아름다운 이미지를 계산할 수 있는 컴퓨팅 성능을 제공합니다.

물론 125 셰이더 테라플롭스 성능도 포함되어 있습니다. 이 셰이더는 부동 소수점과 정수를 처리하는 두 개의 듀얼 셰이더로 구성되어 있으며, 각각 독립적으로 작동합니다.

Micron의 GDDR7 메모리는 초당 1.8 테라바이트의 속도를 제공하며, 이는 이전 세대보다 두 배 더 빠릅니다. 이제 우리는 AI 작업과 컴퓨터 그래픽 작업을 혼합 처리할 수 있는 능력을 갖추게 되었고, 이번 세대의 가장 놀라운 점 중 하나는 프로그래밍 가능한 셰이더가 이제 신경망도 처리할 수 있다는 점입니다.

셰이더는 이러한 신경망을 처리할 수 있으며, 그 결과로 우리는 뉴로 텍스처 압축과 뉴로머티리얼 셰이딩을 개발했습니다. 이를 통해 AI가 텍스처를 학습하고 압축 알고리즘을 학습하여 놀랍도록 아름다운 이미지를 생성할 수 있게 되었습니다. 이것이 바로 새로운 RTX Blackwell 90입니다.

기계 설계 자체도 기적에 가깝습니다. 보세요! 이 그래픽 카드에는 팬이 두 개 장착되어 있고, 전체 카드가 거대한 팬처럼 보입니다. 그래서 질문이 나올 수 있습니다. ‘그래픽 카드는 어디에 있는 거죠? 정말 이 크기인가요?’라고요. 전압 조절기의 설계는 최신 기술이 적용되어 있습니다.

놀라운 설계입니다! 엔지니어링 팀이 훌륭한 작업을 해냈습니다. 자, 여기 있습니다. 감사합니다. 자, 이제 이 성능 수치를 살펴보겠습니다.

그러면 기존 제품과 비교했을 때 어떨까요? 이건 RTX 490입니다. 많은 분들이 이 제품을 가지고 계실 거라는 걸 알고 있습니다. 맞아요, 이 제품은 $1,599에 판매됩니다.

$1,599로 이 제품을 가져가 $110,000짜리 PC 엔터테인먼트 시스템에 연결할 수 있습니다. 그렇지 않나요? 부끄러워하지 마세요. 액체 냉각 시스템에 멋진 조명까지 있습니다. 자리를 비울 때는 잠가두죠. 현대 가정의 극장 시스템처럼요. 합리적이지 않나요?

그리고 이제 $1,599로 이 제품을 업그레이드해 데이터 처리 능력을 극대화할 수 있습니다. 하지만 Blackwell 제품군에서는 RTX 570이 $549의 가격으로 490과 같은 성능을 제공합니다. 이것은 AI 없이 불가능합니다. AI 텐서 코어의 4 테라플롭스와 G7 메모리 없이는 불가능했겠죠. 따라서 5070은 $549에 4090의 성능을 제공하며, 5070부터 5090까지의 전체 라인업을 확인할 수 있습니다. 5090은 4090보다 두 배의 성능을 제공합니다.

1월부터 대규모로 생산을 시작하게 됩니다. 정말 놀라운 점은 이렇게 엄청난 성능을 가진 GPU를 노트북에 넣을 수 있었다는 것입니다. 이건 $1,299에 판매되는 55070 노트북입니다.

이 570 노트북은 4090과 동일한 성능을 제공합니다. 제가 보여드릴게요. 여기 어딘가에 있을 텐데요. 잠시만요, 보여드릴게요. 자, 보세요, 정말 놀랍죠? Blackwell을 축소해서 이 안에 넣었습니다. 믿기 어려우실 수도 있지만, 인공지능이 없다면 불가능했을 겁니다.

왜냐하면 대부분의 픽셀은 텐서 코어를 사용해 생성하기 때문입니다. 우리는 필요한 픽셀만 추적하고, 나머지는 인공지능을 활용해 생성합니다. 그 결과로 에너지 효율성이 놀라울 정도로 향상되었습니다. 컴퓨터 그래픽의 미래는 인공지능과 컴퓨터 그래픽의 융합인 ‘뉴럴 렌더링’에 있습니다.

RTX Blackwell 제품군에 대해 설명해드렸습니다. 자, 이제 인공지능에 대해 이야기해 보겠습니다.



Boy, is there a chair I could sit down for a second? Can I have a Michelob Ultra? How is it possible that we're in the Michelob Ultra stadium? It's like coming to NVIDIA and we don't have a GPU for you. So, we need an enormous amount of computation because we want to train larger and larger models, and these inferences—these inferences used to be one inference, but in the future, the AI is going to be talking to itself. It's going to be thinking; it's going to be internally reflecting and processing. 

So today, when the tokens are being generated at you, so long as it's coming out at 20 or 30 tokens per second, it's basically as fast as anybody can read. However, in the future, and right now with GP01, you know, with the new pre-Gemini Pro and the new GP0103 models, they're talking to themselves. We, reflecting, they're thinking, and so, as you can imagine, the rate at which the tokens could be ingested is incredibly high. 

Therefore, we need the token rates, the token generation rates, to go way up, and we also have to drive the cost way down simultaneously so that the quality of service can be extraordinary, the cost to customers can continue to be low, and AI will continue to scale. So that's the fundamental purpose, the reason why we created MV Link. Well, one of the most important things that's happening in the world of enterprise is agentic AI. 

Agentic AI basically is a perfect example of test time scaling. It's an AI system of models; some of it is understanding, interacting with the customer, interacting with the user. Some of it is maybe retrieving information, retrieving information from storage, a semantic AI system like a RAG. 

Maybe it's going onto the internet, or maybe it's studying a PDF. File, and so it might be using tools; it might be using a calculator, and it might be using generative AI to generate charts and such. It's taking the problem you gave it, breaking it down step by step, and it's iterating through all these different models. 

Well, in order to respond to a customer in the future, in order for AI to respond, it used to be ask a question, answer, start spewing out. In the future, you ask a question, a whole bunch of models are going to be working in the background. And so, test time scaling, the amount of computation used for inferencing, is going to go through the roof. 

It's going to go through the roof because we want better and better answers. Well, to help the industry build agentic AI, our go-to market is not direct to enterprise customers; our go-to market is we work with software developers in the IT ecosystem to integrate our technology to make possible new capabilities, just like we did with CUDA libraries. We now want to do that with AI libraries, and just as the computing model of the past has APIs that are doing computer graphics, or doing linear algebra, or doing fluid dynamics, in the future, on top of those acceleration libraries, C acceleration libraries will... 

Have AI libraries. We've created three things for helping the ecosystem build agentic AI: Nvidia Nims, which are essentially AI microservices, all packaged up. It takes all of this really complicated CUDA software, CUDA DNN, Cutlass, or TensorRT, or Triton, or all of these different, really complicated software, and the model itself. 

We package it up, we optimize it, we put it into a container, and you could take it wherever you like. We have models for vision, for understanding languages, for speech, for animation, for digital biology, and we have some new, exciting models coming for physical AI. These AI models run in every single cloud because Nvidia's GPUs are now available in every single cloud, they're available in every single OEM. 

So, you could literally take these models, integrate them into your software packages, create AI agents that run on Cadence, or they might be service now agents, or they might be SAP agents, and they could deploy to their customers and run it wherever the customers want to run the software. The next layer is what we call Nvidia Nemo. Nemo is essentially a digital employee onboarding and training evaluation system. 

In the future, these AI agents are essentially digital... Workforce that are working alongside your employees, um, working AI, doing things for you on your behalf. And so, the way that you would bring these specialized agents into your company is to onboard them just like you onboard an employee. 

We have different libraries that help, uh, these AI agents be, uh, trained for the type of, you know, language in your company. Maybe the vocabulary is unique to your company, the business process is different, the way you work is different. So, you would give them examples of what the work product should look like, and they would try to generate it. 

You would give feedback, and then you would evaluate them, so on and so forth. And you would guardrail them; you say these are the things that you're not allowed to do, these are the things you're not allowed to say. This, and we even give them access to certain information. 

Okay, so that entire pipeline, a digital employee pipeline, is called Nemo. In a lot of ways, the IT department of every company is going to be the HR department of AI agents in the future. Today, they manage and maintain a bunch of software from, uh, the IT industry. 

In the future, they'll maintain, you know, nurture, onboard, and, uh, improve a... A whole bunch of digital agents and provision them to the companies to use, okay? And so your HR, your IT department, is going to become kind of like an AI agent. HR, and on top of that, we provide a whole bunch of blueprints that our ecosystem could take advantage of. 

All of this is completely open source, and so you could take it and modify the blueprints. We have blueprints for all kinds of different types of agents. Well, today we're also announcing that we're doing something that's really cool and I think really clever. 

We're announcing a whole family of models that are based off of Llama, the Nvidia Llama Neotron language foundation models. Llama 3.1 is a complete phenomenon; the download of Llama 3.1 from Meta is 350,000 to 650,000 times, something like that. It has been derived and turned into other models—about 60,000 other different models. 

It is singularly the reason why just about every single enterprise and every single industry has been activated to start working on AI. Well, the thing that we did was we realized that the Llama models really could be better fine-tuned for enterprise use, and so we fine-tuned them using our expertise and our capabilities, and we turned them into the Llama Neotron. Suite of open models, there are small ones that interact and, uh, very, very fast response time, extremely small. 

Uh, they're, uh, what we call Super Llama Neutron supers. They're basically your mainstream versions of your models, or your Ultra model. The Ultra model could be used, uh, to be a teacher model for a whole bunch of other models. 

It could be a reward model evaluator, uh, a judge for other models to create answers and decide whether it's a good answer or not, basically give feedback to other models. It could be distilled in a lot of different ways, basically a teacher model, a knowledge distillation, uh, model, very large, very capable. And so, all of this is now available online. 

Well, these models are incredible; it's a, uh, number one in leaderboards for chat, leaderboard for instruction, uh, lead leaderboard for retrieval. Um, so the different types of functionalities necessary that are used in AI agents around the world, uh, these are going to be incredible models for you. We're also working with, uh, the ecosystem. 

These, all of our Nvidia AI technologies are integrated into, uh, the, in industry. Uh, we have great partners and really great work being done at ServiceNow, at SAP, at Siemens, uh, for industrial AI. Cadence is doing great work, and I'm really proud of the work that we do with Perplexity. 

As you know, they revolutionize search—yeah, really fantastic stuff. A codium, uh, every software engineer in the world, this is going to be the next giant AI application, the next giant AI service, period: it's software coding. Thirty million software engineers around the world, everybody is going to have a software assistant helping them code. 

If not, obviously, you're just going to be way less productive and create lesser good code. So, this is thirty million; there's a billion knowledge workers in the world. It is very, very clear that AI agents are probably the next robotics industry and likely to be a multi-trillion dollar opportunity. 

Well, let me show you some of the blueprints that we've created and some of the work that we've done with our partners with these AI agents. AI agents are the new digital workforce, working for and with us. AI agents are a system of models that reason about a mission, break it down into tasks, and retrieve data or use tools to generate a quality response. 

NVIDIA's agentic AI building blocks, Nim pre-trained models, and Nemo framework let organizations easily... Develop AI agents and deploy them anywhere. We will onboard and train our agentic workforces on our company's methods, like we do for employees. 

AI agents are domain-specific task experts. Let me show you, for example, for the billions of knowledge workers and students, AI research assistant agents ingest complex documents like lectures, journals, financial results, and generate interactive podcasts for easy learning. By combining a U-Net regression model with a diffusion model, Cordi can downscale global weather forecasts from 25 km to 2 km. 

Developers like at Nvidia manage software security; AI agents continuously scan software for vulnerabilities, alerting developers to what action is needed. Virtual Lab AI agents help researchers design and screen billions of compounds to find promising drug candidates faster than ever. Nvidia analytics AI agents, built on an Nvidia Metropolis blueprint, including Nvidia Cosmos, Neaton Vision Language Models, Llama, Neaton LLMs, and Nemo Retriever, analyze content from the billions of cameras, generating 100,000 petabytes of video per day. 

They enable interactive search, summarization, and automated reporting, and help. Monitor traffic flows, flagging congestion or danger in industrial facilities. They monitor processes and generate recommendations for improvement. 

Metropolis agents centralize data from hundreds of cameras and can reroute workers or robots when incidents occur. The age of agentic AI is here for every organization. Okay, that was the first pitch at a baseball that was not generated. 

I just felt that none of you were impressed. Okay, so AI was created in the cloud and for the cloud. Yeah, it was created in the cloud for the cloud, and for enjoying AI on phones, of course, it's perfect. 

Very, very soon, we're going to have a continual AI that's going to be with you, and when you use those Meta glasses, you could, of course, point at something, look at something, and ask it whatever information you want. So AI is perfect in the cloud; it was created in the cloud, it's perfect in the cloud. However, we would love to be able to take that AI everywhere. 

I've mentioned already that you could take NVIDIA AI to any cloud, but you could also put it inside your company. But the thing that we want to do more than anything is put it on our PCs as well. And so, as you know, Windows 95 revolutionized the computer industry; it made... 

Possible, this new suite of multimedia services changed the way that applications were created forever. Um, Windows 95, this model of computing, of course, is not perfect for AI. The thing that we would like to do is, in the future, have your AI basically become your AI assistant. 

Instead of just the 3D APIs, the sound APIs, and the video APIs, you would have generative APIs: generative APIs for 3D, generative APIs for language, and generative AI for sound, and so on and so forth. We need a system that makes that possible while leveraging the massive investment that's in the cloud. There’s no way that the world can create yet another way of programming AI models; it's just not going to happen. 

If we could figure out a way to make Windows PC a world-class AI PC, it would be completely awesome. It turns out the answer is Windows. It's Windows WSL2. 

Windows WSL2, Windows WSL2 basically is two operating systems within one. It works perfectly. It's developed for developers and it's developed so that you can have access to bare metal. 

WSL2 has been optimized for cloud-native applications. It is optimized for, and very importantly, it's... been optimized for CUDA, and so WSL2 supports CUDA perfectly out of the box. 

As a result, everything that I showed you with Nvidia NIMS, Nvidia Nemo, the blueprints that we develop, that are going to be up in ai.nvidia.com, so long as the computer fits, so long as you can fit that model. We're going to have many models that fit, whether it's vision models, language models, speech models, or these animation human digital human models; all kinds of different types of models are going to be perfect for your PC. You download it, and it should just run. 

Our focus is to turn Windows WSL2 Windows PC into a target first-class platform that we will support and maintain for as long as we shall live. This is an incredible thing for engineers and developers everywhere. Let me show you something that we can do with that. 

This is one of the examples of a blueprint we just made for you. Generative AI synthesizes amazing images from simple text prompts, yet image composition can be challenging to control using only words. With Nvidia NIM microservices, creators can use simple 3D objects to guide AI image generation. 

Let’s see how a concept artist can use this technology to develop the look. Of a scene, they start by laying out 3D assets created by hand or generated with AI. Then, they use an image generation tool, such as Flux, to create a visual that adheres to the 3D scene, add or move objects to refine the composition, change camera angles to frame the perfect shot, or reimagine the whole scene with a new prompt. 

Assisted by generative AI and Nvidia's tools, an artist can quickly realize their vision. Nvidia AI for your PCs, hundreds of millions of PCs in the world with Windows, and so we could get them ready for AI. OEMs, all the PCs we work with, and basically all of the world's leading PC manufacturers are going to get their PCs ready for this. 

Step back, and so AI-powered systems are coming to a home near you. Linux is good. Okay, let's talk about physical AI. 

Speaking of Linux, let's talk about physical AI. So, physical AI—imagine, whereas your large language model, you give it your context, your prompt on the left, and it generates tokens one at a time to produce the output. That's basically how it works. 

The amazing thing is this model in the middle is quite large, has billions of parameters, and the context length is incredibly large because you might decide to load in a PDF. In my case, I might load in several PDFs before I ask it a question. Those PDFs... 

are turned into tokens. The basic attention characteristic of a transformer has every single token find its relationship and relevance against every other token. So, you could have hundreds of thousands of tokens, and the computational load increases quadratically. 

It does this, that all of the parameters, all of the input sequences, process through every single layer of the transformer, and it produces one token. That's the reason why we need a Blackwell. Then, the next token is produced when the current token is done; it puts the current token into the input sequence and takes that whole thing and generates the next token. 

It does it one at a time. This is the transformer model, and it's the reason why it is so incredibly effective but computationally demanding. What if, instead of PDFs, it's your surroundings? And what if, instead of the prompt being a question, it's a request: "Go over there and pick up that box and bring it back"? Instead of what is produced in tokens being text, it produces action tokens. 

Well, what I just described is a very sensible thing for the future of robotics, and the technology is right around the corner. But what we need to do is we need to create the effective... Effectively, the world model, you know, as opposed to GPT, which is a language model. 

This world model has to understand the language of the world; it has to understand physical dynamics, things like gravity, friction, and inertia. It has to understand geometric and spatial relationships; it has to understand cause and effect. If you drop something, it falls to the ground; if you poke at it, it tips over. 

It has to still understand object permanence. If you roll a ball over to a kitchen counter, when it goes off the other side, the ball didn't leap into another quantum universe; it's still there. All of these types of understanding are intuitive understandings that we know most models today have a very hard time with. 

So, we would like to create a world; we need a world foundation model. Today, we're announcing a very big thing: we're announcing Nvidia Cosmos, a world foundation model that was created to understand the physical world. The only way for you to really understand this is to see it. 

Let's play it. The next frontier of AI is physical AI. Model performance is directly related to data availability, but physical world data is costly to capture, curate, and label. 

Nvidia. Cosmos is a world foundation model development plan platform to advance physical AI. It includes auto-regressive world foundation models, diffusion-based world foundation models, advanced tokenizers, and an Nvidia CUDA AI-accelerated data pipeline. 

Cosmos models ingest text, image, or video prompts and generate virtual world states as videos. Cosmos generations prioritize the unique requirements of AV and robotics use cases, like real-world environments, lighting, and object permanence. Developers use Nvidia Omniverse to build physics-based, geospatially accurate scenarios, then output Omniverse renders into Cosmos, which generates photorealistic, physically based synthetic data, whether diverse objects or environments, conditions like weather or time of day, or edge case scenarios. 

Developers use Cosmos to generate worlds for reinforcement learning AI feedback, to improve policy models or to test and validate model performance, even across multisensor views. Cosmos can generate tokens in real time, bringing the power of foresight and multiverse simulation to AI models, generating every possible future to help the model select the right path, working with the world's developer. Ecosystem, Nvidia is helping advance the next wave of physical AI: Nvidia Cosmos. 

Nvidia Cosmos, the world's first foundational model, is trained on 20 million hours of video. The 20 million hours of video focus on physical, dynamic things, so, dynamic nature themes: humans walking, hands moving, manipulating things, you know, things that are fast camera movements. It's really about teaching the AI, not about generating creative content, but teaching the AI to understand the physical world. 

From this, with this physical AI, there are many downstream things that we could do as a result. We could do synthetic data generation to train models; we could distill it and turn it into, effectively, the seed, the beginnings of a robotics model. You could have it generate multiple physically based, physically plausible scenarios of the future. 

Basically, do a Doctor Strange. Because this model understands the physical world, of course, you saw a whole bunch of images generated. This model, understanding the physical world, could also, of course, do captioning, and so it could take videos and caption them incredibly well, and that captioning... 

And the video could be used to train large language models, multimodal large language models, and, uh, so you could use this technology to, uh, use this foundation model to train robotics, robots, as well as larger language models. And so, this is the Nvidia Cosmos. The platform has an autoregressive model for real-time applications, has a diffusion model for very high-quality image generation, it's incredible! Tokenizer basically learning the vocabulary of, uh, the real world and a data pipeline, so that if you would like to take all of this and then train it on your own data, this data pipeline—because there's so much data involved—we've accelerated everything end-to-end for you. 

And so, this is the world's first data processing pipeline that's CUDA accelerated as well as AI accelerated. All of this is part of the Cosmos platform, and today we're announcing that Cosmos is open licensed, it's open, available on GitHub. We hope— we hope that this moment— and there's a small, medium, large for, uh, very fast models, um, you know, mainstream models, and also teacher models, basically not knowledge transfer models. 

Cosmos's world foundation model being open, we really hope will do for the world of robotics and... Industrial AI, what Llama 3 has done for Enterprise AI, the magic happens when you connect Cosmos to Omniverse, and the reason fundamentally is this: Omniverse is a physics grounded, not physically grounded, but physics grounded; it's algorithmic physics, principled physics simulation grounded system. It's a simulator. 

When you connect that to Cosmos, it provides the grounding, the ground truth that can control and condition the Osmos generation. As a result, what comes out of Osmos is grounded on truth. This is exactly the same idea as connecting a large language model to a RAG, to a retrieval augmented generation system. 

You want to ground the AI generation on ground truth, and so the combination of the two gives you a physically simulated, a physically grounded multiverse generator. The application, the use cases are really quite exciting, and of course, for robotics, for industrial applications, it is very, very clear that Cosmos plus Omniverse plus Cosmos represents the third computer that's necessary for building robotic systems. Every robotics company will ultimately have to build three computers: a robotics, the robotic system could be a factory, the robotic system could be a car. 

Could be a robot. You need three fundamental computers: one computer, of course, to train the AI; we call it the DJX computer to train the AI. Another, of course, when you're done, to deploy the AI; we call that AGX. 

That's inside the car, in the robot, or in an AMR, or, you know, in a stadium or whatever it is. These computers are at the edge, and they're autonomous. But to connect the two, you need a digital twin, and this is all the simulations that you were seeing. 

The digital twin is where the AI that has been trained goes to practice, to be refined, to do its synthetic data generation, reinforcement learning, AI feedback, such and such. So, it's the digital twin of the AI. These three computers are going to be working interactively. 

NVIDIA's strategy for the industrial world, and we've been talking about this for some time, is this three-computer system. You know, instead of a three-body problem, we have a three-computer solution, and so it's the NVIDIA robotics. So, let me give you three examples. 

All right? So, the first example is how we apply all of this to industrial digitalization. There are millions of factories, hundreds of thousands of warehouses. That's basically, it's the backbone of a 50 trillion dollar... 

Manufacturing industry, all of that has to become software-defined. All of it has to have automation in the future, and all of it will be infused with robotics. Well, we're partnering with Keon, the world's leading warehouse automation solutions provider, and Accenture, the world's largest professional services provider. 

They have a big focus on digital manufacturing, and we're working together to create something that's really special, and I'll show you that in a second. But our go-to-market is essentially the same as all of the other software platforms and all technology platforms that we have through the developers and ecosystem partners. We have just a growing number of ecosystem partners connecting to Omniverse, and the reason for that is very clear: everybody wants to digitalize the future of industries. 

There's so much waste, so much opportunity for automation in that $50 trillion dollar of the world's GDP. So, let's take a look at that, this one example that we're doing with Keon and Accenture. Keon, the supply chain solution company, Accenture, a global leader in professional services, and Nvidia are bringing physical AI to the $1 trillion warehouse. 

Distribution Center Market managing High-Performance Warehouse Logistics involves navigating a complex web of decisions influenced by constantly shifting variables. These include daily and seasonal demand changes, space constraints, workforce availability, and the integration of diverse robotic and automated systems. Predicting operational KPIs of a physical warehouse is nearly impossible today. 

To tackle these challenges, Keon is adopting Mega, an Nvidia Omniverse blueprint for building industrial digital twins to test and optimize robotic fleets. First, Keon's warehouse management solution assigns tasks to the industrial AI brains in the digital twin, such as moving a load from a buffer location to a shuttle storage solution. The robots' brains are in a simulation of a physical warehouse, digitalized into Omniverse, using open USD connectors to aggregate CAD video and image, 3D Light Art, point cloud, and AI-generated data. 

The fleet of robots executes tasks by perceiving and reasoning about their Omniverse digital twin environment, planning their next motion, and acting. The robot brains can see the resulting state through sensor simulations and decide their next action. The loop continues while Mega precisely tracks the state of everything in the digital twin. 

Now, Keon can simulate infinite scenarios at scale, while measuring operational KPIs such as throughput, efficiency, and utilization, all before deploying changes to the physical warehouse. Together with Nvidia, Keon and Accenture are reinventing industrial autonomy. In the future, that's incredible; everything is in simulation. 

In the future, every factory will have a digital twin, and that digital twin operates exactly like the real factory. In fact, you could use Omniverse with Cosmos to generate a whole bunch of future scenarios, and then an AI decides which one of the scenarios is the most optimal for whatever KPIs, and that becomes the programming constraints, the program, if you will, the AIs that will be deployed into the real factories. The next example: autonomous vehicles. 

The AV revolution has arrived. After so many years with Waymo's success and Tesla's success, it is very, very clear that autonomous vehicles have finally arrived. Well, our offering to this industry is the three computers, the training systems to train the AIs, and the simulation systems, and the... 

Synthetic data generation systems, Omniverse, and now Cosmos, and also the computer that's inside the car. Each car company might work with us in a different way, using one, two, or three of the computers. We're working with just about every major car company around the world: Weo, Zuk, and Tesla, of course, in their data centers. 

BYD, the largest e-company in the world, JLR has got a really cool car coming, and Mercedes has a fleet of cars coming with Nvidia, starting this year, going to production. I'm super, super pleased to announce that today, Toyota and Nvidia are going to partner together to create their next-generation AVs. Just so many cool companies: Lucid, Rivian, Xiaomi, and of course, Volvo. 

Just so many different companies. Wabby is building self-driving trucks. Aurora, we announced this week, is going to use Nvidia to build self-driving trucks. 

Autonomous 100 million cars are built each year; a billion vehicles are on the road all over the world, with a trillion miles driven around the world each year. That's all going to be either highly autonomous or fully autonomous coming up, and so this is going to be a very large, very large industry. I predict that this will likely be the first multi-trillion dollar robotics industry. 

This business, for us, um, notice in just a few of these cars that are starting to ramp into the world. Our business is already $4 billion, and this year probably on a run rate of about $5 billion, so really significant business already. This is going to be very large. 

Well, today we're announcing that our next generation processor for the car, our next generation computer for the car, is called Thor. I have one right here, hang on a second. Okay, this is Thor. 

This is Thor. This is a robotics computer. This robotics computer takes sensors and just a madness amount of sensor information processes it, you know, 18 cameras, high-resolution radar, LIDAR–they're all coming into this chip, and this chip has to process all that sensor data, turn them into tokens, put them into a transformer, and predict the next path. 

This AV computer is now in full production. Thor has 20 times the processing capability of our last generation, Orin, which is really the standard of autonomous vehicles today. So, this is just really quite incredible. 

Thor is in full production. This robotics processor, by the way, also goes... Into a full robot, and so it could be an AMR, it could be a human or robot, it could be the brain, it could be the manipulator. 

This processor, basically, is a universal robotics computer. The second part of our drive system that I'm incredibly proud of is the dedication to safety. Drive OS, I'm pleased to announce, is now the first software-defined programmable AI computer that has been certified up to ASIL D, which is the highest standard of functional safety for automobiles, the only and the highest. 

I'm really, really proud of this, ASIL ISO 26262. It is the work of some 15,000 engineering years. This is just extraordinary work, and as a result of that, CUDA is now a functional safe computer. 

So, if you're building a robot, NVIDIA CUDA. Yeah, okay. So, now I wanted to, I told you I was going to show you what we would use Omniverse and Cosmos to do in the context of self-driving cars. 

And, you know, today, instead of showing you a whole bunch of videos of cars driving on the road, I'll show you some of that too, but I want to show you how we use the car to reconstruct digital twins automatically using AI and use that capability to train future AM models. Okay, let's play it—the autonomous vehicle. Revolution is here. 

Building autonomous vehicles, like all robots, requires three computers: Nvidia DGX to train AI models, Omniverse to test drive and generate synthetic data, and Drive AGX, a supercomputer in the car. Building safe autonomous vehicles means addressing edge scenarios, but real-world data is limited, so synthetic data is essential for training. The autonomous vehicle data factory, powered by Nvidia Omniverse, AI models, and Cosmos, generates synthetic driving scenarios that enhance training data by orders of magnitude. 

First, OmniMap fuses map and geospatial data to construct drivable 3D environments. Driving scenario variations can be generated from replay drive logs or AI traffic generators. Next, a neuro reconstruction engine uses autonomous vehicle sensor logs to create high-fidelity 4D simulation environments. 

It replays previous drives in 3D and generates scenario variations to amplify training data. Finally, Edify 3DS automatically searches through existing asset libraries or generates new assets to create sim-ready scenes. The Omniverse scenarios are used to condition Cosmos to generate massive amounts of photorealistic data, reducing the sim-to-real gap. 

With text prompts, generate near-infinite variations of the driving scenario with Cosmos Neotron. Video search, the massively scaled synthetic data set combined with recorded drives can be curated to train models. NVIDIA's AI data factory scales hundreds of drives into billions of effective miles, setting the standard for safe and advanced autonomous driving. 

Is that incredible? We take thousands of drives and turn them into billions of miles. We are going to have mountains of training data for autonomous vehicles. Of course, we still need actual cars on the road; of course, we will continuously collect data for as long as we shall live. 

However, synthetic data generation using this Multiverse, physically based, physically grounded capability allows us to generate data for training AIs that are physically grounded and accurate and/or plausible, so that we could have an enormous amount of data to train with. The AV industry is here. This is an incredibly exciting time. 

Super, super, super excited about the next several years. I think you're going to see, just as computer graphics were revolutionized at such an incredible pace, you're going to see the pace of AV development increasing tremendously. Over the next several years, I think, I think, um, I think the next part is robotics. 

So, um, robots, my friends, the chat GPT moment for general robotics is just around the corner. In fact, all of the enabling technologies that I've been talking about are going to make it possible for us, in the next several years, to see very rapid breakthroughs, surprising breakthroughs in general robotics. Now, the reason why general robotics is so important is, whereas robots with tracks and wheels require special environments to accommodate them, there are three robots in the world that we can make that require no greenfield. 

Brownfield adaptation is perfect. If we could possibly build these amazing robots, we could deploy them in exactly the world that we've built for ourselves. These three robots are: one, agentic robots and agentic AI, because, you know, they're information workers. 

So, long as they could accommodate the computers that we have in our offices, it's going to be great. Number two, self-driving cars, and the reason for that is we spent 100-plus years building roads and cities. And then, number three, humanoid robots. 

If we have the technology to solve these three, this will be the largest… Technology industry, the world's ever seen, and so we think that the robotics era is just around the corner. The critical capability is how to train these robots. In the case of humanoid robots, the imitation information is rather hard to collect, and the reason for that is, in the case of cars, you just drive it; we're driving cars all the time. 

In the case of these robots, the imitation information, the human demonstration, is rather laborious to do. So, we need to come up with a clever way to take hundreds of demonstrations, thousands of human demonstrations, and somehow use artificial intelligence and Omniverse to synthetically generate millions of synthetically generated motions. From those motions, the AI can learn how to perform a task. 

Let me show you how that's done. Developers around the world are building the next wave of physical AI embodied robots. Developing general purpose robot models requires massive amounts of real world data, which is costly to capture and curate. 

Nvidia Isaac Groot helps tackle these challenges, providing humanoid robot developers with four things: robot foundation models, data pipelines, simulation frameworks, and a Thor robotics computer. The Nvidia... Isaac Groot's blueprint for synthetic motion generation is a simulation workflow for imitation learning, enabling developers to generate exponentially large data sets from a small number of human demonstrations. 

First, Groot Teleop enables skilled human workers to portal into a digital twin of their robot using the Apple Vision Pro. This means operators can capture data even without a physical robot, and they can operate the robot in a risk-free environment, eliminating the chance of physical damage or wear and tear. To teach the robot a single task, operators capture motion trajectories through a handful of teleoperated demonstrations, then use Groot Mimic to multiply these trajectories into a much larger data set. 

Next, they use Groot Gen, built on Omniverse and Cosmos for domain randomization and 3D tool upscaling, generating an exponentially larger data set. The Omniverse and Cosmos Multiverse simulation engine provides a massively scaled data set to train the robot policy. Once the policy is trained, developers can perform software-in-the-loop testing and validation in Isaac Sim before deploying to the real robot. 

The age of general robotics is arriving, powered by Nvidia Isaac Group. Going to have mountains of data to train robots with Nvidia Isaac Group. Nvidia Isaac Group, this is our platform to provide technology platform, technology elements to the robotics industry to accelerate the development of general robotics. 

And, well, I have one more thing that I want to show you. None of this, none of this would be possible if not for this incredible project that we started about a decade ago. Inside the company, it was called Project Digits, Deep Learning GPU Intelligence Training System Digits. 

Well, before we launched it, I shrunk at the DGX and harmonized it with RTX, AGX, OVX, and all of the other Xs that we have in the company. And, um, I, and, and it really re-used, uh, DGX1 really revolutionized. Where is DGX1? DGX1 revolutionized artificial intelligence. 

The reason why we built it was because we wanted to make it possible for researchers and startups to have an out-of-the-box AI supercomputer. Imagine the way supercomputers were built in the past. You really had to build your own facility, and you had to go build your own infrastructure and really engineer it into existence. 

So, we created a supercomputer for AI, for AI development, for researchers. And startups that come literally one out of the box. I delivered the first one to a startup company in 2016 called OpenAI, and Elon was there, and Ilia Suslov was there, and many of Nvidia engineers were there. 

And, um, we celebrated the arrival of DGX-1, and obviously, it revolutionized artificial intelligence and computing. But now, artificial intelligence is everywhere; it's not just in research and startup labs. You know, we want artificial intelligence, as I mentioned in the beginning of our talk; this is now the new way of doing computing. 

This is the new way of doing software. Every software engineer, every engineer, every creative artist, everybody who uses computers today as a tool, will need an AI supercomputer. And so, I just wish, I just wish that DGX-1 was smaller. 

And, um, you know, so, um, you know, imagine, ladies and gentlemen, this is Nvidia's latest AI supercomputer, and it's finally called Project DIGITS right now. And if you have a good name for it, reach out to us. Um, this is the amazing thing; this is an AI supercomputer. 

It runs the entire Nvidia AI stack. All of Nvidia software runs on this. DGX Cloud runs on this. 

This sits well somewhere, and it's wireless, or you know, connected. To your computer, it's even a workstation if you like it to be, and you could access it, you could reach it like a cloud supercomputer, and NVIDIA's AI works on it. It's based on a super secret chip that we've been working on, called GB 110, the smallest Grace Blackwell that we make. 

I have, well, you know what, let's show everybody insight. Isn't this just so cute? This is the chip that's inside. It is in production, this top secret chip. 

We did, in collaboration, the CPU, the Gray CPU was built for NVIDIA in collaboration with Mediatek. They're the world's leading SOC company, and they worked with us to build this CPU. This CPU connects with chip-to-chip NVLink to the Blackwell GPU, and this little thing here is in full production. 

We're expecting this computer to be available around May time frame, so it's coming at you. It's just incredible what we could do, and I think it's... you really... 

I was trying to figure out, do I need more hands or more pockets? All right, so imagine this is what it looks like. 

아, 잠깐 앉을 수 있는 의자가 있을까요? Michelob Ultra 한 잔만 주세요. 우리가 Michelob Ultra 스타디움에 있다는 게 말이 되나요? NVIDIA에 와서 GPU가 없다는 것과 같은 느낌이네요. 우리는 점점 더 커지는 모델들을 훈련시키기 위해 엄청난 계산량이 필요합니다. 그리고 이 추론 작업은 과거에는 단일 추론이었지만, 앞으로는 AI가 스스로와 대화를 나누게 될 겁니다.

AI는 생각하고, 내적으로 반성하고, 처리할 것입니다. 오늘날, 토큰이 생성될 때 초당 20~30개의 토큰이 나오면 대부분의 사람이 읽을 수 있는 속도와 비슷합니다. 하지만 미래에는, 그리고 현재 GP01, 새로운 사전 Gemini Pro 및 GP0103 모델로 AI가 스스로 대화하며 생각하고 반성합니다. 따라서, 토큰을 받아들이는 속도가 매우 높아질 것입니다.

이로 인해 토큰 생성 속도를 대폭 높여야 하며, 동시에 비용을 크게 낮춰야 서비스 품질이 뛰어나고 고객의 비용 부담이 낮아지며 AI가 계속 확장될 수 있습니다. 이것이 바로 우리가 MV Link를 만든 근본적인 이유입니다.

기업 세계에서 가장 중요한 발전 중 하나는 'Agentic AI'(에이전틱 AI)입니다. 에이전틱 AI는 테스트 시간 확장을 완벽히 보여주는 사례입니다. 이것은 여러 모델로 이루어진 AI 시스템입니다. 어떤 모델은 고객과 소통하고, 사용자와 상호작용합니다. 또 다른 모델은 데이터를 검색하거나, 저장소에서 정보를 검색하거나, RAG 같은 의미론적 AI 시스템을 실행합니다.

어떤 경우에는 인터넷에 접속하거나 PDF 파일을 분석하기도 합니다. 계산기 같은 도구를 사용하거나, 차트를 생성하는 생성형 AI를 사용할 수도 있습니다. 이는 사용자가 제시한 문제를 받아들여 단계별로 분해하고, 여러 모델을 반복적으로 실행하며 해결합니다.

미래에 AI가 고객에게 응답하기 위해서는 단순히 질문을 던지고 답변을 제공하는 것 이상이 필요합니다. 미래에는 질문 하나가 수많은 모델을 백그라운드에서 작동하게 만들 것입니다. 그래서 테스트 시간 확장, 즉 추론에 사용되는 계산량은 기하급수적으로 증가할 것입니다.

우리는 점점 더 나은 답변을 원하기 때문에 이 계산량은 크게 증가할 것입니다.

이를 지원하기 위해, 우리 시장 접근 전략은 기업 고객에게 직접 판매하는 것이 아닙니다. 우리는 IT 생태계 내 소프트웨어 개발자들과 협력하여 CUDA 라이브러리로 가능했던 새로운 기능을 AI 라이브러리로도 실현하려 합니다.

과거의 컴퓨팅 모델이 그래픽, 선형 대수, 유체 역학을 처리하는 API를 포함했던 것처럼, 앞으로는 이러한 가속 라이브러리 위에 AI 라이브러리가 추가될 것입니다.

우리는 에이전틱 AI 구축을 지원하기 위해 3가지 주요 도구를 개발했습니다. 첫 번째는 NVIDIA Nims입니다. Nims는 AI 마이크로서비스로, 매우 복잡한 CUDA 소프트웨어와 모델을 패키징하고 최적화한 후 컨테이너에 넣어 필요한 곳 어디에서나 사용할 수 있도록 합니다.

두 번째는 NVIDIA Nemo입니다. Nemo는 디지털 직원 온보딩과 훈련 평가 시스템입니다. 미래에는 이러한 AI 에이전트들이 디지털 워크포스가 되어 직원들과 함께 일할 것입니다.

세 번째는 Llama 3.1 모델 기반의 새로운 AI 모델군입니다. Llama 3.1은 메타에서 출시되었으며, 이를 기반으로 더 향상된 모델들을 개발했습니다.

Llama 3.1은 놀라운 혁신입니다. Meta에서 제공한 Llama 3.1은 35만에서 65만 번 다운로드되었고, 이를 기반으로 약 6만 개 이상의 다른 모델들이 개발되었습니다. 이 모델은 모든 기업과 산업이 AI 작업을 시작하도록 활성화한 단일한 이유 중 하나입니다.

우리는 Llama 모델을 더욱 기업 환경에 적합하게 개선할 수 있다고 판단했습니다. 이를 위해 우리의 전문성과 역량을 활용해 모델을 미세 조정했으며, 이를 'Llama Neotron'이라는 새로운 오픈 모델군으로 발전시켰습니다.

이 모델군에는 작고 빠른 반응 시간을 가진 모델에서부터 대규모 고성능 '울트라' 모델까지 다양한 버전이 포함되어 있습니다. 울트라 모델은 여러 모델의 교사 역할을 하거나, 평가 모델로 사용되어 다른 모델이 생성한 답변의 품질을 판단하고 피드백을 제공하는 데 사용할 수 있습니다.

이 모든 것이 이제 온라인에서 제공됩니다. 이 모델들은 대화, 명령 실행, 검색 등 다양한 AI 에이전트 기능에서 최고의 성능을 자랑합니다.

우리는 또한 NVIDIA의 AI 기술들을 다양한 산업 분야에 통합하고 있습니다. ServiceNow, SAP, Siemens와 같은 회사들과 협력하여 산업용 AI를 발전시키고 있으며, Perplexity와 같은 파트너들과 함께 검색 기술을 혁신하고 있습니다.

다음으로 큰 AI 응용 분야는 소프트웨어 코딩이 될 것입니다. 전 세계에는 약 3천만 명의 소프트웨어 엔지니어가 있으며, 모두가 AI 기반의 소프트웨어 어시스턴트를 사용해 코드를 작성할 것입니다. 그렇지 않으면 생산성이 크게 떨어질 것이고 코드 품질도 낮아질 것입니다.

AI 에이전트는 새로운 디지털 노동력으로, 우리와 함께 일하며 문제를 해결할 것입니다. AI 에이전트는 특정 작업에 특화된 전문가입니다. 예를 들어, 연구 보조 AI 에이전트는 복잡한 문서(강의, 논문, 재무 보고서 등)를 분석하고, 이를 대화형 팟캐스트 형태로 변환하여 학습을 돕습니다.





You know, who doesn't want one of those? And if you use PC, Mac, you know, anything because, you know... It's a cloud platform; it's a cloud computer platform that sits on your desk. You could also use it as a Linux workstation if you like. 

If you would like to have double digits, this is what it looks like. You know, you connect it together with ConnectX, and it has nickel GPU direct, all of that out of the box. It's like a supercomputer. 

Our entire supercomputing stack is available, and so Nvidia Project Digits. Okay, well, let me tell you what I told you. I told you that we are in production with three new Blackwells. 

Not only is the Grace Blackwell supercomputers NVLink 72s in production all over the world, but we now have three new Blackwell systems in production. One amazing AI foundational model, the world's first physical AI foundation model, it's open and available to activate the world's industries of robotics and such. And three robotics, three robots we're working on, agentic AI, human-robot interactions, and self-driving cars. 

It's been an incredible year. I want to thank all of you for your partnership and thank all of you for coming. I made you a short video to reflect on last year and look forward to the next year. 

Please have a great CES, everybody! Happy New Year! Here, thank you.

 

 

그런 걸 원하지 않는 사람이 어디 있겠어요? 그리고 PC, Mac, 뭐든 사용한다면 아시다시피... 책상 위에 놓여 있는 클라우드 컴퓨터 플랫폼이 바로 클라우드 플랫폼입니다. 원한다면 리눅스 워크스테이션으로 사용할 수도 있습니다. 두 자릿수를 원한다면 이렇게 생겼습니다.

ConnectX와 함께 연결하면 니켈 GPU 다이렉트 등 모든 기능이 기본으로 제공됩니다. 마치 슈퍼컴퓨터와 같습니다. 전체 슈퍼컴퓨팅 스택을 사용할 수 있으므로 Nvidia 프로젝트 디지츠도 마찬가지입니다. 좋아요, 제가 말씀드린 내용을 다시 말씀드리겠습니다.

세 대의 새로운 블랙웰을 생산 중이라고 말씀드렸습니다. 전 세계에서 생산 중인 그레이스 블랙웰 슈퍼컴퓨터 NV링크 72뿐만 아니라, 이제 새로운 블랙웰 시스템 세 대가 생산 중입니다.

세계 최초의 물리적 AI 기초 모델인 이 놀라운 AI 기초 모델은 전 세계 로봇 공학 등의 산업을 활성화하기 위해 개방되어 있습니다. 그리고 우리가 연구 중인 세 가지 로봇, 에이전트 AI, 인간과 로봇의 상호작용, 자율 주행 자동차 등 세 가지 로봇 공학이 있습니다.

정말 놀라운 한 해였습니다. 여러분 모두의 파트너십에 감사드리며, 참석해주신 모든 분들께도 감사의 말씀을 전하고 싶습니다. 작년을 돌아보고 내년을 기대하며 짧은 영상을 준비했습니다. 여러분 모두 즐거운 CES 보내세요! 새해 복 많이 받으세요! 감사합니다.

 

 


<기조연설 요약> 


기술과 인류의 만남에서 얻는 가능성은?

 

CES 2025는 단순히 다음 기술을 논하는 자리가 아니라 가능성에 대한 담론의 장이에요.
기술은 도전 과제를 해결하는 것에 그치지 않고, 그것들을 기회로 변환시켜요.
우리는 기술을 통해 더 스마트하게 움직이고, 더 건강하게 살며, 상상도 못 했던 방식으로 세상을 경험하죠.
기술은 발전만 하고 있는 것이 아니라 우리를 더욱 연결시키고 자율적인 미래로 인도하며 삶을 더욱 역동적이고 인간적으로 만든답니다.
오늘날의 도전 과제는 과감한 해결책이 필요하며, CES가 그 출발점이 되죠..

 

AI와 토큰의 혁신적 가능성은?

토큰은 AI의 새로운 혁신을 가능하게 하며, 단어를 지식으로 변환하고 이미지를 생명력 있게 만든답니다.
이들은 아이디어를 비디오로 전환하고 다양한 환경에서의 안전한 탐색을 돕는 역할을 하지요.
과거 30년 동안, GPU의 발전은 컴퓨터 그래픽스를 가능하게 했으며, 예를 들어, 세가의 가상 전투기는 현재 완전한 영화 같은 경험으로 발전했어요.
AI는 오늘날 모든 컴퓨팅의 층위를 혁신하고 있으며, 특히 트랜스포머 기술의 발전이 AI의 성장을 가속화했답니다.
인공지능은 이제 텍스트, 이미지 등 다양한 정보를 이해하고 생성하며, 기존의 한계들을 뛰어넘는 새로운 가능성을 열어가고 있어요..


RTX Blackwell 시리즈의 주요 특징은?

RTX Blackwell 시리즈의 GeForce RTX 5050 모델은 92억 개 트랜지스터와 4,000 TOPS, 4 페타플롭스의 AI 성능을 자랑해요.
이는 이전 세대보다 세 배 향상된 수치죠.
GDDR7 메모리를 사용하여 1.8 테라바이트/초의 속도를 제공하며, 이는 지난 세대의 두 배 성능이에요.
새로운 프로그래머블 셰이더는 신경망을 처리할 수 있으며, 이를 통해 신경 텍스처 압축 및 신경 재질 음영 기술이 개발되었죠.
RTX 570 모델은 $549 가격에 RTX 490 성능을 가지며, RTX 590은 RTX 4090의 두 배 성능을 제공해요.
블랙웰 아키텍처는 모든 클라우드 서비스 제공업체에 적용 가능하며, 약 200가지 SKU와 45개 공장에서 생산되고 있죠..

 

에이전틱 AI와 NVIDIA의 혁신은 무엇인가요?

에이전틱 AI는 고객과 상호작용하며 문제를 분해하고 다양한 모델을 통해 적합한 응답을 생성하면서 스케일업이 가능하죠.
MV Link의 목적은 AI의 토큰 생성 속도를 증가시키고 비용을 낮추면서 서비스 품질을 향상시키기 위함이에요.
NVIDIA Nims와 Nemo는 AI 마이크로서비스와 디지털 직원 교육 시스템으로, 복잡한 소프트웨어를 최적화하고 컨테이너화하여 쉽게 사용할 수 있도록 하죠.
Llama Neotron 모델들은 기업에서 AI 사용을 활성화하기 위해 세밀하게 조정되어 다양한 작업에 효과적으로 활용될 수 있어요.
또한 Nvidia Cosmos는 물리적 세계를 이해하기 위해 개발된 세계 기반 모델로, 20 million 시간의 동영상 데이터를 학습하여 물리적 AI의 발전을 이끌고 있죠..

 



NVIDIA의 클라우드 플랫폼은 어떤 특징이 있을까?

클라우드 플랫폼은 사용자가 PC, Mac 등 다양한 기기에서 접근할 수 있는 클라우드 컴퓨터 플랫폼으로 소개된답니다.
이 플랫폼은 리눅스 작업 공간으로도 활용 가능하며, 듀얼 디지털 지원이 특징이에요.
NVIDIA는 슈퍼컴퓨터와 같은 여러 기능을 제공하는 완벽한 슈퍼컴퓨팅 스택을 발표하며, 이를 통해 AI와 로봇 산업을 지원할 계획이라고 언급되죠.
최근 세 가지 새로운 블랙웰 시스템이 생산에 들어갔으며, 그레이스 블랙웰 슈퍼컴퓨터가 전 세계적으로 사용되고 있답니다.
세계 최초의 물리적 AI 기반 모델이 활성화되어 로봇 산업에 적용될 수 있도록 준비되고 있으며, 자율주행차 및 인간-로봇 상호작용을 위한 세 가지 로봇에 대한 개발이 진행 중이에요..

728x90
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2025/05   »
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함