Nvidia GTC Conference Full Text: Jensen Huang Announces the Era of Inference Has Arrived, Robotaxi is the New Operating System!

Источник: 华尔街见闻

撰文:鲍奕龙

На конференции GTC 2026 генеральный директор NVIDIA 黄仁勋 обозначил компанию как создателя «AI-заводов», заявив, что «к 2027 году ожидается как минимум один триллион долларов высокоубежденных потребностей». Он представил «экономику токен-заводов», подчеркнув, что производительность на ватт — это ключ к коммерческому монетизации. 黄仁勋 утверждает, что агенты (искусственные интеллектуальные системы) положат конец традиционной модели SaaS, и в будущем «годовая зарплата + бюджет на токены» станет новым стандартом в профессиональной сфере.

Приветственное слово

Ведущий: Добро пожаловать на сцену основатель и генеральный директор NVIDIA 黄仁勋.

黄仁勋, основатель и CEO:

Добро пожаловать на GTC. Это технологическая конференция, и очень приятно видеть так много людей, стоящих в очереди с раннего утра.

Сегодня мы обсудим три основные платформы: платформу CUDA-X, системную платформу и совершенно новую платформу AI-заводов. Конечно, самое важное — это экосистема.

Прежде всего, я хочу поблагодарить наших «предварительных разогревающих» ведущих, которые отлично справились: Sarah Guo из Conviction, Alfred Lin из Sequoia Capital (первый венчурный инвестор NVIDIA) и Gavin Baker, первый крупный институциональный инвестор NVIDIA. Эти три человека глубоко понимают технологии и имеют широкое влияние в технологической экосистеме. Также благодарю всех VIP-гостей, которых я лично отобрал.

Также благодарю все компании-участники. NVIDIA как платформа обладает технологиями, платформой и богатой экосистемой. Сегодня здесь почти все компании, охватывающие триллионные индустрии — 450 спонсоров, спасибо вам большое.

На конференции запланировано 1000 технических сессий, выступит 2000 спикеров, охватывающих все «пять уровней» искусственного интеллекта — от земли, электросетей и инфраструктуры до чипов, платформ, моделей и приложений, которые в конечном итоге поднимут всю индустрию.

20 лет CUDA

Этот год — 20-летие CUDA.

За эти 20 лет мы постоянно работали над этой архитектурой — революционным изобретением: SIMT (Single Instruction Multiple Threads), позволяющим преобразовать скалярный код в многопоточные приложения, что проще в программировании, чем традиционные методы. В последние годы мы добавили поддержку Tiles (плитки), чтобы разработчики могли проще программировать Tensor Core и современные математические структуры AI.

На сегодняшний день CUDA накопила тысячи инструментов, компиляторов, фреймворков и библиотек, сотни тысяч открытых проектов в сообществе с открытым исходным кодом и глубоко интегрирована во все основные экосистемы.

Эффект маховика и база установки

Следующая диаграмма в основном отображает всю стратегию NVIDIA.

Самое сложное и стратегически важное — это базовая инфраструктура установки. За 20 лет мы создали миллиарды GPU и вычислительных систем, работающих на CUDA, по всему миру. Мы охватили всех облачных провайдеров и производителей компьютеров, обслуживая практически все отрасли.

База установки CUDA — это фундамент для ускорения маховика. Огромная база привлекает разработчиков, которые создают новые алгоритмы, а эти алгоритмы приводят к прорывам — например, появлению глубокого обучения. Эти прорывы открывают новые рынки, в которых появляется больше партнеров-экосистем, что увеличивает базу установки. Этот маховик продолжает ускоряться.

Сейчас загрузки библиотек NVIDIA растут с поразительной скоростью, и этот рост не замедляется. Такой маховик позволяет платформе постоянно поддерживать огромное количество приложений и технологических прорывов.

Более того, он обеспечивает очень долгий срок службы инфраструктуры. Всё просто: CUDA может запускать широкий спектр приложений — на всех этапах жизненного цикла AI, на всех платформах обработки данных и в различных научных расчетных системах. Поэтому, установив GPU NVIDIA, вы получаете очень долгий срок эксплуатации.

Это объясняет, почему архитектура Ampere, выпущенная шесть лет назад, до сих пор дорожает в облаке.

Параллельно, по мере обновления программного обеспечения, снижаются вычислительные затраты — это не только рост производительности при первоначальной развертке, но и долгосрочные эффекты снижения стоимости благодаря ускоренным вычислениям. Поскольку все GPU совместимы по архитектуре, мы продолжаем поддерживать и обслуживать каждую карту по всему миру. Чем больше база установки, тем больше пользователей выигрывают от новых оптимизаций.

Эта динамическая комбинация позволяет архитектуре NVIDIA расширять охват, ускорять рост и одновременно снижать стоимость вычислений, что в свою очередь стимулирует новый виток развития.

Загрузка библиотек CUDA

На сегодняшний день загрузки библиотек NVIDIA растут с поразительной скоростью, и этот тренд только усиливается. Этот маховик позволяет платформе постоянно поддерживать огромное количество приложений и технологических прорывов.

Более того, он обеспечивает очень долгий срок службы инфраструктуры. Всё просто: CUDA поддерживает широкий спектр приложений — на всех этапах жизненного цикла AI, на всех платформах обработки данных и в различных научных расчетных системах. Поэтому, установив GPU NVIDIA, вы получаете очень долгий срок эксплуатации.

Это объясняет, почему архитектура Ampere, выпущенная шесть лет назад, до сих пор дорожает в облаке.

Параллельно, по мере обновления программного обеспечения, снижаются вычислительные затраты — это не только рост производительности при первоначальной развертке, но и долгосрочные эффекты снижения стоимости благодаря ускоренным вычислениям. Поскольку все GPU совместимы по архитектуре, мы продолжаем поддерживать и обслуживать каждую карту по всему миру. Чем больше база установки, тем больше пользователей выигрывают от новых оптимизаций.

Эта динамическая комбинация позволяет архитектуре NVIDIA расширять охват, ускорять рост и одновременно снижать стоимость вычислений, что в свою очередь стимулирует новый виток развития.

Начало CUDA: GeForce

Путешествие CUDA фактически началось 25 лет назад с GeForce.

GeForce — это самая успешная маркетинговая кампания NVIDIA. Мы начали привлекать будущих клиентов еще тогда, когда вы были малы и не имели покупательной способности — ваши родители платили за вас, из года в год, пока однажды вы не выросли и не стали отличными специалистами в области компьютерных наук, настоящими разработчиками.

25 лет назад мы изобрели программируемый шейдер — первый в мире программируемый ускоритель, точка отсчета пиксельных шейдеров. Это изобретение побудило нас к дальнейшим исследованиям, и через 5 лет появилось CUDA.

Распространение CUDA с GeForce на все компьютеры — одна из наших крупнейших инвестиций того времени. Даже когда это было трудно по финансам, оно поглотило большую часть прибыли компании. Мы верили в его потенциал, и, несмотря на трудности в начале, за 20 лет и 13 поколений архитектур CUDA стало вездесущим.

Около 8 лет назад мы выпустили RTX, полностью переработав архитектуру, введя два новых принципа: аппаратное трассирование лучей и графику на базе AI. Как GeForce привнес AI в мир — позволив Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton, Andrew Ng и другим понять, что GPU — это мощный инструмент для ускорения глубокого обучения, что вызвало взрыв AI — так и сейчас AI полностью преобразит компьютерную графику.

Нейронное рендеринг: DLSS 5

Сегодня я хочу показать вам будущее графических технологий. Мы называем его нейронным рендерингом — слиянием 3D-графики и искусственного интеллекта, это DLSS 5.

Впечатляет, да? Мы объединяем управляемую 3D-графику (структурированные данные виртуального мира) с генеративным AI (вероятностные вычисления): один — полностью предсказуемый, другой — вероятностный, но очень реалистичный. В результате получается контент, который одновременно красив и реалистичен, и полностью управляем.

Слияние структурированных данных и генеративного AI будет повторяться во многих отраслях. Структурированные данные — основа доверенного AI.

Платформы структурированных и неструктурированных данных

Следующая диаграмма, возможно, удивит вас, но прошу терпения — я объясню.

Структурированные данные — SQL, Spark, Pandas, Velox, а также важные платформы Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery — все работают с DataFrame. Эти DataFrame — гигантские таблицы, содержащие всю бизнес-информацию, — «базовые факты» предприятий.

В эпоху AI эти структурированные данные будут быстро использоваться AI, поэтому их нужно максимально ускорить. В будущем агенты AI широко будут использовать структурированные базы данных.

Неструктурированные данные — это большинство информации в мире: векторные базы данных, PDF, видео, аудио… Ежегодно создаваемая информация — около 90% — это неструктурированные данные. Раньше эти данные почти не имели ценности — мы сохраняли их в файловых системах, но не могли их искать или запрашивать.

Теперь AI меняет всё. Как AI решает задачи мультимодального восприятия и понимания, так и эти технологии позволяют читать PDF, понимать их смысл и интегрировать в более крупные структуры, которые можно искать и запрашивать.

Для этого NVIDIA создала два базовых библиотеки:

cuDF — для ускорения работы с DataFrame и структурированными данными

cuVS — для ускорения хранения векторов, семантических данных и неструктурированных AI-данных

Эти платформы станут одними из самых важных вычислительных платформ будущего.

Сегодня мы объявляем о нескольких партнерствах:

IBM (изобретатель SQL) использует cuDF для ускорения своей платформы WatsonX Data

Dell совместно с нами создает платформу Dell AI Data, объединяя cuDF и cuVS, специально для эпохи AI

Google Cloud: мы ускоряем их платформы Vertex AI и BigQuery; например, помогли Snapchat снизить вычислительные затраты почти на 80%

AWS: мы ускоряем EMR, SageMaker и Bedrock, а также интегрируем OpenAI в AWS для масштабного использования облачных ресурсов

Microsoft Azure: мы ускоряем Azure AI Foundry, поддерживаем Bing Search и расширяем региональные развертывания Azure

CoreWeave: крупнейшее в мире облако, созданное специально для AI и GPU-инференции

Oracle: наш первый клиент среди компаний Oracle AI

Palantir + Dell: тройное партнерство — развертывание AI-платформ в любой стране, в любой изолированной зоне, полностью локально

Ключевая стратегия NVIDIA: вертикальная интеграция и горизонтальное открытие

NVIDIA — первая в мире компания, сочетающая вертикальную интеграцию и горизонтальное открытие в области вычислений.

Ускоренные вычисления — это не только вопрос чипов или систем, это вопрос ускорения приложений. Чтобы постоянно обеспечивать значительное ускорение и снижение затрат в каждой области, нужно глубоко понимать приложения, области и алгоритмы, а также внедрять решения в каждом сценарии — будь то дата-центр, локальная установка, периферийные системы или роботы.

Именно поэтому NVIDIA сосредоточена на развитии вертикальных сегментов. Мы интегрируем алгоритмы в вычислительные платформы и открываем их всему миру.

На этой GTC практически охвачены все вертикальные сегменты экосистемы NVIDIA, включая:

Автономное вождение

Финансовые услуги (самая крупная отрасль среди участников GTC, где больше всего разработчиков, а не трейдеров)

Медицина и здравоохранение (проходит «момент ChatGPT»)

Промышленное производство

Развлечения и игры

Робототехника (110 роботов на выставке, почти все роботизированные компании сотрудничают с NVIDIA)

Телекоммуникации (отрасль примерно на 2 трлн долларов, базовые станции станут инфраструктурой AI-края)

На этой конференции мы объявили о 100 обновлениях библиотек и около 40 моделей. Эти библиотеки — ключевые активы компании, они активируют вычислительную платформу и решают реальные задачи.

Одной из важнейших библиотек является cuDNN (CUDA Deep Neural Network library), которая революционизировала искусственный интеллект и вызвала современный AI-бум.

Наступление эпохи inference

Что произошло за последние два года? Три ключевых события:

Первое: запуск эпохи ChatGPT и генеративного AI (конец 2022 — 2023). AI стал не только воспринимать и понимать, но и переводить, создавать и генерировать новые материалы. Генеративные вычисления кардинально изменили архитектуру и логику построения компьютеров.

Второе: рост роли inference AI (модели o(1) и o(3)). inference AI позволяет моделям размышлять, планировать, разбивать сложные задачи на управляемые шаги, что повышает доверие и основано на фактах. Это вызвало резкий рост использования ChatGPT и увеличило объем вычислений для входных и выходных токенов.

Третье: появление Claude Code и Agentic AI. Это первая по-настоящему агентная модель, способная читать файлы, писать код, компилировать, тестировать, оценивать и итеративно улучшать. Claude Code полностью меняет программную инженерию. Сейчас все инженеры NVIDIA используют AI-агентов для помощи в программировании.

Искусственный интеллект прошел путь от «восприятия» к «созданию», от «генерации» к «рассуждению» и, наконец, к «исполнению» — сегодня AI способен выполнять действительно продуктивные задачи.

Эпоха inference уже наступила. Каждое размышление, выполнение, чтение и рассуждение AI требуют inference, а потребность в токенах — взрывной рост. За последние два года вычислительный спрос на одну задачу увеличился примерно в 10 000 раз, а объем использования — примерно в 100 раз, что в сумме дает почти миллионный рост общего спроса.

От 500 миллиардов до 1 триллиона долларов

На GTC прошлого года я говорил, что ожидаем к 2026 году спрос на высокоубежденные потребности Blackwell и Rubin примерно в 500 миллиардов долларов.

Сегодня, ровно через год после GTC, я ясно вижу: по меньшей мере к 2027 году спрос достигнет 1 триллиона долларов.

И я уверен, что реальные вычислительные потребности будут значительно выше.

Прошлый год — год inference для NVIDIA. Мы полностью сосредоточены на том, чтобы обеспечить превосходную работу на всех этапах жизненного цикла AI — от обучения до постобучения, чтобы инфраструктурные инвестиции могли долго приносить пользу.

Нам также приятно видеть, что Anthropic выбрала NVIDIA, а Meta SL — тоже. В настоящее время открытые модели приближаются к передовым уровням и повсюду. NVIDIA — единственная в мире платформа, которая охватывает все области AI: язык, биологию, компьютерную графику, компьютерное зрение, речь, белки и химию, робототехнику — и все модели AI, от edge до облака, для всех сценариев.

Наша архитектура «функциональной переносимости» (Fungibility) делает платформу минимальной по стоимости и максимальной по надежности при создании AI-инфраструктуры. Вложив триллионы долларов в инфраструктуру, вы должны быть уверены — NVIDIA — единственная в мире платформа, которая позволяет вам с полной уверенностью развертывать системы в облаке, локально или в любой стране.

На сегодняшний день 60% наших бизнесов — это крупнейшие облачные провайдеры, остальные 40% — региональные облака, суверенные облака, предприятия, промышленность, робототехника, периферия и суперкомпьютеры. Такое разнообразие охвата — залог устойчивости: AI уже не ограничивается одним приложением, а превращается в настоящую платформу вычислений.

Прорыв в inference

Мы достигли фундаментального прорыва в оптимизации inference:

Это самое всестороннее оценивание производительности AI inference (от Semi Analysis). Ключевые параметры:

Вертикальная ось (токенов на ватт): отражает пропускную способность. Каждый дата-центр ограничен по электроэнергии: фабрика на 1 ГВт не может стать на 2 ГВт, нужно максимально использовать имеющуюся мощность.

Горизонтальная ось (скорость inference / токенов в секунду): отражает интерактивность и «умность» AI. Чем быстрее, тем больше модель, длиннее контекст, глубже размышления — тем «умнее».

Результаты поражают:

От Hopper H200 до Grace Blackwell ожидаемый эффект по закону Мура — 1,5 раза — на самом деле достигает 35-кратного повышения ваттной эффективности. Dylan Patel из Semi Analysis даже отметил, что мои оценки слишком консервативны — на самом деле это 50-кратный рост.

Это означает, что стоимость одного токена у NVIDIA — самая низкая в мире. Строительство дата-центра на 1 ГВт стоит примерно 40 миллиардов долларов (амортизация за 15 лет). Эти фиксированные затраты необходимо окупить, поэтому нужно установить максимально производительную систему, чтобы минимизировать стоимость токена. На сегодняшний день это невозможно превзойти.

Например, у Fireworks AI: после обновления их программного обеспечения скорость токенов увеличилась с примерно 700 до почти 5000 токенов в секунду — рост в 7 раз. Вот сила максимально скоординированного дизайна.

Бизнес-логика фабрики токенов:

В будущем каждый облачный провайдер и AI-компания будет рассматривать свой бизнес с точки зрения фабрики токенов. Разные уровни скорости токенов — разные уровни сервиса и цены:

Бесплатный уровень: высокая пропускная способность, низкая скорость

Базовый уровень: около 3 долларов за миллион токенов

Стандартный уровень: около 6 долларов за миллион токенов

Премиум: около 45 долларов за миллион токенов

Эксклюзивный: около 150 долларов за миллион токенов (высокая скорость, длинный контекст, крупные модели)

Например, у Grace Blackwell: по сравнению с Hopper, в наиболее коммерчески ценной категории сервиса пропускная способность выросла в 35 раз, что значительно увеличивает потенциальную прибыль и повышает доходность дата-центра примерно в 5 раз.

Vera Rubin: следующая архитектура

Теперь я показываю не только чип, а всю систему — это Vera Rubin.

Vera Rubin специально создана для агентных систем. Ее ключевая логика очень ясна:

Большие языковые модели будут становиться все больше, требовать больше токенов, быстрее размышлять;

AI-агенты будут часто обращаться к памяти (KV Cache), структурированным данным (cuDF) и неструктурированным данным (cuVS);

хранилища будут испытывать огромную нагрузку;

инструменты требуют очень высокой однопоточной производительности CPU.

Для этого мы создали новый Vera CPU — единственный в мире дата-центрный процессор с LPDDR5, сочетающий очень высокую однопоточную производительность, отличную обработку данных и невероятную энергоэффективность.

Ключевые особенности системы Vera Rubin:

100% жидкостное охлаждение, значительное упрощение кабельной инфраструктуры

Время установки сокращено с двух дней до двух часов

Охлаждение горячей водой при 45°C — значительно снижает энергопотребление на охлаждение дата-центров

Оснащен шестым поколением NVLink (единственный в мире) — полностью жидкостное охлаждение, очень сложная реализация, горжусь командой

Первый в мире коммутатор CPO Spectrum-X (с оптической интеграцией) — уже серийное производство: фотонные компоненты интегрированы прямо в чип, электронные сигналы преобразуются в фотонные и напрямую подключаются к чипу. Эта технология совместно разработана с TSMC, и мы — единственные в мире, кто серийно производит такие устройства, называемые «CoOP», что полностью революционно.

Все серии CPU также запущены в массовое производство и станут бизнесом стоимостью в миллиарды долларов.

Rubin Ultra (ультраверсия):

Rubin Ultra использует новую стойку «Kyber», поддерживающую 144 GPU в едином NVLink-области. Узлы вставляются спереди, NVLink-коммутатор соединен сзади через межплатный модуль, образуя гигантский суперкомпьютер.

В плане дорожной карты:

Blackwell (текущий): система Oberon, поддержка NVLink 72

Vera Rubin: стойка Kyber (NVLink 144) + расширение Copper (NVLink 576) с помощью кабелей и оптики

Vera Rubin Ultra: чип Rubin Ultra + LP 35 (впервые с архитектурой NVFP 4)

Feynman (следующее поколение): полностью новая GPU + LP 40 + CPU Rosa (Розалин) + Bluefield 5 + CX 10 + расширения с кабелями и CPO двойного режима

Поглощение Grok и прорывы в гетерогенной inference

Мы приобрели команду Grok и получили лицензию на технологии для глубокой интеграции.

Основные особенности процессоров Grok:

Детерминированный поток данных, статическая компиляция, управление расчетами через компилятор

Данные и вычисления поступают одновременно, управление полностью программное, без динамического планирования

Обладает огромным объемом SRAM, специально разработан для задач inference

Ограничение — один Grok-чип содержит всего 500 МБ памяти (по сравнению с 288 ГБ у Rubin), что не позволяет вместить большие модели и KV Cache, ограничивая масштабируемость — пока у нас не появился гениальный замысел.

Dynamo: decoupled inference framework

Мы разработали программное обеспечение Dynamo, которое перестраивает процесс inference:

Предварительная подготовка (Prefill): выполняется на Vera Rubin (требует много вычислительных ресурсов)

Расчет внимания (Attention) на этапе декодирования: также на Vera Rubin (требует много ресурсов)

Генерация токенов и фидфорвардные сети (FFN): на Grok-чипах (требует высокой пропускной способности и низкой задержки)

Два совершенно разных процессора — один для высокой пропускной способности, другой для низкой задержки — связаны через Dynamo, что снижает задержку примерно на 50%.

Результат: в наиболее коммерчески ценной категории сервиса производительность выросла в 35 раз, открыв совершенно новый уровень inference.

Grok LP 30 — производится Samsung, уже в массовом производстве, поставки начнутся в третьем квартале 2026 года.

Оптимальная стратегия развертывания Grok:

Если нагрузка ориентирована на высокую пропускную способность — 100% Vera Rubin

Если требуется много высокоценного кода или высокая скорость токенов — рекомендуется выделить 25% мощности под Grok, остальные 75% оставить для Vera Rubin.

Масштаб и перспективы AI-заводов

В заводе мощностью один гигаватт за два года благодаря оптимизации архитектуры скорость генерации токенов увеличится с 22 миллионов до 700 миллионов — рост в 350 раз.

Это и есть сила максимальной координации — вертикальной интеграции и горизонтального открытого доступа, чтобы все могли разделить этот успех.

По мере быстрого расширения AI-заводов возникает важная проблема: ранее поставщики технологий в дата-центрах развивали свои системы независимо, что приводило к значительным потерям энергии.

Для решения этого мы создали платформу NVIDIA DSX, основанную на Omniverse, которая позволяет всем партнерам совместно проектировать гигаваттные AI-заводы в виртуальной среде — моделировать механические системы, тепловое управление, электроснабжение, сеть, а также подключаться к электросетям в реальном времени и динамически оптимизировать энергопотребление и охлаждение с помощью Max-Q.

Мы уверены, что только эта платформа может дать примерно вдвое более эффективное использование ресурсов — при стоимости инфраструктуры в триллионы долларов это огромная ценность.

Кроме того, NVIDIA выйдет на космос: чип Thor прошел радиационное тестирование и уже установлен на спутниках. Мы совместно с партнерами разрабатываем Vera Rubin Space-1 — космический дата-центр (преодолевая инженерные задачи радиационного охлаждения).

OpenClaw: операционная система AI-агентов

Теперь расскажу о важном новом открытии.

Питер Штайнбергер создал программное обеспечение под названием OpenClaw. Оно стало самым популярным проектом с открытым исходным кодом за всю историю, за несколько недель превзойдя по распространенности Linux за тридцать лет.

Что такое OpenClaw? Это агентная система, которая умеет:

подключаться к крупным языковым моделям

использовать инструменты и файловые системы

выполнять планирование и расписания задач

разбивать проблему на последовательные подзадачи

генерировать и вызывать под-агентов

поддерживать мультимодальное взаимодействие (текст, речь, жесты и др.)

Иными словами, OpenClaw — это операционная система для агентных компьютеров. Как Windows сделала возможным персональный компьютер, так и OpenClaw делает возможным персонального агента.

Ключевой вопрос каждой компании: какая у вас стратегия по OpenClaw?

Как раньше каждая компания нуждалась в стратегии Linux, HTTP/HTML или Kubernetes, так и сегодня — в стратегии OpenClaw и агентных систем.

Парадигма корпоративных ИТ:

старый подход: хранение файлов в дата-центрах → программные инструменты → инструменты для человека

новый подход: каждая SaaS-компания станет AaaS (Agentic as a Service), предоставляя профессиональные агентные услуги.

Однако внутри компаний агентные системы несут серьезные риски безопасности: они могут иметь доступ к конфиденциальной информации, выполнять код, взаимодействовать с внешним миром. Поэтому мы совместно с Питером Штайнбергером и ведущими специалистами по безопасности создали версию OpenClaw Enterprise, основанную на технологии OpenShell, с системой правил, сетевыми барьерами и маршрутизаторами конфиденциальности, — это эталонная архитектура корпоративной безопасности, которую мы назвали NemoClaw и которую можно скачать и использовать сразу.

План открытых моделей NVIDIA

NVIDIA занимает лидирующие позиции по моделям в каждой области AI:

Модель Область

Nemotron — крупные языковые модели

Cosmos — базовые модели мира

GROOT — универсальные робототехнические модели

Alpamayo — автоматизированное вождение

BioNeMo — цифровая биология и фармацевтика

PhysicsNeMo — физическое моделирование на базе AI

Сегодня мы объявляем о создании альянса Nemotron, в который вошли компании:

BlackForest Labs (генерация изображений)

Cursor (редактирование кода)

LangChain (фреймворк для построения кастомных агентных систем, миллиард загрузок)

Mistral (открытая крупная модель)

Perplexity (AI-поиск)

Reflection (мультимодные агентные системы)

Sarvam (индийская AI-компания)

Thinking Machines (лаборатория, основанная Мира Мурати)

Эти компании совместно с нами интегрируют референс-дизайн NemoClaw, инструментарий агентного AI NVIDIA и весь спектр открытых моделей в свои продукты и сервисы.

Физический AI и робототехника

Помимо цифровых агентов, мы давно работаем в области физического AI и робототехники.

Для робототехнических систем мы создали три ключевых вычислительных комплекса:

обучающий компьютер

систему генерации синтетических данных и моделирования

встроенный компьютер в роботе

Мы тесно сотрудничаем с Siemens, Cadence и другими партнерами и объявляем о ряде крупных проектов:

Автономное вождение: эпоха «ChatGPT» в автономных машинах уже наступила. Сегодня мы объявляем о сотрудничестве с четырьмя новыми партнерами по RoboTaxi: BYD, Hyundai, Nissan и Geely, а также с ранее сотрудничавшими Mercedes, Toyota и GM, которые ежегодно производят 18 миллионов автомобилей и полностью подключены к платформе NVIDIA RoboTaxi Ready. Также мы заключили важное соглашение с Uber о развертывании RoboTaxi в нескольких городах и подключении их к своей сети.

Промышленные роботы: мы сотрудничаем с ABB, Universal Robots, KUKA и Caterpillar, интегрируя физические AI-модели и системы моделирования на глобальных производственных линиях.

Телекоммуникации: T-Mobile — это отрасль примерно на 2 трлн долларов, будущие базовые станции станут инфраструктурой AI-края, способной динамически анализировать трафик и адаптивно управлять лучами, повышая качество сигнала и значительно снижая энергопотребление.

В завершение — демонстрация робота «Олаф», созданного совместно с Disney, на базе платформы Jetson, обучающей среды Omniverse и физического решателя Newton, разработанного совместно с Disney и DeepMind, — он способен адаптивно двигаться в реальном физическом мире. Это яркое проявление физического AI и предварительный сценарий будущих тематических парков.

Заключение

На этой GTC мы сосредоточились на четырех ключевых темах:

Переход в эпоху inference — AI переходит от «понимания» к «созданию», затем к «рассуждению» и «исполнению», что вызывает взрывной рост вычислительных требований в миллион раз;

AI-заводы — дата-центры превращаются из хранилищ файлов в производственные «AI-заводы» токенов, где Vera Rubin обеспечит примерно 5-кратную прибыльность на каждом уровне сервиса;

OpenClaw и революция агентных систем — компании проходят глубокие преобразования, и каждая должна иметь свою стратегию по агентам; NemoClaw — эталонная безопасная платформа;

Физический AI и робототехника — эпоха автономных машин, промышленных роботов и гуманоидных роботов уже наступила.

Желаю всем участникам GTC удачи, спасибо!

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить