El director ejecutivo de Nvidia, Jensen Huang, pronuncia un discurso de apertura durante la conferencia de inteligencia artificial de Nvidia GTC en el Centro SAP el 18 de marzo de 2024 en San José, California.
Justin Sullivan | imágenes falsas
NVIDIA El lunes, anunció una nueva generación de chips y software de IA para impulsar los modelos de IA. El anuncio, realizado durante la Conferencia de Desarrolladores de Nvidia en San José, se produce cuando el fabricante de chips busca consolidar su posición como importante proveedor de empresas de inteligencia artificial.
El precio de las acciones de Nvidia se ha quintuplicado y las ventas totales se han más que triplicado desde que ChatGPT de OpenAI provocó el auge de la IA a finales de 2022. Las GPU para servidores de última generación de Nvidia son esenciales para entrenar e implementar grandes modelos de IA. Empresas como microsoft Y muerto Se gastaron miles de millones de dólares en comprar chips.
La nueva generación de procesadores gráficos impulsados por IA se llama Blackwell. El primer chip de Blackwell se llama GB200 y se enviará a finales de este año. Nvidia ha estado atrayendo a sus clientes con chips más potentes para estimular nuevos pedidos. Por ejemplo, las empresas y los fabricantes de software todavía están luchando por obtener la generación actual de chips «Hopper» H100 y chips similares.
«Hopper es genial, pero necesitamos GPU más grandes», dijo el lunes el director ejecutivo de Nvidia, Jensen Huang, en la conferencia de desarrolladores de la compañía en California.
Las acciones de Nvidia cayeron más del 1% en las operaciones ampliadas del lunes.
La compañía también presentó un programa de generación de ingresos llamado NIM que facilitará la implementación de IA, brindando a los clientes otra razón para continuar usando chips Nvidia en medio de un creciente campo de competidores.
Los ejecutivos de Nvidia dicen que la compañía se ha convertido menos en un proveedor mercenario de chips y más en un proveedor de plataformas, como Microsoft o Apple, sobre las cuales otras compañías pueden desarrollar software.
«Blackwell no es un chip, es el nombre de una plataforma», afirmó Huang.
«El producto comercialmente vendible era la GPU y el software estaba destinado a ayudar a las personas a utilizar la GPU de diferentes maneras», dijo en una entrevista el vicepresidente de la Fundación Nvidia, Manuvir Das. «Por supuesto, todavía lo hacemos. Pero lo que realmente ha cambiado es que ahora tenemos una empresa de software empresarial».
Das dijo que el nuevo software de Nvidia facilitará la ejecución de software en cualquiera de las GPU de Nvidia, incluso en las más antiguas que pueden ser más adecuadas para la implementación pero no para la creación de IA.
«Si eres desarrollador y tienes un modelo interesante que quieres que la gente adopte, si lo pones en NIM, nos aseguraremos de que se pueda reproducir en todas nuestras GPU, para que puedas llegar a mucha gente». Dijo Das.
Conozca a Blackwell, el sucesor de Hopper
Superchip GB200 Grace Blackwell de Nvidia, con dos GPU B200 y una CPU basada en Arm.
Cada dos años, Nvidia actualiza su arquitectura de GPU, lo que genera un gran salto en el rendimiento. Muchos de los modelos de IA lanzados durante el año pasado han sido entrenados en la arquitectura Hopper de la compañía, que utiliza chips como el H100, que se anunciará en 2022.
Nvidia dice que los procesadores basados en Blackwell, como el GB200, ofrecen una enorme mejora de rendimiento para las empresas de IA, con 20 petaflops en rendimiento de IA frente a 4 petaflops del H100. Nvidia dijo que la potencia de procesamiento adicional permitirá a las empresas de inteligencia artificial entrenar modelos más grandes y complejos.
El chip incluye lo que Nvidia llama un «motor transformador diseñado específicamente para alimentar la IA basada en transformadores, una de las tecnologías centrales detrás de ChatGPT».
La GPU Blackwell es grande y combina dos matrices fabricadas por separado en un solo chip fabricado por TSMC. También estará disponible como un servidor completo llamado GB200 NVLink 2, que combina 72 GPU Blackwell y otras piezas de Nvidia diseñadas para entrenar modelos de IA.
El director ejecutivo de Nvidia, Jensen Huang, compara el tamaño del nuevo chip «Blackwell» con el actual chip «Hopper» H100 en la conferencia de desarrolladores de la compañía, en San José, California.
NVIDIA
Amazonas, Google, microsoftY inspiración Venderás acceso por GB200 a través de servicios en la nube. El GB200 combina dos GPU B200 Blackwell con una única CPU Grace basada en Arm. Nvidia dijo que Amazon Web Services construirá una granja de servidores que contiene 20.000 chips GB200.
Nvidia dijo que el sistema puede implementar un modelo que contiene 27 billones de parámetros. Esto es mucho mayor que incluso los modelos más grandes, como el GPT-4, que se dice que contiene 1,7 billones de parámetros. Muchos investigadores de IA creen que los modelos más grandes contienen más parámetros y datos. Puede desbloquear nuevas habilidades..
Nvidia no proporcionó el costo del nuevo GB200 ni de los sistemas utilizados en él. El H100 basado en Hopper de Nvidia cuesta entre 25.000 y 40.000 dólares por chip, y los sistemas completos cuestan hasta 200.000 dólares, según estimaciones de los analistas.
Nvidia también venderá las GPU B200 como parte de un sistema completo que ocupa todo un rack de servidores.
Heurística de microservicios de Nvidia
Nvidia también anunció que agregará un nuevo producto llamado NIM, que significa Nvidia Inference Microservice, a su suscripción al programa Nvidia Enterprise.
NIM facilita el uso de GPU Nvidia heredadas para la inferencia o el proceso de ejecución de programas de inteligencia artificial, y permitirá a las empresas continuar usando los cientos de millones de GPU Nvidia que ya poseen. La inferencia requiere menos potencia computacional que el entrenamiento inicial de un nuevo modelo de IA. NIM permite a las empresas que quieran ejecutar sus propios modelos de IA, en lugar de comprar acceso a los resultados de la IA como un servicio de empresas como OpenAI.
La estrategia es conseguir que los clientes que compran servidores basados en Nvidia se suscriban a Nvidia Enterprise, cuya licencia cuesta 4.500 dólares por GPU al año.
Nvidia trabajará con empresas de inteligencia artificial como Microsoft o Hugging Face para garantizar que sus modelos de inteligencia artificial estén ajustados para ejecutarse en todos los chips Nvidia compatibles. Luego, utilizando NIM, los desarrolladores pueden ejecutar eficientemente el modelo en sus propios servidores o en los servidores basados en la nube de Nvidia sin un largo proceso de configuración.
«En mi código, donde llamaba a OpenAI, reemplazaba una línea de código para apuntar al NIM que obtuve de Nvidia», dijo Das.
Nvidia dice que el software también ayudará a que la IA se ejecute en computadoras portátiles equipadas con GPU, en lugar de servidores en la nube.
«Experto en la web. Fanático de la cerveza exasperantemente humilde. Fanático del tocino. Creador típico. Experto en música».
More Stories
JPMorgan espera que la Reserva Federal reduzca su tipo de interés de referencia en 100 puntos básicos este año
Resumen de ganancias de Nvidia: el CEO habla de Blackwell, pero no cumple con las expectativas más altas
Nasdaq y S&P 500 lideran la caída de las acciones antes de las decepcionantes ganancias de Nvidia