Silicon Volley Los diseñadores utilizan la IA generativa para obtener un asistente de Chip

Silicon Volley Los diseñadores utilizan la IA generativa para obtener un asistente de Chip

Un artículo de investigación publicado hoy describe formas en que la inteligencia artificial generativa puede ayudar en uno de los esfuerzos de ingeniería más complejos: el diseño de semiconductores.

El trabajo demuestra cómo las empresas en campos altamente especializados pueden entrenar grandes modelos de lenguaje (LLMs) con sus datos internos para construir asistentes que aumenten la productividad.

Pocos proyectos son tan desafiantes como el diseño de semiconductores. Bajo un microscopio, un chip de última generación como el NVIDIA H100 Tensor Core GPU (arriba) se ve como una metrópolis bien planificada, construida con decenas de miles de millones de transistores, conectados en calles 10,000 veces más delgadas que un cabello humano.

Múltiples equipos de ingeniería coordinan durante dos años para construir una de estas megaciudades digitales.

Algunos grupos definen la arquitectura general del chip, otros diseñan y colocan una variedad de circuitos ultra pequeños, y otros prueban su trabajo. Cada tarea requiere métodos especializados, programas de software y lenguajes de programación.

Una visión amplia para LLMs

“Creo que con el tiempo, los grandes modelos de lenguaje ayudarán en todos los procesos, en general”, dijo Mark Ren, director de Investigación de NVIDIA y autor principal del artículo.

Bill Dally, científico jefe de NVIDIA, anunció hoy el artículo en una presentación magistral en la Conferencia Internacional sobre Diseño Asistido por Computadora, una reunión anual de cientos de ingenieros que trabajan en el campo de la automatización del diseño electrónico, o EDA por sus siglas en inglés.

“Este esfuerzo marca un importante primer paso en la aplicación de LLMs al trabajo complejo de diseñar semiconductores”, dijo Dally en el evento en San Francisco. “Muestra cómo incluso los campos altamente especializados pueden utilizar sus datos internos para entrenar modelos generativos de IA útiles”.

Surgimiento de ChipNeMo

El artículo detalla cómo los ingenieros de NVIDIA crearon para uso interno un LLM personalizado, llamado ChipNeMo, entrenado con los datos internos de la empresa para generar y optimizar software y ayudar a los diseñadores humanos.

A largo plazo, los ingenieros esperan aplicar la inteligencia artificial generativa a cada etapa del diseño de chips, lo que podría resultar en ganancias significativas en la productividad general, según Ren, cuya carrera abarca más de 20 años en EDA.

Después de encuestar a los ingenieros de NVIDIA para posibles casos de uso, el equipo de investigación eligió tres para empezar: un chatbot, un generador de código y una herramienta de análisis.

Casos de uso iniciales

Este último, una herramienta que automatiza las tareas que consumen mucho tiempo de mantener actualizadas las descripciones de errores conocidos, ha sido hasta ahora el más aclamado.

Un prototipo de chatbot que responde a preguntas sobre la arquitectura y diseño de GPU ayudó a muchos ingenieros a encontrar rápidamente documentos técnicos en pruebas iniciales.

Animación de un generador de código de IA generativa utilizando un LLM
Un generador de código ayudará a los diseñadores a escribir software para el diseño de un chip.

Un generador de código en desarrollo (demostrado arriba) ya crea fragmentos de aproximadamente 10-20 líneas de software en dos lenguajes especializados que utilizan los diseñadores de chips. Se integrará con las herramientas existentes, por lo que los ingenieros contarán con una asistente útil para los diseños en curso.

Personalizando modelos de IA con NVIDIA NeMo

El artículo se centra principalmente en el trabajo del equipo para recopilar sus datos de diseño y utilizarlos para crear un modelo generativo de IA especializado, un proceso transferible a cualquier industria.

Como punto de partida, el equipo eligió un modelo base y lo personalizó con NVIDIA NeMo, un marco para construir, personalizar y desplegar modelos de IA generativos que se incluye en la plataforma de software NVIDIA AI Enterprise. El modelo de NeMo seleccionado tiene 43 mil millones de parámetros, una medida de su capacidad para entender patrones. Fue entrenado utilizando más de un billón de tokens, las palabras y símbolos en texto y software.

Diagrama del flujo de trabajo de ChipNeMo para entrenar un modelo personalizado
ChipNeMo proporciona un ejemplo de cómo un equipo altamente técnico refinó un modelo preentrenado con sus propios datos.

Luego, el equipo refinó el modelo en dos rondas de entrenamiento, la primera utilizando aproximadamente 24 mil millones de tokens de sus datos internos de diseño y la segunda con una mezcla de aproximadamente 130,000 ejemplos de conversaciones y diseño.

El trabajo es uno de varios ejemplos de investigación y pruebas de concepto de IA generativa en la industria de semiconductores, que recién comienza a surgir del laboratorio.

Compartiendo Lecciones Aprendidas

Una de las lecciones más importantes que aprendió el equipo de Ren es el valor de personalizar un LLM (Modelo de Lenguaje del Largo Plazo, por sus siglas en inglés).

En tareas de diseño de chips, modelos personalizados de ChipNeMo con tan solo 13 mil millones de parámetros igualan o superan el rendimiento de LLM más grandes y de propósito general, como LLaMA2 con 70 mil millones de parámetros. En algunos casos de uso, los modelos de ChipNeMo fueron significativamente mejores.

A lo largo del proceso, los usuarios deben tener cuidado con los datos que recopilan y cómo los limpian para su uso en el entrenamiento, añadió.

Finalmente, Ren aconseja a los usuarios estar al tanto de las últimas herramientas que pueden agilizar y simplificar el trabajo.

NVIDIA Research cuenta con cientos de científicos e ingenieros de todo el mundo enfocados en temas como IA, gráficos por computadora, visión por computadora, vehículos autónomos y robótica. Otros proyectos recientes en semiconductores incluyen el uso de IA para diseñar circuitos más pequeños y rápidos y para optimizar la ubicación de bloques grandes.

Las empresas que deseen desarrollar sus propios LLM personalizados pueden comenzar hoy mismo utilizando el framework NeMo disponible en GitHub y el catálogo de NVIDIA NGC.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Comienza el trabajo en el proyecto para construir la 'Vía más Sofisticada del Mundo

Funcionarios dijeron que la construcción de la 'carretera más sofisticada del mundo' en la Interestatal 94 en el cond...

Inteligencia Artificial

Un legado poderoso la madre del investigador alimentó su pasión por la fusión nuclear

Nota del editor: Esta es parte de una serie que perfila a investigadores que avanzan en la ciencia con computación de...

Inteligencia Artificial

Chipotle presenta Autocado, un robot de preparación de guacamole

Chipotle se ha asociado con la firma de soluciones de automatización Vebu para presentar Autocado, un robot de proces...

Inteligencia Artificial

Investigadores de AWS presentan Gemini recuperación rápida pionera de fallos en el entrenamiento de aprendizaje profundo a gran escala

Un equipo de investigadores de la Universidad de Rice y Amazon Web Services ha desarrollado un sistema de entrenamien...

Inteligencia Artificial

Dentro del acalorado centro del pesimismo de la IA

Anthropic, una start-up de inteligencia artificial centrada en la seguridad, está tratando de competir con ChatGPT mi...

Inteligencia Artificial

Esta investigación de IA presenta Photo-SLAM Elevando el mapeo fotorealista en tiempo real en dispositivos portátiles

En visión por computadora y robótica, la localización y mapeo simultáneos (SLAM, por sus siglas en inglés) con cámara...