Un agente generalista
An all-purpose agent.
:
Inspirado por el progreso en la modelización del lenguaje a gran escala, aplicamos un enfoque similar para construir un único agente generalista más allá del ámbito de las salidas de texto. El agente, al que nos referimos como Gato, funciona como una política generalista multimodal, multitarea y multimodalidad. La misma red con los mismos pesos puede jugar a Atari, describir imágenes, chatear, apilar bloques con un brazo robótico real y mucho más, decidiendo basado en su contexto si emitir texto, torques conjuntos, pulsaciones de botones u otros tokens.
Durante la fase de entrenamiento de Gato, los datos de diferentes tareas y modalidades se serializan en una secuencia plana de tokens, se agrupan por lotes y se procesan mediante una red neuronal transformadora similar a un modelo de lenguaje grande. La pérdida está enmascarada para que Gato solo prediga objetivos de acción y texto.
- Comportamiento emergente de trueque en el aprendizaje por refuerzo de múltiples agentes
- Aprendizaje de física intuitiva en un modelo de aprendizaje profundo inspirado en la psicología del desarrollo
- El ciclo virtuoso de la investigación en IA
Cuando se implementa Gato, se tokeniza una indicación, como una demostración, formando la secuencia inicial. A continuación, el entorno produce la primera observación, que también se tokeniza y se agrega a la secuencia. Gato genera el vector de acción de forma autoregresiva, un token a la vez.
Una vez que se han muestreado todos los tokens que componen el vector de acción (determinado por la especificación de acción del entorno), se decodifica y envía la acción al entorno, que avanza y produce una nueva observación. Luego se repite el procedimiento. El modelo siempre ve todas las observaciones y acciones anteriores dentro de su ventana de contexto de 1024 tokens.
Gato se entrena con una gran cantidad de conjuntos de datos que comprenden la experiencia del agente tanto en entornos simulados como en el mundo real, además de una variedad de conjuntos de datos de lenguaje natural e imágenes. Aquí se muestra el número de tareas en las que el rendimiento del modelo preentrenado de Gato supera un porcentaje de la puntuación de experto, agrupado por dominio.
Las siguientes imágenes también muestran cómo el modelo preentrenado de Gato con los mismos pesos puede realizar subtítulos de imágenes, participar en un diálogo interactivo y controlar un brazo robótico, entre muchas otras tareas.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- De control de motor a inteligencia encarnada
- En conversación con la IA construyendo mejores modelos de lenguaje
- Mi viaje desde ser pasante de DeepMind hasta mentor
- Maximizando el impacto de nuestros avances
- Cómo nuestros principios ayudaron a definir el lanzamiento de AlphaFold
- Descubriendo algoritmos novedosos con AlphaTensor
- Medición de la percepción en modelos de IA