Apilando nuestro camino hacia robots más generales

Avanzando hacia robots más versátiles mediante apilamiento

Presentando RGB-Stacking como un nuevo punto de referencia para la manipulación robótica basada en visión

Recoger un palo y equilibrarlo en la parte superior de un tronco o apilar una piedra sobre otra puede parecer acciones simples, y bastante similares, para una persona. Sin embargo, la mayoría de los robots tienen dificultades para manejar más de una tarea de este tipo a la vez. Manipular un palo requiere un conjunto de comportamientos diferentes a apilar piedras, y mucho menos apilar platos diferentes uno encima del otro o ensamblar muebles. Antes de poder enseñar a los robots cómo realizar este tipo de tareas, primero deben aprender a interactuar con una gama mucho mayor de objetos. Como parte de la misión de DeepMind y como un paso hacia la creación de robots más generalizables y útiles, estamos explorando cómo permitir que los robots comprendan mejor las interacciones de los objetos con geometrías diversas.

En un artículo que se presentará en CoRL 2021 (Conferencia sobre Aprendizaje de Robots) y que ya está disponible como preimpresión en OpenReview, presentamos RGB-Stacking como un nuevo punto de referencia para la manipulación robótica basada en visión. En este punto de referencia, un robot debe aprender a agarrar diferentes objetos y equilibrarlos uno encima del otro. Lo que distingue nuestra investigación de trabajos anteriores es la diversidad de objetos utilizados y el gran número de evaluaciones empíricas realizadas para validar nuestros hallazgos. Nuestros resultados demuestran que se puede utilizar una combinación de simulación y datos del mundo real para aprender la manipulación de múltiples objetos complejos y sugieren una línea base sólida para el problema abierto de generalizar a objetos nuevos. Para apoyar a otros investigadores, estamos compartiendo de forma abierta una versión de nuestro entorno simulado, y publicando los diseños para construir nuestro entorno de apilamiento RGB de robot reales, junto con los modelos de objetos RGB e información para imprimirlos en 3D. También estamos compartiendo de forma abierta una colección de bibliotecas y herramientas utilizadas en nuestra investigación en robótica de manera más amplia.

Punto de referencia RGB-Stacking

Con RGB-Stacking, nuestro objetivo es entrenar un brazo robótico mediante aprendizaje por refuerzo para apilar objetos de diferentes formas. Colocamos un agarrador paralelo conectado a un brazo de robot sobre una cesta, y tres objetos en la cesta: uno rojo, uno verde y uno azul, de ahí el nombre RGB. La tarea es simple: apilar el objeto rojo encima del objeto azul en un plazo de 20 segundos, mientras que el objeto verde sirve como obstáculo y distracción. El proceso de aprendizaje garantiza que el agente adquiera habilidades generalizadas mediante el entrenamiento en múltiples conjuntos de objetos. Variamos intencionalmente las capacidades de agarre y apilamiento, es decir, las cualidades que definen cómo el agente puede agarrar y apilar cada objeto. Este principio de diseño obliga al agente a exhibir comportamientos que van más allá de una estrategia simple de recoger y colocar.

Cada terna presenta sus propios desafíos únicos para el agente: La terna 1 requiere un agarre preciso del objeto superior; la terna 2 a menudo requiere que el objeto superior se utilice como una herramienta para voltear el objeto inferior antes de apilar; la terna 3 requiere equilibrio; la terna 4 requiere apilamiento preciso (es decir, los centroides de los objetos deben alinearse); y el objeto superior de la terna 5 puede rodar fácilmente si no se apila suavemente. Al evaluar los desafíos de esta tarea, encontramos que nuestra línea base codificada a mano tenía una tasa de éxito del 51% al apilar.

Nuestro punto de referencia RGB-Stacking incluye dos versiones de tareas con diferentes niveles de dificultad. En “Maestría de habilidades”, nuestro objetivo es entrenar a un solo agente que sea hábil en apilar un conjunto predefinido de cinco ternas. En “Generalización de habilidades”, utilizamos las mismas ternas para la evaluación, pero entrenamos al agente en un gran conjunto de objetos de entrenamiento, que suman más de un millón de ternas posibles. Para probar la generalización, estos objetos de entrenamiento excluyen la familia de objetos de la cual se eligieron las ternas de prueba. En ambas versiones, dividimos nuestro proceso de aprendizaje en tres etapas:

  • Primero, nos entrenamos en simulación utilizando un algoritmo RL predefinido: Optimización de Política Máxima a Posteriori (MPO). En esta etapa, utilizamos el estado del simulador, lo que permite un entrenamiento rápido ya que las posiciones de los objetos se proporcionan directamente al agente en lugar de que el agente tenga que aprender a encontrar los objetos en las imágenes. La política resultante no es directamente transferible al robot real ya que esta información no está disponible en el mundo real.
  • A continuación, entrenamos una nueva política en simulación que utiliza solo observaciones realistas: imágenes y el estado propioceptivo del robot. Utilizamos una simulación con dominio aleatorizado para mejorar la transferencia a imágenes y dinámicas del mundo real. La política de estado sirve como profesor, proporcionando al agente de aprendizaje correcciones a sus comportamientos, y esas correcciones se destilan en la nueva política.
  • Por último, recopilamos datos utilizando esta política en robots reales y entrenamos una política mejorada a partir de estos datos fuera de línea, dando más peso a las transiciones buenas basadas en una función Q aprendida, como se hace en la Regresión Regularizada del Crítico (CRR). Esto nos permite utilizar los datos que se recopilan de manera pasiva durante el proyecto en lugar de ejecutar un algoritmo de entrenamiento en línea que consume mucho tiempo en los robots reales.

La desvinculación de nuestro proceso de aprendizaje de esta manera resulta crucial por dos razones principales. En primer lugar, nos permite resolver el problema en su totalidad, ya que simplemente llevaría demasiado tiempo si tuviéramos que empezar desde cero directamente con los robots. En segundo lugar, aumenta nuestra velocidad de investigación, ya que diferentes personas de nuestro equipo pueden trabajar en diferentes partes del proceso antes de combinar estos cambios para una mejora general.

Nuestro agente muestra comportamientos novedosos para apilar los 5 trillizos. El resultado más fuerte con Skill Mastery fue un agente basado en visión que logró un éxito promedio del 79% en simulación (Etapa 2), un éxito del 68% sin entrenamiento en robots reales (Etapa 2) y un 82% después de la mejora de la política en un solo paso con datos reales (Etapa 3). El mismo proceso para Skill Generalisation resultó en un agente final que logró un éxito del 54% en robots reales (Etapa 3). Cerrar esta brecha entre Skill Mastery y Generalisation sigue siendo un desafío abierto.

En los últimos años, se ha trabajado mucho en la aplicación de algoritmos de aprendizaje para resolver problemas difíciles de manipulación de robots reales a gran escala, pero el enfoque de dicho trabajo ha sido principalmente en tareas como agarrar, empujar u otras formas de manipular objetos individuales. El enfoque de RGB-Stacking que describimos en nuestro artículo, junto con nuestros recursos de robótica ahora disponibles en GitHub, resulta en estrategias sorprendentes de apilamiento y dominio del apilamiento de un subconjunto de estos objetos. Sin embargo, este paso solo rasca la superficie de lo que es posible, y el desafío de la generalización aún no está totalmente resuelto. A medida que los investigadores sigan trabajando para resolver el desafío abierto de la verdadera generalización en la robótica, esperamos que este nuevo punto de referencia, junto con el entorno, los diseños y las herramientas que hemos lanzado, contribuyan a nuevas ideas y métodos que faciliten aún más la manipulación y hagan que los robots sean más capaces.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Clave maestra para la separación de fuentes de audio Presentamos AudioSep para separar cualquier cosa que describas

La Análisis de Escena Auditiva Computacional (CASA, por sus siglas en inglés) es un campo dentro del procesamiento de...

Investigación

Usando reflexiones para ver el mundo desde nuevos puntos de vista.

Un nuevo sistema de visión por computadora convierte cualquier objeto brillante en una especie de cámara, lo que perm...

Inteligencia Artificial

Conoce a Tarsier Una biblioteca de código abierto en Python para habilitar la interacción web con LLMs multimodales como GPT4

A medida que la IA continúa creciendo y afectando todos los aspectos de nuestras vidas, se está llevando a cabo una i...

Inteligencia Artificial

Rendimiento máximo de IA las últimas actualizaciones de Adobe aceleradas por las GPU de NVIDIA mejoran los flujos de trabajo para millones de creativos.

La IA generativa está ayudando a los creativos de diversas industrias a dar vida a ideas a una velocidad sin preceden...