Investigadores de la Universidad de Texas en Austin presentan LIBERO Una prueba de aprendizaje de robot a lo largo de la vida para estudiar la transferencia de conocimiento en la toma de decisiones y la robótica a gran escala.

LIBERO una prueba de aprendizaje de robot a lo largo de la vida para estudiar la transferencia de conocimiento en la toma de decisiones y la robótica a gran escala, presentada por investigadores de la Universidad de Texas en Austin.

LIBERO, referente en aprendizaje continuo en manipulación robótica, se centra en la transferencia de conocimiento en dominios declarativos y procedimentales. Introduce cinco áreas clave de investigación en aprendizaje continuo para la toma de decisiones (LLDM) y ofrece un plan de generación de tareas procedimentales con cuatro conjuntos de tareas que comprenden 130 tareas. Los experimentos revelan la superioridad del ajuste fino secuencial sobre los métodos LLDM existentes para la transferencia hacia adelante. El rendimiento de la arquitectura del codificador visual varía, y el preentrenamiento supervisado ingenuo puede obstaculizar a los agentes en LLDM. El referente incluye datos de demostración teleoperada por humanos de alta calidad para todas las tareas.

Investigadores de la Universidad de Texas en Austin, Sony AI y la Universidad de Tsinghua se ocupan del desarrollo de un agente de aprendizaje continuo versátil capaz de realizar una amplia variedad de tareas. Su investigación presenta LIBERO, un referente que se centra en el aprendizaje continuo en la toma de decisiones para la manipulación robótica. A diferencia de la literatura existente que enfatiza la transferencia de conocimiento declarativo, LIBERO explora la transferencia de conocimiento declarativo y procedimental. Ofrece un plan de generación de tareas procedimentales y datos teleoperados por humanos de alta calidad. Su objetivo es investigar áreas esenciales de investigación LLDM, como la transferencia de conocimiento, el diseño de la arquitectura neural, el diseño de algoritmos, la robustez del orden de las tareas y la utilización de modelos preentrenados.

En el aprendizaje continuo de robots, se emplearon tres redes de políticas de visión y lenguaje: RESNET-RNN, RESNET-T y VIT-T. Estas redes integran datos visuales, temporales y lingüísticos para procesar instrucciones de tareas. Las instrucciones de lenguaje se codificaron utilizando incrustaciones preentrenadas de BERT. RESNET-RNN combinó una ResNet y LSTM para el procesamiento visual y material. RESNET-T utilizó una ResNet y un decodificador de transformador para secuencias de tokens visibles y temporales. VIT-T empleó un Transformer de Visión para datos visuales y un decodificador de transformador para datos temporales. El entrenamiento de políticas para tareas individuales se logró mediante clonación de comportamiento, lo que facilita el aprendizaje eficiente de políticas con recursos computacionales limitados.

Su estudio comparó arquitecturas neuronales para el aprendizaje continuo en tareas de toma de decisiones, y RESNET-T y VIT-T superaron a RESNET-RNN, destacando la eficacia de los transformadores para el procesamiento temporal. El rendimiento varió con el algoritmo de aprendizaje continuo: PACKNET no mostró diferencias significativas entre RESNET-T y VIT-T, excepto en el conjunto de tareas LIBERO-LONG, donde VIT-T sobresalió. Sin embargo, utilizando ER, RESNET-T superó a VIT-T en todos los conjuntos de tareas excepto LIBERO-OBJECT, demostrando la capacidad de ViT para procesar información visual diversa. El ajuste fino secuencial resultó superior en la transferencia hacia adelante, mientras que el preentrenamiento supervisado ingenuo obstaculizó a los agentes, lo que subraya la necesidad de un preentrenamiento estratégico.

En conclusión, su método propuesto, LIBERO, es un referente fundamental para el aprendizaje continuo de robots, abordando áreas de investigación clave y ofreciendo ideas valiosas. Los hallazgos destacados incluyen la eficacia del ajuste fino secuencial, el impacto de la arquitectura del codificador visual en la transferencia de conocimiento y las limitaciones del preentrenamiento supervisado ingenuo. Su trabajo sugiere direcciones futuras prometedoras en el diseño de arquitecturas neuronales, la mejora del algoritmo para la transferencia hacia adelante y el aprovechamiento del preentrenamiento. Además, subraya la importancia de la privacidad a largo plazo del usuario en el contexto del aprendizaje continuo a partir de interacciones humanas.

La investigación futura debería centrarse en la creación de arquitecturas neuronales más eficientes para el procesamiento de datos espaciales y temporales. Es fundamental desarrollar algoritmos avanzados para fortalecer las capacidades de transferencia hacia adelante. Además, investigar métodos de preentrenamiento para mejorar el rendimiento del aprendizaje continuo sigue siendo una dirección de investigación crucial. Estos esfuerzos son fundamentales para avanzar en el campo del aprendizaje continuo y la toma de decisiones de robots, mejorando la eficiencia y adaptabilidad.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

El mito de la IA de 'código abierto

Un nuevo análisis muestra que las herramientas de IA de código abierto, como Llama 2, siguen siendo controladas por g...

Inteligencia Artificial

Utilizando cámaras en los autobuses de transporte público para monitorear el tráfico

Investigadores de la Universidad Estatal de Ohio monitorearon el tráfico utilizando cámaras ya instaladas en los auto...

Ciencias de la Computación

Vidrio de grado óptico impreso en 3D a escala nanométrica.

Los ingenieros han impreso en tres dimensiones vidrio de calidad óptica a escala nanométrica a baja temperatura utili...

Inteligencia Artificial

Las Nuevas Implicaciones Éticas de la Inteligencia Artificial Generativa

El rápido progreso del IA generativa hace necesario implementar urgentemente salvaguardias éticas contra los riesgos ...

Inteligencia Artificial

Herramientas de IA Generativa se están quedando rápidamente 'sin texto' para entrenarse

Es la última preocupación planteada en relación a las prácticas de recopilación de datos de OpenAI y otros desarrolla...