Ayudar a los robots a comprender a las personas: el trabajo de Social AI & Robotics Lab

La Dra. Oya Celiktutan, del Departamento de Ingeniería de King’s College Londo, es director del Social AI & Robotics (SAIR), que trabaja para desarrollar robots que puedan comprender el comportamiento humano y adaptarse al mismo. Ella nos actualizó sobre el trabajo actual del laboratorio. Ayudar a los robots a comprender a las personas es el trabajo en el área de robots y humanos en Social AI & Robotics Lab.

Robots y humanos en Social AI & Robotics Lab

¿Qué te propones hacer?

La visión de SAIR es transformar la vida cotidiana de los humanos con robots, para ayudarlos en el hogar, el trabajo y los espacios públicos. Para lograr este ambicioso objetivo, mi equipo se centra en crear algoritmos de aprendizaje automático de vanguardia para permitir que los robots perciban e interactúen con los humanos y su entorno.

¿Con quién estás trabajando?

Mi laboratorio ha logrado obtener financiación de EPSRC, Royal Society y socios industriales, así como establecer colaboraciones sólidas en la comunidad académica.

¿En qué estás trabajando?

Los desarrollos recientes incluyen:

Aprender a generar comportamientos inspirados en los humanos para los robots

Para que los robots tengan éxito en entornos humanos, deben participar en interacciones de manera similar a la humana, con mayores niveles de autonomía. A pesar del crecimiento exponencial en los campos de la interacción humano-robot i la robótica social, las capacidades de los robots sociales actuales todavía son limitadas. La mayoría de los robots dependen de técnicas poco prácticas y que requieren mucha mano de obra, como la teleoperación, mediante la cual un operador humano controla el robot de forma remota. Además, diseñar una lógica de interacción programando manualmente cada comportamiento es notoriamente difícil, considerando la complejidad de la interacción social.

Creo que modelar el comportamiento y las interacciones humanas es la guía más natural para diseñar interfaces de interacción entre humanos y robots, y mi proyecto EPSRC New Investigator Award tiene como objetivo sentar las bases para la próxima generación de robots que puedan aprender simplemente observando a los humanos. Junto con mi investigador asociado postdoctoral, el Dr. Tan Viet Tuyen Nguyen, desarrollamos un enfoque novedoso para pronosticar comportamientos humanos durante interacciones diádicas, y nuestro enfoque recibió la Honourable Mention Award en el ICCV Understanding Social Behavior in Dydadic and Small Interactions Challenge 2021. Ahora, nos estamos centrando en métodos novedosos para transferir los modelos de comportamiento interactivos construidos a la percepción y el control de los robots, y nos estamos asociando con una de las empresas líderes en robótica, SoftBank Robotics Europe.

Aprendizaje por refuerzo profundo

Equipar a los robots con comportamientos adaptativos es un gran desafío; por lo tanto, muchas aplicaciones potenciales de la robótica en entornos abiertos y dinámicos actualmente no son prácticas. El aprendizaje por refuerzo ofrece un marco para recuperar automáticamente el comportamiento a partir de la experiencia, lo que permite la automatización de una amplia gama de tareas complejas. Sin embargo, una limitación es que la mayor parte de la investigación en este campo se ha centrado en explotar funciones de recompensa diseñadas manualmente.

Para abordar estas limitaciones, mi estudiante de doctorado, Edoardo Cetin, y yo trabajamos en el desarrollo de novedosos algoritmos de aprendizaje por refuerzo que pueden incorporar una amplia gama de señales de aprendizaje para hacer que un agente recupere una comprensión sólida del mundo, con pocas suposiciones sobre la instrumentación del entorno y el usuario, que ha dado como resultado dos publicaciones principales en la International Conference on Learning Representations (ICLR) y la International Conference on Machine Learning (ICML). Introdujimos un algoritmo novedoso llamado DisentanGAIL para resolver el problema de aprendizaje por imitación observacional (visual). Introdujimos un marco novedoso, llamado Routines, que mejora el rendimiento y la eficiencia computacional de dos algoritmos de aprendizaje por refuerzo ampliamente utilizados. ICLR e ICML están clasificados como A* según Core Research & Education (CORE) 2021. ICLR (clasificado en tercer lugar) e ICML (clasificado en séptimo lugar) se encuentran entre las 20 publicaciones principales en la categoría de Engineering and Computer Science.

Además de artículos de alta calidad, nuestra investigación en aprendizaje por refuerzo profundo ha contado con el apoyo de Toyota Motor Europe, incluida la contribución de un robot móvil (HSR – Human Support Robot) para nuestra investigación. Puedes leer más sobre este trabajo aquí.

También hemos emprendido una colaboración con la University of Oxford, y colaboramos en un artículo titulado “Stabilizing Off-Policy Deep Reinforcement Learning from Pixels”, que fue aceptado recietemente en el ICML 2022.

Navegación de robots sociales

En mi laboratorio de investigación, nuestro objetivo es hacer que los robots aprendan de forma autónoma a través de interacciones con humanos en el mundo real. Junto con mi estudiante de doctorado, Viktor Schmuck, presentamos el primer conjunto de datos de su tipo para la percepción y navegación de robots, llamado conjunto de datos Robocentric Indoor Crowd Analysis (RICA). El conjunto de datos de RICA se recopiló durante la celebración del lanzamiento de ingeniería en noviembre de 2019 utilizando únicamente los sensores integrados del robot. Hasta ahora, nuestro trabajo con RICA ha dado como resultado tres publicaciones y recibió el finalista del premio NVIDIA CCS al mejor artículo estudiantil en la Conferencia Internacional IEEE sobre reconocimiento automático de rostros y gestos 2021.

Aprendizaje continuo de robots

Debido a la creciente necesidad de sistemas personalizados que puedan adaptarse a entornos dinámicos y puedan aprender continuamente nuevas tareas, las redes neuronales profundas modernas no son adecuadas, ya que sufren un olvido catastrófico: cuando se actualizan continuamente utilizando datos entrantes novedosos, las actualizaciones pueden anular el conocimiento adquirido a partir de datos anteriores. El aprendizaje continuo tiene como objetivo diseñar sistemas que puedan seguir aprendiendo nuevos conocimientos mientras mantienen el rendimiento de las tareas aprendidas previamente. Sin embargo, hasta el momento los enfoques que consideren un contexto de robótica son escasos. Junto con mi estudiante de doctorado, Jian Jiang, nos centraremos en desarrollar algoritmos novedosos de aprendizaje continuo teniendo en cuenta las limitaciones de las plataformas robóticas (por ejemplo, espacio y potencia computacional), que recientemente recibieron el premio NVIDIA Hardware Grant.

Leído en:

King’s College London