El sistema Conduct-A-Bot utiliza señales musculares para permitir una comunicación más natural entre humanos y robots.

El autor principal Joseph DelPreto controla un dron «Conduct-A-Bot» con los músculos del brazo. Crédito: Instituto de Tecnología de Massachusetts

Albert Einstein famoso postuló que «lo único realmente valioso es la intuición», posiblemente una de las claves más importantes para comprender la intención y la comunicación.

Pero la intuición es difícil de enseñar, especialmente para una máquina. Buscando mejorar esto, un equipo del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT ideó un método que nos acerca a una colaboración humano-robot más fluida. El sistema, llamado «Conduct-A-Bot», utiliza señales de músculos humanos de sensores portátiles para pilotar el movimiento de un robot.

«Visualizamos un mundo en el que las máquinas ayudan a las personas con el trabajo cognitivo y físico, y para hacerlo, se adaptan a las personas en lugar de al revés», dice la profesora Daniela Rus, directora de CSAIL, decana adjunta de investigación para el MIT Stephen A. Schwarzman College of Computing, y coautor de un artículo sobre el sistema.

Para permitir el trabajo en equipo sin problemas entre personas y máquinas, se usan sensores de electromiografía y movimiento en los bíceps, tríceps y antebrazos para medir las señales musculares y el movimiento. Luego, los algoritmos procesan las señales para detectar gestos en tiempo real, sin ninguna calibración fuera de línea o datos de entrenamiento por usuario. El sistema usa solo dos o tres sensores portátiles y nada en el entorno, lo que reduce en gran medida la barrera para los usuarios ocasionales que interactúan con los robots.

Si bien Conduct-A-Bot podría usarse potencialmente para varios escenarios, incluida la navegación de menús en dispositivos electrónicos o la supervisión de robots autónomos, para esta investigación el equipo usó un dron Parrot Bebop 2, aunque podría usarse cualquier dron comercial.

Al detectar acciones como gestos de rotación, puños cerrados, brazos tensados ​​y antebrazos activados, Conduct-A-Bot puede mover el dron hacia la izquierda, derecha, arriba, abajo y hacia adelante, así como permitirle girar y detenerse.

El sistema Conduct-A-Bot utiliza señales musculares para permitir una comunicación más natural entre humanos y robots.
El sistema Conduct-A-Bot permite a los usuarios volar un avión no tripulado a través de un entorno de carrera de obstáculos. Crédito: Instituto de Tecnología de Massachusetts

Si hicieras un gesto hacia la derecha de tu amigo, probablemente podrían interpretar que deberían moverse en esa dirección. Del mismo modo, si movía la mano hacia la izquierda, por ejemplo, el dron haría lo mismo y giraría a la izquierda.

En las pruebas, el dron respondió correctamente al 82 por ciento de más de 1,500 gestos humanos cuando se controlaba de forma remota para volar a través de aros. El sistema también identificó correctamente aproximadamente el 94 por ciento de los gestos indicados cuando el dron no estaba siendo controlado.

«Comprender nuestros gestos podría ayudar a los robots a interpretar más de las señales no verbales que usamos naturalmente en la vida cotidiana», dice Joseph DelPreto, autor principal del nuevo artículo. «Este tipo de sistema podría ayudar a hacer que interactuar con un robot sea más similar a interactuar con otra persona y facilitar que alguien comience a usar robots sin experiencia previa ni sensores externos».

Este tipo de sistema eventualmente podría apuntar a una gama de aplicaciones para la colaboración humano-robot, incluida la exploración remota, robots personales de asistencia o tareas de fabricación como entregar objetos o levantar materiales.

Estas herramientas inteligentes también son consistentes con el distanciamiento social y podrían abrir un ámbito de trabajo sin contacto en el futuro. Por ejemplo, puede imaginar que las máquinas sean controladas por humanos para limpiar con seguridad una habitación de hospital o dejar medicamentos, mientras nos permite a los humanos mantenernos a una distancia segura.

Las señales musculares a menudo pueden proporcionar información sobre estados que son difíciles de observar desde la visión, como la rigidez o la fatiga de las articulaciones.

Por ejemplo, si mira un video de alguien sosteniendo una caja grande, es posible que tenga dificultades para adivinar cuánto esfuerzo o fuerza se necesitaba, y una máquina también tendría dificultades para medir eso solo con la visión. El uso de sensores musculares abre posibilidades para estimar no solo el movimiento, sino también la fuerza y ​​el torque requeridos para ejecutar esa trayectoria física.

Para el vocabulario de gestos utilizado actualmente para controlar el robot, los movimientos se detectaron de la siguiente manera:

  • endurecer la parte superior del brazo para detener el robot (similar a encogerse brevemente al ver que algo sale mal): señales musculares de bíceps y tríceps;
  • agitando la mano hacia la izquierda / derecha y hacia arriba / abajo para mover el robot hacia los lados o verticalmente: señales musculares del antebrazo (con el acelerómetro del antebrazo que indica la orientación de la mano);
  • apretar el puño para mover el robot hacia adelante: señales musculares del antebrazo; y
  • girando en sentido horario / antihorario para girar el robot: giroscopio de antebrazo.

Los clasificadores de aprendizaje automático detectaron los gestos utilizando los sensores portátiles. Los clasificadores no supervisados ​​procesaron los datos musculares y de movimiento y los agruparon en tiempo real para aprender a separar los gestos de otros movimientos. Una red neuronal también predijo la flexión o extensión de la muñeca a partir de las señales musculares del antebrazo.

El sistema esencialmente se calibra a sí mismo a las señales de cada persona mientras hace gestos que controlan el robot, haciendo que sea más rápido y fácil para los usuarios ocasionales comenzar a interactuar con los robots.

En el futuro, el equipo espera expandir las pruebas para incluir más temas. Y si bien los movimientos para Conduct-A-Bot cubren los gestos comunes para el movimiento del robot, los investigadores quieren ampliar el vocabulario para incluir gestos más continuos o definidos por el usuario. Eventualmente, la esperanza es que los robots aprendan de estas interacciones para comprender mejor las tareas y proporcionar más asistencia predictiva o aumentar su autonomía.

«Este sistema está un paso más cerca de permitirnos trabajar sin problemas con los robots para que puedan convertirse en herramientas más efectivas e inteligentes para las tareas cotidianas», dice DelPreto. «A medida que tales colaboraciones continúan siendo más accesibles y dominantes, las posibilidades de beneficio sinérgico continúan profundizándose».


Proporcionado por

Instituto de Tecnología de Massachusetts

 

Leave a Comment!