Los robots tienen un gran potencial para ayudar a las personas con movilidad limitada, incluidos modelos que podrían ayudar a los enfermos a vestirse.
Sin embargo, esa es una tarea particularmente desafiante que requiere destreza, seguridad y velocidad.
Ahora, científicos de MIT CSAIL han desarrollado un algoritmo que logra un equilibrio al permitir impactos no dañinos en lugar de no permitir ningún impacto como antes.
Los humanos están programados para adaptarse y adaptarse a otros humanos, pero los robots tienen que aprender todo eso desde cero.
Por ejemplo, es relativamente fácil para una persona ayudar a otra a vestirse, ya que sabemos instintivamente dónde sostener la prenda de vestir, cómo las personas pueden doblar los brazos, cómo reacciona la tela y más.
Sin embargo, los robots deben programarse con toda esa información.
En el pasado, los algoritmos han impedido que los robots tengan algún impacto con los humanos en aras de la seguridad.
Sin embargo, eso puede conducir a algo llamado el problema del “robot congelado“, donde el robot esencialmente deja de moverse y no puede realizar la tarea que se propuso hacer.
Para superar ese problema, un equipo de CSAIL del MIT dirigido por el estudiante de doctorado Shen Li desarrolló un algoritmo que redefine la seguridad del movimiento robótico al permitir “impactos seguros” además de la prevención de colisiones.
Esto permite que el robot haga un contacto no dañino con un humano para realizar su tarea, siempre que su impacto sobre el humano sea bajo.
“Desarrollar algoritmos para prevenir daños físicos sin afectar innecesariamente la eficiencia de la tarea es un desafío crítico“, dijo Li.
“Al permitir que los robots tengan un impacto no dañino con los humanos, nuestro método puede encontrar trayectorias robóticas eficientes para vestir al humano con una garantía de seguridad“.
Para una tarea simple de vestirse, el sistema funcionó incluso si la persona estaba haciendo otras actividades como revisar un teléfono, como se muestra en el video.
Lo hace combinando múltiples modelos para diferentes situaciones, en lugar de depender de un solo modelo como antes.
“Este enfoque multifacético combina la teoría de conjuntos, las restricciones de seguridad conscientes de los humanos, la predicción del movimiento humano y el control de retroalimentación para una interacción segura entre humanos y robots“, dijo Zackory Erickson de la Universidad Carnegie Mellon.
La investigación aún se encuentra en las primeras etapas, pero las ideas podrían usarse en áreas distintas a la de vestirse.
“Esta investigación podría potencialmente aplicarse a una amplia variedad de escenarios de robótica asistida, hacia el objetivo final de permitir que los robots brinden asistencia física más segura a las personas con discapacidades“, dijo Erickson.
Fuente: Safe Dressing