Una prótesis de mano con reconocimiento de objetos
El diseño y construcción de miembros artificiales está inmerso en constantes cambios. La impresión 3D ha abaratado los costes de producción, aunque la estética aún tiene que pulirse. Mientras tanto, la robótica ha avanzado en el campo de la motricidad. Otro de los ingredientes es la inteligencia artificial , que progresa a pasos de gigante. Una mano artificial robótica está dotada de este tipo de software, pues necesita adecuar sus movimientos a los deseos del usuario.
Normalmente un miembro robótico se guía por impulsos eléctricos. El cerebro envía una señal a los músculos y estos se comunican con los circuitos del brazo biónico. El problema es que la respuesta de estos brazos no es rápida y la agilidad es mejorable. Es perfectamente comprensible porque la comunicación entre los músculos y la parte robótica no es todo lo precisa que se desearía.
Para solventar esto un equipo de investigadores de la Universidad de Newcastle ha creado una mano artificial dotada de una cámara. Esta es capaz de reconocer objetos mediante inteligencia artificial. Lo que consiguen estos científicos es que el miembro tenga una mayor agilidad.
Y es que la mano artificial tiene su propio software que procesa las imágenes de la cámara. De esta manera puede saber en todo momento en qué entorno se encuentra. Algo bastante útil cuando un usuario quiere, por ejemplo, agarrar una taza. Primero lo piensa el cerebro, que envía la señal a los músculos y estos se disponen a agarrar la taza. La cámara detecta la taza, reconoce su forma -en una base de datos– y envía información al sistema robótico sobre cómo aferrarla.
De esta forma se acelera el proceso por el que el usuario agarra la taza. La mano artificial está equipada con una cámara sencilla, de Logitech. La clave está en el reconocimiento de imágenes que despliega el sistema. Este se encuentra entrenado para reconocer objetos que puedan ser susceptibles de interactuar con el miembro artificial.
El entrenamiento podría ser personalizado, según apuntan los investigadores. Si un usuario en su casa tiene un tipo de tazas con asas en forma de media luna habrá que enseñar al sistema a agarrarlas. No será lo mismo que coger otras con un diseño diferente. Para lograrlo hay que presentar a la cámara la imagen del objeto , para que después el usuario haga el movimiento de agarrarla.
En realidad se trata de un atajo, una forma de automatizar el movimiento y es algo similar a lo que hace nuestro cuerpo. Cuando vamos a agarrar una taza ya sabemos cómo hacerlo porque nuestra vista nos da las pistas. El problema con un miembro robótico es que el sentido de la vista y la motricidad están separados. Por eso, ¿por qué no dotar de visión al propio miembro?
Comentarios