Los sensores LIDAR reconstruyen el
mapa del entorno en 2D, mientras que las cámaras de profundidad realizan un escaneo 3D, una labor fundamental para la exploración de minas o socavones. El siguiente paso es crear una capa superior o capa de aplicación, que se puede desarrollar con
inteligencia artificial a través de un servidor, y ser controlada desde una plataforma web.
“El mecanismo de navegación autónoma del robot es muy similar a cómo los humanos nos desplazamos en nuestro entorno: una vez completado el mapeo del espacio, el robot tendrá la capacidad de desplazarse a cualquier punto siguiendo una trayectoria óptima. Esta trayectoria se basa en el algoritmo Dijkstra que es utilizado por Google Maps”, explica el joven egresado de la Facultad de Ingeniería Mecánica de la UNI.
Un logro auspicioso
El robot autónomo, adquirido con fines educativos, emplea el framework de código abierto Robot Operating System (ROS), que proporciona a los desarrolladores un conjunto de marcos, bibliotecas y herramientas de software de código abierto para crear aplicaciones para robots. Aunque el equipo no trabajó en el diseño del robot, tuvo que desarmarlo por completo para entender los procesos de comunicación interna y evaluar la posibilidad de realizar alguna modificación a su estructura.
A nivel de hardware, las principales modificaciones en el diseño fueron la instalación de una pantalla de acceso al robot y una cámara de profundidad, así como ruedas de tipo mecanum, capaces de moverse en el eje Y, en reemplazo de las de tipo direccional, limitadas al desplazamiento en el eje X. A nivel de software, hubo más cambios. “Hemos trabajado bastante en la parte de navegación, desarrollamos los paquetes en ROS y realizamos una investigación sobre cómo funciona el proceso de navegación, que es muy similar a cómo el ser humano lo realiza”, explica.
A pesar de algunas limitaciones técnicas como la baja resolución del mapeo 3D efectuado por las cámaras de profundidad, Laura enfatiza que su equipo ha logrado grandes avances en la investigación. “Entendimos cómo funciona la navegación autónoma, cómo programar el robot y modificarlo a nuestro gusto. En cuanto a la visión computacional también logramos mejorar el reconocimiento de objetos y entender cómo se realiza este proceso”, indica.