La NASA informó que se encuentra trabajando junto a compañías y agencias internacionales para desarrollar una arquitectura de comunicaciones y navegación para la Luna. LunaNet traerá capacidades “similares a Internet” a la Luna, incluidos servicios de ubicación.
Como ocurre en la Tierra con el GPS, el cual ayuda a las personas a ubicarse en un mapa digital usando teléfonos inteligentes (que envía y recibe señales mediante antenas y satélites), el ingeniero de la
NASA, Alvin Yew, está enseñando a una máquina a usar características en el suelo de la Luna (como elevaciones y depresiones)
para navegar por su superficie.
“Para el geoetiquetado científico y de seguridad es importante que los exploradores sepan exactamente dónde están mientras exploran el paisaje lunar”, dijo Alvin Yew, ingeniero de investigación en el Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland. “Equipar un dispositivo a bordo con un mapa local sería compatible con cualquier misión, ya sea robótica o humana”.
Sin embargo, los exploradores en algunas regiones de la superficie lunar pueden requerir soluciones superpuestas derivadas de múltiples fuentes para garantizar la seguridad en caso de que las señales de comunicación no estén disponibles.
“Es fundamental tener sistemas de respaldo confiables cuando hablamos de exploración humana”, indicó Yew. “La motivación para mí fue permitir la exploración de cráteres lunares, donde todo el horizonte sería el borde del cráter”.
¿Cómo se desarrollará el sistema de ubicación con inteligencia artificial?
Yew comenzó a trabajar con datos del Lunar Reconnaissance Orbiter (LRO) de la NASA, específicamente el Lunar Orbiter Laser Altimeter (LOLA). LOLA mide las pendientes, la rugosidad de la superficie lunar y genera mapas topográficos de alta resolución de la Luna.
Por ello, el ingeniero está entrenando una inteligencia artificial para recrear las características en el horizonte lunar. Las panorámicas digitales se usarán para correlacionar rocas y crestas conocidas con las que se ven en imágenes tomadas por un rover o astronauta, proporcionando una identificación de ubicación precisa para cualquier región determinada.
“Conceptualmente es como salir y tratar de averiguar dónde estamos examinando el horizonte y los puntos de referencia circundantes”, precisó Yew. “Si bien una estimación de la ubicación aproximada puede ser fácil para una persona, queremos demostrar una precisión en el terreno de menos de 9 metros. Esta precisión abre la puerta a una amplia gama de conceptos de misión para futuras exploraciones”.
Al hacer un uso eficiente de los datos de LOLA, un dispositivo portátil podría programarse con un subconjunto local de datos de terreno y elevación para conservar la memoria. Según el trabajo publicado por el investigador de Goddard, Erwan Mazarico, un explorador lunar puede ver hasta 300 kilómetros desde cualquier lugar sin obstrucciones en la Luna. Incluso en la Tierra, la tecnología de ubicación de Yew podría ayudar a los exploradores en terrenos donde las señales de GPS están obstruidas o sujetas a interferencias.
El sistema de geolocalización de Yew aprovechará las capacidades de
GIANT (Herramienta de navegación y análisis de imágenes de Goddard). Esta herramienta de navegación óptica desarrollada principalmente por el ingeniero de Goddard, Andrew Liounis, revisó y verificó previamente los datos de navegación para la misión
OSIRIS-REx de la NASA para recolectar una muestra del asteroide Bennu (consultar CuttingEdge, verano de 2021).
A diferencia de las herramientas de radar o láser que pulsan señales de radio y luz en un objetivo para analizar las señales de retorno, GIANT analiza imágenes de forma rápida y precisa para medir la distancia hacia y entre puntos de referencia visibles.
Así, la combinación de interpretaciones de inteligencia artificial de panorámicas visuales con un modelo conocido del terreno de una Luna o un planeta podría proporcionar una poderosa herramienta de navegación para futuros exploradores.