LOGIN TO YOUR ACCOUNT

Username
Password
Remember Me
Or use your Academic/Social account:

CREATE AN ACCOUNT

Or use your Academic/Social account:

Congratulations!

You have just completed your registration at OpenAire.

Before you can login to the site, you will need to activate your account. An e-mail will be sent to you with the proper instructions.

Important!

Please note that this site is currently undergoing Beta testing.
Any new content you create is not guaranteed to be present to the final version of the site upon release.

Thank you for your patience,
OpenAire Dev Team.

Close This Message

CREATE AN ACCOUNT

Name:
Username:
Password:
Verify Password:
E-mail:
Verify E-mail:
*All Fields Are Required.
Please Verify You Are Human:
fbtwitterlinkedinvimeoflicker grey 14rssslideshare1
Delaune, Jeff (2013)
Languages: English
Types: Article
Subjects: Navigation, Vision, Inertiel, Atterrissage, Lune, Précision, 621.39, Inertial, Landing, Moon, Precision
Cette thèse présente Lion, un système de navigation utilisant des informations visuelles et inertielles pour l’atterrissage planétaire de précision. Lion est conçu pour voler au-dessus de n’importe quel type de terrain, plat ou accidenté, et ne fait pas d’hypothèse sur sa topographie. Faire un atterrir un véhicule d’exploration planétaire autonome à moins de 100 mètres d’un objectif cartographié est un défi pour la navigation. Les approches basées vision tentent d’apparrier des détails 2D détectés dans une image avec des amers 3D cartographiés pour atteindre la précision requise. Lion utilise de façon serrée des mesures venant d’un nouvel algorithme d’appariement image-carte afin de mettre à jour l’état d’un filtre de Kalman étendu intégrant des données inertielles. Le traitement d’image utilise les prédictions d’état et de covariance du filtre dans le but de déterminer les régions et échelles d’extraction dans l’image où trouver des amers non-ambigus. Le traitement local par amer de l’échelle image permet d’améliorer de façon significative la répétabilité de leur détection entre l’image de descente et l’image orbitale de référence. Nous avons également conçu un banc d’essai matériel appelé Visilab pour évaluer Lion dans des conditions représentatives d’une mission lunaire. L’observabilité des performances de navigation absolue dans Visilab est évaluée à l’aide d’un nouveau modèle d’erreur. Enfin, les performances du systèmes sont évaluées aux altitudes clés de la descente, en terme de précision de navigation et robustesse au changement de capteurs ou d’illumination, inclinaison de la caméra de descente, et sur différents types de relief. Lion converge jusqu’à une erreur de 4 mètres de moyenne et 47 mètres de dispersion 3 RMS à 3 kilomètres d’altitude à l’échelle. This thesis introduces Lion, a vision-aided inertial navigation system for pinpoint planetary landing. Lion can fly over any type of terrain, whatever its topography, flat or not. Landing an autonomous spacecraft within 100 meters of a mapped target is a navigation challenge in planetary exploration. Vision-based approaches attempt to pair 2D features detected in camera images with 3D mapped landmarks to reach the required precision. Lion tightly uses measurements from a novel image-tomap matcher in order to update the state of an extended Kalman filter propagated with inertial data. The image processing uses the state and covariance predictions from the filter to determine the regions and extraction scales in which to search for non-ambiguous landmarks in the image. The individual image scale management process per landmark greatly improves the repeatability rate between the map and descent images. We also designed a lunar-representative optical test bench called Visilab to test Lion on. The observability of absolute navigation performances in Visilab is evaluated with a novel error budget model. Finally, the system performances are evaluated at the key altitudes of a lunar landing, in terms of accuracy and robustness to sensor or illumination changes, off-nadir camera angle, and non-planar topography. We demonstrate error convergence down to a mean of 4 meters and a 3-RMS dispersion of 47 meters at 3 kilometers of altitude in hardware conditions at scale.

Share - Bookmark

Cite this article