LOGIN TO YOUR ACCOUNT

Username
Password
Remember Me
Or use your Academic/Social account:

CREATE AN ACCOUNT

Or use your Academic/Social account:

Congratulations!

You have just completed your registration at OpenAire.

Before you can login to the site, you will need to activate your account. An e-mail will be sent to you with the proper instructions.

Important!

Please note that this site is currently undergoing Beta testing.
Any new content you create is not guaranteed to be present to the final version of the site upon release.

Thank you for your patience,
OpenAire Dev Team.

Close This Message

CREATE AN ACCOUNT

Name:
Username:
Password:
Verify Password:
E-mail:
Verify E-mail:
*All Fields Are Required.
Please Verify You Are Human:
fbtwitterlinkedinvimeoflicker grey 14rssslideshare1
Lerasle , Frédéric (2008)
Publisher: HAL CCSD
Languages: French
Types: Other
Subjects: filtrage, optimisation, traitement des images, navigation de robots mobiles, [ SPI.AUTO ] Engineering Sciences [physics]/Automatic, interaction homme/machine, vision par ordinateur, interaction homme/machine., analyse spatio-temporelle, fusion de données exteroceptives
Ce mémoire d'habilitation à diriger les recherches porte sur la perception et la compréhension conjointe de l'espace et du milieu par un robot cognitif autonome. Dans ce contexte, la démarche consiste ici à intégrer des percepts multiples et incertains à tous les niveaux de la perception à partir de capteurs visuels embarqués. Ces travaux se structurent en deux thèmes. Le premier thème se focalise sur la perception de l'espace pour la navigation autonome en milieu intérieur. Nos travaux antérieurs ont mis l'accent sur une méthodologie complète de détection, reconnaissance et localisation sur amers visuels validée par des expérimentations réelles sur le robot Diligent. Ces amers sont capturés automatiquement par le robot dans les différentes représentations métriques et topologiques de son environnement de travail. La navigation consiste alors à exploiter ces modèles pour se localiser métriquement ou qualitativement, sur la base de données visuelles, éventuellement télémétriques. À terme, ces représentations seront enrichies par des informations sémantiques capturées en interaction avec l'homme. Cet apprentissage supervisé, la perspective d'un robot sociable, nous ont amené à démarrer le second thème sur la perception par le robot de l'homme pour leur interaction. Nos travaux ont porté sur la détection, le suivi, la reconnaissance de l'homme par vision monoculaire couleur. Parmi ces fonctions, la problématique du suivi est centrale puisque la plupart des tâches robotiques coordonnées avec l'homme nécessite de caractériser la relation d'une plate-forme mobile aux agents humains a priori mobiles. Nous avons ainsi prototypé puis intégré plusieurs fonctions de suivi 2D ou 3D de tout ou partie des membres corporels de l'homme par le choix conjoint de stratégies de fusion de données visuelles et de filtrage particulaire répondant aux modalit és d'interaction envisagées pour le robot "guide" Rackham et le robot compagnon Jido. Les prospectives énoncées visent à l'interactio n de percepts relative à la perception simultanée par le robot de l'espace et/ou de l'homme. La problé- matique de l'intelligence ambiante, par l'ajout de robots anthropomorphes type humanoïde dans ces environnements humains, devrait infléchir ces travaux tout en recoupant certaines investigations passées ou actuelles.
  • The results below are discovered through our pilot algorithms. Let us know how we are doing!

    • [1] T. Kawahara A. Lee and K. Shikano. Julius - an open source realtime large vocabulary recognition engine. In European Conference on Speech Communication and Technology (EUROSPEECH), pages 1691-1694, 2001.
    • [2] R. Alami, R. Chatila, S. Fleury, and F. Ingrand. An architecture for autonomy. International Journal of Robotic Research (IJRR'98), 17(4):315-337, 1998.
    • [3] Brice Burger, Isabelle Ferrane´, and Fre´de´ric Lerasle. Multimodal interaction abilities for a robot companion. In Int. Conf. on Computer Vision Systems (ICVS'08), pages 549-558, Santorini, Greece, 2008.
    • [4] T. Fong, I. Nourbakhsh, and K. Dautenhahn. A survey of socially interactive robots. Robotics and Autonomous Systems, 42:143-166, 2003.
    • [5] M. Isard and A. Blake. CONDENSATION - conditional density propagation for visual tracking. Int. Journal on Computer Vision (IJCV'98), 29(1):5-28, 1998.
    • [6] J. Maas, T. Spexard, J. Fritsch, B. Wrede, and G. Sagerer. A multimodal topic tracker for improved human-robot interaction. In Int. Symp. on Robot and Human Interactive Communication, Hatfield, September 2006.
    • [7] K. Nickel and R. Stiefehagen. Visual recognition of pointing gestures for human-robot interaction. Image and Vision Computing (IVC'06), 3(12):1875-1884, 2006.
    • [8] G. Pe´rennou and M. de Calme`s. MHATLex: Lexical resources for modelling the french pronunciation. In Int. Conf. on Language Resources and Evaluations, pages 257-264, Athens, June 2000.
    • [9] O. Rogalla, M. Ehrenmann, R. Zollner, R. Becher, and R. Dillman. Advanced in human-robot interaction, volume 14, chapter Using gesture and speech control for commanding a robot. Springer-Verlag, 2004.
    • [10] M. Skubic, D. Perzanowski, S. Blisard, A. Schultz, and W. Adams. Spatial language for human-robot dialogs. Journal of Systems, Man, and Cybernetics, 2(34):154-167, 2004.
    • [11] R. Stiefelhagen, C. Fu¨gen, P. Gieselmann, H. Holzapfel, K. Nickel, and A. Waibel. Natural human-robot interaction using speech head pose and gestures. In Int. Conf. on Intelligent Robots and Systems (IROS'04), Sendal, October 2004.
    • [12] Q. Wei, D. Schonfeld, and M. Mohamed. Real-time interactively distributed multi-object tracking using a magnetic-inertia potential model. In Int. Conf. on Computer Vision (ICCV'05), pages 535-540, Beijing, October 2005.
    • [13] M. Yoshizaki, Y. Kuno, and A. Nakamura. Mutual assistance between speech and vision for human-robot interface. In Int. Conf. on Intelligent Robots and Systems (IROS'02), pages 1308-1313, 2002.
    • Boverie, S., Devy, M., Lequellec, J. M., Mengel, P., & Zittlau, D. (2000). 3D Perception for vehicle inner space monitoring. In Advanced microsystems for automotive applications (pp. 230-242).
    • Boyer, K. L., & Kak, A. C. (1987). Color-encoded structured light for rapid active ranging. IEEE Transaction on Pattern Analysis and Machine Intelligence, 9(31).
    • Devy, M., Garric, V., & Orteu, J. J. (1997). Camera calibration from multiple views of a 2D object, using a global nonlinear minimization method. In International conference on intelligent robots and systems, Vol. 3 (pp. 1583-1589).
    • Faber, P., & Forstner, W. (2000). A system architecture for an intelligent airbag deployment. In IEEE intelligent vehicles symposium, Detroit, USA.
    • Gautama, S., Lacroix, S., & Devy, M. (1999). On the performance of stereo matching algorithms. In Erlangen workshop: Vision, modeling and visualization (8 p.).
    • Granjean, P., & Lasserre, P. (1995). Stereo vision improvements. In IEEE international conference on advanced robotics, September 1995 (pp. 679-685).
    • Krumm, J., & Kirk, G. (1998). Video occupant detection for airbag deployment. In Workshop on applications of computer vision (pp. 30-35), IEEE Computer Society Press, Los Alamitos, USA.
    • Lequellec, J. M., & Lerasle, F. (2000). Car cockpit 3D reconstruction by a structured light sensor. In IEEE intelligent vehicles symposium (pp. 87-92).
    • Lerasle, F., Lequellec, J. M., & Devy, M. (2000). Relaxation vs. maximal cliques search for projected beams labeling in a Structured Light Sensor. In International conference on pattern recognition, Vol. 1 (pp. 782-785).
    • Matthies, L. (1992). Stereovision for planetary rovers: Stochastic modeling to near real-time implementation. International Journal on Computer Vision, 8(1), 71-91.
    • Mengel, P., Doemens, G., & Listl, L. (2001). Fast range imaging by CMOS sensor array through multiple double short time integration. In International conference on image processing (pp. 169-172).
    • Rosenfeld, J. P., & Tsikos, C. J. (1986). High-speed space encoding projector for 3D imaging. In Optics, illumination and image sensing for machine vision (pp. 146-151).
    • Stockman, G., & Hu, G. (1989). 3D surface solution using structured light and constraint propagation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 11(4), 390-402.
  • No related research data.
  • No similar publications.

Share - Bookmark

Cite this article