ETIS Lab.

neurocybernetic team



Home | Publications | Members | Internships | Medias | Videos | Access | Agenda


Internships 2017

Research master, six months.
Apprendre à changer de point de vue : modélisation neurobiologique et application robotique

Suivre un objet, naviguer vers un lieu donné, prendre un objet, imiter une action ou partager son attention avec une autre personne implique des choix de référentiels pouvant être différents et donc la capacité à changer de référentiel. Dans ce stage, nous nous focaliserons sur l’apprentissage de transformation de référentiels sur lequel s’appuie un grand nombre de nos capacités cognitives.

Le but sera dans un premier temps de développer un modèle neuronal très simple (basé sur des champs de neurones dynamiques) permettant à un robot d’apprendre en ligne à prédire ou mettre en correspondance la position d’un objet dans son champ de vision en fonction de la rotation de son œil, tête ou corps. Le modèle devra permettre de rendre compte des résultats obtenus sur les cellules de direction de la tête notamment (fusion d’information vestibulaires, proprioceptives et visuelles dans notre cas) . Le modèle sera alors testé dans des architecture de contrôle existantes permettant de gérer des taches aussi différentes que la reconnaissance d’un lieu, d’un objet, ou d’assurer un changement de perspective dans une tache d’attention conjointe. On s’attachera à étudier la capacité du réseau à s’adapter à des changements inattendus coté robot : vieillissement / panne d’un degré de liberté ou à l’inverse coté environnement à des objet visuels, tactiles… pouvant constituer des référentiels plus ou moins stable et précis pour la recalibration du système. L’une des difficultés majeures sera ainsi à la fois d’apprendre les transformations mais aussi de sélectionner parmi l’ensemble des signaux extéro et intéroceptifs ceux à même de bien contrôler le recalage des différents signaux et leurs référentiels associés.

Lieu : Equipe neurocybernétique du laboratoire ETIS (UMR CNRS 8051) à Cergy Pontoise
http://www.ensea.fr/neurocyber/web/fr/

Compétences requises : bonnes connaissances en réseaux de neurones, intérêt pour les sciences cognitives, bon niveau de programmation en C

Plateformes : simulateur de réseau de neurones prométhé, robots mobiles (robulab, Berenson), robot humanoïde à commande hydraulique TINO.

Contact : P. Gaussier : gaussier@ensea.fr

Indemnité : 520€/mois

Apprendre à déplacer un objet sur une table : modélisation neurobiologique et application robotique

Prendre et déplacer un objet est une tache élémentaire en robotique. Son apprentissage avec un modèle neurobiologiquement plausible reste toujours un défi surtout si l’on y intègre des contraintes dynamiques. Dans le cadre de ce stage, nous désirons tester les effets d’un modèle simple des ganglions de la base pour étudier quel est l’impact de différents signaux de renforcement sur la forme des trajectoires générées par un bras de robot à commande hydraulique dans une tache de prise et dépôt d’objet. Le but sera d’analyser dans quelle mesure des signaux de renforcements simples liés au succès ou à l’échec de la prise ou du dépôt de l’objet (dans des conditions variables) peut induire des formes de trajectoires spécifiques reconnaissables pas le partenaire humain. On espère ainsi développer un modèle de contrôle moteur qui soit à la fois efficace et donne des trajectoires « lisibles » par un partenaire humain. La connexion avec un modèle de cervelet déjà développé pour l’apprentissage de la balistique du mouvement une fois la « découverte » de la bonne trajectoire pourra être envisagée sur la fin du stage.

Ce travail comportera des simulations et expérimentation sur le robot humanoïde TINO à commande hydraulique. Ce robot peut être contrôlé directement en force au travers de notre simulateur de réseaux de neurones Prométhé. Il utilise des informations visuelles pour la localisation des objets et la préhension d’objets.

Lieu: Equipe neurocybernétique du laboratoire ETIS (UMR CNRS 8051) à Cergy Pontoise
http://www.ensea.fr/neurocyber/web/fr/

Compétences requises : bonnes connaissances en réseaux de neurones, intérêt pour les sciences cognitives, bon niveau de programmation en C

Plateformes : simulateur de réseau de neurones Prométhé, robot humanoïde à commande hydraulique TINO

Contact : P. Gaussier : gaussier@ensea.fr

Indemnité : 520€/mois

Internships 2016

Research master, six months.
Spatial and behavioral contexts for bio-inspired robotic navigation
The purpose of this internship is to design, implement and evaluate a bio-inspired control architecture for a mobile robot. In previous work, we showed that a model inspired by studies on rats and primates can be used by a robot to explore a new environment et learn to recognize visited locations. Thus, it is possible to follows certain trajectories or return to a known place. However, the scaling-up to big environments -- outdoors in particular -- introduces two problems: visual ambiguity and combinatory explosion. One of the solutions could be to rely on contexts in order to reduce the search space and resolve ambiguities. Such contexts can be spatial (corridor, open space, road, etc.) or behavioral (movements, tasks, satisfactions of some needs, etc.).

This internship proposal is addressed to master's students in computer science, electronics, robotics, cognitive science and other related fields. For further information, contact (firstname.lastname@ensea.fr).

references:

  • P. Gaussier and S. Zrehen, PerAc : A neural architecture to control artificial animals, Robotics and Autonomous Systems, vol. 16, no. 2-4, pp. 291-320, 1995.
  • C. Giovannangeli, P. Gaussier, and J. Banquet, Robustness of visual place cells in dynamic indoor and outdoor environment, International Journal of Advanced Robotic Systems, vol. 3, no. 2, pp. 115-124, 2006.
  • N. Cuperlier, P. Gaussier, and M. Quoy, Interest of spatial context for a place cell based navigation model, in From Animals to Animats 10. , pp. 169-178, 2008.

    Supervisors : Marwen Belkaid, Nicolas Cuperlier and Philippe Gaussier

  • Developpental approach for acquisition of a head-centred body image in robot based on multimodal integration with neural networks
    Seeing is not just done through the eyes, it involves the integration of other modalities such as auditory, proprioceptive and tactile information, to locate objets, persons and also body-parts. We have done several developmental robotic experiments with neural networks models of the superior colliculus and of the cortical area in order to process multimodal integration. Following an ecological approach, the mechanisms involved play a key role to build one unified perceptual world into a robot. We would like to pursue these robotic experiments with our robot TINO toward a head-centered body image representation with a head-neck-eye’s system with a camera and microphones, using neural networks for egocentred spatial representation, social interaction with audio-visual speech perception as well as for facial imitation.

    references:

  • Pitti A., Kuniyoshi Y., Quoy M. & Gaussier P. (2013) Modeling the Minimal Newborn's Intersubjective Mind: The Visuotopic-Somatotopic Alignment Hypothesis in the Superior Colliculus. PLoS ONE, 8:7, e69474.
  • Pitti A., Blanchard A., Cardinaux, M. & Gaussier P. (2012) Gain-Field Modulation Mechanism in Multimodal Networks for Spatial Perception. IEEE HUMANOIDS Conf., 297-302.
  • S. Boucenna, P. Gaussier, P. Andry, and L. Hafemeister, “Imitation as a communication tool for online facial expression learning and recognition,” in Intelligent Robots and Systems (IROS), 2010 IEEE/RSJ International Conference on. IEEE, 2010, pp. 5323–5328.
  • A. Streri, M. Coulon, and B. Guellai, “The foundations of social cognition: Studies on face/voice integration in newborn infants,” International Journal of Behavioral Development, vol. 1-5, 2012.

    who: motivated applicants in Master AI and Robotics should contact Alex Pitti with a CV and a motivation letter, final response will be given at least in the middle of January.

    contact: alexandre.pitti@u-cergy.fr

    Alexandre Pitti, Sofiane Boucena : Maitres de Conferences

  • Synchronisations bas niveau et Prédiction du Rythme d’interaction pour des Interactions Homme Machine Intuitives
    Sujet (pdf)

    Encadrant :

    Prémices des mécanismes de l'intentionnalité appliqué à l'interaction homme-robot

    Contexte :

    La robotique développementale est une branche de la robotique qui consiste à comprendre et modéliser le développement du bébé en utilisant une plateforme robotique. Dans ce contexte, des expériences robotiques proposent et/ou implémentent des modèles cognitifs issus des recherches en psychologie. Les modèles qui seront explorés lors de ce stage reposent sur les interactions triadiques mère/enfant/objet où le robot jouera le rôle du jeune enfant.

    Objectifs :

    Des expériences qui proposent un modèle permettant de comprendre comment un robot peut développer de manière autonome la reconnaissance d'un ensemble de postures sont déjà maîtrisées. En partant de ces interactions dyadiques, nous souhaitons lors de ce stage doter le robot de mécanismes intentionnels qui lui permettront d'enrichir son interaction avec l'environnement. A la manière d'un bébé humain, être imité permet au robot d'apprendre à associer ce qu'il fait avec ce qu'il voit, puisqu'il voit l'autre (le partenaire humain) réaliser ses propres intentions. Il est ainsi possible de proposer un modèle computationnel de l'intentionnalité qui émerge du jeu d'imitation entre le robot et l'humain.

    Encadrants :

    Un robot expressif capable de créer et maintenir une interaction intuitive

    Contexte :

    Les Musées contemporains offrent un contexte institutionnel privilégié, permettant aux visiteurs d'aiguiser leur perception de manière très spécifique. Ces derniers sont incités à apprécier les artefacts qui leur sont présentés sans qu’aucune contrainte forte - en particulier, sur le plan fonctionnel - ne pèse sur eux, et ne vienne automatiquement dicter leurs réactions vis-à-vis de ces derniers. Libres à eux, en particulier, de s’intéresser à ce que l'objet représente intimement pour eux ou à se concentrer plutôt sur ce que ce même objet représente aux yeux de ses créateurs et de ceux à qui il était initialement destiné. Libres aussi, à eux, au delà des conditionnements socio-culturels ou muséographiques qui pèsent sur eux, de privilégier certains objets ou d’en ignorer d’autres. Libres à eux encore, quand ils contemplent un objet, d’en isoler certains traits saillants.

    Ces hypothèses pourrait être mises en évidence et testées par le biais d’expérimentations robotique, où nous utiliserons notre robot mobile Berenson en tant que médiateur culturelle afin qu’il nous renseigne sur les préférences ‘esthétiques’ des visiteurs. Nous voudrions utiliser Berenson pour interroger maintenant non seulement la nature des conduites esthétiques telles qu’on peut les observer dans des Musées mais, aussi plus généralement, certaines des fonctions essentielles que l’apprentissage du jugement esthétique joue, à notre sens, dans nos sociétés.

    Objectifs:

    Nous voudrions interroger les visiteurs sur leurs préférences vis à vis des oeuvres. Par conséquent, le robot sera utilisé pour analyser les préférences des visiteurs. Le robot Berenson annotera et apprendra les préférences des visiteurs (valeurs émotionnelles aux objets). Des analyses statistiques sur les préférences des visiteurs seront réalisées à partir des données annotées. Dans le même temps, nous voudrions mettre en évidence l'intérêt que Berenson suscite afin de vérifier que l'intentionnalité que les visiteurs prêtent au robot est manifestement liée à sa capacité à réagir de manière synchrone aux actions de ces derniers. Une fois l’apprentissage effectué, nous pourrons étudier notre capacité intuitive à attribuer des formes d’intentionnalité à Berenson en lui demandant de rejoindre une catégorie d’objet. La cohérence et la prédictibilité temporelle du comportement du robot sont ainsi des éléments importants pour prêter au robot des intentions ou projeter sur lui des intentions humaines.

    Prérequis : progammation : C, matlab

    Encadrant :


    © 2011–2018 — ETIS UMR 8051 — webmaster Arnaud Blanchard