ISAV 2011-2012

Aller à : navigation, rechercher

Projets tutorés

Interface à retour d’efforts à un degré de liberté pour l’injection de ciment en vertébroplastie

Encadrants : Laurent Barbé

Étudiants : Brouta, Reboulet

Objectif : Réaliser et commander une interface à retour d’efforts à 1 degré de liberté.

L’injection de ciment orthopédique sous contrôle d’image scanner est une procédure relativement dangereuse (à long terme) pour le médecin radiologue. En effet, lors de l’injection, le radiologue est directement exposé aux rayons X pendant une durée pouvant atteindre 15 minutes. Le projet Spinetronic de l’équipe AVR du LSIIT vise à éloigner le radiologue le plus possible de la source ionisante. A l’heure actuelle nous avons développé un système d’injection robotisée couplé à une interface à retour d’efforts, qui permet de téléopérer l’injection tout en restituant une image des efforts mis en jeux lors de l’injection. Le but de ce projet est de proposer une alternative à l’interface haptique actuelle trop volumineuse pour ce type d’application, pour cela nous souhaitons évaluer les performances d’une interface utilisant un micromoteur linéaire couplé à un capteur d’efforts.

Déroulement du projet :

  • Montage de l’interface haptique (à savoir que cette phase ne nécessite pas de compétences particulières en CAO, uniquement une certaine aptitude au montage mécanique).
  • Connexion du matériel au PC de contrôle ;
  • Développer une partie logicielle permettant de contrôler l’interface (mesure de position, mesure d’efforts, renvoie des efforts) dans un environnement temps-réel ;
  • Caractérisation du système et développement d'une loi de commande en efforts ;
  • Intégrer le dispositif dans le banc de test d’injection de ciment disponible sur la plateforme robotique de l’IRCAD.

Matériel disponible :

  • moteur linéaire Faulhaber ;
  • capteur de position ;
  • capteur d’efforts ENTRAN à 1 degré de liberté ;
  • pièces mécaniques ou éléments mécaniques ;
  • PC sous Linux temps-réel (Xenomai) ;
  • Modules Beckhoff pour la commande et la mesure (protocole EtherCAT) ;

Remarques :

  • Par commodité, le projet se déroulera principalement sur la plateforme robotique médicale du LSIIT située à l’IRCAD (Institut de Recherche contre les Cancers de l’Appareil Digestif dans l’enceinte des Hôpitaux Civils de Strasbourg).
  • Pour toute la partie assemblage et intégration, vous pourrez compter sur une assistance technique.
  • La partie logicielle nécessite un certain intérêt pour la programmation avec contraintes temps-réelles.

Contact : Laurent Barbé

Réalisation d'une cellule de caractérisation pour système à câble

Encadrants : Philippe Zanne

Étudiants :

Objectif : développer une cellule de mesure extéroceptive de la position de l’organe terminal d'un robot à câble basée sur la vision.

Dans le cadre de ses recherches en radiologie interventionnelle sous IRM, l’équipe AVR développe un système de positionnement d’aiguille compatible IRM. L’organe terminal tenant l’aiguille est actionné à l’aide de 4 câbles reliés à 4 moteurs asservis en position. La position cartésienne de l’organe terminal est reconstruite à partir du modèle géométrique robot. Cette reconstruction est cependant entachée d’erreurs notamment à cause de problèmes de mesures sur les paramètres géométriques du robot, de frottements ainsi que sur l’estimation des zéros des moteurs.

L’idée de ce projet est de développer une cellule de mesure extéroceptive de la position de l’organe terminal basée sur la vision, afin d’affiner le modèle géométrique disponible et d’étalonner le robot.

Déroulement du projet :

  • Mise en place du système de vision (étalonnage de la caméra ou des caméras).
  • Reconstruction de la position de la base du robot par rapport au système de vision à partir de points caractéristiques de la structure
  • Suivi de l’organe terminal dans l’image
  • Reconstruction de la pose de l’organe terminal dans la base du robot ( à cadence vidéo)
  • Développement de la procédure d ‘étalonnage du robot
  • Asservissement de l’organe terminal par vision. ( ce dernier point est facultatif)

Matériel disponible :

  • Système de positionnement d'aiguille et son contrôleur
  • Système de vision et son PC (sous linux)
  • Une base de fonctions de vision pour la reconstruction et le suivi

Remarques :

  • Par commodité, le projet se déroulera principalement sur la plateforme robotique médicale du LSIIT située à l’IRCAD (Institut de Recherche contre les Cancers de l’Appareil Digestif dans l’enceinte des Hôpitaux Civils de Strasbourg).
  • Une assistance technique sera disponible pour la manipulation de la plateforme de positionnement
  • Des compétences en programmation C ou C++ sont nécessaires.


SLAM : Simultaneous Localization and Mapping pour robot mobile à roues

Encadrant : Bernard Bayle

Étudiants : Pihen, Tourret

Objectif : Réaliser un simulateur pour la cartographie et la localisation en robotique mobile.

Le problème principal de la robotique mobile réside dans le fait de percevoir l'environnement et d'y localiser le robot afin de réaliser une navigation sûre vers un objectif donné. Pour cela, on consitute généralement une carte métrique de l'environnement à l'aide de mesure réalisées par un télémètre.

On s'intéresse ici à la télémétrie par ultrasons. Les mesures successives faites dans l'environnement à l'aide du capteur doivent permettre de constituer une carte fine tenant compte de la confiance que l'on a dans le capteur utilisé. Par ailleurs, la carte étant constitué au gré des mouvements du robot, il faut simultanément se localiser dans cette carte afin de recaler les nouvelles mesures, et au final permettre la navigation du robot. On se propose dans ce projet d'étudier le problème le localisation et cartographie simultanées (SLAM) et de réaliser un simulateur, à partir de données recueillies à l'aide de capteurs réels dans une scène encombrée d'obstacles. Le développement se fera dans un premier temps avec le logiciel Matlab, et sera porté en C si le temps le permet, pour réaliser l'implantation de l'algorithme de SLAM sur Robot LEGO.


Déroulement du projet :

  • Compréhension du problème de localisation et de cartographie, lecture d'une ou deux références principales en la matière
  • Acquisition de données réelles à l'aide d'un robot Lego et d'un ou plusieurs télémètres
  • Analyse de ces données et caractérisation des capteurs
  • Consitution d'un simulateur Matlab ou/et C pour faire du SLAM 2D
  • Idéalement implémentation sur robot LEGO


Contact : Bernard Bayle


Pacemaker respiratoire

Titre : Régulation du rythme respiratoire d’un patient non sédaté

Mots-clés : commande, ingénierie biomédicale

Localisation : ENSPS, Illkirch

Étudiants : Rmouche, Kamil

Contexte

De nombreuses interventions sont pratiquées sur des patients non sédatés, c’est à dire qui n’ont pas subi d’anesthésie et dont la respiration n’est pas contrôlée par une machine de ventilation artificielle. Dans ce cas, la respiration du patient est libre et susceptible de varier en amplitude et en fréquence. Pour certaines interventions il est souhaitable voire critique de maintenir un profil de respiration constant. Par exemple pour certaines interventions guidées par échographie, le chirurgien doit compenser en temps-réel les mouvements des organes dus à la respiration. Plus ces mouvements sont erratiques et plus difficile sera sa tâche. De même, certaines radiothérapies ont pour cible des tumeurs très mobiles (sur le poumon par exemple). Dans ce cas, on utilise des sources mobiles montées sur robot qui tentent de focaliser en permanence le faisceau de rayonnements vers la tumeur. Ces systèmes de suivi fonctionnent d’autant mieux que le mouvement respiratoire est régulier. Ce stage vise à développer un « pacemaker respiratoire ». Le système a été conçu et fabriqué. Il s’agit maintenant de réaliser la mise au point en développant des lois de commande qui visent à stabiliser la respiration d’un patient conscient.

Description du système

Projet "Pacemaker respiratoire"

Deux vannes actionnées par des motoréducteurs ultra-rapides permettent de contrôler en temps-réel la résistance du flux d’air entrant et sortant. Des capteurs de débit et de pression fournissent à l’ordinateur de commande les informations de contre réaction nécessaires pour la régulation de la respiration. Le système est entièrement passif, c’est à dire qu’il n’est pas capable de fournir de l’énergie ce qui est un pré requis pour la sécurité.

Travail à effectuer

Le travail consiste à améliorer la loi de commande permettant de réguler le flux d'air. Un travail préliminaire a permis de réaliser l'interfaçage avec les moteurs et les capteurs ainsi que de valider une première commande élémentaire. Ce projet vise à augmenter les performances de la commande et à valider son efficacité par des essais expérimentaux.

Contact : Jacques Gangloff

SURF accéléré GPU

Titre : SURF accéléré GPU

Étudiants : Vultaggio, Rousseau

Mots-clés : Vision, Traitement d'image, OpenCV

Localisation : ENSPS, Illkirch

Description

SURF (Speeded Up Robust Features) est un algorithme de détection rapide de descripteurs robustes. Les GPGPUs (General-purpose computing on graphics processing units) permettent de décupler la puissance de calcul parallèle de machines grand publique en utilisant les unités de traitement des cartes graphiques via un pseudo-langage de programmation s'apparentant au C (CUDA pour les cartes nVidia). Une version CUDA de l'algorithme SURF est proposée dans la bibliothèque de fonctions OpenCV. Le projet consistera à réaliser un localisateur 3D temps-réel basé sur cet algorithme. Le travail portera sur le choix d'une cible maximisant la robustesse de détection, sur la programmation de l'algorithme de détection et de reconstruction 3D (en utilisant les fonctions OpenCV) et sur la restitution à l’écran de la position reconstruite via une interface graphique avec visualisation 3D de la position courant de la cible.

Matériel

Mise à disposition d'un PC "musclé'" équipé d'une carte nVidia GeForce GTX 560 Ti avec 384 coeurs et d'une Webcam USB. Il est préférable que les étudiants choisissant ce projet soient familiers avec l'environnement Linux et aient de fortes affinités avec la programmation en langage C/C++.

Contact : Jacques Gangloff

Atterissage en pilote automatique d'un AR Drone

Encadrants : Loïc Cuvillon (1 binôme (2 binômes si plus de projets disponibles))

Étudiants : Mahé, Malmonte

Mots-clés : Drone, Asservissement Visuel, OpenCV, Commande (PID)

Localisation : ENSPS (C138 et plein air), Illkirch

Objectif : Piloter un Drone à partir d'un PC et de la webcam embarquée pour un aterrisage automatique.

"AR drone" en configuration plein air
"AR drone" en configuration d'intérieur

L’AR Drone est un quadricoptère avec un Linux embarqué pilotable par Wifi. Une application ludique pour le piloter est disponible sur Iphone/Ipad ou Android. Un kit de développement est cependant disponible pour le piloter à partir de PC Linux via le Wifi https://projects.ardrone.org . On trouve déjà nombre de projets en ligne de pilotage du Drone en C ou python à partir de Linux.


On se propose ici d'utiliser les 2 webcams embarquées pour visualiser une cible (croix au sol) et réaliser un atterrissage en mode automatique sur la cible. Le traitement de l'image reçue sur le PC sera grandement facilité par l'utilisation de la bibliothèque OpenCV qui implémente la grande majorité des algorithmes de détection de contours et de formes. L'ensemble sera codé en C ou au choix C++.

Un prolongement possible du projet est le "drone suiveur": l'asservissement visuel de la position d'un drone sur un autre drone.

Déroulement du projet :

  • Prise en Main de l'AR Drone
  • Mise en place de la connexion Wifi PC - Drone sous linux.
  • Lecture des images de la webcam du Drone sur le PC
  • Détection de la cible
  • Asservissement sur la cible et calcul d'une trajectoire

Matériel disponible :

  • 2 PC Linux avec une carte WiFi et la bibliothèque de traitement d'image OpenCV;
  • 2 AR Drones ;
  • 2 batteries additionnelles ;


Contact : Loïc Cuvillon

Commande basée observateur non linéaire pour la commande d’un système moteur à c.c. couplé à deux charges

Mots-clés : Commande par retour d’état, observateur non linéaire, simulation Matlab

Localisation : ENSPS, Illkirch

Étudiants : Muller, Carvalho, Peloux

Objectif : Commande basée observateur non linéaire pour la commande d’un système comportant deux charges couplées à un moteur, avec zone morte, à travers un arbre élastique

Des nombreux systèmes mécaniques, rencontrés par exemple dans des applications telles que les machines-outils et la robotique, comportent des arbres de transmission longs ainsi que des broches pouvant générer des torsions élastiques au niveau de la structure mécanique. De plus, la présence des roulements et des systèmes de transmission introduit des effets de type frottement non linéaire et zone morte. Cela peut générer des cycles limites et des effets « stick-slip ».

Ces systèmes mécaniques peuvent être modélisés de façon satisfaisante par un modèle à deux masses couplées à travers un arbre élastique à un moteur à c.c avec zone morte. L’objectif de ce projet est de simuler le système et d’élaborer une loi de commande par retour d’état basée observateur capable de prendre en compte les non linéarités du système.

Déroulement du projet :

  • Compréhension du système et simulation Matlab/Simulink
  • Synthèse d’une commande par retour d’état et d’un observateur non linéaire
  • Etude des performances du système en boucle fermée (simulation Matlab)
  • Extension à la commande robuste basée observateur non linéaire

Contact : Iuliana Bara

Soutenances de stage

Stagiaire Structure d'accueil Lieu Encadrant Titre
RMOUCHE Anas Heinzmann Schönau (DE) Christophe Fenart Automatic gas engine ignition energy control for reliable operation and increase spark plug lifetime
ROUSSEAU Loïc THALES optronique Elancourt Florian Langlois Détection de mouvements sur images drone
MAHE Antoine Univ. Ottawa, SMART Lab Ottawa, CA Pierre Payeur Planification de trajectoire pour le suivi de surfaces courbes guidé par rétroaction visuelle et de contact
TOURRET Benoit ECA robotics Saclay Benoit Morisset Développement d'un module d'interaction homme-machine basé sur la reconnaissance vocale
MULLER Christophe SPENO international SA Genève, CH Yvan Isely Modélisation du comportement du chariot de meulage RR64M-2
BROUTA Remy BOSCH Stuttgart, DE Dr Heiko Ridderbisch Laser ignition system
PIHEN Guillaume EPFL/LASA Lausanne Pr Aude Billard Teaching a robot how to reproduce a child's handwriting
PELOUX Pierre Siemens Munich Dr Robert Eidenberger Development of a method of object detection
TELES André Siemens Munich Michael Flegert Autonomous system testing in practice : a systematic approach
KAMIL Ahmed Adpet Annecy Arfire Christian Caractérisation d'un capteur de force et de moment
MALMONTE Julien Altran technologies Illkirch Rodolphe Querelle Evaluation d'une solution de prototypage rapide
VULTAGGIO Maxime JRL Tsukuba, JP Abderrahmane Kheddar A visual servoing scheme human-humanoid joint object transformation
REBOULET Bastien THALES avionics Le Haillan Cécile André Definition et prototypage de nouveaux concepts d'interfaces homme-système pour la gestion de la mission dans un cockpit d'hélicoptère