ISAV 2012-2013

Aller à : navigation, rechercher

Projets tutorés

Evaluation de la maquette pédagogique "QET DC Motor Control"

Encadrant : Jacques Gangloff

Etudiants :

  • Binôme 1 : BOUDALI, BEDU
  • Binôme 2 : CVETANOVIC, BENBRIK

Objectif : Evaluation du potentiel de la maquette pour les TP de première et deuxième année de TPS

Maquette "QET DC"

La maquette "QET DC Motor Control" est fournie par la société canadienne "Quanser consulting" et est destinée aux travaux pratiques d'automatique. Télécom Physique Strasbourg en a fait l'acquisition de 4 exemplaires afin de remplacer les maquettes "HMC" vieillissantes.

Une documentation de cette maquette peut être trouvée sur la page web du produit.

Cette maquette offre des possibilités plus importantes que le précédent système. Une première partie du travail consistera à tester les différents modes d'utilisation du système. Dans une deuxième phase, il est demandé de porter le TP 2A de commande RST sur cette maquette. On veillera à trouver le meilleur compromis qui minimise la complexité de mise en oeuvre tout en maximisant l'intérêt pédagogique.


Réalisation d'une cellule de caractérisation pour système à câble

Encadrants : Philippe Zanne

Étudiants :

Objectif : développer une cellule de mesure extéroceptive de la position de l’organe terminal d'un robot à câble basée sur la vision.

Dans le cadre de ses recherches en radiologie interventionnelle sous IRM, l’équipe AVR développe un système de positionnement d’aiguille compatible IRM. L’organe terminal tenant l’aiguille est actionné à l’aide de 4 câbles reliés à 4 moteurs asservis en position. La position cartésienne de l’organe terminal est reconstruite à partir du modèle géométrique robot. Cette reconstruction est cependant entachée d’erreurs notamment à cause de problèmes de mesures sur les paramètres géométriques du robot, de frottements ainsi que sur l’estimation des zéros des moteurs.

L’idée de ce projet est de développer une cellule de mesure extéroceptive de la position de l’organe terminal basée sur la vision, afin d’affiner le modèle géométrique disponible et d’étalonner le robot.

Déroulement du projet :

  • Mise en place du système de vision (étalonnage de la caméra ou des caméras).
  • Reconstruction de la position de la base du robot par rapport au système de vision à partir de points caractéristiques de la structure
  • Suivi de l’organe terminal dans l’image
  • Reconstruction de la pose de l’organe terminal dans la base du robot ( à cadence vidéo)
  • Développement de la procédure d ‘étalonnage du robot
  • Asservissement de l’organe terminal par vision. ( ce dernier point est facultatif)

Matériel disponible :

  • Système de positionnement d'aiguille et son contrôleur
  • Système de vision et son PC (sous linux)
  • Une base de fonctions de vision pour la reconstruction et le suivi

Remarques :

  • Par commodité, le projet se déroulera principalement sur la plateforme robotique médicale du LSIIT située à l’IRCAD (Institut de Recherche contre les Cancers de l’Appareil Digestif dans l’enceinte des Hôpitaux Civils de Strasbourg).
  • Une assistance technique sera disponible pour la manipulation de la plateforme de positionnement
  • Des compétences en programmation C ou C++ sont nécessaires.

Réalisation d'une interface de téléopération à pied basée vision

Encadrants : Philippe Zanne

Étudiants : KAMIL, GENEVE

Objectif : Téléopérer à partir des mouvements du pied la partie distale d'un endoscope flexible.

Dispositif de chirurgie à trocart unique robotisé (N. Busser / ICube)

Dans le cadre de ses recherches sur l'assistance robotique à la chirurgie laparoscopique et transluminale, l’équipe AVR en collaboration avec la société allemande KARL STORZ a développé un système flexible robotisé pour la chirurgie à trocart unique (cf photo). Ce système se compose d'un endoscope principale et de deux bras articulés. Il comporte 10 ddl : 3 ddl pour l'endoscope principal, 3ddl pour chaque bras + pour 1 bras 1ddl pour l'ouverture/fermeture de la pince. Chaque bras est téléopéré par 1 interface Omega 7 de la société Force dimension. Les mouvements de la tête de l'endoscope sont couplés à l'une des interfaces. Des expérimentations ont montré que ce couplage nuisé à la précision des mouvements des bras. L’idée de ce projet est de développer une nouvelle interface permettant de commander les mouvements de la tête de l'endoscope à partir des mouvements du pied. Ces mouvements étant détectés à partir d'un retour visuel (caméra).

Déroulement du projet :

  • Développement de l'interface
  • Développement d' un algorithme de suivi du pied de l'utilisateur
  • Développement d'une stratégie de commande de la tête de l'endoscope à partir des mouvements du pied de l'utilisateur.
  • Test de manipulabilité.

Matériel disponible :

  • Système endoscopique robotisé et son contrôleur
  • Système de vision et son PC (sous linux)

Remarques :

  • Par commodité, le projet se déroulera principalement sur la plateforme robotique médicale du LSIIT située à l’IRCAD (Institut de Recherche contre les Cancers de l’Appareil Digestif dans l’enceinte des Hôpitaux Civils de Strasbourg).
  • Une assistance technique sera disponible pour la manipulation de l'endoscope
  • Des compétences en programmation C ou C++ sont nécessaires.


Détection et suivi de personnes dans des vidéos RGB-D

Etudiants : RIMI, DERICKE

Encadrant : N.P.

Description :

Ce projet s'inscrit dans le cadre de l'analyse des activité chirurgicales. Il s'agit à partir de vidéos RGB-D, de détecter et de reconnaitre les activités réalisées par le personnel présent dans la salle opératoire. Une première étape de cette analyse consiste à détecter les personnes présentes dans la salle. Ce mini-projet consistera à développer une interface graphique facilitant la détection semi-automatique et le suivi de ces personnes dans une séquence d'images.

L'interface devra notamment fournir les fonctionnalités suivantes:

  • la visualisation des différentes images (couleur/profondeur/fond/...)
  • le calcul d'une image statique de fond à partir de la séquence
  • la détection des personnes présentes par soustraction du fond et post-traitement
  • la visualisation des personnes détectées à l'aide de boites d'encombrement
  • la possibilités de sauver/charger les annotations correspondant aux boites
  • la possibilité d'éditer manuellement la position des boites
  • la possibilité de tester une méthode de suivi multi-objets développée lors du projet

Il sera également demandé au groupe d'annoter une séquence complète à l'aide de cet outil pour évaluer le résultat du suivi. Ce projet utilisera la librairie OpenCV pour le traitement des images et la librairie Qt pour le développement de l'interface graphique. Il requiert une solide connaissance du langage C++.

Soutenances de stage

Stagiaire Structure d'accueil Lieu Encadrant Titre
BEDU Allison Thalès Alenia space France François Caullier Design d'un système de contrôle d'attitude 3 axes sans roue
BOUDALI Ahmed mounir University of Sydney Australie Ian Manchester Design and control of dynamic walking robotis
BOUILLON Fanny University of Florida USA Warren DIXON Mesure, modélisation et compensation du retard induit par la fatigue pendant la stimulation électrique neuromusculaire
CVETANOVIC Cécilia Université de Strasbourg / ICube France Edouard LAROCHE Méthodes algébro-différentielles et application sur un robot parallèle à câbles
BENBRIK Maria Lilly France Joël FONCK Modélisation de données process d'une ligne de conditionnement de stylos injecteurs d'insuline
DERYCKE Alexis VALEO Bietigheim-Bissingen Allemagne René KRAUSE Automated top column module test system development
GENEVE Lionel DGA Bourges France Philippe GUERMEUR Détection automatique de cibles dans des images de drones par apprentissage statistique
KAMIL Ahmad Amir IHU Strasbourg France Stéphane COTIN Simulation de cryoablation
RIMI Driss CEA LIST France Paul EVRARD Commande et simulation du comportement d'un exosquelette