CSI Seminar 2014-01-22

From LRDE

Revision as of 14:53, 4 July 2014 by Cd (talk | contribs)
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
Lrde.png
Laboratoire de Recherche et Développement de l’EPITA
Séminaire des étudiants-chercheurs
du 22 Janvier 2014
10h00-12h30, Amphi 1
EPITA / LRDE
14-16 rue Voltaire
94276 Le Kremlin-Bicêtre


OLENA — TRAITEMENT D’IMAGES GÉNÉRIQUE ET PERFORMANT

10h15 Utilisation d’un descripteur à base de transformée en ondelettes pour extraire des informations sur la forme des objetsRAPHAEL BOISSEL

Le système de localisation de texte développé par le laboratoire est actuellement en mesure de séparer le texte du fond dans les images naturelles au moyen d’un descripteur basé sur la transformée en ondelettes. De plus, les tests montrent que ce système est rapide et précis pour accomplir cette tâche. Notre objectif principal est d’extraire de nouvelles informations sur la forme des objets lors de la phase de classification en utilisant le même descripteur que celui utilisé pour séparer le texte du fond. De telles informations peuvent être utilisées pour améliorer la précision d’autres étapes du système de localisation de texte. De plus, puisque le descripteur utilisé pour extraire ces informations a déjà été calculé, cette approche est peu consommatrice en temps CPU. Par ailleurs, plus que des informations sur la forme des objets, ce descripteur peut également être utilisé tel quel pour créer un O.C.R. (Reconnaissance optique de caractère) simple. Cependant, afin de mettre en place ces changements, il est nécessaire de retravailler le système de classification et le système d’apprentissage mis en place précédemment. Différentes méthodes pour atteindre ces objectifs sont présentées ici et comparées afin de savoir quelle sorte d’information il est possible d’extraire à partir du descripteur à base de transformée en ondelettes.


10h45 Revue comparative des algorithmes de calcul de l’arbre des formesSÉBASTIEN CROZET

L’arbre des formes est une transformée d’image utile pour les traitements d’images discrètes de façon auto-duale. Bien qu’il puisse être calculé grâce à plusieurs approches existantes dans la littérature, aucune comparaison de ces algorithmes n’a été réalisée jusqu’à présent. Nous réalisons une comparaison de tous ces algorithmes du point de vue de leur rapidité de calcul et de leur occupation mémoire. Nous étudions aussi la parallélisation de l’algorithme quasi-linéaire et modifions les données qu’il manipule afin d’améliorer ses temps de calculs et son occupation mémoire.

CLIMB — TRAITEMENT D’IMAGES EN LISP

11h30 Coercition et programmation orientée contexteFRANÇOIS RIPAULT

La programmation orientée contexte est un paradigme prometteur pour prendre en compte les problématiques transverses dans le logiciel. Ce paradigme permet de spécialiser les classes et les méthodes en fonction du contexte. Cependant, il ne traite pas la coercition, c’est-à-dire la conversion d’un objet existant dans un certain contexte vers une nouvelle représentation dans un autre contexte. Nous montrons en quoi ce manque est critique, en fournissant des exemples extraits de Climb, une bibliothèque de traitement d’images écrite en Common Lisp. Nous proposons des solutions pour la coercition automatique d’objets, et nous les analysons en termes de simplicité et de généricité.


VÉRIFICATION DU LOCUTEUR

12h00 Prise de décision à l’aide de SVM dans le contexte des systèmes de vérification du locuteur à base d’I-Vector BENJAMIN ROUX

La prise de décision dans l’état de l’art des systèmes de vérification du locuteur est basée sur la distance en cosinus. Une approche différente est de considérer une prise de décision basée sur les Séparateurs à Vaste Marge (SVM). La technique des SVM a été largement exploitée dans la reconnaissance de formes et la prise de décision mais également en association avec les GMM super-vecteurs (GSV) en reconnaissance du locuteur. Cependant, l’idée d’utiliser les SVM dans l’espace des i-vectors pour la reconnaissance du locuteur n’a pas été le sujet d’une étude approfondie. Nous étudierons les différentes fonctions kernels et comment cela peut être utilisé dans la vérification du locuteur. Nous explorerons comment prendre en compte les variabilités de canal et de locuteur et dans l’espace des caractéristiques. Nous expérimenterons avec les données de la base NIST-SRE 2010.