Special

Search by property

This page provides a simple browsing interface for finding entities described by a property and a named value. Other available search interfaces include the page property search, and the ask query builder.

Search by property

A list of all pages that have property "Abstract" with value "... Insert an abstract in French here ...". Since there have been only a few results, also nearby values are displayed.

Showing below up to 49 results starting with #1.

View (previous 50 | next 50) (20 | 50 | 100 | 250 | 500)


    

List of results

    • Automata Reduction  + (A deterministic automaton can be minimizedA deterministic automaton can be minimized efficiently into an automaton that has a minimal number of states. The reduction algorithm presented here produces an automaton with a minimal number of states from a non deterministic automaton with weights defined in a field. This algorithm computes the base of the vector space generated by the series represented by the automaton and produces an automaton with a number of states equal to the dimension of this base. To find this base the algorithm has to solve a system of linear equations, this step requires the semiring to be a field. We also want to run our algorithm on fields that are not commutative which forbids the use of classical solvers for these systems. This report shows how we deal with these different constraints. We also present a modified algorithm to work with series over Z semiring which is not a field but has some sufficient properties. field but has some sufficient properties.)
    • Distance Transform  + (A distance transform, also known as distanA distance transform, also known as distance map or distance field, is a representation of a distance function to an object, as an image. Such maps are used in several applications, especially in document image analysis. Some optimizations can be obtained by less generic methods: for example, maps calculated by front propagation can determine shorter paths, assuming that the image is non-convex. This presentation discusses different distance transform algorithms and underlines their advantages and weaknesses. Finally we will explain our choices.sses. Finally we will explain our choices.)
    • Histograms  + (A histogram is a representation of the disA histogram is a representation of the distribution of data in an image, e.g., gray-levels or colors. This common tool is used for many applications and especially for classification purposes. This key-feature has to be generically implemented in the Milena library. In this seminar, we propose to store histogram data using an image container. To that aim, adapting the definition of value types is required. More specifically, we propose to augment the traits associated with value types, add some new useful value types, and design new abstractions over them. Last, we present how to deal with circular data, such as the "hue" values (encoded by angles in the HSL color space); in this case, the "histogram image" would become also circular.stogram image" would become also circular.)
    • Compensation locale du canal dans les systèmes de reconnaissance du locuteur  + (A l'heure actuelle, l'espace des i-vecteurA l'heure actuelle, l'espace des i-vecteurs est devenu l'état de l'art pour les systèmes de reconnaissance du locuteur. La distance cosinus (CD) est la méthode de décision la plus utilisée. Elle utilise l'analyse discriminante linéaire (LDA) et la Within-Class Covariance Normalization (WCCN) afin de compenser globalement le canal. Le but de ce travail est de compenser localement le canal avant d'appliquer la CD. L'idée est de créer un graphe des i-vecteurs partitionné à l'aide d'algorithmes de détection de communautés, puis de projeter les segments test et target dans ce dernier. On sélectionne uniquement leur voisinage pour entrainer la LDA et la WCCN. Les résultats seront comparés avec la méthode de compensation globale.s avec la méthode de compensation globale.)
    • Integration of TChecker in Spot  + (A timed automaton is an '"`UNIQ--math-0000A timed automaton is an '"`UNIQ--math-00000003-QINU`"'-automaton which describe a model containing continue time conditions. Without treatments, those automata can have an infinite states space. However, we can translate them in finite automatacalled zone graph, to analyze their properties. In this report, we show how the timed automata have been integrated at Spot. We use TChecker, a program created at the LaBRI. We explain then how we integrate the representation of those TChecker's zone graph in Spot. Then we show how Spot's algorithms can read this translation to work on timed automata and zone graphes. We then explain how inconvenients of TChecker have been adapted to make simpler its utilisation by Spot.d to make simpler its utilisation by Spot.)
    • revCPP A reversible C++ preprocessor  + (Abstract: The Transformers project aims atAbstract: The Transformers project aims at creating a generic framework for C++ source to source transformation. Source to source transformation consists in refactoring the code and producing a modified source. The resulting code may be reread, reused, re-modified ...by programmers and thus must be human-readable. Moreover it should respect the original coding style. This process of preserving the original layout is called high fidelity program transformation. Transformers targets the C/C++ language. Unlike many other languages, C++ source code is preprocessed to obtain the actual source code. In our program transformation context we need to un-preprocess the code to give back a human-readable code to the programmer. This document presents the work and research carried out to implement a reversible C++ preprocessor and a postprocessor, i.e. a tool to obtain the original code from the preprocessed one.e original code from the preprocessed one.)
    • I-Vector Multilayer Perceptron in Speaker Recognition System  + (Actually, i-vector space is the most recurActually, i-vector space is the most recurrent representation of speech information in speaker recognition systems. The scoring process is generally based on Cosine Distance (CD) or Probablistic Linear Distriminant Analysis (PLDA) methods. The aim of this work is to replace these approaches by a MultiLayer? Perceptron (MLP). The MLP showed good performances in nonlinear function approximation. The main idea is to find better functions than cosine scoring method. The performance of the MLP method will be compared with other methods such as CD, PLDA and Restricted Boltzmann Machines (RBM) method presented by Jean Luc.chines (RBM) method presented by Jean Luc.)
    • Approximation de la distance entre i-vecteurs par Perceptron Multi-Couches dans les systèmes de reconnaissance du locuteur  + (Actuellement, l'espace des i-vecteurs est Actuellement, l'espace des i-vecteurs est la représentation standard des paramètres de la parole dans les systèmes de reconnaissance du locuteur. Le calcul du score est généralement basé sur la distance cosinus, ou sur l'analyse discriminante linéaire probabiliste. Le but de ce sujet est de remplacer ces approches par un Perceptron Multi-Couches (PMC). Le PMC a montré en effet de bonnes performances pour approximer des fonctions non linéaires. L'idée principale étant de trouver une meilleure fonction que la distance cosinus. Les performances du perceptron multi-couches seront comparées aux autres méthodes comme la distance cosinus, l'analyse linéaire discriminante probabilisteou encore la machine de Boltzmann restreinte qui sera présenté par Jean Luc.restreinte qui sera présenté par Jean Luc.)
    • SVM-MLLR for multi-speaker verification systems score fusion  + (Afin d'améliorer la performance globale deAfin d'améliorer la performance globale des systèmes de vérification du locuteur, il faut diversifier les approches. Le but de ce travail est d'étudier les performances d'un système SVM-MLLR. Cette méthode se base sur la construction, à partir du modèle du monded'une transformation linéaire des vecteurs moyennes (mean supervectors) maximisant la vraisemblance du modèle transformé par rapport aux données locuteur. On évaluera deux approches différentes : Dans la première, on utilisera directement le logarithme du rapport de vraisemblance (GMM-MLLR). Dans une deuxième expérimentation, on utilisera les SVMs pour évaluer les scores de décision. La dernière étape consiste à valuer l'apport d'une méthode de compensation du canal (NAP: Nuisance Attribute Projection) sur les performances de ce système). Une fusion des scores avec d'autres systèmes GMM sera étudiée. Une fusion au niveau des noyaux sera quand à elle présentée par Charles-Alban. Tous les tests vont être menés sur les deux bases de données NIST-SRE 2005 et 2006 all trials. données NIST-SRE 2005 et 2006 all trials.)
    • SVM-MLLR et fusion pour la vérification du locuteur  + (Afin d'améliorer la performance globale deAfin d'améliorer la performance globale des systèmes de vérification du locuteur, il faut diversifier les approches. Le but de ce travail est d'étudier les performances d'un système SVM-MLLR. Cette méthode se base sur la construction, à partir du modèle du monded'une transformation linéaire des vecteurs moyennes (mean supervectors) maximisant la vraisemblance du modèle transformé par rapport aux données locuteur. On évaluera deux approches différentes : Dans la première, on utilisera directement le logarithme du rapport de vraisemblance (GMM-MLLR). Dans une deuxième expérimentation, on utilisera les SVMs pour évaluer les scores de décision. La dernière étape consiste à valuer l'apport d'une méthode de compensation du canal (NAP: Nuisance Attribute Projection) sur les performances de ce système). Une fusion des scores avec d'autres systèmes GMM sera étudiée. Une fusion au niveau des noyaux sera quand à elle présentée par Charles-Alban. Tous les tests vont être menés sur les deux bases de données NIST-SRE 2005 et 2006 all trials. données NIST-SRE 2005 et 2006 all trials.)
    • Alternating automata support  + (Alternating automata add a universal brancAlternating automata add a universal branching to the existential branching from non-deterministic automata. Büchi alternating automata are exponentially more concise than non-deterministic Büchi automata. Additionally, they are well suited to translate linear temporal logic as their size is proportional to the translated formula. This work aims to add alternating automata support to Spot. This will make Spot compatible with other tools producing or using aternating automata, and allow future algorithms working on alternating automata to be implemented.on alternating automata to be implemented.)
    • Semantics driven disambiguation  + (An elegant approach to manage ambiguous grAn elegant approach to manage ambiguous grammars consists in using a generalized LR parser which will not produce a parse tree but a parse forest. An additional step, called disambiguation, occurring just after the parsing, is then necessary. The disambiguation process consists in analyzing the parse forest to choose the only good parse tree using semantics rules. We use this approach in Transformers with the attribute grammars formalism. The lab work will be a comparison between this formalism and two other methods of disambiguation: the first one using ASF+SDF and the second one using Stratego language. The goal of this comparison will try to emphasize that attribute grammars are perfect to solve the disambiguation problem. Another thing will be to find the weakness of this method compared to the two others for a possible improvement of the system used in Transformers.vement of the system used in Transformers.)
    • Image reconstruction  + (As part of a partnership with the Gustave As part of a partnership with the Gustave Roussy Institutthe LRDE's image processing library Milena, offers an application dedicated to image reconstruction. Different images of the same object but obtained from different modalities have to be processed. First, these images are simplified. Then objects contained by these images are extracted. The final step is to mix information into a unique image. Thereby, the process is composed of several stages: image filtering, segmentation, binarizationmultimodal image registration and image reconstruction. The presentation will especially focus on the segmentation part.especially focus on the segmentation part.)
    • ConceptC++ study and possible integration in SCOOP  + (At the end of this decade will arise C++0xAt the end of this decade will arise C++0x and with it the new “concept” paradigm. Concepts provide abstract types as well as all the equipment to adapt concrete types to their abstraction, just like Static library, a part of Olena project, does. We compare these two approacheshighlighting their respective strengths and weaknesses, in order to lay the foundations for the integration of concepts into SCOOP. In fact, concepts will simplify the client code and bring some new features to SCOOP.code and bring some new features to SCOOP.)
    • Automatic Heart Segmentation  + (Atrial fibrillation is a common illness, wAtrial fibrillation is a common illness, which can be detected easily if you can localize the human atria in a MRI image. Manual segmentation is labor intensivetherefore here we adapt an automatic method developped for brain image segmentation. Using transfer learning, we retrain a convolutional neural network used for natural image categorization (VGG), and compare the advantages of using a pseudo-3D technique. We also explore ways to preprocess input data to improve final results.ocess input data to improve final results.)
    • Automatic Attribute Propagation for Modular Attribute Grammars  + (Attribute grammars are well suited to descAttribute grammars are well suited to describe (parts of) the semantics of programming languages: hooked on the syntactic production rules, they allow to express local relations that are later bound globally by a generic evaluator. However they fall short when working on large and complex languages. First attributes that are virtually needed everywhere need to be propagated by every single production rule. Second, this constraint hinders modularity, since adding a syntactic extension might require the propagation of new attributes in the rest of the language. This paper shows how to solve these problems by introducing a technique to automatically propagate attributes by completing the set of semantic rules. We formally define the propagation constraints such that it is optimized to avoid unnecessary addition of semantic rules. Attribute grammars are thus made more maintainable, modular and easier to use.e maintainable, modular and easier to use.)
    • Optimisation d'une bibliothèque de traitement d'images  + (Avec la diversification des moyens d'acquiAvec la diversification des moyens d'acquisitions (imagerie satellitaire, imagerie médicale, photographie HDR), les types d'images à traiter ne cessent de se multiplier (2d, 3d, etc..) créant le besoin d'algorithmes capables de traiter tous ces types. Pylene, une bibliothèque de traitement d'images, vise à apporter une solution simple et générique à ce problème grâce à l'apport d'interfaces de haut niveau. Néanmoins, une telle abstraction a souvent un cout et on doit faire un compromis entre une solution trop générique qui serait peu performante et une solution performante qui serait trop spécifique. De plus ces interfaces ne sont pas conformes aux récentes versions du standard ce qui limite sa facilité d'utilisation. Nous proposons ici une solution qui n'aurait pas à sacrifier la performance au détriment de la généricité. Cette solution s'appuie sur le concept de "range", introduit par Eric Niebler, que nous avons adapté aux besoins du traitement d'images et auquel nous proposons d'ajouter le nouveau concept de ranges segmentées. Il en découle un nouveau design qui réconcilie nos interfaces avec le nouveau standard pour tirer parti des nouvelles facilités syntaxiques, et qui de plus, offre un coût d'abstraction nul. de plus, offre un coût d'abstraction nul.)
    • Les propriétés dans Milena  + (Avoir de hautes performances tout en conseAvoir de hautes performances tout en conservant la généricité est un des domaines de recherche prépondérant au sein du LRDE. Milena, la bibliothèque de la plate-forme Olena, confronte ce problème au domaine du traitement d'image. De plus, Milena a aussi pour objectif de rester simple à utiliser. Une solution à ces problèmes, utilisée depuis plusieurs annéesrepose sur les propriétés. Les propriétés sont un ensemble de caractéristiques associées statiquement à un type particulier. Par exemple, les types d'images de Milena possèdent une propriété speed qui indique les temps d'accès aux valeurs des images. Durant ce séminaire, nous nous intéresserons aux propriétés des types d'images. Nous détaillerons les définitions de ces propriétées. Nous montrerons aussi comment les propriétés aident à améliorer les performances tout en maintenant la généricité. Pour cela, nous prendrons en illustration l'implémentation des routines bas niveau dans la bibliothèque. routines bas niveau dans la bibliothèque.)
    • Domain Mismatch Compensation for Text-Independant Speaker Recognition  + (Bien que le développement des systèmes d'aBien que le développement des systèmes d'analyse discriminante linéaire probabiliste (PLDA) basés sur les i-vecteurs a donné lieu à des résultats prometteurs en reconnaissance du locuteur, l'impact du domain mismatch lorsque les données d'entraînement du système et les données d'évaluation proviennent de sources différentes reste un défi. Le workshop de reconnaissance du locuteur de 2013 de l'Université Johns Hopkins (JHU), pour lequel un corpus d'adaptation du domaine (DAC13) a été crééa travaillé à trouver des solutions pour résoudre ce problème. Ce rapport de recherche présente les techniques de pointe utilisées pour la compensation du domain mismatch ; comme une combinaison de plusieurs transformées de blanchiment, et la normalisation de la covariance indépendante du jeu de données pour obtenir des représentations des données d'entraînement de la PLDA invariantes par rapport au domaine. Ces techniques sont évaluées sur le corpus DAC13 et comparées.évaluées sur le corpus DAC13 et comparées.)
    • Binary Partition Tree for Image Processing  + (Binary Partition Tree is an efficient struBinary Partition Tree is an efficient structure to store region information for image processing, segmentation and information retrieval. It is a hierarchical structure to simplify operations and recognition on an image. It can use different region models and distance function calculation to create itself. Usually, we construct this tree on a segmented image for efficiency and time saving. All this parameters can variate and change the BPT representation of your image. The resistance of our tree to noise can also be studied, to find out what level of the tree is influenced by the noise.el of the tree is influenced by the noise.)
    • Detecting Botnets Behaviors over Network Flows using Hidden Markov Models  + (Botnets are one of the most common and powBotnets are one of the most common and powerful cyber attacks tools, from DDoS attacks to crypto currencies mining. Due to the extreme diversity of Botnets types and interactions, it is very difficult to detect their influence using pay-load data only. Within this contextthe goal is to build a Botnets detection system using metadata information from network flows. To do so, we propose a new system based on probabilistic machine learning techniques using Hidden Markov Models to model interactions inside of suspicious networks. Our work is based on a dataset from the Stratosphere project released in 2014.the Stratosphere project released in 2014.)
    • Identifying Botnets in the Network using Gaussian Mixture Models  + (Botnets are the primary way of attacking cBotnets are the primary way of attacking computer networks and are being used to steal information, spy organizations or send spams, by compromising devices connected to the internet. More recently, botnets have also seen themselves being used for financial interests such as mining bitcoins at a large scale. It is a primary threat which is essential to identify in order to defend the interests of users and any type of organization. Unfortunately, public research has often been one step behind the fast adaptation of attackers to detection systems. Our work consists in using unsupervised machine learning techniques unprecedentedly used on such tasks to detect botnets on different scenarios. to detect botnets on different scenarios.)
    • Brain MRI segmentation using mathematical morphology  + (Brain development can be evaluated using bBrain development can be evaluated using brain Magnetic Resonance Imaging (MRI). It is useful in cases of preterm birth to ensure that no brain disease develops during the postnatal period. Such diseases can be visible on T2-weighted MR image as high signal intensity (DEHSI). To assess the presence of white matter hyperintensities, this work implements a new robust, semi-automated frameworkbased on mathematical morphology, specialized on neonate brain segmentation. We will go over the related work, the implementation of the different steps and the difficulties encountered. In the end, the version developped during this internship is not completely finished but it is in good shape for a later finalization.is in good shape for a later finalization.)
    • IVector space mapping with Deep Neural Network  + (Building a robust speaker recognition systBuilding a robust speaker recognition system needs very slow and complex algorithms. In this work, we propose a deep neural network to map a low dimensionnal ivector space based on less complex model into high dimensional ivector space. The system will be evaluated on speaker recognition task of NIST-SRE 2010 data.er recognition task of NIST-SRE 2010 data.)
    • Implementing a C++ extension with Transformers: class namespace  + (C++ classes are closed, such that once a cC++ classes are closed, such that once a class definition is ended, nothing can be added to it. But most of the timeprogrammers are used to distinguish method definition from method implementation. As a consequence, using fully-qualified name of method names and return types are needed, which is repetitive and tedious, especially with template and nested classes. We propose extending C++ grammar with a namespace-like syntax in order to define easily member functions and static data members already declared in the class definition. This work will be based on Tranformers' C++ grammar and transformation rules in Stratego Language.transformation rules in Stratego Language.)
    • C++ template disambiguation with Transformers Attribute Grammars  + (C++ is a context-sensitive language that cC++ is a context-sensitive language that can be parsed using a context-free but ambiguous grammar. Disambiguation is then required to select the unique semantically-valid parse tree. Transformers, a framework for C++ program transformation, uses attribute grammars to achieve that stage. One of the hardest ambiguity in the language is related to metaprogramming. In so far as code is generated when templates are instanciated, types are not fully known at the declaration site. Therefore, type-checking is needed to perfectly handle templates, and it poses a real challenge. This report focuses on template disambiguationdetailing the problems and how to resolve it, in order to provide a better platform for source manipulation.a better platform for source manipulation.)
    • Contribution to dyn::  + (C++ provides a good support for performancC++ provides a good support for performance and genericity through templates. However, it has a real cost on flexibility and compilation time. In order to overcome these issues, Vcsn introduces a dynamically-typed library named dyn. The purpose is to bring more flexibility to the project and it also allows just-in-time compilation. This work presents, first of all, our thoughts on how to handle and optimize our compile time, then various improvements added to dyn.e, then various improvements added to dyn.)
    • Améliorer Horn-Schunck  + (Calculer le flux optique a de nombreuses aCalculer le flux optique a de nombreuses applications telles que l'estimation de mouvement ou un premier pas vers l'inpainting vidéo. L'équation du flux optique ne peut pas être résolue telle quelle à cause du problème de fenêtrage (deux inconnues pour une seule équation). Un ensemble d'algorithme essaie de résoudre cette équation en se basant sur une stratégie globalec'est-à-dire en essayant d'avoir des petites variations dans le flux. Le premier d'entre eux est l'algorithme d'Horn-Schunck. Celui-ci, même s'il marche dans de nombreux cas, a plusieurs inconvénients, y compris celui d'être lent et de ne pas pouvoir trouver les grands déplacements. Dans le but de résoudre ces problèmesplusieurs stratégies ont été développées. Nous présenterons la méthode et analyserons les bénéfices apportés en appliquant une stratégie multi-échelle à l'algorithme d'Horn-Schunck.lti-échelle à l'algorithme d'Horn-Schunck.)
    • Calcul du flux optique dans des séquences avec des parties manquantes  + (Calculer le flux optique peut être un premCalculer le flux optique peut être un premier pas vers l'inpainting vidéo. Pour cette application, nous devons manipuler des séquences avec des zones manquantes, celles à inpainter. Le flux optique peut être calculé de manière locale ou globale. Les méthodes globales ont généralement de meilleurs résultats. Dans le cas de séquences avec des zones manquantes, les méthodes globales ne peuvent pas être utilisées de manière directe à cause du manque d'informations dans ces régions. Dans ce rapport technique, nous présentons une méthode combinant des algorithmes locaux et globaux afin de calculer le flux optique dans ce type de séquences ce qui nous permet d'inpainter efficacement et simplement des vidéos.ter efficacement et simplement des vidéos.)
    • Suppression efficace de transitions spontanées dans Vcsn  + (Ce rapport expose des fac c ons performantCe rapport expose des fac c ons performantes et génériques d'implémenter la suppression de transitions spontanées dans un varepsilon-NFA. Nous comparons deux approches : l'algorithme d'varepsilon-clôture de J. Sakarovitch et S. Lombardyet l'algorithme d'varepsilon-suppression de M. Mohri. Nous discutons de la fac c on dont ces algorithmes peuvent être implémentés dans le cas d'automates pondérés génériques, ainsi que de leur performance, en comparant des résultats empiriques obtenus dans Vcsn.es résultats empiriques obtenus dans Vcsn.)
    • Génération aléatoire d'automates et de chemins dans Vcsn  + (Ce rapport présente l'implémentation d'uneCe rapport présente l'implémentation d'une fac con générique et performante pour générer des automates aléatoires pondérés. Pour ce faire, nous utilisons des relations déjà établies entre des ensembles connus et l'ensemble des DFA de taille n. En étendant ces relations dans le cas pondéré, nous généralisons l'algorithme présenté et nous montrons une implémentation dans la plateforme Vcsn.ne implémentation dans la plateforme Vcsn.)
    • Identification Polynomiale des omega-Langages  + (Ce rapport présente l'implémentation en C+Ce rapport présente l'implémentation en C++ de l'algorithme ID décrit par Dana Angluin et al dans Polynomial Identification of omega-Automata. Il permet l'identification, ou l'apprentissage passifd'omega-langages réguliers et des omega-automates associés, dans un temps et une mémoire polynomiaux. C'est un travail préliminaire à l'étude de l'apprentissage actif d'omega-langages. Le code est disponible sur https://gitlab.lrde.epita.fr/cpape/ID sur https://gitlab.lrde.epita.fr/cpape/ID)
    • Mesures sur la réduction d'ordre partiel dans Spot  + (Ce rapport résume trois méthodes implémentCe rapport résume trois méthodes implémentées dans l'outil de vérification de modèles Spot. La première vise à améliorer la conversion de modèle de programme en structure de Kripke grâce à la réduction d'ordre partiel, une technique qui ignore l'ordre de certaines actions du programme. Cela permet de réduire la taille de la structure de Kripke. La seconde méthode modifie la première pour permettre de l'utiliser pour tester des propriétés LTL. La troisième a pour but de vérifier qu'un modèle ne contient pas de livelock, sans utiliser de propriété LTL. Nous testons toutes ces méthodesen se concentrant sur leur but commun : réduire la quantité de mémoire requise, ce qui est un goulot d'étranglement important dans le domaine de la vérification de modèles.omaine de la vérification de modèles.)
    • Aprentissage Actif d'Automates Visiblement á un compteur  + (Ce rapport se concentre sur l'explication Ce rapport se concentre sur l'explication d'un algorithme d'apprentissage actif sur la classe des automates visiblement á un compteur, et son implémentation en python et C++. L'algorithme en lui meme permet de créer ce type d'automates en disposant seulement d'un professeursans connaitre l'automate d'arrivée. Nous discutons ensuite des améliorations possibles de l'algorithme concernant sa vitesse d'execution et la représentation d'un automate. Nous donnons aussi une idée de comment est-ce qu'un tel programme semi-automatique peut etre évalué par un benchmark.matique peut etre évalué par un benchmark.)
    • genus.py: un Système Simple de Typage Embarqué pour le language Python  + (Ce rapport technique résume le travail réaCe rapport technique résume le travail réalisé dans le cadre du projet genus.py tout en le remettant dans son contexte parmi l'état de l'art des projets de genus. De plus, il explicite les contributions de son auteur, et conclue en tirant des erreurs commises par son auteur des leçons utiles aux générations futures d'étudiants.tiles aux générations futures d'étudiants.)
    • Apprentissage d'une distance entre deux i-vectors via des réseaux de neurones à convolution  + (Ce travail applique les réseaux de neuroneCe travail applique les réseaux de neurones artificiels à convolution (CNN) à la reconnaissance du locuteur. Le CNN est utilisé pour approximer une mesure de la distance entre deux i-vectors (vecteurs représentant les composantes de la voix d'une personne). Contrairement à la distance cosinus, fréquemment utilisée comme mesure de distance entre deux vecteurs, la fonction approximée par un CNN peut être non-linéaire. La performance de ce modèle sera comparée à celles de la distance cosinus et du classificateur PLDA.istance cosinus et du classificateur PLDA.)
    • Calcul de distance par un rśeau de neurones profond siamois  + (Ce travail utilise une architecture siamoiCe travail utilise une architecture siamoise pour calculer une similarité. On donne en entrée deux échantillons sur deux sous-réseaux de neurones identiques avec les mêmes poids. Chaque sous-réseau prend en entrée des statistiques sur les données du signal. On peut ensuite calculer la distance entre les informations. Le DNN est capable de projeter les entrées dans un sous-espace de dimension plus basse en apprenant un invariant. On présente les résultats de cette application en s'appuyant sur plusieurs types de statistiques et on les compare aux mesures classiques utilisant PLDA ou la distance cosinus, appliquées à des i-vecteurs.ance cosinus, appliquées à des i-vecteurs.)
    • La Segmentation du Locuteur basée sur l'Analyse en Composantes Indépendantes  + (Ces dernières années, de nombreuses recherCes dernières années, de nombreuses recherches ont été faîtes sur la séparation de sources audio. Lors de réunions ou dans des lieux publics bruyants, il arrive souvent que plusieurs personnes parlent en même temps. Ainsi, chaque voix doit être extraîte des audio en contenant plusieurs, afin d'être correctement reconnue. Un algorithme efficace pour ceci est celui de l'Analyse en Composantes Indépendantes (ACI). L'ACI modélise un mélange de signaux comme une forme standard de superposition linéaire des signaux sources. Même dans des conditions environnementales difficiles, le résultat de l'ACI contiendra toujours de fortes composantes résiduelles du mélange de voix. Nous allons utiliser cet algorithme pour la segmentation du locuteur dans le système de vérification du locuteur. Nous obtiendrons de meilleurs résultats, particulièrement dans le cas de données audio avec plusieurs orateurs, comme dans les interviews ou les enregistrements de microphones de l'évaluation de reconnaissance du locuteur de NIST.ion de reconnaissance du locuteur de NIST.)
    • Un algorithme rapide pour l'arbre auto-dual  + (Ces dernières années, les opérateurs conneCes dernières années, les opérateurs connectés ont gagné une certaine popularité dans le domaine du traitement d'images, ils ont en effet été largement utilisés dans le cadre de filtrage, de segmentation, de détection d'objets...Néanmoins, plusieurs défauts ont été mis en évidence, le plus important étant la dépendance au contraste, on ne peut que détecter soit les objets clairs, soit les objets foncés. Les opérateurs auto-duaux permettent d'opérer sur les objets clairs et foncés à la fois et ne souffrent donc pas du défaut des opérateurs connectés classiques. En revanche, les opérateurs auto-duaux sont plus difficiles à mettre en place et les algorithmes actuellement disponibles sont coûteux en temps de calcul. Nous proposons un nouvel algorithme pour calculer les opérateurs auto-duaux basés sur l'union-find de Tarjan; celui-ci offrant de meilleures performances que l'algorithme d'arbre de contours à l'état de l'art.hme d'arbre de contours à l'état de l'art.)
    • Parallélisation de Climb  + (Climb est une bibliothèque de traitement dClimb est une bibliothèque de traitement d'image générique développée en Common Lisp. Elle fournit une couche de génécité bas-niveau utiliséee pour définir de nouveaux algorithmes de traitement d'image. Il est aussi possible de créer des chaînes de traitements soit en utilisant un "Domain Specific Language" déclaratif ou bien à l'aide d'une interface graphique. Afin d'améliorer les performances de la bibliothèqueces différents niveaux peuvent être parallélisés. Ce rapport technique décrit les différents aspects de ce processus de parallélisation. Pour chaque niveau, nous détaillons l'implémentation des traitements parallèles, leurs impacts sur l'utilisabilité de la bibliothèque ainsi que les gains de performance obtenus.insi que les gains de performance obtenus.)
    • Arbres de composantes et opérateurs de chaînage  + (Climb est une bibliothèque de traitement dClimb est une bibliothèque de traitement d'images générique ayant pour objectif le prototypage rapide. L'implémentation de deux algorithmes d'arbre de composantes impacte Climb de plusieurs façons : la définition des valeurs est étendue, de nouveaux ensembles de sites sont ajoutés et les outils de développement sont améliorés. Un détour est pris afin de comprendre le patron de conception de chaînage popularisé par la bibliothèque jQuery. La méthode est modifiée afin de s'adapter au traitement d'images ainsi qu'à Common Lisp. Elle est également étendue via une notation parallèle ainsi qu'avec une meilleure gestion du fil d'exécution. une meilleure gestion du fil d'exécution.)
    • Climb: Implémentation de voisinage pondérés  + (Climb est une bibliothèque de traitement dClimb est une bibliothèque de traitement d'images générique développée en Lisp. Les voisinages sont representés sous la forme d'ensemble de sites (site-set) pour permettre des manipulations génériques sur de multiples types d'images. En parallèle de ce concept, une étude des voisinages pondérés est effectuéeexpliquant différents moyens d'étendre le concept d'une écriture unique des algorithmes pour les exécuter sur différents types de paramètres. Trois implémentations sont proposées, décrites et comparées au niveau de leur généricité et de leur expressivité.e leur généricité et de leur expressivité.)
    • Concevoir l'interface d'une bibliothèque générique en Common Lisp  + (Climb est une bibliothèque de traitement dClimb est une bibliothèque de traitement d'images générique. Elle est implémentée en Common Lisp et vise un dynamisme et une facilité d'utilisation maximaux. Dans ce but, l'interface utilisateur doit être à la fois suffisamment puissante pour ne pas cacher certaines fonctionnalités de la bibliothèque sous-jacente, et intuitive pour l'utilisateur. La difficulté est de créer une interface faisant un minimum de compromis entre ces caractéristiques, tout en restant suffisamment extensible pour les garder quand la bibliothèque évolue. Après quelques rappels sur le design générique de Climb, nous présentons les modifications que nous avons apportées à l'interface existante pour améliorer son utilisabilité sans restreindre ses capacités.lisabilité sans restreindre ses capacités.)
    • Dispatch par propriétés dans les langages fonctionnels  + (Climb est une bibliothèque de traitement dClimb est une bibliothèque de traitement d'images générique. L'interface générique d'un algorithme nécessite souvent plusieurs implémentations différentes spécialisées. Olena, une bibliothèque C++, a résolu ce problème en rajoutant des propriétés. Nous allons présenter un moyen de rediriger un appel de fonction vers la meilleure implémentation spécialisée grâce aux propriétés dans un langage de programmation dynamique: Common Lisp. Nous allons ensuite montrer des exemples d'algorithmes et de propriétés utilisées dans le domaine du traitement d'images.es dans le domaine du traitement d'images.)
    • Construction d'une interface pour et avec Climb  + (Climb est une bibliothèque de traitement dClimb est une bibliothèque de traitement d'image générique. Encore à l'état de prototype, Climb fournit déjà un certain nombre d'outils comme les morphers et l'opérateur qui permettent de simplifier la définition de chaînes d'algorithmes. Afin de prolonger cet aspect, une interface graphique a été développée. Celle-ci permet de construire des chaînes de traitement d'image sans connaissance en programmationtout en offrant un retour à la fois visuel et interactif. Notre approche utilise les algorithmes et outils définis dans la bibliothèque pour construire la logique interne de l'application ainsi que ses différents aspects interactifs. La généricité étant l'une des caractéristiques principales de Climb, nous avons été capables d'étendre son champ d'application au-delà du traitement d'image et ainsi montrer qu'elle peut être utilisée dans des situations différentes telles que la construction d'une interface graphique.la construction d'une interface graphique.)
    • Ecriture d'algorithmes de traitement d'images génériques  + (Climb est une bibliothèque générique de trClimb est une bibliothèque générique de traitement d'images en Lisp. L'étude de l'implémentation d'un algorithme de segmentation par ligne de partage des eaux permet de faire état des possibilités offertes par un langage dynamique tel que Lisp allié á une modélisation générique des images. Cette étude de cas permet d'aborder les concepts de base de la manipulation d'images au sein de Climb tels que les sitesles ensembles de sites et les accumulateurs. L'utilisation de l'ensemble de ces notions reposent sur l'aspect dynamique et fonctionnel de Lisp.l'aspect dynamique et fonctionnel de Lisp.)
    • Climb: Weighted Neighborhood Implementation  + (Climb is a generic image processing librarClimb is a generic image processing library developed in Lisp. Neighborhoods are represented as site-set to allow generic manipulation over multiple pictures type. Along these concepts, a study of weighted neighborhood representation is done, showing how we can extend the concept of writing algorithms once and running them over different parameters type. Three implementations are proposed, described and compared on both genericity and expressivity.pared on both genericity and expressivity.)
    • Writing generic image processing algorithms  + (Climb is a generic image processing librarClimb is a generic image processing library written in Lisp. The study of the implementation of a segmentation algorithm by computing watersheds highlights the possibilities offered by the combination of a dynamic language like Lisp and a generic image representation. This case study tackles basic concepts of manipulating images in Climb like: sites, site-sets and accumulators.b like: sites, site-sets and accumulators.)