Property

Abstract

From LRDE

Showing 20 pages using this property.
D
On cherche à détecter les zones de textes sur tout type de pièces d'identité, pouvant provenir de n'importe quel pays et filmées par des caméras de smartphones. Par conséquent, on peut être amené à segmenter des lettres latines, cyrilliques ou des idéogrammes. Par ailleurs, certains papiers d'identité possèdent des filigranes et/ou un fond utilisant des lettres comme motif, qui doivent être filtrés. De plusle contexte de la prise de vue (luminosité, fond...) doit être pris en compte afin, qu'une fois l'image binarisée, le nombre de composantes à filtrer soit minimal. Ainsi, le pré-traitement proposé permet, à l'aide de filtres morphologiques, de détecter le texte efficacement en limitant le nombre de composantes à traiter.  +
Le but de ce projet est de pouvoir améliorer la sécurité lors de la navigation de bateaux. L'utilisation d'une intelligence artificielle analysant des images provenant de caméras implantés sur le mât permettra d'identifier les différents dangers auquel qu'un bateau peut rencontrer en milieu marin. L'intelligence artificielle pourra détecter un homme à la mer, alerter l'équipage afin qu'il puisse le secourir. Pour développer une intelligence artificielle, il faut un base de données avec différentes vidéos marines pouvant couvrir le maximum de situation rencontrées en milieu marin. Il faut réussir à réaliser un maximum de vidéos marines suffisament réalistes depuis un ordinateur à l'aide de différents outils.  +
La génération de différentes vidéos est importante pour l'entrainement d'une intelligence artificielle. Trouver un moyen de générer des images marines réalistes par ordinateur permet d'assurer cette génération. Plus précisément, nous voulons générer des vidéos et des metadonnées associées aux vidéos. Les métadonnées nous permettront de vérifier et corriger notre intelligence artificielle. Nous utilisons le logiciel 3D MAYA pour développer nos vidéos. Ce logiciel permet de générer des environnements marins et de pouvoir en extraire des images. De plus, l'utilisation de scripts Python est possible avec le logiciel MAYA. Cela permet d'automatiser la génération d'images et de vidéos.  +
La détection de logotypes et d'invariants dans une image a pour but de trouver parmi une image (ou une séquence d'images) un élément graphique nouveau ou déjà répertorié qui caractérise une marque, entreprisepersonne, etc. De tels éléments peuvent se retrouver dans de nombreuses images naturelles mais également dans des images publicitaires. Le problème de la détection consiste non seulement à effectuer des comparaisons avec des éléments déjà rencontrés mais également à mettre en place un système d'apprentissage permettant de désigner de possibles nouveaux logotypes. L'intérêt de l'intégration d'un tel outil dans la plate-forme de traitement d'images Olena et possiblement au sein du projet Terra Rush permettrait de mieux indexer les contenus mais également d'invalider des zones de l'image dans d'autres chaînes de traitement. Dans ce rapport, nous expliquerons principalement une méthode générique permettant de localiser les points-clés invariants d'une image : les descripteurs SIFT.  +
La détection d'éléments discriminants dans une image est un sujet très actif de vision par ordinateur. Aujourd'hui, les applications sont très diverses, allant de la robotique à la photographie numérique assistée. Notre exposé se concentrera sur la détection de logotypes dans des images naturelles. Pour ce faire, nous nous basons sur Olena, une plateforme libre, générique et performante de traitement d'images afin d'implémenter un détecteur de points-clés : les descripteurs SIFT.  +
La détection de voix a de nombreuses applications. C'est par exemple une étape obligatoire avant de faire de la reconnaissance du locuteur. Ce rapport présente deux différents types d'algorithmes pour la détection de voix (VAD) : un utilisant des seuils et le second utilisant des mélanges de gaussiennes (GMM).Les algorithmes proposés utilisent des caractéristiques calculées sur des petits intervalles de temps comme par exemple l'énergie, la monotonie spectrale ou les Mel-Frequency Cepstral Coefficients (MFCC). Les différents algorithmes de détection de voix sont comparés dans différentes conditions de bruit afin de mettre en évidence leur robustesse aux bruits.  +
Les attaques par Botnets se sont répandues comme l'une des plus grandes cybers menaces, des attaques DDoS au minage de crypto monnaies. La vaste diversité des profils et utilisations des Botnets en font des entités difficiles à détecter en analysant uniquement le contenu des paquets reccus sur une machine. Dans ce contexte, l'objectif est de construire un système de détection des Botnets à partir des méta informations fournies par les flux réseaux. Pour cela, nous proposons un nouveau système basé sur des techniques d'apprentissage automatique probabilisite utilisant les Modèles de Markov Cachés pour modéliser les interactions au sein de réseaux suspicieux. Nos travaux sont réalisés depuis un jeu de données provenant du projet Stratosphere publié en 2014.  +
E
Climb est une bibliothèque générique de traitement d'images en Lisp. L'étude de l'implémentation d'un algorithme de segmentation par ligne de partage des eaux permet de faire état des possibilités offertes par un langage dynamique tel que Lisp allié á une modélisation générique des images. Cette étude de cas permet d'aborder les concepts de base de la manipulation d'images au sein de Climb tels que les sitesles ensembles de sites et les accumulateurs. L'utilisation de l'ensemble de ces notions reposent sur l'aspect dynamique et fonctionnel de Lisp.  +
The Fictitious Play algorithm is an iterate learning process created to compute Nash equilibria. At each iteration of this algorithm, each of the players “strengthens” the strategy that has the highest utility in the current context. For some specific game classes this algorithm converges to a Nash equilibrium, therefore providing an efficient approximation method. Howeverconvergence can only be proved for a small amount of game classes. The Alternate Fictitious Play algorithm (introduced last year) is a variant in which only one player at a time strengthens one of his strategies : the player which is the “further” from his maximum payoff. This study will focus on a comparison of these two approaches on the restricted set of zero-sum games. It will also present the notions of game classification used for this comparison.  +
Transducers are used in many contexts, such as speech recognition or in order to measure the similarity between proteins. One of the core algorithms to manipulate them is the composition. This work presents the basic composition algorithm, then its extension to transducers with spontaneous transitions. A lazy adaptation of the algorithm is then proposed for both the composition and the necessary pre-processing (insplitting). Naïve variadic composition is shown to be useless in reducing the amount of computations. Finally, some benchmarks show how the implementation of the composition in Vcsn compares with OpenFST.  +
In the automata-theoretic approach to Linear Temporal Logic (LTL) model checking, the negation of an LTL formula is translated into an '"`UNIQ--math-00000003-QINU`"'-automaton. The construction of a smaller automaton reduces a lot the runtime and the memory consumption of the subsequent operations in the model checking pipeline. Müller and Sickert presented an efficient method to translate any LTL formula into a small deterministic automaton. This method consists in splitting the formula into three sets of subformulae which are respectively taken from the (co-)safety fragment, the fairness fragment and the rest. Then they translate all sets of subformulae apart from each other into deterministic automata and they combine these resulting automata. Spot can already translate obligation formulae into minimal deterministic automata. Since obligation formulae are a superset of (co-)safety formulae, we replace the (co-)safety fragment by the obligation fragment to generalize the translation of Müller and Sickert. Concerning the fairness fragment, they showed an efficient translation algorithm that produces small deterministic automata. They also showed a method to compute an efficient product of these automata with other automata. We present how these two methods are implemented in Spot.  +
One of the remaining problems with Nash equilibria is the lack of efficiency of best known algorithms. In general case their worst complexity is '"`UNIQ--math-00000036-QINU`"'. Those algorithms are usually old, and aren't likely to be improved. This study focuses first on main algorithms and methods and explains their advantages and their weaknesses. It then introduces a new algorithm developed at the LRDE based on a geometrical approach: a TOP computing method in '"`UNIQ--math-00000037-QINU`"' dimensions.  +
L'un des principaux problèmes rencontrés lors de la recherche d'équilibres de Nash est le manque d'efficacité des principaux algorithmes. La plupart ont des complexités en pire cas de l'ordre de O(4^n) . Il n'est de plus que peu probable de réussir à améliorer ces algorithmes, qui sont pour la plupart relativement vieux. Cette étude détaille tout d'abord les algorithmes principaux en spécifiant leurs avantages et inconvénients, puis présente un nouvel algorithme développé au LRDE basé sur une approche géométrique : le calcul du TOP en dimension d .  +
Mathematical morphology has become an indispensable tool for an image processing library. The algorithms produced using this technique are very efficient and allow very satisfactory results, in particular for image segmentation operations. The work produced therefore aims to implement and integrate hierarchical morphological representations into the Pylene library. Our work has mainly focused on the global segmentation pipeline using these methods, as well as visualization using saliency maps. The objective being of course to achieve the most optimized algorithms possible to be able to use them on large images.  +
This report exposes some performant and generic ways to implement removal of spontaneous transitions in an '"`UNIQ--math-00000017-QINU`"'-NFA. We compare two different approches: the weighted '"`UNIQ--math-00000018-QINU`"'-closure algorithm of J. Sakarovitch and S. Lombardy, and the '"`UNIQ--math-00000019-QINU`"'-removal algorithm of M. Mohri. We discuss how these algorithm can be implemented when dealing with generic weighted automata, and their implications on performance by comparing some empirical results obtained in Vcsn.  +
De nos jours, de nombreuses applications du traitement d'image nécessitent de connaitre le niveau de bruit dans une image, soit pour le prendre en compte dans ces traitements, soit pour le supprimer. Pour cela, nous avons développé une méthode qui permet d'estimer ce niveau de bruit, modélisé par la fonction de niveau de bruitpour des images en niveau de gris puis nous l'avons étendu aux images multivariées en utilisant des hypothèses simplifiées. Ce semestre, nous avons introduit de nouveaux outils pour améliorer notre méthode et supprimer les hypothèses définies au précédent semestre.  +
De nos jours, de nombreuses applications ont besoin de connaître le niveau de bruit dans une image. Une méthode a déjà été développée pour connaître la fonction de niveau de bruit dans une image en utilisant la détection de blocs homogènes, et a été étendu à la détection de formes homogènes en utilisant l'arbre des formes. Néanmoins, cette méthode ne fonctionne que pour les images en niveau de gris. Nous essayons donc d'étendre cette estimation aux images couleur, les pixels étant multivariées.  +
Nowadays, a lot of image processing applications need to know the noise level of an image to take it into account in these processes or to remove it. To do so, we developed a method to estimate the noise level, modeled by the noise level function, for grayscale images, and then for multivariate images, using simplifying hypotheses. This semester, we introduced new tools to improve this method and to remove the simplifying hypotheses defined the last semester.  +