Personal tools

Séminaire Performance et Généricité

From LRDE

Jump to: navigation, search


À propos du séminaire

La modélisation orientée objet permet la classification des problèmes de calcul scientifique, et par conséquent, par la factorisation qu'elle rend possible, elle fournit un excellent support pour la fédération d'efforts de développement. Malheureusement les performances en pâtissent souvent. De nouveaux langages, de nouvelles techniques de programmation réconcilient performance et généricité, permettant la naissance de bibliothèques de nouvelle génération (Boost, Olena, Vcsn, etc.).

L'objet de ce séminaire est la diffusion du savoir et des compétences sur la modélisation de bibliothèques métiers génériques et performantes.

Mots clés: Calcul Scientifique, Distribution, Génie Logiciel, Généricité, Grille, Langages, Multi-cœur, Paradigmes de Programmation, Parallélisme, Recherche reproductible.

Comment venir: Contact.

Prochaines séances

Mercredi 22 février 2017, 11h-12h, Salle L0 du LRDE


Extraction de biomarqueurs des troubles autistiques à partir de l'activité cérébrale (IRMf) par apprentissage de dictionnaire parcimonieux.

Alexandre Abraham, INRIA

L'Imagerie par Résonance Magnétique fonctionnelle (IRMf) est une source prometteuse de biomarqueurs permettant le diagnostic de troubles neuropsychiatriques sur des sujets non coopératifs. L'IRMf s'étudie en établissant un atlas de régions cérébrales représentatif de l'organisation fonctionnelle, puis en étudiant la corrélation entre leurs signaux. Pour les extraire, nous proposons une approche d'apprentissage de dictionnaire multi-sujets intégrant une pénalité imposant compacité spatiale et parcimonie. Nous sélectionnons les unités de base des réseaux fonctionnels extraits à l'aide de techniques de segmentation inspirées du domaine de la vision. Nous montons à l'échelle sur de gros jeux de données en utilisant une stratégie d'optimisation stochastique. A défaut de vérité terrain, nous proposons d'évaluer les modèles générés à l'aide de métriques de stabilité et de fidélité. Nous intégrons ensuite notre méthode de définition de régions dans un pipeline entièrement automatisé, afin de réaliser une tâche de diagnostic des troubles autistiques à travers différents sites d'acquisition et sur des sous-ensembles d'homogénéité variable. Nous montrons que nos modèles ont une meilleure performance, à la fois relativement aux métriques d'évaluation mais également sur nos résultats expérimentaux. Enfin, par une analyse post-hoc des résultats, nous montrons que la définition de région est l'étape la plus importante du pipeline et que l'approche que nous proposons obtient les meilleurs résultats. Nous fournissons également des recommandations sur les méthodes les plus performantes pour les autres étapes du pipeline.

Alexandre Abraham est un ancien de la promo CSI 2009. Il a notamment travaillé sur le watershed topologique et les espaces couleur pour le projet Olena. Après l'EPITA, il a suivi un master IAD à l'UPMC et a réalisé sa thèse à l'INRIA sur la segmentation de signaux fonctionnels cérébraux au repos sur de grandes cohortes à des fins de diagnostic. Il travaille aujourd'hui dans l'équipe de recommandation de produits chez Criteo.

http://nilearn.github.io/, http://www.twinee.fr



Archives

Mercredi 8 février 2017, 13h30-15h00, Salle L0 du LRDE


Vcsn : une visite guidée

Akim Demaille, LRDE

Vcsn est une plateforme consacrée aux automates et aux expressions rationnelles. Parce qu'elle traite une large variété de natures d'automates, elle place en son coeur le concept de "contexte", qui type les automates, les expressions rationnelles, etc. La plateforme repose sur une bibliothèque C++14 "templatée" par des contextes, au dessus de laquelle la couche "dyn" qui, grâce à de l'effacement de type et de la compilation à la volée, offre à l'utilisateur le confort d'une bibliothèque traditionnelle avec la généricité et les performances d'une bibliothèque templatée. Ces bibliothèques sont ensuite exposées au travers d'outils en ligne de commande, mais aussi Python et surtout IPython, qui permettent une exploration interactive simple d'algorithmes. La bibliothèque Vcsn repose sur un ensemble d'objets - automates, étiquettes, poids, polynômes, expressions rationnelles et développements rationnels - sur lesquels sont fournis plus de trois cents algorithmes. Dans certains cas, Vcsn offre des fonctionalités inégalées, et certains de ces algorithmes ont des performances supérieures à celles des projets comparables.

Nous ferons une présentation de l'architecture générale de Vcsn, sous la forme d'une démonstration guidée par les questions, ainsi qu'un exposé des objectifs de Vcsn 3.0.

Akim Demaille est enseignant-chercheur à l'EPITA depuis pratiquement la création du LRDE. Il y a enseigné la logique, la théorie des langages, la construction des compilateurs, la modélisation orientée-objet et la programmation en C++. Depuis 2013, il investit son temps de recherche dans la plateforme Vcsn. Il a également contribué à divers logiciels libres, tels GNU Autoconf, GNU Automake, GNU Bison et même GNU a2ps, à un temps où ASCII et PostScript n'étaient pas l'un et l'autre obsolètes.

http://vcsn.lrde.epita.fr



Un outil en ligne de manipulation d'automates et de semi-groupes

Charles Paperman, Université Paris Diderot

Je présenterai un outil en ligne dont l'objectif est de manipuler et tester des propriétés algébriques pour des automates. Une courte présentation de la théorie algébrique des automates sera donnée à la volée. Les seuls concepts nécessaires à la compréhension de l'exposé sont les expressions régulières, ainsi que la minimisation et la déterminisation d'automates finis.

Charles Paperman a fini son doctorat en 2013 sous la direction de Jean-Éric Pin et Olivier Carton, au LIAFA, et travaille désormais au laboratoire de Logique Mathématique de l'Université Paris Diderot avec Arnaud Durand. Ses sujets d'étude s'articulent autour de la logique, la théorie des automates, et la complexité des circuits, avec une approche algébrique.

paperman.cadilhac.name/pairs



Mercredi 18 janvier 2017, 11h-12h, Salle L0 du LRDE


Analyse topologique de données pour la visualisation scientifique: où en est-on et où va-t-on?

Julien Tierny - CNRS - LIP6 - UPMC

La visualisation scientifique est un domaine qui vise à aider les utilisateurs à (i) représenter, (ii) explorer et (iii) analyser des données géométriques acquises ou simulées, à des fins d'interprétation, de validation ou de communication. Parmi les techniques existantes, les algorithmes inspirés par la théorie de Morse ont démontré leur utilité dans ce contexte pour l'extraction efficace et robuste de structures d'intérêts, et ce, à plusieurs échelles d'importance.

Dans cette présentation, je donnerai un bref tutoriel sur l'analyse topologique de champs scalaires, en introduisant quelques concepts clés comme celui de graphe de Reeb, de complexe de Morse-Smale ou de diagramme de persistance. Par ailleurs, j'illustrerai ces notions par des cas d'applications concrets en astrophysique, chimie moléculaire ou encore en combustion. Ensuite, je discuterai certaines problématiques pratiques ayant récemment émergé avec le développement des ressources de calcul haute-performance. Ces problématiques induisent non seulement des jeux de données d'une taille inédite, mais également des types nouveaux de données, comme les champs scalaires multivariés ou incertains. Ces difficultés ne sont pas uniquement intéressantes pour la communauté de recherche à cause de leur forte importance pratique, mais aussi parce qu'elles nécessitent un redémarrage complet de l'effort de recherche entrepris dans ce domaine ces vingt dernières années. En particulier, je présenterai de nouvelles directions de recherche, étayées par des résultats préliminaires récents concernant l'analyse topologique dans un contexte de calcul haute-performance, ainsi que l'analyse topologique de champs scalaires incertains ou bivariés.

Julien Tierny a obtenu un Doctorat en informatique de l'Université Lille 1 en 2008, et l'Habilitation à Diriger des Recherches de l'Université Pierre-et-Marie-Curie en 2016. Depuis septembre 2014, il est chercheur permanent au CNRS, affilié avec le laboratoire LIP6 (UPMC), après avoir été chercheur à Télécom ParisTech entre 2010 et 2014. Avant cela, lauréat d'une bourse Fulbright, il a été chercheur associé en post-doctorat au Scientific Computing and Imaging Institute de l'Université d'Utah. Ses intérêts de recherche comprennent l'analyse topologique et géométrique de données pour la visualisation scientifique. Il a reçu en 2016 la "Mention Honorable" du concours IEEE Scientific Visualization Contest ainsi que le prix du meilleur article de la conférence IEEE VIS.

http://lip6.fr/Julien.Tierny



Mercredi 7 décembre 2016, 11h-12h, Salle L0 du LRDE


Des données spatio-temporelles aux dynamiques urbaines

Julien Perret, équipe COGIT, LaSTIG, IGN

La ville est un système complexe façonné par des dynamiques opérant à des échelles différentes. En tant que chercheur en sciences de l'information géographique travaillant dans l'interdisciplinarité, je travaille en collaboration avec des spécialistes du transport, des géographes, des urbanistes, des historiens, des démographes, et des physiciens, afin de proposer de meilleurs outils, modèles et données pour l'étude multi-échelle des dynamiques urbaines.

Je présente mes contributions dans un ordre correspondant à l'échelle spatiale, de la plus large à la plus fine : la très grande échelle pour les questions liées à la mobilité, la grande échelle pour celles liées à l'urbanisme et la petite échelle pour les questions liées à l'évolution du territoire sur le long terme.

Pour chaque partie, je vais m'attacher à proposer un cheminement commun : tout d'abord la question des sources d'information, des connaissances manipulées, leur représentation, leur stockage ; ensuite, la question de l'analyse de ces données, de leur enrichissement, de leur croisement ; enfin, l'interaction avec ces données, leur visualisation, leur interprétation, leur validation, leur correction par des utilisateurs.

Julien Perret (Dr. Université de Rennes 1 2006) est chercheur en Informatique et en Sciences de l'Information Géographique au sein de l'équipe de Cartographie et Géomatique (COGIT) du Laboratoire des Sciences et Technologies de l'Information Géographique (LaSTIG) de l'Institut National de l'Information Géographique et Forestière (IGN). Ses sujets de recherche portent principalement sur les données spatio-temporelles et en particulier les données géo-historiques, l'appariement de données géographiques et géo-historiques, la simulation urbaine 2D et 3D, la modélisation des systèmes complexe et l'optimisation stochastique. Il contribue à la mise en place de nouveaux standards pour la recherche reproductible par la diffusion des travaux de recherche sous la forme de données libres et de logiciels libres.

http://recherche.ign.fr/labos/cogit/cv.php?prenom=Julien&nom=Perret, https://geohistoricaldata.org



more…


Contact

Liens