Special

Semantic search

Mercredi 22 février 2017, 11h-12h, Salle L0 du LRDE


Extraction de biomarqueurs des troubles autistiques à partir de l'activité cérébrale (IRMf) par apprentissage de dictionnaire parcimonieux.

Alexandre Abraham, INRIA

L'Imagerie par Résonance Magnétique fonctionnelle (IRMf) est une source prometteuse de biomarqueurs permettant le diagnostic de troubles neuropsychiatriques sur des sujets non coopératifs. L'IRMf s'étudie en établissant un atlas de régions cérébrales représentatif de l'organisation fonctionnelle, puis en étudiant la corrélation entre leurs signaux. Pour les extraire, nous proposons une approche d'apprentissage de dictionnaire multi-sujets intégrant une pénalité imposant compacité spatiale et parcimonie. Nous sélectionnons les unités de base des réseaux fonctionnels extraits à l'aide de techniques de segmentation inspirées du domaine de la vision. Nous montons à l'échelle sur de gros jeux de données en utilisant une stratégie d'optimisation stochastique. A défaut de vérité terrain, nous proposons d'évaluer les modèles générés à l'aide de métriques de stabilité et de fidélité. Nous intégrons ensuite notre méthode de définition de régions dans un pipeline entièrement automatisé, afin de réaliser une tâche de diagnostic des troubles autistiques à travers différents sites d'acquisition et sur des sous-ensembles d'homogénéité variable. Nous montrons que nos modèles ont une meilleure performance, à la fois relativement aux métriques d'évaluation mais également sur nos résultats expérimentaux. Enfin, par une analyse post-hoc des résultats, nous montrons que la définition de région est l'étape la plus importante du pipeline et que l'approche que nous proposons obtient les meilleurs résultats. Nous fournissons également des recommandations sur les méthodes les plus performantes pour les autres étapes du pipeline.

Alexandre Abraham est un ancien de la promo CSI 2009. Il a notamment travaillé sur le watershed topologique et les espaces couleur pour le projet Olena. Après l'EPITA, il a suivi un master IAD à l'UPMC et a réalisé sa thèse à l'INRIA sur la segmentation de signaux fonctionnels cérébraux au repos sur de grandes cohortes à des fins de diagnostic. Il travaille aujourd'hui dans l'équipe de recommandation de produits chez Criteo.

http://nilearn.github.io/, http://www.twinee.fr

Mercredi 8 mars 2017, 11h-12h, Salle L0 du LRDE


Calcul parallèle pour problèmes inverses

Nicolas Gac, Université Paris Sud, L2S (Centrale Supélec, CNRS)

Les algorithmes itératifs utilisés lors de la résolution de problèmes inverses portant sur des gros volumes de données requièrent une accélération significative pour être utilisés en pratique. Sur des exemples d'applications en tomographie X et en déconvolution de signaux 1D (enregistrement sur plusieurs années de données spectrales de Mars) ou 2D (flux vidéo d'une webcam), nous présenterons notre recherche de solutions permettant la parallélisation des calculs la plus efficace possible sur les processeurs de type "many cores" que sont les GPUs. Nous exposerons ainsi la triple adéquation entre l'architecture des processeurs GPUs (CUDA de Nvidia), la (re)formulation des algorithmes et la (re)structuration des données que nous avons mises en oeuvre sur différents types d'opérateurs utilisés dans les algorithmes itératifs (projecteur, rétroprojecteur, convolution nD). Par ailleurs, nous montrerons l'attention particulière qui doit être apportée au goulot d'étranglement lié au temps de transfert entre le PC et les cartes GPUs. Enfin, nous présenterons le découpage des données que nous avons effectué afin de bénéficier pleinement d'un serveur multi-GPUs et apporterons quelques éléments de réponse sur l'utilisation des GPUs couplés à Matlab et des bibliothèques déjà existantes (CUBLAS, NVPP...).

Nicolas Gac est maître de conférences à l'université Paris Sud. Après avoir effectué sa thèse au Gipsa-lab, à Grenoble, en adéquation algorithme architecture pour la reconstruction tomographique, il poursuit ses travaux de recherche au laboratoire des Signaux et Systèmes (L2S) sur le calcul parallèle pour les problèmes inverses sur serveurs de calculs multi-GPUs ou FPGA. Les domaines applicatifs de ses travaux sont la reconstruction tomographique, la reconnaissance radar, la localisation de sources acoustiques et le traitement de données spectrales de Mars.

http://webpages.lss.supelec.fr/perso/nicolas.gac/francais/index.html

Mercredi 3 mai 2017, 11h-12h, Amphi 3 de l'EPITA


Apprentissage par Imitation Auto-Supervisée

Pierre Sermanet, Google Brain

Nous proposons une approche auto-supervisée pour l’apprentissage de représentations à partir de vidéos non supervisées, enregistrées à de multiples points de vue. Cette approche est particulièrement pertinente en robotique pour l’apprentissage par l’imitation, qui nécessite une compréhension invariante par rapport au point de vue des relations entre les humains et leur environnement (telles que les interactions entre objets, les attributs et les poses corporelles). Nous entraînons nos représentations à l’aide d’une stratégie de type triplet loss, où les multiples points de vue simultanés de la même observation sont attirés dans l’espace d’intégration, tout en étant repoussés des voisins temporels qui sont souvent visuellement similaires mais fonctionnellement différents. Ce signal encourage notre modèle à découvrir des attributs invariants vis-à-vis du point de vue, mais qui varient dans le temps, tout en ignorant les potentielles nuisances telles que les occlusions, le flou de mouvement, l’éclairage et l’arrière-plan. Nos expériences démontrent qu’une telle représentation acquiert même un certain degré d’invariance vis-à-vis de l’instance d’objet. Nous montrons que notre modèle peut correctement identifier les étapes correspondantes dans les interactions complexes d’objets, à travers différentes vidéos avec différentes instances. Nous montrons également les premiers résultats, à notre connaissance, d’apprentissage intégralement auto-supervisé pour l’imitation de mouvements humains par un robot réel.

Pierre Sermanet est issu de la promo EPITA 2005 (spécialisation GISTR). En 2004 il participe avec Evolutek à la compétition robotique Eurobot <http://cs.nyu.edu/~sermanet/eurobot.html>. Après son stage de fin d’étude chez Siemens Research à Princeton, il travaille avec Yann LeCun en tant qu’ingénieur de recherche pendant 3 ans sur le thème du deep learning pour le projet de robotique mobile LAGR <http://cs.nyu.edu/~sermanet/lagr.html>. Il effectue ensuite son doctorat en deep learning avec Yann LeCun à l'Université de New York jusqu’en 2013, puis il rejoint ensuite Google Brain en tant que chercheur en deep learning appliqué à la vision et à la robotique.

https://sermanet.github.io/tcn/

Mercredi 14 juin 2017, 11h-12h, Salle L0 du LRDE


MAQAO: une suite d'outils pour l'analyse et l’optimisation des performances

Andrés S. Charif Rubial (ESN PeXL et Li-PARAD - Université de Versailles)

MAQAO (Modular Assembly Quality Analyzer and Optimizer) est une suite d'outils d'analyse et d'optimisation des performances à destination d'applications binaires. Le but principal de MAQAO est d'analyser des codes binaires puis de proposer aux développeurs d'applications des rapports synthétiques les aidant à comprendre et optimiser les performances de leur application. MAQAO combine des analyses statiques (évaluation de la qualité du code) et dynamiques (profiling) basées sur la capacité à reconstruire des structures aussi bien bas niveau (basic blocks, instructions, etc.) que haut niveau (fonctions et boucles). Un autre aspect important de MAQAO est son extensibilité. En effet les utilisateurs peuvent écrire leur propre plugin grâce à un langage de script simple intégré (Lua).

Le Dr. Andres S. CHARIF RUBIAL dirige aujourd'hui une ESN dont les principales activités sont le HPC, l’ingénierie système, réseau et sécurité. En parallèle il est chercheur hébergé au Laboratoire Li-PARAD de l'Université de Versailles. Il a dirigé pendant 4 ans l'équipe de recherche et développement "évaluation des performance" du laboratoire Exascale Computing Research Laboratory (situé sur le campus Teratec). Il a principalement supervisé et travaillé au développement de la suite d'outils MAQAO afin de mieux comprendre les problèmes de performance des applications HPC mono et multi-noeuds. Ses travaux de thèse achevés en 2012 portaient d'ailleurs déjà sur cette thématique, en particulier sur le profilage d'applications et les problématiques de caractérisation des performances mémoire sur des systèmes à mémoire partagée.

www.maqao.org, www.pexl.eu

Mercredi 27 septembre 2017, 11h-12h, Salle L0 du LRDE


Frama-C, une plateforme collaborative et extensible pour l'analyse de code C

Julien Signoles, CEA LIST, Laboratoire de Sûreté des Logiciels (LSL)

Frama-C est une plateforme d'analyse de code C visant à vérifier des programmes C de taille industrielle. Elle fournit à ses utilisateurs une collection de greffons effectuant notamment des analyses statiques par interprétation abstraite et des méthodes déductives ou encore permettant des vérifications à l'exécution. La plateforme permet également de faire coopérer les analyses grâce au partage d'un noyau et d'un langage de spécification communs.

Cet exposé présente une vue générale de la plateforme, de ses principaux analyseurs et de quelques applications industrielles. Il se concentre sur le langage de spécification ACSL et sur différentes façons de vérifier des spécifications ACSL avec des analyses statiques ou dynamiques.

Julien Signoles a obtenu un doctorat en informatique de l'Université Paris 11 en 2006. Il devint ensuite ingénieur-chercheur au CEA LIST en 2007. Au sein du Laboratoire de Sûreté des Logiciels (LSL), il est l'un des développeurs principaux de Frama-C. Ses recherches se concentrent aujourd'hui sur la vérification à l'exécution (runtime verification) et ses différentes applications pour améliorer la sûreté et la sécurité des logiciels critiques.

orateur : http://julien.signoles.free.fr, projet : http://frama-c.com

Mercredi 8 novembre 2017, 10h-12h, Amphi 4 de l'EPITA


Lire les lignes du cerveau humain

Jean-François Mangin, NeuroSpin, CEA, Paris-Saclay

La lecture des lignes de la main est une activité ancestrale sans fondement scientifique, même si certains motifs sont associés à des malformations congénitales comme la trisomie 21. Cette conférence décrira l’émergence d’une véritable science de la lecture des « lignes du cerveau humain », qu’il s’agisse des plissements de son cortex ou de la trajectoire des faisceaux de fibres qui constituent son câblage à longue distance. Des formes inhabituelles de ces plissements ou de ces faisceaux sont parfois la trace d’anomalies développementales susceptibles d’augmenter le risque de développer certaines pathologies.

Jean-François Mangin est directeur de recherche au CEA. Il y dirige un groupe de recherche algorithmique en neuro-imagerie au sein du centre Neurospin, la plateforme IRM en champs intenses du CEA. Il est aussi directeur du CATI, la plateforme française créée par le plan Alzheimer pour prendre en charge les grandes études de neuroimagerie multicentriques. Il est enfin codirecteur du sous-projet «Human Strategic Data» du Human Brain Project, le plus vaste projet de recherche de la commission européenne. Il est ingénieur de l’Ecole Centrale Paris et Docteur de Télécom ParisTech. Son programme de recherche vise au développement d’outils de vision par ordinateur dédiés à l’interprétation des images cérébrales. Son équipe s’intéresse en particulier aux anomalies des plissements ou de la connectivité du cortex associées aux pathologies. Elle distribue les outils logiciels issus de cette recherche à la communauté.

www.cati-neuroimaging.com, www.humanbrainproject.eu, www.brainvisa.info

Apprentissage automatique en neuroimagerie: application aux maladies cérébrales

Edouard Duchesnay, NeuroSpin, CEA, Paris-Saclay

L'apprentissage automatique, ou "pattern recognition" multivarié, peut identifier des motifs complexes, associés à une variable d'intérêt, et ce, dans des données de grandes dimensions. Une fois l'apprentissage effectué par l'algorithme, il est appliqué à un nouvel individu afin de prédire l'évolution future de ce dernier. L'imagerie par résonance magnétique (IRM) fournit une approche efficace et non invasive pour étudier les changements structurels et fonctionnels du cerveau, associés aux conditions cliniques des patients. En combinant apprentissage automatique et imagerie cérébrale, il est possible de considérer l'émergence d'une médecine personnalisée, où les algorithmes ont appris du passé à prédire la réponse probable et future d'un patient donné à un traitement spécifique. Ces nouvelles informations guideront le clinicien dans ses choix thérapeutiques. Nous présenterons la complexité des données IRM manipulées, les algorithmes d'apprentissage et leurs applications aux maladies cérébrales.

Edouard Duchesnay a obtenu un diplôme d'ingénieur en génie logiciel de l'EPITA en 1997 (spécialisation SCIA), puis un master et un doctorat en traitement du signal et des images de l'Université de Rennes 1, respectivement en 1998 et 2001. Depuis 2008, il est chargé de recherche chez Neurospin, le centre de neuroimagerie par IRM du CEA. Il développe des algorithmes d'apprentissage automatique fournissant des outils de diagnostic et pronostic ou des méthodes de découverte de biomarqueurs pour les maladies du cerveau. E. Duchesnay est un contributeur majeur de la bibliothèque d'apprentissage automatique ParsimonY de Python, dédiée aux données structurées de grandes dimensions, telles que l'imagerie cérébrale ou les données génétiques. Il a également contribué à la bibliothèque d'apprentissage automatique scikit-learn de Python.

Home page: https://duchesnay.github.io/, ParsimonY library https://github.com/neurospin/pylearn-parsimony, Scikit-learn library http://scikit-learn.org

Mercredi 29 novembre 2017, 10h-11h, Amphi 4 de l'EPITA


Industrial Formal Verification – Cadence’s JasperGold Formal Verification Platform

Barbara Jobstmann, Cadence Design Systems

Formal verification (aka Symbolic Model Checking) is becoming a mainstream technology in system on a chip (SoC)/intellectual property design and verification methodologies. In the past, the usage of formal verification was limited to a small range of applications; it was mainly used to verify complex protocols or intrinsic logic functionality by formal verification experts. In recent years, we saw a rapid adoption of formal verification technology and many new application areas, such as checking of configuration and status register accesses, SoC connectivity verification, low power design verification, security applications, and many more. In this talk, we give an overview of the JasperGold Formal Verification Platform. The platform provides a wide range of formal apps, which ease adoption of formal verification by offering property generation and other targeted capabilities for specific design and verification tasks. In addition, JasperGold offers a unique interactive debug environment (called Visualize) that allows the user to easily analyze the verification results. We present JasperGold from a user’s point of view, showcase selected apps, and discuss features that were essential for their wide adoption.

Barbara Jobstmann is a field application engineer for Cadence Design Systems and a lecturer at the École Polytechnique Fédérale de Lausanne (EPFL). She joined Cadence in 2014 through the acquisition of Jasper Design Automation, where she worked since 2012 as an application engineer. In the past, she was also a CNRS researcher (chargé de recherche) in Verimag, an academic research laboratory belonging to the CNRS and the Communauté Université Grenoble Alpes in France. Her research focused on constructing correct and reliable computer systems using formal verification and synthesis techniques. She received a Ph.D. degree in Computer Science from the University of Technology in Graz, Austria in 2007.

Mercredi 13 décembre 2017, 11h-12h, Amphi 4 de l'EPITA


Vers l'apprentissage d'un sens commun visuel

Camille Couprie, Facebook AI research

Les réseaux de neurones convolutifs connaissent depuis quelques années un franc succès dans de nombreuses applications de reconnaissance visuelle. Nous reviendrons sur les premiers travaux en la matière en segmentation sémantique (étiquetage de chaque pixel des images par une catégorie sémantique). Nous explorerons ensuite une piste d'amélioration visant à réduire la quantité de données labelisées utilisée, à base d'entraînement de réseaux adversaires.

Dans un second temps, nous nous intéresserons au problème de la prédiction d'images suivantes dans les vidéos: s'il nous parait simple d'anticiper ce qu'il va se passer dans un futur très proche, c'est un problème difficile à modéliser mathématiquement étant données les multiples sources d'incertitude. Nous présenterons nos travaux de prédiction dans le domaine des images naturelles, puis dans l'espace plus haut niveau des segmentations sémantiques, nous permettant de prédire plus loin dans le futur.

Camille Couprie est chercheuse à Facebook Artificial Intelligence Research. Elle a obtenu son doctorat en informatique de l'Université Paris Est en 2011, sous la direction de Hugues Talbot, Laurent Najman et Leo Grady, avec une recherche spécialisée dans la formulation et l'optimisation de problèmes de vision par ordinateur dans les graphes. En 2012, elle a travaillé comme postdoc a l'institut Courant de New York University avec Yann LeCun. Après un poste IFP new energies, organisme de recherche français actif dans les domaines de l'énergie, des transports et de l'environnement, elle a rejoint Facebook en 2015.

https://perso.esiee.fr/~coupriec/, http://cs.nyu.edu/~mathieu/iclr2016.html, http://thoth.inrialpes.fr/people/pluc/iccv2017