Semantic search
Mercredi 22 février 2017, 11h-12h, Salle L0 du LRDE
Extraction de biomarqueurs des troubles autistiques à partir de l'activité cérébrale (IRMf) par apprentissage de dictionnaire parcimonieux.
Alexandre Abraham, INRIA
L'Imagerie par Résonance Magnétique fonctionnelle (IRMf) est une source
prometteuse de biomarqueurs permettant le diagnostic de troubles
neuropsychiatriques sur des sujets non coopératifs.
L'IRMf s'étudie en établissant un atlas de régions cérébrales représentatif
de l'organisation fonctionnelle, puis en étudiant la corrélation entre leurs
signaux.
Pour les extraire, nous proposons une approche d'apprentissage de
dictionnaire multi-sujets intégrant une pénalité imposant compacité spatiale et
parcimonie.
Nous sélectionnons les unités de base des réseaux fonctionnels
extraits à l'aide de techniques de segmentation inspirées du domaine de la
vision. Nous montons à l'échelle sur de gros jeux de données en utilisant
une stratégie d'optimisation stochastique.
A défaut de vérité terrain, nous proposons d'évaluer les modèles générés
à l'aide de métriques de stabilité et de fidélité.
Nous intégrons ensuite notre méthode de définition de régions dans un
pipeline entièrement automatisé, afin de réaliser une tâche de diagnostic des troubles
autistiques à travers différents sites d'acquisition et sur des
sous-ensembles d'homogénéité variable. Nous montrons que nos modèles ont une meilleure
performance, à la fois relativement aux métriques d'évaluation mais également sur nos
résultats expérimentaux.
Enfin, par une analyse post-hoc des résultats, nous montrons que la
définition de région est l'étape la plus importante du pipeline et que l'approche que
nous proposons obtient les meilleurs résultats. Nous fournissons également
des recommandations sur les méthodes les plus performantes pour les autres
étapes du pipeline.
Alexandre Abraham est un ancien de la promo CSI 2009. Il a notamment
travaillé sur le watershed topologique et les espaces couleur pour le projet Olena. Après
l'EPITA, il a suivi un master IAD à l'UPMC et a réalisé sa thèse à l'INRIA sur la
segmentation de signaux fonctionnels cérébraux au repos sur de grandes cohortes à des fins de
diagnostic. Il travaille aujourd'hui dans l'équipe de recommandation de produits chez
Criteo.
http://nilearn.github.io/, http://www.twinee.fr
Mercredi 8 mars 2017, 11h-12h, Salle L0 du LRDE
Calcul parallèle pour problèmes inverses
Nicolas Gac, Université Paris Sud, L2S (Centrale Supélec, CNRS)
Les algorithmes itératifs utilisés lors de la résolution de problèmes inverses portant sur des gros volumes de données requièrent
une accélération significative pour être utilisés en pratique. Sur des exemples d'applications en tomographie X et
en déconvolution de signaux 1D (enregistrement sur plusieurs années de données spectrales de Mars) ou 2D (flux vidéo d'une webcam),
nous présenterons notre recherche de solutions permettant la parallélisation des calculs la plus efficace possible
sur les processeurs de type "many cores" que sont les GPUs. Nous exposerons ainsi la triple adéquation entre
l'architecture des processeurs GPUs (CUDA de Nvidia), la (re)formulation des algorithmes et la (re)structuration
des données que nous avons mises en oeuvre sur différents types d'opérateurs utilisés dans les algorithmes
itératifs (projecteur, rétroprojecteur, convolution nD). Par ailleurs, nous montrerons l'attention particulière
qui doit être apportée au goulot d'étranglement lié au temps de transfert entre le PC et les cartes GPUs.
Enfin, nous présenterons le découpage des données que nous avons effectué afin de bénéficier pleinement
d'un serveur multi-GPUs et apporterons quelques éléments de réponse sur l'utilisation des GPUs couplés à Matlab
et des bibliothèques déjà existantes (CUBLAS, NVPP...).
Nicolas Gac est maître de conférences à l'université Paris Sud. Après avoir effectué sa thèse au Gipsa-lab, à Grenoble, en adéquation
algorithme architecture pour la reconstruction tomographique, il poursuit ses travaux de recherche au laboratoire des Signaux et
Systèmes (L2S) sur le calcul parallèle pour les problèmes inverses sur serveurs de calculs multi-GPUs ou FPGA. Les domaines
applicatifs de ses travaux sont la reconstruction tomographique, la reconnaissance radar, la localisation de sources acoustiques
et le traitement de données spectrales de Mars.
http://webpages.lss.supelec.fr/perso/nicolas.gac/francais/index.html
Mercredi 3 mai 2017, 11h-12h, Amphi 3 de l'EPITA
Apprentissage par Imitation Auto-Supervisée
Pierre Sermanet, Google Brain
Nous proposons une approche auto-supervisée pour l’apprentissage de
représentations à partir de vidéos non supervisées, enregistrées à de
multiples points de vue. Cette approche est particulièrement pertinente en
robotique pour l’apprentissage par l’imitation, qui nécessite une
compréhension invariante par rapport au point de vue des relations
entre les humains et leur environnement (telles que les interactions
entre objets, les attributs et les poses corporelles). Nous entraînons
nos représentations à l’aide d’une stratégie de type triplet loss,
où les multiples points de vue simultanés de la même observation
sont attirés dans l’espace d’intégration, tout en étant repoussés
des voisins temporels qui sont souvent visuellement similaires mais
fonctionnellement différents. Ce signal encourage notre modèle à
découvrir des attributs invariants vis-à-vis du point de vue, mais
qui varient dans le temps, tout en ignorant les potentielles nuisances
telles que les occlusions, le flou de mouvement, l’éclairage et
l’arrière-plan. Nos expériences démontrent qu’une telle représentation
acquiert même un certain degré d’invariance vis-à-vis de l’instance
d’objet. Nous montrons que notre modèle peut correctement identifier
les étapes correspondantes dans les interactions complexes d’objets,
à travers différentes vidéos avec différentes instances. Nous montrons
également les premiers résultats, à notre connaissance, d’apprentissage
intégralement auto-supervisé pour l’imitation de mouvements humains
par un robot réel.
Pierre Sermanet est issu de la promo EPITA 2005 (spécialisation GISTR). En
2004 il participe avec Evolutek à la compétition robotique Eurobot
<http://cs.nyu.edu/~sermanet/eurobot.html>. Après son stage de fin d’étude
chez Siemens Research à Princeton, il travaille avec Yann LeCun en tant
qu’ingénieur de recherche pendant 3 ans sur le thème du deep learning pour
le projet de robotique mobile LAGR <http://cs.nyu.edu/~sermanet/lagr.html>.
Il effectue ensuite son doctorat en deep learning avec Yann LeCun à l'Université
de New York jusqu’en 2013, puis il rejoint ensuite Google Brain en tant que
chercheur en deep learning appliqué à la vision et à la robotique.
https://sermanet.github.io/tcn/
Mercredi 14 juin 2017, 11h-12h, Salle L0 du LRDE
MAQAO: une suite d'outils pour l'analyse et l’optimisation des performances
Andrés S. Charif Rubial (ESN PeXL et Li-PARAD - Université de Versailles)
MAQAO (Modular Assembly Quality Analyzer and Optimizer) est une suite d'outils d'analyse et d'optimisation des performances
à destination d'applications binaires. Le but principal de MAQAO est d'analyser des codes binaires puis de proposer aux
développeurs d'applications des rapports synthétiques les aidant à comprendre et optimiser les performances de leur application.
MAQAO combine des analyses statiques (évaluation de la qualité du code) et dynamiques (profiling) basées sur la capacité
à reconstruire des structures aussi bien bas niveau (basic blocks, instructions, etc.) que haut niveau (fonctions et boucles).
Un autre aspect important de MAQAO est son extensibilité. En effet les utilisateurs peuvent écrire leur propre plugin
grâce à un langage de script simple intégré (Lua).
Le Dr. Andres S. CHARIF RUBIAL dirige aujourd'hui une ESN dont les principales activités sont le HPC, l’ingénierie système,
réseau et sécurité. En parallèle il est chercheur hébergé au Laboratoire Li-PARAD de l'Université de Versailles.
Il a dirigé pendant 4 ans l'équipe de recherche et développement "évaluation des performance" du laboratoire
Exascale Computing Research Laboratory (situé sur le campus Teratec). Il a principalement supervisé et travaillé au développement
de la suite d'outils MAQAO afin de mieux comprendre les problèmes de performance des applications HPC mono et multi-noeuds.
Ses travaux de thèse achevés en 2012 portaient d'ailleurs déjà sur cette thématique, en particulier sur le profilage d'applications
et les problématiques de caractérisation des performances mémoire sur des systèmes à mémoire partagée.
www.maqao.org, www.pexl.eu
Mercredi 27 septembre 2017, 11h-12h, Salle L0 du LRDE
Frama-C, une plateforme collaborative et extensible pour l'analyse de code C
Julien Signoles, CEA LIST, Laboratoire de Sûreté des Logiciels (LSL)
Frama-C est une plateforme d'analyse de code C visant à vérifier des programmes C de taille industrielle. Elle fournit à ses utilisateurs une collection de greffons effectuant notamment des analyses statiques par interprétation abstraite et des méthodes déductives ou encore permettant des vérifications à l'exécution. La plateforme permet également de faire coopérer les analyses grâce au partage d'un noyau et d'un langage de spécification communs.
Cet exposé présente une vue générale de la plateforme, de ses principaux
analyseurs et de quelques applications industrielles. Il se concentre sur le
langage de spécification ACSL et sur différentes façons de vérifier des
spécifications ACSL avec des analyses statiques ou dynamiques.
Julien Signoles a obtenu un doctorat en informatique de l'Université
Paris 11 en 2006. Il devint ensuite ingénieur-chercheur au CEA LIST
en 2007. Au sein du Laboratoire de Sûreté des Logiciels (LSL), il est l'un des
développeurs principaux de Frama-C. Ses recherches se concentrent aujourd'hui
sur la vérification à l'exécution (runtime verification) et ses différentes
applications pour améliorer la sûreté et la sécurité des logiciels critiques.
orateur : http://julien.signoles.free.fr, projet : http://frama-c.com
Mercredi 8 novembre 2017, 10h-12h, Amphi 4 de l'EPITA
Lire les lignes du cerveau humain
Jean-François Mangin, NeuroSpin, CEA, Paris-Saclay
La lecture des lignes de la main est une activité ancestrale sans
fondement scientifique, même si certains motifs sont associés à des
malformations congénitales comme la trisomie 21. Cette conférence
décrira l’émergence d’une véritable science de la lecture des « lignes
du cerveau humain », qu’il s’agisse des plissements de son cortex ou
de la trajectoire des faisceaux de fibres qui constituent son câblage
à longue distance. Des formes inhabituelles de ces plissements ou de
ces faisceaux sont parfois la trace d’anomalies développementales
susceptibles d’augmenter le risque de développer certaines
pathologies.
Jean-François Mangin est directeur de recherche au CEA. Il y dirige un
groupe de recherche algorithmique en neuro-imagerie au sein du centre
Neurospin, la plateforme IRM en champs intenses du CEA. Il est aussi
directeur du CATI, la plateforme française créée par le plan Alzheimer
pour prendre en charge les grandes études de neuroimagerie
multicentriques. Il est enfin codirecteur du sous-projet «Human
Strategic Data» du Human Brain Project, le plus vaste projet de
recherche de la commission européenne. Il est ingénieur de l’Ecole
Centrale Paris et Docteur de Télécom ParisTech. Son programme de
recherche vise au développement d’outils de vision par ordinateur
dédiés à l’interprétation des images cérébrales. Son équipe
s’intéresse en particulier aux anomalies des plissements ou de la
connectivité du cortex associées aux pathologies. Elle distribue les
outils logiciels issus de cette recherche à la communauté.
www.cati-neuroimaging.com, www.humanbrainproject.eu, www.brainvisa.info
Apprentissage automatique en neuroimagerie: application aux maladies cérébrales
Edouard Duchesnay, NeuroSpin, CEA, Paris-Saclay
L'apprentissage automatique, ou "pattern recognition" multivarié, peut
identifier des motifs complexes, associés à une variable d'intérêt, et
ce, dans des données de grandes dimensions. Une fois l'apprentissage
effectué par l'algorithme, il est appliqué à un nouvel individu afin
de prédire l'évolution future de ce dernier. L'imagerie par résonance
magnétique (IRM) fournit une approche efficace et non invasive pour
étudier les changements structurels et fonctionnels du cerveau,
associés aux conditions cliniques des patients. En combinant
apprentissage automatique et imagerie cérébrale, il est possible de
considérer l'émergence d'une médecine personnalisée, où les
algorithmes ont appris du passé à prédire la réponse probable et
future d'un patient donné à un traitement spécifique. Ces nouvelles
informations guideront le clinicien dans ses choix thérapeutiques.
Nous présenterons la complexité des données IRM manipulées, les
algorithmes d'apprentissage et leurs applications aux maladies
cérébrales.
Edouard Duchesnay a obtenu un diplôme d'ingénieur en génie logiciel de
l'EPITA en 1997 (spécialisation SCIA), puis un master et un doctorat
en traitement du signal et des images de l'Université de Rennes 1,
respectivement en 1998 et 2001. Depuis 2008, il est chargé de
recherche chez Neurospin, le centre de neuroimagerie par IRM du
CEA. Il développe des algorithmes d'apprentissage automatique
fournissant des outils de diagnostic et pronostic ou des méthodes de
découverte de biomarqueurs pour les maladies du cerveau. E. Duchesnay
est un contributeur majeur de la bibliothèque d'apprentissage
automatique ParsimonY de Python, dédiée aux données structurées de
grandes dimensions, telles que l'imagerie cérébrale ou les données
génétiques. Il a également contribué à la bibliothèque d'apprentissage
automatique scikit-learn de Python.
Home page: https://duchesnay.github.io/, ParsimonY library https://github.com/neurospin/pylearn-parsimony, Scikit-learn library http://scikit-learn.org
Mercredi 29 novembre 2017, 10h-11h, Amphi 4 de l'EPITA
Industrial Formal Verification – Cadence’s JasperGold Formal Verification Platform
Barbara Jobstmann, Cadence Design Systems
Formal verification (aka Symbolic Model Checking) is becoming a
mainstream technology in system on a chip (SoC)/intellectual property
design and verification methodologies. In the past, the usage of
formal verification was limited to a small range of applications; it
was mainly used to verify complex protocols or intrinsic logic
functionality by formal verification experts. In recent years, we saw
a rapid adoption of formal verification technology and many new
application areas, such as checking of configuration and status
register accesses, SoC connectivity verification, low power design
verification, security applications, and many more. In this talk, we
give an overview of the JasperGold Formal Verification Platform. The
platform provides a wide range of formal apps, which ease adoption of
formal verification by offering property generation and other targeted
capabilities for specific design and verification tasks. In addition,
JasperGold offers a unique interactive debug environment (called
Visualize) that allows the user to easily analyze the verification
results. We present JasperGold from a user’s point of view, showcase
selected apps, and discuss features that were essential for their wide
adoption.
Barbara Jobstmann is a field application engineer for Cadence Design
Systems and a lecturer at the École Polytechnique Fédérale de Lausanne
(EPFL). She joined Cadence in 2014 through the acquisition of Jasper
Design Automation, where she worked since 2012 as an application
engineer. In the past, she was also a CNRS researcher (chargé de
recherche) in Verimag, an academic research laboratory belonging to
the CNRS and the Communauté Université Grenoble Alpes in France. Her
research focused on constructing correct and reliable computer systems
using formal verification and synthesis techniques. She received a
Ph.D. degree in Computer Science from the University of Technology in
Graz, Austria in 2007.
Mercredi 13 décembre 2017, 11h-12h, Amphi 4 de l'EPITA
Vers l'apprentissage d'un sens commun visuel
Camille Couprie, Facebook AI research
Les réseaux de neurones convolutifs connaissent depuis quelques années un franc succès dans de nombreuses applications de reconnaissance visuelle. Nous reviendrons sur les premiers travaux en la matière en segmentation sémantique (étiquetage de chaque pixel des images par une catégorie sémantique). Nous explorerons ensuite une piste d'amélioration visant à réduire la quantité de données labelisées utilisée, à base d'entraînement de réseaux adversaires.
Dans un second temps, nous nous intéresserons au problème de la
prédiction d'images suivantes dans les vidéos: s'il nous parait
simple d'anticiper ce qu'il va se passer dans un futur très proche,
c'est un problème difficile à modéliser mathématiquement étant données
les multiples sources d'incertitude. Nous présenterons nos travaux de
prédiction dans le domaine des images naturelles, puis dans l'espace
plus haut niveau des segmentations sémantiques, nous permettant de
prédire plus loin dans le futur.
Camille Couprie est chercheuse à Facebook Artificial Intelligence
Research. Elle a obtenu son doctorat en informatique de l'Université
Paris Est en 2011, sous la direction de Hugues Talbot, Laurent Najman
et Leo Grady, avec une recherche spécialisée dans la formulation et
l'optimisation de problèmes de vision par ordinateur dans les graphes.
En 2012, elle a travaillé comme postdoc a l'institut Courant de New
York University avec Yann LeCun. Après un poste IFP new energies,
organisme de recherche français actif dans les domaines de l'énergie,
des transports et de l'environnement, elle a rejoint Facebook en 2015.
https://perso.esiee.fr/~coupriec/, http://cs.nyu.edu/~mathieu/iclr2016.html, http://thoth.inrialpes.fr/people/pluc/iccv2017