Séminaires du DIT 2005 - 2006
Architectures spécialisées pour la bioinformatique
18 octobre 2005, salle Y. Rocard, 14h15.Intervention de Dominique Lavenier, directeur de recherches au CNRS,
Les progrès des biotechnologies conduisent à une croissance exponentielle des données génomiques. Cette masse d’information est quotidiennement fouillée par des dizaines de milliers de chercheurs en biologie pour en extraire de nouvelles connaissances. Les traitements associés sont coûteux mais peuvent être efficacement parallélisés sur des gros calculateurs, des fermes de PC ou des grilles. C’est habituellement la solution retenue par les centres de calcul de bioinformatique. Cependant, les performances peuvent être largement améliorées par un parallélisme à grain plus fin supporté par des architectures matérielles ad hoc. L’exposé, après une courte introduction au domaine de la bioinformatique, présentera les principes mis en œuvre dans ces accélérateurs matériels.
L'informatique diffuse : des concepts à la réalité
8 novembre, salle Y. Rocard, 14h15.Intervention de Michel Banâtre, directeur de recherches à l'INRIA,
Une introduction au calcul sans attente (wait-free computing)
22 novembre 2005, salle Y. Rocard, 14h15.Intervention de Michel Raynal, Professeur à l'université de Rennes,
Le calcul sans attente consiste à résoudre des problèmes de synchronisation sans faire appel à des primitives de synchronisation qui pourraient conduire un ou plusieurs processus à se bloquer de façon intermittente. Ceci interdit donc toutes les primitives de synchronisation classiques telles que celles fondées sur des techniques d'exclusion mutuelle. Un avantage du calcul sans attente est que la vitesse d'un processus ne dépend que de lui, quel que soit le comportement des autres processus (cest-à-dire même si ceux-ci crashent ou deviennent extrêmement lents). Introduit dès 1977 par Leslie Lamport, ce type de calcul a été "oublié" avant d'être "redécouvert" dans les années 1990, notamment par Maurice Herlihy qui en a donné des fondements théoriques. Il est depuis devenu un object d'étude utilisé dans le calcul asynchrone (réparti ou centralisé) et dans la résolution des problèmes dits "temps-réel". L'exposé introduira les principes sous-jacents au calcul sans attente et en illustrera des propriétés à l'aide de quelques exemples particulièrement simples.
Méthodes et Outils pour Automatiser la Génération de systèmes fiables : Une approche par contrôle
6 décembre, salle Y. Rocard, 14h15. Intervention de Hervé Marchand, chargé de recherche à l'Inria, équipe Vertecs de l'Irisa,
Le problème de la synthèse de contrôleur sur des systèmes à événements discrets consiste, à partir d'une spécification du système et d'un ensemble de propriétés (objectif de contrôle) attendues de celui-ci, à dériver/synthétiser un contrôleur qui, une fois placé dans son environnement, va contraindre le comportement du système de manière à garantir l'ensemble des propriétés.
Dans le cadre de cet exposé, nous ferons un panorama des méthodes de synthèse de contrôleur telles qu'elles furent introduites par Ramadge et Wohnam (RW) dans les années 80/90. Dans un second temps, nous nous intéresserons au contrôle de systèmes structurés (i.e. composés de plusieurs sous-systèmes) et verrons comment adapter les méthodes précédentes à ce type de systèmes. Nous finirons par un tour d'horizon sur les recherches actuellement réalisées dans ce cadre.
Dans le cadre de cet exposé, nous ferons un panorama des méthodes de synthèse de contrôleur telles qu'elles furent introduites par Ramadge et Wohnam (RW) dans les années 80/90. Dans un second temps, nous nous intéresserons au contrôle de systèmes structurés (i.e. composés de plusieurs sous-systèmes) et verrons comment adapter les méthodes précédentes à ce type de systèmes. Nous finirons par un tour d'horizon sur les recherches actuellement réalisées dans ce cadre.
Présentation des réseaux pour la recherche et l'éducation en France, en Europe et dans le monde.
mardi 17 janvier de 14h à 15h30, salle du conseil.Intervention de D. Vandromme, directeur du réseau RENATER, le réseau informatique de la recherche nationale.
Les réseaux pour la recherche et l'éducation se sont énormément développés depuis le début des années 2000, en s'écartant de plus en plus des offres de services disponibles commercialement, tant en termes de capacités que de services avancés. RENATER, qui en est la composante nationale en France participe de façon active à la structuration de l'Internet dans le pays, en même temps qu'il contribue de façon très active à la construction de l'espace européen de la recherche et de l'éducation. Il participe également au rayonnement de la recherche européenne dans toutes les régions du monde. Le sujet de la présentation est de donner une vue globale de ces actions.
Analyse sémantique de programmes : application à la sécurité du code mobile.
mardi 31 janvier de 14h à 15h30, salle Y. Rocard. Intervention de Thomas Jensen, directeur de recherche au CNRS, responsable de l'équipe Lande à l'Irisa.
L'analyse de programme est fondée sur la théorie de l'interprétation abstraite. Dans l'exposé, je vais présenter les éléments de base de cette théorie et montrer comment construire une analyse pour des applettes Java. Je vais ensuite décrire comment le résultat d'une telle analyse peut être utilisé pour améliorer la sécurité du code mobile (comme les applettes que l'on télé-charge) en couplant un programme avec une preuve de sa correction (le principe de "proof-carrying code").
Analyse du mouvement dans des séquences d’images: des modèles physiques à l’apprentissage.
mardi 7 mars de 14h à 15h30, salle Y. Rocard.Intervention de Patrick Bouthemy, directeur de recherche à l'INRIA, responsable de l'équipe Vista à l'Irisa.
Cet exposé abordera le problème de l’analyse de séquences d’images et couvrira les questions associées de modélisation, de mesure, de structuration et de reconnaissance du mouvement dans ces séquences d’images. Il s’intéressera plus particulièrement à deux domaines différents, l’analyse du mouvement fluide pour l’étude d’écoulements d’une part, et l’analyse de contenus dynamiques pour l’indexation vidéo d’autre part. Ces objectifs conduisent respectivement à l’introduction adaptée, dans les méthodes développées, de modèles physiques des phénomènes visualisés (en imagerie météorologique ou en mécanique des fluides expérimentale), et à la définition de modèles statistiques spécifiés par apprentissage pour appréhender les contenus très divers du domaine audio-visuel (notamment les programmes télévisuels de sports).
Turbocodes et algorithmes turbo
mardi 21 mars 2006 de 14h à 15h30, salle du conseil à l'ENS Cachan à Ker-Lann.Intervention de C. Berrou, Directeur d'études à l'ENSTB, Directeur du laboratoire TAMCIC à Brest
Les turbocodes et les décodeurs associés, qui s'appuient sur le principe de la contre-réaction et qui sont mis en œuvre par un traitement itératif, offrent des performances proches des limites théoriques de Shannon. L'application de ce principe général de contre-réaction est aujourd'hui largement étendue à des fonctions de réception autres que le codage correcteur. Cette présentation retrace le cheminement qui a conduit à l'invention de cette nouvelle technique de codage et de décodage, et fait un inventaire des principales améliorations qui y ont été apportées par la suite. Les codes LDPC, une autre famille de codes décodés itérativement, sont une alternative aux turbocodes dans les comités de normalisation. L'exposé se terminera par une rapide comparaison des deux techniques.
Surveillance en fonctionnement, détection et diagnostic de pannes : traitement statistique de l'information multi-capteurs sur la base de modèles physiques.
mardi 4 avril 2006 à 14h, samme Rocard à Ker-Lann.Intervention de Michèle Basseville, directrice de recherches au CNRS, responsable de l'équipe Sisthem à l'Irisa.
L'informatique joue un rôle crucial dans la sûreté de fonctionnement des systèmes technologiques critiques et/ou complexes, tels que les centrales nucléaires, les avions et engins spatiaux, les systèmes industriels de production continue (électricité, pétrole, chimie, métallurgie, sidérurgie), les grands ouvrages de génie civil (barrages, ponts, plateformes pétrolières), les véhicules et les infrastructures des systèmes de transport routiers et ferroviaires. En raison de la diffusion massive de capteurs de toutes natures, ces systèmes bénéficient d'une instrumentation conséquente, et leur sûreté de fonctionnement passe par la conception d'algorithmes de traitement in-situ des données numériques ainsi disponibles. Il s'agit alors en particulier d'opérer détection, localisation, et diagnostic d'événements imprévus ou de déviations par rapport à un comportement de référence normal.
Cet exposé abordera des fondements de la conception de tels algorithmes de traitement statistique. Il sera illustré d'exemples, notamment dans le domaine de la surveillance d'intégrité de structures (ponts, avions).
Mise à jour le 28 octobre 2015
Archives
- Séminaires 2023-2024
- Séminaires 2022-2023
- Séminaires 2021-2022
- Séminaires 2020-2021
- Séminaires 2019-2020
- Séminaires 2018-2019
- Séminaires 2017-2018
- Séminaires 2016-2017
- Séminaires 2015-2016
- Séminaires 2014-2015
- Séminaires 2013-2014
- Séminaires 2012-2013
- Séminaires 2011-2012
- Séminaires 2010-2011
- Séminaires 2009-2010
- Séminaires 2008-2009
- Séminaires 2007-2008
- Séminaires 2006-2007
- Séminaires 2005-2006
- Séminaires 2004-2005
- Séminaires 2003-2004
- Séminaires 2002-2003