Partager cette page :

Séminaires du DIT 2004 - 2005

Les grands graphes rencontres en pratique

Mardi 5 octobre 2004
Intervention de Matthieu Latapy, Chargé de Recherche au CNRS, LIAFA, Paris

Il est apparu recemment que la plupart des (tres) grands graphes rencontres en pratique ont des proprietes statistiques en commun (faible densite, distance moyenne courte, distribution des degres en loi de puissance et fort clustering), qui les rendent très differents des graphes aleatoires. C'est notamment le cas de la topologie de l'Internet (connexions physiques entre machines), du graphe du Web (liens hypertextes entre pages), des echanges pair-a-pair (qui echange avec qui), mais aussi de la plupart des reseaux sociaux (relations professionnelles, discussions en lignes, etc), biologiques (cerveau, interactions proteiques, etc) et linguistiques (cooccurences, synonymie, etc).
Cette constatation a entraine une intense activite visant a mieux connaitre ces grands graphes, en les explorant, en les analysant et en les modelisant.
Je propose dans cet expose un panorama de cette activite recente, avec un accent particulier sur les aspects modelisation et sur quelques directions qui me semblent particulierement prometteuses pour un avenir proche.

Introduction au Controle des systèmes temporisés

Mardi 19 octobre 2004
Intervention de Franck Cassez, chargé de recherche au CNRS, IRCCyN, Nantes

Cet exposé est une introduction au contrôle des automates temporisés et hybrides. On commence par presenter le problème de contrôle et un algorithme de synthèse de contrôleur dans le cas des systèmes discrets. Puis on presente une solution dans le cas temporisé (temps-dense) ainsi que dans le cas d'un contrôleur echantilloné. On abordera aussi (si possible) les notions d'observabilité et d'implementabilité des contrôleurs.

Traitement d'images médicales dans le domaine des neurosciences cliniques 

Mardi 9 novembre 2004
Intervention de Christian Barillot, directeur de recherches au CNRS, responsable de l'équipe Visages à l'Irisa

Depuis les années 1970, l'imagerie médicale a été un domaine en très rapide croissance, aussi bien sur le plan technologique, clinique que de la recherche. Les trois dernières décennies ont  montré une évolution rapide des dimensions et de la quantité des  données que les médecins doivent exploiter. La prochaine décennie  suivra cette évolution en ajoutant non seulement de nouvelles  dimensions spatio-temporelles aux images produites et utilisées dans  un environnement clinique, mais également en ajoutant de nouvelles  échelles d'analyse (nano ou micro imagerie, biologique et  moléculaire). Une autre évolution consistera à ajouter de nouveaux  effecteurs au cours des interventions guidées par image (chirurgie,  radiologie interventionnelle...). La manière classique de se servir  de ces images, la plupart du temps basée sur l'interprétation  humaine, devient de moins en moins praticable. En outre, la pression  économique et sociale pour, d'une part avoir un usage plus efficient  des équipements, et d'autre part une meilleure garantie de qualité et  de traçabilité du processus clinique décisionnel, rend de plus en  plus nécessaire le développement de nouveaux systèmes d'aide à  l'utilisation des images médicales.
Dans ce contexte, cet exposé va être concentré autour de la  présentation de nouveaux algorithmes dans le domaine du traitement  informatique des images médicales et des interventions assistées par  ordinateur. Ces algorithmes concernent : la fusion d'images (recalage et visualisation), la segmentation et l'analyse d'images, la gestion des informations relatives aux images.


Introduction à la problématique de l'asservissement visuel

Mardi 23 novembre 2004
Intervention de Francois Chaumette, directeur de recherches à l'Inria, responsable équipe Lagadic à l'Irisa (http://www.irisa.fr/lagadic)

Les techniques d'asservissement visuel consistent à utiliser les informations fournies par un capteur de vision pour contrôler en boucle fermée les mouvements d'un système dynamique. Ce problème de commande est a la base un probleme non linéaire, ce qui peut parfois entrainer des comportements peu satisfaisants du système : convergence vers un minimum local, trajectoires inadéquates, etc.
L'exposé tentera d'illustrer ces phénomènes et d'aborder les voies de recherche en modélisation d'informations visuelles pour transformer le système initial en un système linéaire.
Un apercu des applications de l'asservissement visuel en robotique et en réalité augmentée sera egalement presenté.


Génération automatique de tests de conformité pour les sytèmes réactifs

Mardi 25 janvier 2005
Intervention de Thierry Jéron, chercheur INRIA, responsable de l'équipe Vertecs à l'Irisa

Les systèmes réactifs sont des systèmes qui réagissent à leur environnement. On les trouve en nombre, complexité et  répartition croissante, dans des systèmes logiciels et matériels de domaines variés, tels que les télécom, les transports,  les systèmes de contrôle commande, etc.
En assurer la fiabilité est souvent primordial, tant du point de vue économique que du point de vue de la sécurité.
L'analyse de ces systèmes, des spécification jusqu'à leur implémentation,  repose sur des techniques variées mais complémentaires, comme la simulation, la vérification, le contrôle, l'analyse statique, l'observation, le test, le débogage,  etc.
Les méthodes formelles visent à fonder ces techniques d'analyse sur la formalisation des problèmes, en passant par la modélisation des systèmes, la description de leurs propriétés, et l'utilisation de techniques telles que le model-checking, la preuve, l'interprétation abstraite, la résolution de contraintes, etc.
L'exposé se focalisera  sur les travaux  menés ces dernières années à l'Irisa sur la problématique du test de systèmes réactifs à partir de modèle, et plus particulièrement sur  la génération automatique de tests de conformité. Le problème consiste à calculer automatiquement des tests et leurs verdicts à partir  d'une spécification d'un système réactif, afin de tester la correction fonctionnelle d'implémentations boîtes noires, i.e. dont seules les interfaces sont connues. Nous aborderons deux techniques visant à maîtriser la complexité des spécifications lors de la génération de tests:
  • la génération énumérative "à la volée" fondée sur un modèle de systèmes de transition (en gros des automates) et des techniques de vérification de type model-checking, implémentée dans l'outil TGV.
  • la génération symbolique fondée sur un modèle de systèmes de transitions étendus avec des données. Dans ce cas,  l'expressivité du modèle implique l'indécidabilité des problèmes d'analyse, et impose l'utilisation de techniques d'analyse approchée. Ces techniques sont implémentée dans l'outil STG.

Agents rationnels et dialogue naturel personne-machine : fonctionnalités et mise en oeuvre – Le cas de la technologie Artimis

Mardi 8 février 2005
Intervention de D. Sadek, responsable d'une division du centre de  recherche de France Telecom. Il parlera de l'interaction personne-machine.

Le concept d'agent cognitif offre une approche privilégiée pour la modélisation et la mise en œuvre de systèmes intelligents de dialogue naturel personne-machine. La technologie d'agents rationnels dialoguants conçue et développée à France Télécom s'inscrit dans le cadre de cette approche, qui permet également d'appréhender les interactions entre agents selon les mêmes principes. Le modèle formel d'agent rationnel sous-jacent à cette technologie est à l'origine du standard FIPA (Foundation for Intelligent Physical Agents) de langage de communication inter-agent (ACL - Agent Communication Language) pour l'interopérabilité entre agents logiciels hétérogènes.
La technologie développée arrive aujourd'hui à un niveau de maturité industriel ; elle est évaluée dans plusieurs contextes applicatifs et commence à être déployée dans des applications commerciales à grande échelle.
Les différents points abordés seront illustrés par des démonstrations de la technologie Artimis, qui met directement en œuvre le modèle d'agent rationnel présenté.

"Simulation mécanique pour la réalité virtuelle"

Mardi 15 mars 2005
Intervention de Georges Dumont, ENS Cachan, chercheur dans le projet Siames de l'Irisa

La réalité virtuelle vise à immerger, par l¹intermédiaire d¹interfaces, l¹humain (réel) dans un monde virtuel. La représentation de ce monde est un des enjeux qu¹il faut relever. Cette représentation est tout d¹abord visuelle et se base sur des méthodes de représentation géométrique. Pour envisager une interaction performante, il faut également modéliser le comportement des objets qui constituent ce monde. C¹est l¹objet de cet exposé. Nous poserons partiellement cette problématique qui nous conduit à intégrer des modèles mécaniques comme modèle de représentation du comportement physique des objets. Nous développerons un exemple de chaîne complète pour illustrer la diversité de ces comportements.
Nous proposerons un regard plus approfondi sur le traitement des contacts et des chocs. Une proposition de représentation de la marche bipède nous permettra d¹élargir la réflexion en abordant des problématiques d¹interpolation.

SplitStream : diffusion de contenus à fort besoin en bande passante en environnement pair-a-pair

Mardi 29 mars 2005
Intervention de Anne-Marie Kermarrec, directrice de recherche à l'Inria dans le projet Paris de l'IRISA/ENS Cachan.

Dans les protocoles de diffusion reposant sur un arbre,  seule une minorité de noeuds internes est en charge de transmettre les informations à diffuser.
Une telle solution  soulève un problème d'équilibrage de charge dans le cadre de systèmes pair-à-pair où chaque participant s'attend à contribuer au système dans des proportions similaires aux bénéfices qu'il en retire et en particulier lorsque les contenus à diffuser présentent de  fort besoin en bande passante. Dans SplitStream, le contenu initial  est divisé en  plusieurs flux afin de construire,  non plus un unique arbre de diffusion,  mais une forêt d'arbres. Par construction, SplitStream permet d'assurer  qu'un noeud interne dans un arbre, soit une feuille dans les autres... L'équilibrage de charge est ainsi assuré entre les arbres de la forêt.
En outre, SplitStream, couplé à des codages appropriés des données transmises,  fournit une tolérance aux défaillances de noeuds accrue puisque la défaillance d'un noeud interne entraine la perte d'un unique flux de données en moyenne.  Dans cet exposé, je présenterai la conception et l'évaluation de SplitStream dans le contexte d' un système pair à pair.
Les résultats expérimentaux  montrent que SplitStream distribue la charge de diffusion de manière équitable entre les pairs en fonction de la bande passante disponible tout en imposant une charge raisonnable sur les noeuds pour la construction et la maintenance de la forêt.

Stream-mining : analyser des flux de données sans recourir au stockage

Mardi 3 mai 2005
Intervention de F. Clérot, chercheur chez France Telecom.

L'augmentation du nombre de flux d'information et la croissance rapide de leurs débits rendent difficile la mise en pratique de l'architecture  traditionnelle de l'analyse de données où les données, préalablement stockées, sont analysées puis rafraîchies.
Le "stream-mining" se propose d'inverser radicalement cette architecture et de mettre en oeuvre des systèmes reposant sur des capacités de stockage minimales mises à jour à la vitesse du flux.
On présentera rapidement quelques justifications générales de cette approche et on analysera en détail une technique de ce type dans le cadre de la métrologie des réseaux IP.

Mise à jour le 3 décembre 2015