Projets

Équipe : PEQUAN

  • https://www.lip6.fr/cadna/
    CADNA - Control of Accuracy and Debugging for Numerical Application

    CADNA est une bibliothèque qui permet de faire du calcul scientifique sur ordinateur en estimant et contrôlant la propagation des erreurs d'arrondi

    Responsable : Jean-Marie CHESNEAUX
    10/01/1992
    Plus d'informations ici

Équipe : DECISION

  • http://www-desir.lip6.fr/~gonzales/research/lemon
    Lemon - library for easily modeling and operating on networks

    Lemon est une boite à outils graphique (au sens GUI) en C++ pour manipuler des modèles graphiques. Elle s'appuie sur aGrUM en ce qui concerne les manipulations graphiques (au sens de la théorie des graphes) et les aspects calculatoires (inférence, apprentissage, etc, de modèles graphiques).

    Responsable : Christophe GONZALES

    Plus d'informations ici
  • http://agrum.lip6.fr
    aGrUM - a Graphical Unified Model

    aGrUM est une librairie en C++ de manipulation de modèles graphiques. Son spectre est assez large puisqu'elle est conçue pour faire de l'apprentissage (de réseaux bayésiens par exemple), de la planification (FMPDs) ou bien encore de l'inférence (réseaux bayésiens, GAI, diagrammes d'influence).

    Responsable : Christophe GONZALES & Pierre-Henri WUILLEMIN

    Plus d'informations ici

Équipe : MOCAH

  • LEA4PA - LEarning Analytics for Adaptation and Personnalisation

    Ce projet vise à construire une plateforme d'aide à l'adaptation à destination des enseignants. Des indicateurs variés (cognitifs, pédagogiques, temporel, etc.) seront construits à partir de traces générées et récupérées automatiquement ou de façon manuelle de l'activité des élèves. Des systèmes de visualisation seront proposés pour aider l'enseignant et améliorer l'efficacité de son processus d'adaptation des activités aux élèves.

    Responsable : Vanda LUENGO et Amel YESSAD
    01/01/2016
  • Hubble - HUman oBservatory Based on anaLysis of e-LEarning traces

    L’objectif du projet ANR HUBBLE est de créer un observatoire national pour la construction et le partage de processus d’analyse de données massives, issues des traces laissées dans des environnement de type e-learning. Hubble permettra d’analyser et d’expliquer des phénomènes d’enseignement et d’apprentissage avec ces environnements.

    Responsable : Vanda LUENGO et François BOUCHEY
    01/01/2015
    Plus d'informations ici
  • MacCoy Critical - Modèles pour une réAlité virtuelle enriChie par rétroaCtion adaptative et Orchestration pour favoriser l’apprentissage de compétences non-techniques en situations critiques

    Ce projet vise à étudier et à améliorer les dispositifs de formation utilisant la simulation et les environnements virtuels dans deux domaines à forts enjeux en termes de santé publique et de sécurité (médecine et conduite automobile). Il vise plus particulièrement à approfondir (a) les connaissances sur les compétences non techniques de gestion des situations critiques et (b) les connaissances et les outils pour concevoir des environnements de simulation et de réalité virtuelle favorisant l’apprentissage. Afin de promouvoir des outils plus génériques, ce projet a choisi comme approche de travailler sur deux domaines d’apprentissage (médecine, conduite automobile).

    Responsable : Vanda LUENGO
    01/01/2015
    Plus d'informations ici
  • NeoPraEval - Nouveaux Outils pour de nouvelles PRAtiques d’EVALuation et d’enseignement des mathématiques

    NeoPraEval is an ANR-funded research project which aims at providing tools for teachers to deal with heterogeneity in learning through automatic diagnostic and evaluation systems that they can use in their classes, as well as appropriated resources to answer the needs identified in students.

    Responsable : François BOUCHET
    01/02/2014
    Plus d'informations ici
  • RecoMOOC - Recommandation de pairs dans les MOOC

    RecoMOOC vise à réduire l'attrition et améliorer l'expérience d'apprentissage dans les MOOC en fournissant aux étudiants des moyens d'interagir et de travailler avec d'autres, identifiés de manière automatique à l'aide d'un système de recommandation de pairs analysant les facteurs individuels et la progression de chaque apprenant.

    Responsable : François BOUCHET
    01/01/2014

Équipe : BD

  • EPIQUE - Reconstruire l'évolution des sciences à grande échelle

    L'évolution des connaissances scientifiques est directement liée à l'histoire de l'humanité. Les archives documentaires et bibliographiques comme le « Web Of Science » (WoS) ou PubMed représentent des sources fécondes pour l’analyse et la reconstruction de cette évolution. Le projet de recherche proposé part des travaux de D. Chavalarias et J.-P. Cointet sur l’analyse de la dynamique de corpus évolutifs et la construction automatique de treillis «phylomémétiques» de topics (en analogie avec l'arbre généalogiques des espèces). Les outils actuels sont limités au traitement de corpus de taille moyenne et à une utilisation non interactive. Les contributions attendues se situent à la fois dans les domaines de l'Informatique et des Sciences humaines et sociales. Notre objectif est de développer des solutions performantes pour générer et interagir avec des cartes phylomémétiques qui exploitent les avancées technologiques récentes pour la parallélisation des tâches et des algorithmes sur des données complexes et volumineuses. Ces solutions sont conçues et et validées en collaboration avec des experts en philosophie et histoire des sciences sur différents corpus de grande taille. Mots clés: épistémologie quantitative, évolution des sciences, détéction de topics, alignement temporel, traitements de données à large échelle, sciences des données, big data, scientométrie

    Responsable : Bernd AMANN
    01/01/2017
    Plus d'informations ici
  • experimaestro - Planification et gestion d'expériences informatiques

    Experimaestro is an experiment manager based on a server that contains a job scheduler (job dependencies, locking mechanisms) and a framework to describe the experiments with JavaScript or in Java.

    Responsable : Benajmin PIWOWARSKI
    01/01/2016
    Plus d'informations ici
  • SPARQL on Spark - SPARQL query processing with Apache Spark

    A common way to achieve scalability for processing SPARQL queries over large RDF data sets is to choose map-reduce frameworks like Hadoop or Spark. Processing complex SPARQL queries generating large join plans over distributed data partitions is a major challenge in these shared nothing architectures. In this article we are particularly interested in two representative distributed join algorithms, partitioned join and broadcast join, which are deployed in map-reduce frameworks for the evaluation of complex distributed graph pattern join plans. We compare five SPARQL graph pattern evaluation implementations on top of Apache Spark to illustrate the importance of cautiously choosing the physical data storage layer and of the possibility to use both join algorithms to take account of the existing predefined data partitionings. Our experimentations with different SPARQL benchmarks over real-world and synthetic workloads emphasize that hybrid join plans introduce more flexibility and often can achieve better performance than join plans using a single kind of join implementation.

    Responsable : Hubert NAACKE
    01/01/2015
    Plus d'informations ici

Équipe : NPA

  • F-Interop - Services de tests d'interopérabilité à distance pour les objets connectés (IoT)

    Services de tests d'interopérabilité à distance pour les objets connectés (IoT)

    Responsable : Serge FDIDA
    01/01/2016
    Plus d'informations ici

Équipe : Phare

  • http://ethertrust.com/podium/
    FUI PODIUM - Platform for secure data mobile cloud offloading

    The project intends to develop a platform and a secure mobile cloud, which increase the capacity of the mobile terminal by transferring applications in the cloud. The cloud is local (Edge) or even ad hoc, in order to respond to situations where performances, ad hoc capabilities, operational logic require standalone and proximity virtual infrastructure. Security and access control for virtual machines are also addressed by this project.

    Coordinator: Thales
    With Thales, Luceor, IGO, Nexedi, Aneo, Ethertrust.
    FUI 20 project.

    Responsable : Stefano SECCI
    01/06/2016
    Plus d'informations ici
  • http://www.gouvernement.fr/sites/default/files/contenu/piece-jointe/2016/09/fiche_demonstrateur_pmr_0.pdf
    IA FED4PMR - Système PMR très haut débit fédérateur

    La PMR très haut débit apportera de nouvelles capacités de communications (voix, donnée, vidéo, géolocalisation...) et de partage d’information pour une meilleure efficacité opérationnelle et une sécurité accrue des forces de l’ordre, de secours et des Opérateurs d’Importance Vitale (OIV). Le consortium Fed4PMR contribue à assurer une transition efficace vers ces nouveaux systèmes et à positionner l’industrie française de sécurité comme un acteur majeur de ce domaine en pleine mutation en France et à l’export. Le projet Fed4PMR a des objectifs techniques, opérationnels et industriels ambitieux :  La conception et le développement de solutions innovantes et pragmatiques pour les futurs systèmes PMR très haut débit 4G/LTE sécurisés et résilients. La solution envisagée repose sur la fédération de plusieurs réseaux d’accès: des réseaux d’infrastructure dédiés 4G/LTE exploitant la fréquence 700 MHz du ministère de l’Intérieur, les réseaux des opérateurs mobiles commerciaux, les systèmes LTE rapidement déployables.  La mise à disposition d’une plateforme PMR très haut débit 4G/LTE pour tester et valider les nouveaux concepts opérationnels en étroite collaboration avec les utilisateurs finaux.  La mise en place d’un écosystème français permettant la fourniture d’une solution globale et intégrée (terminaux, réseaux, applications métiers, gestion, sécurité) en France et à l’export. Le projet Fed4PMR adresse le marché des radiocommunications professionnelles très haut débit à usage des ministères de l’Intérieur et de la Défense, des opérateurs de transport et des industries de l’énergie pour des missions civiles et militaires. Ce marché en pleine croissance est estimé aux alentours de 7 milliards d’euros à l’échelle planétaire à l’horizon 2020.

    Budget: 1,493 ME. With Thales, Archos, AirLynx, Eolane, Ibelem, Logic Instrument, SFR, Silicom, Sysoco. Investissement d'Avenir programme - Projet Structurant Pour la Competitivité (PSPC).

    Responsable : Stefano SECCI
    01/02/2016
    Plus d'informations ici
  • http://www.cost.eu/COST_Actions/ca/CA15127
    COST RECODIS - Resilient communication services protecting end-user applications from disaster-based failures

    Disaster-based disruptions seriously degrading the performance of any communication network (following from natural disasters, technology-related disasters, or malicious attacks) are now gaining importance due to observed increase of their intensity and scale. The problem is of the utmost importance due to lack of appropriate mechanisms deployed in practice in Europe. Each time, unavailability of communication networks services, considered as an important part of critical infrastructure, in the presence of disasters implies evident societal problems for people desperately seeking for information, or trying to communicate with each other. The Action will fill this gap by offering the respective solutions to provide resilient communications in the presence of disaster-based disruptions of all types for existing communication networks (e.g., IPv4-based, current Internet), as well as emerging architectures of the global communications infrastructure (i.e., the Future Internet). Geographical diversity characteristics of disaster-based disruptions across Europe requires creation of an international and geographically diverse group of researchers to provide the proper solutions. Therefore, COST Action is viewed as the best way to address this issue. This output-oriented Action will be driven by researchers from academia and industry in strong cooperation with governmental bodies. The aim is to introduce the set of techniques of resilient communications, as well as recommendations on how to deploy/update topologies of communication networks to make them resistant to disruptions that can be applied in practice by network equipment operators and national/international network providers at the European level.

    WIth about 50 European research institutions.

    Responsable : Stefano SECCI
    01/02/2016
    Plus d'informations ici
  • ELASTIC Networks - C-RAN testing platform for mobile networks

    Project on the evaluation of new protocols and algorithms for Cloud virtualized Radio Access Networks (C-RAN). In collaoration with Nokia, Eurecom, Ercom.

    Responsable : Stefano SECCI
    01/12/2015
  • http://www.carp.solutions
    FUI CARP - Contrôle et Automatisation unifiés de services Réseaux Programmables

    Le consortium regroupe des partenaires avec des compétences et des positionnements complémentaires et essentiels pour réaliser les objectifs cités. GANDI, hébergeur cloud, fait évoluer les architectures de transport pour passer à l’échelle et s’appuie sur la virtualisation des réseaux pour déployer de nouvelles infrastructures. Il apportera sa double compétence clouds et réseaux. KALRAY, l’un des principaux fabricants de microprocesseurs français, propose des cartes réseau accélératrices, celles-ci permettront de ne pas sacrifier la haute performance et offrira un environnement de développement au projet. L’expérience de BYO Networks dans la gestion de réseaux et SI d’entreprises sera précieuse pour traiter le réseau local d’entreprises visé par CARP. CityPassenger assure la sécurité et la protection des contrôleurs des services réseaux et des fonctions réseaux virtualisés. UCOPIA conçoit des contrôleurs d’accès et des services réseaux logiciels qu’il pourra migrer dans le cloud. Les académiques, UPMC et IMT, optimisent et urbanisent les services clouds, SDN et NFV. A l’issue de ces travaux les partenaires s’appuyant sur (ou possédant) une infrastructure Cloud disposeront d’un avantage compétitif important dans le déploiement des SI complexes. Les partenaires gérant les réseaux locaux d’entreprise seront à même de proposer des solutions d’intégration des SI dans le Cloud pour un coût de migration réduit. La disponibilité rapide des services CARP permettra de raccourcir les temps de mise sur le marché de solutions d’infrastructure réseau opérées en mode service. Le consortium CARP profite également de 2 opportunités : la focalisation des grands acteurs sur le Cloud qui concentre les gros marchés d’équipements de réseau, le mouvement Open Source autour du SDN et du Cloud qui met à disposition des solutions logicielles fiables et ouvertes facilement adaptables au choix d’architecture du consortium. En effet, le marché d’unification des réseaux n’est pas encore adressé par les grands acteurs américains, car il réduirait le volume de vente des équipements réseaux. En aidant des acteurs de taille modeste à accéder, à temps, à un marché de taille mondial (estimée à 30% des 35 milliards de dollars en 2018 par SDNCentral), le FUI donne une forte incitativité à son financement. Aujourd’hui les utilisateurs reconnaissent de la valeur à l’infrastructure réseau et ses équipements. Selon les membres du consortium, la solution CARP fera migrer cette valeur vers la solution proposée de gestion de cette infrastructure, car elle réduit les coûts d’intégration et les coûts d’exploitation. Elle permettra de localiser cette valeur chez les acteurs de l’IaaS que sont les membres du consortium, quelle que soit la solution de Cloud envisagée et quel que soit l’équipementier des réseaux locaux. Avec la compétence et l’expertise des universitaires qui en font partie, le consortium est en mesure de développer une solution d’unification facilitant la mise en œuvre de services communicants complexes. Ces services trouveront d’autres utilisations notamment dans le SmartGrid, dans l’Internet des Objets (IoT) et le M2M où les interconnexions en mode SaaS trouvent aujourd’hui leur limite.

    Coordinateur : Gandi
    Partenaires : Telecom SudParis, Ucopia, Gandi, Byo Networks, Kalray and City Passenger

    Responsable : Guy PUJOLLE
    01/06/2015
    Plus d'informations ici

Équipe : APR

  • LCHIP - Low Cost High Integrity Platform

    Le projet LCHIP vise à faciliter grandement le développement d'applications sûres à haut niveau de criticité en fournissant : - un environnement de développement complet permettant de générer et prouver mathématiquement et automatiquement du logiciel à algorithmie bornée, - une plateforme sécurisée et à bas coût pour l'exécution de ces applicatifs, afin de garantir un niveau de sûreté maximal. L'intégration transparente à des langages métier (DSL) et des chaines de production de code tierces autorisent un déploiement sans douleur dans des processus de développement existants et favorisent l'exploitation de la technologie en dehors du consortium.

    Responsable : Thierry LECOMTE
    01/10/2016
    Plus d'informations ici
  • MOPSA - Plateforme ouverte et modulaire pour l'analyse statique

    Le projet Mopsa vise à créer des méthodes et des outils pour rendre les logiciels plus fiables. Les erreurs de programmation sont omniprésentes, avec des conséquences allant de la simple frustration des utilisateurs jusqu'à des pertes pertes économiques voire humaines. Les méthodes traditionnelles basées sur les tests sont insuffisantes pour éliminer toutes les erreurs. Le projet développera des analyses statiques permettant de détecter, dès la compilation, des classes de défauts de programme, en s'appuyant sur la théorie de l'interprétation abstraite. Celle-ci permet en effet de concevoir des analyses approchées (permettant le passage à l'échelle sur des gros programmes) et sûres (aucun défaut n'est manqué). L'analyse statique a connu des succès récents : Astrée, un analyseur industriel a pu prouver l'absence d'erreur d'exécution dans des logiciels d'Airbus. Ces résultats sont néanmoins encore limités au contexte spécifique et bien contrôlé des systèmes embarqués critiques. Le projet vise à développer plus avant l'analyse statique en ciblant des logiciels plus grands, plus complexes et plus hétérogènes, et en la rendant plus facilement utilisable par des ingénieurs non spécialisés pour améliorer les logiciels plus grand public. Nous nous concentrerons sur l'analyse des logiciels open source, facilement accessibles, complexes, répandus et importants d'un point de vue économique (ils sont utilisés dans de nombreuses infrastructures et entreprises), mais aussi du point de vue de la société et de l'éducation (en promouvant les logiciels développés et vérifiés pour et par les citoyens). L'objectif principal que nous considérons est l'ensemble des technologies au cœur de l'Internet sur lesquelles une analyse statique pourrait être appliquée pour assurer un Internet plus sûr. Les défis scientifiques que nous devons surmonter comprennent la conception d'analyses évolutives produisant des informations pertinentes, le support de nouveaux langues populaires (comme Python), et l'analyse de propriétés plus adaptées au développement continu de logiciels. Au cœur du projet se trouve la construction d'une plate-forme d'analyse statique open source. Elle servira non seulement à mettre en œuvre et à évaluer les résultats du projet, mais aussi à créer une dynamique encourageant la recherche en analyse statique et accélérant son adoption dans les communautés de développement open source.

    Responsable : Antoine MINÉ
    01/06/2016
    Plus d'informations ici
  • COVERIF - Vers une combinaison de l’interprétation abstraite et de la programmation par contraintes pour la vérification de propriétés critiques pour des programmes embarqués avec des calculs en virgule flottan

    Pouvoir vérifier la correction et la robustesse des programmes et systèmes devient un enjeu majeur dans une société où les applications embarquées sont de plus en plus nombreuses et où leur caractère critique ne cesse d’augmenter. C’est notamment un enjeu crucial pour le calcul basé sur l’arithmétique des nombres à virgule flottante, qui a des comportements assez inhabituels et qui est de plus en plus utilisée dans les logiciels embarqués. Notons par exemple le phénomène de “catastrophic cancellation” qui invalide la plupart des chiffres significatifs d’un résultat ou encore, des suites numériques dont le point de convergence est très différent sur les réels et sur les flottants. Un problème vient aussi de la difficulté à relier le calcul sur les flottants avec un calcul “idéalisé” qui serait effectué avec des nombres réels, la référence de fait lors de la conception du programme. Pour certaines valeurs d’entrée, le flot de contrôle lié aux réels peut ainsi passer dans une branche de la conditionnelle tandis qu’il passe par l’autre pour les flottants. S’assurer qu’un code, malgré cette divergence de flot de contrôle calcule tout ce qu’il est censé calculer, avec une erreur minimale, est l’objet de l’analyse de robustesse, ou de continuité. Le développement d’un ensemble de techniques et d’outils pour vérifier l’exactitude, la correction et la robustesse est donc un challenge important dans le domaine des logiciels embarqués critiques. L’objectif de ce projet est de contribuer à relever ce défi en explorant de nouvelles méthodes basées sur une collaboration fine entre interprétation abstraite (IA) et programmation par contraintes (PPC). Plus précisément, il s’agit de repousser les limites inhérentes à ces deux techniques, d’améliorer la précision des estimations, de permettre une vérification plus complète des programmes utilisant des calculs sur les flottants, et de rendre ainsi plus robustes les décisions critiques liées à ces calculs. Un des originalités de ce projet est de combiner les deux approches, pour permettre à la preuve de robustesse de bénéficier d’une précision accrue, par l’utilisation de techniques PPC, et le cas échéant, pour exhiber des cas non robustes. Il s’agit aussi de marier les forces des deux techniques : la PPC propose des mécaniques algorithmiques puissantes, mais chères en temps de calcul, pour atteindre des domaines d’une précision arbitraire fixée. L’IA n’offre pas de contrôle fin sur la précision atteinte, mais a développé de nombreux domaines abstraits qui capturent très rapidement des invariants de programme de formes diverses. En intégrant certains mécanismes de la PPC (arbre de recherche, heuristiques) dans des domaines abstraits, on pourra, en présence de fausses alarmes, raffiner le domaine abstrait en se basant sur une notion de précision. La première difficulté à résoudre est d’asseoir les bases théoriques d’un analyseur basé sur deux paradigmes substantiellement différents. Lorsque les interactions entre PPC et IA seront bien formalisées, le deuxième verrou que nous visons à lever est de gérer des contraintes de formes générales et des domaines abstraits potentiellement non-linéaires. Enfin, un verrou important du projet concerne l’analyse de robustesse de systèmes plus généraux que les programmes, par exemple les systèmes hybrides, qui modélisent les programmes de contrôle commande. Les résultats des recherches menées dans ce projet seront validés sur des exemples réalistes issus du monde industriel, afin d’en déterminer l’intérêt et la pertinence. L’utilisation d’exemples réels est un des points clefs de la validation des approches explorées : de par la complexité dans le pire des cas des problèmes traités, les techniques proposées ne traitent de manière acceptable que des sous classes de problèmes. Ainsi, les solutions adoptées restent souvent liées aux problèmes ciblés.

    Responsable : Eric GOUBAULT
    01/10/2015
    Plus d'informations ici
  • ASSUME - Affordable Safe And Secure Mobility Evolution

    ASSUME fournira une ingénierie homogène pour le développement de nouvelles fonctions d’assistance à la mobilité critiques dans le domaine des transports notamment, s’exécutant sur des architectures multi-/pluri-cœurs. Le problème sera traité de manière constructive (synthèse) et par analyse (vérification). Pour ce qui est de la construction efficace de systèmes embarqués, le projet produira outils, normes et méthodes nouvelles afin de répondre à la plupart des défis par conception. Par ailleurs, ASSUME fournira une solution d’analyse statique bien intégrée et sûre, visant à prouver l’absence de défauts, même dans un environnement multi-/pluri-cœurs. De nouveaux algorithmes seront intégrés dans des outils exploitables industriellement. De nouvelles normes d’interopérabilité et de formalisation faciliteront la coopération entre outils, ainsi qu’entre acteurs du marché. Le consortium d’ASSUME comprend des partenaires industriels de premier plan dans le domaine de la mobilité, des fournisseurs d’outils et de service pour le développement de systèmes embarqués ainsi que d’éminents instituts de recherche en analyse statique et synthèse, tant pour le développement traditionnel que pour celui basé sur les modèles.

    Responsable : Udo GLEICH
    01/09/2015
    Plus d'informations ici
  • GDRI-ALEA-NETWORK - ALEA-NETWORK

    ALEA-Network est un GDRI financé par le CNRS et co-signé par 4 universités européennes (Wien, Stockholm, Oxford, Munich). Ce projet regroupe des chercheurs d'Europe et d'autres pays du monde entier, intéressés par l'étude de structures aléatoires discrètes, et provenant de différents domaines: informatique, mathématiques discrètes, probabilités, physique statistique, bio-informatique. Dans ce contexte pluridisciplinaire, l'objectif est d'élaborer des méthodes de quantification de l'alea et d'analyser les propriétés statistiques des structures combinatoires fondamentales.

    Responsable : Michèle SORIA & Jean-François MARCKET
    01/01/2015
    Plus d'informations ici

Équipe : MoVe

  • http://pnml.lip6.fr
    PNML Framework

    PNML Framework est l'implémentation prototype du standard ISO/IEC-15909 (partie 2), le format d'échange normalisé pour les réseaux de Petri. L'objectif principal de PNML est d'aboutir à l'interopérabilité des outils basés sur les réseaux de Petri. PNML Framework est conçue pour implémenter le standard au fur et à mesure de son élaboration, afin d'en mesurer la faisabilité et de servir de référecne pour es outils de la communauté. Il propose une API de manipulation permettant de créer, sauver, charger et parcourir des réseaux de Petri au format PNML.

    Responsable : Fabrice KORDON
    01/04/2005
    Plus d'informations ici
  • http://polyorb.ow2.org/
    PolyORB - PolyORB: un intergiciel Schizophrène

    PolyORB est un projet joint entre le LIP6 et l'ENST. Ce projet est désormais terminé dans sa phase recherche mais le produit logiciel reste en ligne et est maintenu par la société Ada-Core. PolyORB a été choisi par la société Astrium pour être embarqué dans le module Colombus de la station spatiale internationale.

    Responsable : Fabrice KORDON
    01/01/2001
    Plus d'informations ici
  • https://www.lip6.fr/cpn-ami
    CPN-AMI

    CPN-AMI est un environnement conçu sur FrameKit: une plate-forme logicielle d'intégration permettant un couplage rapide d'outils de provenance diverses. CPN-AMi est ainsi l'assemblage le plus complet d'outils de vérifications à partir de réseaux de Petri. Ces outils ont été développés dans le cadre des travaux de SRC ou par des partenaires universitaires (Université de Turin, Université d'Helsinki, Bell-Labs, Université de Munich, Université Humbolt à Berlin). CPN-AMI est composé d'un serveur d'outils et d'une interface utilisateur déporté à laquelle on se connecte.

    Responsable : Fabrice KORDON
    01/12/1994
    Plus d'informations ici
  • http://spot.lip6.fr/wiki/
    SPOT - Spot Produces Our Traces

    SPOT (Spot Produces Our Traces) est une bibliothèque de model-checking facilement extensible. À la différence des model-checkers existants, dont le mode opératoire est immuable, SPOT fournit des briques que l'utilisateur peut combiner entre elles pour réaliser un model-checker répondant à ses propres besoins. Une telle modularité permet d'expérimenter facilement différentes combinaisons, et facilite le développement de nouveaux algorithmes. D'autre part, cette bibliothèque est centrée autour d'un type d'automates particulier permettant d'exprimer les propriétés à vérifier de façon plus compacte, qui n'a jamais été utilisé dans un outil jusqu'à présent.

    Responsable : Denis POITRENAUD

    Plus d'informations ici

Équipe : ALSOC

Équipe : CIAN

  • https://www.lip6.fr/coriolis
    CORIOLIS - Plate-forme pour la synthèse physique de circuits intégrés

    Coriolis est une plate-forme logicielle pour la recherche d'algorithmes, le développement d'outils et l'évaluation de nouveaux flots de conception physique VLSI. Les procédés technologiques actuels, nanométriques, posent de nouveaux défis aux flots de CAO. Les recherches académiques concernent souvent la résolution de problèmes trop spécifiques, indépendemment d'autres algorithmes, faute de pouvoir inter-opérer avec eux. Or il est capital de pouvoir évaluer les interactions entre les différents outils au sein d'un flot complet de conception. La plate-frome CORIOLIS, conçue en C++, est faite pour permettre l'inter-opérabilité des différents briques logicielles qui l'utilisent. Elle propose actuellement dessolutions aux problèmes de partitionnement, de placement et routage de circuits numériques, en technologie nanométrique.

    Responsable : Jean-Paul CHAPUT
    01/01/2004
    Plus d'informations ici
  • CAIRO - Circuits Analogiques Intégrés Réutilisables et Optimisés

    L'objectif du projet CAIRO est de développer des méthodes et des outils autorisant une réutilisation des cellules analogiques et une capitalisation de connaissances du concepteur sous forme des cellules IP (Intellectual Property) portables d’une technologie à l'autre et d’un jeu de spécifications à l'autre. Le langage CAIRO+, ensemble de fonctions C++, est un langage de création d’IP analogiques permettant de structurer, de formaliser et d’automatiser en grande partie le flot de conception analogique. Il est utilisé pour créer une procédure appelée «générateur» pour une cellule analogique. A l'étape actuelle d'avancement du projet, la structure électrique de la cellule (i.e. le schéma électrique non dimensionné) est figée par le concepteur. Le générateur doit permettre un dimensionnement des composants de la cellule (définition de la taille des transistors, des capacités etc.) et de synthétiser le layout – le tout en fonction des spécifications de la cellule et des paramètres technologiques. L'écriture du générateur de la cellule est à la charge du concepteur, notamment, la partie qui concerne le dimensionnement électrique du circuit. Un des points forts du langage CAIRO+ est, sans doute, la possibilité de synthétiser le layout d'une manière quasi-automatique, à partir du schéma électrique dimensionné – la fonction de génération du layout fait partie des modules «natifs» du langage. De plus, le dimensionnement électrique peut prendre en compte les éléments parasites du layout (nous disons «peut», car tout dépend de la volonté du concepteur qui définit la procédure de dimensionnement). Dans ce cas, plusieurs cycles «dimensionnement de la cellule – synthèse du layout» peuvent être nécessaires. Un des pôles d'intérêt de ce groupe est la conception de modulateurs sigma-delta temps continu. Dans cette activité nous nous attachons à capitaliser l’effort de conception en développant des méthodes et des outils permettant une réutilisation des résultats. La structure complexe des modulateurs, incluant un grand nombre de cellules de fonctionnalité identique mais de spécifications différentes (telles que GmC, amplificateurs), offre un contexte approprié pour l’application de la méthodologie implémentée dans CAIRO+.

    Responsable : Marie-Minerve LOUËRAT
    01/01/2004
Archives
 Mentions légales
Carte du site |