Séminaires

De MIAT INRA
Révision datée du 14 février 2020 à 10:30 par Navilla (discussion | contributions) (Séminaires de l'année en cours et séminaires futurs)
Aller à : navigation, rechercher

Sommaire

Séminaires de l'unité MIAT

Pyrenees-morning.jpg

Le séminaire de l'équipe MIAT de l'INRA de Toulouse est un endroit d'échanges scientifiques et techniques entre les membre de l'unité et des experts en mathématiques, informatique, agro-écosystèmes, bioinformatique, etc. Les présentations peuvent être sur des travaux en cours, des projets finalisés hautement spécialisés ou à valeur plus éducative / informationnelle. Les aspects mis en avant peuvent être d'ordre méthodologique ou applicatif.

Les présentations peuvent être en français ou en anglais pour une durée d'une heure (45min + questions). Sauf contre-indication, les séminaires ont lieu dans la salle de réunion MIAT à 10h30 le vendredi. L'accès à l'unité MIAT de l'INRA Auzeville/Castanet est indiqué ici (nous sommes à moins de 30 mètres de la réception !).

 



Séminaires de l'année en cours et séminaires futurs

29/05/2020 : Optimal convergence rates for Nesterov acceleration. Aude Rondepierre (INSA/IMT)

Résumé : In this talk, we will give new optimal decay rates for the Nesterov acceleration scheme of classical gradient descent depending on the local geometry of the function to minimize. Only bounds on the rates are known for convex or strongly convex functions. We will give a more complete description of this rates using Lojasievicz and flatness conditions and explain how these decays can be obtained studying an ODE.
This is a joint work with V. Apidopoulos, J.-F. Aujol and Ch. Dossal.


15/05/2020 : Simulation en recherche médicale. Généralités, exemple et problème connexe. Nicolas Savy (IMT)

Résumé : Un des axes du projet Big Data financé par la Région Occitanie et porté par l’Institut de Mathématiques de Toulouse était une réflexion générale sur la notion de simulation en recherche médicale et sur la pertinence de méthodes de simulation dans ce contexte. Une présentation des fruits de cette réflexion qui soyons honnête à fait émerger plus de problèmes que de solutions, sera présenté dans un première partie. Dans une deuxième partie sera présenté un exemple de modèle à agents développé dans le contexte médico-économique du passage aux génériques des anti retro-viraux. Enfin un des points saillants pour la mise au place de méthodes par simulation en recherche médicale est la calibration des modèles sous-jacents. Si des bases existent elles sont souvent difficiles à exploiter dans un contexte dédié pour des questions d’homogénéité des codages. C’est une question très vaste pour laquelle nous avons développé un début de solution par l’algorithme “OT”. Il s’agit d’un algorithme de recodage de variables basé sur le transport optimal qui sera présenté en troisième partie de cet exposé.

24/04/2020 : Titre à venir. Olivier Roustant (INSA/IMT)

Pas de séminaire le 10 et 17 avril (vacances scolaires)

27/03/2020 : Approches “deep learning” pour la prédiction d’interactions protéine-protéine. Guillaume Lamoureux (Rutgers University)

Résumé : Pour comprendre les détails moléculaires d'un processus biologique, il faut généralement connaître la structure tridimensionnelle d’un grand nombre de complexes protéine-ligand et protéine-protéine. Comme très peu de ces structures sont connues expérimentalement, il est habituellement nécessaire de les prédire à l’aide de méthodes computationnelles dont la fiabilité et la transférabilité restent à améliorer.
Je présenterai nos récents travaux axés sur le développement de modèles “deep learning” reliant séquence, structure, et fonction de protéines. Suivant une approche unifiée dite “end-to-end”, ces modèles visent à découvrir de nouvelles représentations moléculaires utiles à la fois pour prédire la fonction d’une protéine à partir de sa structure, et la structure d’une protéine à partir de sa séquence. Bien que nos intérêts actuels portent sur la prédiction de structure de protéines et d'interactions protéine-protéine, les modèles développés sont généralisables à toute autre classe de biomolécules.

20/03/2020 : KeOps: Kernel Operations on the GPU, with autodiff, without memory overflows. Benjamin Charlier (Université de Montpellier, ARAMIS)

Résumé : The KeOps library lets you compute generic reductions of large 2d arrays whose entries are given by a mathematical formula. It is perfectly suited to the computation of convolutions (or more generally to Kernel dot products) and the associated gradients (with an automatic differentiation engine).
KeOps is fast as it allows you to compute Gaussian convolution up to 40 times faster than a standard tensor algebra library that use GPU. KeOps is scalable and can be used on large data (typically from n=10^3 to n=10^7 number of rows/columns): it combines a tiled reduction scheme and works even when the full kernel matrix does not/fit into the GPU memory. Finally, KeOps is easy to use as it comes with its Matlab, Python (NumPy or PyTorch) and R bindings.
Web site: http://www.kernel-operations.io

13/03/2020 : Titre à venir. Lise Pomiès (MIAT)

Résumé : à venir

06/03/2020 : Inférence démographique en génétique des populations : comment tenir compte de la structure ?. Olivier Mazet (Institut de Mathématiques de Toulouse)

Résumé : Après un rappel des modèles mathématiques issus du coalescent de Kingman, je présenterai quelques méthodes d'inférence démographique devenues classiques (PSMC, MSMS), leurs limites pour ce qui est de

l'hypothèse de structuration de la population, et nos dernières avancées pour tenter de dépasser ces limites.


Pas de séminaire le 28 février (Journée IA & Agriculture)

Pas de séminaire le 14 et le 21 février (vacances scolaires)

07/02/2020 : Favoriser la ré-utilisations de données publiques en transcriptomique et épigénomique par des visualisations interactives. Guillaume Devailly (GenPhySE)

Résumé : Un neurone, un adipocyte et une cellule du foie partagent le même génome et sont issu de la même cellule œuf, mais présentent des aspects radicalement différents. Ces différences résultent d’une expression différentielle des gènes dans chaque type cellulaire, mise en place par la combinaison de signaux extérieurs à la cellule (environnement, signalisation hormonale, métabolites circulants, etc.) et par le remodelage de la chromatine en domaines favorisant ou défavorisant l’expression de tels ou tels gènes.
L’étude de la transcription et de l’épigénome des différents types cellulaire a abouti à la production massive de données de séquençage haut-débit par des consortiums internationaux (ENCODE, Roadmap Epigenomics, FAANG, etc.) et de multiples laboratoires. De nombreux jeux de données sont disponibles publiquement, mais les données sont lourdes, complexes à analyser, et très sensibles à différents biais expérimentaux et d’analyses, ce qui décourage leur réutilisation.
Nous avons commencé à offrir des visualisations interactives de données publiquement disponibles au travers d’applications web : http://www.heatstarseq.roslin.ed.ac.uk/ (matrices de corrélations entre expériences) et https://joshiweb.cbu.uib.no/perepigenomics_app/ (liens entre marques épigénétique et régulation de la transcription) et allons proposer d’offrir directement de genre de visualisations sur le portail de données FAANG dans le cadre du projet VizFaDa.

31/01/2020 : A GDEC-MIAT collaboration on ncRNA annotation on wheat CNSs region - the FR5BS project. Philippe Leroy (GDEC)

Résumé : Wheat (Triticum aestivum L.) is the most widely cultivated crop on Earth, an important crop contributing about a fifth of the total calories consumed by humans. Consequently, wheat yields and production affect the global economy, and failed harvests can lead to social unrest (IWGSC Science (2018) 361:661). The first coordinated efforts towards obtaining a reference wheat genome date to 2005, when the International Wheat Genome Sequencing Consortium (IWGSC) was established (Tulpova et al. (2019) New BIOTECHNOLOGY 48:12–19). Fortunately, since August 2018, the IWGSC RefSeq v1.0 assembly of pseudomolecules provided a high-quality linear assembly of each chromosome from one terminal region through the centromere to the other terminal region in the form of 70 to 80 super-scaffolds per chromosome (Keeble-Gagnère et al. Genome Biology (2018) 19:112). Consequently, the IWGSC data repository, URGI (INRA research unit in genomics and bioinformatics dedicated to plants and crop parasites) provides tools and browsers to explore wheat genomics data and the IWGSC RefSeq v1.0 assembly. Furthermore, the RefSeq v2.0 assembly is now available to download at INRA URGI since July 2019 (https://wheat-urgi.versailles.inra.fr/Seq-Repository/Assemblies. Moreover, very recently, the 10+ Wheat Genome Project (http://www.10wheatgenomes.com) has released several more wheat new genome reference sequences that can be download from this site: https://webblast.ipk-gatersleben.de/wheat_ten_genomes/.
Therefore, we have nowadays a huge amount of resources to study wheat genome structure and dynamic evolution. In this context, the WheatOMICS project (https://www.france-genomique.org/projet/wheatomics/) aims at harnessing the latest NGS technologies to unravel the genomic-transcriptomic-epigenomic variations (DNA-seq, RNA-seq, ChIP-Seq, BS-seq) driving phenotypic response to biotic and abiotic constraints on five important genotypes (Chinese Spring, Renan, Recital, Courtot, Apache) for the research groups of the INRAE GDEC Unit, in France. These researches will deliver new highly strategic knowledge as key regulators to improve current wheat pre-breeding scheme for key agronomical traits. Furthermore, one of this genotype (Renan) has been selected to produce a new high quality reference genome sequence based on long-reads sequence data and optical maps (BioNano). Since we may have in the future new wheat genome assemblies to assess, we have proposed with NAAC through an INRA-NARO 2019 bilateral call, to build a “Plant Automatic Assembly Pipeline” (PAAP) aiming at providing a preliminary sequence assembly of long reads (PacBio sequel) and optical map (Bionano Saphyr) data (alternatively including 10x and Hi-C data when available). The ultimate goal would be to link PAAP with the TriAnnot structural and functional automatic annotation pipeline (Leroy et al. (2012) Frontiers in Plant Sciences 3:1-14) developed few years ago with NAAC (NIAS at this time). All these data, tools and projects will be valorized to study an important ~2 Mb region (5BSFR) of the wheat chromosome 5BS carrying a gene (Skr) responsible of cross incompatibility between wheat and rye, and other genes controlling important wheat traits. A precise manual curated analysis will be carried out across all genomes 5BSFR available in term of genes, Transposable Elements (TEs) and ncRNA in collaboration with several INRA and international research teams. We will present the new GDEC research scheme, and described the ongoing results obtained so far within the wheatOMICS project with a focus on the Skr project lead by Pierre Sourdille at INRA GDEC. Highlight will be also presented within our new bioinformatics team lead by Frederic Choulet.

Pas de séminaire le 24 janvier (vœux de la présidence du centre)

17/01/2020 : Exceptionnellement à 11h Enhancing robots autonomy through sequential decision making : from robust perception and mission planning to mixed-initiative human-robot(s) interaction. Caroline Chanel (ISAE, DCAS)

Résumé : Missions involving humans interacting with automated systems become increasingly common. On one hand, the use of automated planning for artificial agents actions has been amplified by the recent technical advances in artificial intelligence and machine learning, encouraging human supervision of such automated systems. It may includes efficient perception or path planning for autonomous vehicles in cluttered environments under uncertainty. On another hand, due to the non-deterministic behavior of the human and possibly high risk of failing due to human factors, such an integrated system should react smartly by adapting its behavior when necessary. Due to the increase of the decision autonomy of artificial agents, the role of the human operator is reduced regarding direct control, and concentrated on higher level decisions, that are not automated for practical, ethical or legal reasons. However, human operators are still vital in numerous scenarios because they are able to produce tactical, moral, social and ethical decisions. This drastic change of the human operator role, in favor of system’s autonomy, results in a new paradigm also known as mixed-initiative. Mixed-initiative human-robot interaction considers human operators and artificial agents as a team, in which each agent can seize the initiative from the other. From the human operator’s point of view it is not always bearable or acceptable that such an artificial system could seize the initiative, except if human cognitive capabilities or human performance are degraded. In this context, this talk will present our current research on those topics, ranging from perception and mission planning scenarios, in-situ and online human-robot interaction experiments, and methods to predict human operators decisions and performance, methods to learn the interaction model of a mixed-initiative human-robot(s) mission, to finally treat mixed-initiative AI methods to drive human-robot(s) interactions.

10/01/2020 : Méthodes régularisées pour l’analyse de données multivariées en grande dimension: théorie et applications. Marie Perrot-Dockes (MIA Paris)

Résumé : Dans cette présentations nous nous intéressons au modèle linéaire général (modèle linéaire multivarié) en grande dimension. Nous proposons un nouvel estimateur parcimonieux des coefficients de ce modèle qui prend en compte la dépendance qui peut exister entre les différentes réponses. Cet estimateur est obtenu en estimant dans un premier temps la matrice de covariance des réponses puis en incluant cette matrice de covariance dans un critère Lasso. Les propriétés théoriques de cet estimateur sont étudiées lorsque le nombre de réponses peut tendre vers l’infini plus vite que la taille de l’échantillon. Plus précisément, nous proposons des conditions générales que doivent satisfaire les estimateurs de la matrice de covariance et de son inverse pour obtenir la consistance en signe des coefficients. Nous avons ensuite mis en place des méthodes, adaptées à la grande dimension, pour l’estimation de matrices de covariance qui sont supposées être des matrices de Toeplitz ou des matrices avec une structure par blocs, pas nécessairement diagonaux. Ces différentes méthodes ont enfin été appliquées à des problématiques de métabolomique, de protéomique et d’immunologie.

Pas de séminaire le 27 décembre et le 3 janvier (vacances scolaires)

Pas de séminaire le 20 décembre : Soutenance de thèse de Léonard Torossian à l'IMT le mardi 17 décembre à 13h30

13/12/2019  : T'ouIST: a friendly language for propositional logic and more, application to planning with SAT or QBF solversFrédéric Maris (UMR IRIT, Université Toulouse III)

Résumé : we present the automatic translator TouIST that allows us to use a simple language to generate logical formulas from a problem description. Our tool allows us to model many static or dynamic combinatorial problems as Sudoku, Takuzu or Nim game, and to benefit from the regular improvements to SAT, QBF or SMT solvers to solve them efficiently. We present reference encodings to solve classical planning problems with SAT and QBF solvers and show how to use TouIST to solve such planning problems. Finally, we may show how to encode with TouIST some combinatorial problems given by the audience.

Pas de séminaire le 6 décembre : Chromosome Conformation Symposium (4-5 décembre) et Journée AIGM (5 décembre)

29/11/2019  : Contributions to probabilistic non-negative matrix factorization - Maximum marginal likelihood estimation and Markovian temporal models. Louis Filstroff (UMR IRIT) diaporama

Résumé : Non-negative matrix factorization (NMF) has become a popular dimensionality reduction technique, and has found applications in many different fields, such as audio signal processing, hyperspectral imaging, or recommender systems. In its simplest form, NMF aims at finding an approximation of a non-negative data matrix (i.e., with non-negative entries) as the product of two non-negative matrices, called the factors. One of these two matrices can be interpreted as a dictionary of characteristic patterns of the data, and the other one as activation coefficients of these patterns. This low-rank approximation is traditionally retrieved by optimizing a measure of fit between the data matrix and its approximation. As it turns out, for many choices of measures of fit, the problem can be shown to be equivalent to the joint maximum likelihood estimation of the factors under a certain statistical model describing the data. This leads us to an alternative paradigm for NMF, where the learning task revolves around probabilistic models whose observation density is parametrized by the product of non-negative factors. This general framework, coined probabilistic NMF, encompasses many well-known latent variable models of the literature, such as models for count data.
In this talk, we consider specific probabilistic NMF models in which a prior distribution is assumed on the activation coefficients, but the dictionary remains a deterministic variable. The objective is then to maximize the marginal likelihood in these semi-Bayesian NMF models, i.e., the integrated joint likelihood over the activation coefficients. This amounts to learning the dictionary only; the activation coefficients may be inferred in a second step if necessary. We proceed to study in greater depth the properties of this estimation process. In particular, two scenarios are considered. In the first one, we assume the independence of the activation coefficients sample-wise. Previous experimental work showed that dictionaries learned with this approach exhibited a tendency to automatically regularize the number of components, a favorable property which was left unexplained. In the second one, we lift this standard assumption, and consider instead Markov structures to add statistical correlation to the model, in order to better analyze temporal data.

22/11/2019  : Critical points of Gaussian isotropic random fields. Céline Delmas (GenPhySE, MIAT)

Résumé : Let X = {X(t) : t in RN} be an isotropic Gaussian random field with real values. In a first part we study the mean number of critical points of X with index k, above a level, using random matrices tools. We obtain an exact expression for the probability density of the eigenvalue of rank k of a N-GOE matrix. We deduce exact expressions for the mean number of critical points with a given index and their distribution as a function of their index. In a second part we study attraction or repulsion between these critical points again as a function of their index. A measure is the correlation function. We prove attraction between critical points when N>2, neutrality for N=2 and repulsion for N=1. We prove that the attraction between critical points that occurs when the dimension is greater than 2 is due to attraction between critical points with adjacent indexes. We prove a strong repulsion between maxima and minima and we study the correlation function between maxima (or minima).

15/11/2019 : How to Lie With Graphics. Christophe Bontemps (GREMAQ) (diaporama, site Web)

Résumé : We use and read data visualizations (dataviz) in our everyday lives as researchers, engineers, and citizens. Most of the time, our goal is to visually test some basic hypotheses either while exploring datasets or for presenting some findings. These dataviz also serve to convince people and ourselves that some hypotheses are valid. But what if these convincing graphics were lies? Many graphics convey information that could be misleading, by mistake, misuse or on purpose. I propose a short tutorial to visual fallacies and lies. My goal here is not to encourage cheating and lying, but on the contrary to highlight the techniques used to elaborate misleading data visualizations. This introduction should help researchers, and decision makers to distinguish visual lies from unambiguous and consistent graphics.

8/11/2019 : Modélisation multi-agent et intégration culture-élevage dans les territoires. Myriam Grillot (INRA, AGIR)

Résumé : Les interactions entre cultures et élevage peuvent être modélisées par l'intermédiaire de modèle multi-agents. Dans un contexte agro-sylvo-pastoral au Sénégal, un modèle de ce type a été développé et implémenté (plateforme de modélisation GAMA) pour répondre à des questions relatives aux impacts des changements dans l’organisation du paysage et des systèmes d’élevage sur les flux de biomasse et d’azote. Différents niveaux d’organisation du territoire son pris en compte : la parcelle, le troupeau, le ménage et le terroir villageois. Quelles réflexions pour des utilisations de tels modèles et sur le travail sur l'interaction culture-élevage dans les territoires en France ?

Pas de séminaire le 25 octobre et le 1er novembre (vacances scolaires)

18/10/2019 : Distribution "Dirichlet-Multinomiale" et modèles neutres: une hypothèse nulle pour l'analyse de données de biodiversité. Fabien Laroche (Unité EFNO, IRSTEA)

Résumé : L'écologie des communautés vise à comprendre comment les conditions environnementales et les interactions entre organismes génèrent la diversité des espèces, phénotypes et génotypes que l'on observe dans les écosystèmes. Sur des systèmes naturels ou semi-naturels en conditions non-contrôlées, une approche possible consiste en la mise en œuvre de tests statistiques sur des échantillonnages spatiaux d'individus, afin de détecter une contribution significative de processus écologiques ciblés, facteurs environnementaux ou interactions. Dans cet exposé, je propose d'illustrer comment la théorie neutre de la biodiversité - qui suppose une équivalence écologique des espèces - peut fournir un cadre de test général et une hypothèse nulle, la distribution Dirichlet-Multinomiale, à même de compléter voire corriger les méthodes plus classiques à base de permutation de données ou de rééchantillonnage.

11/10/2019 : Copules et tests non-paramétriques de détection de rupture dans la dépendance entre les composantes d'observations multivariées. Tom Rohmer (GenPhySE)

Résumé : L'étude des copules est un phénomène relativement récent et en plein essor. Ces dernières permettent notamment de caractériser la dépendance entre les différentes composantes de données multivariées. Elles sont ainsi utilisées dans de nombreuses applications, que ce soit en hydrologie, finance ou encore en génétique. Si l'on considère un vecteur aléatoire (v.a.) dont les marges sont continues, le théorème de Sklar affirme qu'il existe une unique fonction "copule", caractérisant la structure de dépendance du v.a., telle que la donnée de la copule et des fonctions de répartitions marginales caractérisent la loi du vecteur aléatoire. Dans la littérature, on retrouvera un certain nombre de tests non-paramétriques de détection de rupture dans la distribution d'observations multivariées. Cependant, ces tests se révèlent souvent très peu sensibles pour détecter un changement dans la dépendance entre les composantes des v.a. Je présenterai dans cet exposé un test non paramétrique basé sur le processus de copule empirique séquentiel (approche CUSUM) et sur un rééchantillonage à base de multiplicateurs. Ce test se révèle particulièrement sensible à un changement dans la copule lorsque les lois marginales sont inchangées, et s'adapte à des données sériellement dépendantes (strong mixing). Ce test ne permet pas de conclure en une rupture dans la copule en présence de changement dans les lois marginales. Il est néanmoins possible d'adapter les procédures pour prendre en compte ces potentiels changements. J'illustrerai ces travaux à l'aide d'exemple sur des données et des simulations de Monte Carlo sur des classes d'alternatives pertinentes. Pour finir je présenterai quelques-unes de mes perspectives de recherche à l'Inra qui pourront s'appuyer sur cette recherche.

Pas de séminaire le 4 octobre (Journée Bioinfo/biostat)

27/09/2019 : Effondrement : et si on en parlait vraiment ? Quelles perspectives pour nos recherche ? Marc Deconchat (Dynafor) diaporama image supplémentaire

Résumé : Que l’on parvienne ou non à prendre les mesures requises pour faire face aux changements globaux, cela aboutira quasi inévitablement à des changements si profonds de nos sociétés et modes de vie qu’on peut parler de leur effondrement. Cela concernera bien évidemment et plus particulièrement les activités agricoles et d’usage des ressources naturelles, et cela nous concerne donc dans nos recherches. Pourtant, avons-nous bien pris la mesure de ce que cela signifie ? Pour P Servigne et ses co-auteurs ce n’est pas le cas car les implications seraient trop désespérantes et nous refuserions de nous y confronter. Si vous êtes prêts à en discuter, ce séminaire sera l’occasion de partager une vue d’ensemble de la Collapsologie, qui s’intéresse à ce phénomène particulier que serait un effondrement général, sans prétention d’en faire le tour. Les débats, car il y en aura sans doute tant le sujet est polémique, seront orientés vers les questions de recherche que nous posent ces perspectives.
Autres références: http://www.labos1point5.org et https://pabloservigne.com/

20/09/2019 : Component-wise approximate Bayesian computation via Gibbs-like steps. Julien Stoehr (CEREMADE)

Résumé : Approximate Bayesian computation methods are useful for generative models with intractable likelihoods. These methods are however sensitive to the dimension of the parameter space, requiring exponentially increasing resources as this dimension grows. To tackle this difficulty, we explore a Gibbs version of the ABC approach that runs component-wise approximate Bayesian computation steps aimed at the corresponding conditional posterior distributions, and based on summary statistics of reduced dimensions. While lacking the standard justifications for the Gibbs sampler, the resulting Markov chain is shown to converge in distribution under some partial independence conditions. The associated stationary distribution can further be shown to be close to the true posterior distribution and some hierarchical versions of the proposed mechanism enjoy a closed form limiting distribution. Experiments also demonstrate the gain in efficiency brought by the Gibbs version over the standard solution.
Référence : arxiv.org/abs/1905.13599

13/09/2019 : Impact of tree choice in metagenomics differential abundance studies. Antoine Bichat (LaMME - Enterome)

Résumé : We consider the problem of incorporating evolutionary information (e.g. taxonomic or phylogenic trees) in the context of metagenomics differential analysis. Recent results published in the literature propose different ways to leverage the tree structure to increase the detection rate of differentially abundant taxa. Here, we propose instead to use a different hierachical structure, in the form of a correlation-based tree, as it may capture the structure of the data better than the phylogeny. We first show that the correlation tree and the phylogeny are significantly different before turning to the impact of tree choice on detection rates. Using synthetic data, we show that the tree does have an impact: smoothing p-values according to the phylogeny leads to equal or inferior rates as smoothing according to the correlation tree. However, both trees are outperformed by the classical, non hierachical, Benjamini-Hochberg (BH) procedure in terms of detection rates. Other procedures may use the hierachical structure with profit but do not control the False Discovery Rate (FDR) a priori and remain inferior to a classical Benjamini-Hochberg procedure with the same nominal FDR. On real datasets, no hierarchical procedure had significantly higher detection rate that BH. Although intuition advocates the use of a hierachical structure, be it the phylogeny or the correlation tree, to increase the detection rate in microbiome studies, current hierachical procedures are still inferior to non hierachical ones and effective procedures remain to be invented.

Séminaires passés / Past seminars

Lien vers la Liste des séminaires passés de l'unité MIAT.

Contacts

Si vous souhaitez présentez vos travaux durant le séminaire MIAT, n'hésitez pas à contacter Patrick Taillandier ou Matthias Zytnicki.

Génotoul BioInfo
Équipe RECORD
IMABS
Outils personnels