En naviguant sur notre site vous acceptez l'installation et l'utilisation des cookies sur votre ordinateur. En savoir +

Menu Logo Principal logo vas

UMR EPIA - Unité Mixte de Recherche d'EPIdémiologie des maladies Animales et zoonotiques

EPIA

Outils et méthodes

La conduite de nos travaux de recherche en épidémiologie nécessite la maîtrise de plusieurs domaines méthodologiques et techniques de la collecte de données issues du terrain ou d’autres sources à l’analyse et la modélisation des données.

Récolte de tiques au drapeau 11 - Auteur C-site

Récolte de tiques au drapeau (photo : Magalie Martellet et Julie Cat, VetAgroSup, Lyon)

  Collecte de données, études de terrain :

Les données avec lesquelles nous travaillons proviennent de différentes sources dont des bases de données créées et/ou gérées par des collaborateurs (autres équipes de recherche, Direction Générale de l’Alimentation, Agence Européenne de l’Environnement ...) et des collectes d’informations et d’échantillons sur le terrain réalisées par l'Unité.

Concernant les données issues de bases de données de collaborateurs, ces données sont souvent collectées via des enquêtes auprès des éleveurs, vétérinaires ou autres organismes impliqués dans la santé animale, en collaboration étroite avec des intervenants de terrain. Pour les données issues de nos campagnes de terrain, nous collectons généralement des informations relatives aux populations animales (présence ou indices de présence), à l’élevage (pour les animaux de rente), aux vecteurs et à l’environnement (végétation, météorologie, caractéristiques du sol, positionnement géographique). Nous capturons certains animaux sauvages et vecteurs afin d’effectuer des prélèvements qui seront ensuite analysés au laboratoire. Par exemple, pour l’étude du portage de bactéries pathogènes par les tiques, nous récoltons les tiques à l’affût sur la végétation à l’aide d’un drap faisant croire au passage d’un hôte. Nous capturons également certains vertébrés, notamment les petits mammifères, via des pièges. Enfin, nous effectuons fréquemment des prélèvements sanguins sur les animaux domestiques afin de réaliser des tests sérologiques et repérer ainsi des traces de contact avec certains virus ou bactéries.

Labo

Analyse des échantillons au laboratoire (photo : UR EPIA, INRA)

  Analyse des échantillons au laboratoire :

L’objectif de ces analyses est la plupart du temps de détecter et de caractériser les agents pathogènes présents dans les échantillons. Nous utilisons des méthodes de détection directes (ex : détection par PCR) ou indirectes (ex : sérologie). Parmi les méthodes directes, nous utilisons surtout l'analyse des acides nucléiques (ARN ou ADN) par des techniques de biologie moléculaire (PCR, hybridation sur membrane) car elles ont l’intérêt d’être spécifiques, sensibles, rapides et fiables. Dans notre unité, ces approches sont mises en œuvre sur les vecteurs, les hôtes réservoirs et les espèces animales cibles. Parmi les agents pathogènes transmis par les tiques, nous recherchons prioritairement les bactéries responsables de la maladie de Lyme (bactéries pathogènes du groupe Borrelia burgdorferi sensu lato), de l’anaplasmose granulocytaire humaine et animale (Anaplasma phagocytophilum), et la bactérie responsables de la fièvre Q (Coxiella burnetii). Nous recherchons aussi parfois l’ensemble des bactéries présentes par des méthodes de séquençage à haut débit.

La caractérisation de certains gènes des bactéries est ensuite effectuée par méthode à haut débit. Pour ces analyses, l’Unité dispose d’une plateforme de biologie moléculaire structurée en cinq laboratoires distincts pour respecter une marche en avant : un laboratoire de préparation des consommables, un laboratoire destiné à l’extraction d’ADN des vecteurs (à partir des tiques entières) ou des hôtes (à partir de biopsie ou de sang) et à la microbiologie (adapté à l’analyses des pathogènes de type 2), un laboratoire de préparation des PCR, un laboratoire destiné à la réalisation de PCR et à l’analyse des fragments amplifiés et une laverie.

maladie_lyme_prevalence_idw_800km site

Krigeage appliqué à des données épidémiologique (photo : David Abrial, UR EPIA, INRA) 

 Analyse des données par modélisation statistique et mathématique:

Nous appliquons couramment les statistiques descriptives afin de décrire les phénomènes de santé en fournissant des synthèses à partir des données. Nous utilisons également fréquemment la modélisation statistique qui est une formalisation mathématique d'un phénomène (comme une épidémie) pour le décrire, en connaître les propriétés et prévoir son évolution.  Les méthodes existantes sont variées. Elles doivent être choisies et paramétrées de manière adaptée au problème étudié en tenant compte des analyses statistiques descriptives préalables et des connaissances a priori (avis d'expert) sur le phénomène. Les paramètres d’un modèle sont ensuite généralement estimés à partir de données. Ces inférences permettent d'étendre les conclusions faites sur un échantillon à l'ensemble de la population ciblée, ce qui potentiellement permet d'effectuer des prédictions sur l'extinction ou l'extension d'une maladie.

     * Nous utilisons notamment les régressions au sens large (linéaire ou non, logistique et plus généralement l'approche GLM, les modèles mixtes, les analyses de variance). Les régressions logistiques sont les plus utilisées dans l'unité, en particulier pour l'étude de l'influence des facteurs épidémiologiques sur les épidémies. Les tests statistiques concernent la conformité, la comparaison de distributions et la mise en évidence d'hétérogénéité spatiale (ESB, Influenza Aviaire, etc.).

     * Les données de suivi individuel que nous recueillons dans des populations d'espèces réservoirs de la faune sauvage (Rongeurs) sont analysées à l'aide de modèles de Capture Marquage Recapture. Ces modèles permettent d'inférer le fonctionnement démographique des populations des espèces réservoirs en lien avec l'épidémiologie d'un (ou plusieurs) agent(s) pathogène(s).

     * Les modèles les plus complexes ne possèdent que rarement de solutions analytiques et doivent de ce fait être estimés par des méthodes de simulation (de type Monte-Carlo par exemple). Les approches bayésiennes entrent dans ce cadre. En particulier, les projets de l'unité concernés par les analyses spatiales utilisent des modèles de cartographie du risque formalisés dans une approche hiérarchique Bayésienne.

     * Des modèles dynamiques pour simuler les propagations de maladie sont développés en prenant en compte les caractéristiques de la population et de la transmission du pathogène. La prise en compte de la dimension spatiale peut être réalisée tant dans la distribution spatiale des populations que dans la transmission à distance de la maladie. Si l’approximation de type champ moyen n’est pas valide, l’approche déterministe sera remplacée par une approche stochastique nécessitant de nombreuses simulations pour étudier le comportement du modèle.

Joss-site

  Développement de nos capacités informatiques :

Enfin, l’Informatique occupe une place importante, que ce soit pour la gestion des données ou pour leur analyse.

Les bases de données développées dans l’unité sont utilisées pour saisir, consulter, stocker et extraire les données issues des études de terrain. Généralement couplées avec une interface utilisateur elles possèdent des fonctionnalités de saisie, de recherche de données et d’extractions sélectives multicritères.

Les applications Web développées dans l'unité permettent également la saisie, la recherche, la consultation et l’extraction de données épidémiologiques ou génomiques stockées dans des bases de données. Accessibles depuis Internet, elles sont utilisées dans le cadre de projets impliquant plusieurs acteurs ou partenaires. L'unité a également développé des applications pour terminaux mobiles (Smartphones) qui sont un atout et un gain de temps non négligeable dans le cadre d’un réseau de surveillance d’une maladie. Ce type d'application permet la saisie de données et la transmission en temps réel de ces informations à des serveurs centraux.

La représentation cartographique des données,  réalisée à l'aide de systèmes d’information géographique, est une étape essentielle de nombre de nos études. Les cartes créées permettent soit de préparer une campagne de terrain en utilisant des données GPS ou topographiques, des photographies satellites ou aériennes, soit de construire des variables spatialisées, intégrées ensuite dans des modèles statistiques.

Les différents traitements à effectuer et les masses de données évoluant de façon exponentielle, l’optimisation des temps de calcul et la rationalisation du stockage des données sont devenus des enjeux majeurs pour la réalisation de nos projets. Depuis 2010, nous disposons d’un cluster de calcul composé d'une dizaine de  serveurs (200 cœurs CPU et 640 Go de mémoire vive). A cela s’ajoutent les stations de travail des agents qui partagent le temps CPU de leurs machines. La mise en place de ce cluster a été accompagnée par une stratégie visant à optimiser différents algorithmes de traitement afin qu’ils puissent tirer avantage de plusieurs processeurs (programmation « multithread »). Certains de ces programmes peuvent aussi être réécrits sous forme d’algorithmes massivement parallélisés pour qu’ils puissent s’exécuter sur des processeurs graphiques (GPU).