Méthodologie de l’analyse de la relation température–mortalité en Tunisie

Méthodologie de l’analyse de la relation température–mortalité en Tunisie

EPI-CLIN 2014 / Revue d’Épidémiologie et de Santé Publique 62S (2014) S133–S164 technique sera illustrée à travers l’exemple de l’essai T-DIS qui port...

335KB Sizes 2 Downloads 99 Views

EPI-CLIN 2014 / Revue d’Épidémiologie et de Santé Publique 62S (2014) S133–S164 technique sera illustrée à travers l’exemple de l’essai T-DIS qui porte sur des sujets porteurs d’un sarcome (tumeur maligne du tissu mou).

S141

b

Hôpital Louis-Pradel, EPICIME, Centre d’investigation clinique, Inserm CIC1407, laboratoire de biologie évolutive, UMR5558 CNRS, Bron, France

http://dx.doi.org/10.1016/j.respe.2014.05.063 P3-7

Le rôle des cohortes d’expansion dans les essais de phase I M. Ezzalfani a , A. Dugué b , M. Pulido c , C. Mollevi d , T. Filleron e , S. Chabaud f , B. Esterni g , M. Gauthier h , M.-C. Le Deley i , X. Paoletti j , A. Kramar k , S. Bousseta l a Département de biostatistique, Institut Curie, Paris, France b Unité de recherche clinique, CLCC Fran¸ cois-Baclesse, Caen, France c Unité de recherche et d’épidémiologie cliniques, Institut Bergonié, Bordeaux, France d Unité de biométrie, Institut régional du cancer, Montpellier, France e Bureau des essais cliniques, Institut Claudius-Regaud, Toulouse, France f Unité de biostatistique et d’évaluation des thérapeutiques, DRCI, Centre Léon-Bérard, Lyon, France g Unité de biostatistique, Institut Paoli-Calmette, Marseille, France h Unité de biostatistique, Centre G-F.-Leclerc, Dijon, France i Service de biostatistique et d’épidémiologie, Gustave-Roussy, Villejuif, France j Service de biostatistiques, Inserm U900, Institut Curie, Paris, France k Unité de méthodologie et biostatistiques, Centre Oscar-Lambret, Lille, France l Département biostatistiques, LYSARC, Lyon, France Mots clés : Essais cliniques de phase I ; Oncologie ; Cohortes d’expansion ; HUB phase I Introduction.– L’utilisation des cohortes d’expansion (CE) dans les essais de phase I en oncologie est de plus en plus fréquente, notamment avec l’émergence des agents anticancéreux non cytotoxiques qui bouleversent le paradigme « Plus est mieux » établi pour les médicaments cytotoxiques. Or, l’objectif de ces CE, le nombre de patients inclus ainsi que sa justification, sont insuffisamment explicités dans les protocoles. Ces cohortes sont parfois de taille considérable incluant une centaine de patients. Dans le cadre du groupe de travail regroupant les statisticiens des centres d’investigation précoce (CLIP2 ), soutenu par l’INCa, nous nous sommes interrogés sur la méthodologie de ces cohortes afin d’éditer des guidelines sur le nombre de sujets à inclure en fonction de l’objectif de la CE. Méthodes.– Nous avons d’abord fait le point sur les différents articles et revues de la littérature récemment publiés sur les CE dans les essais de phase I. Nous avons ensuite proposé des recommandations, en termes d’objectifs et de nombre de patients, pour guider les investigateurs et faciliter l’utilisation de ces cohortes d’expansion dans la pratique. Résultats.– Une revue de la littérature effectuée entre 2006 et 2011 a permis d’observer que parmi 615 essais cliniques de phase I utilisant des CE, l’objectif de ces cohortes n’était pas explicitement cité dans plus d’un quart de ces essais. L’objectif le plus cité était l’évaluation de la toxicité, rapporté dans 89 essais (80 %), suivi par l’évaluation de l’efficacité, rapporté dans 50 essais (45 %). Selon cette revue, le nombre de patients inclus dans ces cohortes n’était jamais justifié. En termes de recommandations, nous proposons de définir le nombre de patients à inclure dans une CE en fonction de (1) son objectif, (2) critères statistiques et (3) contexte clinique de l’essai (variant des essais évaluant un traitement en première administration chez l’homme aux essais évaluant les combinaisons de traitements. . .). Conclusion.– En dépit des caractères exploratoires des CE, il est nécessaire de justifier leur taille en fonction d’une question méthodologique statistiquement identifiée afin que les conclusions des études de phase I soient interprétables pour les patients des essais ultérieurs. http://dx.doi.org/10.1016/j.respe.2014.05.064 P3-8

L’évolution sous placebo est-elle différente chez l’enfant par rapport à l’adulte ? P. Janiaud a , B. Kassai b a Université Lyon 1, UMR 5558, CNRS Lyon, Lyon, France

Mots clés : Évolution sous placebo ; Extrapolation ; Pédiatrie ; Adultes Introduction.– L’évolution sous placebo correspond à l’ensemble des facteurs pouvant expliquer l’amélioration du critère clinique mesuré lors d’un essai clinique chez les participants ayant rec¸u le placebo. Ces facteurs étant principalement : l’évolution naturelle et l’amélioration spontanée de la maladie, la régression à la moyenne, l’intervention d’un traitement concomitant, une subordination expérimentale et les réponses conditionnées. Il persiste dans la littérature une confusion entre l’effet placebo (effet causé par l’administration d’un placebo) et l’évolution sous placebo (changement observés après une intervention par placebo). Une récente méta-analyse étudiant l’efficacité des médicaments antiépileptique chez les adultes et les enfants suggère une évolution sous placebo différente chez l’enfant par rapport à l’adulte. Notre objectif principal est de mettre en évidence l’existence d’une évolution sous placebo potentiellement plus importante chez l’enfant rappelant l’importance des essais cliniques randomisés de puissance suffisante et permettant de mesurer correctement le rapport bénéfice risque. Méthodes.– À partir d’une revue systématique des essais randomisés contrôlés inclus dans des méta-analyses de la base de données Cochrane, nous avons réalisé une étude méta-épidémiologique. Les méta-analyses sélectionnées doivent inclure des essais randomisés en insu et contre placebo, présentant des données chez l’adulte et chez l’enfant, séparément quels que soient la maladie et le traitement étudié. Dans un premier temps, la taille de l’évolution sous placebo sera calculée pour les essais enfants et les essais adultes. Pour mettre en évidence une différence de cette évolution sous placebo un test-t avec variance inégale de Welch sera utilisé pour comparer les moyennes observées entre adultes et enfants. Un travail de modélisation complémentaire sera réalisé pour simuler la régression à la moyenne à partir des informations extraites des études. Si cette modélisation donne les résultats escomptés, elle permettra de travailler sur une estimation plus proche du vrai effet placebo (évolution sous placebo réduite de la régression à la moyenne). Résultats.– Les résultats préliminaires de notre méta-analyse montrent, dans l’asthme traité par fluticasone, une évolution plus importante sous placebo chez l’enfant du volume expiratoire maximum seconde (importance de l’effet égale à 3,7 fois l’écart-type chez l’enfant versus 3,2 fois chez l’adulte ; p < 0,001 ; 38 études). Deux autres méta-analyses, l’une sur le ciclésonide dans l’asthme – comprenant deux études chez l’enfant et deux chez l’adulte – et l’autre, sur le nédocromil dans la bronchoconstriction – comprenant 11 études chez l’enfant et six chez l’adulte – n’ont pas révélé de différence d’évolution sous placebo entre adultes et enfants. Conclusion.– Le terme « évolution sous placebo » permet de clarifier ce qui est réellement mesuré par les études exploratoires. Une meilleure compréhension permettrait d’éviter la participation des enfants à des essais non-concluants ou inutiles et d’améliorer l’extrapolation du bénéfice thérapeutique lorsque cela est possible. Il est donc primordial de contrôler les diverses sources de biais en réalisant des essais cliniques randomisés suffisamment puissants pour estimer correctement le bénéfice thérapeutique des médicaments conc¸us pour la population pédiatrique. http://dx.doi.org/10.1016/j.respe.2014.05.065

P 4 – Méthodes statistiques pour les études diagnostiques et pronostiques P4-1

Méthodologie de l’analyse de la relation température–mortalité en Tunisie M. Karaoud a , D. Malouche a , N. Bouafif b École nationale d’ingénieurs de Tunis, Tunis, Tunisie b Observatoire national des maladies nouvelles et émergentes de Tunis, Tunis, Tunisie

a

S142

EPI-CLIN 2014 / Revue d’Épidémiologie et de Santé Publique 62S (2014) S133–S164

Mots clés : Modèles additifs généralisés ; Mortalité ; Lissage ; Température ; Risque Introduction.– Les effets probables de la température sur la mortalité ont été explorés depuis un siècle. Ces études sont à nos jours d’une importance capitale pour la mise en place d’un système de veille sanitaire qui pourrait lancer des alertes aux moments propices. L’objectif de ce papier est d’expliciter les méthodes statistiques sur lesquels sont basées les analyses permettant de mettre en évidence une certaine association entre l’exposition à court terme et la mortalité en Tunisie, afin de prendre des mesures de contrôle et de prévention adaptées. Méthodes.– Avant de procéder à l’analyse, une étape primordiale s’impose : la gestion des données manquantes. Si leur valeur est supérieure à 5 %, leur gestion devient indispensable afin de ne pas introduire du biais. Notre stratégie d’analyse des données commence par une analyse descriptive des deux séries d’observations journalières du 1er janvier 1991 au 31 décembre 2011. La relation température–mortalité peut être non linéaire, d’où nous avons eu recours aux modèles additifs généralisés introduisant des fonctions spline, très exploitées dans le domaine de l’environnement. Afin de prendre en compte une sur-dispersion possible de la variable mortalité, la famille de modélisation sera la quasi-poisson. Par ailleurs, notre série est soumise à des variations temporelles à long terme, à moyen et court termes et des facteurs de confusion interviennent (jours fériés, jours de la semaine et le mois de ramadan). Afin de pouvoir déterminer le modèle le mieux ajusté, un ensemble d’outils statistiques sont mis en œuvre : autocorrélation partielle et graphe des résidus ; effet partiel ; critère d’Akaike et le paramètre de dispersion. Le modèle que nous cherchons à estimer a pour objectif de choisir la meilleure variable météorologique et ses décalages. Pour chaque région et catégorie d’âge, nous avons élaboré un modèle à part. Une fois le modèle est validé, nous mesurons le risque accouru, où la valeur de l’exponentielle des coefficients du modèle retenue, représente alors le risque relatif associé à une augmentation ou baisse d’un degré de température. Résultats.– Nous avons obtenu pour les régions de Tunis et Jendouba un bruit blanc au-delà des 10 premiers retards, et pour le reste une réduction de l’autocorrélation sur les premiers retards. La représentation graphique des résidus relatifs aux différentes régions semble révéler aucune tendance ou saisonnalité particulière et leur distribution semble conforme à une distribution normale centrée. Moyennant le critère d’Akaike, nous avons retenus la température moyenne (retards 0–1) pour la saison chaude et (retard 0–7) pour la saison froide. Le modèle validé est ainsi : Log (E{décèsij }) = f1 (temps) + f2 (températurei ) + facteurs de confusion où f1 et f2 sont les fonctions spline de lissage. Des baisses de températures moyennes, au-dessous de 11 ◦ C augmentent d’une fac¸on significative le nombre de décès surtout chez les personnes âgées de plus de 65 ans où le mois de janvier apparaît comme un mois à haut risque, dépassant les 20 % pour toutes les régions. Conclusion.– Ce travail constitue une étape dans une démarche de recherche plus large visant à aboutir à un modèle national visant à expliquer la relation mortalité–climat. Les différents modèles obtenus procurent des résultats facilement interprétables et utilisables et peuvent même être adaptables à évoluer dans le temps et dans l’espace.

vasculaire cérébral. Ce dépistage aboutit à un traitement lourd et risqué par programmes transfusionnels. Concernant les facteurs de risque de vasculopathie cérébrale, chez l’enfant drépanocytaire, les marqueurs biologiques, tel que l’hémoglobine de base, le taux de leucocyte, polynucléaire neutrophile, plaquette, le pourcentage d’hémoglobine fœtale ou encore le taux de réticulocytes ne sont pas tous traités de manière homogène, les normes biologiques variant en fonction de l’âge. La majorité des articles prennent en compte la moyenne des données récoltées sur une période déterminée. Objectif.– Évaluer si les résultats d’une étude de facteurs de risque peuvent être modifiés selon la méthode utilisée pour prendre en compte des données longitudinales répétées au cours du temps et ceci dans le cadre des facteurs associés à la survenue de vasculopathie cérébrale au sein d’une cohorte d’enfants drépanocytaires SS ou S␤◦ . Méthode.– La population étudiée concerne les enfants inclus dans la cohorte de 1991 à juin 2010 de génotype SS ou S␤◦ , dépistés en néonatal et suivis au moins six mois au centre de référence de la drépanocytose à l’hôpital Robert-Debré. Les données cliniques et biologiques ont été recueillies de manière prospective à l’âge de 3 mois, 6 mois, 1 an puis de manière annuelle. L’étude des facteurs associés au risque de survenue de vasculopathie cérébrale a été effectuée de deux manières. Premièrement, la moyenne des données biologiques du début jusqu’à la fin du suivi ont été introduites dans un modèle de survie comme des co-variables fixes au cours du temps. Deuxièmement, un modèle en deux étapes a été construit: un modèle mixte est utilisé pour modéliser les variables biologiques quantitatives. Une fois le modèle mixte construit, on l’introduit comme variable dépendante du temps dans un modèle de survie. Résultats.– Au total, 59 enfants sur les 375 analysés ont eu une vasculopathie cérébrale. Le risque de vasculopathie cérébrale est de 26 % IC 95 % [20; 33] à 12 ans. Selon la première méthode, les facteurs associés à la vasculopathie cérébrale sont l’obstruction ORL (HR 1,70 par année d’obstruction IC95 %[1,26; 2,30]), l’obstruction bronchique (HR 1,79 par année d’obstruction IC 95 % [1,53; 2,10]), le taux de reticulocytes (HR 1,34 pour une augmentation de 50 000/mm3 IC 95 %[1,14; 1,57]) et le taux d’hémoglobine fœtale (HR 1,30 pour une augmentation de 50 000/mm3 IC 95 %[1,18; 1,44]). Selon la deuxième méthode, les facteurs associés à la survenue de la vasculopathie sont l’obstruction ORL (HR 1,52 par année d’obstruction IC 95 %[1,23; 1,98]) ou bronchique (HR 1,84 par année d’obstruction IC 95 %[1,78; 2,57]), et le taux de réticulocytes (HR 2,47 pour une augmentation de 50 000/mm3 IC 95 %[1,52; 4,04]). Le taux d’hémoglobine fœtale n’est plus significativement associé à la vasculopathie cérébrale. Conclusion.– La manière de prendre en compte des données longitudinales répétées au cours du temps influence les résultats finaux dans l’étude de facteurs de risque que ce soit sur la significativité ou le degré de l’association. La prise en compte de l’ensemble de l’évolution d’un marqueur biologique au cours du temps pourrait mieux refléter la réalité plutôt que de résumer cette information par la moyenne.

http://dx.doi.org/10.1016/j.respe.2014.05.066

Segmentation automatique de lésion par modèle de mélange avec régularisation spatiale

P4-2

Comparaison de deux méthodes de prise en compte de données longitudinales quantitatives répétées au cours du temps: application aux facteurs associés à la survenue de la vasculopathie cérébrale chez les enfants drépanocytaires J. Sommet a , D. Mahamed b , M. Benkerrou a , C. Alberti a Inserm, U 1123 et CIC 1426, hôpital Robert-Debré, Paris, France b AP–HP, hôpital Robert-Debré, Paris, France

a

Mots clés : Données longitudinales ; Marqueurs biologiques ; Survie ; Cohorte ; Drépanocytose Introduction.– Depuis 1992, l’utilisation de l’écho-Doppler transcrânien permet de dépister les enfants avec vasculopathie cérébrale et donc à risque d’accident

http://dx.doi.org/10.1016/j.respe.2014.05.067 P4-3

B. Ozenne a , D. Maucort Boulch a , F. Subtil a , L. Ostergaard b a Hospices Civils de Lyon, Pierre-Bénite, France b Arhus University, Århus, Danemark Mots clés : Classification ; Imagerie médicale ; Modèle de mélange ; Données spatiales ; Champs de Markov Introduction.– L’identification de la lésion lors d’un accident vasculaire cérébral (AVC) ou d’un cancer conditionne la prise en charge des patients. Elle est généralement effectuée manuellement sur des images issues d’un scanner ou d’une Imagerie par résonance magnétique (IRM). Néanmoins, elle bénéficierait à être automatisée via l’utilisation d’algorithmes de segmentation. Ces algorithmes reposent généralement sur l’analyse de la distribution des intensités observées pour définir la lésion. De récents développements ont montré que la prise en compte de la distribution spatiale d’observations permettait d’améliorer la