Série « Évaluation des soins » Coordonnée par C. Chouaid et A. Vergnenègre
De l’évaluation de la qualité des soins à la performance des soins C. Chouaid 1, 2, G. Hejblum 1, B. Guidet 1, 3, A.J. Valleron 1, 4
Résumé Introduction L’évaluation de la performance des établissements de soins a connu un important développement depuis 15 ans aux États-Unis et dans une moindre mesure dans les autres pays développés. Etat des connaissances L’objectif de la mesure de la performance est d’améliorer la qualité des soins, l’information des usagers et la qualité de la contractualisation avec les financeurs. Pourtant cette démarche pose de nombreux problèmes méthodologiques aussi bien dans le choix des indicateurs de mesure de la performance que dans le recueil et l’interprétation des données. La prise en compte des spécificités de chaque structure (environnement social et géographique, missions de recherche et d’enseignement) est souvent insuffisante. En terme de Santé publique, l’impact de la diffusion au public des résultats de ces mesures est peu étudié. À partir des données de la littérature, cette revue précise les définitions de la performance hospitalière, décrit les principales expériences, leurs impacts et leurs limites. Perspectives Il semble probable que les pouvoirs publics français vont, à court terme, demander aux établissements de soins de s’engager dans cette démarche. Conclusions Des études complémentaires sont nécessaires pour clairement identifiés les liens entre performance et qualité des soins.
1
Inserm U707 (Unité de Recherche en Épidémiologie Systèmes d’Information et Modélisation), CHU Saint-Antoine, Paris, France. 2 Services de Pneumologie, CHU Saint-Antoine, Paris, France. 3 Service de Réanimation Médicale, CHU Saint-Antoine, Paris, France. 4 Service de Santé Publique, CHU Saint-Antoine, Paris, France.
Mots-clés : Assurance qualité • Soins de santé • Évaluation des soins • Analyse des performances.
Correspondance : C. Chouaïd Service de Pneumologie, Hôpital Saint-Antoine, 184 rue du faubourg Saint-Antoine, 75012 Paris, France.
[email protected] Réception version princeps à la Revue : 12.11.2005. Retour aux auteurs pour révision : 28.12.2005. Réception 1ère version révisée : 04.03.2006. Acceptation définitive : 23.03.2006.
Rev Mal Respir 2006 ; 23 : 13S87-13S98 Doi : 10.1019/20064045
Rev Mal Respir 2006 ; 23 : 13S87-13S98
© 2006 SPLF. Édité par Elsevier Masson SAS. Tous droits réservés
13S87
C. Chouaid et coll.
The evaluation of health care outcomes and hospital performance indicators
C. Chouaid, G. Hejblum, B. Guidet, A.J. Valleron
Summary Introduction The assessment of the performance of health care establishments has undergone a considerable development over the past 15 years in the United States and to a lesser extent in other developed countries. Background The aim of measurement of performance indicators is to improve the quality of care (outcomes), patient information and the contractual arrangements with purchasers. However, this approach poses numerous methodological problems in the choice of performance indicators as well as the collection and interpretation of data. Specific structural patterns such as social and geographic environment, research and educational assignments, are often inadequately considered. In terms of public health the impact of the publication of these measurements has not been well studied. Based on the data in the literature this revue defines the measures of hospital performance and describes the main studies, their impacts and limitations. Viewpoint It seems likely that the French public authorities will, in the short term, ask health care establishments to undertake this approach. Conclusions Complimentary studies are needed to clarify the links between performance indicators and health care outcomes. Key-words: Quality assurance • Health care • Evaluation of care • Performance analysis.
Rev Mal Respir 2006 ; 23 : 13S87-13S98
[email protected]
13S88
Rev Mal Respir 2006 ; 23 : 13S87-13S98
L’
évaluation de la performance des établissements de soins a connu un important développement depuis 15 ans aux États-unis et dans une moindre mesure dans les autres pays développés [1, 2]. Cette revue de la littérature a comme objectifs d’essayer de définir ce concept, son utilisation et l’impact de la diffusion des résultats de la performance des établissements des soins sur la qualité des soins. Elle précise les limites de ces démarches.
Comment définir la performance d’un établissement de soins Cette question a fait l’objet de nombreux travaux de recherche [3-5]. Plusieurs modèles essentiellement issus de la théorie des organisations ont été proposés : – modèle dit de la légitimité sociale, qui stipule qu’une organisation se maintient si elle satisfait les attentes, les normes et les valeurs de la collectivité ; – modèle des processus internes ; il suppose que l’établissement de santé produit efficacement les soins qu’il délivre, en se contentant de satisfaire la demande de sa clientèle (les démarches d’amélioration continue de la qualité vont dans ce sens), sans se préoccuper des besoins environnants. Ce modèle répond en particulier à la définition de l’OMS qui stipule que « les établissements hospitaliers doivent garantir que chaque patient reçoit la combinaison d’actes diagnostiques et thérapeutiques qui assure un meilleur résultat en terme de santé, conformément à l’état actuel des connaissances médicales, au meilleur coût pour un même résultat, au moindre risque iatrogène, pour sa plus grande satisfaction en terme de procédure de résultats et de contacts humains » ; – modèle des relations humaines : il se centre sur la capacité d’une organisation à satisfaire les attentes des usagers et du personnel. D’autres modèles se focalisent sur la capacité d’une organisation à acquérir les ressources nécessaires à son fonctionnement et à son adaptation permanente à un environnement. D’autres, moins théoriques, privilégient l’importance de l’erreur (capacité d’un hôpital à fonctionner de manière sûre) ou se fondent sur une approche comparative (la performance est alors la capacité d’un établissement à surclasser le voisin ou benchmarking pour les Anglo-saxons). À partir de ces éléments théoriques, des auteurs français [3] ont proposé un cadre d’analyse utilisable dans le système de soins français : la performance est définie comme la capacité d’un établissement de soins à maintenir un équilibre dynamique entre les trois fonctions suivantes : – une fonction d’atteinte des objectifs : capacité de l’hôpital à produire des résultats de santé favorables, de manière efficiente (maximisation du rapport coût-efficacité) et en satisfaisant les
De l’évaluation de la qualité des soins à la performance des soins
attentes des différents groupes d’intérêts que sont les patients et leurs familles, la population, les responsables de l’hôpital, les professionnels et les tutelles ; – une fonction d’adaptation : capacité à acquérir des ressources nécessaires, à attirer la clientèle, à mobiliser le support communautaire, à répondre aux besoins et aux attentes de la population et à apprendre à innover ; – une fonction de production de services : capacité à utiliser de manière optimale les ressources disponibles, ce qui englobe les notions de productivité, de coordination et de qualité des soins, d’humanité, d’accessibilité, de continuité, de globalité, d’adéquation et de qualité de réalisation des actes. Ces trois fonctions nécessitent la mise en place d’une fonction de maintenance (consensus) autour des valeurs fondamentales (professionnalisme, dévouement). Dans les centres hospitalo-universitaires, la performance s’enrichit de deux fonctions supplémentaires : l’enseignement et la recherche. • La performance de toute structure de soins est le résultat d’un équilibre entre trois fonctions : atteinte des objectifs, adaptation, production de services. • Dans les centres hospitalo-universitaires viennent s’y ajouter l’enseignement et la recherche.
Comment évaluer la performance hospitalière ? Deux approches complémentaires plutôt qu’opposées sont le plus fréquemment adoptées. La première consiste à définir des standards et à vérifier si l’établissement réunit les conditions par rapport à ce standard (normes légales ou réglementaires, certification par rapport à des normes de qualité…). Une autre approche est une évaluation par des indicateurs [6]. C’est cette seconde approche qui est ici surtout développée. Un indicateur est un élément mesurable qui fournit des informations sur un phénomène complexe. Il peut s’agir d’un chiffre isolé mais le plus souvent il s’agit d’un taux ou d’un ratio. Les propriétés d’un indicateur sont multiples. Il doit refléter une dimension de la performance jugée importante. Ainsi, pour les indicateurs cliniques, on privilégie ceux qui concernent les affections ou interventions fréquentes et/ou graves et/ou coûteuses et/ou pour lesquelles il existe des variations de pratiques inexpliquées. L’indicateur peut également porter sur un domaine offrant des possibilités d’actions concrètes d’amélioration. Un indicateur doit être mesurable par un outil adapté et fiable (précis, exact et reproductible) et valide (il doit bien mesurer ce qu’il est censé mesurer et bien couvrir le champ de la dimension qu’il est censé refléter). Audelà de ces caractéristiques, un indicateur doit pouvoir être recueilli en routine, le plus souvent dans le cadre d’un système
d’information médicale opérationnel. Sur le plan méthodologique, l’enjeu de la mesure de la performance hospitalière va donc être dans le choix des indicateurs, leur mode de recueil et d’interprétation.
La situation en France et en Europe En France, la recherche dans ce domaine ne fait que débuter, avec deux projets innovants financés par les pouvoirs publics [7]. Le projet INPEC-H (indicateurs de performances expérimentaux pour la comparaison hospitalière) a pour objectif de construire un système d’information partagé entre plusieurs établissements de santé de caractéristiques voisines. Il s’agit de permettre à ces établissements de se comparer en utilisant des indicateurs produits à partir des systèmes d’informations réglementaires et d’indicateurs plus précis relatifs à des activités cliniques. Ces indicateurs sont choisis collectivement par les équipes volontaires participant au projet. Le projet COMPAQH (coordination pour la mesure de la performance et l’amélioration de la qualité hospitalière) a pour objectif de sélectionner une vingtaine d’indicateurs dans des domaines considérés, par les tutelles, comme prioritaires pour la qualité des soins : lutte contre la douleur, continuité des prises en charge, lutte contre les troubles nutritionnels, les infections nosocomiales, satisfaction du patient, respect des bonnes pratiques cliniques, motivation, responsabilisation et évaluation des compétences des professionnels de soins, accessibilité des soins. Les résultats de ces projets ne sont pas disponibles pour l’instant. Citons également les projets en cours comme la labellisation d’équipes dans certains domaines (cardiologie, cancérologie), la certification des établissements de santé et l’évaluation des pratiques individuelles qui, de manière indirecte, vont dans les années à venir mesurer des aspects de la performance des hôpitaux. La Haute Autorité de Santé n’a pas encore clairement défini sa politique dans ce domaine, mais il est clair qu’elle doit être le maître d’œuvre de l’ensemble de ces projets. Contrastant avec la modestie de ces démarches et rencontrant un succès persistant, on a vu apparaître ces dernières années, dans la plupart des pays occidentaux, la publication dans des revues grand public des classements des hôpitaux. En France, ce phénomène a débuté en 1998 [8] et s’est depuis régulièrement poursuivi [9, 10]. Les auteurs, journalistes et médecins, choisissent pour chaque activité médicale un certain nombre de critères et réalisent, à partir de ces critères, un classement des établissements par activité, puis pour l’ensemble des activités. Ils déterminent ainsi les meilleurs (et les plus mauvais) établissements. Le palmarès publié en 2000 des 50 meilleures cliniques de France a concerné 800 établissements classés sur les critères détaillés dans le tableau I. Les résultats obtenus sont validés par des experts interrogés par téléphone (médecins, directeurs d’hôpitaux, responsables © 2006 SPLF. Édité par Elsevier Masson SAS. Tous droits réservés
13S89
C. Chouaid et coll.
Tableau I.
Critères pour le palmarès des cliniques (France 2000). Nombre d’actes par an et par spécialité Notoriété : % de patients hospitalisés, domiciliés hors département de l’institution Pourcentage de séjours de chirurgie ambulatoire Pourcentage actes techniques complexes Degré de spécialisation dans chaque spécialité Durée moyenne de séjour
régionaux, représentants des usagers). Cette analyse de l’activité est complétée par une évaluation de la qualification des professionnels de santé (consultation du site Internet du Conseil National de l’Ordre des Médecins). En 2003, les mêmes auteurs, publient dans l’hebdomadaire le Point le premier classement des services de pneumologie des hôpitaux publics [10]. Les critères retenus pour ce classement sont le pourcentage de patients pris en charge en ambulatoire, la présence sur le site d’un service de chirurgie thoracique, d’une consultation anti-tabac, d’un centre de référence pour la mucoviscidose, la notoriété (pourcentage de patients domiciliés en dehors du département siège de l’établissement) et la durée moyenne de séjour (DMS). Le choix des critères est justifié sur le fait que l’existence d’un centre de référence pour la mucoviscidose et d’une consultation antitabac ne peut que « signifier » des services performants, que des patients qui changent de département pour se faire hospitaliser est un témoin de notoriété, que la prise en charge en ambulatoire et une DMS faible traduisent une bonne organisation (donc une bonne performance) du service. Bien que l’impact de ces classements ne soit pas réellement connu, les conséquences médiatiques ont amené les responsables politiques à souhaiter la mise en place d’une démarche officielle de classement des hôpitaux. Aux Pays-Bas la performance des hôpitaux repose depuis quelques années sur la reconnaissance médicale par les pairs et l’analyse des structures. La première étude a été réalisée en 1997 [11] sur un échantillon de médecins libéraux (1 074 spécialistes et 882 généralistes) interrogés sur la performance des soins que délivrent les différents services de court séjour, le niveau de collaboration avec le secteur libéral et la réputation nationale des médecins. L’analyse de structure porte sur l’hôtellerie (nombre de chambres collectives…), les délais d’admission et d’obtention de rendez vous de consultation. Les hôpitaux sont classés pour chaque critère et pour chaque service, puis les résultats sont agrégés pour sélectionner chaque année les 20 meilleurs hôpitaux. Ces critères, subjectifs et variables selon l’échantillon de médecins interrogés ne permettent qu’une vision très partielle et superficielle de la performance des hôpitaux ; néanmoins, il semble que cela stimule tant les hôpitaux les moins performants, qui essayent d’améliorer leur image de marque, que les meilleurs qui tiennent à garder leur avance [12]. 13S90
Rev Mal Respir 2006 ; 23 : 13S87-13S98
En Suède, la mise en place d’une politique d’information du public sur la performance des hôpitaux semble avoir échoué du fait de la mauvaise interprétation par le public des informations produites [13]. Les promoteurs concluent qu’il est nécessaire de fournir à chacun les moyens de comprendre ces informations, parfois complexes (indicateurs ajustés sur le risque…) et de procéder à une étape préalable de validation scientifique. L’Australie a mené une expérience officielle de diffusion d’indicateurs de performance auprès du grand public. Cette démarche a fait l’objet de nombreuses controverses sur le risque de compétitions entre professionnels, de perte de confiance du public, la difficulté qu’auront les établissements apparaissant comme les moins bons à s’engager dans des démarches d’amélioration et sur le fait qu’il n’était pas prévu de mesurer l’impact de cette démarche. De surcroît, très rapidement il est apparu que les bases administratives ne permettaient pas un recueil facile des données sans retourner aux dossiers sources des patients. Au Royaume-Uni, la démarche est plus récente et beaucoup plus modeste (niveaux d’activités et délais d’attente) [14, 15]. L’Écosse publie, depuis 1994, des données, recueillies en routine, sur 17 indicateurs de résultats cliniques. Les résultats font apparaître des différences importantes entre hôpitaux mais les critiques sont nombreuses, en particulier sur l’ajustement insuffisant aux facteurs de comorbidités et aux caractéristiques des patients [16,17]. • En France, il existe deux projets d’évaluation de la performance financés par les pouvoirs publics : le projet INPEC-H et le projet COMPAQ-H. • En outre, les établissements hospitaliers ont été classés dans les revues grand public. • Aux Pays-Bas la performance des hôpitaux est évaluée sur la reconnaissance médicale par les pairs et sur l’analyse des structures. • Au Royaume-Uni, l’évaluation repose sur les niveaux d’activités et les délais d’attente (avec, pour l’Écosse, des données portant sur 17 indicateurs).
La situation aux États-Unis En fait, ce sont les États-unis qui ont l’historique le plus important dans ce domaine, qui fait maintenant partie du débat permanent autour du système de soins [18-23]. Les projets sont nombreux, nous analysons les plus importants. En 1986, la Health Care Financing Administration (HCFA) a été le premier organisme officiel à largement diffuser des données de mortalité par pathologie. Il s’agissait de fournir aux usagers des informations sur les résultats des prises en charge et d’inciter les hôpitaux à améliorer la qualité des soins. Cette publication a été arrêtée en 1993 devant la difficulté d’interprétation des résultats et la faible utilisation de ces informations par les hôpitaux.
De l’évaluation de la qualité des soins à la performance des soins
À peu près à la même époque, l’association des hôpitaux du Maryland mettait en place une évaluation collective par les professionnels de la performance hospitalière : le Maryland Hospital Association’s Quality Indicator Project®. Débuté en 1987 sur 7 hôpitaux de l’état de Maryland, il concerne aujourd’hui plus de 700 établissements hospitaliers. L’objectif est de promouvoir l’amélioration continue de la qualité par l’analyse d’un certain nombre de procédures hospitalières [24]. Il consiste en un recueil trimestriel de 21 indicateurs (tableau II), ajustés sur le case mix (groupe homogène de malade) permettant à chaque hôpital de se comparer par rapport à la moyenne. De même, depuis 1992, l’État de Pennsylvanie publie un guide (Consumer guide to coronary artery bypass graft surgery) qui liste annuellement les taux de mortalité, ajustés sur les comorbidités, des hôpitaux et des chirurgiens réalisant des pontages coronariens [25]. Les hôpitaux de la Fédération des Veterans Health Care System ont également mis en place depuis le début des années 1990 un système de recueil en routine de données [26] portant sur des actions de prévention primaire (mammographie de dépistage, vaccination antigrippale, anti-pneumocoque, dépisTableau II.
Liste des indicateurs du projet Maryland Hospital Association’s Quality Indicator Project®. En hospitalisation : taux – d’infections acquises au cours de l’hospitalisation – d’infections des plaies opératoires – de mortalité : globale, néonatale, périopératoire – de césariennes – de réadmissions - d’admissions non prévues après une procédure ambulatoire – de retours non prévus en unités de soins intensifs – de reprises non prévues au bloc opératoire En ambulatoire : taux – de retour non prévus au service d’urgence 72 h après la sortie – de patients restant plus de 6 heures dans les services d’urgences – de discordances aux urgences entre diagnostic initial et final – de patients quittant le service d’urgences avant la fin de la prise en charge – d’annulation de procédures de chirurgie ambulatoire le jour de la programmation En pédiatrie : taux – de mortalité – de mortalité périopératoire – de reprises non prévues au bloc opératoire – de retours non prévus en unités de soins intensifs, 48 heures après le sortie – d’admissions non prévues après une prise en charge ambulatoire – de patients ayant passé plus de 6 heures aux services des urgences
tage du cancer colorectal et du col de l’utérus), de prévention secondaire (pour le diabète : dépistage des atteintes vasculaires et ophtalmologiques, pour les pathologies cardiovasculaires : sevrage tabagique et prévention de la récidive). Le projet Healthcare Cost and Utilization Project Quality Indicators, mis en place en 1994, a pour objectif de permettre aux organisations de se comparer et d’être à même de comprendre d’éventuelles variations. Les indicateurs portent sur les complications de certaines procédures chirurgicales, les pratiques médicales spécifiques, l’accès aux soins des populations fragilisées, l’accès aux soins ambulatoires. Les indicateurs sont sélectionnés à partir des données de la littérature, testés et validés dans le cadre d’une démarche impliquant les professionnels de soins. Il s’agit surtout d’indicateurs de mesure de la performance clinique, beaucoup moins souvent d’indicateurs de satisfaction du patient ou d’efficience des soins. Les données, extraites des documents médicaux et administratifs d’hospitalisation [26], portent sur la prise en charge de l’infarctus du myocarde, de l’insuffisance ventriculaire gauche et de la pneumonie aiguë communautaire. Les premiers résultats montrent de grandes différences entre établissements avec de meilleurs résultats pour les grands établissements, les hôpitaux à but non lucratif et les hôpitaux universitaires [21]. Le Health Plan Employer Data and Information Set (HEDIS) est un autre projet national, mis en place en 1994 par les entreprises américaines, principaux financeurs du système de soins. Il s’agit de fournir des informations aux acheteurs collectifs de soins et aux usagers permettant de comparer les performances des plans de santé dans différents domaines : accès aux soins, efficacité, satisfaction des usagers, qualité de l’information, capacité à s’adapter à l’innovation, coûts… Un des programmes le plus ambitieux est développé par le Solucient Leadership Institute [27]. L’objectif est de permettre aux hôpitaux de se comparer (benchmarking) aussi bien sur le plan des résultats cliniques que de la gouvernance. La participation, sur la base du volontariat, a concerné en 1998, plus de 2000 hôpitaux (40 % des admissions annuelles en court séjour). Les hôpitaux sont regroupés en 5 catégories, en fonction de leur taille et de leur caractère universitaire. Les comparaisons se font pour chaque activité dans une même catégorie ; les résultats sont ensuite agrégés pour obtenir un rang dans la catégorie. Un interclassement permet d’obtenir un rang de classement général. Les critères de performances retenus sont résumés dans le tableau III. Ce classement tient compte de la productivité de l’institution (revenu net rapporté par les soins divisé par le total des avoirs de l’hôpital). Cet indicateur traduit la capacité qu’a l’institution pour créer du capital et investir dans la rénovation des structures, l’innovation technologique et le développement de nouveaux services aux patients. Dans le groupe des hôpitaux généraux, les 100 premiers pour ce critère ont une productivité de + 51 % par rapport à la moyenne ; les différences sont beaucoup moins importantes pour les hôpitaux universitaires. Le classement général [28] montre que les 100 meilleurs établissements ont une DMS inférieur de 70 % à la moyenne, 13,9 % de © 2006 SPLF. Édité par Elsevier Masson SAS. Tous droits réservés
13S91
C. Chouaid et coll.
Tableau III.
Résultats du programme développé par le « Solucient Leadership Institute » : les performances des 100 meilleurs hôpitaux comparés à la moyenne de l’échantillon. Indicateurs (ajusté aux comorbidités)
Les 100 meilleurs /moyenne
Taux de mortalité intrahospitalière
– 6 à – 26 %
Complications postopératoires
– 11 à – 14 %
DMS ajusté
– 7 à – 17 %
Dépenses par GHM
– 16 à – 29 %
Profit (marge financière disponible)
+ 4 à + 12 %
complications en moins, une marge de profit totale supérieure à la moyenne de 8,7 %, une marge de trésorerie de 16,4 % pour une moyenne à 7 %. Ils ont aussi moins de salariés que la moyenne mais ces salariés sont mieux payés. Un hôpital de 650 lits, le Peter Brigham and Women’s Hospital, affilié à l’Université de Harvard, à Boston, est le seul hôpital qui a figuré pendant 8 années consécutives dans la liste des meilleurs. Selon le directeur de cet établissement, 4 éléments expliquent ce succès : – le leadership des médecins dans le management : dans son institution 12 médecins sont diplômés de l’Harvard Business School et exercent une fonction de gestionnaire à temps partiel ; – une politique explicite de communication et d’information permettant d’accompagner les changements liés à l’innovation et d’obtenir un dialogue de qualité à la fois entre médecins et gestionnaires et entre médecins hospitaliers et professionnels extrahospitaliers ; – une politique volontariste d’enseignement et de formation continue pour améliorer la qualité des soins et la compréhension des contraintes de gestion ; – la mise en place d’une gestion de la reconnaissance pour les équipes qui atteignent leurs objectifs. Cette démarche est en train d’évoluer vers une analyse plus fine, par services (orthopédie, cardiologie…) et secteurs d’activité (accidents vasculaires cérébraux, soins intensifs, cancer du sein). À côté de ces démarches nationales, on assiste également à de nombreuses expériences régionales avec la diffusion de multiples indicateurs, regroupés sous forme de tableaux de bords (report cards) censés refléter les différentes dimensions de la performance et permettre la comparaison des établissements, voire des professionnels. En ce qui concerne les projets plus clairement destinés au grand public, l’un des plus ambitieux est celui d’Healthgrades [29, 30]. Son objectif est de classer l’ensemble de l’offre de soins dans de nombreux domaines (chirurgie cardiaque, orthopédique, vasculaire, obstétrique, cardiologie, neurologie, pneumologie). Pour chaque procédure ou diagnostic, l’évaluation prend en compte un certain nombre de facteurs de risques (âge, sexe, origine ethnique…) et de comorbidités (diabète, 13S92
Rev Mal Respir 2006 ; 23 : 13S87-13S98
insuffisance rénale chronique…). Les résultats (en terme de mortalité et/ou de morbidité) de chaque établissement sont comparés à la moyenne nationale. Le classement repose sur un système d’étoiles : 5 étoiles pour les hôpitaux ayant un résultat significativement meilleur que la moyenne nationale, 3 étoiles pour ceux qui sont dans la moyenne, 1 étoile pour ceux qui se comportent significativement moins bien que ce qui est attendu. De 70 à 80 % des hôpitaux obtiennent 3 étoiles, 10 à 15 % reçoivent 1 étoile et 10 à 15 % en reçoivent 5. Si l’hôpital ne réalise pas au moins 30 procédures par an, il n’est pas classé et se voit attribuer, pour cette procédure, la mention « faible volume » avec un rappel soulignant que de nombreuses études établissent une corrélation entre le volume et la qualité. Le classement de l’année n repose sur les données des années n2, n-3, n-4. Il est réactualisé chaque année. Le tableau IV donne un exemple de classement pour l’activité de pneumologie pour un établissement donné. Cette démarche est beaucoup plus élaborée que les classements français ou hollandais, mais sa pertinence repose sur la qualité de l’ajustement des indicateurs aux différents caractéristiques des patients pris en charge et à la qualité des bases de données. Certains facteurs de risque peuvent ne pas être pris en compte comme le statut socio-économique des patients, l’état général de santé hors comorbidités codées. En ce qui concerne la qualité des données, les promoteurs eux-mêmes soulignent que des dossiers médicaux peuvent être mal ou incomplètement codés, et que malgré tous les efforts, des données peuvent être manquantes, dépassées ou incomplètes. Peu d’études ont analysé les conséquences de ces limites et la robustesse des résultats lorsqu’on modifie certains facteurs (introduction des facteurs liés à la situation socio-économique des patients…). Complétant cette information sur les structures, Healthgrades met également à la disposition du public une base de données concernant les médecins. Il ne s’agit pas d’un
Tableau IV.
Healthgrades : évaluation de l’activité pneumologique d’un hôpital donné ; 5 étoiles : résultat significativement meilleur que la moyenne nationale, 3 étoiles : moyenne nationale, 1 étoile : significativement moins bien que ce qui est attendu. (Nb : nombre, PAC : pneumopathie aiguë communautaire, DMS : durée moyenne de séjour, IRA : insuffisance respiratoire aiguë). Nb Domaines patients
Survie Survie intra à hospitalière 1 mois
Survie à DMS (j) 6 mois
Pneumonie nosocomiale
832
*****
*****
*****
15
PAC
1470
*****
*****
*****
9.3
BPCO
8
668
***
*****
*****
Embolie pulmonaire
68
***
***
***
8,6
IRA
197
***
NA
NA
11,3
Sepsis
195
***
***
***
8,4
De l’évaluation de la qualité des soins à la performance des soins
classement des médecins, mais de la mise à disposition d’un ensemble d’informations portant sur les conditions pratiques d’exercice (localisation du cabinet, modalités d’exercice…), la qualité de l’accueil (ponctualité, empathie, etc.), le coût de la consultation, la formation et la spécialisation du médecin (Université d’origine, certification par les différentes sociétés savantes). Chaque médecin est comparé à ses confrères exerçant dans le même domaine sur trois critères (tableau V) : nombre d’années d’exercice depuis l’obtention du diplôme, certificats de spécialité et existence d’éventuelles sanctions (par les ordres professionnels ou les organismes payeurs). Les données proviennent de différentes sources, publiques ou privées (les informations envoyées par les médecins et les patients sont également prises en compte) ; l’actualisation est trimestrielle. Healthgrades fournit également des fiches pour aider les usagers ayant besoin d’une prise en charge donnée à choisir son hôpital (tableau VI). USNews.com [31] est l’autre grand site à proposer un classement en ligne des structures de soins mais l’objectif est différent : il s’agit d’identifier les hôpitaux qui offrent la meilleure offre de soins pour une activité donnée. Ce classement des meilleurs (America’s Best Hospital) se limite aux hôpitaux universitaires, spécialisés (soit 1 878 hôpitaux sur 6 116). Il sélectionne 50 hôpitaux pour chaque spécialité (neurologie, urologie, digestif…), sur des critères de réputation (l’hôpital est-il connu par les médecins), de morbi/mortalité et de qualité de soins (pour l’ophtalmologie, la pédiatrie, la psychiatrie et la rééducation le classement repose sur le seul critère de notoriété).
Tableau VI.
Healthgrades : conseils destinés au patient pour choisir l’établissement dont il a besoin : les éléments qu’il doit vérifier. Le classement Healthgrade pour l’affection procédure qui justifie l’hospitalisation L’accréditation de l’hôpital Le statut de son praticien dans cet hôpital Le volume d’actes ou de prise en charge dans l’affection qu’il a Les résultats obtenus en terme de mortalité immédiate, complications, mortalité à 5 ans, mesures de qualité de vie… Le ratio infirmières/lits La présence d’un médecin hygiéniste Appeler et visiter l’hôpital, évaluer la courtoisie du personnel Évaluer la propreté de l’hôpital, le confort des salles d’attente Demander comment sont traitées les plaintes des patients Demander l’avis de son médecin et du personnel qui travaille avec lui Demander à des amis et collègues s’ils recommandent cet hôpital et pourquoi Vérifier qu’en cas de complications, il y a sur place une expertise suffisante (ex : soins néonataux ou unités de soins intensifs) Demander à son médecin les différentes possibilités diagnostiques et thérapeutiques et l’accès à ces techniques et traitement sur l’établissement Vérifier l’intégration de l’établissement dans un réseau de soins permettant de bénéficier, si besoin, de soins de suite adaptés Évaluer soigneusement les coûts
Les limites de ces démarches • Aux États-Unis, les projets d’évaluation de la performance sont nombreux. • Healthgrades est un système de cotation destiné au grand public, à remise à jour trimestrielle. (évaluation des structures, information sur les médecins) • USNews.com est un site internet identifiant les hôpitaux qui proposent la meilleure offre de soins pour une activité donnée.
Tableau V.
Healthgrades : informations sur le médecin Joe W Sample, MD. Certifié par la spécialité
Non
% de certifié dans la spécialité
73 %
% de certifié toutes spécialités
64 %
Diplômé depuis
38 ans
Moyenne dans la spécialité
22 ans
Moyenne toutes spécialités
23 ans
Plaintes en cours
Oui
% plainte dans la spécialité
1%
% plainte toutes spécialités
1%
Elles sont nombreuses, surtout liées au choix des indicateurs utilisés et à leur interprétation mais aussi en terme de faisabilité [32]. La mortalité est un indicateur objectif et incontournable de résultat mais son interprétation est toujours difficile. Il dépend de la politique d’admission et de sortie des services ; il doit être interprété en fonction du lieu et de la durée d’hospitalisation préalable, des caractéristiques du malade (comorbidités, âge, état général). La notoriété d’un service, d’un hôpital ou d’un médecin, définie par les professionnels, est en fait une notion assez vague dont on ne sait pas exactement ce qu’elle mesure. Le taux de patients recrutés en dehors de la zone géographique de l’établissement est plus objectif ; encore faut il faire une analyse de la zone géographique de situation de l’établissement (situé à la limite de plusieurs départements ou au contraire seul établissement de la région). Ainsi, pour les établissements situés en Île-de-France, il vaut mieux classer les séjours selon que le patient habite à Paris et petite couronne, en grande couronne ou en dehors de la région francilienne. L’interprétation de la DMS nécessite de réaliser une analyse séparée des séjours extrêmes [33]. De nombreux séjours anormalement courts peuvent traduire, non pas un service bien organisé, mais au contraire une structure n’ayant © 2006 SPLF. Édité par Elsevier Masson SAS. Tous droits réservés
13S93
C. Chouaid et coll.
pas organisé la prise en charge en ambulatoire ; des séjours anormalement long peuvent être liés au défaut de lits d’aval et non pas au service lui-même. Cette interprétation doit également tenir compte du pourcentage de réadmissions précoces, de certaines caractéristiques des patients (âge, état physiologique…). De même la précarité, certaines comorbidités peuvent expliquer un allongement de la DMS. De manière plus caricaturale, en ce qui concerne le classement des services de pneumologie, l’hypothèse que la performance de ces services est liée à la présence sur place d’un centre anti-tabac, de la chirurgie thoracique ou d’un centre de référence pour la mucoviscidose n’a bien sûr jamais été démontrée. Le volume d’actes réalisés semble quant à lui fortement corrélé à la performance [34]. Dans cette récente revue de la littérature [34] les auteurs ont analysé 272 études donc 135 (concernant 27 procédures et affections) avaient une bonne méthodologie. Dans la plupart des cas, il existait une association significative entre volume d’actes ou de patients pris en charge par un établissement ou un médecin et la performance, que les résultats soient ajustés ou non aux comorbidités. Mais cette liaison dépend énormément de la procédure ou de la maladie évaluée ; importante pour la chirurgie du cancer du pancréas ou de l’œsophage, elle est beaucoup plus marginale pour la chirurgie coronarienne. De plus dans la plupart des cas, il est difficile d’établir des valeurs seuils de volume car la démarche doit tenir compte de l’organisation globale du système de santé et de la démographie médicale. Enfin, les données sont quasi inexistantes sur les conséquences des volumes trop importants d’activités : or il est probable qu’une activité trop importante soit également source de dysfonctionnements. Ainsi, une étude réalisée en 2000, dans l’État de New York sur la chirurgie cardiaque montre que près de la moitié des centres à forte activité (plus de 500 procédures par an) et près d’un tiers des chirurgiens à forte activité (plus de 150 actes par an) ont des taux de mortalité, ajustés aux comorbidités, supérieurs à la moyenne [35, 36]. La satisfaction des usagers est un élément important de la performance, plusieurs études montrant une meilleure observance aux prises en charge prescrites lorsque les patients sont satisfaits. Mais, la satisfaction englobe un vaste domaine, difficile à définir. Plusieurs modèles théoriques ont été conceptualisés. La théorie des attentes est l’un des mieux validé. La satisfaction est définie comme l’écart entre les attentes des patients et le vécu de leur prise en charge dans trois domaines : attente d’une réponse technique et médicale, prise en charge psychologique et sociale, confort matériel. Ces trois axes seraient prépondérants, au-delà de différences culturelles, sociales, économiques, de l’histoire personnelle et de l’état de santé du patient. Mais on sait aussi que les aspects économiques, l’efficacité ressentie en terme de continuité des soins, d’accessibilité et de disponibilité des équipements jouent un rôle important. En France, plusieurs outils sont disponibles pour mesurer la satisfaction du patient hospitalisé avec, depuis l’ordonnance du 24 avril 1996, une obligation de procéder à une évaluation régulière. Mais on note que, même si 13S94
Rev Mal Respir 2006 ; 23 : 13S87-13S98
le questionnaire de sortie est largement diffusé, ces questionnaires sont souvent propres à chaque structure, jamais validés ni standardisés. L’exploitation est rarement effective et il y a rarement de suivi. Pourtant plusieurs études [37] ont montré que l’utilisation non validée d’outils pour mesurer la satisfaction surestime bien souvent celle-ci et aboutit à des conclusions erronées et non fiables. Au-delà de la validité des outils, l’utilisation d’un indicateur de satisfaction pour les comparaisons interhospitalières nécessite d’ajuster les résultats à l’état de santé des patients. En terme de faisabilité, la mesure en routine d’indicateurs de performance nécessite des moyens importants et une méthodologie rigoureuse (choix de la population concernée, rigueur dans le recueil). Dans le cas contraire les résultats obtenus sont souvent incomplets et d’interprétation difficile. Ainsi, Walter et coll. [38] ont repris les résultats d’un audit externe réalisé dans leur établissement sur le dépistage du cancer colorectal. Cet audit retrouvait que seuls 58 % des 229 patients audités avaient eu, comme préconisé, un test de dépistage par Hémocult, significativement moins que la moyenne nationale. Les auteurs, en refaisant une analyse approfondie des dossiers, ont relevé de nombreuses erreurs. La population évaluée n’était pas pertinente (pour pouvoir relever en même temps d’autres indicateurs de performance, les auditeurs avaient inclus un grand nombre de patients hospitalisés), dans 15 % des cas le test avait été réalisé mais non retrouvé par les auditeurs (probablement en raison d’une analyse trop rapide des dossiers), dans près de 40 % le test avait été fait à visée diagnostique et non de dépistage ; enfin, les auditeurs avaient considéré comme des échecs du dépistage des patients qui avaient refusé l’examen ainsi que ceux donc l’état de santé rendant inutile ou dangereux la pratique de ce dépistage. De même, alors que depuis 2 ans des nombreux états aux États-Unis se sont dotés d’une législation rendant obligatoire la publication des taux d’infections nosocomiales (infections postopératoires, sur cathéter veineux, urinaires, pneumonies nosocomiales), l’identification en routine de ces infections soulève de nombreux problèmes de définition, de recueil et d’interprétation soulignés dans une étude récente [39]. Un dernier obstacle qui doit être souligné est le risque, lorsqu’on sélectionne une batterie d’indicateurs, que les pathologies qui ne sont pas dans la liste soient l’objet de moins d’intérêt et que la qualité des soins diminue dans ces autres domaines. • L’interprétation des critères de performance est délicate car de nombreux facteurs interviennent sur un critère donné. • La satisfaction, écart entre les attentes des patients et le vécu de leur prise en charge, est un point important. • Le questionnaire de sortie est souvent propre à chaque structure (jamais validé ni standardisé). son exploitation est rarement effective et le suivi est rare.
De l’évaluation de la qualité des soins à la performance des soins
• Les indicateurs de performance nécessitent des moyens importants et une méthodologie rigoureuse. • Avec les indicateurs, on ne peut exclure une plus mauvaise prise en charge des affections hors liste.
À qui sert la mesure de la performance ? Théoriquement, la mesure de performances des systèmes des soins peut intéresser les usagers, les financeurs, les professionnels et les établissements de soins [40-44]. En ce qui concerne les usagers, plusieurs études montrent qu’il existe une demande importante mais que l’impact de ces données sur les comportements est minime [45, 46]. Ainsi, chez des salariés devant choisir une couverture médicale (dans le cadre d’un système de soins intégré ou managed care), une étude a comparé le comportement de deux groupes, l’un ayant à sa disposition des tableaux de bord de performances (graphiques rapportant des critères de qualité des soins, d’accessibilité et de qualité du service client) et l’autre sans élément d’information sur la performance des différentes propositions. Aucune différence n’a été mise en évidence en termes de choix ou de propension à payer des primes plus élevées pour une couverture de meilleure qualité [47]. Une autre étude récente, réalisée sur 474 patients opérés pour un pontage dans quatre hôpitaux de Pennsylvanie (deux avec un taux de mortalité inférieur à la moyenne, un avec un taux supérieur), montrent que seuls 56 % des patients connaissaient le guide de classement des hôpitaux et des chirurgiens pour cette activité (Consumer Guide to Coronary Artery Bypass Graft Surgery). Parmi ceux qui le connaissaient, la plupart ne se rappelaient plus ou n’avaient pas consulté le classement de leur hôpital. Lorsqu’on leur rappelait les résultats du classement, la moitié déclaraient que de toute manière cela n’aurait probablement pas influencé leur choix. Pourtant, la majorité se déclare franchement intéressée par la publication de ces classements [48] mais n’est pas prête à payer pour obtenir le rapport [49]. D’autres études [50] ont montré que les usagers continuent à se rendre dans des hôpitaux mal classés (ils sont plus influencés par des articles sur des morts anecdotiques ou inattendues). Les raisons d’un si faible impact restent mal comprises. Différentes hypothèses sont avancées. L’information disponible est trop complexe, mal comprise et ne répond donc pas aux attentes réelles des usagers [51] qui continuent d’accorder plus d’importance à leurs sources d’information habituelles (relations familiales, amicales ou professionnelles, relation de travail…) qu’aux classements objectifs. Une grande partie de la population adulte ne comprend pas les documents fournis, même si le niveau de compréhension varie avec l’expérience : un recours fréquent aux soins (dans le cadre d’une maladie chronique par exemple) améliore cette percep-
tion. Le niveau d’éducation est un autre obstacle important, en particulier aux États-Unis, où près d’un tiers de la population adulte ne peut de toute façon appréhender et interpréter ces données. La quantité d’informations fournie est un autre obstacle [52]. Le choix devient difficile au delà de 5 indicateurs, avec une autosélection sur des critères pas toujours pertinents [47]. Par ailleurs, un certain nombre de personnes attribuent les mauvais résultats obtenus par leur prise en charge soit à la qualité de leur médecin soit à leur propre comportement et n’évaluent pas ou mal l’importance de l’organisation des soins sur les résultats de ces soins. Il semble également exister une confiance modérée du public dans la qualité des données publiées. Enfin un certain nombre de personnes n’ont pas le choix de l’hôpital. Il est donc nécessaire de développer des recherches dans ce domaine, pour mieux identifier les besoins des usagers et la nature des informations qu’ils souhaitent obtenir concernant le fonctionnement des hôpitaux. En ce qui concerne les professionnels de santé, différentes études montrent que les médecins sont intéressés par ces classements mais sont sceptiques sur les modalités d’obtention des données. Une étude réalisée auprès des cardiologues de l’État de New York, après le classement des hôpitaux ayant une activité de chirurgie coronarienne, montre que la plupart sont intéressés par ce rapport, mais seuls 22 % discutent de ces données avec leurs patients ; 38 % considèrent que ce rapport a pu modifier leurs pratiques d’utilisation des différents services [53]. Dans le Maryland, une étude réalisé en 1995, sur la moitié des cardiologues et des chirurgiens cardiaques de l’État montre que tous les chirurgiens cardiaques et 82 % des cardiologues connaissent les résultats du Consumer Guide to Coronary Artery Bypass Graft Surgery. Mais moins de 10 % déclaraient en discuter avec plus de 10 % de leurs patients devant subir un pontage coronarien. Il était par ailleurs reproché à ce guide l’absence d’indicateurs de qualité autres que la mortalité, un ajustement sur le risque inadéquat et l’absence de reproductibilité des résultats [49]. L’impact de ces classements semble plus important pour les hôpitaux. Une étude montre que prés de la moitié des hôpitaux ayant des performances en dessous de la moyenne met en place des actions correctrices (en termes d’organisation, de marketing et de pratiques cliniques). Ce sont aussi les hôpitaux les moins bien classés qui font les critiques les plus importantes sur les modalités d’obtention des données de performance [54]. • La mesure de la performance pourrait a priori intéresser tous les acteurs de la chaîne de santé (usagers y compris). • Il existe une forte demande chez les usagers. mais peu d’impact sur les comportements. • Les médecins sont intéressés par ces classements mais sont sceptiques sur les modalités d’obtention des données. • L’impact semble plus marqué sur les hôpitaux.
© 2006 SPLF. Édité par Elsevier Masson SAS. Tous droits réservés
13S95
C. Chouaid et coll.
La mesure de la performance permet-elle d’améliorer la qualité des soins ? Le lien entre recueil en routine d’indicateurs de performance et amélioration des résultats commence à faire l’objet de nombreuses études [55-60]. En Australie, une étude pilote [61] a montré la difficulté d’utiliser, en routine, des indicateurs cliniques pour comparer les performances des hôpitaux. Les auteurs ont sélectionné 4 indicateurs (taux de réadmission non programmée dans les 28 jours, taux de bactériémies acquises à l’hôpital, taux d’infections postopératoires après chirurgie programmée et taux de réinterventions non prévue). Ils soulignent les difficultés d’extraction des données, qui nécessitent dans la plupart des cas un retour au dossier médical et une qualité de l’information disponible qui ne permet pas un ajustement satisfaisant sur la sévérité des cas. En revanche, d’autres études sont positives. Dans le Cleveland [35], la mise en place d’un tableau de bord d’indicateurs de performance en routine améliore la performance des hôpitaux (baisse de la mortalité, arrêt d’activité des chirurgiens réalisant peu d’actes). C’est le cas aussi dans un projet développé par les hôpitaux de la Fédération des Veterans Health Care System avec une analyse sur 80 000 patients qui montre une amélioration significative entre 1994 et 2000 de tous les indicateurs de performance. Cette amélioration apparaît dès la seconde année et persiste dans le temps [26]. Elle survient sans action particulière (type amélioration continue de la qualité) mais le recueil systématique s’accompagne d’une dynamique de mobilisation sur ces thèmes, de modifications des dossiers médicaux pour renforcer la disponibilité de l’information, d’une publication des résultats. Plus récemment, Williams et coll. [62] rapportent l’évolution de quatre indicateurs de performance suivis sur 8 trimestres : l’amélioration est significative pour la plupart des indicateurs. Cette amélioration est d’autant plus importante que les valeurs initiales sont mauvaises, ce qui est très en faveur de la démarche [63]. Mais il y a aussi une détérioration du score des meilleurs, l’ensemble pouvant être en partie expliqué par un phénomène de régression vers la moyenne, ce que reconnaissent les auteurs [64]. Les effets pervers de la publication de résultats des prises en charge médicales commencent également à être étudiés [65, 66]. Ce sont les risques de sélection de patient, de non prise en compte des désirs des patients et de son entourage sur certaines procédures, les risques de saturer les structures apparaissant comme les plus performantes, de limiter l’accès aux soins en fermant les centres apparaissant comme moins performants. • Les difficultés d’extraction des données sont fréquentes, nécessitant souvent un retour au dossier médical. • Les effets positifs de ces évaluations sur la performance des hôpitaux sont fréquemment décrits. • L’amélioration est plus marquée quand les valeurs initiales sont mauvaises.
13S96
Rev Mal Respir 2006 ; 23 : 13S87-13S98
• Le score des meilleurs s’abaisse, en partie expliqué par un phénomène de régression vers la moyenne.
Conclusion L’analyse de la performance des établissements de soins va probablement se développer dans les années à venir dans les pays occidentaux. Ces démarches visent à aider les patients à sélectionner les services donc ils ont besoin et à éclairer les financeurs sur l’efficience et la qualité des hôpitaux. Néanmoins, il existe de nombreuses contraintes. La méthodologie est difficile et la recherche sur ce thème encore peu développée ; les systèmes d’informations, insuffisamment développés, ne permettent pas un accès facile à des données précises et validées (codification et suivi continu des procédures, gestion du risque, surveillance des complications, recueil et analyse des accidents thérapeutiques, monitorage des résultats thérapeutiques et de la satisfaction des patients et de leur proches, mortalité). Enfin, sur le plan financier, il s’agit d’un effort important mais probablement d’un bon rapport coût/ efficacité lorsque ces démarches permettent d’améliorer la qualité des soins.
À RETENIR • Plusieurs modèles d’évaluation des performances ont été proposés : modèle de la légitimité sociale, modèle des processus internes, modèle des relations humaines, modèles évaluant la capacité d’une organisation à acquérir les ressources nécessaires à son fonctionnement, modèles privilégiant l’importance de l’erreur et modèle comparatif entre établissements. • Un cadre pratique utilisable dans le système de soins français a été proposé. Il évalue trois fonctions : fonction d’atteinte des objectifs, fonction d’adaptation et fonction de production de services. • L’évaluation de la performance repose en général sur deux approches complémentaires : définition des standards et évaluation par des indicateurs. • De nombreux projets d’évaluation ont été proposés, essentiellement dans les pays occidentaux. • Le classement dans les revues grand public prend une importance croissante. • Les limites des systèmes d’évaluation tiennent surtout au choix des indicateurs et à la faisabilité des études.
De l’évaluation de la qualité des soins à la performance des soins
• La mesure de la performance a surtout des répercussions sur le fonctionnement des centres hospitaliers.
20
21
• Dans la plupart des études, l’évaluation des performances semble améliorer la qualité, mais elle peut abaisser celle des centres initialement les plus performants.
22 23 24
Références 1 2 3 4
5
6
7 8 9 10 11 12
13
14 15
16 17 18 19
Brook RH, McGlynn EA, Cleary PD : Measuring the quality of care. N Engl J Med 1996 ; 335 : 966-70. Donabedian A : The quality of care: how can it be assessed? JAMA 1988 ; 260 : 1743-8. Lombrail P, Naiditch M, Baubeau D : Qu’appelle-t-on la performance hospitalière. Dossiers Solidarité Santé 2001 ; 2 : 13-20. Lombrail P, Naiditch M, Baubeau D, Cuneo P, Carlet J : Les éléments de la performance hospitalière : Les conditions d’une comparaison. Études et résultats 1999, n° 42. Sicotte C, Champagne F, Contrandriopoulos AP : A conceptual framework for the analysis of health care organizations’ performance. Health Service Manag Res 1998 ; 11 : 24-48. Aegerter P, Auvert B, Buonamico G, Sznajder M, Beauchet A, Guidet B, le Gall JR : Cub-Rea. Organization and quality control of a clinical database on intensive care medicine in central and suburban Paris. Rev Epidemiol Sante Pub 1998 ; 46 : 226-37. Vergnenegre A : Les outils de l’évaluation des soins. Rev mal Respir 2006 ; 23 : 3S47-3S60. Houdart P, Malye F, Vincent J : Le guide des hôpitaux. Ed. Le pré aux Clercs/Sciences et Avenir. Paris, 1998. Houdart P, Malye F, Vincent J : Le palmarès 2000 des 800 cliniques de France. Le Figaro Magazine, 25 août 2005, XL pages. Houdart P, Malye F, Vincent J : Hôpitaux. Le palmarès 2003. Le point 2003 ; 1603 : 74-112. De Hen P : De Top 20 van de algemene ziekenhuizen. Elsevier 1997 ; 77-91. Van Weert C : Developments in professional quality assurance towards quality improvement: some examples of peer review in the Netherlands and the United Kingdom. Int J Qual Health Care 2000 ; 12 : 239-42. Mebius C : Public disclosure of health care performance reports: comments and reflections from Sweden. Int J Qual Health Care 1999 ; 11 : 102-3. Coles J : Public disclosure of health care performance reports: a response from the UK. Int J Qual Health Care 1999 ; 11 : 104-5. Exworthy M, Wilkinson EK, McColl A, Moore M, Roderick P, Smith H, Gabbay J : The role of performance indicators in changing the autonomy of the general practice profession in the UK. Soc Sci Med 2003 ; 56 : 1493-504. Collopy BT : Public disclosure of health care performance reports : what do we lose in Giving Information. Int J Qual Health Care 1999 ; 11 : 99-101. Davies HT, Marshall MN : Public disclosure of performance data: does the public get what the public wants? Lancet 1999 ; 353 : 1639-40. Ayanian JZ, Weissman JS : Teaching hospitals and quality of care: a review of the literature. Milbank Q 2002 ; 80 : 569-93. Braun BI, Koss RG, Loeb JM : Integrating performance measure data into the Joint Commission accreditation process. Eval Health Prof 1999 ; 22 : 283-97.
25
26
27 28 29 30
31 32
33
34
35 36 37 38
39 40 41
42 43
Jencks SF, Cuerdon T, Burwen DR, Fleming B, Houck PM, Kussmaul AE, Nilasena DS, Ordin DL, Arday DR : Quality of medical care delivered to Medicare beneficiaries: A profile at state and national levels. JAMA 2000 ; 284 : 1670-6. Jha AK, Li Z, Orav EJ, Epstein AM : Care in US hospitals-the Hospital Quality Alliance program. N Engl J Med 2005 ; 353 : 265-74. Palmer RH Using health outcomes data to compare plans, networks and providers. Int J Qual Health Care 1998 ; 10 : 477-83. Patterson CH : Joint commission on accreditation of healthcare organizations. Inf Contr Hosp Epidemiol 1995 ; 16 : 36-42 Kazaadidjian VA, Lawther J, Cernk CMM, Pipesh FC : Relating outcome to process of care: the Maryland hospital associations quality indicator project. J Joint Com Qual Improv 1993 ; 19 : 530-8. Hannan EL, Sarrazin MS, Doran DR, Rosenthal GE : Provider profiling and quality improvement efforts in coronary artery bypass graft surgery: the effect on short-term mortality among Medicare beneficiaries. Med Care 2003 ; 41 : 1164-72. Jha AK, Perlin JB, Kizer KW, Dudley RA : Effect of the transformation of the Veterans Affairs Health Care System on the quality of care. N Engl J Med 2003 ; 348 : 2218-27. Chenoweth J : Making performance data public. Health Exec 2001 ; 16 : 60-1. Lovern E : Reaping healthy profits; 100 hospitals manage to come on top even in year plagued by financial ills. Modern Healthcare 2000 ; 36-41. HealthGrades opening up methodology to review. Healthcare Benchmarks Qual Improv 2004 ; 11 : 89-90. Krumholz HM, Rathore SS, Chen J, Wang Y, Radford MJ : Evaluation of a consumer-oriented internet health care report card: the risk of quality ratings based on mortality data. JAMA 2002 ; 287 : 1277-87. Bell C : The 100 top hospitals. Modern Healthcare, 26 February 2001, 1-35. O’Malley AS, Clancy C, Thompson J, Korabathina R, Meyer GS : Clinical practice guidelines and performance indicators as related-but often misunderstood-tools. Jt Comm J Qual Saf 2004 ; 30 : 163-71. Rosenthal GE, Harper DL, Quinn LM, Cooper GS : Severityadjusted mortality and length of stay in teaching and nonteaching hospitals. Results of a regional study. JAMA 1997 ; 278 : 485-90. Halm EA, Lee C, Chassin MR : Is volume related to outcome in health care? A systematic review and methodologic critique of the literature. Ann Intern Med 2002 ; 137 : 511-20. Hannan EL : The relation between volume and outcome in health care. N Engl J Med 1999 ; 340 : 1677-9. Coronary artery bypass surgery in New York State 1995-2000. Albany: New York State. Department of Health. 2000 ; 250p. Lewis RJ : Views on quality care in general practice: literature review. Soc Sci Med 1994 ; 39 : 655-70. Walter LC, Davidowitz NP, Heineken PA, Covinsky KE : Pitfalls of converting practice guidelines into quality measures: lessons learned from a VA performance measure. JAMA 2004 ; 291 : 2466-70. Weinstein RA, Siegel JD, Brennan PJ : Infection-control report cardssecuring patient safety. N Engl J Med 2005 ; 353 : 225-7. Galvin RS : Are Performance Measure relevant ? Health Affairs 1999 ; 17 : 29-31. Spoeri RK. Ullman R : Measuring and Reporting Managed Care Performance: Lessons Learned an New Initiatives. Ann Int Med 1997 ; 127 : 726-31. Thomas J : Reports Cards Useful to whom and for what ? J Joint Com Qual Improv 1998 ; 24 : 50-1. Hibbard JH, Stockard J, Tusler M : Hospital performance reports: impact on quality, market share, and reputation. Health Affairs (Millwood) 2005 ; 24 : 1150-60.
© 2006 SPLF. Édité par Elsevier Masson SAS. Tous droits réservés
13S97
C. Chouaid et coll.
44
45 46
47
48
49
50 51
52 53
54
13S98
Jencks SF, Huff ED, Cuerdon T : Change in the quality of care delivered to Medicare beneficiaries, 1998-1999 to 2000-2001. JAMA 2003 ; 289 : 305-12. Chale JJ, Naiditch M : Faut-il classer les hôpitaux ? Retour sur une enquête controversée. La Recherche 1999 ; 324 : 70-4. Marshall MN, Shekelle PG, Leatherman S, Brook RH : The public release of performance data: what do we expect to gain? A review of the evidence. JAMA 2000 ; 283 : 1866-74. Leatherman S, McCarthy D : Public disclosure of health care performance reports : experience, evidence and issues for policy. Int J Qual Health Care 1999 ; 11 : 93-8. Maxwell CI : Public disclosure of performance information in Pennsylvania: impact on the hospital charges and the views of hospital executives. J Joint Com Qual Improv 1998 ; 24 : 491-9. Schneider EC, Epstein AM : Influence of cardiac surgery performance reports on referral practices and access to care: a survey of cadiovascular specialist. N Eng J Med 1996 ; 335 : 251-6 Schneider EC, Epstein AM : Use of public performance reports: a survey of patients undergoing cardiac surgery. JAMA 1998 ; 279 : 1638-42. Marshall MN, Romano PS, Davies HT : How do we maximize the impact of the public reporting of quality of care? Int J Qual Health Care 2004 ; 16S : 57-63. Knutson DJ, Kind EA, Fowles JB : Impact of Report Cards on Employees: a natural experiment. Health Care Financ Rev 1998 ; 20 : 5-27. Hannan EL : Public Release of Cardiac Surgery Outcomes Data in New York: what do New York State Cardiologists think of it? Am Heart J 1997 ; 134 : 120-8. Marvin Bentley J, Nash DB : How Pennsylvania Hospitals have responded to publicity release reports on coronary artery bypass graft surgery. Joint Com Qual Improv 1998 ; 24 : 40-9.
Rev Mal Respir 2006 ; 23 : 13S87-13S98
55
56
57 58 59
60
61
62
63 64 65 66
Gibberd R, Hancock S, Howley P, Richards K : Using indicators to quantify the potential to improve the quality of health care. Int J Qual Health Care 2004 ; 16S : 37-43. Hibbard JH, Stockard J, Tusler M : Does publicizing hospital performance stimulate quality improvement efforts? Health Affairs (Millwood) 2003 ; 22 : 84-94. Higgenson IR, Carr AJ : Using quality of life measures in the clinical setting. BMJ 2001 ; 322 : 1297-300. Mullen PM : Using performance indicators to improve performance. Health Serv Manage Res 2004 ; 17 : 217-28. Rainwater JA, Romano PS, Antonius DM : The California Hospital Outcomes Project: how useful is California’s report card for quality improvement? Jt Comm J Qual Improv 1998 ; 24 : 31-9. Rosenthal GE, Quinn L, Harper DL : Declines in hospital mortality associated with a regional initiative to measure hospital performance. Am J Med Qual 1997 ; 12 : 103-12. Ibrahim J, Majoor JW, Boyce NW, McNeill JJ : Pilot hospital-wide clinical indicators project. Final Report. http://www.health.gov.au/ pq/sq/pubs/pilothos.htm Williams SC, Schmaltz SP, Morton DJ, Koss RG, Loeb JM : Quality of care in U.S. hospitals as reflected by standardized measures, 2002-2004. N Engl J Med 2005 ; 353 : 255-64. Romano PS : Improving the quality of hospital care in america. N Engl J Med 2005 ; 353 : 302-4. Saver BG : Quality of care in US Hospitals. N Engl J Med 2005 ; 353 : 1860-1. Werner RM, Asch DA : The unintended consequences of publicly reporting quality information. JAMA 2005 ; 293 : 1239-44. Welsh E : Managements matters: the link between hospital organisation and quality of patient care. Qual Health Care 2001 ; 10 : 40-8.