JLE

Annales de Biologie Clinique

MENU

Précisions concernant l’article « Recommandations pour la mise en place et le suivi des contrôles de qualité dans les laboratoires de biologie médicale » Ann Biol Clin 2019 ; 77(5) : 577-97. Volume 78, numéro 1, Janvier-Février 2020

Il est important d’apporter un complément d’information au lecteur au sujet de la référence faite de façon très générique au procédé EWMA (exponentially weighted moving average) page 586 de l’article [1] en le comparant de façon erronée à la statistique bayésienne. Nous nous attacherons à restituer l’intérêt du EWMA non seulement d’un point de vue technique, mais également d’un point de vue dialectique au regard de la norme ISO 15189. Nous expliquerons au lecteur l’intérêt de l’inférence bayésienne qui peut s’appliquer au management des résultats de CIQ dans le domaine de la biologie médicale, au regard de l’amélioration des moyens informatiques dont peuvent disposer les laboratoires.

Comme les auteurs le disent très justement, les plans de CIQ ont vocation à identifier les pertes brutales transitoires de maîtrise des méthodes ayant un fort impact potentiel sur la prise en charge des patients (« outliers » sur les cartes de contrôle) ainsi que les tendances identifiant, pour être précis car c’est important, un changement structurel persistant des méthodes à type de décentrage (dérives sur les valeurs cibles des cartes de contrôle) et/ou d’accroissement de variance des méthodes (chapitre 5.6.2.3 de la norme). Dans la notion générale de tendance, il y a les dérives sur la variance des méthodes, mais il y a aussi les décentrages persistants des méthodes induits par des facteurs propres à l’environnement de chaque laboratoire détectés par les plans de CIQ. À ce titre, il faut ainsi noter le parallélisme qu’il y a entre l’esprit de la norme ISO 15189 et l’ouvrage de référence des statisticiens experts en maîtrise statistique des procédés [2]. Cet ouvrage identifie clairement que les décentrages persistants des méthodes à type de dérive de moyennes des cartes de contrôle ne peuvent être identifiés de façon efficiente que par des outils ayant la mémoire de ce qui s’est passé plusieurs passages de contrôle auparavant. Les outils efficients sont le CUSUM (cumulative sum) et le EWMA [2]. Marquis a très bien expliqué tout l’intérêt du EWMA capable de détecter les dérives de moyenne sur les cartes de contrôle en jouant sur la valeur du coefficient de lissage lambda comme l’a très bien repris Linnet cité par les auteurs de l’article [3]. Concrètement, choisir une valeur de coefficient de lissage à 0,5 prend en compte 50 % de l’information de la précédente valeur de contrôle, ce qui permet de détecter une dérive d’une taille de 2 SD de fidélité intermédiaire de la moyenne ayant débuté il y a environ 10 points [2, 3]. Pour Linnet, il est recevable de détecter une dérive de 2 SD de fidélité intermédiaire dans le domaine de la biologie médicale. Il faut souligner la grande capacité du EWMA à tolérer que la distribution des points de contrôle d’une méthode en état de contrôle statistique ne respecte pas stricto sensu une distribution normale aléatoire autour d’une valeur moyenne fixe comme l’exige l’usage des règles de Shewhart et de la Western Electric dont s’est inspiré Westgard [2]. En d’autres termes, le risque de faux rejet est considérablement diminué avec le EWMA, notamment au regard de ce que les statisticiens ont montré avec les combinaisons de règles de la Western Electric même en condition optimale de respect des hypothèses de distribution normale des résultats de CIQ [2, 4]. La problématique des faux rejets, notamment en période d’introduction de nouveaux lots de CIQ et ou de réactifs, offre ainsi une transition pour aborder l’intérêt de l’inférence bayésienne. L’inférence bayésienne a en effet vocation à lisser les imperfections de l’approche conventionnelle lors de l’implémentation de nouveaux lots de CIQ et ou de réactifs. Concrètement, l’inférence bayésienne permet d’éluder la problématique des phases probatoires [5]. Quand il y a encore peu de valeurs de CIQ, les valeurs moyennes cibles des cartes de contrôle sont entachées d’une grande incertitude. Or par définition, en approche conventionnelle, les cibles des cartes de contrôle sont considérées comme constantes. L’intérêt fondamental de l’inférence bayésienne réside dans le fait que la valeur moyenne cible est considérée comme étant une variable aléatoire [5]. Il faut noter, comme les auteurs le notifient, l’importance d’avoir réalisé une estimation la plus robuste possible de ses propres SD de fidélité intermédiaire qui n’ont pas lieu d’être révisés en première intention si il n’y a pas eu de changement de matrices aussi bien de CIQ que de réactifs. Sur cette base, l’inférence bayésienne prédictive, adossée d’une part, aux informations a priori du fournisseur à type de CV de fidélité intermédiaire maximum acceptable et de valeurs cibles a priori du lot de CIQ du fournisseur et, d’autre part, aux performances analytiques du laboratoire (propre SD de fidélité intermédiaire) va statuer sur le niveau de contrôle statistique de la méthode. L’inférence bayésienne indique si la nouvelle valeur de CIQ se situe dans la distribution prédictive la plus probable (higher predictive distribution[5]). La distribution de la moyenne se caractérise par sa propre variance et la variance de la moyenne a une valeur a posteriori qui va décroître au fur et à mesure que sont intégrés de nouveaux points de CIQ [5]. Ainsi, le poids des informations a priori s’estompe très rapidement au profit des caractéristiques propres du laboratoire. Les limites de la carte de contrôle sont définies par la variance prédictive sur la moyenne [5]. En termes de spécification mise sous contrôle en approche bayésienne, il faut souligner l’étroite relation entre les CV maximum acceptables des fournisseurs (importance du chapitre 5.5.1.2 de la norme au sujet de la vérification des méthodes en portée A !), sur lesquels s’appuie l’inférence bayésienne, et l’état de l’art des méthodes défini à partir des retours des CIQ externalisés dans l’esprit du modèle 3 de la conférence de consensus de Milan. L’outil bayésien décrit est capable de détecter non seulement des « outliers » mais également des dérives franches continues de la valeur moyenne des cartes de contrôle d’une taille de 2 SD de fidélité intermédiaire ainsi que des accroissements significatifs de la variance des méthodes [5].

Liens d’intérêts

Intervenant régulier aux séminaires de formation sur l’accréditation soutenus par la société Werfen et intitulés « L’accréditation n’est pas une punition » http://www.werfen-accred.fr/.

Licence Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution - Pas d'Utilisation Commerciale - Pas de Modification 4.0 International