Le Coefficient Kappa |
|
Introduction Si nos jugements reflètent notre pensée, ils sont plus rarement en accord avec ceux d’autrui. Cette
variabilité inter-individuelle bénéfique pour l’Homme, est cependant pénalisante
dans de nombreuses disciplines scientifiques, où il est souvent nécessaire
d’évaluer et d’améliorer l’accord entre des informations de même nature
appliquées au même objet dans une exigence de contrôle de la qualité ou
d’assurance qualité. Le test non paramétrique Kappa (K) de Cohen[1] permet de chiffrer l’accord entre deux ou plusieurs observateurs ou techniques lorsque les jugements sont qualitatifs, contrairement au coefficient u de Kendall[3] par exemple, qui évalue le degré d’accord entre des jugements quantitatifs. Prenons
le cas dans le domaine médical où deux ou plusieurs praticiens examinant le même
patient proposent des diagnostics différents ou des décisions thérapeutiques
différentes. En l’absence d’une référence, cette multiplication des avis
n’apporte pas la sécurité attendue d’un parfait accord diagnostique ou thérapeutique
pour le médecin traitant et le patient. Il est donc important que l’accord
dans une équipe de travail ou entre plusieurs équipes soit le meilleur
possible pour garantir la qualité et la continuité des soins. Une
solution consiste ici à réaliser une séance de «concordance» entre les médecins
pour estimer leur taux d’accord par le coefficient Kappa et d’étudier leurs
désaccords pour y remédier. Plus généralement, le test statistique Kappa est utilisé dans les études de reproductibilité qui nécessitent d’estimer l’agrément entre deux ou plusieurs cotations lorsqu’on étudie une variable discontinue.
|
Pour tout savoir ou presque sur le test statistique Kappa... |