Le Coefficient Kappa

Introduction   

Définition de l'accord

Accord entre 2 juges

Accord entre plusieurs juges

Limites du test

Usages du test

Applications pratiques

Conclusion

Annexes

Références

 

Téléchargement 

Liens Internet

Note de l'auteur

Contact

Définition de l'accord

L’accord entre des jugements est défini comme la conformité de deux ou plusieurs informations qui se rapportent au même objet. Cette notion implique l’existence d’une liaison entre les variables, exige des variables de même nature et un appariement des jugements.

Dans le cas de jugements catégoriels, c’est à dire que la variable aléatoire est discrète et mesurée sur une échelle à r niveaux, le taux d’accord ou de «concordance» est estimé par le coefficient Kappa proposé par Cohen[1] en 1960.

 Il faut opposer à la notion d’accord ou d’agrément, la notion d’association qui ne tient pas compte du sens de la liaison et qui n’exige pas des variables de même nature. Il existe différentes statistiques d’association, en particulier le coefficient f de Kendall[2] et le coefficient C de Cramér[3].

 

Pour tout savoir ou presque sur le test statistique Kappa...