Apparence : |
Elle est exprimée par l'utilisateur. Celui-ci, après avoir inspecté l'instrument, émet un jugement subjectif sur sa Il s'agit ici d'un simple jugement superficiel, fonction de l'utilisateur. Ce n'est pas parce qu'un instrument semble valide qu'il l'est réellement ! |
Contenu : |
Etape qualitative désormais exigée au début de la création d'une échelle qui demande à déterminer les items du contenu de l'échelle en sondant des experts sur ce qui est important. Aujourd'hui les patients sont considérés comme ces experts. |
Contre critère : |
Le phénomène mesuré est évalué à la fois par l'échelle étudiée et par un critère pris comme référence (Gold Standard). Un nombre suffisant de sujets étant évalués de manière indépendante par les deux instruments, on mesure l'intensité du lien statistique entre les deux. C'est le coefficient de corrélation. La validité est dite concomitante lorsque les deux mesures se font simultanément. La validité est dite prédictive lorsque le phénomène est mesuré d'abord par l'échelle puis par le critère de référence après plusieurs semaines à plusieurs mois. |
Construit : |
Il s'agit de renforcer la validité d'une échelle mesurant un phénomène en corrélant cette échelle à des hypothèses théoriques successives. Validité de convergence : on cherche si les scores de l'échelle étudiée sont fortement corrélés avec les variables théoriques du même champ d'évaluation. Validité de divergence : on cherche si les scores de l'échelle étudiée sont faiblement corrélés avec les variables théoriques d'un champ d'évaluation différent. Validité discriminante : On cherche à savoir si pour deux populations présentant des caractéristiques bien différentes, on obtient des résultats significativement différents. |
Reproductibilité intra-juge : |
La fidélité d'un test décrit la stabilité des scores obtenus par un individu lorsque celui-ci est évalué en deux occasions différentes. Ici, un seul juge cote deux fois (ou plus) chaque patient à quelques jours de distance, l'état du sujet restant inchangé durant ce laps de temps. 1) Mesure quantitative : 2) Mesure qualitative : Deux coefficients, Kappa ou Kappa pondéré |
Reproductibilité inter-juge : |
La fidélité d'un test décrit la stabilité des scores obtenus par un individu lorsque celui-ci est évalué en deux occasions différentes. Ici, chaque patient est coté au même moment par deux (ou plus) juges différents, de manière indépendante. 1) Mesure quantitative : 2) Mesure qualitative : Deux coefficients, Kappa ou Kappa pondéré |
Test-retest : |
La fidélité d'un test décrit la stabilité des scores obtenus par un individu lorsque celui-ci est évalué en deux occasions différentes. C'est ici une situation semblable à la fidélité intra-juge, mais cette fois le patient s'auto-évalue lui-même, il est donc son propre juge (exemple d'une échelle de douleur). 1) Mesure quantitative : 2) Mesure qualitative : Deux coefficients, Kappa ou Kappa pondéré |
Cohérence interne : |
Le coefficient Alpha de Cronbach évalue la cohérence interne d'un ensemble Cette cohérence interne est particulièrement
évaluée lors de la construction |
Sensibilité au changement : |
Un instrument est dit sensible au changement s'il est capable de mesurer avec précision les variations en plus ou en moins du phénomène mesuré. L'instrument est le plus souvent utilisé pour mesurer les changements résultant d'une action thérapeutique. Il s'agit de vérifier la capacité d'une échelle à détecter des changements petits mais cliniquement importants. Quand un outil de mesure est sensible au changement, le score s'améliore avec l'amélioration de l'état du patient, le score s'aggrave avec la détérioration de l'état du patient et le score ne varie pas si l'état du patient reste stable. |
Bien choisir ses échelles : (Par le Pr. Serge Poiraudeau) Les échelles d'évaluation rapportées par le patient sont des instruments permettant d'analyser et de quantifier des concepts comme la douleur, la fonction, les attentes, les peurs et croyances, l'estime de soi, les stratégies d'adaptation, l'anxiété, la dépression.. Ces échelles mesurent donc des concepts qui peuvent être très différents mais elles doivent avoir des qualités métrologiques qui sont communes. Parmi celles-ci, la plus importante est la validité de contenu qui permet de s'assurer que ce qui va être mesuré est ce qui est important pour le patient. Cette qualité métrologique, largement négligée dans la construction des échelles d'évaluation des années 1980, 1990 et 2000 a été remise à l'ordre du jour par la Food and Drug Administration qui exige qu'une analyse qualitative auprès des patients soit faite en amont de la construction d'une échelle d'évaluation. Sans cette étape, un instrument d'évaluation rapporté par le patient ne peut théoriquement pas être le critère principal d'efficacité d'une étude. Une fois la phase d'analyse qualitative réalisée, la sélection des items utilise le plus souvent une méthode d'accord d'experts (Delphi), experts comprenant des patients. Lorsque les items ont été sélectionnés, on s'assure essentiellement de la validité de construit (l'instrument mesure bien le concept qu'il est sensé mesurer), la reproductibilité (la fiabilité) et la capacité à capter un changement significatif pour le patient (effet taille, réponse standardisée moyenne). Ces étapes de validation sont donc longues et peu d'échelles, même celles largement utilisées, ont été testées de façon totalement rigoureuse. L'intérêt de ce site est donc de
proposer aux chercheurs et aux cliniciens les références bibliographiques concernant la fiabilité des échelles qu'ils se
proposent d'utiliser. |
4 critères de qualité :
|
|||||
Les échelles évaluent en général :
1. La déficience : un symptôme (douleur, force, spasticité ...) |
Exemple : je suis paraplégique
1. Déficience : paralysie des membres inférieurs |