UOH - Psychométrie et Statistique en L2 - 10. Évaluer le risque alpha
10. Évaluer le risque alpha
Écrit par Éric Raufaste   

Objectifs. Donner le principe général de calcul du risque alpha

Prérequis. Article sur la statistique intuitive, Distributions théoriques, représentations des distributions, Probabilités, L'hypothèse nulle

Résumé. Le risque de Type I ou risque alpha est le risque de se tromper si l'on rejette H0, l'hypothèse nulle. Dans cet article, on commence par donner un exemple simple où l'on peut calculer directement ce risque sans passer par la notion de distribution. Puis on expose la logique générale de l'évaluation formelle de ce risque telle qu'on la rencontre habituellement dans les tests statistiques.

 


1. Rappels préalables

1.1. Bref retour sur l'hypothèse expérimentale et l'hypothèse nulle.

Dans l'article sur l'hypothèse nulle, nous avons vu qu'il s'agit d'une prédiction faite sur le comportement d'une réalité donnée, prédiction ne supposant pas d'autre facteur actif qu'une simple répartition aléatoire, au hasard, des événements possibles.

L'hypothèse nulle s'oppose donc par principe à l'hypothèse expérimentale, laquelle suppose généralement un mécanisme dont le chercheur suppose qu'il est la cause du phénomène à expliquer (par exemple, que si le patient ne se souvient pas de ce qu'il a fait tel jour, c'est parce que le rappel de ce souvenir subit l'interférence de tous les autres jours).

Lorsque le chercheur construit une expérience à partir d'une hypothèse expérimentale théorique qu'il cherche à vérifier, il dispose donc d'au moins deux prédictions différentes : la prédiction qu'il dérive de l'hypothèse expérimentale et celle qu'il dérive de l'idée que seul le hasard intervient dans la situation. Il va donc recueillir des données qui doivent lui permettre ensuite de trancher entre les deux hypothèses.

Malheureusement, dans les sciences expérimentales, les choses ne sont pas aussi simples que dans les sciences exactes, et l'on dispose très rarement d'une preuve directe en faveur d'une hypothèse, ou contre une hypothèse, mais seulement de faits qui sont plus ou moins compatibles avec l'un ou l'autre des deux hypothèses.

1.2. Bref retour sur l'erreur de type I et le risque alpha.

Une fois qu'il a recueilli ses données, le problème du chercheur est alors le suivant : comment, à partir d'un ensemble de données, évaluer à quel degré ces données sont compatibles avec les deux hypothèses. Une fois cette évaluation réalisée, le chercheur devra décider s'il peut considérer l'hypothèse expérimentale comme acceptable ou si l'on peut considérer l'hypothèse nulle comme acceptable. Bien sûr, si l'hypothèse nulle est acceptable, cela va contre l'hypothèse expérimentale en vertu du principe de parcimonie puisque l'hypothèse nulle est par principe plus simple que l'hypothèse expérimentale : Si H0 est compatible avec les données, il devient difficile de justifier de recourir à une hypothèse plus compliquée.

 On voit donc que toute la problématique du test expérimental peut se ramener ultimement à un problème de décision de rejeter ou non l'hypothèse nulle*.

Puisqu'on est dans un problème de décision, et qu'il existe toujours des risques de se tromper, quatre cas sont possibles : je rejette H0 et j'ai raison; j'accepte H0 et j'ai raison; je rejette H0 et j'ai tort; j'accepte H0 et j'ai tort. Les deux derniers cas correspondent respectivement aux risques alpha et beta.

Pour prendre la décision qui nous intéresse, on va donc chercher à réduire le plus possible le risque alpha (le risque beta est moins intéressant au niveau L2, il sert pour des cours plus avancés). Pour ce faire, nous allons essayer de calculer la probabilité de nous tromper en rejetant H0. C'est cette probabilité que nous prendrons alors comme estimation du risque alpha.

*Rappelons ici une fois de plus qu'on n'accepte jamais une hypothèse générale empirique puisque l'on sait depuis Popper que les hypothèses générales ne peuvent être que réfutées et jamais démontrées vraies. Et par conséquent on ne considère jamais que H0 est vraie mais seulement qu'elle est acceptable

1.2. Un exemple simple du calcul du risque alpha.

Supposons que je veuille tester si une pièce est truquée. Je la jette, disons, 10 fois en l'air. Chacun sait que si elle n'est pas truquée, il y a une chance sur deux qu'elle retombe sur pile et une chance sur deux qu'elle retombe sur face. Une autre façon de le dire est de prévoir que si je jette la pièce en l'air 1000 fois, elle tombera environ 500 fois sur pile et environ 500 fois sur face. Cette prédiction ne fait appel à aucun autre mécanisme hypothétique que le seul « effet du hasard ». C'est donc un cas d'hypothèse nulle.  À l'inverse, l'hypothèse que la pièce est truquée prédit qu'ultimement la pièce va tomber toujours sur pile ou toujours sur face (on pourrait avoir des trucages plus sophistiqués mais admettons cela pour l'exemple).

 

Supposons maintenant qu'ayant lancé 10 fois la pièce en l'air pour tester l'idée qu'elle pourrait être truquée, j'observe 10 fois le résultat pile. La probabilité d'avoir 10 fois de suite pile par hasard peut se calculer facilement car à chaque lancer j'ai une chance sur deux d'avoir pile. Les lancers étant supposés indépendants, les probabilités à chaque tirage se multiplient et j'ai donc ½×½×...×½, soit 1 sur 210 ; Autrement dit, il y a une chance sur 1024 d'observer un tel résultat si la pièce n'est pas truquée. Autrement dit, si je rejette  l'hypothèse nulle, le risque de me tromper est très légèrement inférieur à 0,001. Comme on note conventionnellement p le risque alpha, nous écrirons donc " p < 0,001 ". Ou encore si nous sommes dans un article scientifique conforme aux normes internationales de psychologie, "p<.001".

 

Bon, en apparence c'est simple. Mais en réalité ce n'est simple que parce que nous sommes dans un cas très particulier où l'on sait calculer directement la probabilité de l'hypothèse nulle. Nous allons maintenant étudier la procédure formelle de calcul qui s'applique dans le cas général, lorsque l'on ne sait pas calculer directement le risque alpha.

2. La démarche générale d'évaluation du risque alpha

Nous renvoyons le lecteur aux articles sur Distributions théoriques, ainsi que celui sur représentations des distributions pour réactiver leurs connaissances sur le sujet.

2.1. La notion de distribution observée.

Dans l'immédiat, nous nous contenterons de rappeler qu'une distribution observée correspond grosso modo à la proportion d'observations qui tombent dans chacun des intervalles de valeurs possibles. Par exemple, si j'imagine un test d'aptitude intellectuelle comprenant 50 exercices, et que je compte un point par exercice réussi, chaque sujet obtient un score compris entre 0 et 50. Si je regroupe les valeurs possibles par intervalles de 5, cela me donne par exemple les intervalles 0-5; 6-10; 11-15 ; ... ;  46-50.

 

En pratique, on va par exemple constater que les individus dont le score tombe dans l'intervalle 0-5 ou 46-50 sont proportionnellement très rares. Au contraire les scores qui tombent les intervalles 20-25 et 26-30 sont de loin les plus fréquents, représentant à eux seuls par exemple 50% des observations.

Nous avons donc là une distribution observée.

2.2. La notion de distribution théorique.

Supposons, que l'on sache que dans une situation donnée, un effet quelconque résulte de l'accumulation d'un grand nombre de petits effets aléatoires. Par exemple, si l'on prend la capacité générale à résoudre des problèmes logico-mathématiques inconnus, on sait que cette capacité proviendra de la conjonction d'une multitude de petits facteurs comme la vitesse de circulation de l'influx nerveux dans le cerveau, le temps passé à s'entraîner sur ce type de problème, l'état de fatigue du sujet, le fait que ses parents possédaient eux-mêmes une certaine aptitude générale à traiter cette classe de problèmes, la qualité et la quantité de nourriture reçue pendant la grossesse de la mère, etc. Alors on peut prouver mathématiquement qu'une telle conjonction de facteurs aléatoires produira une distribution de type normale ou gaussienne. Autrement dit les observations que l'on pourra faire devraient se répartir selon une courbe en cloche dite courbe de Gauss

Bien entendu, on peut avoir d'autres présupposés théoriques, et donc construire mathématiquement d'autres distributions théoriques. À chacune de ces distributions théoriques correspondent un ensemble de postulats de départ qui, s'ils sont respectés, induisent une distribution de la forme correspondante. Les plus connues pour nous étant probablement la loi du t de student, la loi du F de Fisher, la loi du Chi-deux.

2.3. La distribution théorique correspond à l'hypothèse nulle parfaite

Pour la suite de la démarche, nous allons partir du principe que la distribution théorique correspond à la distribution théorique de l'hypothèse nulle.

En effet, les lois théoriques ignorent totalement l'hypothèse expérimentale du chercheur et ne tiennent compte que d'une distribution aléatoire dans les conditions étudiées. Si l'on admet que les postulats d'une distribution théorique (ou loi) devraient s'appliquer dans la situation étudiée, nous pouvons alors associer directement la distribution théorique et la distribution que l'on observerait idéalement si l'hypothèse nulle  était vraie.

Il nous reste à trouver un moyen de comparer la distribution théorique, qui représente l'hypothèse nulle, et la distribution observée, qui représente la réalité. La suite de la démarche va consister à calculer la probabilité d'avoir les valeurs observées dans l'hypothèse où la loi théorique est valide. Et nous pourrons alors utiliser cette probabilité comme mesure du risque alpha.

La clé de ce calcul consiste alors à observer que...

2.4. Les paramètres d'une distribution théorique peuvent être associés à une probabilité

2.4.1. Principe

Prenons l'exemple de la loi de distribution dite normale. On sait que la loi normale est caractérisée par deux paramètres, sa moyenne μ et son écart-type σ.

Connaissant ces deux paramètres, et sous l'hypothèse que la distribution est effectivement normale, on peut alors dire que 68% des observations seront comprises entre la moyenne moins la valeur d'un écart-type et la moyenne plus la valeur d'un écart-type. De même 95% des observations seront comprises dans l'intervalle de deux écarts-types autour de la moyenne. Ou, ce qui revient au même, que moins de 5% des observations seront situées à plus de deux écarts-types de la moyenne.

Là où l'information devient intéressante pour notre sujet, c'est que l'on peut raisonner aussi dans l'autre sens pour, à partir de la valeur d'une observation particulière, calculer la probabilité de rencontrer une telle valeur. Si cette probabilité est trop faible on tendra alors à rejeter l'hypothèse nulle (le hasard explique difficilement qu'on ait observé cette valeur) et sinon on acceptera l'hypothèse nulle (le hasard pourrait facilement expliquer cette observation).

Ce type de raisonnement s'applique pour la loi normale mais aussi pour toute autre loi dont on connait les paramètres : loi du t de student, Loi du F de Fischer, Loi du Chi-deux....

2.4.1.Exemple

Supposons que nous voulons savoir si notre échantillon de données a une distribution normale. On sait que la forme d'une distribution normale est symétrique. On peut donc calculer à partir des valeurs de l'échantillon une statistique qui décrit à quel point notre échantillon est asymétrique. Une asymétrie de 0 correspond à une distribution parfaitement symétrique, une asymétrie de 1 correspond à une déviation vers la droite, une asymétrie de 2 est encore plus biaisée à droite, une asymétrie de -3 est encore plus biaisée mais à gauche, etc.

Cette statistique d'asymétrie suit elle-même une distribution normale, c'est-à-dire que si l'on calculait cette statistique pour une multitude d'échantillons tirés d'une distribution symétrique (par exemple on extrait aléatoirement 1000 échantillons de données de la population symétrique, et on obtient donc 1000 valeurs de la statistique d'asymétrie), la distribution des valeurs d'asymétrie suivrait à peu près une courbe de Gauss de moyenne 0 et d'écart-type 1.

Or, pour une valeur donnée qui suit une loi normale, on peut savoir quelle est la probabilité de tirer par hasard une valeur, plus petite (ou inversement, plus grande), ou plus éloignée de la moyenne, ou au contraire plus près de la moyenne. Cette probabilité correspond aux pourcentages d'observations qui dans la distribution sont inférieures (resp. supérieures) ou plus éloignées (resp. plus près) du centre de la distribution. Nous renvoyons à l'article sur la loi normale pour plus de détails sur la distribution normale). 

Partant de là, si notre échantillon donne une valeur d'asymétrie disons de 4, on peut calculer que la probabilité de notre échantillon soit issu d'une population symétrique est d'environ p =0,00006. Dans ce cas, il est difficile de croire que notre échantillon est issu d'une population symétriquement distribuée.

Voyons maintenant de plus près le calcul de probabilité associé à la fonction normale, car il va servir de modèle pour tous les autres calculs de probabilité.

 

 

3. Calculer alpha par la loi normale

3.3. Distribution normale d’un échantillon réel

Soit une variable V quelconque contenant une série de données. Cette variable a une moyenne m  et un écart-type s. Elle a aussi une distribution, à savoir que les effectifs se répartissent d’une certaine façon sur l’ensemble des valeurs possibles. Ce que l’on voit classiquement au moyen d’un histogramme comme celui-ci-dessous, qui représente les 863 notes obtenues à l’épreuve de mathématique du concours d’entrée dans une grande école d’ingénieurs (Il s’agit de données réelles que nous avons entrées dans une variable nommée « Math »).
 

z01.png

Sur l’histogramme, on voit ici apparaître en rouge l’allure de la courbe normale théorique la plus proche de la distribution de la variable V. Rappelons qu’une distribution normale théorique est caractérisée par deux paramètres, sa moyenne μ et son écart-type σ. Il suffit donc de connaître la moyenne et l’écart-type de l’échantillon pour connaître l’allure de la courbe normale qu’aurait la distribution de la population d’origine en supposant qu’elle soit normalement distribuée. Dans notre échantillon, La moyenne est m=10.0368 et l’écart-type est s=1.644482. On peut donc calculer la distribution théorique ayant ces caractéristiques là et la comparer à la distribution observée dans l’échantillon.

 

Il va de soi que toutes les distributions d’échantillons ne sont pas normales, ne serait-ce que parce que les populations dont sont extraits les échantillons ne sont pas elles-mêmes toujours normales. Ainsi par exemple si l’on traçait la distribution des revenus en France, on obtiendrait une courbe tout à fait différente, ne serait-ce que parce que la distribution normale est symétrique autour de la moyenne alors que les revenus ne le sont pas.

 

On peut bien entendu s’interroger sur la meilleure façon de décider si une distribution d’échantillon peut être considérée comme normale ou non mais nous le verrons plus loin. Pour le moment nous admettrons que la présente distribution peut être considérée comme normale.

 

 

3.2. Obtention de notes z : la centration-réduction


Créons maintenant une nouvelle variable, appelée zMaths, par transformation de la variable Maths. Cette transformation sera ce qu’on appelle une standardisation, ou encore centration-réduction.
La centration consiste pour chaque observation, à soustraire la valeur de la moyenne. Elle a pour effet que la nouvelle variable aura pour moyenne 0. Les observations qui dans l’ancienne variable avaient une valeur moindre que la moyenne vont se trouver avec des valeurs négatives tandis que celles qui étaient au-dessus de la moyenne vont se trouver avec des valeurs positives.
La réduction consiste à diviser le résultat de la centration par la valeur de l’écart-type. Elle a pour effet que l’écart-type de la nouvelle variable est 1.
Ainsi la nouvelle variable a pour moyenne 0 et pour écart-type 1. C’est que l’on appelle une « note z » et c’est d’ailleurs pour cela que l’on a appelé ici la nouvelle variable zMaths. Voici l’histogramme de la variable zMaths :
 

z02.png

Nous avons toujours le même nombre d’observations mais la distribution est maintenant centrée sur 0 et le nouvel écart-type est 1, ce qui affecte l’aplatissement de la courbe mais pas la symétrie autour de la moyenne. D’ailleurs si nous centrons-réduisons une variable non normale, la transformée ne sera pas normale non plus. 

L’intérêt de travailler avec des notes z est que nous pouvons maintenant mettre directement les valeurs de la variable en relation avec les propriétés connues de la loi normale. C’est ce que nous allons faire maintenant et cela va nous permettre de connaître les valeurs-p associées à un échantillon.

 

3.3. Obtention des valeurs-p à partir des notes z

Tout le raisonnement qui suit n’est valable que dans la mesure où la distribution de la population peut raisonnablement être considérée comme normale. Nous prendrons la moyenne de l’échantillon comme estimateur de la moyenne de la population, et l’écart-type de l’échantillon comme estimateur de l’écart-type de la population. À partir de là, puisque nous avons centré-réduit, nous pouvons considérer que notre variable zMaths constitue un échantillon extrait d’une population dont la moyenne est 0 et l’écart-type 1. Sous l’hypothèse que la distribution de la population globale est normale, nous pouvons donc assumer que la variable zMaths est distribuée comme une note z normale.

 3.3.1. Rappel de quelques propriétés de la loi normale

Que savons-nous de la distribution des notes z ? Beaucoup de choses. Pour le comprendre nous allons examiner les propriétés de la courbe en rouge, que l’on appelle la fonction de « densité de probabilité ». La surface sous la courbe représente la façon dont les effectifs sont répartis.

La première propriété est la symétrie : la loi normale est symétrique autour de la moyenne, donc autour de 0 pour les notes z. Par conséquent 50% des notes seront en dessous de 0 et 50% seront au-dessus. Sur le graphique ci-dessous, la zone grisée représente la surface telle que les notes sont sous le critère X qui vaut ici zéro. La valeur p=.50 traduit le fait que 50% des observations se trouveront sous cette valeur.
 

z03.png

La symétrie à une autre conséquence : si nous prenons une valeur positive X quelconque, la probabilité d’avoir une note supérieure à X sera exactement égale à la probabilité d’avoir une note inférieure à -X.  Dans l’exemple ci-dessous, nous avons pris la valeur +1. On voit que la probabilité d’avoir une note supérieure à +1 est p=.158655 (figure de droite). Si nous prenons la valeur -1 et que nous regardons la probabilité d’avoir une note plus basse nous trouvons encore p=.158655 (figure de gauche ci-dessous).

z04.png

En les cumulant, on sait donc que la probabilité d’avoir par hasard une note dont la valeur absolue dépasse 1 (c’est-à-dire est plus grande que 1 ou plus petite que -1) est .317311 :

 

z05.png

Il est très important de distinguer ce qui se passe à l’intérieur ou à l’extérieur de l’intervalle ainsi défini. En effet, comme on le voit sur la courbe, le centre de l'intervalle correspond aux valeurs compatibles avec le hasard. Plus on s’éloigne du centre et moins il est probable d’avoir obtenu la note par hasard. Si l’on a observé une valeur zobs et que l'on prend comme bornes de l’intervalle les valeurs –zobs et +zobs, les valeurs à l'intérieur de l'intervalle corroborent l'hypothèse nulle. Au contraire, celles à l’extérieur de l’intervalle sont les valeurs qui correspondent à un risque de se tromper en rejetant l’hypothèse nulle. Autrement dit, la surface sous la courbe à l’extérieur de l’intervalle est la probabilité que l’hypothèse nulle soit vraie compte tenu de la valeur z observée dans l’échantillon. C’est donc la valeur-p que nous cherchons pour l’inférence statistique. Plus elle est faible, ou ce qui revient au même, plus l’intervalle est grand, et plus le risque pris est faible.

 

Comment connaître la surface sous la courbe comprise à l’intérieur ou à l’extérieur de l’intervalle ?

 

Puisque la somme de toutes les probabilités fait 1.0 par définition, la région comprise entre les deux bornes -1 et +1 contient 100%-31,7%=68,3% des observations (p= .682689) : 

z06.png

Par le même raisonnement, on trouve que 95.5% des observations sont comprises entre -2 et +2 (rappelons que pour des notes z, 1 signifie 1 écart-type et 2 signifie 2 écarts-types. Autrement dit, il n’y a que 4.5% de chances d’observer par hasard une note z plus grande que 2 ou plus petite que -2. 

z07.png

À l’inverse, puisque nous sommes intéressés par le seuil alpha de 5% qui caractérise conventionnellement la significativité, on peut se demander quelle est la valeur de z qui ne laisse que 5% des observations à l’extérieur. Il s’agit de 1.96 :

z08.png

Donc si nous obtenons une statistique observée zobs, de type z (normale standardisée), dont la valeur absolue dépasse 1.96, nous avons un résultat significatif au seuil de 5%, autrement dit, il y a moins de 5% de chances qu’un échantillon ayant été extrait d’une distribution normale de moyenne 0 et d’écart-type 1 permette de calculer la note zobs. Nous dirons aussi que 1,96 est une valeur critique de z au seuil alpha de 5%.

On peut de la même façon calculer une valeur critique au seuil de 0.01 :  

z09.png


 

3.3.2. Test en unilatéral

Si l’on n’a qu'une hypothèse non directionnelle sur la valeur de z, on teste juste à quel point la valeur z observée s’écarte de 0, l'on doit prendre en compte pour le calcul de p, l’aire sous la courbe des deux côtés de la valeur critique (+z et –z). On le voit sur le graphique précédent par le fait que les deux queues de la courbe sont grisées. C’est pourquoi on qualifie un tel test de bilatéral.
Mais supposons que l’on ait une hypothèse directionnelle. Par exemple, lorsque d'après l’hypothèse expérimentale, la valeur attendue de z est positive tandis qu’une valeur négative réfuterait l’hypothèse. Dans ce cas, il ne serait pas juste de compter comme représentant un risque les valeurs sous la courbe mais seulement celles dans la queue opposée à l’attente de l’hypothèse expérimentale. Donc, et sous réserve que le résultat observé soit du côté prévu par l’hypothèse expérimentale, on peut retrancher du calcul final l’aire dans la queue du signe opposé au résultat attendu. Et puisque la distribution normale est symétrique, cela revient purement et simplement à diviser par deux la valeur-p qu’on avait obtenu en bilatéral. C’est alors un "test unilatéral". Cette possibilité peut ainsi faire passer un test du statut de non significatif en bilatéral (par exemple, p=.08) au statut de test significatif (car alors on a p=.08/2=.04 ce qui est significatif au seuil de 5%).

z10.png

Il est important de savoir que la possibilité de travailler en unilatéral est subordonnée au caractère symétrique de la loi, faute de quoi, il n’y a plus aucune légitimité à diviser par deux la valeur-p obtenue. 

  

4. Calculer alpha par le t de student, le chi-deux et le F

4.1. Le t de student

La distribution du t de student est légèrement différente de celle du z car elle est dérivée de cette dernière en examinant la distribution des échantillons de taille n que l'on va extraire d'une distribution normale. Elle admet donc un paramètre supplémentaire : le nombre de degrés de libertés (ddl=n-1). On pourrait dire que la courbe de densité de probabilité du t de student est essentiellement une déformation légère de la loi normale et plus le nombre de degrés de liberté est grand, moins la déformation est prononcée.
De ce fait, une fois qu’on a renseigné le nombre de degrés de liberté, si l’on dispose d’une note t de student, l’utilisation est rigoureusement la même que celle d’une note z. Le graphique suivant illustre une loi du t de student à 30 degrés de liberté. On voit que la valeur critique pour alpha=.05 en bilatéral est atteinte pour un t de 2.04, ce qui n’est pas très différent du 1.96 que l’on avait pour les valeurs z.

t01.png

Si l’on a moins de degrés de liberté, la valeur critique augmente, et réciproquement. Avec 500 degrés de liberté et au-delà, la valeur critique tombe à 1,96 et converge ensuite lentement vers cette valeur.

 

4.2. La loi du Chi-2

Comme son nom l’indique, la loi du Chi-2 sert à tester une valeur observée du chi-deux. Donc à calculer le risque pris si l’on décide de rejeter l’hypothèse nulle que les résultats soient le fait du hasard.
Cette distribution accepte un paramètre, le nombre de degrés de libertés. Rappelons que le chi-deux s’utilise lorsque l’on teste la répartition des effectifs dans une table de L lignes et C colonnes et que le nombre de degrés de liberté est alors (L-1)(C-1). En effet, plus la table est grande, et plus le chi-deux peut être élevé par pur hasard (car il y a plus de cases susceptibles de présenter des écarts entre effectifs observés et effectifs théoriques).

La figure suivante représente l’obtention de la valeur critique du chi-deux pour le seuil alpha=.05 avec 5 degrés de libertés (par exemple une table 2 lignes 6 colonnes). On voit que la valeur critique de chi-deux est 11.07 au seuil de p=.05.

k01.png

La figure suivante représente l’obtention de la valeur critique du chi-deux pour le même seuil alpha=.05 mais avec 10 degrés de libertés. 

k02.png

On voit que la valeur critique est maintenant de 18.30. C’est plus élevé qu’avec 5 degrés de liberté car contrairement à ce qui se passe dans l’utilisation des tables du t, le nombre de degrés de liberté ne dépend pas du nombre de sujets mais du nombre de cellules du tableau. Donc en dépit du même nom « degrés de liberté » les réalités sous-jacentes sont très différentes et influent différemment l’obtention des valeurs p.

 

Pour le reste l’idée est la même qu’avec les lois normales et du t à ceci près que l’absence de symétrie empêche de distinguer les tests en unilatéral ou bilatéral : On ne s’intéresse ici qu’à l’extrémité droite de la courbe : c’est la surface à droite de la valeur critique du Chi-deux qui doit être la plus réduite possible si l’on veut pouvoir rejeter l’hypothèse nulle.

 

4.3. La loi du F

La loi du F accepte deux paramètres, qui sont encore des degrés de libertés. Le premier paramètre est de même nature que les degrés de liberté de la loi du chi-deux. En effet, le F sert à comparer des moyennes, comme le t, mais dans un cas où peut y avoir plusieurs facteurs, et chaque facteur peut lui-même avoir plus de deux modalités. Le croisement des modalités des facteurs constitue donc un tableau en soi et ce premier degré de liberté résulte de ce croisement. Toutefois, le mode de calcul étant différent, l’influence du nombre de degrés de libertés sur la détermination des valeurs critiques ne fonctionne pas comme pour le chi-deux.

Le second paramètre dépend du nombre d’observations concernées par le test. C’est donc un degré de liberté de même nature que celui le test du t. D’ailleurs, lorsque l’on teste un t à un seul degré de liberté (comparaison de deux groupes), la valeur de F est en réalité simplement le carré du t de student que l’on aurait en faisant la même comparaison. Afin de l’illustrer, vous pouvez comparer la figure suivante, où l’on a un seul ddl pour le premier paramètre et 30 pour le second. On trouve alors comme valeur critique 4.170877. Avec deux groupes et 30 sujets, il faut donc que la statistique F atteigne cette valeur au moins pour que le test soit significatif au seuil alpha=5%. Or, vous pouvez remarquer que la racine carrée de 4.170877 est 2.042272, ce qui est bien la valeur critique que nous avions obtenue pour le t de Student à 30 degrés de liberté.
 

F01.png

Si maintenant, nous étudions la valeur critique de la loi du F toujours au seuil de 5% et toujours avec 30 ddl comme second paramètre, mais 6 ddl comme premier paramètre (par exemple nous testons un facteur à 7 modalités ou bien une interaction entre un facteur à 4 modalités et un facteur à 3 modalités) : 

F02.png

On voit bien que la distribution a changé de forme, tandis que la valeur critique est tombée à 2.42.

 

Comme dans le cas du chi-deux, l’absence de symétrie empêche de distinguer les tests en unilatéral ou bilatéral : On ne s’intéresse ici qu’à l’extrémité droite de la courbe : c’est la surface à droite de la valeur critique du Chi-deux qui doit être la plus réduite possible si l’on veut pouvoir rejeter l’hypothèse nulle. C’est pourquoi lorsque l’on n’a que deux groupes à comparer et une hypothèse orientée, il vaut mieux utiliser un t.



 

 

 

                                                                     *  *  *

 

Dernière mise à jour : ( 27-01-2013 )