UOH - Psychométrie et Statistique en L2 - 4. Régression linéaire multiple : coefficients multidimensionnels
Accueil arrow Comprendre arrow Statistique : Tester l'association de variables arrow 4. Régression linéaire multiple : coefficients multidimensionnels
4. Régression linéaire multiple : coefficients multidimensionnels Convertir en PDF Version imprimable Suggérer par mail
Appréciation des utilisateurs: / 2
FaibleMeilleur 
Écrit par Éric Raufaste   
Index de l'article
1. Ajustement multilinéaire d'un nuage de points
2. Coefficients de la régression multiple

Objectifs. Apprendre à réaliser concrètement une régression linéaire multiple avec un logiciel de statistique. Introduire en L2 les premiers problèmes que soulève la présence simultanée de plusieurs prédicteurs dans une analyse.

Prérequis. Approche intuitive de la statistique inférentielle, l'Hypothèse nulle ; La décision statistique; Test de la liaison entre deux variablesRégression simple approche descriptive (L1) ; Régression simple : approche inférentielle (L2).

Résumé.  L'article part du principe que l'étudiant dispose d'un logiciel de statistique pour réaliser les calculs. On présente les traitements à réaliser et comment interpréter les principales données produites par les logiciels. 

 
 

1. Ajustement multilinéaire d'un nuage de points

1.1. Nuage de points multidimensionnel

Lorsque nous voulons régresser une VD sur k prédicteurs, nous ne cherchons plus seulement à modéliser un nuage de points dans un plan (2 dimensions) mais plus généralement dans un espace à k dimensions. Par exemple, si nous ajoutons un nouveau prédicteur à la régression des articles précédents, F11VN, nous cherchons en fait à modéliser un nuage de points dans un espace à trois dimensions :

 

 


1.2. Ajustement multilinéaire

Le fait d’être dans un espace à k dimensions ne change pratiquement rien au fond des concepts vus plus haut. Ainsi, imaginons un espace à 3 dimensions, c'est-à-dire où chaque point est défini par sa valeur sur chacune des trois variables X0, X1 et Y, l’équation de la droite qui s'ajustera le mieux au nuage de points dans cet espace s’écrira

Y = b0b1X1 + b2X2

Nous n’avons plus une « droite de régression » mais un « plan de régression » :

 

 

 

Ou encore plus généralement, dans un espace à k dimensions, nous avons un « hyperplan de régression » :

Yb0 + b1X1 + b2X2 + … + bkXk

Cela devient franchement difficile à se représenter mentalement mais cela n’a en pratique qu’une importance mineure car les principes restent les mêmes.



Dernière mise à jour : ( 27-01-2013 )
 
< Article précédent   Article suivant >

Citation

In research, it is better to ask, "What is the best way to test my hypothesis?" rather than "Which statistical test is appropriate for these data?".
  Richard Gonzalez (1994).
 

Sondage

Pour étudier la statistique et la psychométrie en L2, ce site est...
 
© 2021 UOH - Psychométrie et Statistique en L2
Joomla! est un logiciel libre distribué sous licence GNU/GPL.