Régression linéaire et test sur la pente


La régression linéaire permet de modéliser une variable réponse Y continue à partir d’une variable explicative X continue.

Le modèle associé à la régression linéaire s’exprime au travers de la formule suivante,

Y = aX + B + ε

La plus populaire de toutes les méthodes d'estimation des coefficients a et b; demeure celle des moindres carrés.

Le R (ou coefficient de correlation) offre un indicateur statistique de la modélisation du modèle et notamment de sa capacité à coller aux données réelles utilisées pour le construire. Le R varie entre [-1,1] et plus il s’approche de ses bornes, meilleur est le modèle.

Le test de régression sur la pente permet de tester la validité du modèle par rapport au modèle Y "constant" où a est = à 0 (H0). Le test de régression permet, en outre, de vérifier la validité d'un modèle pour lequel a serait ≠ 0.


007.png

Par ailleurs, avec un modèle du type H0 : a = 0, ce test donne des résultats identiques au test de Bravais-Pearson sur le coefficient de correlation pour lequel H0 : R = 0. Le test relatif à l'ordonnée à l'origine donnera une valeur différente étant donné que ce test compare la validité du modèle sans ordonnée à l'origine (Y = aX) avec l'original, tandis que le test de la pente compare la validité du modèle sans prendre la variable X en compte (Y = b) avec l'original.

Remarque

Si la condition de normalité n'est pas respectée, on s'orientera vers un test non-paramétrique (pour variable indépendante ordinale) tel que le test de Spearman ou la régression logistique.




< Précédent   Retour à la table des matières   Suivant >