1.régression Polynomiale
1.régression Polynomiale
1.régression Polynomiale
ue I 2021 – 2022
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 1 | 14
En général, le modèle spécifié par l’économiste est défini comme étant une maquette de la réalité ou
d’un phénomène sous forme d’équations dont les variables sont des grandeurs économiques.
A ce sujet, Lester C. Thurow note ceci : « Les équations décrivent à quoi ressemblerait le monde réel s’il
ressemblait à la théorie».
Il convient de noter également que le terme d’erreur 𝜺𝒕 [bruit, perturbation ou aléa] dénote de la
différence entre l’économiste et l’économètre. Il synthétise l’influence sur 𝑪𝒕 [variable expliquée] de
toutes les autres variables oubliées et des erreurs éventuelles de spécification de la forme fonctionnelle
dans le modèle spécifié par l’économiste. De plus, sa présence dans le modèle rend les paramètres 𝜶𝟎 et
𝜶𝟏 inconnus, on ne sait plus les calculer, il faut donc les estimer.
Dans les méthodes décrites ci-dessous, il y a presque toujours une variable privilégiée, en général appelée
variable à expliquer, ou variable réponse, et notée Y (il s’agit d’une variable aléatoire). Le but est alors de
construire un modèle permettant d’expliquer “au mieux” cette variable Y en fonction de variables
explicatives observées sur le même échantillon.
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 2 | 14
À la fois le plus simple, le plus ancien et le plus connu des modèles statistiques, il englobe
essentiellement :
la régression linéaire simple et multiple,
l’analyse de variance
et l’analyse de covariance.
Dans ce modèle, les variables explicatives (régresseurs ou facteurs) ne sont pas aléatoires (elles sont à
effets fixes). Pour pouvoir être exploité pleinement, ce modèle nécessite l’hypothèse de normalité des
erreurs, donc de la variable à expliquer (hypothèse gaussienne).
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 3 | 14
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 4 | 14
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 5 | 14
Quel que soit le modèle, ou le type de modèles, envisagé face à un jeu de données, quel que soit le
problème qu’il s’agit de traiter, une modélisation statistique ne peut sérieusement s’envisager que sur
des données “propres”, c’est à dire pré-traitées, afin de les débarrasser, autant que faire se peut, de tout
ce qui peut nuire à la modélisation : codes erronés, données manquantes, données aberrantes, variables
inutiles, variables redondantes... C’est cet ensemble de pré-traitements que nous décrivons dans ce
paragraphe. On notera que cette phase est parfois appelée datamanagement, autrement dit “gestion
des données”.
b. Analyse univariée
Cette phase, souvent fastidieuse, consiste à étudier chaque variable l’une après l’autre, afin d’en
connaître les principales caractéristiques et d’en repérer, le cas échéant, certaines anomalies.
Pour les variables quantitatives, on pourra faire un histogramme ou un diagramme en boîte et déterminer
des caractéristiques telles que le minimum, le maximum, la moyenne, l’écart-type, la médiane et les
quartiles. Cela peut conduire à supprimer une variable (si elle présente très peu de variabilité), à la
transformer (par exemple, en prenant son logarithme si elle est à valeurs positives et très dissymétrique),
ou encore à repérer des valeurs très particulières (que l’on devra, éventuellement, corriger ou éliminer).
Pour les variables qualitatives, on pourra faire un diagramme en colonnes des modalités et déterminer
les effectifs et les fréquences de ces dernières. Cela pourra encore conduire à supprimer une variable (si
tous les individus, ou presque, présentent la même modalité), ou à en regrouper des modalités “proches”
(si certains effectifs sont trop faibles).
Ces analyses univariées permettent également de prendre connaissance des données et de fournir
certaines indications pour la phase ultérieure de modélisation. Toutefois, il faut noter que ces analyses
peuvent être inenvisageables avec des données “fortement multidimensionnelles”, c’est-à-dire
comportant des centaines, voire des milliers, de variables ; on rencontre aujourd’hui de telles données
dans certains contextes particuliers.
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 6 | 14
c. Analyses bivariées
Ces analyses ont pour but d’étudier d’éventuelles liaisons existant entre couples de variables. Il peut
s’agir de deux variables explicatives, dont on soupçonne qu’elles sont fortement corrélées, dans le but
d’éliminer l’une des deux. Il peut aussi s’agir d’étudier les liens entre la variable à expliquer et chaque
variable explicative (de façon systématique), pour avoir une première idée des variables explicatives
susceptibles de jouer un rôle important lors de la modélisation. Enfin, ces analyses peuvent aussi
permettre de repérer des points aberrants (ou extrêmes) qui n’ont pas pu l’être avec les analyses
univariées.
Rappelons que, pour étudier la liaison entre deux variables quantitatives, on dispose, comme graphique,
du nuage de points (ou diagramme de dispersion) et, comme indicateur de liaison, du coefficient de
corrélation linéaire. Dans le cas d’une variable quantitative et d’une variable qualitative, on dispose du
diagramme en boîtes parallèles et du rapport de corrélation. Enfin, dans le cas de deux variables
qualitatives, on utilise en général un diagramme en colonnes de profils (profils-lignes ou profils-colonnes
selon ce que l’on souhaite mettre en évidence) et des indicateurs de liaison liés au khi-deux (coefficients
de Tschuprow ou de Cramer).
Il est d’autant plus important d’envisager, dans ces analyses préliminaires, de réaliser une analyse des
correspondances multiples (A.C.M.) entre variables qualitatives. Celle-ci permettra, le cas échéant, de
confirmer une liaison forte entre certains couples de variables et, si nécessaire, d’en éliminer quelques-
unes. L’A.C.M. permet également de regrouper certaines modalités d’une même variable lorsque celles-
ci apparaissent proches dans l’ensemble des résultats et, par suite, de simplifier les données. Enfin, le
tableau de Burt, fourni avec les résultats de l’A.C.M., permet de repérer des occurrences très faibles pour
certains croisements de modalités et d’envisager encore d’autres regroupements.
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 7 | 14
f. Bilan
Une fois réalisées toutes les étapes préliminaires décrites ci-dessus, on dispose de données “mises au
propre”, simplifiées, et dont on commence à connaître certaines caractéristiques. On peut, à partir de ce
moment-là, envisager leur modélisation.
Les modèles susceptibles d’être adaptés aux données considérées, parmi tous ceux décrits dans le
paragraphe précédent, sont nécessairement limités à ce stade-là. Ils sont fonction de la nature des
données ainsi que des questions posées par l’utilisateur, autrement dit de ses objectifs.
Insistons ici sur le fait que des données sont toujours recueillies (produites) par un utilisateur (biologiste,
informaticien, gestionnaire...) dans un but bien précis. La modélisation statistique doit avoir pour objectif
premier de répondre aux questions que s’est posé cet utilisateur lorsqu’il a décidé de recueillir les
données. Une collaboration entre utilisateur et statisticien est donc, à ce niveau-là, absolument
indispensable.
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 8 | 14
1. Estimer les valeurs des coefficients (𝛽0 ; 𝛽1 ; 𝛽2 ; … ; 𝛽𝑝 ) à partir d’un échantillon de données
(estimateur des moindres carrés ordinaires).
3. Mesurer le pouvoir explicatif du modèle dans sa globalité (tableau d’analyse de variance, coefficient
de détermination).
5. Tester l’apport marginal de chaque variable explicative dans l’explication de Y (test de significativité
de chaque coefficient).
6. Tester l’apport d’un groupe de variables explicatives dans l’explication de Y (test de significativité
simultanée d’un groupe de coefficient).
7. Pour un nouvel individu 𝑖 ∗ pour lequel on fournit la description (𝑥 ∗1 ; … ; 𝑥 ∗𝑝 ), calculer la valeur
prédite 𝑦 ∗ et la fourchette de prédiction.
8. Interpréter les résultats en mettant en avant notamment l’impact des exogènes sur l’endogène
(interprétation des coefficients, analyse structurelle).
9. Tester à postériori la validité du modèle c-à-d sa conformité avec les hypothèses de départ.
10. Si le modèle est satisfaisant, il peut servir à des fins explicatives ou prospectives sinon reprendre
toutes les étapes précédentes avec une nouvelle spécification de modèle.
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 9 | 14
INTRODUCTION
Jusqu'ici, nous nous sommes principalement concentrés sur les modèles linéaires. Les modèles linéaires sont
relativement simples à décrire et à mettre en œuvre et présentent des avantages par rapport à d'autres approches
en termes d'interprétation et d'inférence. Cependant, la régression linéaire standard peut avoir d'importantes
limitations en termes de puissance prédictive. En effet, l'hypothèse de linéarité est presque toujours
approximative et parfois médiocre. Nous voyons que nous pouvons améliorer les moindres carrés en utilisant
la régression ridge, le lasso, la régression en composantes principales et d’autres techniques. Dans ce contexte,
l’amélioration est obtenue en réduisant la complexité du modèle linéaire, et donc la variance des estimations.
Mais nous utilisons toujours un modèle linéaire, qui ne peut être amélioré que jusqu'à présent! Dans ce
chapitre, nous assouplissons l'hypothèse de linéarité tout en essayant de maintenir autant d'interprétabilité que
possible. Pour ce faire, nous examinons des extensions très simples de modèles linéaires tels que la régression
polynomiale et des step functions, ainsi que des approches plus sophistiquées telles que les splines, la
régression locale et les modèles additifs généralisés.
La régression polynomiale étend le modèle linéaire en ajoutant des prédicteurs supplémentaires, obtenus
en élevant chacun des prédicteurs d'origine à une puissance. Par exemple, une régression cubique utilise
trois variables, X, X2 et X3, en tant que prédicteurs. Cette approche offre un moyen simple d’apporter un
ajustement non linéaire aux données.
Les fonctions d'étape (step function) coupent la plage d'une variable en K régions distinctes afin de
produire une variable qualitative. Cela a pour effet de donner une fonction constante par morceaux.
Les régression splines sont plus souples que les polynômes et les fonctions par étapes et sont en fait une
extension des deux. Ils impliquent de diviser la gamme de X en K régions distinctes. Dans chaque région,
une fonction polynomiale est adaptée aux données. Cependant, ces polynômes sont contraints de se joindre
en douceur aux limites de la région, ou nœuds. À condition que l'intervalle soit divisé en suffisamment de
régions, cela peut produire un ajustement extrêmement flexible.
Les splines de lissage (smoothing splines) ressemblent aux régressions splines, mais se présentent dans
une situation légèrement différente. Les splines de lissage résultent de la réduction au minimum du critère
de la somme des carrés soumis à une pénalité de lissage.
La régression locale est similaire aux splines, mais diffère de manière importante. Les régions sont
autorisées à se chevaucher et le font de manière très fluide.
Les modèles additifs généralisés nous permettent d'étendre les méthodes ci-dessus pour traiter plusieurs
prédicteurs.
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 10 | 14
REGRESSION POLYNOMIALE
Historiquement, la méthode standard pour étendre la régression linéaire aux paramètres dans lesquels la relation entre
les prédicteurs et la réponse est non linéaire consiste à remplacer le modèle linéaire standard.
𝑌𝑖 = 𝛽0 + 𝛽1 𝑋𝑖 + 𝜀𝑖
où 𝜀𝑖 est le terme d'erreur. Cette approche est connue sous le nom de régression polynomiale. Pour un degré 𝒅 suffisant,
une régression polynomiale nous permet de produire une courbe extrêmement non linéaire. Notez que les coefficients
du modèle peuvent être facilement estimés à l'aide de la régression linéaire des moindres carrés car il ne s'agit que d'un
modèle linéaire standard avec des prédicteurs 𝑋𝑖 , 𝑋𝑖2 , 𝑋𝑖3 , ..., 𝑋𝑖𝑑 . De manière générale, il est inhabituel d’utiliser 𝒅
supérieur à 3 ou 4 car, pour de grandes valeurs de d, la courbe polynomiale peut devenir trop souple et prendre des
formes très étranges. Cela est particulièrement vrai près de la limite de la variable X.
Dans cet atelier, nous analysons à nouveau les données salariales prises en compte dans les exemples de ce chapitre afin d'illustrer
le fait que bon nombre des procédures d'adaptation non linéaires complexes discutées peuvent être facilement mises en œuvre dans
R. Nous commençons par charger la bibliothèque ISLR. , qui contient les données
library(ISLR)
attach(Wage)
Cette syntaxe convient à un modèle linéaire, utilisant la fonction lm (), afin de prédire le salaire à l'aide d'un polynôme du quatrième
degré en âge: poly (age, 4). La commande poly () nous permet d’éviter d’écrire une formule longue avec les puissances de l’âge. La
fonction renvoie une matrice dont les colonnes sont à la base de polynômes orthogonaux, ce qui signifie essentiellement que chaque
colonne est une combinaison linéaire orthogonale de polynômes des variables age, age ^ 2, age ^ 3 et age ^ 4. Cependant, nous
pouvons également utiliser poly () pour obtenir directement l’âge, l’âge ^ 2, l’âge ^ 3 et l’âge ^ 4, si nous préférons. Nous pouvons
le faire en utilisant l’argument raw = TRUE de la fonction poly (). Nous verrons plus tard que cela n’a pas d’effet significatif sur le
modèle - bien que le choix de la base affecte clairement les estimations cohérentes, il n’a pas d’effet sur les valeurs ajustées obtenues.
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 11 | 14
fit2a=lm(wage∼age+I(age^2)+I(age^3)+I(age^4),data=Wage)
coef(fit2a)
(Intercept) age I(age^2) I(age^3) I(age^4)
-1.841542e+02 2.124552e+01 -5.638593e-01 6.810688e-03 -3.203830e-05
coef(summary(fit2a))
Estimate Std. Error t value Pr(>|t|)
(Intercept) -1.841542e+02 6.004038e+01 -3.067172 0.0021802539
age 2.124552e+01 5.886748e+00 3.609042 0.0003123618
I(age^2) -5.638593e-01 2.061083e-01 -2.735743 0.0062606446
I(age^3) 6.810688e-03 3.065931e-03 2.221409 0.0263977518
I(age^4) -3.203830e-05 1.641359e-05 -1.951938 0.0510386498
Il existe plusieurs autres moyens équivalents pour ajuster ce modèle. Ceci crée simplement les fonctions de base polynomiales sur
la feuille, en prenant soin de protéger les termes tels que age ^ 2 via la fonction enveloppe I () (le symbole ^ a une signification
particulière dans les formules). el, qui montrent la flexibilité du langage de la formule en R. Par exemple
fit2b=lm(wage∼cbind(age,age^2,age^3,age^4),data=Wage)
coef(summary(fit2b))
Estimate Std. Error t value Pr(>|t|)
(Intercept) -1.841542e+02 6.004038e+01 -3.067172 0.0021802539
cbind(age, age^2, age^3, age^4)age 2.124552e+01 5.886748e+00 3.609042 0.0003123618
cbind(age, age^2, age^3, age^4) -5.638593e-01 2.061083e-01 -2.735743 0.0062606446
cbind(age, age^2, age^3, age^4) 6.810688e-03 3.065931e-03 2.221409 0.0263977518
cbind(age, age^2, age^3, age^4) -3.203830e-05 1.641359e-05 -1.951938 0.0510386498
Nous créons maintenant une grille de valeurs pour l'âge pour laquelle nous voulons des prédictions, puis appelons la fonction generic
Predict (), en spécifiant que nous voulons également les erreurs standard.
agelims=range(age)
age.grid=seq(from=agelims [1],to=agelims [2])
preds=predict (fit ,newdata =list(age=age.grid),se=TRUE)
se.bands=cbind(preds$fit +2* preds$se.fit ,preds$fit -2* preds$se.fit)
par(mfrow=c(1,2),mar=c(4.5,4.5,1,1) ,oma=c(0,0,4,0))
plot(age ,wage ,xlim=agelims ,cex=.5,col="darkgrey")
title("Degree -4 Polynomial",outer=T)
lines(age.grid ,preds$fit ,lwd=2,col="blue")
matlines(age.grid ,se.bands,lwd=1,col="blue",lty=3)
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 12 | 14
• La valeur p comparant le modèle linéaire 1 au modèle quadratique est essentiellement égale à zéro
(<10−15), ce qui indique qu'un ajustement linéaire n'est pas suffisant.
• De même, la valeur p comparant le modèle 2 quadratique au modèle 3 cubique est très faible (0,0017),
de sorte que l'ajustement quadratique est également insuffisant.
• La valeur p comparant les polynômes cubiques et de degré 4, modèle 3 et modèle 4, est d'environ 5%,
tandis que le polynôme de degré 5, modèle 5, semble inutile car sa valeur p est de 0,37.
Par conséquent, un polynôme cubique ou quartique semble apporter un ajustement raisonnable aux
données, mais les modèles d'ordre inférieur ou supérieur ne sont pas justifiés. Dans ce cas, au lieu d'utiliser
la fonction anova (), nous aurions pu obtenir ces valeurs p plus succinctement en exploitant le fait que poly
() crée des polynômes.
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 13 | 14
fit.1=lm(wage~education+age,data=Wage)
fit.2=lm(wage~education+poly(age,2),data=Wage)
fit.3=lm(wage~education+poly(age,3),data=Wage)
anova(fit.1,fit.2,fit.3)
Analysis of Variance Table
coef(summary(fit.3))
Estimate Std. Error t value Pr(>|t|)
(Intercept) 85.60597 2.156705 39.692941 3.548046e-277
education2. HS Grad 10.86075 2.433978 4.462142 8.413874e-06
education3. Some College 23.21846 2.561633 9.063929 2.219101e-19
education4. College Grad 37.92991 2.546628 14.894169 1.877141e-48
education5. Advanced Degree 62.61297 2.763706 22.655439 5.196118e-105
poly(age, 3)1 362.66754 35.466163 10.225734 3.777795e-24
poly(age, 3)2 -379.77717 35.429337 -10.719285 2.468951e-26
poly(age, 3)3 74.84933 35.309477 2.119808 3.410431e-02
Premier Institut privé de Formation aux métiers de l’ingénierie statistique et de la Data Science en Afrique francophone P a g e 14 | 14