Content-Length: 173522 | pFad | https://www.academia.edu/104770221/REGRESSION_LINEAIRE_ET_REGRESSION_LOGISTIQUE

(PDF) REGRESSION LINEAIRE ET REGRESSION LOGISTIQUE
Academia.eduAcademia.edu

REGRESSION LINEAIRE ET REGRESSION LOGISTIQUE

2023, Régression linéaire et logistique

https://doi.org/10.1321/lionnel.1999

I. Description et but de la régression La régression est une méthode qui a pour but de connaitre l'effet d'une variable sur une autre variable. Mais nous savons tous qu'il existe deux type des variables dont les variables quantitatives/numériques ou encore Métriques et les variables

REGRESSION LINEAIRE ET REGRESSION LOGISTIQUE I. Description et but de la régression La régression est une méthode qui a pour but de connaitre l’effet d’une variable sur une autre variable. Mais nous savons tous qu’il existe deux type des variables dont les variables quantitatives/numériques ou encore Métriques et les variables qualitative ou catégorielles (Nominale ou Ordinale). Comme nous l’avions remarqué dans l’études des relations entre variables sans chercher à expliquer une relation de cause à effet, l’analyse de la corrélation concerne les variables quantitatives et le test Khi-deux concerne les variables qualitatives. De même, la régression linéaire concerne les variables quantitatives et la régression logistique les variables qualitatives. En effet, On parle de la régression linéaire lorsqu’on cherche à savoir l’effet d’une variable quantitative sur une autre. En déduire la régression logistique. II. La régression linéaire II.1. Régression linéaire simple On parle d’une régression linéaire simple si l’on chercher à connaitre l’effet d’une et une seule variable sur une autre variable. Par exemple, on peut chercher à étudier l’effet du prix de la margarine sur sa demande sur le marché. On peut donc poser X= prix de la margarine et Y= demande de la margarine. La droite de régression sera donc : Y= a –bX + e. Le signe moins signifie que la relation est négative c.-à-d. si le prix de la margarine augmente, sa demande baisse sur le marché ou encore si le prix de la margarine baisse, sa demande augmentent sur le marché. Et on dira que X a un effet sur Y. Mais la relation peut aussi être positive, dans ce cas la droite s’écrit telle que : Y=a+bX,on pourrait dans ce cas poser Y= offre de la margarine et X= prix de la margarine. Ainsi donc, si le prix de la margarine baisse, son offre également va baisser ou encore si son prix augmente, son offre augmentera aussi. En prenant un exemple typique avec nos deux équations, on aura : Soit Y1=50-4X1 et Y2=8+3X1 avec Y1 et Y2 respectivement la demande de la margarine et l’offre de la margarine. 2010 2011 2012 2013 2014 2015 X1 $2 $4 $5 $6 $7 $10 Y1= 50-4X1 $42 $34 $30 $26 $22 $10 Y2=8+3X1 $14 $20 $23 $26 $29 $38 Vous verrez bien à travers ce tableau que plus le prix de la margarine (X1) augmente, sa demande (Y1) diminue et son offre (Y2) augmente. La relation entre le prix et la demande est donc négative ou décroissante et celle entre le prix et l’offre est positive ou croissante. Graphiquement nous aurons : Ces deux graphiques montrent donc les droites de régression de la demande et de l’offre de la margarine. En suivant l’évolution du tableau des résultats, vous constaterez qu’il y a moyen de prédire ce qui arrivera sur la demande et/ou l’offre de la margarine en 2015 connaissant le résultat de 2011,2012, 2013. Et les résultats à venir vue qu’on n’est pas encore arrivé en réalité en cette période, sont appelés les résultats estimés. II.2. Régression linéaire multiples On parle de la régression linéaire Multiple lors qu’on a au moins deux variables indépendantes, dans le cas précédant on n’avait que X1, alors qu’ici on a soit X1 et X2 variables indépendantes ou encore X1, X2, X3, … Xn variables indépendantes. En effet, le modèle ou l’équation de la droite de régression peut se présenter comme suit : Y1 = a+b1 X1+b2X2-b3X3 … bnXn+ e. On dira donc que X1 et X2 ont un effet positif sur le résultat de Y1 car leurs coefficients sont positifs (soit +b1 et +b2) alors que X3 a un effet négatif sur Y1 en suivant le même raisonnement. N.B : L’intensité du lien entre la variable dépendante (Y1) et la variable indépendante (Xi) dépend de la valeur de son coefficient. Par exemple l’intensité du lien entre Y1 et X1 dépend de la valeur de b1. En recourant à notre exemple antérieur, on peut disposer les données ci –après sur le prix de la margarine (X1), le prix de la mayonnaise (X2), et la demande de la margarine (Y1). Procédure SPSS  Cliquez sur analyse,  Régression,  Linéaire, puis le tableau ci-dessus apparaitra. Placez les variables indépendantes et la variable dépendante à leur place respective.  Ensuite cliquez sur statistics, vous verrez apparaitre cette boite de Dialogue Sélectionnez ensuite estimations, caractéristiques, masure et corrélations partielles enfin test de colinéarité. Plusieurs analyses sont à effectuer avant d’estimer le modèle :  Faire l’anova pour voir si le modèle dans son ensemble est significatif (p<0,05), si p> 0,05 ; alors on arrête de faire l’analyse ;  Faire le test VIF pour calculer le niveau de dépendance de chacune des variables explicatives vis-à-vis de l’ensemble des autres variables explicatives, on parle de la multi colinéarité ; On peut avoir les résultat suivant : Récapitulatif du modèle Modèle R R² R² ajusté Erreur standard de l’estimation 1 0,725 0,526 0,519 1,271 Avec un R² = 0,526, le modèle restitue 52,6 % de l‟information exprimée dans les variables de départ. 47,4 % de l‟information de départ a été perdue. Tableau : ANOVA Modèle Somme des carrés 492,922 444,378 937,300 1 Régression Résidu Total Carré moyen ddl 4 275 279 123,231 1,616 F 76,260 Sig. 0,000 Ici, on dira que le modèle est significatif car P-value est inférieur à 0.05 sit 5%. Alors on peut poursuivre l’analyse. Tableau : Coefficients Modèle 1 (constante) X1 X2 Coefficients non standardisés Erreur b standard 3,240 -0,723 -0,198 Coefficients standardisés Beta 0,372 0,082 0,067 0,630 0,139 Statistiques de colinéarité Tolérance VIF T Sig. -8,719 8,766 2,959 0,000 0,000 0,003 0,334 0,785 2,996 1,274 Pour prendre une variable dans le modèle il faut que sa signification soit inférieure à 5%. En observant toute nos variables, on constate qu’elles sont significatives alors le modèle sera : Y1 = 3,240 -0,723*X1-0,198*X2 On dira alors que le prix de la margarine (X1) a un effet positif sur Son offre et cet effet est plus que celui du prix de la mayonnaise car son coefficient est supérieur à celui de la mayonnaise soit -0,723 contre -0,198. II.2. Régression logistique Cette méthode présente un avantage en ce sens qu’elle n’a pas de contrainte : elle peut être utilisé pour des variables qualitatives ou quantitatives. Il existe donc deux catégories d’analyse de régression logistique : la régression logistique binaire et la régression logistique multinomiale. On parle de régression logistique binaire lorsque la variable dépendante est binaire ou dichotomique. C’est la plus répandue. La régression logistique multinomiale ou polynomiale, la moins répandue, s’applique lorsque la variable dépendante a plus de deux modalités. Elle est rare et à interprétation compliquée des résultats. Ainsi, notre cas d’étude ne concernera que la régression logistique binaire. En allant directement dans la pratique, la procédure SPSS se présente telle que repris précédemment mais au lieu de choisir linéaire, choisissez logistique. En considérant comme variable dépendant l’allaitement exclusif (Y) avec comme variables indépendants groupe d’âge (X1), Statut matrimonial (X2), religion (X3), Niveau d’instruction (X4). Supposons que nous avons les résultats suivants : Variables Modalités Β Sig. 15-19 Groupes d‟âge Statut matrimonial Religion Niveau d‟instruction Réf. 20-24 25-29 30-34 35-39 40 et plus 2,443 2,612 2,094 2,372 1,889 0,001 0 0 0 0 Célibataires Mariées Union de faits Catholique Protestante Eglise de réveil Autres religions Exp (β) 11,502*** 13,622*** 8,115*** 10,718*** 6,612*** Réf. -0,061 0,924 0,94 -0,484 0,411 0,616 1,461 0,003 Réf. 4,310*** 1,53 0,001 4,618*** 1,347 0,006 3,847*** Sans instruction Réf. Primaire 0,284 Secondaire -0,295 et supérieur 0,341 1,329 0,47 0,744 Ici, on ne retiendra que comme variable dans le modèle, celle dont le niveau de significativité est inférieur à 5%, et le coefficient y relatif sera celui qui sera attaché au P-value le plus significatif. Le modèle ou la droite de régression sera donc : X1= groupe d’age +2,612 +1,53 Y= Allaitement X3= Réligion Avec un cas pareil, on ne prendra pas les autres variables car leur significativité est supérieure à 0,05. Et pour ceux qui ont une significativité inférieure à 0,05, on prend le « B » qui a la plus petite significativité, c’est ce qui constitue le coefficient du modèle. NOTES Rappelons que les méthodes d’analyses factorielles, d’analyses classificatoires ainsi que les méthodes de régression sont des méthodes qui permettent d’expliquer les relations de cause à effet. Mais avant d’y parvenir, il ne faut pas oublier qu’il faut d’abord passer par le test du lien (Coefficient de corrélation et le test Khi-deux) une fois que le lien existe, alors o peut les appliquer. Sinon, on ne peut y parvenir.








ApplySandwichStrip

pFad - (p)hone/(F)rame/(a)nonymizer/(d)eclutterfier!      Saves Data!


--- a PPN by Garber Painting Akron. With Image Size Reduction included!

Fetched URL: https://www.academia.edu/104770221/REGRESSION_LINEAIRE_ET_REGRESSION_LOGISTIQUE

Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy