Mev 315 Abdala 2021 Bon
Mev 315 Abdala 2021 Bon
Mev 315 Abdala 2021 Bon
---------- -----------------
UNIVERSITÉ DE NGAOUNDERE THE UNIVERSITY OF NGAOUNDERE
---------- ------------------
ÉCOLE NORMALE SUPÉRIEURE DE BERTOUA HIGHER TEACHER TRAINING COLLEGE BERTOUA
B.P. 652 Bertoua Email: info@ensb-univ-ndere.cm P.O.Box. 652 Bertoua Email: info@ensb-univ-ndere.cm
------- ------------
DEPARTEMENT DES SCIENCES DE L’EDUCATION DEPARTMENT OF EDUCATION SCIENCES
MEV 315
Dr ABDALA ZEDOU
60 heures : 30 heures CM, 20 heures TD, 10 TPE
Conception du cours :
VANDERSTOEP, S.W., D.D. JOHNSTON (2009), Research Methods for Everyday Life: Blending Qualitative and Quantitative
Approaches, Jossey Bass, Wiley Imprint, John Wiley & sons, San Francisco.
rd
LESTER, P.E., D. INMAN, L. BISCHOP (2014), Handbook of Tests and Measurement in Education and the Social Sciences, 3
edition, Rowman & Littlefield, Rowman & Littlefield Publishing Group Inc, Maryland.
Approfondissements :
SAPSFORD, R., V. JUPP eds. (2006) Data Collection and Analysis, SAGE Publications, second edition, The Open University.
.
PLAN DU COURS :
OBJECTIF DU COURS :
Ce cours permet de développer chez les étudiants des savoirs pratiques et critiques à partir des
matériaux de recherche issus des approches qualitative et quantitative : Echantillonnage, technique
d‘entretien, analyse de contenu, catégorisation, niveau d‘analyse et triangulation.
Chapitre 1 : Choix et types de données/ Choix d’approches de recherche
Les données sont des représentations acceptées d’une réalité que l’on ne peut ni empiriquement
(par des sensations) ni théoriquement (par l’abstraction) embrasser.
Elles sont subjectives, étant affectées par des perceptions du sujet observé (réactivité de la source)
et de l’observant. En fonction du positionnement épistémologique de chercheur, il peut considérer
une donnée comme une « découverte » ou comme une « invention » (Baumard et Ibert dans
l’ouvrage de Thiétart et coll., 2003).
Une variable est une entité qui peut prendre des valeurs différentes (quantitatives ou qualitatives).
En caractérisant une variable, ses valeurs (attributs) doivent être exhaustifs et mutuellement
exclusifs (p.ex. variable de sexe a deux attributs - male et femelle, qui sont exhaustifs et
mutuellement exclusifs) (Trochim, 2004).
Cette section formule trois caractéristiques principales des données, qu’on mobilise dans une
recherche : leur caractère théorique ou empirique ; leur source primaire ou secondaire ; et leur
nature qualitative ou quantitative, les deux derniers aspects étant développés par Baumard et Ibert
dans l’ouvrage de Thiétart et coll., 2003).
I. Données théoriques versus Données empiriques.
Le processus de l’Induction peut se traduire par une exploration Théorique, une exploration
Empirique ou une exploration Hybride. Cette distinction est faite par rapport aux données mobilisées
: purement théoriques (conceptuelles, de la littérature scientifique), purement empiriques (données
de terrain, faits observables) et hybrides (combinant les deux).
Par contre, une démarche hypothético-déductive dans les sciences sociales se confronte
obligatoirement au terrain : elle ne peut jamais se limiter à des données purement conceptuelles.
Néanmoins, dans le domaine de la mathématique et de logique formelle pure, - c’est le cas, la
déduction est en effet constituée sur la base des concepts purement abstraits qu’on ne peut pas
retrouver dans le monde empirique.
II. Données Primaires versus données Secondaires
Une fois qu’on a décidé de procéder à une démarche empirique, ces données peuvent provenir de «
première main » - données primaires, ou de « seconde main » - les données secondaires. Le recueil
des données primaires offre une opportunité au chercheur de se confronter directement à la réalité
qu’il a choisi d’étudier. Néanmoins, le choix entre les deux doit être ramené à un ensemble de
dimensions simples : leur statut ontologique, leur possible impact sur la validité externe ou interne
de la recherche, leur accessibilité et leur flexibilité.
Il existe des idées reçues sur les données primaires, tant que sur les données secondaires. On
accorde aux données primaires un statut de vérité plus grande ou une validité interne supérieure, il y
a un excès de confiance à ce type de données. Toutefois, il y a une attribution d’un effet négatif des
données primaires sur la validité externe de la recherche poursuivie ; on peut également les
considérer comme difficilement accessibles mais très flexibles, ce qui n’est pas toujours le cas.
En ce qui concerne les données secondaires, on peut leur attribuer un statut de vérité exagéré du fait
de leur formalisation ou publication ; considérer que leur validité interne est plus facile à maîtriser ;
attribuer une validité externe plus grande, alors qu’elle dépend de la validité des travaux d’origine ;
croire, parallèlement, à leur flexibilité faible et donc une fiabilité plus importante.
Les contraintes de recueil des données primaires imposent une nécessité de maîtriser un système
d’interaction complexe avec le terrain ; alors que leur analyse, imposant une position délicate d’être
« juge et partie », peut créer des distorsions (poursuite d’un modèle implicite).
En contrepartie, dans le recueil des données secondaires, le chercheur dispose d’une moins grande
latitude pour constituer sa base de données, puisqu’il est contraint d’avoir un accès à des bases de
données existantes. Au stade de l’analyse des données secondaires, le chercheur ne peut que
rarement compléter ou clarifier des données partielles, ambiguës ou contradictoires.
Ainsi, les données primaires et secondaires sont complémentaires tout au long du processus de la
recherche.
III. Données Quantitatives versus données Qualitatives
Il faut noter que la caractéristique de qualitatif versus quantitatif relève beaucoup de discussion et
de confusion, quand au caractère de la recherche menée. Baumard et Ibert (in Thiétart, 2003) le
soulignent également, en indiquant des références distinguant l’étude quantitative ou qualitative par
la nature de données ou variables, par méthodes mobilisées, par l’orientation exploratoire ou de
test… Ils font un inventaire de toutes ces caractéristiques, y compris la nature des données, pour
considérer le caractère quantitatif ou qualitatif d’une recherche.
Cette approche exhaustive pour caractériser une étude qualitative ou quantitative nous semble peu
structurante. Après une considération des sources variées (Thiétart, 2003 ; Trochim, 2004 ; Becker,
2004 ; Jick, 1979 ; Hubermann et Miles, 1991), nous préférerions dire, que le caractère qualitatif ou
quantitatif d’une étude se distingue bien du caractère quantitatif ou qualitatif des méthodes ou des
données que cette étude mobilise.
Nous développerons donc cette distinction séparément dans la section suivante consacrée aux
approches quantitative et qualitative d’étude, nous contentant pour l’instant de formuler la nature
propre aux données seulement.
En effet, on peut distinguer les données par leur nature qualitative ou quantitative. « Les données
qualitatives … se présentent sous forme de mots plutôt que de chiffres » (Miles et Hubermann,
1991), tandis que les données quantitatives sont « numériques » et apportent donc les preuves de
nature quantitative (Yin, 1984).
Pour Trochim (2004) cette définition doit être nuancée, car dans beaucoup des cas on peut présenter
les chiffres en forme textuelle et vice versa, transformer les textes en chiffres par un codage : «
toutes les données quantitatives sont basées sur des jugements qualitatifs et toutes les données
qualitatives peuvent être décrites et manipulées numériquement ». De plus, les données qualitatives
peuvent être non seulement en forme de mots (ou textes) mais aussi des photos, vidéo, sons etc.
On peut aussi avoir quelques préjugés réduits sur la nature quantitative ou qualitative des données :
les premières sont souvent considérées comme données « dures », « rigoureuses », « crédibles » et
« scientifiques » ; alors que les deuxièmes – « sensibles », « nuancées », « détaillées » et «
contextuelles ».
I. Méthodes Qualitatives
Dans la situation d’utilisation des méthodes qualitatives, la gestion de l’interaction entre le chercheur
et les sujets- sources prend une dimension essentielle, où il faut maîtriser la présence du chercheur
dans le dispositif de collecte.
Les principaux modes qualitatifs de collecte de données primaires sont les entretiens, l’observation
participante ou non, ainsi que des modes de mesure discrètes.
1. Entretiens
L’entretien est une technique destinée à collecter des données discursives reflétant l’univers mental
conscient ou inconscient des individus.
L’entretien individuel est une situation de face à face entre un investigateur et un sujet. Il se base
sur le principe de non – directivité (car l’entretien directif relève du questionnaire). Il y a deux types
d’entretien individuel : non – directif (un thème, sans intervention de chercheur) et semi – directif
(avec le guidage de chercheur à travers des sous -thèmes).
La démarche de réalisation des entretiens peut être structurée et délibérée ou libre (heuristique).
L’entretien de groupe consiste à réunir différents sujets autour d’un ou de plusieurs animateurs,
dans une situation d’interaction. Le rôle d’animateur est délicat, car il consiste à faciliter l’expression
des individus mais aussi gérer la dynamique de groupe. L’efficacité de ce type d’entretien est sujette
à discussion, et il est préférable de le compléter par d’autres modes de collecte.
2. Observation
L’observation est un mode de collecte des données dans lequel le chercheur observe de lui-même,
de visu, des processus ou des comportements se déroulant dans une organisation, pendant une
période de temps délimitée.
Deux formes d’observations peuvent être distinguées en fonction du point de vue du chercheur par
rapport aux sujets observés. Soit le chercheur adopte un point de vue interne et son approche relève
de l’observation Participante ; soit il conserve un point de vue externe et il s’agit de l’observation
Non participante.
Entre les deux extrêmes le chercheur peut adopter des solutions intermédiaires, ce qui constitue en
tout quatre cas de figure : participant complet (il ne notifie pas aux sujets son rôle de chercheur),
participant observateur (un degré de liberté pour les investigations du chercheur), observateur –
participant (observateur qui participe) et observateur complet (observation non participante –
l’observation non systématique « flottante » ou observation systématique » structurée).
Le chercheur doit prendre en compte des erreurs possibles de contenu, de contexte et des biais
instrumentaux.
3. Mesures discrètes (« unobtrusive measures »)
C’est une autre forme de collecte qualitative des données primaires qui est transversale à la
classification des modes évoqués. En effet, il s’agit de collecte de données qui ne sont pas affectées
par la réactivité des sujets-sources car elles sont recueillies à leur insu – de façon « discrète » (par
ex., vidéo, analyse des sols dans les musées…).
Les enjeux des méthodes de recueil qualitatif des données comprennent des difficultés d’accès aux
organisations ou acteurs ; le besoin de flexibilité du chercheur dans la gestion de son interaction avec
l’acteur ; le risque de contamination des acteurs sujets (leurs interactions entre eux) ; la perte
éventuelle du chantier de recherche.
Le chercheur peut essayer de prendre quelques mesures par rapport à ces enjeux : il peut adopter
une approche contractuelle; dissimuler ou ouvrir ses objectifs ; garder ou non distance à l’égard de la
source de données.
II. Méthodes Quantitatives
Le mode quantitatif de collecte des données primaires le plus développé est le questionnaire, les
autres méthodes comprenant l’observation et l’expérimentation.
1. Questionnaires
Un questionnaire permet d’interroger directement des individus en définissant au préalable, par une
approche quantitative, les modalités de réponses aux questions dites « fermées ».
Les trois grandes étapes ponctuent la collecte des données par questionnaire : 1) le choix des
échelles de mesure ; 2) la construction du questionnaire et les pré-tests pour vérifier la validité et la
fiabilité de l’instrument de mesure ; 3) l’administration définitive du questionnaire.
a) Le choix des échelles de mesure
Avant d’aborder la rédaction des questions, le chercheur est amené à choisir les échelles de mesures
qu’il va utiliser. Il existe de différents types de l’échelle de mesure : nominales, ordinales,
d’intervalle et de proportion.
Au-delà du type d’échelle, le chercheur est confronté à un choix entre l’utilisation échelles
préexistantes (déjà construites et validées par d’autres chercheurs) ou la création de ses propres
échelles (à défaut de l’échelle adaptée et à la suite des entretiens préalables).
b) La construction et le pré-test du questionnaire
Cette étape comprend deux phases: l’élaboration du questionnaire – qui est un processus complexe
de formulation des questions (fermées, ouvertes) visant à éviter les biais (l’effet halo et l’effet de
contamination) ; et le pré-test du questionnaire – visant à vérifier la validité et la fiabilité de cet
instrument de mesure, e.g., il consiste à s’assurer de la compréhension du fond et de la forme de
questionnaire.
c) L’administration définitive du questionnaire
L’administration de questionnaire peut être réalisée par des voies différentes : par la voie postale, en
face à face, par téléphone ou par voie informatique.
Chacune de ces méthodes comporte des avantages et des inconvénients en ce qui concerne le taux
de réponse, le coût d’administration, le contrôle de l’échantillon, le temps de réalisation.
2. Observations
L’observation n’est pas une méthode de collecte très courante dans les études quantitatives, car il
est difficile de mener une observation sur des grands échantillons et elle risque de ne pas être
homogène. Il est donc nécessaire de recourir à une « observation systémique » (structurée) pour
décrire de la même façon les comportements observés (comme le questionnaire).
3. Méthode expérimentale
Certaines méthodes expérimentales permettent de faire des prélèvements quantitatifs et d’exploiter
statistiquement les données recueillies. C’est une reproduction des comportements « naturels » ou
une mise en place un jeu de rôle. Ces méthodes expérimentales présentent des avantages, car elles
sont riches en information pour le chercheur et leurs variables sont maîtrisables et mesurables.
Nous avons mentionné dans la section précédente que la notion d’étude qualitative ou quantitative
provoque de nombreuses discussions et confusions. Sans prétention de trancher cette question
définitivement, nous avons néanmoins trouvé au moins pour nous même l’image plus ou moins
claire sur la question, en nous basant sur des éléments ressemblés de toutes les sources que nous
avons utilisées.
I. Nature Qualitative / Quantitative de la recherche.
En effet, la définition qui nous semble la plus pertinente pour qualifier une étude de qualitative ou
quantitative (approche), est celle que Baumard et Ibert appellent « le caractère subjectif ou objectif
des résultats » constituant une ligne de séparation entre les deux approches. On pourrait tout de
même s’interroger si les études qualitatives ne peuvent jamais être objectives, ou si toutes les études
quantitatives le sont obligatoirement (dans le sens de proximité à la vérité) ; cependant, nous
retenons le principe de démarcation « contextuelle » ou plutôt démarcation par le nombre des cas
d’un phénomène étudié : soit on étudie un phénomène sur peu de cas mais en profondeur (approche
qualitative, plongement dans le contexte), soit sur beaucoup des cas mais plutôt sur la surface
(approche quantitative, argumentation ou démonstration par dénombrement).
Partant de là, il est évident que les deux approches sont bien compatibles, de plus elles sont
complémentaires et mutuellement renforçant.
II. Approches complémentaires ou opposées de recherche ?
En premier lieu, de nombreux auteurs dans la littérature méthodologique des Sciences sociales se
déclarent pour une distinction claire entre la dimension du mode de raisonnement logique
(Génération par l’Induction et validation par la Déduction) et la dimension de la nature Qualitative
ou Quantitative d’étude (Thiétart et coll., 2003 ; Becker, 2004 ; autres). Ils affirment qu’il faut
dépasser cette ‘conjoncture obligatoire’ instaurée depuis long temps, - en argumentant et montrant
sur des exemples qu’il est, en effet, possible de générer des réponses conceptuelles (induire) par ou
dans une étude quantitative ; et vise versa, il est tout à fait faisable pour une étude qualitative de
s’inscrire dans une logique déductive, dans le but de valider une réponse conceptuelle existante
(déduire) sur le terrain qualitatif (par une étude de cas, p. ex.).
Figure 2 : Raisonnement logique et approche quali/quanti
Deuxièmement, beaucoup de travaux font également une distinction entre la nature qualitative ou
quantitative au niveau d’une étude, au niveau des méthodes (de recueil) mobilisées dans cette
étude et au niveau des données utilisées dans la même étude (Trochim, 2004 ; Thiétart et coll., 2003
; Jick, 1979 ; Hubermann et Miles, 1991). Les deux derniers niveaux sont surtout bien distingués,
alors que la différence est plus nuancée entre le niveau d’étude et le niveau des méthodes.
Néanmoins, nous pensons que le niveau de la nature d’une étude et le niveau des méthodes qu’elle
emploie méritent être distingués : en effet, tout en réalisant une étude de cas en profondeur sur une
seule organisation, on peut utiliser des méthodes quantitatives, p.ex., des questionnaires distribués
au personnel.
Figure 3 : Qualitatif et quantitatif dans la recherche
Beaucoup d’auteurs optent, également, pour la combinaison du qualitatif et quantitatif à tous les
niveaux : triangulation des approches, méthodes, des données (Jick, 1979 ; Thiétart et coll., 2003 ;
autres).
Cependant, Baumard et Ibert (in Thiétart, 2003) proposent de distinguer la séquentialité et la
triangulation.
La première consiste surtout à utiliser la complémentarité des approches dans la perspective d’un
processus séquentiel (dans une suite chronologique) – par exemple, une étude exploratoire
qualitative en préambule d’une étude quantitative déductive La triangulation, par contre, consiste à
une conjugaison des approches, leur utilisation complémentaire et dialectique, qui permet au
chercheur d’instaurer un dialogue entre l’objet de recherche et les deux façons de l’observer.
Jick (1979) distingue la triangulation « within-method » et celle de « across-methods », le premier
type consistant à combiner les techniques à l’intérieur d’une méthode (p.ex., échelles et indicateurs
multiples dans la méthode de questionnaire), et le deuxième – à combiner les méthodes elles-
mêmes pour étudier le même objet (questionnaires – entretiens, p.ex.).
L’utilisation de la triangulation comporte des avantages importants pour la recherche du fait de la
synergie de combinaison des méthodes : émergence des nouvelles méthodes et hypothèses ;
complémentarité des résultats ; soit la convergence des résultats et la validité accrue, soit la non
convergence des résultats et l’enrichissement de étude la continuation des investigations.
Note : Les types de questions :
La plupart des manuels définissent l’échantillon comme un sous-ensemble d’éléments tirés d’un
ensemble plus vaste appelé population. Royer et Zarlowski (in Thiétart et coll., 2003) définissent
l’échantillon comme l’ensemble des éléments sur lesquels des données seront recueillies.
L’échantillonnage comprendra donc toujours trois questions clés : quelle est la population ; quel est
échantillon qui la représente ; et, comment choisir cet échantillon ?
Figure 4 : Echantillonnage
Les choix effectués pour constituer un échantillon auront un impact déterminant tant en termes de
validité externe (la possibilité d’étendre les résultats obtenus sur l’échantillon à d’autres éléments,
dans des conditions de lieu et de temps différentes) que de validité interne (pertinence et cohérence
interne des résultats par rapport aux objectifs déclarés du chercheur) de l’étude. La validité est
influencée par la nature (homogène ou hétérogène) des éléments de l’échantillon, la méthode de
sélection de ces éléments et leur nombre (la taille). Royer et Zarlowski (in Thiétart et coll., 2003)
développent tous ces aspects de constitution de l’échantillon dans une étude, en les reconstituant
dans des démarches différentes de l’échantillonnage.
a) Echantillon probabiliste
– cette première catégorie rassemble les méthodes dites probabilistes (« méthode aléatoire simple
», « systématique », « stratifiée » proportionnel et non proportionnel, « en degré », et « méthode
par grappes »), ainsi dénommées dans la mesure où tous éléments de la population présentent une
probabilité, connue à priori, et différente de zéro, d’appartenir à échantillon Elles seules permettent
d’utiliser les règles de inférence statistique.
b) Echantillon par choix raisonné
– le second ensemble regroupe les méthodes de sélection de l’échantillon par choix raisonné.
Contrairement aux méthodes probabilistes, où on cherche à éliminer la subjectivité de chercheur, les
méthodes par choix raisonné reposent fondamentalement sur le jugement. Elles permettent de
choisir de manière précise les éléments de l’échantillon afin de respecter plus facilement sur les
critères fixés par le chercheur. Les résultats d’un échantillon sélectionné par choix raisonné peuvent
se prêter à une généralisation de type analytique.
c) Echantillon par quota (proportionnel ou non proportionnel)
– le troisième ensemble, qui n’est pas une méthode échantillonnage probabiliste, et ne permet pas
donc, en toute rigueur, l’inférence statistique. Toutefois, dans certaines conditions de mise en
épreuve, la méthode des quotas s’apparente à une méthode probabiliste et, par suite, on procède en
pratique par inférence statistique.
d) Les échantillons de convenance
– constituent le quatrième ensemble. Ils désignent les échantillons sélectionnés en fonction des
seules opportunités qui se sont présentées au chercheur, sans qu’aucun critère de choix n’ait été
défini à priori. Ce mode de sélection ne permet en aucun cas une inférence statistique ; il ne garantie
pas non plus la possibilité d’une inférence théorique, que seule une analyse à posteriori de la
composition de échantillon peut parois autoriser. De ce fait, les échantillons de convenance seront
essentiellement utilisés en phase exploratoire, l’objectif n’étant que de préparer une étape
ultérieure et non de tirer des conclusions. Dans ce contexte, l’échantillon de convenance présente
l’avantage de faciliter et d’accélérer le recueil des informations souhaitées.
Si le choix entre les différentes méthodes est parfois contraint par des considérations matérielles,
l’arbitrage en faveur d’une méthode doit toujours s’appuyer sur les objectifs de l’étude.
Figure 5 : Méthodes de sélection d’un échantillon
Section 2 : Quel mode de mesure pour quel mode d’analyse ? (Analyse de données)
Généralement, le chercheur détermine en grandes lignes les modes d’analyse des données auxquels
il va recourir lorsqu’il établit le design de sa recherche. Ces modes d’analyse vont largement
dépendre des objectifs visée dans la recherche : décrire, expliquer, prescrire… Ils vont dépendre
également des choix adoptés par le chercheur en ce qui concerne le raisonnement logique inductif
ou déductif de l’étude, mais aussi par rapport à l’approche quantitative ou qualitative. Il est donc
important que le chercheur réfléchisse d’abord aux objectifs de sa recherche, puis aux modes
d’analyse dont il aura besoin pour répondre à ses objectifs.
Toutefois, l’adoption de telle ou telle voie ne signifie pas qu’il s’enferme complètement dans une ou
plusieurs méthodes d’analyse ; il est tout à fait possible de recourir aux méthodes d’analyse
quantitatives pour une partie de la recherche qualitative et vice versa.
En conséquence, nous garderons la présentation les méthodes d’analyse retenue dans l’ouvrage de
Thiétart et coll. (2003) – sans un ordre chronologique obligatoire, la section vise à exposer toute la
gamme des méthodes de « la boite à outils » d’analyse.
Le chercheur peut se poser de multiples questions auxquelles il va tenter de répondre par l’un ou
l’autre mode d’analyse : il peut vouloir comparer les variables entre elles (tests de comparaison) ;
expliquer une relation ou un modèle (analyse causale et modélisation) ; organiser des grandes
masses de données (méthodes de classification et structuration) ; avoir une représentation du
réseaux formel ou informel de l’organisation (analyse des réseaux sociaux) ; considérer la dynamique
ou l’évolution d’un processus (analyses longitudinales) ; ou bien décoder les significations des
discours ou des textes (analyse de représentations et discours).
Il y a des ensembles de méthodes d’analyse qui correspondent à chacune de ces catégories.
I. Tests de comparaison
Le chercheur peut être amené à comparer des variables entre elles, à se poser la question de savoir si
les résultats obtenus sont aléatoires ou s’ils révèlent un sens. Ici, nous abordons de domaine de
l’inférence statistique qui se doit de respecter les hypothèses sous-jacentes à l’utilisation de tests si
le chercheur ne veut pas obtenir des résultats seulement significatifs sur le plan statistique.
La démarche d’inférence occupe une place importante dans la recherche en sciences sociales,
puisque c’est elle qui va permettre de généraliser les conclusions liées à un échantillon sur la
population mère que vise le chercheur. L’inférence statistique permet de le faire de façon la plus
rigoureuse, au point qu’il existe une branche entière de statistique inférentielle.
Le but de la statistique inférentielle est de tester des hypothèses formulées sur les caractéristiques
d’une population grâce aux informations recueillies sur son échantillon – les tests statistiques.
Pour passer d’une hypothèse de recherche à son test au moyen de la statistique, il faut
préalablement la traduire en hypothèse statistique. Une hypothèse statistique est un énoncé
(affirmation) quantitatif concernant les caractéristiques d’une population.
Cette affirmation peut concerner notamment des paramètres d’une distribution donnée ou la loi de
probabilité d’une population étudiée. On appelle « paramètre » d’une population un aspect
quantitatif de cette population comme la moyenne, la variance, un pourcentage ou toute quantité
particulière.
Le test statistique en général est une procédure permettant d’aboutir, en fonction de certaines
règles de décisions, au rejet ou non-rejet de « l’hypothèse nulle » (ce qui en l’occurrence va valider «
l’hypothèse alternative »). Dans le cas d’un test statistique portant sur la loi de probabilité suivie par
la population, « l’hypothèse nulle » H0 est celle selon laquelle la population suit une loi de
probabilité donnée, p.ex., loi normale (alors que « l’hypothèse alternative » H1 va s’en distinguer).
Il existe différents types d’erreurs communes à tout test statistique : erreur α - risque de rejeter
l’hypothèse nulle alors qu’elle est vraie ; et l’erreur β - ne pas rejeter l’hypothèse nulle alors qu’elle
est fausse.
On rejette l’hypothèse nulle lorsqu’elle est dans la « zone de rejet » (« région critique ») de la
distribution et on l’accepte si elle est dans la « zone d’acceptation ». La frontière qui distingue les
deux zones est « la valeur critique ».
Les ouvrages de statistiques distinguent traditionnellement deux grandes familles de tests
statistiques: les tests « paramétriques » et les tests « non paramétriques ».
1. Tests paramétriques
Un test paramétrique est un test statistique qui suppose une forme paramétrique particulière des
distributions concernant les populations. C’est le cas par exemple, lorsque les populations étudiées
suivent une loi normale (p. ex., test de Student, qui vise à comparer les moyennes de deux
populations qui suivent une loi normale).
La grande famille des tests paramétriques comprend : les tests sur les moyennes ; sur les
proportions, sur les variances, sur les corrélations, sur les coefficients de régression.
2. Tests non paramétriques.
Un test non paramétrique est un test statistique pour lequel il n’est pas nécessaire de spécifier la
forme paramétrique de la distribution des populations.
Les tests non paramétriques comprennent : les tests sur une variable dans plusieurs échantillons ; les
tests sur plusieurs variables dans un échantillon.
II. Analyse causale et modélisation
Un problème fréquemment rencontré peut être de savoir comment construire et tester des relations
causales entre les variables. Pour ce faire, le chercheur doit 1) spécifier le phénomène, spécifier les
concepts et les variables, 2) spécifier les relations entre les variables et concepts, et, enfin, 3) évaluer
et tester le modèle. On peut distinguer l’analyse causale dans une étude qualitative de celle dans une
étude quantitative.
1. Analyse causale dans une étude qualitative
a) La spécification des variables
La spécification des variables dans une étude qualitative consiste à qualifier les concepts sans les
quantifier.
Dans la démarche qualitative Inductive, cette spécification revient donc à faire émerger du terrain les
variables puis les concepts d’un modèle représentatif du phénomène (c’est-à-dire, spécifier ses
composantes).
Les auteurs proposent des méthodes et des ensembles des tactiques : « codage ouvert » (Glaser et
Strauss, 1967), l’ensemble des tactiques visant à faire émerger les concepts d’un cadre conceptuel
(Hubermann et Miles, 1991).
Le « codage ouvert » consiste essentiellement à nommer et catégoriser les phénomènes grâce à un
examen approfondi des données. Le principe consiste alors à comparer les données et à les classer
en ensembles selon leur similarité. Ensuite le chercheur doit tenter de nommer les catégories ainsi
constituées. Pour ce faire, il dispose de définitions conceptuelles qu’il compare avec les définitions de
ces catégories. Pour affiner les catégories le chercheur doit mettre en exergue leurs propriétés
intrinsèques et le continuum au long duquel elles varient.
Les tactiques proposées par Hubermann et Miles (1991) comprennent : isoler les variables ou
concepts répétitifs ; créer les catégories par dimensions ; subdiviser ces catégories ; relier le
particulier au général (trouver une structure sous-jacente) ; factoriser (tactique venant de l’analyse
factoriel quantitatif) pour retrouver des propriétés communes.
Dans une démarche qualitative Déductive, le chercheur établit la liste de concepts composant le
phénomène étudié, à partir des informations recueillies sur la base des études précédentes. Il s’agit
ensuite d’opérationnaliser les concepts pour obtenir des variables qualitatives.
b) Spécifier les relations entre les variables
La spécification des relations qualitatives consiste à déterminer les éléments caractéristiques de la
relation et non à évaluer mathématiquement ou statistiquement cette relation.
Dans une étude qualitative Inductive, Glaser et Strauss (1967) proposent la méthode de « codage
axial » ; alors que Glaser et Corbin (1990) proposent une autre stratégie analytique.
Le codage axial est fondé sur le même principe que « codage ouvert », mais vise en plus à spécifier
chaque catégorie en termes de causalité, de contexte, d’action – interactions et conséquences de ces
dernières.
La stratégie analytique de Strauss et Corbin se compose en quatre étapes : relier les sous catégories
aux catégories en faisant les hypothèses de relations entre eux ; confronter ces hypothèses aux
données du terrain ; développer et affiner les catégories ; relier les catégories et sous-catégories.
Dans une démarche qualitative déductive, le chercheur va établir les relations à partir des recherches
antérieures pour ensuite les opérationnaliser.
c) Evaluer et tester le modèle
Dans certaines études, le chercheur peut vouloir tester l’existence d’une relation causale entre deux
variables sans avoir recours à des méthodes quantitatives sophistiquées. Dans ce cas, il va identifier
au sein de ses données des arguments infirmant ou corroborant son hypothèse de départ. Il établira
une règle de décision lui permettant de décider quand il doit rejeter ou confirmer son hypothèse
initiale. On distingue trois natures d’hypothèses testables : celles purement confirmables (arguments
contraires ne peuvent pas la réfuter); celles purement réfutables (arguments contraires ne peuvent
pas la confirmer) et celles à la fois réfutables et confirmables.
De plus, le chercheur est confronté à trois sources de biais pouvant affaiblir ses conclusions : l’illusion
holiste ; le biais d’élite ; et la sur-assimilation. Il faut donc contrôler et évaluer les conclusions.
2. Analyse causale dans une étude quantitative
a) Spécifier les variables ou concepts du modèle quantitatif
Les techniques quantitatives accordent une place centrale à la spécification des variables et
concepts.
Dans une étude quantitative inductive il s’agira de faire émerger les concepts à partir à l’aide des
méthodes statistiques : analyse de correspondance ; analyse factorielle, les analyses de classification
(typologiques).
Dans une étude quantitative déductive il s’agira de spécifier les concepts, s’ils ne sont pas déjà
spécifiés, puis les opérationnaliser pour obtenir les variables quantitatives.
b) Spécifier les relations entre les variables
Les modèles de causalité offrent un bon exemple de méthode quantitative de spécification des
relations causales dans un modèle.
Dans la démarche quantitative Inductive, les méthodes quantitatives servent à émerger les relations
entre les concepts. On peut utiliser donc l’analyse d’une matrice de corrélations, ou encore les
méthodes « explicatives » statistiques (régression linéaire ou l’analyse de la variance).
Dans une démarche quantitative Déductive, l’on peut distinguer deux cas de figures : soit le
chercheur se base sur les relations déjà spécifiées dans la littérature pour les tester, soit il les précise
lui-même, en procédant à une « analyse causale » complète. Toutefois, les relations peuvent se
traduire en associations (non directionnelles), causalités simples (uni directionnelles), causalités
réciproques (bi directionnelles).
Figure 5 : Exemples de types de relations entre les variables
SPAD, etc.