Qualitative

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 23

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/335812799

L'analyse qualitative comparative ou la méthode QCA

Book · January 2019

CITATION READS

1 2,137

2 authors:

Colette Depeyre Jean-Philippe Vergne


Paris Dauphine University University College London
34 PUBLICATIONS 307 CITATIONS 48 PUBLICATIONS 2,755 CITATIONS

SEE PROFILE SEE PROFILE

All content following this page was uploaded by Jean-Philippe Vergne on 24 January 2021.

The user has requested enhancement of the downloaded file.


Chapitre 12

L’analyse qualitative comparative


(QCA)
Colette Depeyre et Jean-Philippe Vergne

Depeyre C & Vergne JP. 2017. L’analyse qualitative comparative, forthco-


ming in L. Garreau & P. Romelaer (eds.), Méthodes de recherche qualitatives
innovantes en gestion et sciences sociales, Paris: Economica

L’analyse qualitative comparative, ou Qualitative Comparative Analysis


(QCA) a été développée par le sociologue américain Charles Ragin (1987,
2000, 2008). Appliquée notamment dans le champ de sociologie et celui
des sciences politiques, elle est également de plus en plus mobilisée par
les sciences de gestion (Curchod, 2003 ; Chanson, Demil, Lecocq & Spri-
mont, 2005 ; Fiss, 2007 ; Greckhamer, Misangyi, Elms & Lacey, 2008).
La méthode s’est d’abord développée à mi-chemin entre deux ap-
proches : celle des méthodes d’étude qualitatives permettant d’analyser
un petit nombre de cas, et celle des méthodes quantitatives permettant
d’analyser des régularités sur de plus grands échantillons. La méthode
QCA invite en effet à comparer un nombre intermédiaire de cas (de 10 à
50, voire plus) avec une approche à la fois qualitative et quantitative. Le
point de départ est qualitatif, avec l’exploration détaillée d’une série
d’études de cas qui sont ensuite transformés pour permettre une compa-
raison analytique. L’algèbre booléenne offre alors un outil technique puis-
sant pour gérer la complexité des comparaisons, et une analyse de nature
différente de celle permise par les méthodes statistiques (régressions,
typologies, scores de déviation – voir Fiss, 2007, pour une comparaison).
Puis la bonne interprétation des résultats s’appuie de nouveau sur des
éléments de nature qualitative.
Mais la méthode QCA est davantage qu’un intermédiaire entre deux
approches, elle est aussi une démarche qui permet d’approcher des objets
d’analyse avec un regard spécifique : celui des configurations de causes. La
première partie de ce chapitre commence ainsi par décrire les traits es-
sentiels de ce regard qui permet d’associer la collecte et l’analyse de don-
nées riches à la puissance du raisonnement ensembliste. La seconde partie
présente ensuite les aspects plus techniques de la méthode, en dévelop-
pant pas à pas à un exemple issu de nos recherches (Vergne & Depeyre,
2016, présenté dans l’Encadré 1 ci-après). Trois étapes balisent
l’application de la méthode : la sélection des cas et des conditions, la cali-
bration des données, puis l’analyse et l’interprétation des résultats. La
troisième partie revient enfin sur des points de vigilance qui animent le
champ des recherches appliquant la méthode QCA. Des précautions et
raffinements sont présentés afin de bien appréhender les limites et possi-
bilités offertes.

Encadré 1
Etudier des trajectoires d’adaptation et de non-adaptation

Face aux ruptures technologiques, aux changements de contexte politique, ou à


l’apparition de nouveaux modes de consommation, les organisations doivent se
montrer agiles et faire preuve d’adaptation. Comment ce processus se met-il en
place ? Nous avons étudié cette question dans le contexte des attentats du 11
septembre 2001 qui ont cristallisé un changement de fond en œuvre dans le secteur
de l’armement aux Etats-Unis. Comment les entreprises américaines de défense se
sont-elles adaptées ?
Nous avons analysé les données associées à 17 entreprises du secteur sur la
période 1998-2005 via la méthodologie QCA. Suite à une analyse exploratoire à la
fois des données et de la littérature, quatre conditions explicatives ont été retenues
pour identifier des trajectoires d’adaptation – ou de non-adaptation. Deux d’entre
elles sont des critères cognitifs relatifs à l’attention portée par une entreprise à un
changement à l’œuvre dans son secteur : les premières marques d’intérêt notent le
moment où le management commence à évoquer le changement dans ses prises de
parole (« attention timing ») ; et l’intensité des discours évalue la place accordée au
sujet par rapport à la moyenne des entreprises du secteur (« attention intensity »).
Les deux autres conditions relatives aux capacités, abordent les actions menées via
les reconfigurations d’actifs : des entités sont-elles réaménagées ou créées ? Des
acquisitions ou des cessions sont-elles menées ? La recherche regarde l’ampleur des
reconfigurations et leur intensité : sont-elles localisées ou touchent-elles l’entreprise
dans son ensemble (« reconfiguration scope ») ? Sont-elles de plus grande ampleur
après le 11 septembre (« reconfiguration intensity ») ? Enfin, ces quatre conditions
sont croisées avec une cinquième qui trace le niveau de dépendance au secteur, soit
la part du secteur de l’armement dans le chiffre d’affaires de chacune des 17
entreprises.
Dit autrement, les 17 cas ont été chacun réduits par l’identification de six degrés
d’appartenance à des ensembles : cinq associés aux conditions explicatives et un
associé au phénomène à expliquer – l’adaptation, ou la non-adaptation. Nous
verrons plus précisément dans les prochains encadrés : comment la complexité des
données initiales a été conservée (Encadré 2), comment les cas et conditions ont été
identifiés (Encadré 3), comment les données des cas ont été réduites à des valeurs
comprises entre 0 et 1 pour représenter les degrés d’appartenance aux six ensembles
(Encadré 4) et comment les résultats ont été analysés (Encadrés 5a et 5b). L’analyse
L’analyse qualitative comparative 3

a permis d’identifier cinq configurations de conditions suffisantes, quatre


correspondant à des trajectoires d’adaptation et une à une trajectoire de non-
adaptation.
Source : d’après Vergne & Depeyre (2016)

Le lecteur remarquera que le vocabulaire et les concepts utilisés diffè-


rent de ceux mobilisés traditionnellement par les méthodes statistiques :
on parlera de conditions et de phénomène à expliquer plutôt que de va-
riables indépendantes et dépendantes, de calibration plutôt que de me-
sure, ou encore de relation de nécessité et de suffisance plutôt que de
corrélation. Ces changements reflètent l’adoption d’un mode de raison-
nement ensembliste. A l’inverse, le lecteur pourra être surpris de retrou-
ver le terme de « cas », employé traditionnellement dans les approches
qualitatives, alors que les données semblent réduites à quelques scores
d'appartenance à des ensembles. Mais l’utilisation du même terme sou-
ligne l’importance de la mise en contexte qualitative des cas, à la fois pour
bien concevoir l’analyse et pour interpréter correctement les résultats. Ce
n’est d’ailleurs pas un hasard si l’on parle de méthode d’analyse qualita-
tive comparative.

1. Associer la richesse des cas à la puissance de l’analyse


comparative

1.1. La richesse de la complexité causale

Le travail sur des descriptions et des explications riches de phéno-


mènes invite à manier des données détaillées, mises en contexte, com-
plexes voire déroutantes. Weick (2007, p. 14) définit la « richesse »
comme quelque chose qui va au-delà du normal, qui dépasse un standard,
par opposition à ce qui peut être « pauvre » ou « insuffisant ». Il prend
l’exemple d’une carte postale de musée qui met en lumière, quand elle est
apposée à côté de l’œuvre imparfaitement reproduite, la richesse même
de cette œuvre.
La notion de richesse est délicate car elle n’a de sens que dans le con-
texte de chaque recherche. Dans le cadre de la démarche QCA, la richesse
sur laquelle le chercheur est invité à construire tient à trois caractéris-
tiques dont la prise en compte doit permettre d’enrichir la compréhension
d’un phénomène : la causalité conjoncturelle, l’équifinalité et l’asymétrie
des causes.
Premièrement, la méthode QCA s’intéresse à l’étude de configurations
(ou conjonctions) de causes, en rendant compte de combinaisons de con-
ditions associées à un phénomène. Les méthodes d’inférence statistique
classiques qui permettent de travailler essentiellement sur des « effets
nets » de variables considérées indépendamment les unes des autres, ont
été raffinées par des techniques permettant de tenir compte des conjonc-
tions de causes (e.g. probabilités conditionnelles, régression pas-à-pas),
mais avec la méthode QCA on place l’interdépendance entre conditions au
cœur de l’analyse.
Deuxièmement, le phénomène d’équifinalité est pris en compte dans le
sens où une hétérogénéité de configurations de causes menant au même
résultat peut être repérée. Chaque configuration constitue un chemin
causal possible pour expliquer un phénomène. Notons que la notion
d’équifinalité est bien différente de celle d’équivalence : si plusieurs che-
mins mènent à Rome (ils ont la même finalité), ils sont loin d’être tous
équivalents (certains seront plus rapides, d’autres moins coûteux mais
plus fatigants, etc.).
Enfin, la démarche QCA tient compte de la possible asymétrie des
causes. Les éléments qui contribuent à expliquer la présence d’un phéno-
mène ne sont pas automatiquement les mêmes que ceux qui contribuent à
expliquer son absence. Egalement, l’identification du rôle causal d’une
condition ne permet pas de conclure quant au rôle causal de son absence.
L’Encadré 2 permet d’illustrer chacune de ces trois caractéristiques
dans le cas de l’exemple filé tout au long du chapitre. Les encadrés sui-
vants permettront d’expliciter comment les résultats ont été obtenus.

Encadré 2
Restituer la complexité des cas

Dans notre exemple, la démarche QCA permet d’étudier la question de


l’adaptation – et de la non-adaptation – dans sa complexité, en rendant compte de :
– La causalité conjoncturelle : les cinq conditions mobilisées permettent de
croiser les champs de littérature portant sur la cognition et les capacités.
Ceux-ci présentent un potentiel d’intégration (Eggers & Kaplan, 2013) à
même d’éclairer plus en détail les processus d’adaptation. L’analyse QCA a
par exemple permis d’identifier deux configurations d’adaptation (les
entreprises « opportunistes » et les « décisives », selon les termes que nous
avons choisis de donner à nos résultats) qui indiquent qu’une manifestation
d’attention tardive à un changement peut être compensée par une
reconfiguration d’actifs étendue.
– L’équifinalité : plusieurs chemins causaux ont été identifiés. Par exemple,
trois des configurations d’adaptation impliquent la présence d’une
reconfiguration d’actifs étendue, mais une quatrième configuration permet
d’identifier des entreprises (« anticipatrices ») qui parviennent à s’adapter
sans que les reconfigurations ne soient toujours de grande ampleur, et même
sans augmenter leur intensité.
– L’asymétrie des causes : l’analyse de trajectoires d’adaptation et de non-
adaptation (présence et absence du résultat) permet d’envisager la
possibilité d’une non-adaptation « stratégique » qui ne serait pas
automatiquement le synonyme d’un échec d’adaptation. Egalement, des
L’analyse qualitative comparative 5

conditions nécessaires ont été identifiées pour la non-adaptation (comme


l’absence de dépendance au secteur de la défense) – mais elles n’expliquent
pas pour autant l’adaptation.
Source : d’après Vergne & Depeyre (2016)

1.2. Le raisonnement ensembliste

Ces trois caractéristiques – causalité conjoncturelle, équifinalité et


asymétrie des causes – qui permettent d’analyser la complexité d’une
situation sont au cœur du raisonnement ensembliste associé à l’algèbre
booléenne (Schneider & Wagemann, 2012, p. 78).
La méthode ensembliste permet en effet de raisonner sur des configu-
rations de causes par l’identification de relations de nécessité et/ou de
suffisance1, au niveau des conditions prises individuellement et au niveau
des configurations. La complexité causale se manifeste au travers de con-
figurations de causes identifiées comme nécessaires et suffisantes, néces-
saires mais insuffisantes, ou non nécessaires mais suffisantes. Par exemple
pour faire du pain, il est nécessaire d'avoir de la farine, de l'eau, ainsi
qu'une source de chaleur pour la cuisson : ces trois conditions sont néces-
saires (elles entrent en jeu dans la préparation de tout type de pain) mais
aucune d'entre elles n'est suffisante.
Sur un petit nombre de cas, les conditions nécessaires et/ou suffi-
santes pourraient être identifiées directement sans recours à l’algèbre.
Mais quand on augmente le nombre de cas à comparer, cela devient rapi-
dement complexe. Les outils analytiques offerts par la méthode QCA
prennent alors tout leur sens, en permettant de restituer sous une forme
simple les configurations de causes communes à plusieurs cas, sans que
cela ne se fasse au détriment de la richesse des cas. Nous avons déjà souli-
gné l’attention particulière portée à la richesse explicative que contien-
nent les conjonctions de causes, potentiellement équifinales et asymé-
triques. Soulignons également que la comparaison analytique n’écarte pas
les cas « déviants » : si des caractéristiques communes ne sont pas identi-
fiées pour certains cas, ils demeurent en eux-mêmes des configurations de
causes possibles. C’est à dire qu’un cas isolé peut contribuer à affiner la
compréhension d’un phénomène, ce qui différencie de manière assez fon-
damentale la démarche QCA de démarches statistiques pour lesquelles les
cas déviants viennent diminuer la significativité de la mesure d’une corré-
lation entre deux éléments.

1
A est une condition nécessaire de B si et seulement si l’absence de A garantit l’absence de B. A
est une condition suffisante de B, si et seulement si la présence de A garantit la présence de B. La
présence de A signifie l’appartenance à l’ensemble A (la valeur 1 en langage booléen).
La méthode QCA offre ainsi un entre-deux entre parcimonie (la simpli-
cité offerte par la comparaison analytique) et complexité (pour conserver
la richesse des cas et des explications).

1.3. Des équilibres à trouver

Une difficulté essentielle – mais c’est là qu’est tout l’intérêt de la mé-


thode – consiste en effet à trouver un équilibre entre parcimonie et com-
plexité, mais aussi entre un raisonnement inductif et déductif, qualitatif et
quantitatif.
Nous verrons par exemple que les solutions logicielles permettent
d’obtenir plusieurs types de solutions dont l’expression analytique est
plus ou moins complexe.
Concernant l’équilibre entre induction et déduction, nous verrons éga-
lement que le choix des conditions se fait au gré d’un dialogue entre faits
et idées qui permet au chercheur d’établir progressivement des liens de
causalité (Curchod, 2003). Egalement, lors de l’analyse des résultats, on
peut raisonner tant à partir des configurations empiriquement repérées
qu’à partir des configurations théoriquement possibles.
Autre exemple concernant enfin l’équilibre quali-quantitatif : nous ver-
rons que la calibration d’une condition, qui consiste à affecter une valeur
entre 0 et 1 pour chacun des cas, ne doit pas être confondue avec la me-
sure d’une variable (Fiss, 2007). La connaissance qualitative des cas et des
conditions est essentielle à la détermination des valeurs numériques, no-
tamment en ce qui concerne la valeur-seuil 0,5. Elle l’est également pour
l’interprétation des résultats.
Les parties suivantes vont ainsi permettre de présenter la méthode
QCA plus en détail, tout en mentionnant des précautions dans son applica-
tion afin de bien rester dans l’esprit de la méthode. L’Encadré 6 reviendra
notamment sur des exemples de choix qui traduisent la mise en pratique
de ce travail « d’équilibriste ».

2. L’application de la méthode QCA

2.1. Un exemple avec fs/QCA 2.5, logiciel libre et gratuit

Il existe différentes variantes de QCA, mais la forme la plus couram-


ment utilisée – et probablement aussi la plus utile en sciences de l'organi-
sation – se nomme fsQCA, littéralement fuzzy-set qualitative comparative
analysis. Elle est basée sur la « logique floue » développée par Zadeh
(1965) et consiste, pour chaque cas analysé, à déterminer s'il se situe plu-
tôt à l'intérieur ou à l'extérieur d'un ensemble préalablement défini, pour
chacune des conditions. Cela signifie qu'on ne raisonne pas simplement en
termes binaires (oui/non), mais qu'on s'autorise à distinguer les cas à la
L’analyse qualitative comparative 7

fois qualitativement (condition plutôt présente vs. plutôt absente) et


quantitativement (90% vs. 60%).
Afin d'illustrer notre propos avec un exemple concret et de guider le
lecteur dans l'application de la méthode QCA, nous utilisons ici le logiciel
libre et gratuit fs/QCA 2.5 (Ragin & Davey, 2014) qui permet d’appliquer
cette logique « floue ». Il s'agit d'une version récente du plus ancien logi-
ciel développé pour la méthode QCA au début des années 1990. Il est très
simple d'utilisation mais ne fonctionne que sous Windows. Une alterna-
tive intéressante pour Mac est le logiciel Kirq 2.1.12 (Reichert & Rubinson,
2014), lui aussi libre et gratuit, mais il ne calcule pas automatiquement la
solution dite « intermédiaire » (cf. section 2.4), c'est pourquoi nous lui
préférons fs/QCA 2.5. Il existe également des packages disponibles pour
l'environnement logiciel R, notamment QCAGUI 2.2 (Duşa, 2016), mais ils
ne sont pas aussi accessibles pour l’utilisateur novice.
Tous ces logiciels peuvent être téléchargés sur le site
www.compasss.org (avec 3 « s » !) à la page « software ». Ce site, très
complet et mis à jour régulièrement, constitue une référence pour l'utili-
sation de QCA – il compile notamment toutes les publications utilisant la
méthode dans les principales revues internationales en sciences sociales.

2.2. Première étape : la sélection des cas et des conditions

Avec QCA, la définition préalable des ensembles consiste d'abord à dé-


finir un phénomène à expliquer ainsi qu'un certain nombre de conditions
explicatives, dont on analysera le caractère « nécessaire » ou « suffisant »
à l'aide du logiciel. Il faut également définir l’échantillon des cas à analyser
Ces choix s'opèrent sur la base d'un dialogue entre connaissance théo-
rique et connaissance du champ empirique (un dialogue en soi assez clas-
sique, mais avec toujours une attention particulière portée à la complexité
causale). Quel est le phénomène à expliquer ? Où puis-je l'observer ?
Quelles théories identifient des mécanismes susceptibles d'expliquer ce
phénomène ?
L’échantillon des cas n’a pas à être représentatif au sens statistique du
terme, mais il est important de le choisir de telle sorte qu'il incarne bien le
phénomène auquel on s'intéresse. FsQCA est le plus analytiquement per-
formant sur des échantillons compris entre une douzaine et une cinquan-
taine de cas, que le logiciel peut comparer et que le chercheur se doit de
connaitre en profondeur. Egalement, la relation entre le nombre de condi-
tions explicatives c et le nombre de cas n doit, idéalement, vérifier
l'inéquation : n ≥ 0.5 x 2c. Ainsi, avec 5 conditions explicatives, il est bon
d'avoir au minimum 16 cas ; avec 6 conditions, au minimum 32 cas ; avec
7 conditions, au minimum 64 cas ; etc. De manière générale, nous ne re-
commandons pas d'utiliser QCA avec moins d'une douzaine de cas.
Encadré 3
Le phénomène à observer, les conditions explicatives et les cas

Comme expliqué dans l'Encadré 1, nous cherchons à expliquer comment les


organisations s'adaptent (ou non) à un changement majeur dans leur environnement.
Nous avons identifié, à partir d'une revue de la littérature sur l'adaptation, deux
courants théoriques majeurs qui cherchent à expliquer le phénomène : 1/ la
recherche sur la cognition managériale (Eggers & Kaplan, 2013), dont nous tirons
deux conditions explicatives (« timing de l’attention » et « intensité de
l’attention ») ; 2/ la recherche sur les capacités dynamiques (Teece, Pisano & Shuen,
1997), dont nous tirons deux autres conditions (« périmètre des reconfigurations » et
« intensité des reconfigurations »). Nous avons également fait appel à la théorie sur
la dépendance à l'égard des ressources (Pfeffer & Salancik, 1978) pour calibrer une
cinquième et dernière condition explicative – la dépendance financière aux contrats
du Pentagone.
Pour observer le phénomène d’adaptation ou de non-adaptation, nous avons
également identifié une industrie aux contours bien définis (les entreprises qui
intègrent les systèmes de défense aux Etats-Unis), et affectée par un changement
majeur et largement exogène (les attaques terroristes du 11 septembre 2001). Nous
avons pu collecter des données pour 17 entreprises de défense représentant au total
près de 75% du marché de la défense aux Etats-Unis. Notons donc que, malgré le
faible nombre de cas comparé à une étude quantitative utilisant des méthodes
économétriques, notre échantillon représente une large proportion de l'industrie
étudiée.
La calibration des données détaillée dans l’encadré suivant a pour objectif
d'associer chacun des 17 cas à six ensembles : 1/ les organisations qui se sont plutôt
adaptées à l'environnement post-11 septembre, ou ne se sont plutôt pas adaptées
(phénomène a expliquer) ; 2/ celles qui font attention plutôt en avance, ou plutôt en
retard aux changements dans l'environnement associés à la montée en puissance des
conflits asymétriques ; 3/ celles qui accordent plutôt beaucoup d’attention à ces
changements, ou plutôt peu d'attention ; 4/ celles qui augmentent le périmètre des
reconfigurations d'actifs après le 11 septembre, ou qui le diminuent ; 5/ celles qui
augmentent l'intensité des reconfigurations d'actifs après le 11 septembre, ou qui la
diminuent ; 6/ celles qui dépendent majoritairement du Pentagone pour leurs ventes,
ou celles pour qui le Pentagone est un client minoritaire.
L'appartenance (partielle car « fuzzy ») aux ensembles associés aux conditions 2
à 6 nous permettra plus tard d'identifier des configurations de conditions nécessaires
ou suffisantes pour expliquer l'appartenance aux deux ensembles associés au
phénomène à expliquer (ceux des firmes adaptées ou non-adaptées).
Source : d’après Vergne & Depeyre (2016)

Dans le logiciel fs/QCA, comme dans la plupart des autres logiciels, on


organisera les données de la manière suivante : en colonnes, les condi-
tions explicatives et le phénomène à observer (la première colonne étant
généralement réservée aux « identifiants » des cas) ; en lignes, les cas. Le
tableau de données aura donc un nombre de lignes égal au nombre de cas,
et un nombre de colonnes égal au nombre de conditions, plus une colonne
L’analyse qualitative comparative 9

pour le phénomène à expliquer – généralement la dernière (sans compter


la colonne contenant les identifiants). Le tableau 1 ci-dessous reprend une
partie de la table de données de notre exemple. On peut la construire dans
un tableur (e.g. MS Excel) avant de la sauvegarder au format .csv afin de
l’importer pour les analyses dans le logiciel (e.g. dans fs/QCA 2.5, à l'aide
du menu « file/open/data »). Nous montrons dans la section suivante
comment « calibrer » les conditions entre 0 et 1.

Tableau 1. - Exemple de table de données (extrait)


Dépendance Périmètre des
Cas Identifiant Adaptation
armes reconfigurations
Computer Sciences Corp CSC 0.16 0.4 0.4
Halliburton HAL 0.02 0.6 1
Lockheed Martin LOC 0.75 0.8 0.8
Raytheon RAY 0.76 0.6 0.6
URS Corp URS 0.15 0.4 0.2

Source : Vergne & Depeyre (2016, table de données complète p. 1660


de l’article)

2.3. Deuxième étape : la calibration des données

Comme suggéré précédemment, pour chaque condition explicative


(ainsi que le phénomène à expliquer), il existe deux idéaux-types pos-
sibles (e.g. organisations parfaitement adaptées ou non-adaptées). Par
convention, ces idéaux-types sont représentés par les valeurs 0 et 1, et
l'impossibilité de déterminer de quel idéaltype un cas se rapproche le plus
par la valeur 0,5. Alors que dans la version « crisp-set » de QCA on ne peut
utiliser que les valeurs extrêmes 0, 0,5 et 1, dans la version « fuzzy-set » on
peut utiliser toutes les valeurs comprises entre 0 et 1 et donc conserver
davantage d’informations. On définit des degrés d'appartenance à des
ensembles, et non des appartenances pures et exclusives.
Calibrer les données en fsQCA, c'est donc attribuer à chacun des cas un
score compris entre 0 et 1 pour chaque condition explicative, ainsi que
pour le phénomène à expliquer. Ces scores doivent être définis de manière
à représenter à la fois des différences qualitatives pertinentes ou diffe-
rences in kind (en utilisant la valeur-seuil de 0,5) et des différences quanti-
tatives tangibles ou differences in degree (en contrastant, par exemple, les
valeurs 0,6 et 0,9). Les intervalles [0-0,5[ et ]0,5-1] représentent deux
ensembles qualitativement différents (les organisations non-adaptées vs.
adaptées), mais à l'intérieur de chaque intervalle, on peut représenter des
différences quantitatives (un score de 0,9 représente une organisation
appartenant dans une plus large mesure à l'ensemble des « firmes adap-
tées » qu’une organisation avec un score de 0,6).
Par analogie, on peut considérer que la valeur 0,5 en fsQCA équivaut à
une température de 0°C pour l'eau : en dessous de zéro l'eau est solide
(c'est de la glace), et au-dessus elle est liquide. Mais la glace, tout comme
l'eau liquide, peut être plus ou moins froide. Les températures de -2°C et -
76°C seront donc comparables qualitativement (dans les deux cas on ob-
tient de la glace) mais différentes quantitativement (la glace à -76°C est
bien plus froide). Une échelle unique de température permet donc bien de
distinguer des différences à la fois qualitatives et quantitatives.
L'Encadré 4 ci-dessous illustre ces idées en poursuivant notre exemple.

Encadré 4
Calibration des données fsQCA

Le Tableau 1 reproduit les données calibrées de 5 des organisations étudiées pour


2 des conditions explicatives ainsi que pour le phénomène observé. Nous explicitons
ci-dessous pour illustration le processus de calibration associé.
« Adaptation »
Pour calibrer le phénomène à expliquer, nous avons mené une enquête par
questionnaire auprès d’experts de la défense internationalement reconnus, à qui
nous avons demandé : « A votre avis, dans quelle mesure les entreprises américaines
de défense suivantes ont-elles adapté leurs opérations et leur offre de produits aux
nouvelles conditions dans l’industrie, telles que redéfinies par exemple par le
Pentagone, suite aux attaques du 11 septembre ? ». Pour chacune des 17 entreprises,
les experts devaient donner un score sur une échelle de type Likert, allant de « 1 :
s’est adaptée de manière très insuffisante » à « 7 : s’est adaptée de manière
remarquable », en passant par le point médian « 4 : adaptation dans la moyenne de
l’industrie ». Nous avons ainsi pu refléter les différences qualitatives en calibrant les
scores moyens supérieurs à 4 dans l’intervalle ]0,5-1], et les scores inférieurs dans
l’intervalle [0-0,5[. Nous avons utilisé des incréments de 0,2 pour refléter les
différences quantitatives sur l’échelle de Likert.
« Dépendance aux ventes d’armes »
Pour calibrer cette condition explicative inspirée de la théorie de la dépendance à
l’égard des ressources, nous nous sommes appuyés sur l’idée que, plus une
entreprise dépend des ventes d’armes pour réaliser son chiffre d’affaires, plus elle a
intérêt à s’adapter aux desiderata du Pentagone (le principal acheteur de systèmes
d’armes aux Etats-Unis). Nous avons donc mesuré le pourcentage moyen du chiffre
d’affaires de chaque entreprise réalisé dans le secteur militaire (par opposition aux
ventes dites « civiles ») au cours des 4 années précédant le 11 septembre. Nous
avons ensuite remarqué que les valeurs obtenues étaient distribuées de manière
bimodale : les entreprises étaient ou bien des conglomérats « généralistes »
diversifiés dans la défense (moins de 40% du chiffre d’affaires), ou bien des
spécialistes de l’armement (plus de 65% du chiffre d’affaires). Aucune entreprise ne
se situait entre les deux, autour de 50%. Nous avons donc décidé que cette
distribution bimodale représentait bien une différence de nature entre deux types
d’entreprises, et avons calibré cette condition en utilisant la valeur brute de la
proportion du chiffre d’affaires réalisée dans la défense, divisée par 100, afin de
préciser aussi des différences de degré.
« Périmètre des reconfigurations »
Pour calibrer cette condition explicative inspirée de la théorie des capacités
L’analyse qualitative comparative 11

dynamiques, nous avons mesuré une différence entre l’avant et l’après 11


septembre. Lorsque le périmètre des reconfigurations d’actifs augmentait après le 11
septembre, nous avons calibré la condition dans l’intervalle ]0,5-1]. Lorsqu’il
diminuait, nous l’avons calibré dans l’intervalle [0-0,5[. Le détail des calculs pour
cette condition (ainsi que pour le reste de la table de données) est explicité en
annexe de l’article.
Source : d’après Vergne & Depeyre (2016)

Notons que la calibration des cas peut être facilitée par l'utilisation
d'un logiciel – en particulier pour des échantillons plus importants com-
portant des dizaines, voire des centaines ce cas. Avec le logiciel fs/QCA,
cela peut être fait via la fonction « variable/recode/calibrate » en indi-
quant quelles valeurs dans les données brutes correspondent aux seuils 0,
0,5 et 1 pour la condition considérée.
Quelle que soit la méthode utilisée pour calibrer les données, il faut
garder à l'esprit quelques points essentiels. D’une part, tous les cas ne
peuvent être calibrés en-dessous ou au-dessus du seuil de 0,5 pour une
condition donnée, sans quoi cette dernière perdrait automatiquement tout
pouvoir explicatif. Cette idée, plutôt intuitive, est d’ailleurs également
valable en économétrie – par exemple, pour examiner l'effet de la diversi-
té des PDG sur la performance des entreprises, on ne peut se contenter
d'un échantillon dans lequel tous les PDG sont des hommes.
D’autre part, avec fsQCA il n’est pas utile de distinguer, par exemple sur
une échelle de Likert à 7 niveaux, un score moyen de 3,1 d’un score moyen
de 3,3, car la différence entre les deux n’est pas significative (ni statisti-
quement, pour un questionnaire administré auprès d’un petit nombre
d’experts ; ni substantivement). On peut attribuer dans les deux cas une
calibration légèrement en dessous du seuil qualitatif de 0,5 – par exemple
0,4. En effet, les résultats d’une analyse fsQCA pourront changer de nature
lorsqu’une recalibration fait franchir, dans un sens ou dans l’autre, le seuil
de 0,5 – par exemple, si le chercheur remplace la valeur 0.45 par 0.55. En
revanche, les résultats d’une analyse fsQCA ne changeront pas substantiel-
lement si une recalibration fait varier quantitativement une valeur au sein
d’un même intervalle (par exemple si le chercheur remplace la valeur 0,4
par 0,3). Notons cependant que les différences quantitatives dans la cali-
bration (e.g. 0,4 vs. 0,3) jouent un rôle important dans le calcul des scores
d'appartenance des cas dans chacune des configurations de conditions,
ainsi que dans le calcul de deux statistiques essentielles (les scores de
consistency et de coverage) que nous allons discuter dans la prochaine
section.
Enfin, il faut garder à l’esprit que le processus de calibration contribue
aussi à rendre la comparaison des cas intelligible. L’interprétation des
analyses sera d’autant plus aisée que le chercheur aura déjà habilement
simplifié les données. L’intervalle entre 0 et 1 offre de nombreuses possi-
bilités d’un point de vue numérique, mais en utilisant des échelles de va-
leur simplifiées par exemple à 4 ou 5 valeurs (0-0,33-0,66-1, ou 0-0,2-0,4-
0,6-0,8-1) on peut amorcer et faciliter le processus analytique de compa-
raison des cas

2.4. Troisième étape : l’analyse et l’interprétation des résultats

Il n'est pas exagéré de dire qu'avec fsQCA, l'élaboration du protocole


de recherche, le dialogue entre la théorie et le terrain, la collecte des don-
nées et la calibration représentent 90% du travail. Une fois ces étapes
franchies et le tableau de données créé, il ne reste plus qu'à utiliser le
logiciel pour révéler les conditions nécessaires ou suffisantes expliquant
la présence du phénomène auquel on s'intéresse – ou son absence. C'est
donc deux séries de deux analyses qu'il faut réaliser. Nous expliquons
comment ci-dessous, et poursuivons avec notre exemple détaillé dans
l'Encadré 5a/b.

2.4.1. Conditions nécessaires


La première série d’analyses – de loin la plus simple et la plus rapide –
consiste en une recherche de conditions nécessaires expliquant ou bien la
présence, ou bien l'absence du phénomène. Une condition Cn est néces-
saire au phénomène P si et seulement si à chaque fois que P est observé,
alors Cn est présente (e.g. la farine est nécessaire à la fabrication du pain).
En d'autres termes, l'ensemble P est un sous-ensemble de Cn, puisqu'à
chaque fois que je me trouve dans P, je me trouve forcement aussi dans
Cn. En sciences sociales cependant, étant donnée la complexité du monde
qui nous entoure, les conditions nécessaires pures mais non triviales sont
rares. Les conditions qui sont systématiquement associées à un phéno-
mène s’avèrent souvent dénuées de caractère explicatif. Par exemple, une
condition nécessaire à l'adaptation des grandes entreprises serait d’avoir
un département RH : c’est un point commun qu’ont toutes les entreprises
adaptées, mais c’est une condition nécessaire triviale puisque toutes les
grandes entreprises, adaptées ou non, en possèdent un.
Pour identifier des conditions nécessaires pertinentes en sciences so-
ciales, il faut donc choisir des conditions non triviales, par des allers-
retours entre faits et idées, puis accepter l’idée qu’il existe des exceptions
en travaillant sur des conditions quasi-nécessaires. On se satisfera ainsi
par exemple de conditions nécessaires présentes chez une large majorité
d'entreprises adaptées, et absentes chez une large majorité d'entreprises
non-adaptées. La logique « floue » prend ici tout son sens.

Encadré 5a
Résultats des analyses fsQCA : conditions nécessaires
L’analyse qualitative comparative 13

Dans fs/QCA 2.5, on clique sur « analyze/necessary conditions », on entre en


« outcome » le phénomène à expliquer (adaptation), puis on teste toutes les
conditions explicatives, qu’elles soient présentes ou absentes (auquel cas, elles sont
identifiées par un « ~ »). On ne trouve aucune condition nécessaire à l’adaptation
avec un score de cohérence suffisant (0,90 ou plus), mais deux conditions
explicatives sont très proches de ce seuil lorsque l’on reproduit l’analyse pour
expliquer la non-adaptation (~adaptation) ; l’absence de dépendance aux ventes
d’armes (0.87), et l’absence d’un bon timing de l’attention (0.89). Cela signifie
qu’une grande majorité des firmes non-adaptées ont ces deux traits en commun.
Mais attention : cela ne signifie pas qu’avoir ces deux traits entraine la non-
adaptation – ces conditions sont nécessaires mais pas suffisantes. D’autres traits
doivent être présents en plus de ces deux-là pour définir un « chemin causal » qui
mène systématiquement à la non-adaptation. Mais, en évitant de posséder ces deux
traits, une entreprise est (quasi)assurée de ne pas faire partie de l’ensemble des
firmes non-adaptées. Par analogie, observons que la farine n’est pas suffisante pour
faire du pain mais elle est bien nécessaire : sans farine, on est certain de ne jamais
pouvoir préparer du pain.
Source : d’après Vergne & Depeyre (2016)

Pour identifier ces conditions quasi-nécessaires et non triviales, on


commence ainsi par calculer le score de cohérence (consistency) pour
chacune des conditions explicatives, prise indépendamment. Plus le score
se rapproche de 1, plus le nombre de cas pour lesquels le phénomène est
présent mais la condition absente (faire du pain sans farine) est faible. Par
convention, on ne retient que les conditions nécessaires dont le score de
cohérence est supérieur à 0,90, suite à quoi il faut se demander si la rela-
tion de nécessité a vraiment du sens, et si elle contribue à l'état des con-
naissances. Des conditions nécessaires plus complexes peuvent également
être testées en connectant des conditions explicatives par des « ou » (e.g.,
« A ou B ou C »). Ceci dit, plus on ajoute d'éléments, plus la condition com-
plexe testée risque d'apparaitre triviale, puisque qu'on y inclut un très
grand nombre de possibilités (e.g. pour qu'une entreprise soit très per-
formante, il est nécessaire que « son PDG soit diplômé d'une école d'ingé-
nieur OU de commerce OU de l'université OU sans diplôme du supé-
rieur »).

2.4.2. Conditions suffisantes


Révéler des conditions suffisantes, c’est découvrir les chemins qui mè-
nent à Rome. On révèle différents chemins « équifinaux » qui représentent
des alternatives menant au même résultat (le phénomène à expliquer).
Pour identifier des conditions suffisantes, le logiciel QCA utilise un algo-
rithme qui analyse une « table de vérité » (truth table), puis la minimise en
appliquant la logique booléenne afin d'obtenir une expression simple des
différents chemins.
La table de vérité contient 2c lignes, qui peuvent ou non être associées
à des cas observés. Elle liste l’ensemble des combinaisons possibles
compte-tenu de l’absence/présence de chacune des conditions explica-
tives. Par exemple, pour 2 conditions A et B, cela fait 2 2=4 possibilités :
A=0 et B=0 ; A=0 et B=1 ; A=1 et B=0 ; A=1 et B=1 (en termes d'ensembles
flous, A=0 signifie en réalité que le cas observé est plus proche de l'idéal-
type 0 que de l'idéaltype 1, c’est-à-dire A<0,5). En général, on aura plus de
combinaisons théoriquement possibles que de cas dans l'échantillon (et
même si ce n'était pas le cas a priori, le chercheur serait tenté d'ajouter
des conditions explicatives à son modèle pour l'enrichir, tant que n ≥ 0,5 ×
2c).
L'algorithme conserve les lignes les plus pertinentes, c’est à dire celles
qui contiennent des données observées et non contradictoires, et simplifie
leur expression afin d'aboutir à la solution. Cette dernière liste les diffé-
rentes configurations de conditions suffisantes, ainsi que les scores de
cohérence et de couverture qui évaluent la validité de la solution. Plus le
score de cohérence se rapproche de 1, plus le nombre de cas pour lesquels
des configurations de conditions sont présentes mais le phénomène ab-
sent est faible. Le score de couverture (coverage) vient compléter celui de
cohérence, en indiquant la proportion de cas expliqués par la solution. Le
tableau 2 ci-dessous donne un exemple de représentation graphique de
ces résultats, puis l'Encadré 5b illustre le processus d’analyse associé pas
à pas. Nous poursuivons ensuite en donnant plus de détails concernant les
choix que peut faire le chercheur au cours de l'analyse face à deux pro-
blématiques récurrentes qui concernent les cas dits « contradictoires » et
« logiques ».

Tableau 2. - Exemple de représentation des conditions suffisantes


Configuration 1|Anticipateurs 2|Réactifs 3|Opportunistes 4|Décisifs
Dépendance armes ● ● ◌
Timing de l’attention ● ◌ ◌
Intensité de l’attention ● ● ◌
Périmètre des reconfigurations ● ● ●

Intensité des reconfigurations ◌ ◌ ●

Cas expliqués GEN, NOR, ATK LLL, RAY, LOC ROC, HAL UNI, DRS

Cohérence de la solution 0.97


Couverture de la solution 0.74

Source : Vergne & Depeyre (2016, tableau complet p. 1664). Les cercles
pleins (noirs) indiquent qu’une condition explicative doit être présente, et
les cercles vides (blancs) qu’elle doit être absente. L’absence de cercle
signifie qu’elle peut être soit présente, soit absente.

Encadré 5b
Résultats des analyses fsQCA : conditions suffisantes
L’analyse qualitative comparative 15

Dans fs/QCA 2.5, on commence par cliquer sur « analyze/fuzzy truth table
algorithm », puis on choisit le phénomène à expliquer (« set », adaptation), et on
entre dans le modèle les 5 conditions explicatives avec le bouton « add ». Pour
pouvoir visualiser dans les résultats, quels cas observés sont associés à quelles
conditions suffisantes, on clique sur « show solution cases in output ». On lance
ensuite l’analyse en cliquant sur « run ». Une table de vérité s’affiche alors. Nous
choisissons d’éliminer les lignes qui ne sont associées à aucun cas observé, ainsi que
les lignes contenant des données qui ne sont pas suffisamment cohérentes pour
contribuer à l’identification de conditions suffisantes robustes. Pour ce faire, il suffit
de sélectionner n’importe quelle cellule située dans la colonne « raw consist. »
(cohérence brute), puis de cliquer sur « sort/descending ». Les lignes sont alors
classées par ordre décroissant de cohérence. Par convention, nous ne souhaitons
conserver que les lignes avec un score de cohérence brute supérieur à 0,80, et un
score de « PRI consist. » (Proportional Reduction in Inconsistency) supérieur à 0,75
(Schneider & Wagemann, 2012). Pour ce faire, il suffit de sélectionner n’importe
quelle cellule dans la première ligne ne remplissant pas ces deux critères, puis de
cliquer sur « delete current row to last row » (tout effacer de cette ligne jusqu’à la
dernière ligne). On entre ensuite le chiffre 1 manuellement dans chaque cellule de la
colonne « adaptation » pour signifier que l’on souhaite conserver toutes ces lignes
associées à des cas d’adaptation pour la suite de la minimisation.
On clique ensuite sur « standard analyses » pour démarrer le calcul de la
solution. Le logiciel propose ensuite au chercheur d’entrer, s’il le souhaite, un
certain nombre de postulats théoriques qui permettront de simplifier l’écriture de la
solution (sans pour autant changer son contenu logique). Pour chaque condition
explicative, il s’agit de décider si l’état des connaissances théoriques nous laissent
penser que sa présence (ou son absence) mènera à l’adaptation. Dans notre cas,
seule la dépendance aux ventes d’armes est susceptible de favoriser l’adaptation des
entreprises de défense2 – pour les 4 autres conditions, associées à la cognition
managériale et aux capacités dynamiques, on ne sait pas ce qu’il peut advenir, c’est
d’ailleurs pourquoi nous réalisons cette étude ! Une fois ce postulat enregistré dans
le logiciel, on clique sur « standard analyses » et le logiciel affiche, dans une
nouvelle fenêtre, les solutions logiques. Le tableau 2 ci-dessus reproduit la solution
dite intermédiaire (« intermediate solution »), qui est bien souvent la plus pertinente
en sciences sociales.
L’interprétation du tableau de solution est la suivante. Tout d’abord, on remarque
que l’algorithme a identifié 4 chemins possibles qui mènent à l’adaptation. Le
premier chemin possible, décrit dans la première colonne, regroupe les firmes
General Dynamics, Northrop Grumman et ATK, que nous avons décidé de nommer
« anticipatrices ». En effet, ces spécialistes de la défense (dépendance armes = ●)
combinent une attention à la fois très précoce et très intense au changement (timing
et intensité de l’attention = ●), et par conséquent elles n’ont pas à augmenter
l’intensité de leurs reconfigurations d’actifs suite au 11 septembre (intensité des
reconfigurations = ◌), car des reconfigurations ont pu être réalisées par anticipation.

2
Ce n’est pas une condition nécessaire mais si elle est présente, c’est-à-dire si le chiffre d’affaires
d’une entreprise est fortement dépendant du secteur militaire, alors on peut faire le postulat que
l’entreprise sera fortement incitée à s’adapter aux changements qui affectent l’environnement
militaire (en référence à la théorie de la dépendance à l’égard des ressources – Pfeffer & Salancik,
1978).
Le premier chemin menant à l’adaptation peut donc s’écrire, dans le langage de la
logique booléenne (* = ET ; + = OU ; ~ = absence de ;  = implique) :
Chemin 1 : dépendance armes * timing de l’attention * intensité de l’attention *
~intensité des reconfigurations  adaptation
Notons également que la solution calculée par le logiciel (c’est-à-dire celle qui
identifie les 4 chemins) est très robuste : sa cohérence est proche de 100% (0,97,
soit 3% de chance qu’un cas suivant l’un des 4 chemins ne soit pas un cas
d’adaptation), et elle couvre 74% des données de notre échantillon (seuls 3 des 14
cas d’adaptation ne sont pas expliqués par l’un des quatre chemins). La solution
complète s’écrirait ainsi en langage booléen :
Chemin 1 + Chemin 2 + Chemin 3 + Chemin 4  adaptation
On pourrait ensuite répéter l’analyse pour expliquer la non-adaptation (dans le
logiciel : « set negated », adaptation), qui nous permettrait d’identifier un chemin
menant à la non-adaptation, couvrant 3 des 4 firmes dans notre échantillon qui ont
un score (calibré) d’adaptation inférieur à 0,5.
Source : d’après Vergne & Depeyre (2016)

Si la méthode fsQCA semble relativement simple au premier abord


(comparée aux méthodes économétriques), elle recèle en effet de nom-
breuses subtilités logiques et techniques que le chercheur expert devra
maitriser pour parfaire son travail. Par exemple, Chanson, Demil, Lecocq &
Sprimont (2005) abordent la question des cas « contradictoires », qui
apparaissent lorsqu'une même configuration de conditions explicatives
est associée à la fois à la présence et à l'absence du phénomène observé.
Si, dans Vergne & Depeyre (2016), nous avons choisi d'éliminer ces rares
configurations de l'analyse logique, d'autres choix sont possibles : retour-
ner sur le terrain pour mener des analyses complémentaires, ajouter une
nouvelle condition explicative pour distinguer les cas contradictoires en
les répartissant sur d'autres configurations plus fines, ou encore recali-
brer une ou plusieurs conditions explicatives.
Une deuxième difficulté provient du traitement réservé au problème dit
de la « diversité limitée » ou des cas « logiques », qui apparait (quasi-
systématiquement) lorsque le chercheur se rend compte que des configu-
rations de conditions théoriquement possibles ne sont associées à aucun
cas observé dans l'échantillon. Par exemple, dans Vergne & Depeyre
(2016), aucune des 17 firmes n'est un spécialiste de la défense ne possé-
dant aucune des 4 conditions associées aux capacités dynamiques et à la
cognition managériale. Que faire après un tel constat ? On peut en fait
calculer trois types de solutions, dites « parcimonieuses », « complexes »
ou « intermédiaires » en référence au degré de simplicité de l'expression
analytique de la solution. La plupart des logiciels, y compris fs/QCA 2.5,
affichent par défaut la solution dite « parcimonieuse » : l'algorithme du
logiciel conserve dans la table de vérité toutes les configurations sans
observation qui ne contredisent pas (logiquement) celles qui ont des ob-
servations, afin de simplifier l'expression analytique de la solution. La
solution dite « complexe » ne conserve à l’inverse que les configurations
L’analyse qualitative comparative 17

associées à des cas observés, au risque de ne pas pouvoir permettre la


même simplification analytique de l’expression. Finalement, on peut aussi
opter pour la solution dite « intermédiaire » en faisant une série de postu-
lats basés sur nos connaissances théoriques, afin de ne conserver qu'une
partie des configurations sans cas observés (c’est la solution de l’exemple
présenté dans l’Encadré 5b). Quelle que soit la décision prise par le cher-
cheur, elle se doit d’être transparente et discutée en détail dans la re-
cherche (Curchod, 2003).
Pour une discussion approfondie de tous ces éléments d’analyse, nous
renvoyons le chercheur à l'excellent ouvrage de Schneider & Wagemann
(2012), qui examine tous ces challenges et propose des solutions claires et
faciles à mettre en pratique.

3. Débats et points de vigilance

3.1. Richesse et robustesse de l’analyse

Une partie des débats sur la méthode QCA porte sur les compromis
qu’elle exige. Bien souvent, là où certains voient une limite (Goldthorpe,
1997 ; De Meur, Rihoux & Yamasaki, 2002), les défenseurs de la méthode
insistent sur son positionnement spécifique.
Par exemple, des critiques contestent la robustesse des analyses du fait
de sa sensibilité aux cas. Mais c’est justement l’un des intérêts de la mé-
thode que d’étudier une pluralité de configurations de causes.
L’introduction d’un nouveau cas a tout son sens, qu’il corresponde à une
configuration déjà mise au jour ou qu’il permette d’identifier un nouveau
chemin causal. Dans Vergne & Depeyre (2016), nous avons vu dans
l’Encadré 5b que 3 des 14 cas d’adaptation étudiés n’étaient pas expliqués
par les configurations identifiées (les scores de cohérence associés à ces
cas sont trop faibles pour nous permettre de conclure). Ils ne sont donc
pas visibles dans le Tableau 2, qui présente les 4 configurations de condi-
tions suffisantes. Pour autant, la méthode QCA permet de mettre au jour la
singularité de ces trois cas dont la complexité peut être étudiée par ail-
leurs. L’un de ces cas concerne par exemple l’entreprise Boeing qui a une
histoire particulière dans l’industrie militaire américaine (Depeyre, 2013).
L’« intimité » du chercheur avec les cas, pour reprendre le terme de
Ragin, est ici essentielle pour apprécier et interpréter les analyses QCA. On
rejoint alors un autre volet des critiques qui contestent cette fois-ci la
richesse des analyses. Une vigilance particulière doit être portée à la con-
naissance qualitative des cas, qui sert non seulement en amont de
l’analyse pour choisir les cas et les conditions, pour la calibration des don-
nées, mais aussi en aval pour l’analyse des conditions nécessaires et suffi-
santes. Rihoux, Marx & Álamos-Concha (2014) préconisent de régulière-
ment opérer des retours aux cas pour ne pas perdre ce contact étroit avec
les données, toujours dans un dialogue constant avec le cadre explicatif.
La plupart des critiques adressées à la méthode QCA invitent ainsi sur-
tout à penser sa bonne utilisation, à se poser les bonnes questions, à in-
venter un design approprié au contexte de chaque recherche et à être
transparent sur ses choix. L’Encadré 6 souligne pour exemple certains
choix qui ont été faits dans Vergne & Depeyre (2016) et explicite comment
ils ont été exposés aux lecteurs et relecteurs de l’article.

Encadré 6
Exposer ses choix aux lecteurs et relecteurs

A tous les stades de la recherche, de la collecte des données à l’écriture de


l’article, nous avons dû opérer des choix, produits du dialogue entre théorie et
données. Quelques-uns sont ici illustrés.
Première étape : la sélection des cas et des conditions
L’étude initiale comprenait 5 entreprises mais ce nombre de cas pouvait être
considéré comme trop élevé ou trop faible*. Certains cas ont été étudiés dans leur
unicité (Depeyre, 2008, 2013), mais pour permettre une comparaison pertinente en
termes de trajectoires d’adaptation, c’est à l’inverse une diversité plus grande qui a
été recherchée avec la collecte de données sur 12 cas supplémentaires (dont 4 cas
nouveaux qui se sont révélés être des cas de non-adaptation). Le chiffre total de 17
cas vient des possibilités de collectes de données (séries temporelles incomplètes sur
certains autres cas par exemple) mais il permet surtout de représenter la majeure
partie du marché de la défense aux Etats-Unis**.
Concernant la sélection des conditions, une condition supplémentaire a
initialement été introduite afin d’apprécier l’importance de chaque firme vis-à-vis
du Pentagone (l’entreprise fait-elle partie des « Big 5 » ou non ?) mais son
introduction rendait les résultats plus complexes et la contribution théorique à la
compréhension des trajectoires d’adaptation était faible. Elle a donc été supprimée*.
Deuxième étape : la calibration des données
Pour les données relatives à l’attention, les messages aux actionnaires publiés
chaque année ont été collectés puis analysés sous NVivo. Nous disposions
notamment pour chaque entreprise et chaque année du pourcentage de texte associé
au changement affectant l’environnement. Pour la calibration du timing de
l’attention, une échelle avec 4 valeurs (0-0,33-0,66-1) a cependant été utilisée plutôt
que ces pourcentages eux-mêmes, afin de refléter 4 profils qui se dessinaient, du
plus précoce ou plus tardif***.
Troisième étape : l’analyse et l’interprétation des résultats
Les pourcentages précis ont par contre été utilisés au sein de graphiques qui sont
venus compléter l’analyse QCA. Un graphique est proposé pour chacune des 5
configurations identifiées dans l’article (4 cas d’adaptation et 1 cas de non-
adaptation). L’objectif était de proposer une représentation non redondante mais
complémentaire des conditions. Les graphiques permettent de donner à voir le détail
de certains cas et sont complétés par de courtes narrations. Pour le cas de Lockheed
Martin par exemple, l’intensité de la reconfiguration des actifs est calibrée à 0,2
mais le graphique p.1668 de l’article permet de bien comprendre l’aspect temporel
L’analyse qualitative comparative 19

de la mesure : 0,2 signifie que l’intensité n’est pas plus forte après le 11 septembre,
même si de nombreuses reconfigurations (explicitées dans la narration) sont mises
en place sur la période – avant et après 2001**.
Enfin, la robustesse de l’analyse a été étudiée en comparant les résultats à ceux
obtenus avec des calibrations alternatives (de l’adaptation ou de certaines des
conditions)***. Toutes les variantes ne sont pas relatées dans l’article ou son annexe
mais ont permis d’étayer les discussions avec les relecteurs*.

* Eléments essentiellement discutés dans les rapports des relecteurs et de l’éditeur et dans les
réponses des auteurs.
** Eléments essentiellement discutés dans le corps de l’article ou en note de bas de page.
*** Eléments essentiellement discutés dans l’annexe méthodologique de l’article.
Source : d’après Vergne & Depeyre (2016)

3.2. Des extensions possibles

Il demeure que la méthodologie QCA reste aussi en cours de dévelop-


pement (Ragin & Rihoux, 2004 ; Schneider & Wagemann, 2010 ; Schultze-
Bentrop, 2013) afin d’améliorer sa robustesse à toutes les étapes de
l’analyse, ou afin de mettre mieux mettre l’accent sur la richesse initiale et
restituée des cas (Rihoux, Marx & Álamos-Concha, 2014). Nous pouvons
citer ici quelques extensions qui ont été développées, certaines au sein de
l’approche « fuzzy-set », d’autres pour promouvoir d’autres logiques
d’analyse comparative.
Si l’on reste dans la logique des ensembles flous, un raffinement a no-
tamment été introduit par Fiss (2011) afin de distinguer les conditions
« centrales » (« core ») de conditions « périphériques ». L’approche QCA
permet en effet de raisonner sur des configurations ou typologies, mais
l’interprétation des résultats par le chercheur peut parfois devenir déli-
cate notamment parce que le nombre de conditions combinées augmente.
La distinction de conditions centrales offre ainsi la possibilité de se cen-
trer sur les caractéristiques clefs qui font d’une configuration un ensemble
cohérent, et plusieurs constellations de causes périphériques peuvent
exister autour d’une condition centrale.
D’autres recherches visent également à travailler sur l’utilisation de la
méthode fsQCA sur un très grand nombre de cas. Schulze-Bentrop (2013,
p. 48) a en effet identifié que 16% des études mobilisant la méthode QCA
portaient sur un nombre de cas supérieur à 100. Ce chiffre est cohérent
avec le positionnement initial de la méthode comme intermédiaire entre
des études de cas unique et des études statistiques sur de grands échantil-
lons. Mais comme indiqué en introduction, la méthode QCA introduit
avant tout une logique propre en raisonnant sur des configurations. Une
utilisation sur un grand nombre de cas peut donc être envisagée mais
amène à réfléchir notamment à l’équilibre entre le nombre de conditions
et le nombre de cas (Schulze-Bentrop, 2013 ; Krogslund & Michel, 2014).
Toujours dans la logique des ensembles flous, des chercheurs travail-
lent à une meilleure prise en compte de la dimension temporelle des phé-
nomènes étudiés. Furnari & Meuer (2016) sont par exemple intervenus
dans un symposium de l’Academy of Management pour promouvoir une
approche temporelle qui reste centrée sur les cas. Ils ont souligné l’intérêt
d’inclure dans la définition même des conditions et leur calibration, une
dimension temporelle qui permette de saisir des changements (ou change
patterns). L’exemple développé dans ce chapitre offre d’ailleurs une illus-
tration avec plusieurs dynamiques de changement directement intégrées
dans les conditions (e.g. changement dans l’intensité de l’attention ou des
reconfigurations) ou dans le phénomène observé (des trajectoires
d’adaptation).
A l’inverse, d’autres chercheurs ont développé des méthodes hors de la
logique fsQCA. La méthode « temporal » QCA propose par exemple de tra-
vailler sur l’aspect longitudinal des cas étudiés (Caren & Panofsky, 2005)
en croisant la logique booléenne à celle de l’analyse séquentielle, afin de
tenir compte de l’ordre dans lequel les événements surviennent. Ou la
méthode « mutli-value » QCA (Cronqvist & Berg-Schlosser, 2009) propose
de calibrer les conditions avec des échelles de valeur multiples (par
exemple, 1 ou 2 ou 3), afin de libérer la contrainte de calibration avec une
valeur comprise entre 0 et 1. Le site www.compasss.org évoqué plus haut
recense les références clefs associées à ces différents développements.
Enfin, Dul (2016) a récemment proposé un développement méthodo-
logique appelé « Necessary Condition Analysis » (NCA) qui vise à raffiner
l’étude des conditions nécessaires. La méthode QCA amène en effet à une
analyse simplifiée des conditions nécessaires, alors que la méthode NCA
permet de généraliser ces analyses en examinant des effets de seuil, aussi
bien au niveau des conditions explicatives que du phénomène à expliquer
(e.g. pour qu'une entreprise ait un taux de marge d'au moins 8%, il est
nécessaire que…). Un logiciel a été développé à cet effet.

Conclusion
En conclusion, rappelons que la mobilisation de l’analyse qualitative
comparative nécessite de maîtriser un ensemble d’aspects techniques
mais aussi de bien en assimiler la démarche. Un des risques principaux
consiste à appréhender l’utilisation de la méthode QCA au travers du
prisme d’autres méthodes. Pour les chercheurs qui ont l’habitude de me-
ner des études de cas unique, l’étape de réduction des données à des
chiffres compris entre 0 et 1 pourra paraître très restrictive. Pour les
chercheurs qui ont l’habitude d’étudier des régressions, la quasi-absence
de tests et l’interdépendance des conditions étudiées pourra être décon-
certante, tout comme la « calibration » et non la « mesure » des données.
L’analyse qualitative comparative 21

Des parallèles et complémentarités existent bien évidemment, mais c’est


en appréhendant bien ce qu’est la méthode QCA, et ce qu’elle n’est pas,
que l’on peut l’utiliser au mieux, en oscillant entre induction et déduction,
aspects quantitatifs et qualitatifs, parcimonie et complexité.

Bibliographie
CAREN N., et PANOFSKY A., « TQCA: A Technique for Adding Temporality to Qualitative
Comparative Analysis », Sociological Methods and Research, vol. 34, n° 2, 2005, pp. 147-172.
CRONQVIST L., et BERG-SCHLOSSER D., « Multi-Value QCA (mvQCA) », in RIHOUX B., et
RAGIN C. (Ed.), Configurational Comparative Methods : Qualitative Comparative Analysis
(QCA) and Related Techniques, Sage Publications, 2009, pp. 69-86.
CHANSON G., DEMIL B., LECOCQ X., et SPRIMONT P.-A., « La place de l’analyse
qualitative comparée en sciences de gestion », Finance Contrôle Stratégie, vol. 8, n°3, 2005,
pp. 29-50.
CURCHOD C., « La méthode comparative en sciences de gestion : vers une approche quali-
quantitative de la réalité managériale », Finance Contrôle Stratégie, vol. 6, n° 2, 2003, pp. 155-
177.
DEPEYRE C., « Orchestrer les actifs pour rester concurrentiel. La trajectoire stratégique de
Raytheon », Gérer & Comprendre, n°91, 2008, pp. 55-66.
DEPEYRE C., « Boeing Boeing : la dualité civil-militaire source d’un rebond stratégique dans
l’ère post-Guerre Froide », Entreprises & Histoire, n°73, 2013, pp. 58-74.
DE MEUR G., RIHOUX B., et YAMASAKI S., « Revue critique… des critiques de l’AQQC », in
DE MEUR G., et RIHOUX B. (Ed.), L’analyse quali-quantitative comparée (AQQC-QCA)
Academia-Bruylant, 2002, pp. 119-144.
DUL J., « Necessary Condition Analysis (NCA): logic and methodology of “necessary but not
sufficient” causality », Organizational Research Methods, vol. 19, n° 1, 2016, pp. 10-52.
EGGERS J.P., et KAPLAN S., « Cognition and Capabilities », Academy of Management Annals,
vol. 7, n° 1, 2013, pp. 293-338.
FISS P.C., « A set-theoretic approach to organizational configurations », Academy of Management
Journal, vol. 32, n° 4, 2007, pp. 1180-1198.
FISS P.C, « Building better causal theories: a fuzzy set approach to typologies in organization
research », Academy of Management Journal, vol. 54, n° 2, 2011, pp. 393-420.
FURNARI S., et MEUER J., « Three approaches to longitudinal QCA: Opportunities and
challenges », 76th annual meeting of the Academy of Management, Anaheim, 2016.
GOLDTHORPE J., « Current Issues in Comparative Macrosociology: a Debate on Methodological
Issues », Comparative Social Research, vol. 16, 1997, p. 1-26.
GRECKHAMER T., MISANGYI V.F., ELMS H., et LACEY R., « Using Qualitative
Comparative Analysis in strategic management research », Organizational Research Methods,
vol. 11, n° 4, 2008, pp. 695-726.
KROGSLUND C., et MICHEL K., « A larger-N, fewer variables problem? The counterintuitive
sensitivity of QCA », Qualitative & Multi-Method Research, vol. 14, n° 1, 2014, pp. 25-33.
PFEFFER J., et SALANCIK G.R., The external control of organizations: A resource dependence
perspective, Harper & Row, 1978.
RAGIN C.C., The comparative method, University of California Press, 1987.
RAGIN C.C., Fuzzy-set social science, University of Chicago Press, 2000.
RAGIN C.C. Redisigning Social Inquiry: Fuzzy Sets and Beyond, University of Chicago Press,
2008.
RAGIN C.C., et DAVEY S., fs/QCA [Computer Programme], Version 2.5, University of
California, 2014.
RAGIN C.C., et RIHOUX B., « Qualitative comparative analysis: state of the art and prospects »,
Qualitative Methods, vol. 2, n° 2, 2004, pp. 3-13.
RIHOUX B., MARX A., et ÁLAMOS-CONCHA P., « 25 années de QCA (Qualitative
Comparative Analysis) : quel chemin parcouru ? », Revue Internationale de Politique
Comparée, vol. 21, n° 2, 2014, pp. 61-79.
REICHERT C., et RUBINSON C., Kirq [Computer Programme], Version 2.1.12, University of
Houston-Downtown, 2014.
SCHNEIDER C.Q., et WAGEMANN C., « Standards of good practice in qualitative comparative
analysis (QCA) and fuzzy-sets », Comparative Sociology, vol. 9, n°3, 2010, pp. 397-418.
SCHNEIDER C.Q., et WAGEMANN C., Set-theoretic methods for the social sciences: A guide to
qualitative comparative analysis, Cambridge University Press, 2012.
SCHULZE-BENTROP C., Qualitative Comparative Analysis (QCA) and Configurational
Thinking in Management Studies, PL Academic Research, 2013.
TEECE D.J., PISANO G., et SHUEN A., « Dynamic capabilities and strategic management »,
Strategic Management Journal, vol. 18, n °7, 1997, pp. 509-533.
VERGNE J.-P., et DEPEYRE C., « How do firms adapt? A fuzzy-set analysis of the role of
cognition and capabilities in U.S. defense firms’ responses to 9/11 », Academy of Management
Journal, vol. 59, n °5, 2016, pp. 1653–1680.
WEICK K.E., « The generative properties of richness », Academy of Management Journal, vol.
50, n° 1, 2007, pp. 14-19.
ZADEH L.A., « Fuzzy sets », Information and Control, vol. 8, 1965, pp. 338–353.

View publication stats

Vous aimerez peut-être aussi

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy