(Collection Business Science Institute) Françoise Chevalier (Editor) - Nathalie Mitev (Editor) - L. Martin Cloutier (Editor) - Les Méthodes de Recherche Du DBA (2018) [PDF]

  • Author / Uploaded
  • lala
  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

© Editions EMS, 2018 Tous droits réservés

www.editions-ems.fr

ISBN : 978-2-37687-180-4 (versions numériques)

Dirigé par Françoise CHEVALIER, L. Martin CLOUTIER et Nathalie MITEV

Les méthodes de recherche du

collection BUSINESS SCIENCE INSTITUTE dirigée par Pr Paul BEAULIEU, ESG UQAM Pr Michel KALIKA, Business Science Institute et iaelyon School of Management Pr émérite Alain-Charles MARTINET, iaelyon School of Management

TA B L E D E S M AT I È R E S Avant-propos...................................................................................7 Remerciements................................................................................9 Préface. L’impératif d’efficacité dans la méthode du savoir......10 Introduction. Les méthodes de recherche du DBA : la recherche sur le terrain, pour le terrain et par le terrain..............................15

Partie I. Choisir une méthode de recherche adaptéeà la question terrain.................................................................................... 19 Introduction à la partie I.............................................................19 Chapitre 1. Le cadre général de la recherche de terrain...........23 Chapitre 2. Espoirs et désespoirs du doctorant.......................36 Chapitre 3. Choix des méthodes de recherche : discours contre La méthode !...................................................................................48 Chapitre 4. Le portefeuille des méthodes de recherche terrain : méthodes qualitatives, méthodes quantitatives et mixtes........66

Partie II. Recueillir les données du terrain............................87 Introduction à la partie II............................................................87 Chapitre 5. L’observation ............................................................94 Chapitre 6. Les entretiens.........................................................108

Les méthodes de recherche du DBA

4

Tab l e d e s m a t i è r e s

Chapitre 7. Les études de cas...................................................126 Chapitre 8. La méthode ethnographique................................. 140 Chapitre 9. Les récits de vie .....................................................158 Chapitre 10. Recherche historique, narration et documents d’archives...................................................................................... 176 Chapitre 11. La collecte des données sur Internet.................. 191 Chapitre 12. Questionnaires et questionnaire en ligne..........201 Chapitre 13. Pratiquer une recherche-intervention qualimétrique............................................................................... 218 Chapitre 14. Les designs quasi-expérimentaux ..................... 241

Partie III. Analyser les données du terrain......................... 257 Introduction à la partie III.........................................................257 Chapitre 15. L’analyse des données qualitatives : voyage au centre du codage..........................................................................262 Chapitre 16. Logiciels et analyse de données qualitatives....283 Chapitre 17. L’analyse des données visuelles..........................306 Chapitre 18. Les analyses statistiques multidimensionnelles..................................................................323 Chapitre 19. Visualisation de données et infographie dynamique : le logiciel Sphinx ...................................................340 Chapitre 20. La méta-analyse....................................................358 Chapitre 21. Outils et méthodes de représentation conceptuelle et de créativité  : l’apport des neurosciences.... 371

Partie IV. Contextualiser les méthodes..................................395 Introduction à la partie IV.........................................................395

5

Tab l e d e s m a t i è r e s

Chapitre 22. Le «  contexte  » et la recherche en terre africaine : implications épistémologiques et méthodologiques...............400 Chapitre 23. Mener une recherche ancrée sur le terrain : la dynamique du collier de perles...................................................422 Chapitre 24. L’émergence de la science du design en management comme approche de recherche...........................437 Chapitre 25. La cartographie des concepts en groupe (CCG) : étapes de réalisation et conversations orientées terrain........ 451 Conclusion....................................................................................481 Présentation des auteurs............................................................483

6

AVA N T- P R O P O S Michel Kalika Ce livre Les méthodes de recherche du DBA coordonné par Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev, tous trois membres de la faculté du Business Science Institute, s’inscrit dans la perspective de la collection qui l’accueille aux Éditions EMS. En effet, la collection Business Science Institute a pour vocation de publier, en version papier et électronique, des ouvrages rédigés soit par les professeurs du DBA, soit issus des thèses des docteurs de DBA. La collection compte aujourd’hui trois séries : la série les « Fondamentaux du DBA » intègre les ouvrages de référence des professeurs ; la série les « Recherches du DBA » les ouvrages issus des thèses des docteurs de DBA et la série les « Pratiques managériales » où sont bienvenues les publications ancrées dans le terrain et la réalité managériale. Le premier ouvrage La création de connaissance par les managers (2015) coordonné avec Paul Beaulieu a regroupé 27 professeurs et 5 doctorants qui ont précisé en quoi la création de connaissance par les managers était possible voire souhaitable. Le deuxième ouvrage Le projet de thèse de DBA (2017) coordonné également avec Paul Beaulieu a regroupé 19 contributions de professeurs autour de la question de la définition du projet de thèse. Le présent ouvrage complète les deux précédents de la série les « Fondamentaux du DBA » et regroupe 35 auteurs qui précisent quelles sont les méthodes et outils envisageables pour un doctorant-manager. Ce travail collectif des professeurs

Les méthodes de recherche du DBA

7

Av a nt - p ro p o s

du Business Science Institute vise aussi à créer une culture commune qui harmonise les directions de thèse tout en respectant leur liberté. En septembre 2018, la collection Business Science Institute compte au total une quinzaine d’ouvrages dont deux en anglais. L’Executive DBA du Business Science Institute est, à notre connaissance, le seul programme de DBA ayant investi dans la création d’une collection d’ouvrages dédiés au DBA. Puissentils être utiles aux doctorants-managers ! Michel Kalika, Président du Business Science Institute

8

R E ME RCIE ME N TS Cet ouvrage est le résultat du travail collectif d’une équipe de 35 auteurs, membres d’une entreprise académique étendue originale, celle de Business Science Institute. Il témoigne de l’énergie collective des talents individuels, animés par un même projet : celui de mettre à disposition des étudiants en DBA les éléments de méthode de recherche indispensables à la réalisation de leur thèse. Nous les en remercions tous chaleureusement. Les auteurs adressent tous leurs remerciements à Michel Kalika pour l’avant-propos de l’ouvrage, et à Paul Beaulieu pour la préface de l’ouvrage. Et plus encore pour cet engagement et cet optimisme entrepreneurial, marques de fabrique du Business Science Institute, qu’ils partagent non seulement avec le corps professoral mais aussi avec l’ensemble des étudiants du Business Science Institute. Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev

Les méthodes de recherche du DBA

9

P R É FAC E L’impératif d’efficacité dans la méthode du savoir Paul Beaulieu L’émergence de la nouvelle vague de formation de docteurs de pratique en gestion, communément appelés DBA1, s’inscrit dans le contexte mondial d’une expansion de la complexité des dynamiques et des processus d’affaires de toutes catégories. Le nombre d’acteurs, d’organisations, d’institutions, de facteurs critiques des systèmes d’affaires, de processus et de contextes à prendre en compte, s’est accru de façon considérable au cours des dernières décennies. Le DBA, pris au sens de cette nouvelle fonction ou statut au sein de la pratique de la gestion et ainsi qu’au sens de l’institutionnalisation de la formation de celle-ci, tire sa raison d’être de cette nouvelle complexité du monde global des affaires2 et de l’envergure des maillages et des modalités organisationnels de plus en plus diversifiés. Cette nouvelle vague émergente de programmes de DBA fait suite à celle qui a cherché antérieurement à former des managers que l’on voulait du type « clinicien » mais sans avoir jamais réussi à clarifier les rôles spécifiquement dé1. DBA pour Doctor in Business Administration. 2. Nous prenons le terme affaires dans son acception la plus large et couvrant la diversité des domaines d’application, et non pas au sens usuel et restreint des affaires à but lucratif.

Les méthodes de recherche du DBA

10

Préface

volus à celui-ci. Le nouveau courant de la formation des DBA s’oriente vers le développement des compétences scientifiques de managers issus des milieux de la pratique et qui sont appelés à exercer celles-ci pour assurer une plus grande validité des connaissances et une plus grande efficacité des pratiques mises en œuvre. La valeur intrinsèque de la contribution potentielle du DBA réside particulièrement dans ses capacités à développer et à assurer une plus grande valeur de vérité aux connaissances de pratique mobilisées pour la réalisation de la gestion. En conséquence, la méthode de la production des faits scientifiques sera pour lui une préoccupation de qualité qui sera constante pour soutenir et assurer l’efficacité de ses prestations, ainsi que son apport distinctif au sein des situations de la pratique de gestion. Ainsi, le docteur de pratique en gestion vient combler un besoin dont les symptômes se font de plus en plus évidents et discernables dans le discours des acteurs du monde de la gestion. D’un côté, les professeurs-chercheurs appartenant au champ social des sciences de la gestion vivent une crise. Celle-ci touche les suppositions fondatrices liées à la pertinence et à l’efficacité de leurs productions eu égard aux attentes des agents des domaines de la pratique de la gestion3. Le reproche le plus courant qui est adressé aux productions du champ scientifique de la gestion est leur trop grande abstraction et leur éloignement des préoccupations d’efficacité. Du côté du champ de la pratique de gestion, la faiblesse de la valeur de vérité au plan de l’efficacité des connaissances et des procédés de gestion mis en œuvre est de plus en plus ressentie comme préoccupante par les responsables dans les organisations. Trop de processus et trop de stratégies d’intervention reposent sur des croyances qui n’ont pas été soumises à l’épreuve d’une justification rigoureuse répondant aux qualités et aux règles usuelles de la connaissance scientifique. La pratique de gestion mise en œuvre est encore trop souvent non fondée sur la preuve par les faits d’une assu3. À ce sujet, le texte de Sandberg et Tsoukas s’est fait l’écho de ce malaise et en a explicité les principales dimensions fondamentales : Sandberg, J. & Tsoukas, H. (2011), Grasping the logic of practice: Theorizing through practical rationality, Academy of Management Review, vol. 36, n°2, p. 338-360.

11

Préface

rance d’efficacité. Le domaine de la gestion des affaires à but lucratif a pour sa part l’avantage de bénéficier des impératifs provenant de la règle touchant l’obligation de générer un surplus économique d’opération et de la capitalisation de celui-ci pour l’avancement des capacités de l’entreprise. L’application de cette règle du système des affaires capitalistes permet une certaine « épuration » périodique et quasi mécanique des pratiques de gestion inefficaces.

12

Le manager-DBA, de par la logique du rôle scientifique qui lui est dévolu au sein des situations de gestion, s’inscrit dans une épistémologie pragmatiste 4. Le courant de la pratique de gestion basée sur les données probantes ou les preuves (Evidence-based Management, en anglais) participe à la dynamique de ce champ social des sciences de gestion qui est en émergence et qui s’ancre de façon concomitante dans le monde de la pratique de gestion et dans celui de la pratique de la science. Peut-être sommes-nous en présence du nouvel espoir d’une pratique de gestion scientifiquement enracinée qui pourra appréhender toute la profondeur de la complexité de l’hypermodernité actuelle sans se replier dans la naïveté des prétentions de l’idéologie managériale rationaliste de la deuxième moitié du XXe siècle. Nous vivons dans un monde pour lequel nos conceptions de l’efficacité individuelle et collective doivent être révisées et rendues sensibles aux mouvances de situations de plus en plus dynamiques5. Ainsi les exigences du temps présent appellent-elles à une redéfinition de la division du travail et des responsabilités scientifiques devant répondre aux besoins du monde de la gestion. La méthode, ce cheminement qui va de la problématisation aux processus de résolution des problèmes et à l’atteinte des résultats, est le fait de l’accomplissement, tant par les gestionnaires en situation de pratique que par les chercheurs, de la production d’une connaissance valide. Le gestionnaire déploie de la méthode pour la réalisation d’objectifs en vue d’une efficacité accrue. Le scientifique procède aussi dans le même sens dans la poursuite d’un objectif de théorisation.

4. Rescher, N. (2012), Pragmatism. The Restoration of its Scientific Roots, New Brunswick, NJ, Transaction Publishers. 5. Pour reprendre une proposition du philosophe François Julien (1996), Traité de l’efficacité, Paris, Grasset.

Préface

Il en va dans un sens identique pour les processus de théorisation. Le gestionnaire en situation de pratique se livre à des activités de théorisation et de réflexivité sur sa pratique et sur l’expérience qui se réalise à travers la dynamique des situations. Ainsi, le praticien en situation de réalisation de la gestion et le chercheur théoricien au sein du champ social des sciences de la gestion entretiennent-ils une relation étroite avec la méthode et avec la connaissance méthodologique. Les finalités vont varier mais les démarches de connaissance partagent de nombreuses similitudes de qualité et de processus. Comme le signale à juste titre l’anthropologue-social des sciences, Bruno Latour, le savoir est fondamentalement un savoir-faire qui s’accompagne d’un faire-savoir 6. Bref, tous sont des praticiens du savoir mais ils se différencient quant aux modalités d’administration de la preuve. Le DBA est appelé à occuper une position sociale dans le champ des sciences de la gestion. C’est en cela qu’il se distingue radicalement de celui qui a pour fonction la maîtrise des processus et des stratégies de réalisation7. Les faits, l’activité et les finalités scientifiques sont au centre de ses préoccupation lorsqu’il met en œuvre les compétences qui lui sont spécifiques. En effet, être titulaire d’un DBA, c’est également être en mesure de faire preuve de capacités de compréhension critique et de réflexivité plus aiguisées. C’est ainsi que la maîtrise méthodologique est un domaine de compétence essentiel pour un manager-chercheur candidat au DBA. Il lui importe au premier plan de développer ses « capacités méthodologiques » à un niveau de compétence fiable scientifiquement afin d’être en mesure d’assumer les finalités spécifiques qui lui incombent : connaître et comprendre la panoplie des modalités méthodologiques en ce qui concerne leurs finalités, leurs caractéristiques, leurs processus, leurs critères de qualité et leurs facteurs d’efficacité ; être capable d’effectuer le design de plans méthodologiques efficients et efficaces ; être capable de prescrire et/ou de mettre en œuvre des plans métho6. Bruno Latour (2010), Cogitamus. Six lettres sur les humanités scientifiques, Paris, La Découverte ; ainsi que L’espoir de Pandore. Pour une version réaliste de l’activité scientifique, Paris, La Découverte, 2007. 7. Fonction éminemment dévolue aux MBA (entre autres).

13

Préface

dologiques ; ainsi que d’évaluer rigoureusement la performance des méthodologies mises en œuvre et/ou prescrites et surtout innover sur le plan de la méthode. Comme il convient de constater, la connaissance méthodologique est déterminante pour la pratique du docteur en gestion. Elle occupe une large part de sa formation de doctorant et elle doit demeurer pour lui un apprentissage continu qui s’effectue dans la perspective du maintien d’une position d’ouverture, d’efficacité, d’innovation et de distance critique. Bref, la méthodologie de production des faits scientifiques est fondamentale dans l’accomplissement du rôle dévolu au DBA au sein du monde de la gestion. Paul Beaulieu Professeur École des Sciences de la Gestion Université du Québec à Montréal

14

IN T RODUCT ION Les méthodes de recherche du DBA : la recherche sur le terrain, pour le terrain et par le terrain Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev

OBJECTIF ET VUE D’ENSEMBLE DE L’OUVRAGE Mener une thèse de Doctorate in Business Administration (DBA) offre des spécificités toutes particulières (Kalika, 2017). À la différence de l’étudiant qui entame une thèse de PhD (ou doctorat traditionnel) et se pose la question de la recherche d’un terrain, l’étudiant en DBA dispose du ou des terrains d’investigation. Dans le DBA, le doctorant est sur le terrain, il en a une connaissance propre, familière1. L’une des questions qui se pose est celle de la prise de distance, celle de l’arrachement momentané du terrain, pour mieux y revenir ensuite armé de questions de recherche, d’angles de lecture, pour y voir plus clair. Les doctorants dans un DBA ont entre les mains une « mine d’or », celle de leurs terrains, encore faut-il qu’ils sachent comment s’y prendre pour l’exploiter. S’arracher du sens commun, ou de « la connaissance ordinaire » (Morel, 1. Métaphore du terrain de football de Jean-Pierre Helfer.

Les méthodes de recherche du DBA

15

I nt ro d u c t i o n

1992), pour investiguer d’autres scénarii de lecture, est certes un point de passage obligé de tous les doctorants ; toutefois les doctorants engagés dans un DBA, rencontrent ce problème plus intensément compte tenu de leur immersion dans ces terrains. Des terrains qui leur sont tellement familiers qu’ils en deviennent consubstantiels à leur façon de penser. Or, il s’agit avec la pratique de la recherche d’amener la personne à « prendre la réalité avec des pincettes » (Bourdieu, 1995) et à cultiver une « familiarité distante » (Matheu, 1986). La posture de chercheur va amener les personnes à travailler, en mode réflexif, sur leurs propres pratiques et expériences. L’opération de dédoublement ne va pas de soi.

16

Une autre spécificité des doctorants de DBA est qu’ils s’engagent à mener leurs travaux de recherche tout en continuant à exercer leurs activités professionnelles. S’ils acquièrent progressivement les concepts, méthodes, outils… au travers de séminaires méthodologiques et thématiques, le temps est cependant limité. Ils n’auront pas, à la différence d’étudiants de PhD ou de doctorat traditionnel, le temps de « faire des gammes recherche », c’est-à-dire des exercices à blanc. Exercices où l’on peut se familiariser et apprendre, en particulier à manier méthodes et outils de recherche. Pour les doctorants de DBA, rien de tel. Ici non seulement l’apprentissage de la recherche se fait dans et par la pratique, en compagnonnage étroit avec d’autres chercheurs, mais ici aussi, plus qu’ailleurs, le temps est compté. Enfin les étudiants de DBA, à la différence aussi des étudiants en PhD ou de doctorat traditionnel, ne se destinent pas à faire de la recherche leur profession à part entière. Le DBA leur permet d’acquérir une expertise spécifique sur un sujet particulier, d’ancrer leur réflexion et leur analyse en recourant à des cadres méthodologiques et théoriques éprouvés (Beaulieu & Kalika, 2015). Les doctorants de DBA sont des praticiens qui, leur thèse soutenue, deviennent consultants ou experts dans leur entreprise, voire rejoignent, à temps partiel, le corps des enseignants désireux de faire partager leurs pratiques tout en étant en mesure de prendre de la distance par rapport à elles. C’est dans ce contexte que prend place cet ouvrage. Il s’adresse aux étudiants de DBA. L’objectif est de leur fournir une palette

I nt ro d u c t i o n

de méthodes et d’outils qu’ils vont pouvoir s’approprier et mettre en œuvre sur les terrains qui leur sont familiers. Il existe de très nombreux ouvrages sur les méthodes et les outils de recherche en management. Cet ouvrage est différent. Son orientation est volontairement pragmatique. Il ne cherche pas à présenter un panorama exhaustif des méthodes de recherche. Le périmètre de méthodes et d’outils proposés dans l’ouvrage est à la fois volontairement restreint et divers. Restreint, pour chercher à répondre le plus possible aux préoccupations de doctorants partant du terrain et revenant en fin de course au terrain : les doctorants de DBA font de la recherche Par le terrain et Pour le terrain. Divers, pour laisser à chacun la liberté et la créativité de construire son chemin, tout en gardant le cap de la rigueur scientifique. C’est à cet équilibre original et délicat que l’ouvrage invite. Dans cet ouvrage la présentation des méthodes est volontairement écrite de manière simple pour être plus facilement appropriable et par conséquent utilisable. Il s’agit d’un côté de chercher à éviter tout jargon, d’un autre côté d’être respectueux des terminologies propres aux domaines scientifiques. Toute la gageure est ici pour les auteurs de ne pas sacrifier à la rigueur scientifique tout en facilitant en même temps l’accessibilité à cette indispensable rigueur. Une double exigence qui alimente l’écriture de chacun des chapitres de cet ouvrage. S’engager dans un DBA c’est en quelque sorte orchestrer l’énergie collective des talents individuels. Talents des professeurs-chercheurs et talents des managers-doctorants. C’est ce à quoi cet ouvrage, qui se veut pragmatique et didactique, cherche à contribuer. Disponible en version française, et bientôt, anglaise, l’ouvrage pose les premières pierres d’un édifice en construction, celui du Business Science Institute. L’ouvrage comporte quatre parties. La première partie pose la question du choix des méthodes de recherche, la deuxième s’intéresse aux méthodes de recueil des données, la troisième aux méthodes d’analyse des données, et la quatrième partie porte sur la contextualisation des méthodes. Certes, dans « la vraie vie du chercheur » la séparation entre choix et mise en œuvre n’est pas aussi dichotomique que l’organisation de l’ouvrage pourrait le laisser supposer. Les phases de recueil et d’analyse des don-

17

I nt ro d u c t i o n

nées, par exemple, sont en tensions dynamiques constantes. Les itérations et les bricolages font partie de l’exercice de la recherche (Weick, 1995). Néanmoins c’est, à nouveau, animés d’un souci didactique (et non pas normatif) que nous avons retenu cette organisation de l’ouvrage en quatre parties distinctes. Souhaitons que les lecteurs puissent retrouver dans la lecture de ces chapitres le plaisir que les auteurs ont mis à les écrire. Souhaitons enfin que l’ouvrage qui se situe dans le prolongement de l’ouvrage sur le projet de thèse de DBA (Beaulieu & Kalika, 2017), tombe sous le sens pour les doctorants de DBA. Références citées Beaulieu, P. & Kalika, M. (2015), La création de connaissance par les managers, Éditions EMS. Beaulieu, P. & Kalika, M. (2017), Le projet de thèse de DBA, Éditions EMS. Bourdieu, P. (1995), Sur les rapports entre la sociologie et l’histoire en Allemagne et en France, Actes de la Recherche en Sciences Sociales, vol. 106, n° 1, p. 116.

18

Kalika, M. (2017), Comment réussir son DBA ?, Éditions EMS. Matheu, M. (1986), La familiarité distante, Gérer et Comprendre, vol. 3, p. 81-94. Morel, C. (1992), Le mal chronique de la connaissance ordinaire sur l’entreprise, Gérer et Comprendre, vol. 28, p. 71-83. http://www. christianmorel-sociologue.fr/Connais1.pdf Weick, K. E. (1995), What theory is not, theorizing is, Administrative Science Quarterly, vol. 40, n° 3, p. 385-390.

PARTIE I Choisir une méthode de recherche adaptée à la question terrain

Introduction à la partie I Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev Un doctorant de DBA peut se sentir submergé par le large éventail de méthodes de recherche utilisées en sciences de gestion, particulièrement en début de thèse. Cette première partie l’aidera à mieux comprendre comment choisir une ou plusieurs méthodes de collecte de données en fonction de l’état de l’art dans son domaine de recherche, ses objectifs de recherche, sa problématique, sa question terrain, ses compétences et motivations personnelles et professionnelles. Dans le chapitre 1, Michel Kalika explique le rôle du travail de terrain en relation au processus de recherche, à la collecte des données de terrain et aux différentes finalités d’un terrain de recherche. Il suggère qu’une approche enracinée et inductive correspond mieux aux doctorants de DBA, qui sont déjà fortement ancrés dans leurs terrains professionnels. Une finalité d’exploration inductive sera naturelle à des doctorants-managers immergés dans leur quotidien professionnel. Une deuxième finalité de validation plus typique d’un PhD traditionnel commencera

Les méthodes de recherche du DBA

19

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

par une revue de la littérature pour formuler des hypothèses ou des propositions, suivie par la collecte de données de terrain pour les valider déductivement. Le troisième type de finalité est la confirmation des résultats par des acteurs concernés menant à des recommandations pratiques. Il détaille l’aller-retour continu entre la littérature et le terrain qui doit avoir lieu dans les trois types de finalité. Le choix du sujet de thèse en relation à la collecte des données – l’accès, les opportunités, la faisabilité, les compétences et les objectifs du doctorant-chercheur – est ensuite traité et est illustré à travers des exemples de doctorants de DBA ayant soutenu leur thèse. Enfin, il caractérise les motivations personnelles et professionnelles qui rendent le terrain de recherche une source autant qu’une destination de différentiation et de légitimité pour des doctorants de DBA.

20

Dans le chapitre 2 Jean-Pierre Helfer évoque les diverses phases psychologiques statistiquement habituelles qu’un doctorant de DBA rencontre durant son engagement avec le processus de recherche. Il les qualifie de « moments d’espoir » et de « périodes de désespoir » dans le but de rassurer et d’équiper les doctorants à y faire face. Mieux les comprendre, se comprendre et comprendre les « rites » inhérents à tout processus au sein d’une communauté ne peuvent qu’améliorer la probabilité de succès. Il donne des conseils très précis afin de surmonter les phases de désespoir et puiser dans les satisfactions des périodes d’espoir. Il convient de posséder des qualités d’analyste, de découvreur, de communicant et surtout de se maîtriser soi-même pour mieux gérer la succession des phases. Il décrit trois phases bien distinctes, le début, le milieu et la fin. Au début, le moment des interrogations, s’interroger au mieux, se questionner au plus fin, surmonter les incertitudes permettent de s’en échapper « par le haut ». Le milieu est une phase de questionnements et la fin de la thèse est une période d’inquiétudes. Il accentue particulièrement les spécificités du DBA par rapport à un PhD traditionnel, avec des exemples, et suggère différentes formes de soutien. Il montre que le désespoir est normal, que l’envie régulière de renoncer est naturelle mais qu’elle doit être maîtrisée par la connaissance et la compréhension des codes doctoraux.  Pierre-Louis Dubois pose la question du choix des méthodes de recherche dans l’exercice particulier de la thèse de DBA dans

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

le chapitre 3. Toute recherche en sciences de gestion doit préciser les conditions des méthodes d’investigation de la réalité observée liées au projet du chercheur, s’interroger sur le choix des techniques de collecte de données et poser la question de la validité des résultats, pour que la recherche puisse avoir une portée hors du contexte d’étude. Ce chapitre se concentre donc sur les interactions entre le choix des méthodes, la construction d’une méthode adaptée à la problématique et au « terrain » étudié, l’état de l’art et les objectifs de recherche. Il examine le rôle des méthodes dans la thèse en relation avec la problématique, l’état de l’art, le rapport à l’épistémologie, les pratiques dans le temps et l’espace, et les objectifs de recherche. L’auteur donne enfin quelques conseils pratiques sur les écueils à éviter et les limitations inhérentes à toute recherche en sciences de gestion. Les points critiques qu’il aborde incluent le choix des données, le traitement des données, et la validité des résultats. Le but du chapitre 4 d’Yves-Fréderic Livian est d’aider le doctorant de DBA à choisir la méthode d’approche de son terrain en l’orientant dans une réflexion sur son projet en relation avec les différences et complémentarités entre les méthodes quantitatives et qualitatives. Le « projet cognitif » de sa recherche doit être pensé et s’insérer dans un courant de réflexion (théories disponibles, concepts à utiliser) et aboutir à créer des connaissances nouvelles. Quatre opérations cognitives sont distinguées, la description, l’explication, la compréhension et la transformation, qui vont mener à utiliser des méthodes de recherche terrain différentes. Certains projets cognitifs privilégient une position extérieure vis-à-vis du sujet étudié et une analyse déductive des variables explicatives d’un phénomène ; d’autres projets sont ancrés dans la prise en compte inductive des contextes, perceptions et sentiments des individus impliqués dans la situation étudiée. Le manager-chercheur doit avoir une vue globale du « portefeuille » de méthodes de recherche terrain et le chapitre présente succinctement cinq principales familles de méthodes de recherche : les dispositifs expérimentaux, l’enquête, les études de cas, l’observation et la recherche-action, en en soulignant les forces et limites d’utilisation et en les classant en fonction des objectifs cognitifs de la thèse. Enfin, il expose deux écueils méthodologiques contraires à éviter : la sous-estimation des considérations méthodologiques, et le surinvestissement

21

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

qui accorde trop de confiance à la solidité « scientifique » des méthodes en sciences sociales. Ce dernier chapitre de la première partie énonce donc les grands traits des principales méthodes de recherche quantitatives et qualitatives qui doivent être considérés en relation à une réflexion sur un projet de recherche et un terrain. Le but de la deuxième partie est de détailler et d’illustrer ces diverses méthodes de collecte de données quantitatives et qualitatives et de fournir des recommandations d’ordre pratique à un doctorant de DBA.

22

CHAPITRE 1. Le cadre général de la recherche de terrain Michel Kalika

Résumé Dans tout travail doctoral en management, ce que l’on appelle le « terrain », par opposition à « la littérature », revêt un rôle très significatif dans la mesure où l’on n’imagine pas une thèse en management sans collecte de données empiriques qui nourrissent la réflexion et la production de résultats. Dans le cas d’une thèse de DBA, le rôle du terrain prend une place particulière dans la mesure où le doctorant-manager est issu d’un « terrain » qui va lui procurer à la fois son sujet de thèse et les données empiriques qui vont lui permettre, en interaction avec les théories issues de la littérature, de proposer des résultats et des recommandations managériales dont la présence est indispensable dans ce type de thèse. Ce chapitre précise la place du terrain dans le processus de recherche, les différentes finalités d’un terrain de recherche, sa place dans le choix du sujet de thèse de DBA et la relation réciproque qui existe entre le terrain et la thèse. Mots-clés : DBA, terrain, méthodologie, littérature, processus recherche.

Les méthodes de recherche du DBA

23

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

« Le terrain est à la thèse ce que la mère est à l’enfant, elle le nourrit, le voit grandir, s’émanciper, prendre son envol. »

INTRODUCTION

24

Dans toute recherche doctorale en management, la recherche de terrain est centrale dans la mesure où elle contribue à nourrir la réflexion sur la question de recherche, la collecte d’information et l’analyse des résultats. Par recherche de terrain, on n’entend pas ici le fait de chercher un terrain, mais l’action qui consiste à aller sur le terrain et à y collecter de l’information. Les termes de « recherche de terrain » et de « terrain de recherche » sont utilisés conjointement dans ce qui suit. On n’imagine pas de recherche doctorale en management basée uniquement sur une revue de littérature, des conjectures et sans une recherche ancrée dans un terrain permettant de collecter des données empiriques. Quand on parle de terrain, dans le champ de la recherche en management, on fait implicitement référence à deux dimensions : d’une part, un lieu de recherche et, d’autre part, une méthodologie de collecte des données. Il peut s’agir de collecte d’information dans des entreprises, des organisation publiques ou associatives, ou auprès de clients ou consommateurs. Cette collecte de données peut aussi prendre différentes formes parmi lesquelles on distingue traditionnellement les données qualitatives (entretiens, compte-rendu, observations, récits, etc.) et les données quantitatives (enquête en ligne, en face à face, statistiques diverses, etc.). Dans le cadre d’un Doctorate in Business Administration la question de la recherche de terrain se pose avec une acuité particulière et de façon très spécifique dans la mesure où le doctorant-manager, qui est en activité ou qui a eu une longue vie professionnelle, est ancré dans un terrain de recherche, dans une expérience managériale qui est fréquemment à l’origine même de sa démarche le conduisant à entreprendre un DBA. Dans les lignes qui suivent nous commençons par préciser la place du terrain dans le processus de recherche, puis nous identifions les différentes finalités d’un terrain de recherche, pour ensuite préciser la place de ce terrain dans le choix du sujet de thèse de DBA et nous concluons en montrant que, dans une

L e c a d r e g é n é ra l d e l a r e c h e r c h e d e t e r ra i n

thèse de DBA, le terrain est à la fois source et destination de la thèse.

1. PLACE DU TERRAIN DANS LE PROCESSUS DE RECHERCHE1 La place chronologique du terrain dans le processus de recherche dépend de l’approche plutôt déductive ou plutôt inductive retenue. L’approche déductive, souvent appelée hypothéticodéductive, consiste à partir de la lecture de la littérature, donc des théories, à formuler des hypothèses pour ensuite aller sur le terrain collecter des données qui permettront de valider ou d’infirmer ces hypothèses2. L’approche inductive de la recherche consiste à commencer le processus de recherche par le terrain et l’observation des faits pour ensuite les confronter à la littérature, conceptualiser, généraliser et proposer une nouvelle théorie (Walsh, 2015). La distinction entre ces deux approches et la place respective du terrain peut être illustrée par le tableau 1. Tableau 1. La place du terrain dans les deux approches de la recherche Ordre

Déductive

Inductive

1

Examen de la littérature et des théories existantes

Terrain : observation des faits

2

Formulation d’hypothèses

Examen de la littérature

3

Terrain : collecte de données Confrontation des données aux théories existantes

4

Traitement des données 3

5 6

Validation ou non des hypothèses

Production d’une nouvelle théorie

Résultats et recommandations

1. Kalika (2017, p. 61-62). 2. C’est la démarche retenue par Sidibe (2018) dans sa thèse Le rôle de la gouvernance dans le système de management des risques : Cas d’un échantillon des Banques maliennes, soutenue en 2017, dont est issu l’ouvrage Gouvernance et management des riques paru en 2018 dans la série les Recherches de DBA de la collection « Business Science Institute ». 3. Pour le traitement des données, voir Moscarola (2018).

25

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

En pratique, le chercheur en management fait souvent des allers-retours entre théories et observations au fil de son processus de recherche et combine ces approches inductives et déductives. Il peut ainsi partir de son terrain, de son expérience, qu’il peut formaliser au travers de la rédaction d’un cas ou d’un récit de vie et formuler des conjectures qu’il va comparer à la littérature sur son sujet (Figure 1). Ensuite, il peut, à partir de ce qu’il a lu, formuler des hypothèses qu’il cherchera à valider en retournant sur le terrain. Il peut a contrario formuler des hypothèses à partir de modèles issus de la littérature existante, collecter des données pour les valider et, compte tenu des résultats décevants qu’il obtient, collecter à nouveau des informations sur le terrain et les réinterpréter pour construire une nouvelle théorie.

26

« La distinction faite ci-dessus entre les approches, porte donc notamment sur la question de savoir par quoi le doctorant-manager doit démarrer son processus de thèse de DBA : l’analyse de la littérature ou bien les observations. La thèse de DBA doit se concevoir comme une succession d’allers-retours entre l’étude de la littérature et l’observation du terrain qui permet progressivement au doctorant de préciser son sujet. Nous faisons le constat que dans le cas des doctorants-managers, le sujet émerge du terrain, de son expérience de manager. Le doctorant-manager commence une série de recherches bibliographiques sur les mots-clés de son sujet et effectue des premières lectures. Il teste ensuite par rapport à ses données de terrain déjà disponibles, les premiers travaux qu’il découvre. Il est conduit à de nouvelles lectures notamment suite aux interactions avec son directeur de thèse. S’il a choisi une approche inductive enracinée dans ses données, il mène des analyses approfondies de ses cas4, de ses entretiens, de ses observations empiriques, qui vont nourrir sa réflexion et le conduire à de nouvelles lectures. S’il a opté pour une approche hypothético-déductive, il tire de la littérature un cadre conceptuel, un modèle, des hypothèses qui vont le conduire sur le terrain afin qu’il puisse les tester. Enfin, après l’analyse de ses données, ses résultats vont le

4. C’est la méthodologie retenue par Diallo, dans sa thèse de DBA soutenue en 2017, sur l’intégration des PME africaines au marché international dans lequel cinq cas de PME sont étudiés.

L e c a d r e g é n é ra l d e l a r e c h e r c h e d e t e r ra i n

conduire à la fois à enrichir la littérature et à fournir au terrain des recommandations managériales. On observe donc un processus continu d’itérations gérées par le doctorant-manager entre la littérature et le terrain » (Kalika, 2017, p.63-64). Figure 1. La thèse de DBA : Illustration de l’allerretour continu entre la littérature et le terrain

27

Source : d’après Kalika, 2017, p. 64

Nous observons dans les processus de thèse des doctorants-managers deux approches distinctes. Une première approche ancrée dans les données qui consiste, dans un premier temps, à recueillir les données liées au thème de recherche (entretiens auprès de collègues ou collaborateurs, lecture des documents et comptes rendus de réunion, enquêtes, observations, etc.), à les analyser, puis à les interpréter au re-

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

gard de la littérature. Cette approche de la thèse de DBA qui est enracinée dans les données et dans laquelle le terrain prime nous semble particulièrement adaptée à des doctorants-managers qui font face, en début de recherche, à une masse de données accumulées au travers des dossiers et missions réalisées au cours de leur vie professionnelle. Une seconde approche, plus traditionnelle, consiste à commencer par l’analyse de la littérature et la thèse va consister à tester un modèle conceptuel dans une approche hypothético-déductive, à formuler des hypothèses, à recueillir des données et à les analyser. La première approche nous semble davantage correspondre à l’esprit du DBA en raison de l’ancrage du doctorant-manager dans son terrain. Mais le choix de l’approche dépend de la maturité du sujet, de l’objectif de la recherche et des préférences du doctorant-manager et de son directeur de thèse.

2. FINALITÉS DU TERRAIN DE RECHERCHE5

28

Le terrain de recherche peut avoir trois types de finalité dans une recherche. Il peut tout d’abord s’agir d’un terrain à finalité d’exploration. Il s’agit dans ce cas au début du processus doctoral, en général dans la première année, de vérifier la pertinence et l’intérêt d’un sujet. Cette phase repose souvent sur l’interrogation selon un mode ouvert, non directif, de managers, d’acteurs du problème envisagé, de consommateurs, etc. Il sera important pour le doctorant de conserver trace des données collectées durant cette première phase et de les faire figurer en annexe de la thèse (transcription par exemple des interviews enregistrés). Ces données ont en effet pour vocation de justifier de l’intérêt notamment managérial de la recherche conduite. On peut aussi dans cette phase, et de façon alternative, avoir recours à des données secondaires tels que des articles de presse professionnelle pour vérifier l’intérêt d’un sujet sur lequel on envisage de travailler. Le comptage, par exemple, du nombre de fois où un article de presse destiné à des managers a porté sur le sujet envisagé est un témoignage de son actualité et de son intérêt ma5. Kalika (2017, p. 61-62).

L e c a d r e g é n é ra l d e l a r e c h e r c h e d e t e r ra i n

nagérial. Certains étudiants de DBA passent cette phase exploratoire considérant que leur immersion quotidienne, depuis des années, dans l’environnement professionnel les en dispensent. Le deuxième type de terrain est à finalité de validation. Le doctorant-manager a effectué sa revue de la littérature et a formulé des hypothèses ou des propositions que la collecte d’information sur le terrain va lui permettre de valider. Cette collecte d’information peut se faire par interview, par questionnaire, par observation, etc., et vise à nourrir le processus de production de résultat reposant sur des données empiriques. Dans une recherche inductive comme dans une recherche-action 6, cette phase de terrain, qu’est la collecte de données, est également essentielle car elle va permettre au chercheur la conceptualisation et la formulation de propositions d’action. Le troisième type de terrain est à finalité de confirmation. Après avoir traité ses données et obtenu des résultats, le chercheur peut souhaiter recueillir l’avis des acteurs concernés sur ce qu’il a extrait des données et sur ses propositions. Il peut ainsi les soumettre à la réaction d’un échantillon de managers sous la forme de groupe de restitution ou de conférence assortis d’une évaluation en retour sur les recommandations managériales formulées. Tableau 2. Les différentes finalités du terrain Phases

Finalité du terrain

Caractéristiques

1

Exploration

Nombre limité d’entretiens non directifs, qualitatifs pour comprendre le phénomène

2

Validation

Nombre plus large d’individus interrogés, données quantitatives ou qualitatives

3

Confirmation

Groupe de restitution ou conférence qui donne un avis sur les recommandations

6. Voir le chapitre 13 dans cet ouvrage rédigé par V. Boko & M. Bonnet sur la recherche-action.

29

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

3. PLACE DU TERRAIN DANS LE CHOIX DU SUJET DE THÈSE Le choix d’un sujet de thèse de DBA résulte d’un processus complexe où interagissent de nombreuses considérations. Nous conseillons aux doctorants-managers de prendre en compte cinq facteurs dans le choix du sujet : ses objectifs, ses ressources et compétences, les opportunités de l’environnement auquel il est confronté, sa faisabilité et l’avis de son directeur de thèse (Kalika, 2017, p. 42). Sur ces cinq facteurs, quatre (grisés) concernent directement le terrain dans lequel le doctorant-manager est immergé. Figure 2. Place du terrain de recherche dans le choix du sujet

30

Les objectifs du doctorant-manager, qu’ils soient à dominante personnelle ou professionnelle, sont largement influencés par le terrain dans lequel il baigne. Par exemple, le choix de Bouacida (2018) de travailler sur les joint-ventures franco-algériennes n’est pas étranger au fait que son périmètre actuel d’activité se situe à la fois en France et en Algérie et qu’il y développe des projets potentiellement en lien avec les entreprises étudiées. Les compétences de Favre (2016) en tant que DRH d’un groupe de distribution Suisse à l’époque de son DBA et son souci d’apporter une réponse aux problèmes d’évolution des compétences des managers intermédiaires de son entreprise explique le choix de son sujet « Le manager face à performance adaptative ».

L e c a d r e g é n é ra l d e l a r e c h e r c h e d e t e r ra i n

L’accès facilité à des managers susceptibles de répondre sans délais à des enquêtes ont conforté et facilité ce terrain. La position de Guelmami (2016) en tant que médecin directeur de clinique en Tunisie le mettait en situation de percevoir directement les menaces internes et externes auxquelles les établissements de santé étaient soumis et lui a permis de définir son sujet en fonction de son contexte de travail. L’analyse de la faisabilité de la recherche est un critère important de choix d’un sujet de thèse de DBA. Cette faisabilité comprend généralement trois dimensions : conceptuelle, méthodologique et temporelle (Kalika, 2017, p. 45). Les deux dernières composantes de la faisabilité, méthodologique et temporelle, sont en lien direct avec le terrain de recherche et dépendent largement de l’accès au terrain et des difficultés inhérentes à la collecte des données empiriques. On sait d’ailleurs que l’un des atouts majeurs des doctorants de DBA, comparé aux doctorants traditionnels, est précisément cette facilité de collecte de l’information nécessaire à la recherche. Cela signifie que le doctorant-manager doit, lorsqu’il est confronté à plusieurs sujets envisageables, privilégier celui pour lequel la collecte des données est la plus aisée. Dans l’évaluation de la faisabilité, le doctorant-manager doit aussi tenir compte de la difficulté et des risques liés à certains sujets tels que la corruption, le blanchiment d’argent et les activités terroristes. Dans une moindre mesure, des sujets peuvent apparaître sensibles dans certaines organisations et la collecte d’information est alors rendue délicate.

4. TERRAIN DE RECHERCHE : SOURCE ET DESTINATION DU DBA Dans le cas des doctorants-managers, le terrain est donc à la fois à la source du projet, comme nous l’avons montré précédemment, mais aussi la destination du projet, ce vers quoi il tend. En effet, dans l’analyse des motivations qui conduisent les doctorants-managers à s’investir dans un projet de DBA il y a deux types de motivations clairement identifiés (Kalika, 2017, p. 30) : les motivations telles que la recherche du plaisir, la fierté et la réalisation relèvent plutôt de la sphère personnelle et ont peu à voir avec le terrain de recherche ; en revanche, les motivations

31

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

telles que la volonté de se différencier, dans un environnement professionnel où la détention d’un MBA est devenu courante, et d’évoluer professionnellement en démontrant au travers de la thèse une véritable capacité de réflexion, ou la recherche de légitimité par la publication, sont en lien direct avec le terrain de la recherche. Le doctorant-manager poursuit ses objectifs professionnels et le terrain de sa recherche est aussi le futur terrain sur lequel il entend, grâce à sa thèse de DBA, se différencier, évoluer et développer sa légitimité. Le schéma suivant illustre cette double relation qui se trouve au cœur du processus doctoral entre le terrain et la recherche de DBA. Figure 3. Terrain de recherche, à la fois source et destination du DBA

32

Cette relation « source » et « destination » du terrain est parfaitement illustrée dans le cas de la thèse de Mottet (2016) sur les contradictions entre les normes françaises et suisses dans le cadre du Grand Genève. Sa position au sein de l’administration genevoise l’a confronté à cette question et a été à la source de sa réflexion mais aussi de sa collecte de données ; la publication de sa thèse a constitué pour lui un élément de légitimité qui l’a d’ailleurs conduit à publier un nouvel ouvrage (Mottet, 2018) sur le sujet et à devenir aujourd’hui une personne de référence sur cette question du Grand Genève. Il convient d’ailleurs de souligner que le « terrain » au travers des organisations qui s’y trouvent est bénéficiaire de la réflexion doctorale dans la mesure où il profite des recommandations managériales issues de la thèse. Il convient de noter qu’il est bien sûr conseillé au doctorantmanager de réaliser lui-même les investigations de terrain du

L e c a d r e g é n é ra l d e l a r e c h e r c h e d e t e r ra i n

fait de la richesse qu’elles procurent. Cependant il n’est pas exclu, compte tenu des contraintes notamment temporelles de réalisation d’enquêtes ou d’interviews, de procéder à une forme de sous-traitance maîtrisée de la collecte d’information, comme cela se fait couramment dans les enquêtes marketing. Ce contrôle de la collecte d’information suppose alors la définition du questionnaire ou guide d’entretien, la spécification d’un plan d’enquête précis avec des consignes aux enquêteurs et l’enregistrement éventuel des entretiens. Il va de soi en revanche que l’analyse des résultats et la rédaction ne sauraient être sous-traitées.

CONCLUSION Pour conclure, on peut recommander au doctorant-manager de veiller à l’alignement du terrain de recherche qu’il envisage de choisir avec plusieurs facteurs. Figure 4. L’alignement du choix du terrain

33

Le terrain de recherche doit tout d’abord être en cohérence avec le contexte professionnel du doctorant-manager. Le doctorant-manager doit, en effet, tirer le meilleur parti de ses atouts à savoir son ancrage dans un contexte professionnel qui a pour vocation à être son terrain de recherche. Il va de soi ensuite que le terrain de recherche, et plus particulièrement le mode de collecte (qualitatif ou quantitatif) des données, doit être en accord avec ses préférences et compétences personnelles.

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Enfin, comme cela a été précisé plus haut, le terrain de recherche, son rôle et sa place dans le processus de recherche, doivent être alignés avec ce que l’on appelle le choix d’une approche plutôt inductive ou déductive. La question du terrain, dont l’importance a été soulignée au fil de ces lignes, relève de choix du doctorant-manager qui doivent être pris, après concertation, avec le directeur de thèse. Références citées Beaulieu, P. & Kalika, M. (2015), La création de connaissance par les managers, Éditions EMS. Beaulieu, P. & Kalika, M. (2017), Le projet de thèse de DBA, Éditions EMS. Bouacida, M. (2018), Management international, les conditions de réussite des joint-ventures internationales en Algérie, Éditions EMS. Diallo, Y. (à paraître), Intégration des PME africaines au marché international, Éditions EMS.

34

Favre, F. (2016), Le manager face à sa performance adaptative, Éditions EMS. Guelmami, H. (2016), Gestion hospitalière. Le guide du manager, Éditions EMS. Kalika, M. (2017), Comment réussir son DBA ? Éditions EMS. Moscarola, J. (2018), Faire parler les données, méthodes quantitatives et qualitatives, Éditions EMS. Mottet, V. (2016), Construire une agglomération transfrontalière : méthode pour surmonter les contradictions normatives, Éditions EMS. Mottet, V. (2018), Le Grand Genève dans tous ses États, Genève, Florilège SlatKine. Sidibe, D. (2018), Gouvernance et management des risques : les conseils d’administration en question, Éditions EMS. Walsh, I. (2015), Découvrir de nouvelles théories : une approche mixte et enracinée dans les données, Éditions EMS. Références pour en savoir plus Dumez, H. (2016), Méthodologie de la recherche qualitative : les questions clés de la démarche compréhensive, Paris, Vuibert.

L e c a d r e g é n é ra l d e l a r e c h e r c h e d e t e r ra i n

Ce livre permet de comprendre ce qu’est une recherche qualitative, et notamment comment faire une revue de la littérature, comment traiter les matériaux collectés, etc. Gavard-Perret, M.-L., Gotteland, D., Haon, C. & Jolibert, A. (2008), Méthodologie de la recherche : réussir son mémoire ou sa thèse en sciences de gestion, Pearson Education France.

Un ouvrage qui clarifie les questions complexes portant sur le cadre épistémologique et qui aborde les questions liées à la spécification de l’objet de recherche, l’enquête, l’observation, comment choisir parmi les méthodes exploratoires, qualitatives et quantitatives. Martinet, A. C. & Pesqueux, Y. (2013), Épistémologie des sciences de gestion, Paris, Vuibert.

Un livre nécessaire pour celui qui ressent le besoin de réfléchir aux fondements de la recherche en gestion. Romelaer, P. & Kalika, M. (2011), Comment réussir sa thèse : La conduite du projet de doctorat, 2e édition, Paris, Dunod.

Un livre utile car reposant sur l’expérience de deux directeurs de recherche livrant leurs expériences aux doctorants. Thiétart, R. A. (2014), Méthodes de recherche en management, 4 e édition, Paris, Dunod.

Un ouvrage collectif de référence abordant clairement les questions de conception, de mise en œuvre, d’analyse et de diffusion de la recherche.

35

CHAPITRE 2. Espoirs et désespoirs du doctorant Jean-Pierre Helfer

Résumé Le parcours de tout doctorant est long, risqué et aléatoire mais en même temps enthousiasmant, riche et stimulant. Une bonne connaissance de soi et des « rites » inhérents à tout processus au sein d’une communauté améliore très sensiblement la probabilité de connaître le succès à la fin du parcours. Des conseils très précis sont donnés aux doctorants en soulignant les particularités du DBA au regard du PhD et également en montrant les ressemblances entre les deux types de doctorat. Mots-clés : parcours doctoral, DBA, PhD, thèse, terrain de recherche, méthodologies, soutenance, superviseur.

Les méthodes de recherche du DBA

36

E s p o i r s e t d é s e s p o i r s d u d o c t o ra nt

INTRODUCTION Un parcours doctoral est un processus plutôt long dans la vie d’une personne, et de manière générale, – sans doute des exceptions existent – au cours de ce processus le doctorant connaît diverses phases psychologiques que l’on pourrait tout simplement qualifier de « moments d’espoir » et « périodes de désespoir ». Nous verrons que bien comprendre cette caractéristique, statistiquement habituelle, pour mieux la maîtriser constitue un point d’appui pour mener l’opération jusqu’à son terme et, par là-même, s’attendre à ce que l’étape ultime soit colorée d’espoir plutôt que de désespoir. A priori, être doctorant, cet état très spécifique d’une personne, n’intervient qu’une seule fois dans l’existence. Nous disons « a priori » car il est quelques cas, lorsque les phases successives d’espoirs et de désespoirs n’ont pas suffisamment ruiné l’optimisme du thésard, où ce dernier décide de s’engager dans une seconde (sans doute jamais une troisième !) thèse. Dans ce cas, l’un peut commencer par l’économie puis poursuivre en gestion (l’inverse est rare), l’autre peut mener un DBA et décider ensuite d’aller vers un PhD. Conservons cependant à l’idée que toute personne, déterminée dans ses projets, se dirigera vers la thèse qui lui convient et s’arrêtera là après avoir surmonté toutes les phases de désespoir qui se sont dressées devant lui et épuisé toutes les satisfactions des périodes d’espoir qu’il a connues. Au passage le lecteur aura compris que l’auteur de ces lignes n’est pas un adepte de l’écriture inclusive et donc que « doctorant » s’entend également comme « doctorante » et que, de même, « directeur de la thèse » se comprend aussi comme « directrice de la thèse ». Il est réel, et tout doctorant doit se pénétrer de cette idée, que pour mener un parcours doctoral jusqu’à son terme il convient de posséder des qualités d’analyste, de découvreur, de communicant et surtout et c’est essentiel, de se maîtriser soi-même, de toujours se regarder en faisant un pas de côté tant les moments de bonheur ont vite fait de s’estomper lorsque les phases du malheur leur succèdent, tant les phases de désespoir profond peuvent être à la source de renoncement lorsqu’elle prennent la suite des périodes intenses d’espoir sans nuage. Un docto-

37

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

rant ne sachant pas surmonter la succession des phases verra sa probabilité de mener le travail à terme réduite. Loin de nous l’idée selon laquelle, seule la psychologie conduit au succès, loin de nous l’idée selon laquelle tout est affaire de personnalité dans un processus doctoral. En revanche, nous développons ici l’idée simple qui fait de la force de l’âme et du regard froid et distant qu’un doctorant est capable de porter sur lui-même, des atouts puissants qui vont conduire avec sécurité le doctorant vers la réussite.

38

La démonstration repose sur la chronologie du parcours : le début, le milieu et la fin. Ces trois périodes, bien distinctes, peuvent, très généralement, être décrites par un mot ou par des mots, voisins les uns des autres, mais qui sont autant d’alertes sur les risques que le doctorant est invité à maîtriser. Le début de la thèse fourmille en interrogations, le milieu est propice aux questionnements et la fin ouvre la porte aux incertitudes. On comprend aisément qu’il s’agit d’inviter le doctorant à quitter par le haut, du côté de l’espoir, interrogations, questionnements et incertitude et à éviter au maximum de verser du côté du désespoir et à être ainsi dominé par les interrogations multiples, les questionnements nombreux, les incertitudes à foison. Somme toute, s’interroger au mieux, se questionner au plus fin, surmonter les incertitudes sont autant de chemins qui mènent au succès. Naturellement, le champ des explications recouvre ici prioritairement le DBA, même si de nombreux traits communs existent avec le PhD. En sens inverse, les deux doctorats diffèrent sur plusieurs aspects et nous ne manquerons pas de souligner toutes les caractéristiques de l’un et de l’autre, lorsque sur un thème précis, le DBA l’emporte sur le PhD ou que, au contraire, le PhD bat le DBA. Nous entendons par « l’emporter » ou « être battu » par le choix du type de doctorat (PhD ou DBA) qui permet au mieux au doctorant de réduire questionnements, interrogations, incertitudes au cours de chaque phase et ainsi à le placer dans une situation plus confortable que celle procurée par l’autre doctorat. Nous aimerions – au sens où notre intuition va dans cette direction – prouver que le risque de voir le désespoir l’emporter sur l’espoir, est plus élevé en PhD qu’en DBA.

E s p o i r s e t d é s e s p o i r s d u d o c t o ra nt

1. LE DÉBUT DE LA THÈSE : LE MOMENT DES INTERROGATIONS Pour le superviseur, le tuteur, le coach de la thèse, le début du travail est un moment magique. Magique pour lui car le thésard, si l’on devait en faire une caricature ou un dessin humoristique, serait un individu avec au-dessus de sa tête un énorme point d’interrogation et il appartient au directeur de la thèse d’accompagner au mieux le doctorant dans la levée de ces interrogations. Ai-je bien fait de m’engager dans ce parcours ? Le choix de mon directeur de thèse est-il judicieux ? Le thème général que je propose est-il dans mes cordes ? Correspond-il à mon projet personnel ? Sera-t-il d’actualité dans trois ans ? Aurai-je la compétence pour mener le travail à son terme ? Le temps vat-il me manquer ? Ai-je convaincu mon entourage personnel – et professionnel – de l’intérêt de m’investir autant ? Quelle longue série d’interrogations ! Et sans nul doute en oublions-nous quelques-unes. Tous les thésards passent-ils par cette phrase d’interrogations ? Vraisemblablement. Parviennent-ils tous à s’en échapper par le haut ? Pour la plupart, c’est heureusement le cas. Et c’est ici que quelques conseils ou remarques viennent à propos pour aider à quitter cette phase de début avec un esprit rempli d’espoirs et donc avoir placé les aspects du désespoir au plus profond de son cerveau, dans une sorte de sarcophage en béton pour éviter, comme dans une centrale nucléaire, tout risque de dissémination intempestive. Est-ce naturel de s’interroger au début d’une thèse ? Assurément oui. Le moment est crucial et le lot d’interrogations, au-delà de celles, naturelles, sur le point de savoir s’il sera possible d’aller jusqu’au bout, tient à deux caractéristiques. Éclairer ces caractéristiques pour permettre de les connaître, de mieux les comprendre et alors les maîtriser : voilà le projet qui suit. La première caractéristique, et ici nous parlons très prioritairement du DBA, tient à la nature de « contre-emploi » imposé à qui s’engage dans un DBA. Contre-emploi au sens où un doctorant venant du monde professionnel, complètement immergé dans la vie des affaires, ne connaît dans son métier aucune activité ressemblant de près ou de loin à un parcours doctoral. Même

39

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

si cette remarque est moins pertinente pour un consultant que pour un contrôleur de gestion dans une entreprise ou encore qu’un administrateur d’une entreprise publique dans un pays émergent, convenons que tout oppose le chemin doctoral et le travail en entreprise. Le premier implique la réflexion, le second se nourrit de l’action ; le premier appelle un temps long, le second pousse au temps court ; le premier relève d’un individualisme exemplaire, le second impose la collaboration ; le premier privilégie le doute comme gage du succès, le second impose la certitude comme source de la performance. Que d‘oppositions entre les deux voies ! Ainsi, il est exigé du doctorant de passer allègrement d’une vallée à l’autre, d’être maître des caractéristiques de la recherche à certaines heures (le soir et le week-end) et d’être impliqué à plein temps dans le registre de l’entreprise, souvent durant les heures ouvrables.

40

Confronté, presqu’au quotidien, à ces deux mondes on mesure alors pourquoi le doctorant a devant lui, au début du travail, un océan d’interrogations. Si nous devions ajouter une différence supplémentaire elle tiendrait à la façon d’exprimer sa pensée. Le parcours doctoral impose une écriture – une thèse est bien un écrit – fluide, communicante, construite, articulée, fondée sur des exposés avec des introductions, des transitions, des conclusions. Tout au contraire, la communication dans le monde de l’entreprise repose sur la concision, l’essentiel, la brièveté, si l’on nous pardonne sur un « bulletpointisme » désincarné, ce qui signifie au sens littéral, privé de chair et le tout avec du « powerpointisme » plutôt que de l’écriture en prose. Il est une seconde caractéristique qui engendre un lot d’interrogations. Le parcours doctoral est – ceci est une critique adressée à nous, à nous les superviseurs – difficile à décoder, difficile à décrypter. Au début, pour améliorer la probabilité de réussite il faut comprendre, il faut éclairer les zones d’ombre et elles sont nombreuses. Où est le pouvoir ? Quelles sont les règles relationnelles entre les acteurs ? Y a-t-il des us et coutumes implicites au sein de la communauté académique ? Des non-dits existentils ? Le vocabulaire utilisé comporte-t-il des interdits ? Des propos obligatoires ? Les paroles de louange sont-elles toujours empreintes de réalité ? Les propos critiques ne sont-ils qu’un exercice imposé sans conséquences réelles ? Parmi les sugges-

E s p o i r s e t d é s e s p o i r s d u d o c t o ra nt

tions, parfois contradictoires des membres de la communauté académique, comment repérer le vrai ? L’adapté à une situation ? Le bon grain ? L’ivraie ? Il est vrai qu’entre les acteurs l’implicite est souvent de mise et ainsi le décodage par celui qui ne fait pas partie du cénacle engendre un lot fourni d’interrogations. Comment surmonter ces interrogations, toutes légitimes ? Pour ce faire le doctorant dispose de trois soutiens et d’une arme puissante. Le premier soutien est constitué des autres doctorants. Même si, et c’est d’autant plus vrai lorsque le doctorat est organisé en grande partie « à distance », tout doctorant dispose d’un espace de rencontre avec d’autres doctorants. Les cours, les séminaires, voire les plates-formes électroniques d’échange, sont d’excellents outils pour partager entre doctorants Tout y incite puisqu’il n’existe aucune forme de compétition entre eux. Échanger avec d’autres, se rendre compte que l’on partage les mêmes interrogations, faire appel à un doctorant plus senior dans le processus sont d’excellentes formes de soutien. Sur ce point l’avantage sera du côté du PhD. Nous, tuteurs, mesurons la richesse des échanges qui peuvent exister au quotidien entre jeunes doctorants dans un laboratoire, dans une chaire, dans un groupe de personnes partageant le même bureau, la même cafétéria, les mêmes logiciels de traitements de données. Le candidat en DBA semble sur ce point bien isolé. Le deuxième soutien est composé de tous les professeurs, de tous les directeurs scientifiques impliqués dans un programme, c’est le cas pour le Business Science Institute. Il serait illusoire d’attendre d’eux une implication qui n’appartient qu’au troisième soutien, le directeur de la thèse. Tout simplement, il est envisageable, avec eux, d’observer, d’écouter, d’interroger, de solliciter pour mener une sorte d’analyse multi-angulaire auprès de personnalités, sans doute fort différentes les unes des autres. Mais, ces personnalités sont animées de la même ambition : voir leurs thésards, les leurs et ceux des autres professeurs, réussir. Leurs avis, dont la pertinence finale est à juger par le thésard, seront toujours utiles. Le troisième soutien est le directeur de la thèse. Durant cette phase de début il est la personne qui a pour rôle premier de faire

41

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

échapper le thésard au désespoir, de le conduire sur les doux rivages de l’espoir et du bonheur. C’est le directeur de thèse qui délivre les codes, qui rassure, qui maintient la tête hors de l’eau. Il sait que, à ce moment, sa responsabilité est cruciale. Il sait que l’on attend de lui des réponses rapides, claires et adaptées au sujet. Il ne doit être ni un gourou, ni un complice mais tout simplement un support qui accompagne dans les moments complexes en s’appuyant sur son expérience enrichie de tous les thésards qu’il a pu mener vers le succès. Au surplus, à côté de ces trois soutiens, le thésard dispose d’une arme puissante : lui-même. Cette arme ancre sa puissance dans la volonté de celui qui a choisi cette voie et voit cette puissance décuplée si le doctorant entre dans la voie recommandée ici : « mieux savoir pour mieux comprendre, mieux comprendre pour mieux réussir ».

2. LE MILIEU DE LA THÈSE : LA PHASE DES QUESTIONNEMENTS 42

Cette phase du milieu peut survenir plus rapidement pour certains que pour d’autres. Elle commence dès que les sujets presque métaphysiques du début ont été dominés, et alors les questionnements tiennent à deux champs : le terrain et la méthode. Annonçons-le très clairement. Ici l’avantage se situe du côté du DBA au regard du PhD. Arrêtons-nous un instant sur terrain et méthode pour un PhD. Les questionnements sont d’une ampleur immense tout simplement parce que le choix du possible est sans limite. Prenons comme exemple le marketing. Le terrain sera-t-il celui des consommateurs, celui des clients, celui des entreprises ? Le terrain sera-t-il local, national, international ? Si l’entreprise est choisie, conviendra-t-il de privilégier le B to B, le B to C ? Si le client est choisi sera-t-il pertinent de questionner l’utilisateur final ? L’acheteur ? Un segment de clientèle ? Tout un marché ? Pour ce qui est de la méthode, l’espace n’est pas davantage circonscrit. Une étude longitudinale ? Une coupe instantanée ? Une approche plutôt constructiviste ? Une autre davantage normative ? Ou encore une méthode très inductive ? Les choix épistémologiques sont si lourds de conséquences que l’appren-

E s p o i r s e t d é s e s p o i r s d u d o c t o ra nt

ti PhD éprouve mille difficultés et se heurte ainsi à des questionnements sérieux. Le terrain évoqué n’appelle pas davantage de solutions évidentes. Les contradictions naissent entre le souhaitable, le faisable et le possible dans les délais (avec en plus la contrainte du budget disponible !). Même si cette phase n’est pas absente de questionnements pour le candidat DBA convenons que le champ du possible est davantage restreint. La raison se trouve dans la définition même du DBA : permettre à un manager expérimenté de faire progresser la connaissance dans le domaine qui est le sien, le plus souvent dans le secteur qui est le sien. Le choix du terrain, de ce fait, réduit le champ du possible. Je suis banquier et je m’interroge sur l’intérêt que les banques trouveraient à nourrir leur communication des différences de culture existant dans un pays. Le terrain en découle : les banques de ce pays. Je suis spécialiste de communication et je souhaite mesurer les bénéfices et les contraintes du passage à la digitalisation. Le terrain laisse un choix court : les agences, les annonceurs, les consommateurs. La décision est aisée : les trois en même temps ! Je suis expert dans mon pays en matière de régulation du secteur des télécommunications et je milite pour une meilleure compréhension du traitement des réclamations par les opérateurs. Là encore, le terrain des opérateurs du pays s’impose avec au surplus, le cas échéant, une comparaison internationale. Que d’aisance dans le choix du terrain ! Acceptons toutefois de reconnaître que toutes les situations de choix du terrain ne sont pas également simples. Le DBA n’impose pas une homogénéité parfaite des situations. Il est des doctorants qui sont consultants et donc interviennent dans divers types de secteurs, divers types d’entreprises. Il est des doctorants qui ont quitté un secteur pour en découvrir un autre. Il est des doctorants pour lesquels l’essentiel est un thème (la green supply chain, le management par la bienveillance, l’intérêt des clusters, le management du risque, etc.) et non une entreprise ou un secteur. Dans tous les cas, le choix du terrain comporte un éventail assez ouvert. Mais, et c’est en liaison directe avec les idées développées à propos de la phase de début, dans ces cas le choix du terrain est très proche du choix même du sujet.

43

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Il demeure que cette période du « milieu », même si c’est facilité dans de nombreux cas pour le DBA, engendre pour le doctorant des questionnements lourds en ce qui concerne le terrain qui servira d’exemple, de preuve, de justification.

44

Pour ce qui est de la méthode, nous suggérons une égalité en ce qui concerne les questionnements entre le DBA et le PhD avec un léger avantage au DBA. Pour ce dernier, l’étendue du possible est réduite par le projet : apporter un supplément de connaissances à des pratiques managériales et ceci dans un laps de temps court alors même que, pour le doctorant, la thèse n’a pas réduit les obligations professionnelles du moment. Ainsi, statistiquement, on rencontrera beaucoup de thèses qui passent par un modèle issu de la littérature avec des hypothèses, hypothèses qui sont testées par une méthode quantitative reposant sur des questionnaires administrés à un échantillon. La méthodologie qualitative avec des propositions initiales élaborées par le recours à des verbatim, voire à une analyse textuelle, ne sont pas absentes. Les méthodologies plus lourdes, de type « ancrées », en raison de l’investissement en temps qu’elles imposent, bien que non inexistantes sont plus rares. Terrain et méthodes engendrent ainsi des questionnements qui, s’ils ne sont pas résolus dans de bons délais, peuvent entraîner le doctorant dans une spirale du désespoir. Pour surmonter ces difficultés potentielles, les soutiens de l’arme évoquée plus haut sont naturellement toujours pertinents mais on peut y ajouter un conseil à ce stade : toujours avoir en tête, inscrire sur l’écran d’accueil de son ordinateur, ce que l’on veut démontrer et à qui. Avoir toujours le regard porté vers la cible, le projet, la ligne d’arrivée constitue le meilleur gage pour éviter les erreurs de terrain et de méthode. Une idée suggérée est celle de l’alignement, au sens d’alignement managérial ou d’alignement des planètes. La performance, le gage du succès, reposent sur l’alignement terrain, méthode, projet final. Si l’un des trois sort de l’alignement le danger s’annonce. Si les trois sont maintenus dans un parfait alignement ceci signifie que le choix du terrain et de la méthode avait été pertinent. Plus simple à suggérer qu’à mettre en pratique ! Nous l’admettons car le parfait alignement s’observe lorsque la thèse est

E s p o i r s e t d é s e s p o i r s d u d o c t o ra nt

achevée. Faisons confiance au doctorant qui, avec l’aide de son directeur de thèse, mesurera tout écart s’il en survient un, pour le corriger au plus vite.

3. LA FIN DE LA THÈSE : LA PÉRIODE DES INQUIÉTUDES S’il est une phase au cours de laquelle le doctorant est assailli de sentiments très divers dans lesquels se mêlent espoirs et désespoirs c’est bien la phase ultime. Le thésard, à ce moment précis, doit d’abord accepter d’aller vers le document définitif, ensuite il doit se forger un caractère solide pour surmonter l’épreuve de la soutenance et enfin il pense au lendemain, le lendemain de la soutenance. Durant ces trois épreuves, les inquiétudes sont multiples. Commençons par cet instant crucial qui consiste à aller pas à pas vers le point final mis à la thèse. Les inquiétudes, les incertitudes naissent. Comme c’était aisé de soumettre au directeur de la recherche des versions zéro, des brouillons, des premiers jets. Rien n’était définitif et donc les remarques, les suggestions, les critiques étaient les bienvenues. Toutes étaient acceptées puisqu’elles permettaient le progrès. L’acceptation de la version finale est autrement plus lourde de conséquences. Elle ne sera plus modifiable, elle portera le nom du thésard, le nom du directeur de recherche (nous verrons plus loin pour les membres du jury), le logo de l’institution devant laquelle le travail sera défendu, elle ne connaîtra plus de révision. Que d’inquiétudes ! Ai-je tout dit ? Mes propos seront-ils convaincants ? Ma méthode est-elle rigoureuse ? Suis-je certain d’apporter une valeur ajoutée à la connaissance actuelle ? Toutes ces interrogations engendrent rarement des réponses positives dans tous les cas. Et pourtant, le moment crucial est proche. Sans doute avant de parvenir à cette version définitive du travail convient-il de rappeler qu’aucun doctorant n’aura échappé au préalable aux moments de noirs désespoirs face à l’obligation de tenir les délais. Avoir achevé le travail plusieurs mois avant la soutenance pour que le processus d’évaluation préalable puisse se mettre en place.

45

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Quel défi ! « Jamais je n’y parviendrai, je préfère décaler ma soutenance ». Combien de fois avons-nous entendu ces propos ? Surmonter les inquiétudes, rebondir positivement sur le désespoir pour se propulser vers l’espoir d’un bon achèvement dans des délais corrects n’appelle qu’une seule chose : l’acceptation de soi, l’acceptation de son travail, l’acceptation des risques de l’évaluation externe et… la confiance dans son superviseur qui, c’est son devoir, ne délivrera l’autorisation de soutenance que s’il est convaincu de la qualité du travail. Vient ensuite la phrase de préparation de la soutenance et de l’évaluation externe.

46

Dans le cas de Business Science Institute, le directeur scientifique donnera un feu vert conduisant à la constitution du jury, un feu orange impliquant des modifications substantielles (ou mineures et de forme seulement) avant d’aller plus loin, un feu rouge interdisant une soutenance à court terme. Ici encore l’inquiétude est présente. Plaçons-nous dans le cas d’un feu vert. Ce feu est-il résolument vert ou quelque peu orangé ? A-t-on masqué certaines critiques qui verront le jour lors de la soutenance ? Les membres du jury seront-ils critiques positivement ou iront-ils jusqu’à mettre en cause mon travail ? Comment articuler mon exposé de soutenance en tenant compte des rapports, pas obligatoirement homogènes, des membres du jury ? Leurs louanges sont-elles réelles ? Leurs critiques sont-elles atténuées dans l’écrit ? Cette phase, en DBA, n’est somme toute pas différente de celle connue par les doctorants PhD. Cependant, ces derniers disposent d’un puissant élément modérateur de leurs inquiétudes : la pré-soutenance. Naguère, cette pré-soutenance n’était pas généralisée et le thésard se présentait devant son jury fort du seul soutien de son directeur de thèse. Aujourd’hui, la pratique des écoles doctorales impose une pré-soutenance. Elle porte sur un texte non achevé mais proche d’une version définitive. Les futurs rapporteurs se prononcent et tiennent une sorte de « séance de travail » avec le directeur de la thèse et le thésard. Les points essentiels sont ainsi abordés plusieurs mois avant la soutenance officielle. Les inquiétudes sont alors abondamment atténuées.

E s p o i r s e t d é s e s p o i r s d u d o c t o ra nt

En revanche pour le DBA la pré-soutenance n’est pas de mise et alors, et c’est sans doute assez vrai, l’évaluation par le directeur scientifique constitue une pré-soutenance. Enfin, l’instant d’après survient. Ce moment est fait de vides – le travail est achevé – et de pleins – que faire après – ? La boucle est bouclée ; le parcours est à son terme ; la cible est atteinte. Le docteur, en un instant, se replace au début du parcours. Pourquoi aije entrepris un doctorat ? Quel retour sur investissement avais-je en tête implicitement ou explicitement ? L’heure de vérité sonne. Voulais-je décrocher un progrès de carrière ? Avais-je besoin d’une carte de visite avec la mention « docteur » ? Souhaitais-je me prouver que mon métier ne me donnant pas toute satisfaction, je pouvais aller au-delà de mes contraintes quotidiennes ? Était-il nécessaire pour moi – et pour d’autres – de poursuivre la quête d’un sentiment de fierté ? Il est temps de mesurer l’écart si écart il y a entre les attentes et la satisfaction. Là, de nouveau, le désespoir n’est jamais loin : « Tout ça pour ça ». Mais l’espoir peut l’emporter aisément. « Appelez-moi docteur ! » Autant de cas, autant de situations différentes. La conclusion aura été, et nous l’espérons, en filigrane de tous ces propos. Un parcours doctoral est exigeant, comporte des incertitudes, n’est jamais certain d’aller jusqu’à son terme mais, en sens contraire, apporte des satisfactions immenses fondées sur le plaisir de la découverte, le plaisir d’apporter une pierre à une œuvre, le plaisir de se reconnaître dans le travail. Pour maximiser les chances de réussite il convient de disposer de divers talents et d’une capacité à comprendre pour surmonter les phases difficiles. Le but était ici de montrer que le désespoir est normal, que l’envie régulière de renoncer est naturelle mais qu’elle doit être maîtrisée par la connaissance et la compréhension des codes doctoraux. La bonne connaissance des caractéristiques du processus doctoral ouvre la porte à un succès à probabilité améliorée. C’était le projet de ce chapitre.

47

CHAPITRE 3. Choix des méthodes de recherche : discours contre La méthode ! Pierre-Louis Dubois

Résumé Ce chapitre propose quelques suggestions permettant de construire une méthodologie de thèse, chemin faisant, sans imposer de cadre a priori, en tenant compte des deux faces de tout exercice doctoral, les contraintes académiques, qui délimitent le temps consacré à cet exercice singulier et supposent que l’on considère les ressources accessibles et la progression des connaissances dans laquelle la thèse souhaite s’inscrire. Dans un premier temps, il tente de situer la place des méthodes dans une thèse en sciences de gestion comme résultat d’une interaction, puis il traite de quelques points critiques dans la construction d’une méthodologie. Mots-clés : méthodologie, état de l’art, épistémologie, sciences de gestion, traitement des données, validité, DBA, thèse de doctorat.

Les méthodes de recherche du DBA

48

Choix des méthodes de recherche

INTRODUCTION Définir a priori une méthode de recherche est une pratique assez courante dans de nombreuses disciplines. L’économétrie en est souvent une illustration. Et l’on en trouve de multiples exemples en sciences de ce qui revient à prendre une « posture » méthodologique. Sans ouvrir le débat sur le bien-fondé de telles pratiques, il est légitime de se poser la question du choix des méthodes de recherche dans l’exercice particulier de la thèse de Doctorat en sciences de gestion, qui plus est dans le contexte particulier d’un DBA. Les sciences de gestion sont entendues dans une conception largement partagée comme des sciences de la décision et de l’action. Elles s’intéressent à des problématiques de gestion des entreprises et des organisations inscrites dans des environnements complexes où les contextes ne peuvent jamais être considérés comme équivalents. Ainsi la condition ceteris paribus (toutes choses étant égales par ailleurs) n’est quasiment jamais respectée, aucune situation ne pouvant être totalement comparable. Il importe alors pour chaque recherche de préciser les conditions propres des observations, des méthodes d’investigation de la réalité observée, liées au projet du chercheur, à chaque stade de celui-ci, de s’interroger sur le choix des techniques d’enquête ou d’ expérimentation et de poser la question de la validité interne et externe des résultats, en quelque sorte de leur intervalle de définition et de confiance, si l’on souhaite que la recherche puisse avoir une certaine portée hors du contexte spécifique d’étude, sans prétendre pour autant à une généralisation inconditionnelle. Une telle conception ne retire par exemple rien à l’intérêt de recherches fondées sur une axiomatique. Elle conduit simplement dans ce cas précis à mettre l’accent sur ses limites et à considérer et parfois à prendre en compte ou à intégrer les biais (par exemple, les heuristiques décisionnelles) qui séparent cette figuration stylisée de la réalité et à définir en quoi cette représentation du réel permet à la pensée de progresser et de trouver une utilité pour la compréhension d’un phénomène ou pour la décision. Notre conception tend surtout à ne pas donner priorité à la méthode ou aux méthodes ordonnées dans le cadre d’une méthodologie a priori mais à créer une interaction entre, d’une part, la définition de la problématique et la tentative de réponse partielle,

49

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

qui forment l’exercice central de la thèse et, d’autre part, à chaque étape du travail doctoral, le choix et la discussion des concepts qui semblent les plus appropriés et féconds, le recours aux méthodes de recueil et de traitement des données qui semblent les plus judicieuses et les plus aptes à saisir et comprendre le ou les phénomènes qu’on se propose d’étudier.

50

Ce chapitre n’a pas pour objectif de présenter le panorama des méthodes de recherche possibles dans un travail doctoral. Il n’y suffirait pas ! Et d’excellents ouvrages sont disponibles sur ce sujet (par exemple Evrard, Pras & Roux, 2009 ; Denzin & Lincoln, 1994 ; Wacheux, 1996 ; Grawitz, 1993) (cf. également le chapitre 4 écrit par Yves-Frédéric Livian dans cet ouvrage). Il ne prétend pas non plus décrire une anti-méthode qui serait l’opposé de méthodologies existantes, ce qui reviendrait à en proposer une de plus ! Il propose plus modestement, dans l’esprit d’ouverture que nous nous sommes efforcé d’appliquer à nos nombreuses directions de thèse, quelques suggestions permettant de construire une méthodologie de thèse, chemin faisant, sans imposer de cadre a priori, en tenant compte des deux faces de tout exercice doctoral, les contraintes académiques, qui délimitent le temps consacré à cet exercice singulier et supposent que l’on considère les ressources accessibles, et la progression des connaissances dans laquelle la thèse souhaite s’inscrire, qui fait nécessairement de toute thèse un propos d’étape dans la construction scientifique et dans la carrière de l’impétrant. À cette fin, dans le cadre forcément contraint de ce chapitre, nous mettrons l’accent sur deux aspects de toute recherche doctorale : –– la nécessaire interaction entre le choix des méthodes, la construction progressive d’une méthodologie adaptée à la problématique, au fur et à mesure de sa définition, et la considération du « terrain » étudié, de l’état de l’art et des objectifs de la recherche ; –– quelques écueils fréquents de la construction d’une méthodologie, quelques dangers à éviter et quelques limites inhérentes à toute recherche en sciences de gestion, en laissant toute liberté au chercheur de s’adapter à la progression de son travail doctoral.

Choix des méthodes de recherche

1. LA PLACE DES MÉTHODES DANS LA THÈSE EN SCIENCES DE GESTION, RÉSULTAT D’UNE INTERACTION Les sciences de gestion traitent de sujets d’études très divers. Elles recouvrent sous le vocable « sciences de gestion » ou « sciences du management » des disciplines variées, Gestion des Ressources Humaines, Finance, Comptabilité-Contrôle, Stratégie, Organisation Development, Marketing, Systèmes d’Information, etc., souvent définies de façon fonctionnelle, qui ont créé leurs propres corps de connaissances et qui donnent des sciences de gestion une vision quelquefois kaléidoscopique. Les thèses en sciences de gestion s’inscrivent parfois dans une discipline, peuvent aussi être au croisement de deux disciplines ou être beaucoup plus transversales… Ce dernier cas est assez fréquent dans la thèse de DBA qui participe fréquemment d’une démarche inductive à partir d’une problématique qui se construit sur une expérience ou sur un terrain. Quel que soit le point de départ de la thèse ou les disciplines de gestion concernées, le schéma ci-dessous, nous a souvent servi et, par sa simplicité, a permis d’engager une discussion avec chaque doctorant, en tenant compte du type de thèse, des conceptions épistémologiques ou des cadres méthodologiques envisagés par le candidat. Figure 1. Le projet de thèse : un cadre général

51

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

52

La problématique de la thèse apparaît rarement a priori. Comme l’écrivait Gaston Bachelard (1949, p.38) : « il n’y a de science que ce qui est caché ». L’observation du réel n’est pas la réalité : elle peut être un point de départ mais il appartient au scientifique de dépasser le monde des apparences et de ne pas confondre la problématique d’une recherche avec un relevé de symptômes, fussent-ils aigus ! À l’opposé, s’inscrire a priori dans un cadre conceptuel, comme un prêt à porter commode, limite la vision du chercheur en l’enfermant dans des cadres ou des règles qui lui semblent intangibles. JeanLouis Le Moigne (1990, p. 117) résume parfaitement cet écueil : « Le fait qu’un nombre croissant de praticiens des (…) sciences de gestion se confine dans l’étude de ce qui existe en telle ou telle partie du système social ne rend nullement leurs conclusions plus réalistes ; et il les rend largement inadéquates pour les décisions concernant l’avenir. Une science de gestion féconde doit être largement une étude de ce qui n’est pas : une construction de modèles hypothétiques, pour les mondes qui seraient possibles… ». On comprend alors pourquoi la problématique qui caractérise une thèse ne peut être a priori. Elle est le résultat d’une découverte pas à pas, d’un cheminement du chercheur dont l’objectif est de définir puis de soutenir une thèse, qui est un propos réfutable ou au moins une avancée de la réflexion qui s’inscrit dans une (ou des) situations de gestion (Dubois, 1995). Cette ambition se réalise généralement par un premier recours aux méthodes permettant d’explorer une (ou des) situations de gestion et, de façonner la problématique, de dégager des hypothèses, avant même évidemment de chercher des éléments de réponse ou de solutions possibles. Dans cette perspective, le point de départ de la thèse est parfois inspiré par la lecture des travaux de recherche, parfois par des situations vécues ou observées, cette seconde conjecture étant assez fréquente dans le cas des DBA. Quelle que soit la source de cette idée originelle, le travail doctoral initial se traduira par un jeu interactif entre le corps de connaissances théoriques ou plus largement, un ensemble de publications à la disposition du chercheur et le champ du réel (le terrain) propre au problème de gestion qui l’intéresse.

1.1. De l’état de l’art À ce stade exploratoire, la lecture des écrits relatifs à la problématique en définition est en soi un exercice déterminant. D’un

Choix des méthodes de recherche

point de vue instrumental, il existe aujourd’hui, avec l’aide des nouvelles technologies, une multitude de bases de données et de moteurs de recherche, qui permettent une vaste exploration des concepts qui paraissent les plus pertinents dans le cadre de la problématique avec un double danger : se perdre dans la multiplicité des approches scientifiques et des définitions ou s’insérer dans un cadre prédéfini dont on n’a pas pris conscience de l’étroitesse et des limites. La connaissance d’un domaine scientifique ne se réduit pas à quelques définitions, qu’il s’agisse des sciences humaines telles la sociologie, de la psychologie, l’histoire, la linguistique, ou de sciences exactes ou expérimentales, etc. Les acquis fondamentaux du chercheur ne sont pas neutres et sa formation préalable peut être un atout pour ouvrir l’état de l’art à des connaissances fécondes issues d’autres disciplines (nous avons pu le constater en suivant au cours de nos directions de thèse des étudiants ayant bénéficié d’une formation en mathématiques, en philosophie, en sciences de l’éducation, en linguistique, en psychologie…). La construction de l’état de l’art est en soi un révélateur des approches de la réalité retenues par le doctorant. Elle indique les cadres de pensée qui lui paraissent les plus adaptés à la définition et au-delà, à la résolution de la problématique. Elle permet de dépasser le stade des symptômes et des apparences pour aller vers l’explication ou la compréhension des phénomènes étudiés, en forgeant des propositions, en émettant des hypothèses. L’état de l’art, tel qu’il figure dans les documents finals de thèse n’est jamais neutre. Il met au jour les choix fondamentaux du chercheur. Et il oriente vers des méthodes en considération des terrains d’analyse et des objectifs recherchés : observer, comprendre, expliquer, prévoir, décider, agir…

1.2. Du rapport à l’épistémologie Sans reprendre ici les diverses conceptions épistémologiques courantes en sciences de gestion, qui ont fait depuis plusieurs années l’objet d’une littérature assez dense (par exemple Martinet, 2013 ; Martinet & Pesqueux, 2013), il est certain que les choix épistémologiques du doctorant l’orienteront vers certains types de méthodologie : inductive, déductive ou abductive, clinique ou expérimentale, etc. Construire une série d’hypothèses à partir des théories, dans le cadre d’une conception positiviste

53

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

54

de la recherche, rechercher des régularités et des invariants qui caractérisent certains faits sociaux, conduisent le chercheur vers des méthodes de mesure et de validation des hypothèses qui seront adaptées à son projet. Partir des expériences individuelles et collectives, tenter de les comprendre les représentations des acteurs, comme par exemple dans une approche strategy as practice supposent un recours à des modes d’observation et d’investigation, tels l’étude de cas ou l’observation participante qui seront en accord avec un choix constructiviste ou pragmatiste critique. Dans ces dernières acceptions, on ne peut séparer production de connaissances et validation. Ce rapport entre conception épistémologique et choix des méthodes constitue un des aspects critiques de la cohérence du travail doctoral. Il ne suffit pas de se référer à telle ou telle forme d’épistémologie pour « valider » l’approche méthodologique retenue. Beaucoup de thèses consacrent un chapitre ou une section à cet exercice. Dans bien des cas, il s’agit d’une sorte de rationalisation a posteriori. Dans d’autres cas, la difficulté à suivre les principes de la « posture » épistémologique revendiquée tiennent aux contraintes de l’exercice doctoral : limites de temps, ressources humaines et matérielles, difficulté d’accès au terrain, aux données, etc. Il peut aussi s’agir d’erreurs de méthodes telles que l’inadaptation de telle forme d’interrogation (questionnaire, par exemple) dans une phase exploratoire1. Ce qui importe, au final, est la conscience de la cohérence entre telle ou telle approche épistémologique et la démarche méthodologique retenue. À ce niveau, l’indication des limites inhérentes au travail doctoral, qui permet de porter un regard critique et honnête sur les résultats, peut être considérée comme la contrepartie obligatoire de toute approche en sciences humaines. Les sciences de gestion n’y font pas exception.

1.3. Du temps et de l’espace Les sciences de gestion sont généralement entendues comme des sciences de l’action de façon comparable aux sciences de

1. Cela ne signifie pas pour autant que des données issues d’un questionnaire ne puissent pas avoir un intérêt exploratoire grâce par exemple à l’utilisation des méthodes d’analyse de données à cette fin… Tout dépend de l’intention du chercheur et de sa conscience des limites de son approche.

Choix des méthodes de recherche

l’ingénieur. Le rapport entre connaissances et pratique en est une des caractéristiques essentielles sans adhérer pour autant à une praxéologie naïve ou primaire à l’encontre de la démarche scientifique, du type « Les dix lois de… » ou « les dix règles de… » ! Tout travail doctoral s’inscrit dans un espace et dans un temps qu’il importe de situer ! Et le DBA par son inflexion fréquente vers la (ou les) pratique(s) peut conduire le chercheur à revendiquer une spécificité de champ, de situation et d’application qui lui donne à penser que sa contribution est originale et ne s’insère pas (ou peu) dans un corps de connaissances préalables… Une telle prétention est rarement fondée. Les recherches en sciences de gestion supposent un rapport entre la spécificité de l’objet d’étude qui se trouve toujours dans un contexte particulier, dans une situation de gestion, et un corps de connaissances qui peuvent être reliées avec l’objet et la situation étudiés pour progresser dans le projet de recherche en fonction de la problématique retenue. Cette liaison entre situation de gestion et connaissances s’enrichit d’une dimension historique et d’un regard comparatif et critique qui conduisent le chercheur à évaluer la relativité du contexte d’étude dans le temps et dans l’espace. Comme l’écrit Claude Mouchot, « toute l’histoire est d’abord histoire naturelle, mais l’histoire humaine est beaucoup plus que naturelle, la conscience de l’histoire la transforme en culture. Dès lors, toute connaissance de l’homme sur l’homme s’inscrit dans une culture et dans une histoire » (Mouchot, 1990, p. 74). De façon plus prosaïque, retenons pour le doctorant en management, la nécessité de situer son travail de recherche dans l’histoire de la pensée et des faits auxquels il s’intéresse et de mettre en relief les aspects particuliers de l’environnement étudié au regard d’autres types d’environnement. En situant ainsi son travail et sa contribution, il enrichit sa recherche, notamment par la découverte d’analogies fécondes, et détermine avec plus de précision et d’honnêteté scientifique l’« intervalle de définition et de confiance » de son travail.

1.4. De la thèse comme projet Aucune thèse ne peut faire l’économie de son projet. Réduire la thèse de doctorat à des concepts et des méthodes sans se poser la question des finalités, ce serait selon la célèbre citation du

55

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

56

Pantagruel de Rabelais, faire de la science sans conscience. La recherche dans le domaine des sciences de gestion ne peut se réduire à la méthode ou aux techniques, elle ne peut éluder totalement la question de son projet. Toute problématique de gestion des organisations se réfère à des fins qu’il importe de mettre en lumière. La question de la méthode n’est jamais a priori. D’une part, elle doit, comme nous venons de l’écrire, correspondre à l’approche épistémologique retenue, qui interroge sur le sens et les finalités de la recherche, d’autre part, elle doit s’inscrire dans une pratique éthique de la recherche, qui suppose à la fois honnêteté scientifique et respect des droits légitimes des participants aux situations de gestion. Une telle responsabilité invite le chercheur à ne pas se contenter d’une définition de la problématique réduite au champ étroit d’une partie d’une sous discipline de gestion mais à insérer au cœur même de son travail doctoral la question des enjeux sociétaux et environnementaux liés aux finalités recherchées. Il ne s’agit pas ici de prévoir pour chaque thèse ou dans chaque thèse des digressions à caractère épistémologique, éthique ou moral plus ou moins superficielles, mais d’inscrire son projet, et en conséquence sa problématique, dans ce qui est un des aspects les plus fondamentaux des sciences de gestion, sa contribution au devenir des organisations et de la société dans laquelle celles-ci sont insérées.

2. QUELQUES POINTS CRITIQUES DANS LA CONSTRUCTION D’UNE MÉTHODOLOGIE Une méthodologie de thèse peut se construire de bien des façons. Parfois elle s’inspire d’autres travaux et s’inscrit alors dans une forme méthodologique éprouvée avec la possibilité de comparer plus aisément les résultats mais aussi les limites d’un cadre a priori. Dans bien d’autres cas, elle est une construction plus ou moins originale qui cherche à définir et à traiter une problématique nouvelle. Quel que soit le cas, si la méthode n’est pas première dans la construction du travail doctoral mais adaptée au projet de recherche, au fur et à mesure de sa construction et de son avancée, elle est l’élément indispensable et décisif du caractère scientifique du travail et des résultats. Selon une image un peu schématique, elle apporte une forme de contrôle de qualité de la recherche et de la valeur de sa contribution à la

Choix des méthodes de recherche

connaissance. Sans prétendre à une revue exhaustive de chaque étape de la construction d’une méthodologie, quelques points critiques peuvent être évoqués dans le cadre restreint de ce chapitre.

2.1. Du choix des données Selon le projet du chercheur, selon les traditions de recherche, selon les disciplines et les problématiques traitées, la question des données « cueillies ou recueillies » se pose : d’où viennent elles, existent-elles préalablement, par exemple issues d’une base de données existante, ou faut-il aller les recueillir, par quelle méthode, quelle est leur forme, leur nombre, sont-elles homogènes, pourquoi choisir et traiter certaines données, sontelles de nature qualitative ou quantitative, en quoi sont-elles dépendantes de la méthode de recueil, etc. ? On pourrait brièvement affirmer à la lecture de cette liste bien incomplète de questions, « qu’il y a rien de moins donné qu’une donnée » ! À l’heure des big data, une telle réflexion peut sembler paradoxale ! Elle n’a d’autre but que de signifier qu’en sciences de gestion, dans toute la diversité de la discipline, la question de la nature et du choix des données est toujours un point crucial de la recherche. La diversité des situations de gestion a pour corollaire un rapport aux données très différencié. Quelques points peuvent illustrer cette conjecture : Dans certaines disciplines ou sous disciplines, telles la finance de marché ou l’étude du comportement du consommateur à partir de bases de données, les données sont fournies de façon externe (panels, bases de données boursières, etc.). Elles ne sont jamais neutres. L’étude de leur origine, des modes de collecte, des choix de catégorisation forment un premier problème. Que dire par exemple d’une base des revenus de consommateurs déclarés au fisc, ou à son banquier pour obtenir un prêt ou à un agent immobilier ? Comment comparer des catégories socioprofessionnelles lorsque les nomenclatures des pays différent ou sont plus ou moins bien renseignées ? Un second problème consiste à se frayer un chemin dans une masse de données brutes alors même qu’elles n’ont quasiment

57

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

jamais été recueillies en fonction de la problématique du chercheur. Par exemple : –– Comment opérationnaliser ce qu’est un client fidèle ou encore, un statut social (niveau d’éducation, niveau de revenus, classe sociale, etc., combinaison de ces variables ?). Comment repérer les données utiles et leur donner une forme adéquate (data mining), opératoire, dans un entrepôt de données (data warehouse) ? –– Comment saisir les données à traiter, les informations utiles dans la phase exploratoire d’une étude ? Que doivent être les données dans la phase confirmatoire d’une étude exigeant en principe (sauf techniques statistiques appropriées du type bootstrap (Evrard et al., 2009)) un terrain différent mais comparable… ? –– Quelle est l’influence de l’enquête (des enquêteurs) sur le recueil des données : technique d’observation avec ou sans participation, biais de sélection par l’enquêteur des informations allant dans le sens de sa démonstration, etc. ?

58

–– Quel doit être le niveau de représentativité des données ? Que cherche-t-on ? Repérer les individus les plus typiques (idéal-type selon Max Weber, 1992), avoir une représentativité statistique proportionnelle à la population définie, ou des individus représentatifs d’une sous population ? Quelle est la portée scientifique d’une étude de cas (un seul, plusieurs) ? Ces quelques questions qui n’ont pas de réponse simple ou définitive montrent combien le choix des méthodes qui ont présidé à la formation des données existantes à sélectionner ou des données à recueillir est un pilier fondamental de tout travail de recherche en sciences de gestion. Tout travail doctoral se doit de porter clairement à la connaissance du lecteur et des autres chercheurs les choix effectués, leur intérêt et leurs limites.

2.2. Du traitement des données La mise en place d’un protocole de traitement des données n’est pas non plus une donnée a priori d’une thèse. Certes certaines thèses fondées sur un mode de recherche faisant l’objet d’une

Choix des méthodes de recherche

certaine tradition peuvent avoir recours à des protocoles assez comparables, comme c’est le cas fréquemment de thèses s’inscrivant dans une méthodologie hypothético-déductive, mais, même dans cette conjecture, il existe de nombreuses variantes et bien des degrés de liberté. La méthodologie d’une thèse est souvent évolutive. Les idées initiales à ce sujet peuvent être remises en cause, chemin faisant, pour de multiples raisons qu’il est impossible d’exposer ici de façon exhaustive. Citons à titre d’exemples : –– La possibilité d’accès aux données, leur quantité, leur qualité, leur fiabilité, leur nature qualitative ou quantitative, leur hétérogénéité, leur incomplétude… Toutes les méthodes, qualitatives ou quantitatives, sont fondées sur des exigences précises en termes de recueil et de traitement de données. Qu’il s’agisse de la théorie enracinée (Grounded Theory de Glaser et Strauss (1967)), du paradigme de Churchill (1979) pour le traitement des échelles psychométriques ou du caractère formatif ou réflexif des indicateurs dans un modèle d’équations structurelles (cf. Evrard et al., 2009), l’adéquation des données aux méthodes de traitement choisies est une condition indispensable de leur utilisation. Par exemple, l’utilisation de méthodes linéaires pour représenter des phénomènes non linéaires (tels qu’une relation qualité-satisfaction du client) ne permettra pas de saisir correctement ceux-ci… –– Pareillement, l’adaptation des méthodes de traitements aux questions que le chercheur se pose est un point crucial d’une thèse. Faut-il encore que le chercheur ait une idée claire et fondée du problème posé. Ce qui est difficilement le cas dans le cadre de recherches constructivistes ou interprétativistes, par exemple, où l’objet de recherche se précise au fur et à mesure des investigations du chercheur. Pareillement on pourra considérer que l’utilisation de méthodes causales, du type équations structurelles, se doit de reposer sur un modèle conceptuel solide au plan théorique dans le cadre d’une démarche confirmatoire. –– Le choix des méthodes dépend aussi de l’aptitude du chercheur à les maîtriser. Les nombreuses possibilités d’approche qualitative (ethnographique, sémiotique,

59

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

historique, phénoménologique, anthropologique, etc.) demandent une formation réelle du chercheur. Il en est de même pour les approches quantitatives surtout lorsqu’elles sont complexes. On ne peut « déléguer » cet aspect méthodologique et se contenter d’une connaissance superficielle qui se traduira inévitablement par des lacunes et des erreurs dans le choix des méthodes et l’interprétation des résultats. L’approche « presse-bouton » en matière de traitement statistique, facilitée par des logiciels facilement utilisables, est par exemple le type même de piège à éviter !

60

–– Comme nous le précisions ci-dessus, l’adéquation des méthodes aux objectifs de recherche : observer, décrire, comprendre, expliquer, prévoir, intervenir… est aussi un point critique de leur choix. Cela peut justifier par exemple le choix d’une enquête qui peut être un moyen d’observer ou de décrire, d’une (ou plusieurs) étude(s) de cas qui peut (peuvent) permettre d’aller plus loin dans la compréhension d’une situation de gestion ou encore d’une expérimentation qui donne la possibilité de manipuler certains variables… Un protocole de recherche peut se bâtir au fur et à mesure en forgeant par exemple des hypothèses grâce à un premier temps d’observation et de description suivi de phases à visées explicatives, compréhensives, etc. Il importe à chaque stade que le chercheur ne « sur-interprète » pas ses résultats, ce qui est une tentation fréquente. –– Un autre point critique de la construction d’une méthodologie est tout simplement sa faisabilité dans le cadre limité et contraint de la thèse de DBA. Certaines thèses sont difficiles ou impossibles à mettre en œuvre car le doctorant ne peut dépasser les contraintes qui s’imposent à lui. Comment faire une thèse sur le media planning sans accès aux données media détenues par les sociétés spécialisées ? Comment s’inscrire dans le cadre de démarches fondées sur la théorie enracinée et en respecter les principes dans un temps contraint ? Comment finir une thèse en trois ans lorsqu’on ne dispose pas des données longitudinales indispensables (exemple d’études de cohortes) ? L’étendue du sujet, les contraintes de temps et de ressources sont des éléments à prendre en compte de façon impérative dans le cadre de l’exercice spécifique de recherche qu’est la

Choix des méthodes de recherche

thèse. Et, sur ce point, tous les thésards ne sont pas à égalité : l’insertion dans un laboratoire ou dans une entreprise (par exemple, en convention CIFFRE), l’accès aux données, l’existence d’une formation ou d’un background préalable, la disposition de ressources humaines ou financières… changent la donne. Il importe d’y réfléchir assez tôt…

2.3. De la validité des résultats Le lien entre le choix des méthodes et la validité des résultats peut également être vu sous de nombreux angles : –– Le plus évident est le bon usage des méthodes en ellesmêmes et par rapport à la nature des données, que celles-ci soient de nature qualitative ou quantitative. Il s’agit là d’un problème technique. –– Les limites des méthodes elles-mêmes sont à mettre en exergue, telles que les effets de laboratoire, l’incomplétude des plans expérimentaux, les choix contingents de catégorisation des données… –– Un autre angle de vue lie les résultats au choix des méthodes ou à la séquence de choix retenue. Quel que soit le problème que l’on cherche à résoudre, le choix des méthodes et de façon plus ample d’une méthodologie particulière détermine d’une certaine façon le type de résultats obtenus. Cela ne remet pas en cause l’intérêt de ces résultats obtenus dans le cadre d’un bon usage des méthodes choisies et d’une justification pertinente d’une méthodologie mais rend néanmoins ceux-ci dépendant des choix méthodologiques. Quand c’est possible, l’usage de plusieurs méthodes concurremment permet de dépasser cette limite si les résultats convergent indépendamment des méthodes choisies (convergence méthodologique) et mieux encore, à partir de jeux de données différents… Mais cette possibilité est limitée par le type de recherche et les contraintes de temps et de ressources déjà mentionnées ! –– Le rapport des méthodes choisies à la problématique et aux objectifs de recherche poursuivis, au fur et à mesure de leur évolution, est aussi, comme cela a été mentionné, un facteur déterminant de validité.

61

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

En sciences de gestion, il existe en fait de nombreux critères de validité qui comportent chacun un intérêt et des limites (Dubois, 2007) : –– la pertinence des contributions en relation avec le corpus de connaissances existant ; –– la légitimation par la cohérence interne du raisonnement ; –– la pertinence observée dans l’application des résultats ; –– la confirmation par les tests et l’expérience répétée.

62

Un inventaire complet des modes de validation des connaissances en sciences de gestion est certainement une ambition chimérique. La diversité des formes de validation des connaissances est à mettre en reflet de la diversité des situations de gestion et des problématiques en jeu. Un tel constat n’élimine en rien l’intérêt de la question. Il doit conduire le chercheur à situer son apport qui ne peut être que partiel et relatif et à s’inscrire dans une communauté de savoir dont il peut être un contributeur utile, d’autres chercheurs ayant la possibilité de s’appuyer sur ses recherches et d’y porter un regard scientifique critique contribuant ainsi à cerner la validité de chaque connaissance nouvelle.

CONCLUSION En matière de méthodologie, le choix du tailleur est toujours préférable à celui du prêt à porter ! Cette conception ouverte ne remet pas en question l’intérêt de séquences classiques telles que celles rencontrées fréquemment dans des thèses hypothéticodéductives (données-hypothèses-traitement-résultats) ou de séquences appropriées à la construction d’échelles ou au traitement des données textuelles… Ces approches sur des temps partiels ou plus étendus du déroulement d’une recherche peuvent constituer des fils conducteurs utiles et pertinents pour des doctorants ayant besoin de guides méthodologiques éprouvés ! Mais on ne peut ignorer leurs propres limites. Comme l’écrivent Martinet et Pesqueux (2013, p. 245), en commentant « les révolutions intervenues au sein même de la reine des sciences, la physique quantique (…), ces contributions dé-

Choix des méthodes de recherche

cisives, et bien d’autres qui suivront, affichent le caractère incertain, réfutable, inexorablement incomplet, inachevé, construit et sans cesse reconstruit d’une connaissance scientifique fondamentalement instrumentale et propositionnelle, toujours en attente d’un peu mieux ou franchement autre ». Les sciences de gestion, sciences de la décision et de l’action, plus que d’autres, ne peuvent être celles d’un propos définitif, quelle que soit la méthodologie employée. Notre propos n’est bien sûr pas de construire un plaidoyer contre la méthodologie, ce qui serait aberrant ! Il vise simplement à ouvrir en cette matière le champ des possibles, à ne pas s’engager sur des rails sans s’interroger sur les limites inhérentes aux parcours balisés, à inciter le doctorant à exercer sa liberté et sa créativité de chercheur, en prenant conscience à chaque stade de la construction de son travail doctoral, et de ses choix méthodologiques, des possibilités ouvertes par chaque chemin emprunté et, en contrepartie, de la relativité de ses apports. Références citées Bachelard, G. (1949), Le Rationalisme Appliqué, PUF, Paris. Churchill Jr, G.A. (1979), A paradigm for developing better measures of marketing constructs, Journal of Marketing Research, vol. 16, n°1, p. 64-73. Denzin, N. K. & Lincoln, Y. S. (eds.) (1994), Handbook on Qualitative Research, Sage Publications, Thousand Oaks. Dubois, P.-L. (1995), Propos sur les sciences de gestion en général et sur leur enseignement en particulier, Mélanges en l’Honneur du Professeur André Page, Presses Universitaires de Grenoble, Grenoble. Dubois, P.-L. (2007), Connaissance et gestion, un paradoxe indépassable, in P.-L. Dubois et Y. Dupuy (dir.), Connaissance et Management, Economica, Paris. Evrard, Y., Pras, B. & Roux, E. (2009), Market, fondements et méthodes des recherches en marketing, 4 e édition, Dunod, Paris. Glaser, B.C. & Strauss, A. L. (1967), The Discovery of Grounded Theory : Strategies for Qualitative Research, Aldine Transactions, Chicago. Grawitz, M. (1993), Méthodes en sciences sociales, Dalloz, Paris. Le Moigne, J.-L. (1990), Épistémologies constructivistes et sciences de l’organisation, in A.-C. Martinet (dir.), Épistémologies et sciences de gestion, Economica, Paris, p. 81-140.

63

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Martinet, A.-C. (1990), Épistémologies et sciences de gestion, Economica, Paris. Martinet, A.-C. (2013), Le système « épistémique – pragmatiqueéthique » des sciences de gestion, in A.-C., Martinet & Y., Pesqueux (dir.), Épistémologie des sciences de gestion, Vuibert, Paris, p. 243-262. Martinet, A.-C. et Pesqueux Y. (dir.) (2013), Épistémologie des sciences de gestion, Vuibert, Paris. Mouchot, C. (1990), Décisions et sciences sociales, in A.-C. Martinet (dir.), Épistémologies et sciences de gestion, Economica, Paris, p. 31-79. Wacheux, F. (1996), Méthodes qualitatives de recherche en gestion, Economica, Paris. Weber, M. (1992), Essais sur la théorie de la science, Plon-Agora, Paris. Références pour en savoir plus Denzin, N.K. & Lincoln, Y.S. (1994), Handbook of Qualitative Research, Sage, Thousand Oaks.

64

Ce livre rassemble de nombreuses contributions de spécialistes de sciences humaines pour expliquer les fondements théoriques des méthodes qualitatives, les stratégies d’enquête, de collecte, d’interprétation et de présentation des données. Evrard, Y., Pras, B. & Roux, E. (2009), Market, fondements et méthodes des recherches en marketing, 4 e édition, Dunod, Paris.

Ce livre dresse un panorama complet et actualisé des études etdes méthodes de recherche en marketing. En fait, ces méthodes concernent la plupart des disciplines de sciences de gestion et les lecteurs y trouveront de nombreuses réponses aux questions techniques qui se posent dans l’utilisation des méthodes de recherche. Gavard-Perret, M.-L., Gotteland, D., Haon, C. & Jolibert, A. (2012), Méthodologie de la recherche en sciences de gestion, Réussir son mémoire ou sa thèse, 2e édition, Pearson, Montreuil.

Ce livre très complet traite un ensemble de questions théoriques et méthodologiques qui se posent au chercheur lors de la construction de son travail doctoral. Il met particulièrement l’accent sur les problèmes de choix de méthodes et propose une grande variété de méthodes d’analyse qualitatives et quantitatives.

Choix des méthodes de recherche

Martinet, A.-C. (dir.) (1990), Épistémologies et sciences de gestion, Economica, Paris.

Livre fondateur, « premier en France à se consacrer à une réflexion épistémologique sur les sciences de gestion ». Miles, M.B. & Huberman, A. M. (2003), Analyse des données qualitatives, 2e édition, (trad. M. Hlady-Rispal), De Boeck, Paris.

Ce livre présente de nombreuses méthodes qualitatives « en vue d’établir des conclusions fiables à partir de données qualitatives ». L’accent est mis sur le mode de présentation des données.

65

CHAPITRE 4. Le portefeuille des méthodes de recherche terrain : méthodes qualitatives, méthodes quantitatives et mixtes Yves-Frédéric Livian

Résumé  Le manager-chercheur doit avoir une vue globale du « portefeuille » de méthodes de recherche terrain qu’il est susceptible d’utiliser dans sa thèse. Ce chapitre a pour but d’aider le chercheur à réfléchir sur son « projet cognitif », qui induira ses choix méthodologiques. Puis, le chapitre présente les forces et les limites des principales familles de méthodes, en dépassant une dichotomie souvent excessive entre « quantitatif » et « qualitatif ». Il conclut sur des recommandations en matière de choix méthodologiques dans le cadre du DBA. Mots-clés : quantitatif, qualitatif, méthode mixte, projet cognitif.

Les méthodes de recherche du DBA

66

L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

« Il en va des choses de la science comme de celles de la cuisine : les recettes sont indispensables à qui veut réussir un plat (…) mais elles sont simultanément le lieu d’une insatisfaction profonde… » Berthelot (1996, p. 8)

INTRODUCTION Le chercheur se trouve face à un choix délicat : celui de la méthode d’approche de son terrain. Déjà évoquée dans le volume précédent sur Le projet de thèse de DBA (Beaulieu & Kalika, 2017), il importe maintenant de s’y attaquer de front. Pour ce faire, il (elle) doit avoir une vue globale de ce que nous appellerons le « portefeuille » des méthodes disponibles1. Le chapitre qui suit a pour but d’aider le doctorant à faire ce choix (en dialogue avec son directeur) en l’orientant dans une réflexion sur son projet (la méthodologie devant être au service du projet), sur les différences entre le quantitatif et le qualitatif et sur les forces et les limites de chaque famille de méthodes.

1. PARTIR DE SON OBJECTIF : QUEL EST LE « PROJET COGNITIF » DE LA THÈSE ? Le point de départ de la réflexion méthodologique est la clarification de l’objectif de recherche du manager. Que veut-il découvrir ? Quelle question veut-il contribuer à résoudre ? Quelles connaissances veut-il produire à partir de son expérience ou de son action dans l’organisation ? Ce que nous appelons le « projet cognitif » de la recherche doit être pensé, en dialogue avec son environnement et l’encadrement de sa thèse. En fait, les objectifs des managers-doctorants appartiennent souvent à quelques grands types : citons-en quelques-uns. –– Comment fonctionne réellement tel service ou processus, quelles en sont les forces et faiblesses ? –– Quelles sont les caractéristiques de tel marché, secteur, filière et faut-il s’y engager ? 1. Nous n’avons pas systématiquement féminisé les pronoms et adjectifs du texte, sachant que nous évoquons « le chercheur-manager » ou « le doctorant » en ayant en tête les femmes aussi bien que les hommes.

67

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

–– Quels sont les obstacles à l’innovation, à l’entrepreneuriat dans tel ou tel contexte ? –– Quel est l’impact de telle réforme d’organisation ou de la mise en place de tel outil de gestion ? –– Pourquoi telle réforme, outil, système n’a-t-il pas produit les résultats escomptés ? –– Quelle est la perception de telle catégorie de personnel (ou de clients) à l’égard de la politique de l’entreprise ? Ces questions sont proches de rapports ou d’études réalisés par des cadres ou des consultants mais ici, dans le cadre d’une thèse, elles doivent d’une part s’insérer dans un courant de réflexion général (théories disponibles, concepts à utiliser) et d’autre part aboutir à créer des connaissances nouvelles. Ce « projet cognitif » suppose des opérations différentes, qui vont orienter vers autant de méthodes diverses.

68

Quatre opérations sont possibles en sciences sociales, entre lesquelles on doit, sinon choisir, du moins décider de l’importance que le doctorant veut lui accorder. –– Décrire : l’objectif est de dépeindre et retracer dans le détail et de manière nouvelle une situation ou un phénomène mal connu. –– Expliquer : l’objectif est de savoir quels facteurs sont la cause du phénomène à étudier. –– Comprendre : le but est de saisir pourquoi les acteurs pensent ou se comportent de telle ou telle manière. –– Transformer : le but est d’aider à changer une situation, en œuvrant avec les acteurs concernés pour leur apporter des éléments de décision nouveaux et en tirer des leçons générales. La description peut être un passage nécessaire mais ne suffira en général pas à répondre au projet cognitif. Par contre, les trois autres peuvent être des priorités possibles : le doctorant veutil (elle) surtout analyser, de manière relativement objective, les variables explicatives et mesurer leur influence ?

L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

Veut-il (elle) surtout s’approcher au plus près du terrain pour ressentir les idées, perceptions, sentiments des groupes humains concernés ? Veut-il en priorité modifier une situation ou mettre en place un nouveau système ? Le doctorant devra clarifier son but car les différentes opérations intellectuelles auxquelles il voudrait procéder ne sont pas également permises par les méthodes disponibles : certaines méthodes ont pour objectif surtout de décrire, d’autres surtout d’expliquer, d’autres encore de comprendre ou de faire changer. Nous verrons plus bas qu’une combinaison de méthodes est possible, et parfois nécessaire. Mais cela ne permet pas au doctorant de faire l’économie de la réflexion préalable : qu’est-ce que je veux faire principalement ? La réponse commence par un verbe…

2. COMPRENDRE LA DISTINCTION QUANTITATIF/ QUALITATIF POUR MIEUX LA DÉPASSER Dans le langage courant de la recherche, on distingue le Quantitatif et le Qualitatif. Pour examiner utilement cette distinction, il faut d’abord se débarrasser des caricatures. Pour certains, les approches quantitatives sont forcément déterministes, puisque calquées sur les sciences de la nature, campées sur des données uniquement numériques et donc froides et arrogantes. Pour d’autres, les approches qualitatives sont forcément floues et fragiles, puisqu’elles s’appuient sur un raisonnement spéculatif et une vision subjective, sans démonstration chiffrée. La persistance de cette dichotomie outrée est due à la survivance de chercheurs campant depuis toujours sur des positions extrêmes et persistants à mépriser les méthodes « des autres ». Ces « ayatollahs » de la statistique ou du qualitatif post-moderne tombent dans les travers du positivisme scientiste (il n’y a de science que de mesurable) ou du relativisme radical (tout est discours et donc tout se vaut) 2. 2. Heureusement, ils n’enseignent en général pas dans les DBA !

69

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Un examen plus sain de cette distinction nécessite ensuite d’évacuer les fausses oppositions3 : –– Le quantitatif utiliserait des données numériques, des comptages et pas le qualitatif : c’est faux puisque des analyses lexicographiques par exemple utilisent des résultats chiffrés. L’assistance de logiciels d’analyse de données est maintenant possible dans les deux cas (logiciels d’analyse de données quantitatives et d’ADQAO) 4. –– Le qualitatif serait « exploratoire » et le quantitatif « confirmatoire » : on rencontre souvent des « designs » de recherche différents. Les méthodes quantitatives sont parfois présentées comme divisées en « méthodes exploratoires » et « méthodes explicatives » (Gavard-Perret et al., 2008). –– Le qualitatif serait « interprétatif » et pas le quantitatif : c’est également faux car les résultats statistiques ne parlent pas d’eux-mêmes : une analyse factorielle de correspondance par exemple nécessite un commentaire interprétatif.

70

Par rapport à ces fausses oppositions, il est plus utile de prendre en compte d’autres distinctions parfois utilisées qui renvoient au projet de recherche lui-même et qui ne mettent pas la frontière au même endroit. Rappelons-en trois : –– Enquête extensive/intensive : le chercheur peut avoir à étudier une large population en l’interrogeant sur quelques éléments. On sera alors dans l’enquête par questionnaire fermé sur échantillon aléatoire. Ou bien il a pour but d’étudier un lieu, un groupe, une situation réduits mais de manière approfondie. –– Explication/compréhension : le chercheur peut avoir comme objectif principal d’analyser les différentes variables (qui, quoi, combien ?) qui expliquent le phénomène étudié, d’en mesurer le poids, d’établir les relations existant entre les variables. Ou bien, il peut chercher à s’approcher au plus près des acteurs de la situation pour saisir les in3. On se référera sur ce thème à l’article « classique » de Brabet (1988) et plus récemment au débat Giordano et Jollibert (2016). 4. Analyse de Données Qualitatives Assistée par Ordinateur (exemple : Tropes, NVivo…).

L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

tentions et les ressorts affectifs ou symboliques de leurs actions (pourquoi ?). –– Position externe/interne : certains ethnologues utilisent cette distinction. La position d’extériorité, est celle dans laquelle le chercheur sait ce qui est important et l’analysera dans ses propres termes. La position interne est celle où le chercheur s’efface derrière la façon dont les gens étudiés eux-mêmes pensent et réagissent et « collera » le plus possible à leurs discours. On peut certes regrouper certains des termes de ces trois distinctions : extensif-explicatif-externe d’un côté et intensif-compréhensif-interne de l’autre. Mais l’usage de ces trois distinctions permet d’avoir une vision plus souple des différences de méthodes et d’imaginer des combinaisons. On pourra envisager une enquête intensive utilisant des variables à analyser, ou une recherche « compréhensive » comprenant une enquête assez vaste avec un outil adapté… Notre encouragement à rejeter les caricatures et les fausses distinctions n’aboutit pas à considérer que toutes les méthodes répondent aux mêmes préoccupations de manière indistincte, ou ne seraient différentes que dans leur application concrète. Certaines méthodes s’inscrivent dans une filiation, un état d’esprit, une « posture » qu’il importe de saisir et qui peut même avoir des bases épistémologiques distinctes (Livian, 2018). Certains projets cognitifs privilégient une position extérieure, garante – pense-t-on – d’une « neutralité » vis-à-vis du sujet étudié. L’objectif à atteindre est l’analyse fine des variables explicatives d’un phénomène, et cette explication doit forcément reposer sur les apports des recherches antérieures. Le chercheur établira des hypothèses, qu’il cherchera ensuite à opérationnaliser (c’est-à-dire répondre à la question : comment les mesurer concrètement ?) et à vérifier sur le terrain considéré. L’objectif ultime de produire des lois générales (comme dans les sciences de la nature) n’est certes pas prioritaire mais la logique est bien d’établir des régularités, en confirmant ou infirmant des conjectures issues de la littérature théorique sur le sujet.

71

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

D’autres projets sont davantage ancrés dans la prise en compte des contextes et dans la pénétration au cœur des mobiles, perceptions et sentiments des individus impliqués dans la situation étudiée. Ils ont pour but de « donner à voir les acteurs penser, parler, agir et interagir, coopérer ou s’affronter » (Dumez, 2011). Le chercheur utilisera sa familiarité avec le milieu pour recueillir le plus directement possible les discours produits par les individus ou groupes concernés. Dans cette optique, il ne part pas avec un corps d’hypothèses structuré et se « laisse surprendre » par son terrain y compris en prenant comme objet de recherche le langage spécifique des acteurs. Il y a bien une posture plus objectivante, à prédominance déductive (vérifier des hypothèses générales) et une autre plus interne à prédominance inductive (observer et faire émerger des phénomènes complexes). On voit donc bien les différences mais aussi les complémentarités possibles entre ces approches.

72

Le développement en sciences de gestion de « méthodes mixtes » rend bien compte de cette complémentarité et des combinatoires possibles pour atteindre l’objectif cognitif recherché. Une enquête par quelques entretiens très diversifiés, ou une observation fine, peut permettre d’élaborer un outil de recueil de données adapté au milieu, outil qui sera administré à une population plus large. Une étude de cas approfondie utilisera concurremment des analyses de textes, des entretiens ouverts, de l’observation, parfois un questionnaire. Un sondage extensif sur échantillon représentatif peut être utilement complété et enrichi par des récits de vie individuels… Ces méthodes mixtes, dont l’essor en sciences de gestion est récent, peuvent se différencier par l’ordre du traitement des données (quantitatif d’abord ou qualitatif d’abord), le poids de chaque type et leurs modalités d’articulation (connexion, intégration ou articulation) (Creswell, 2009). Certains chercheurs associent la combinaison des approches quantitatives et qualitatives avec la recherche-intervention (Savall & Zardet, 2004).

L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

Ces approches mixtes encore rares, comportent un potentiel énorme de création de connaissances et sont promises à se développer en sciences de gestion5. Elles présentent bien sûr l’inconvénient d’être consommatrices de ressources et supposent une aisance du chercheur dans tous les registres. Elles supposent aussi que l’usage des différents types de méthodes corresponde à des positions épistémologiques voisines et non incompatibles.

3. LE PORTEFEUILLE DE MÉTHODES Notre but est de présenter succinctement les cinq principales familles de méthodes de recherche de terrain de manière à aider à un choix. Nous évoquerons pour chacune ses forces et ses limites ou difficultés d’utilisation, sachant qu’une analyse plus détaillée figure dans les chapitres 5 à 14 du présent ouvrage 6. Nous donnerons ensuite une indication sur les méthodes mixtes.

3.1. Les dispositifs expérimentaux Calqués sur la méthode expérimentale dominante en sciences de la nature, ils consistent à étudier l’effet d’une variable (ou plusieurs) sur une autre variable (ou plusieurs) en reconstituant une situation simplifiée qui permette d’en isoler l’effet (cf. chapitre 14). Cette situation peut être artificielle (in vitro, en laboratoire) ou réelle (in vivo). La psychologie sociale utilise ces dispositifs depuis le début du XXe siècle7. Le chercheur dégage les effets de la variable « explicative » sur la variable « à expliquer », en comparant les résultats obtenus à ceux relatifs à un groupe « de contrôle » (où l’on n’a rien changé). Les « expériences » doivent être répétées plusieurs fois, en 5. Dans un repérage fait sur la production en management stratégique, les auteurs dénombrent 17 articles utilisant des méthodes mixtes sur 481 (Aldebert & Rouzies, 2011). 6. Un tableau complet comporterait également la méta-analyse, mais nous ne la traitons pas ici car nous nous limitons aux méthodes de recueil de données sur le « terrain », c’est-à-dire utilisant des données primaires s’appuyant sur des situations concrètes. La méta-analyse en tant que méthode d’analyse de données est traitée dans le chapitre 20. 7. Par exemple la fameuse expérience Hawthorne sur la motivation (Mayo, 1932) et celle de la soumission à l’autorité de Milgram (1974).

73

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

neutralisant les facteurs pouvant perturber l’étude du résultat (résultat « toutes choses égales par ailleurs ») 8. Cette méthode est d’une grande rigueur puisqu’elle permet d’isoler clairement la relation entre plusieurs variables. En sciences de la nature, elle a été la base de nombreuses découvertes scientifiques. Des dispositifs quasi-expérimentaux sont couramment utilisés en psychologie sociale, en économie, et de nombreuses recherches en marketing s’en inspirent. On comprend que ces situations expérimentales ne sont possibles qu’au prix d’une certaine simplification de la réalité (isolation d’une variable ou d’un petit nombre de variables alors que la réalité est complexe). Elles supposent aussi une certaine reconstitution de la réalité, pour laquelle la transposition des résultats « dans la vie réelle » peut soulever des questions. Elles peuvent être également lourdes à mettre en place.

3.2. L’enquête 74

Elle consiste à recueillir l’information recherchée de manière systématique par des outils adaptés, principalement le questionnaire ou l’entretien. De très nombreux types d’enquêtes existent. D’un côté, on aura des enquêtes extensives, sur des échantillons construits, ayant pour but de recueillir une masse de données qui feront l’objet d’une analyse statistique (cf. chapitre 18). À l’autre extrémité, le chercheur pourra interroger par entretiens un petit nombre de personnes diversifiées afin d’explorer une question délicate ou peu connue. La réussite de l’enquête repose d’une part sur la correspondance entre sa visée et l’objectif recherché (cf. supra), d’autre part sur le taux de réponses obtenu (et donc la qualité de l’échantillon des réponses réellement exploitables), enfin sur la qualité technique de l’outil de recueil des données (nature et ordre des questions, conduite des entretiens). 8. En médecine, on fera en sorte que les sujets sur lesquels portent les variables soient répartis aléatoirement (« essai randomisé ») (Mayo, 1932).

L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

L’enquête est la méthode reine de la recherche en sciences sociales et aussi celle sur laquelle ont été publiés le plus grand nombre d’ouvrages méthodologiques. Bien réalisée, une enquête apporte une quantité et une qualité d’informations qui étonnera même les spécialistes du sujet. L’enquête extensive à exploitation statistique fondée sur des hypothèses sérieuses, permet d’envisager une extension des résultats. L’enquête par entretiens approfondis permet d’approcher au plus près les représentations, opinions, sentiments des sujets et les « phrases témoins » (verbatim) tirées des entretiens restitueront la teneur des discours de manière vivante. Encore faut-il que le questionnaire soit correctement élaboré (cf. chapitre 12) et les entretiens menés selon des règles précises (cf. chapitre 6). Les déceptions en matière d’enquêtes sont très nombreuses pour plusieurs raisons : le doctorant n’a pas pu faire un échantillonnage pertinent, la diffusion du questionnaire s’est heurtée à des obstacles pratiques, le questionnaire n’était pas assez incitatif ou trop lourd et le taux de réponses est plus faible qu’espéré, les résultats sont triviaux car les questions n’ont pas permis de favoriser la sincérité des réponses… Le temps de préparation d’une enquête est décisif : en amont, un questionnaire hâtivement lancé aboutira à un échec ; en aval, des entretiens mal retranscrits et peu exploités donneront un résultat médiocre. Le contexte technologique et culturel joue un rôle dans le choix de la méthode, et au sein de la famille « enquêtes » dans celui de ses modalités. Un pays sans Poste fiable et au réseau informatique défaillant rendra difficile la diffusion à grande échelle d’un questionnaire. Certaines populations préfèrent l’expression orale à l’écrit. Les formes d’expression des opinions ou les attitudes face à l’information varient grandement selon les contextes9. Le chercheur devra se « mettre dans la peau » du répondant : comment créer le contact et rendre l’enquête acceptable ? Quelle forme d’expression est la plus adaptée ? Quels mots faut-il utiliser ou éviter ? 9. Voir chapitre 22 pour le cas de l’Afrique par exemple.

75

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

3.3. Les études de cas Il s’agit d’étudier une situation complexe (ou un petit nombre de situations) en profondeur et dans son contexte spécifique. Le chercheur va construire une analyse aussi complète que possible, en recueillant des informations par tous les moyens possibles (le plus souvent étude de documents, observation, entretiens, voire questionnaires) au cours d’une certaine période. Cette méthode va avoir l’avantage de replacer les phénomènes étudiés dans leur histoire et leur contexte, de comprendre les processus à l’œuvre et de recueillir les points de vue de plusieurs types d’acteurs.

76

Si l’étude dure un certain temps, le chercheur pourra prendre en compte la durée, et ainsi avoir une vision diachronique que l’enquête ne permet pas. La méthode peut être utilisée sur une seule organisation, ou situation (mais alors celle-ci doit être suffisamment riche et complexe pour nourrir la problématisation d’une thèse) ou un petit nombre (souvent 2 à 4) et par conséquent inclure une comparaison inter-cas, puis une conclusion générale. On peut associer à l’étude de cas la méthode des « récits de vie », qui consiste à procéder à une analyse approfondie du cas d’une personne, à qui l’on fait retracer par une série d’entretiens sa trajectoire personnelle. Ce « récit de vie » apporte un matériau direct et potentiellement riche autour du thème objet de la recherche (trajectoires d’entrepreneurs, d’artisans, de salariés, de cadres…) (cf. chapitre 9). Le « récit de vie » est souvent utilisé comme illustration vivante d’un processus traité par une autre méthode (par exemple une enquête). Les limites de ces méthodes sont inhérentes à leurs caractéristiques : le cas peut être riche mais rien ne permet de penser a priori qu’un autre cas ne serait pas complètement différent (ou alors le chercheur doit défendre le caractère exemplaire du cas traité). Le type de recueil d’informations, fortement lié à la personne du chercheur et à son implantation, ne permet pas de penser qu’il est indifférent à celle-ci et est donc fragile du point de vue de sa fiabilité.

L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

3.4. L’observation Pour décrire et comprendre ou analyser, il faut parfois d’abord observer. De nombreuses problématiques de gestion pâtissent d’une base descriptive insuffisante. Des questions essentielles sont peu documentées : que se passe-t-il réellement dans cette situation, dans cette unité ? Que fait réellement cette catégorie de personnel ? Comment la décision est-elle prise ? Quelle est la véritable utilisation de cet outil ? Etc. Le chercheur doit donc « aller y voir », soit pour compléter son investigation sur d’autres données (des documents, des entretiens…)10 soit pour découvrir des éléments peu visibles, peu connus jusqu’à présent ou volontairement cachés. Il y a des phénomènes qui ne s’étudient qu’en allant sur place (cf. chapitre 5). La force de cette méthode réside dans sa globalité et son ouverture. Tout peut être intéressant pour un chercheur curieux : les lieux, les installations, les machines, les personnes bien sûr, mais aussi les bruits, les odeurs, le climat général. La subjectivité du chercheur (à condition d’être encadrée) va l’aider à capter des informations de toutes natures. Cela suppose non pas une passivité, mais une attitude active qui n’est pas toujours naturelle : il faut parfois apprendre à ouvrir ses yeux et ses oreilles. Bien sûr, cette méthode suppose la présence physique du chercheur et donc qu’il soit admis dans la situation ou l’organisation à étudier. Deux familles d’observation sont utilisables, selon la position du chercheur dans le groupe ou la situation sur laquelle porte la recherche. L’observation de type ethnographique Dans ce cas, le chercheur a réussi à se faire accepter dans le groupe comme observateur et est (plus ou moins) libre d’observer et de garder trace de ce qu’il voit et entend (notes, carnets de bord, vidéos…). Cette position du chercheur s’inscrit dans la tradition ethnographique, ayant fait l’objet d’œuvres puissantes et d’une littérature méthodologique abondante (cf. chapitre 8). Redécouverte pour la gestion dans les années 1970-1980, ce type 10. La comparaison entre les documents et procédures officiels et ce qui résulte de l’observation permet souvent d’obtenir des résultats spectaculaires !

77

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

d’observation est, dans les entreprises, rarement possible à l’état pur : le chercheur est un visiteur ou un stagiaire mais qui reste peu longtemps sur les lieux et à qui, le plus souvent, on ne voudra bien montrer que ce que l’on veut… Dans beaucoup de cas, le chercheur devra négocier plus ou moins explicitement, avec l’organisation d’accueil les termes d’une coopération : on vous laisse observer, échanger, voire filmer… mais quel contrôle avons-nous sur le résultat, et que nous donnez-vous en échange ? On touche là une des limites de la méthode : à quel prix le chercheur-observateur a-t-il pu pénétrer dans le milieu ? Est-il en connivence avec celui-ci ? A-t-il eu une totale liberté d’observation ? L’observation participante Dans cette méthode, il est considéré qu’il n’y a pas moyen de pénétrer les situations en tant que pur observateur et par conséquent que le chercheur doit tenir un rôle actif dans la situation.

78

Ce qu’il y avait d’artificiel et de fragile dans l’observation pure disparaît : le chercheur a un accès aux réalités car il y œuvre directement. Par exemple, s’il (elle) occupe un poste, il éprouve lui-même la complexité ou l’ambiguïté des situations, la dureté des conditions de travail, la bonne ou mauvaise qualité du climat relationnel, la nature des relations hiérarchiques… Un doctorant DBA se retrouvera plus souvent dans la situation d’être à la fois acteur dans son organisation et de « chausser les lunettes » d’observateur pour la réalisation de sa recherche. Cette observation participante peut se faire sous deux formes : soit ouverte (le milieu sait que M. ou Mme X est à la fois salarié et fait un travail de recherche) soit opaque (M. ou Mme X paraît un salarié « normal » et cache le fait qu’il est en même temps chercheur). L’observation opaque a permis de pénétrer des milieux hostiles ou fermés et a apporté de très riches découvertes (pensons à L’établi, Linhart, 1978). C’est une méthode couramment utilisée aujourd’hui par les journalistes d’investigation11. 11. Parmi les exemples récents sur des problématiques du travail, on peut citer Aubenas (2010) ou Le Guilcher (2017).

L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

Les avantages de cette méthode sont évidents : accès à l’information, connaissance intime du milieu, possible prolongement en termes de recommandations… Les difficultés aussi : le chercheur-manager doit être capable de prendre du recul, de porter un nouveau regard sur son entreprise ou son secteur, de relier en permanence les informations qu’il recueille et les scènes auxquelles il participe à une problématisation générale. Il a comme atout d’être un « insider », mais il doit parfois penser comme un « outsider ». La position de « familiarité distante » n’est pas évidente et doit être construite. On aura compris que les méthodes d’observation sont susceptibles de souffrir de nombreux biais et notamment : –– Biais cognitifs liés au filtre personnel de l’observateur (voir ce que l’on veut voir, et pas le reste). La validité externe d’une telle recherche ne peut donc être que faible. –– La tentation de reconstitution a posteriori d’un récit, correspondant à ce que le chercheur veut démontrer. Le risque est grand dans ces démarches d’un oubli progressif de toute référence à un cadre théorique (même s’il est évoqué au début de la thèse). Pris par son terrain – et quelquefois fasciné par lui – le chercheur-observateur peut avoir du mal à articuler ses résultats à une théorie ou à des concepts généraux.

3.5. La recherche-action Les sciences de gestion se définissant comme devant produire des connaissances « actionnables », une des méthodes correspondant à cette vocation consiste à associer directement connaissance et action (cf. chapitre 13). Cette démarche s’inscrit dans la tradition « clinique » en sciences humaines (clinique : « au chevet de »…). Le médecin faisant de la recherche clinique utilise ses connaissances pour soigner, mais en soignant il produit de la connaissance. Recherche-clinique, recherche-action, recherche-intervention : ces approches ont aussi droit de cité en psychologie et en sociologie, où l’idée d’une « co-construction des connaissances » entre chercheurs et acteurs est aujourd’hui mise en avant. Ces

79

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

approches ont une visée de changement et par conséquent, intéressent de nombreux chercheurs-managers. Il est vrai qu’elles peuvent correspondre à un projet pratique, une motivation personnelle et une intention des dirigeants de l’entreprise acceptant d’accompagner le chercheur-manager qui y travaille. Dans le cas où le chercheur-manager organise son projet dans sa propre entreprise, la recherche-action soulève la même question de la « double casquette » que l’observation-participante. Comment concilier une action de changement et une distance critique ? Comment agir dans un contexte précis et se connecter à des concepts généraux ?

80

Une recherche-action réussie dans le cadre d’un DBA suppose que le chercheur-manager n’ait pas un enjeu organisationnel trop fort, avec une obligation de résultats. Elle suppose aussi la possibilité d’un décalage (même provisoire) du chercheur avec la politique et le discours officiels des dirigeants. Le cadre ambitieux voulant rapidement réussir une opération de changement univoque n’est pas forcément un bon candidat pour mener une recherche-action. Celle-ci suppose une prise en compte de points de vue variés, des processus collectifs et une certaine durée. La recherche-action est donc bien une démarche spécifique qui n’est ni de l’étude interne, ni du travail de consultant. C’est bien un aller et retour original entre processus de changement et production de connaissances. Tableau 1. Forces et limites des cinq familles de méthodes de terrain Méthodes

Forces

Limites ou difficultés

Expérimentale Rigueur

• Simplification de la réalité • Lourdeur

Enquêtes

Données nombreuses et riches

• Administration • Échantillonnage • Sincérité des réponses

Étude de cas

Richesse Prise en compte du contexte

• Accès au terrain • Portée limitée

L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

Méthodes Observation Ethnographique

Forces

Limites ou difficultés

• Richesse des observations • Durée

• Accès au terrain • Objectivité questionnable • Articulation avec théories

Participante

• Richesse • Durée

• Accès au terrain • Objectivité questionnable • Articulation avec théories

Rechercheaction

• Richesse • Apport de solutions

• Conciliation chercheur-acteur • Articulation avec théories

3.6. Les méthodes mixtes Ces différentes méthodes peuvent être combinées dans un design d’ensemble ayant pour but de démontrer la « thèse » portée par le chercheur. En s’inspirant de Creswell (2009) et Creswell et al. (2011), on peut retenir quatre combinaisons principales : –– Le devis « concomitant convergent » consiste à utiliser deux grandes méthodes, l’une à dominante quantitative, l’autre qualitative et à comparer leurs résultats, pour proposer une interprétation d’ensemble. Exemple : comparaison des résultats d’une enquête extensive par questionnaire et une enquête restreinte par entretiens. –– Le devis « séquentiel explicatif » (fréquemment utilisé) consiste à étudier les relations entre des variables, par une démarche quantitative et à affiner les résultats par des méthodes « qualitatives » complémentaires. Exemples : • enquête extensive puis intensive (le chercheur traite des données sur un vaste ensemble et affine l’analyse par des entretiens sur un échantillon restreint diversifié) ; • enquête extensive plus études de cas (traitement de données sur un vaste ensemble plus analyse fine de deux cas emblématiques du phénomène traité).

81

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

–– Le devis « séquentiel exploratoire » (utilisé depuis longtemps en sociologie) commence par une exploration du sujet (étude de documents, entretiens d’experts, enquête intensive) permettant la construction d’un questionnaire spécifique, diffusé à plus grande échelle. –– Le devis « transformateur » utilise plusieurs méthodes (enquêtes, étude de cas, observation-participante, rechercheaction) dans un but de changement.

4. SYNTHÈSE Il est possible de comparer toutes ces méthodes sous trois angles : leur contribution aux opérations de base du projet cognitif, le rapport qu’elles impliquent avec les acteurs humains, la place qu’y tient le cadre théorique. Si l’on revient sur le projet cognitif à élaborer (cf. supra § 1), on peut classer sommairement les méthodes de recherche terrain de la manière suivante (Tableau 2) :

82 Tableau 2. Un classement sommaire des méthodes en fonction des objectifs Décrire

Enquête extensive Étude de cas Observation Séquentiel exploratoire

Expliquer

Expérimentale Enquête extensive Séquentiel explicatif

Comprendre

Enquête intensive Étude de cas Observation participante ou ethnographique

Transformer

Recherche-action Mixte transformateur

Par rapport à la relation avec les acteurs humains, les méthodes présentées impliquent des relations très différentes entre le chercheur et les personnes concernées par le thème de recherche.

L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

La recherche expérimentale cherche à isoler le chercheur de toute influence externe de manière à gagner en « objectivité ». L’enquête extensive maintient le chercheur à une certaine distance des sujets interrogés, distance réduite dans le cas des entretiens ou des récits de vie. Dans toutes les autres méthodes, le chercheur est immergé dans le milieu objet de sa recherche et il y a donc interaction parfois forte entre chercheur et membres du terrain. On va même plus loin dans le cas de la recherche-action où il y a coproduction de connaissances. Toute la gamme des rapports est donc présente, de l’attitude la plus objectivante (proche des sciences de la nature) à celle la plus coopérative (considérée comme spécifique aux sciences sociales). Les critères de validité applicables à ces recherches sont donc nécessairement très différents. Par rapport à la place de la théorie, certaines méthodes s’inscrivent plutôt dans une démarche hypothético-déductive, où les hypothèses sont issues de théories antérieures ou des modèles existants à tester (méthode expérimentale, enquête extensive). D’autres sont plutôt déductives. Sans négliger les cadres théoriques, elles laissent place à davantage de souplesse dans la « découverte » d’éléments inopinés liés à la présence sur le terrain (études de cas, enquêtes intensives, recherche-action, observation participante). Certaines méthodes sont utilisées dans des démarches extrêmes (comme la « théorie ancrée ») où tout cadrage théorique en amont est déconseillé, pour que le chercheur découvre, sans a priori, à travers les acteurs eux-mêmes, les éléments du problème (observation ethnographique, enquêtes intensives avec entretiens non directifs…). On mesure à travers ces trois dimensions que le choix des méthodes n’est pas qu’un choix technique : il engage un objectif, un mode de relation au terrain, un type de démarche scientifique.

CONCLUSIONS ET RECOMMANDATIONS On aura compris, à la fin de ce panorama du « portefeuille de méthodes », qu’il n’y a pas de méthode parfaite et que l’essentiel pour

83

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

le chercheur est d’être capable de justifier les raisons qui l’ont conduit à choisir telle ou telle méthode en connaissance de cause. Ces raisons sont d’abord celles correspondant au projet de la thèse. En quoi la ou les méthodes utilisées correspondent-elles à l’objectif fixé ? Ne négligeons pas cependant deux autres facteurs qui peuvent conduire à choisir une méthode plutôt qu’une autre : les préférences du chercheur et celles de son directeur. Le chercheur peut se sentir plus à l’aise dans une méthode (mais il aura quand même à dire pourquoi)12. Le directeur de thèse peut aussi avoir ses propres orientations, notamment s’il se rattache à un courant théorique ou si ses travaux personnels ont principalement utilisé telle ou telle méthode (l’adéquation entre les préférences du chercheur et celles du directeur font partie des critères du choix réciproque des deux partenaires !). Deux écueils méthodologiques contraires sont à éviter, et le dialogue entre le chercheur et son directeur(trice) permettra d’y remédier : la négligence et le surinvestissement.

84

La négligence consiste à sous-estimer les considérations méthodologiques et à se fier à son expérience professionnelle antérieure ou à la connaissance que l’on a déjà du sujet, qui garantiraient, aux yeux de certains candidats, la qualité du résultat. L’impératif de justification méthodologique à laquelle tout chercheur est soumis dissuadera rapidement les candidats oublieux. Le surinvestissement, quelquefois lié à une formation scientifique, accorde quant à lui, trop de confiance à la solidité « scientifique » des méthodes en sciences sociales. Le chercheur se perd alors dans de nombreux calculs statistiques utilisant les dernières formules à la mode. Cela peut le pousser à des raffinements hors de propos, alourdissant le texte de la thèse et minorant l’apport de connaissances sur le fond. En matière qualitative, le raffinement des modes de codage fait parfois perdre de vue le contact direct avec le matériau et ne produit pas une valeur ajoutée incontestablement supérieure. 12. Si l’usage de certains outils statistiques peut être lié à une expérience professionnelle antérieure du manager, la maîtrise de la plupart des méthodes vient avec la pratique et notamment en matière d’enquête. « L’enquête s’apprend en se faisant, d’une manière sinueuse et chaotique… » (Beaud & Weber, 2010, p. 12). Le chercheur ne peut donc attendre une maîtrise totale à l’avance…

L e p o r t e f e u i l l e d e s m é t h o d e s d e r e c h e r c h e t e r ra i n

De nombreux chercheurs expérimentés soulignent le caractère de « bricolage » de la recherche ou son côté « artisanal » (Pettigrew, 1985), tant il est vrai que la qualité s’obtient davantage par une construction permanente et une vigilance constante que par l’application de recettes toutes faites. Quoi qu’il en soit, les difficultés méthodologiques sont largement inévitables et il faut se garder de les « mettre sous le tapis » (Guionnet & Rétif, 2015). Elles peuvent avoir un intérêt heuristique car elles permettent parfois de révéler des aspects inconnus du sujet traité (par exemple la difficulté de faire exprimer tel groupe social sur certains sujets) ou des outils utilisés (par exemple l’inadaptation de telle échelle de mesure dans tel contexte). Une fois les résultats obtenus, un regard rétrospectif permettra aussi de juger des écarts éventuels par rapport à l’objectif visé et à la promesse de la méthodologie choisie. C’est aussi la maturité avec laquelle le doctorant traitera de ses choix et de ses limites et difficultés d’application qui sera jugée au final. Références citées Aldebert, B. & Rouzies, A. (2011), L’utilisation des méthodes mixtes dans la recherche française en stratégie : constat et pistes d’amélioration, XXe colloque de l’AIMS, vol. 6, 6-8 juin, Nantes. Disponible à : www.strategie-aims.com/conferences/ xxeconference/com1336. Aubenas, F. (2010), Le Quai de Ouistreham, Paris, Éditions de l’Olivier. Beaud, S. & Weber, F. (2010), Guide de l’enquête terrain, Paris, La Découverte. Beaulieu, P. & Kalika, M. (dir.) (2017), Le projet de thèse de DBA, Caen, Éditions EMS. Berthelot, J.-M. (1996), Les vertus de l’incertitude, Paris, PUF. Brabet, J. (1988), Faut-il encore parler d’approche qualitative et d’approche quantitative ?, Recherches et Applications Marketing, vol. 3, no 1, p. 75-89. Creswell, J.W. (2009), Research Design : Qualitative, Quantitative and Mixed Methods Approches, Thousand Oaks, CA, Sage. Creswell, J.W., Vicki, L. & Plano, C. (2011), Designing and Conducting Mixed Methods Research, 2nd edition, Thousand Oaks, CA, Sage Publications. Dumez, H. (2013), Méthodologie de la recherche qualitative, Paris, Vuibert.

85

C h o i s i r u n e m é t h o d e d e r e c h e r c h e a d a p t é e à l a qu e s t i o n t e r ra i n

Gavard-Perret, M.-L., Gotteland, D., Haon, C. & Jolibert A. (dir.) (2008), Méthodologie de la recherche. Réussir son mémoire ou sa thèse en sciences de gestion, Paris, Pearson. Giordano, Y. & Jollibert, A. (2016), Pourquoi je préfère la recherche quantitative, Revue Internationale PME, vol. 29, no 1, p. 7-17. Guionnet, C. & Rétif, S. (dir.) (2015), Exploiter les difficultés méthodologiques. Une ressource pour l’analyse en sciences sociales, Rennes, PUR. Le Guilcher, G. (2017), Steak machine, Paris, Éditions Goutte d’Or. Linhart, R. (1978), L’établi, Paris, Éditions de Minuit Livian, Y. (2018), Enseigner la recherche qualitative en sciences économiques et de gestion, HAL-SHS 01757005. Mayo, E. (1932), The Problem of Working Together, Chicago, IL, University of Chicago Press. Milgram, S. (1974), La soumission à l’autorité, Paris, Calmann Lévy. Pettigrew, A.M. (1985), Contextualist research: a natural way to link theory and practice, in E. E., Lawler, A. M. Mohrman, S. A., Mohrman, G., Ledford & T. G., Cummings (eds.), Doing Research that is Useful in Theory and Practice, Lanham, MA, Lexington Books, p. 222-273.

86

Savall, H. & Zardet, V. (2004), Recherche en sciences de gestion. Approche qualimétrique, Paris, Economica. Références pour en savoir plus

Guides pratiques Quivy, R. & van Campenhoudt, L. (2006), Manuel de recherche en sciences sociales, 3 e édition, Paris, Dunod.

Un manuel clair, largement utilisé. Dépelteau, F. (2010), La démarche d’une recherche en sciences humaines, Québec, Les Presses de l’Université Laval/de Boeck Université.

Un guide complet et très pédagogique. Pour approfondir les choix entre différentes approches : Berthelot, J.-M. (1990), L’intelligence du social, Paris, PUF.

Ouvrage fondamental, d’un abord un peu difficile, qui décrit les différentes manières d’aborder l’étude des réalités sociales. Schurmans, M. (2011), Expliquer, interpréter, comprendre, 2e édition, Genève, Faculté de Psychologie.

Une bonne synthèse en un petit volume.

PARTIE II Recueillir les données du terrain

Introduction à la partie II Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev La collecte de données qualitatives et quantitatives peut prendre de multiples formes en fonction du terrain, de l’accès qu’un doctorant pourra en avoir, des techniques et compétences qu’il possédera ou voudra développer, des outils à sa disposition, et des questions de recherche qu’il posera ainsi que sa posture épistémologique. Les questionnaires, les entretiens, les observations, l’ethnographie et les études de cas sont les principales méthodes utilisées en sciences de gestion. D’autres comme les récits de vie, les méthodes historiques, les quasi-expérimentations, la recherche-action, les données collectionnées par Internet pourront aussi inspirer des doctorants de DBA. Elles sont décrites et illustrées dans les chapitres qui suivent, leurs avantages et limites y sont discutés et des conseils pratiques sont fournis pour des doctorants de DBA. Dans le chapitre 5 Françoise Chevalier et Sébastien Stenger décrivent l’observation, une méthode scientifique reconnue de récolte de données dans les enquêtes de terrain des sociolo-

Les méthodes de recherche du DBA

87

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

88

gues. Elle permet d’avoir accès à des données qui ne sont pas accessibles par des entretiens ou des questionnaires et elle peut être mobilisée dans les différentes disciplines de la gestion. Le doctorant de DBA a donc de nombreuses raisons, si sa recherche porte sur l’entreprise dans laquelle il travaille, de recourir à l’observation. Les auteurs la définissent d’abord, puis distinguent ses deux formes principales, l’observation participante et l’observation non participante et indiquent qu’elles peuvent s’insérer dans des designs de recherche variés comme la recherche-action. Ils en soulignent les avantages : comment elles peuvent révéler les représentations sociales ou l’existence de pratiques non officielles ou des rapports de pouvoir et intérêts que les acteurs ne sont pas forcément prêts à aborder dans des entretiens ; puis les difficultés dont la conscience aide à s’en prémunir : risque de défaut de distance, risque de la saisie d’artefacts, et risques de biais cognitifs. Enfin, les auteurs fournissent quelques principes simples afin de tirer le meilleur parti de la méthode et précisent les tâches à suivre et pratiques concrètes : comment se positionner, construire une grille d’observation, cultiver ses facultés d’observation, donner forme aux information recueillies, et s’autoanalyser. Le chapitre 6 de Françoise Chevalier et Vincent Meyer décrit la collecte de données qualitatives par entretiens, une des méthodes les plus utilisées en recherche en sciences de gestion car elle permet de collecter rapidement des données riches de première main. Les entretiens visent à réunir des discours, des récits et des matériaux discursifs permettant de comprendre les représentations mentales et les pratiques des individus au sein des organisations investiguées. Les auteurs expliquent les caractéristiques des trois grands types d’entretiens, directifs, semi-directifs et non directifs ainsi que leurs paradigmes épistémologiques et leurs modes de questionnement, et introduisent brièvement d’autres types d’entretiens – biographiques, entretiens de groupe et entretiens à distance. Puis ils se concentrent sur la pratique concrète de l’entretien semi-directif : la construction du guide d’entretien, les types de questions possibles, les moments-clés, le « principe de l’entonnoir » ; l’attitude de l’interviewer, le positionnement, l’empathie, la compréhension et la reformulation ; le lieu, la durée, l’enregistrement et la retranscription de l’entretien ; l’échantillonnage et la saturation théorique ;

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

et comment établir une relation de confiance avec l’interviewé. Le chapitre offre donc des clés du succès de la méthode de l’entretien pour les doctorants de DBA, très souvent doublement immergés dans leur objet de recherche, en tant que chercheur et en tant qu’acteur dans leurs organisations, ce qui leur procure une connaissance précieuse et approfondie des organisations étudiées, mais nécessite aussi en contrepartie une exigence et une rigueur particulières. Dans le chapitre 7, Pierre-Jean Barlatier explique comment une méthode de recherche par études de cas apporte une analyse détaillée et en profondeur sur un nombre limité de sujets. Elle est particulièrement pertinente pour étudier des phénomènes complexes nouveaux en situation réelle. Même si elle est souvent critiquée, car difficilement généralisable et source de biais éventuels, elle demeure une méthode très utilisée par les chercheurs en management. Afin d’y apporter le soin et la rigueur scientifique requis, Barlatier définit d’abord en quoi consiste cette méthode, puis pourquoi et comment l’utiliser. Il clarifie ensuite comment bien choisir ses cas, puis les différentes typologies de catégories de cas. Il détaille pourquoi opter pour une étude de cas simple ou multiples et conclut en en exposant les avantages et limites. Fatou Diop Sall décrit la méthode ethnographique dans le chapitre 8 en mettant l’accent sur sa démarche très pratique en thèse de DBA. Cette méthode permet de réaliser une étude descriptive et analytique des traditions, us, coutumes et mœurs de populations déterminées. Pour comprendre la complexité des sociétés, communautés, organisations et comportements des individus, la méthode ethnographique est conseillée comme outil et démarche d’approche de terrain de recherche en management. L’auteur fournit des exemples de son usage en recherche en management dans laquelle elle est d’un grand apport pour comprendre les comportements des consommateurs par exemple. Elle s’attache d’abord à expliquer cette méthode comme outil de collecte de données qualitatives du terrain dans le milieu naturel des individus pour les regarder agir et observer ainsi leurs comportements. Elle détaille les techniques de l’observation participante, l’observation non-participante, les journaux de bord, l’introspection, et l’usage de photographies et vidéos. Elle discute

89

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

ensuite les aptitudes du chercheur et la démarche à suivre, et enfin elle souligne la pertinence de cette méthode en management et ses implications managériales.

90

Dans le chapitre 9, Julia Vincent-Ponroy et Françoise Chevalier présentent le récit de vie, ou approche biographique, comme méthode de recherche en sciences humaines. Dans une première partie, elles offrent une vision d’ensemble des récits de vie en les plaçant dans leur contexte historique, puis elles les définissent ainsi que leurs enjeux épistémologiques. L’usage du récit de vie dans la recherche en sciences sociales est relativement récent, cette dernière ayant été longtemps dominée par les approches quantitatives et structuralistes dans lesquels l’individu est abordé en tant qu’unité statistique. La méthode biographique vise à appréhender de façon inductive des phénomènes via la narration que le sujet fait au chercheur librement, de moments de vie choisis pour leur lien avec le thème de l’étude tel qu’il a été présenté par le chercheur. La portée des résultats obtenus à partir de l’étude des récits de vie dépasse le cas de l’individu qui se raconte. Cela demande que le chercheur trouve la bonne distance épistémologique avec l’informateur, mais aussi fasse preuve d’écoute sensible, de bienveillance, d’empathie, qui sont les clés de l’attitude de compréhension. La deuxième partie détaille quand utiliser cette méthode pour étudier quels phénomènes, en fournissant des exemples de récits de vie de construction identitaire d’individus et de groupes et leurs parcours, ou de mondes sociaux professionnels. Comment appliquer la méthode à travers l’entretien narratif est ensuite expliqué, avec des conseils pratiques sur l’accès au terrain, la formulation des questions, l’organisation des entretiens, la préparation psychologique et technique du chercheur, le guide d’enquête, la conduite et les étapes de l’entretien, et l’analyse du récit de vie. La méthode du récit de vie permet de recueillir des informations riches dans un contexte particulier et offre aux doctorants-managers la possibilité de creuser un phénomène en explorant l’épaisseur du vécu des personnes en situation. Elle peut s’avérer particulièrement utile dans le cadre des recherches menées en DBA. Jean-Christophe Bogaert, Jean Moscarola et Caroline Mothe exposent dans le chapitre 10 l’intérêt des archives historiques et de la narration comme méthode de recherche. Ils en dé-

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

montrent l’utilité à travers une recherche longitudinale d’un cas unique couvrant les 25 années d’existence d’une entreprise de taille moyenne afin d’en analyser ses évolutions et sa stratégie. Ils situent dans un premier temps les spécificités de l’approche historique, comment construire du sens à partir de la recherche d’archives, la critique des sources et l’écriture historique. Ils en présentent ensuite l’application à leur recherche longitudinale en détaillant la problématique de recherche, la pluralité des techniques utilisées pour construire un corpus à partir de sources historiques, les méthodes d’analyse lexicales, de contenu, le codage et la triangulation, finalement menant à la narration et construction d’un récit. Une caractéristique importante de l’approche historique est qu’elle peut s’appuyer sur une combinaison de méthodes qualitatives et quantitatives dans le but de rechercher des explications pour les événements observés en s’intéressant à l’influence des contextes sur les processus sur une longue durée. Dans le chapitre 11 Jean-François Lemoine sensibilise les étudiants de DBA à l’usage des données consultables sur Internet avec la rigueur scientifique qui s’impose dans un travail doctoral. La première tâche est d’évaluer la qualité scientifique des informations disponibles étant donné leur diversité et de distinguer les données académiques de celles qui le sont moins. L’auteur présente des aides à la classification des données scientifiques afin de les hiérarchiser. Pour mieux exploiter des données collectées sur Internet pour des études empiriques, il identifie les risques susceptibles d’affecter leur qualité que le doctorant devra avoir à l’esprit de manière à pouvoir prendre le recul nécessaire par rapport aux résultats obtenus : le contrôle de l’identité des répondants ; l’échantillonnage de convenance et le remplissage incomplet ou mensonger. Il donne ensuite des solutions à mettre en œuvre pour favoriser la divulgation de données personnelles sincères. Les données collectées sur Internet peuvent être exploitées mais avec prudence afin de mettre à jour des contributions théoriques et managériales reconnues par la communauté des chercheurs et des praticiens. Le chapitre 12 par Jean Moscarola présente ce qui distingue les questionnaires conçus pour la recherche pour ensuite expliciter les apports des enquêtes en ligne. Il y détaille l’usage des

91

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

questionnaires pour la recherche en les divisant entre : questionnaires en situations managériale et expérimentale ; le questionnaire comme instrument de mesure ; le questionnaire modélisation ; le questionnaire exploratoire ; et le questionnaire en tant qu’outil d’analyse. Les caractéristiques des questionnaires en ligne sont ensuite décrites, en en accentuant leurs conditions précises d’usage telles la diffusion et la sollicitation ; l’effet de design ; l’effet de dévoilement et de scénarisation ; leur interactivité dynamique et sémantique ; et les effets de partage et collaboration. L’efficacité et les limites des enquêtes en ligne sont ensuite soulignées en les illustrant à travers des exemples d’enquêtes réalisées. Des conseils pratiques sont finalement donnés sur comment concevoir un questionnaire ou une grille d’analyse et les mettre en ligne. Des sites internet avec des exemplaires de formulaires en ligne et des informations sur les logiciels Sphinx et leur contribution aux enquêtes en ligne sont également fournis.

92

Dans le chapitre 13, Violette Boko et Marc Bonnet expliquent que la recherche-action est une recherche « en action », engagée avec les acteurs des organisations, ce qui est approprié en DBA lorsque le doctorant a déjà une expérience professionnelle et qu’il dispose d’un réseau de relations professionnelles. Le chercheur-manager y observe de façon détaillée et longitudinale les processus d’apprentissage organisationnel tout en faisant preuve de distanciation et de réflexivité, car la rigueur scientifique nécessite de pratiquer une observation longitudinale pour bien identifier les logiques d’action, les langages de l’action ainsi que les écarts entre les discours et les pratiques. Ils donnent quelques points de repères sur différentes méthodes de recherche-action : l’observation participante et l’ethnographie ; la recherche clinique ; la recherche-action participative ; et la recherche-intervention. La méthode de recherche-intervention qualimétrique est ensuite présentée en détail, comme une des méthodes les plus transformatives en sciences de gestion, car elle intègre les effets qualitatifs, quantitatifs et financiers des actions réalisées. Elle repose sur l’interactivité cognitive, l’intersubjectivité contradictoire, et la contingence générique. Sa mise en œuvre fait l’objet de la négociation d’un contrat de recherche et d’un protocole d’intervention, qui se compose de trois types d’action : un processus d’apprentissage organisationnel et un

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

pilotage négocié du changement ; la réalisation d’un diagnostic socio-économique participatif ; la mise en place d’outils de management socio-économique menant à des décisions politiques et stratégiques. Toutes les étapes de ces méthodes sont ensuite illustrées au travers d’un exemple de thèse réalisée dans un établissement scolaire privé au Bénin. Des enseignements à retirer de la recherche-action sont présentés en ce qui concerne son impact sur le chercheur lui-même, sur l’organisation où la recherche a eu lieu, et sur la contribution scientifique auprès du monde académique et des praticiens de la conduite du changement et du développement organisationnel. Dans le chapitre 14, Jacques Igalens et Claude Roussillon Soyer encouragent l’utilisation de la quasi-expérimentation comme méthode de recherche de terrain de DBA. Un avantage important est qu’elle dépasse les limites de l’observation et de l’expérimentation artificielle, donc quand les manipulations contrôlées ne sont pas possibles, ce qui peut être pertinent pour un étudiant de DBA. Ils rappellent d’abord en quoi consiste les méthodes de quasi-expérimentation et leur validité interne et externe. Ils en discutent les avantages en donnant de nombreux exemples de leur application en particulier en recherche en gestion des ressources humaines. Ils formulent ensuite un nombre de clés du succès de la quasi-expérimentation, spécifiquement en termes des relations entre le chercheur et le praticien, en fournissant des conseils pratiques pour guider la recherche. Après avoir réfléchi à sa problématique et méthodologie de recherche, choisi une ou deux méthodes de collecte de données pour répondre à sa question terrain, puis recueilli ses données qualitatives, quantitatives ou un mélange des deux, l’étudiant de DBA aura accumulé des données à « l’état pur » à partir de son travail de terrain. Il faudra ensuite les traiter, les coder et les analyser de manière rigoureuse et scientifique afin d’en tirer des résultats et articuler les contributions empiriques et conceptuelles et les implications managériales, ce que traite la troisième partie de cet ouvrage.

93

CHAPITRE 5. L’observation Françoise Chevalier et Sébastien Stenger

Résumé En quoi consiste l’observation ? Que peut-elle apporter à un doctorant dans le cadre de ses recherches ? L’observation est une technique de collecte des données qui permet d’avoir accès à des données qui ne sont pas accessibles par des entretiens ou des questionnaires. Ce chapitre explore les avantages mais aussi les difficultés que génère l’observation et donne des indications concrètes pour sa mise en œuvre. Mots-clés : observation participante, observation nonparticipante, grille d’observation, réflexivité.

Les méthodes de recherche du DBA

94

L’ob s e r v a t i o n

INTRODUCTION Originaire de l’anthropologie, l’observation est une méthode scientifique de récolte de données reconnue en particulier depuis son utilisation dans les enquêtes de terrain des sociologues de l’École de Chicago. Certaines de ces observations sont devenues célèbres, comme l’étude de W.F. Whyte (1993) sur les jeunes de banlieue Street Corner Society, dans laquelle le chercheur a observé une bande de jeunes immigrés italiens de la banlieue de Boston pendant plus de trois ans afin de rendre compte de leurs pratiques et comportements. L’observation peut être mobilisée dans les différentes disciplines de la gestion : en stratégie, en marketing, en finances, en contrôle de gestion, en ressources humaines, en systèmes d’information… Quel est l’intérêt pour un doctorant de recourir à l’observation dans le cadre de son travail de recherche ? Quels en sont les avantages mais aussi les difficultés d’un point de vue pratique et scientifique ? À quelles conditions l’observation peut-elle être pour le doctorant en DBA l’occasion de produire une connaissance scientifique approfondie de son sujet ? Ce chapitre se propose de définir l’observation, d’en souligner la richesse et les difficultés, et de développer les modalités pratiques de sa mise en œuvre.

1. DÉFINITION DE L’OBSERVATION ET DES TYPES D’OBSERVATION En quoi consiste l’observation ? L’observation est une technique de collecte des données. Elle permet d’avoir accès à des données qui ne sont pas accessibles par des entretiens ou des questionnaires (Arborio & Fournier, 2010). Il ne s’agit pas ici de poser des questions mais de voir, d’entendre, de pratiquer le cas échéant… L’observation sollicite tous les sens du chercheur : elle consiste à récolter les pratiques concrètes d’acteurs situés dans des contextes précis, à aller comprendre soi-même, en propre, sur place le déroulement de la vie dans une organisation sans trop en perturber les activités ordinaires et à chercher la signification de ce qui se passe entre les acteurs concernés. L’observation permet d’accéder en temps réel à l’objet de recherche (Journé,

95

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

2008). La durée de l’observation peut aller de quelques heures à quelques mois voire années (Stenger, 2017). Classiquement on distingue deux grandes modalités d’observation : l’observation non participante et l’observation participante (voir tableau 1). L’observation non participante caractérise les situations où le chercheur ne participe pas aux activités observées. L’observation participante, elle, renvoie à des situations où le chercheur prend part aux activités qu’il observe. Le chercheur est à la fois acteur et observateur de la situation. Dans les deux cas, soit les personnes observées sont mises au courant et le chercheur s’efforce le plus possible de faire oublier sa présence, soit les personnes observées n’ont pas connaissance de l’observation (ce qui peut bien sûr soulever des questions d’éthique). À découvert ou incognito ? Il s’agit pour l’observateur de préciser sa relation au terrain. Tableau 1. Deux types d’observation Type d’observation1 et relation observateur/ observés

96

Observation non participante Soit l’observateur révèle sa posture de chercheur aux observés Soit l’observateur ne révèle pas sa posture de chercheur aux observés Observation participante Soit l’observateur révèle sa posture de chercheur aux observés Soit l’observateur ne révèle pas sa posture de chercheur aux observés

L’observation peut être mise au service de démarches de recherche très différentes, déductives qui visent à tester des théories, ou inductives qui visent à la création de nouvelles théories. Mise au service de plusieurs visées (Dumez, 2016), l’observation peut s’insérer dans des designs de recherche variés. L’observation peut, par exemple, s’inscrire dans une re-

1. On pourrait ici ajouter un troisième type d’observation lorsque l’observateur observe, à distance, une situation d’expérimentation construite de toute pièce pour une recherche spécifique. C’est le cas par exemple de la célèbre expérience de Milgram.

L’ob s e r v a t i o n

cherche-action dont le principe consiste à introduire un changement dans l’organisation pour en observer les effets. À partir de là, l’observation est en mesure de faire « preuve », elle génère aussi des analyses originales, des comparaisons fructueuses et une production d’idées et de théories fondées empiriquement. Encadré 1. Un exemple d’observation : les comités de direction (Flamand, 2002) Nicolas Flamant a observé pendant un an dans le cadre de sa thèse les comités de direction d’une grande entreprise française de l’aérospatiale, rebaptisée la Société Défense Espace (SDE). À quoi sert un comité de direction ? Que se passe-t-il dans ces instances ? Que font les participants au cours de ces réunions ? À partir de nombreuses situations concrètes, l’observateur analyse les processus par lesquels se fabrique le pouvoir dans les instances de direction et ses multiples formes. Il constate entre autre que « l’enjeu des comités de direction n’est pas tant de prendre des décisions que d’y siéger » car si les dirigeants ambitionnent d’y participer, la plupart sont déçus de constater que rien de décisif ne s’y passe. Il existe un paradoxe chez ces dirigeants : les attributs du pouvoir séduisent plus que les responsabilités.

2. AVANTAGES DE L’OBSERVATION L’observation présente de nombreux avantages. Premier avantage, elle permet de recueillir des informations de première main, sans intermédiaire. En effet, que ce soit dans une enquête par questionnaires ou par entretiens, l’accès au terrain est indirect et l’enquêteur dépend de ce que ses interlocuteurs lui disent. Or ceux-ci peuvent avoir intérêt à se présenter sous un jour plus favorable ou à « dissimuler » certaines pratiques qu’ils estiment ne pas devoir divulguer (Peretz, 2004) ou auxquelles ils ne prêtent pas attention parce que celles-ci leur paraissent aller de soi. Les données recueillies par observation sont donc à priori plus fiables (Becker, 1970) : l’observation peut révéler par exemple l’existence de pratiques non officielles qui sont occultées ou bien des rapports de pouvoir, des intérêts que les acteurs ne sont pas forcément prêts à révéler. Elle peut aussi mettre à jour des représentations inscrites dans l’esprit des personnes interrogées mais perçues comme trop peu légitimes ou trop banales pour que les individus les évoquent et

97

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

y prêtent attention. C’est ce qu’explique le sociologue Donald Roy qui s’est fait recruter pour son enquête comme ouvrier à la chaîne afin de comprendre les pratiques de freinage de la production : « Comme membre du collectif de travail, j’avais accès de l’intérieur aux discussions et aux activités. Comme ouvrier sur machine, je pouvais passer au microscope différentes activités. Cela présentait beaucoup d’avantages pour comprendre (…). Là où les groupes sont si sensibles et si habiles à se soustraire à l’observation, l’observation participante peut constituer un dispositif très sensible pour repérer faits et rapports pertinents » (Roy, 1952, p. 427, cité in Fournier, 1996). L’observation permet donc d’accéder à des phénomènes difficiles à percevoir autrement. Les entreprises ne sont pas toujours désireuses de rendre publiques à un chercheur étranger des données internes et peuvent mettre des barrières, rendre impossible ou limiter l’accès de l’enquêteur à certains domaines bien précis.

98

Deuxième avantage, l’observation permet d’accéder aux représentations sociales : elle permet de rendre compte des pratiques sociales, de montrer ce qui amène les acteurs à agir de telle ou telle sorte. L’observateur est en mesure de décrire les règles formelles qui régissent les situations (comme par exemple la définition d’un poste de travail) mais aussi des normes informelles (par exemple des attentes, des façons de se comporter, des rites, etc.). La saisie des pratiques sociales par l’observation passe par la description des scènes de la vie sociale mais aussi par les commentaires qu’en font les individus : les conversations qui accompagnent la pratique, les sentiments éprouvés (satisfaction, déception), la manière de le faire (sérieux, décontraction). Ces commentaires renseignent sur le sens que les acteurs donnent à leur action, ils constituent une très riche source d’information pour la compréhension des conduites sociales et des organisations. Le doctorant a donc de nombreuses raisons, si sa recherche porte sur l’entreprise dans laquelle il travaille, de recourir à l’observation. Sa familiarité avec le milieu étudié, antérieure à l’enquête, est un avantage. Le chercheur est déjà ici sur le terrain alors que la découverte d’un nouvel univers réclame du temps : celui de l’acclimatation à un univers nouveau. Le doctorant ici n’a aucun problème à tenir son rôle ni à maîtriser les compétences

L’ob s e r v a t i o n

techniques requises étant depuis longtemps dans son entreprise. Sa familiarité lui permet de satisfaire aux exigences de la situation, de s’adapter aux normes, aux mœurs en vigueur, et de se défaire de la préoccupation de bien tenir son rôle, pour pouvoir porter son regard sur le reste. Mais cette familiarité qui est un avantage en termes d’insertion et d’agilité sur le terrain crée aussi des problèmes. Quels sontils et comment les surmonter ?

3. DIFFICULTÉS DE L’OBSERVATION On peut identifier trois problèmes liés à l’observation comme outil de recueil des données et qui se posent de manière plus aigüe pour le doctorant-manager. Il importe d’en avoir conscience pour pouvoir s’en prémunir. Tout d’abord le principe central de l’observation est la distance. Le premier problème auquel le chercheur devra faire face est celui du manque de distance. L’enquêteur doit savoir rendre familier ce qui est étranger et rendre étranger ce qui est familier (Beaud & Weber, 2001). En effet c’est du déplacement de regard, de la confrontation entre le système de référence de l’enquêteur et celui de l’univers des enquêtés, qu’on peut espérer faire émerger un savoir. Prendre un objet de recherche dans son environnement direct pose donc problème car il sera plus difficile de se décentrer et de garder cette « marginalité nécessaire » (Hughes, 1996, p. 13). La proximité du doctorant-manager avec son terrain risque de limiter sa capacité d’étonnement : comment porter un regard décalé sur un monde proche du sien et voir « autrement » ce qui nous semble banal, quotidien, acquis et sans intérêt ? Toute la question ici est de se donner les moyens de « dénaturaliser » l’objet d’étude, autrement dit de passer du « cela va de soi », « c’est normal », « c’est naturel » …à « comme c’est bizarre », « comme c’est étrange ». Deuxième difficulté : la saisie d’artefacts. L’observation implique une forme de participation à la situation susceptible de modifier la véracité des informations recueillies. Il serait naïf de croire que l’observation donne accès aux situations réelles sans les perturber. Choisir un mode d’observation directe via un rôle

99

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

social à occuper dans la situation observée, engage un certain nombre de caractéristiques de l’enquêteur qui vont créer des perturbations. Le chercheur n’est pas un extraterrestre se tenant au point de vue de Sirius, un pur regard invisible ; il est présent en chair en os. Le chercheur est à la fois instrument de recueil et analyseur. Olivier Schwartz parle de « paradoxe de l’observateur » pour évoquer cette tension (Schwartz, 1993, p. 271).

100

Par exemple la subjectivité du chercheur est marquée par des caractéristiques sociales générales telles que son apparence, son sexe, son âge, son origine ethnique, son origine sociale, ses études, qui vont influencer ses observations. Duneier et Molotch (1999) ont montré l’impact de la couleur de peau et la difficulté d’échanger avec leurs enquêtés dans des ghettos noirs : les enquêteurs blancs étaient vus comme incapables de comprendre les personnes interrogées et les interviewés réagissaient avec une grande défiance. Dans certains milieux professionnels, le genre de l’observateur peut aussi modifier considérablement les comportements observés (par exemple dans l’armée, la police, etc.), l’observateur sera alors « abusé » par des individus qui adaptent leur conduite en sa présence. Jean Peneff (1992) qui a observé des ouvriers d’une entreprise de sous-traitance explique qu’il a été longtemps considéré comme « l’œil de Moscou » de la direction et qu’en conséquent les ouvriers lui ont longtemps caché certaines façons de faire leur travail. En clair les individus s’adaptent, ils catégorisent l’observateur, jugent sa conduite, ses faux-pas, en font un allié ou un ennemi : « Est-il en lien avec la direction ? Que va-t-il faire des données recueillies ? ». Les interactions entre enquêteurs et enquêtés ont donc des effets sur les informations recueillies et peuvent produire des artefacts éloignés de l’objectivité. Ce problème est d’autant plus marqué pour le doctorant-manager qu’il doit souvent imposer à ses collègues une démarche d’investigation nouvelle et leur faire accepter un parti pris de connaissance qui peut paraître suspicieux (« que va-t-il raconter ? pourquoi fait-il un doctorat ? »). Les enquêtés veulent savoir à qui ils ont affaire et peuvent modifier leur conduite en adoptant pour la circonstance un comportement de conformité aux règles en rupture avec ce qu’ils font d’ordinaire. Ainsi le fait de devenir un « observateur » va venir perturber la situation et la qualité des informations.

L’ob s e r v a t i o n

La troisième difficulté porte sur les biais cognitifs de l’observateur. Cette difficulté guette tout chercheur : c’est celle qui consiste à projeter, consciemment ou inconsciemment, une ou des grilles de lecture préétablies sur la situation observée (quand le doctorant cherche à trouver dans ses observations ce qu’il estime être la réalité des choses, quand l’idéologie prime sur le contenu de ce qui est observé). La tentation peut être grande en effet de faire valoir un jugement préconçu ou de chercher à servir ses intérêts ou sa vision à travers un discours d’allure scientifique. Dans un DBA, cette situation est encore plus sensible car la présence sur le terrain précède le plus souvent la décision d’enquête. Le doctorant-manager a pendant longtemps fréquenté son terrain sans avoir vis-à-vis de celui-ci « une distanciation scientifique », un regard extérieur d’objectivité : il est partie-prenante. Dit autrement sa longue fréquentation du terrain peut l’amener, empathie aidant, à une implication dans les intérêts des acteurs peu compatible avec la production de connaissance scientifique. La position de manager peut s’accompagner en effet de grille(s) de lecture implicite(s) des situations. Il convient d’être attentif à cette subjectivité du chercheur forcément marquée par les proximités professionnelles. Cela exige de ne pas tomber dans le « subjectivisme » c’est-à-dire dans la restitution d’un point de vue personnel. Comment éviter ces trois principaux risques (risque de défaut de distance, risque de saisie d’artefacts et risque de biais cognitifs) dans le recueil des données ? Comment éviter que l’enquêteur ne cède à des partis pris biaisés et subjectifs ? Comment garantir la validité la crédibilité des informations recueillies et procéder à une analyse rigoureuse ?

4. LA PRATIQUE CONCRÈTE DE L’OBSERVATION Comment observer ? Cet exercice n’est pas chose aisée ni parfaitement contrôlée, mais en dépit de son caractère empirique, l’observation est désormais dotée d’outils et de techniques qui permettent de garantir la scientificité et la validité de ses découvertes. Quelques principes simples peuvent guider l’enquêteur afin de tirer le meilleur parti de la méthode : à cet égard, définir les tâches de l’observateur est clé (Tableau 2).

101

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Tableau 2. Les tâches de l’observateur Être sur place parmi les personnes observées et s’adapter à ce milieu. Observer le déroulement ordinaire des événements. Enregistrer ceux-ci en prenant des notes ou par tout autre moyen. Interpréter ce qui a été observé et en rédiger un compte-rendu.

4.1. Se positionner en tant qu’observateur

102

Dans les cas d’observation participante ou non participante connus par les observés, il importe d’obtenir la confiance de ses interlocuteurs. Aussi l’observateur doit-il présenter son projet et expliciter ses objectifs de connaissance pour que les personnes comprennent la raison de sa présence. Un des points essentiels est d’indiquer l’usage que l’on souhaite faire des données. La présentation de soi doit s’efforcer de donner des gages de neutralité par rapport aux intérêts sociaux en présence dans la situation et témoigner beaucoup de respect aux acteurs. Il s’agit de construire le statut d’observateur et gérer ses relations avec les observés (Journé, 2008) en n’ayant de cesse de réduire les biais de sa présence.

4.2. Construire une grille d’observation Observer le déroulement ordinaire des activités ne va pas de soi. Qui va-t-on observer ? Que faut-il observer ? Où l’observation se déroule-t-elle ? Dans quel contexte ? Combien de temps ? Deux observateurs placés dans une même situation développeront des regards différents. À cet égard, on peut se rappeler le texte de Georges Perec et sa tentative de description de choses vues au carrefour Mabillon, le 19 mai 1978 2. Il convient pour le chercheur de construire suivant les situations observées, la ou les grilles d’observation qui vont lui permettre de poser son regard plus spécifiquement sur tel ou tel élément. Pour parvenir à construire une grille d’observation, il importe de s’interroger sur les données à observer (Tableau 3). 2. Voir le podcast de l’émission radiophonique : https://www.franceculture.fr/emissions/creation-air/tentative-de-description-de-choses-vues-au-carrefour-mabillon-le-19-mai-1978

L’ob s e r v a t i o n

Tableau 3. Grille d’observation Quelles données spécifiques observer ? Collecter in vivo ce que les gens font et disent Les comportements effectifs des personnes en situation, les gestes, les actions (versus ce qu’elles en disent, ou ce qui est prescrit). Les propos en situation, leur contexte d’énonciation, le langage employé, les interactions habituelles (difficiles à formuler par les acteurs). Les éléments de contexte Les agencements matériels et spatiaux, l’inventaire des objets… Les comptages Les foules (les flux, les interactions, l’apparence, les gestes…) La durée, les temps nécessaires, les rythmes….

L’une des difficultés des grilles d’observation est de réussir à trouver un équilibre entre ce que l’on veut absolument enregistrer comme données sans pour autant se priver de données émergentes, inattendues, celles auxquelles on n’avait pas pensé et qui pourtant sont révélatrices de dimensions cachées. Si l’observation s’inscrit dans une démarche de recherche hypothético-déductive, la grille d’observation aura un coté plus systématique et comportera la liste de ce qui doit être observé, de ce qui est considéré comme significatif au regard des objectifs et des hypothèses de la recherche. Si l’observation participe d’une démarche de recherche plus inductive, la grille d’observation sera plus lâche, plus souple, plus ouverte pour être en mesure de saisir tous les imprévus des situations observées et justement donner accès à ce qui est mal ou peu connu. Dans tous les cas de figure il convient d’inscrire la grille d’observation dans un système dynamique prenant en compte la richesse des terrains travaillés.

4.3. Cultiver les facultés d’observation et faire de l’étonnement une ressource Il s’agit pour l’observateur d’explorer certains aspects qu’il pourrait négliger, recueillir le détail de longues scènes et être attentif aux

103

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

démentis du terrain par rapport à ce qu’il s’attend à observer, aux évènements qui ne cadrent pas avec les hypothèses préalables. Le meilleur moyen, pour se faire spectateur et réveiller sa faculté d’étonnement, c’est de faire des comparaisons. Comparer des situations en faisant varier les points de vue. Comparer ses propres données de terrain avec celles issues d’autres terrains (Chevalier, 2017). Mais aussi comparaison en soumettant ses propres observations à des pairs ou en se confrontant à des travaux similaires.

4.4. Donner forme aux informations recueillies

104

Les notes d’observation constituent l’essentiel du matériau concret que l’observateur pourra reprendre pour étayer l’analyse. Ces notes sont prises soit directement sur le terrain si cela est possible (l’observateur est muni d’un carnet de note ou d’un ordinateur), soit le soir à la fin de la journée dans un « journal de terrain », où sont consignées les observations au jour le jour. Ce journal sert de matériau de base pour l’analyse. Ainsi au fur et à mesure ce journal va s’enrichir d’analyses : aux notes descriptives (lieux, personnes, récits d’évènements, interactions) se mêlent des réflexions personnelles qui rendent compte des impressions de l’observateur. Tableau 4. Les notes d’observation Les notes d’observation peuvent prendre plusieurs formes : Notes en simultané (suppose une situation stable et confortable…). Enregistrement mécanique (dictaphone). Photographies de l’observation (préciser les conditions de la prise de vue : date, occasion, photo posée ou non…). Mémorisation et enregistrement différé. Il convient de noter non seulement les données qualitatives mais aussi les comptages (statistiques de données recueillies au cours des événements eux-mêmes).

L’ob s e r v a t i o n

Une fois sorti du terrain le chercheur s’attache à rendre explicites les analyses et sa démarche en exploitant de manière systématique les notes qu’il a prises. Il s’agit d’identifier ce qui a varié d’une situation à l’autre et de rapprocher les scènes observées. Il est ainsi possible de proposer des classements thématiques. Il est également possible de coder pour compter le nombre d’occurrences de telle ou telle situation et faire émerger des catégories d’analyse. Ainsi dans son observation d’un hôpital, Jean Peneff repère les différentes activités d’un chirurgien au cours d’une journée et classe les différents objets et personnes afin de mettre en lumière certains statuts sociaux : à l’hôpital les personnels sont classés selon le grade, le sexe, l’âge, selon les objets qu’ils manipulent, selon les attributs vestimentaires, etc. (Peneff, 1997, p. 287).

4.5. L’autoanalyse Enfin au terme de ce travail, pour convaincre du bien-fondé de ses observations, l’enquêteur est amené à faire un travail de réflexivité sur lui-même. Il importe d’expliquer pourquoi il fait cette enquête, quelle est sa position, sa trajectoire et surtout comment il pense avoir été perçu par les personnes qu’il a observées. Cette réflexivité est une condition de scientificité car elle permet de remettre les données recueillies dans leur contexte et d’en corriger les éventuels biais. L’enquêteur, tout en s’impliquant à la première personne, s’efforce donc de « se voir à la deuxième et à la troisième personne ». Autrement dit, il s’agit de déchiffrer les dispositifs d’identification, de catégorisation et de classification à travers lesquels les gens observés le perçoivent et l’apprécient et, réciproquement, à travers lesquels il leur présente des façades et gère des apparences. Les effets de ces attributs sur le contenu des interactions ne sont pas seulement des déformations, ce sont des vertus à exploiter car à travers ces effets, un ordre social se révèle que l’observateur peut analyser.

CONCLUSION L’observation, et tout particulièrement l’observation participante, apparaît ainsi comme une méthode d’enquête réclamant – comme toutes les méthodes d’enquête en sciences sociales –

105

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

un retour réflexif sur les conditions de sa mise en œuvre pour évaluer, d’une part, les raisons de sa pertinence et, d’autre part, les limites que ses modalités précises imposent à la qualité des informations recueillies. Réflexivité et contrôle de la subjectivité du chercheur vont de pair pour garantir la qualité de l’observation. Références citées Arborio, A.-M. & Fournier, P. (2010), L’enquête et ses méthodes : l’observation directe, Paris, Armand Colin, coll. « 128 ». Becker, H. (1970), Sociological Work : Method and Substance, Chicago, Aldine. Beaud, S. & Weber, F. (2001), Guide de l’enquête de terrain, Paris, La Découverte, coll. « Guide Repères ». Chevalier, F. (2017), La théorisation dans une perspective terrain : le décorticage d’une démarche de recherche, in P. Beaulieu & M. Kalika (dir.), Le projet de thèse de DBA, Caen, Éditions EMS, coll. « Business Science Institute », p. 165-176. Dumez, H. (2016), Méthodologie de la recherche qualitative : les questions clés de la démarche compréhensive, Paris, Vuibert.

106

Duneir, M. & Molotch, H. (1999), Talking city trouble: Interactional vandalism, social inequality, and the “urban interaction problem”, American Journal of Sociology, vol. 104, no 5, p. 1263-1295. Flaman, F. (2002), Une anthropologie des managers, Paris, PUF, coll. « Sciences Sociales et Société ». Fournier, P. (1996), Deux regards sur le travail ouvrier, Actes de la Recherche en Sciences Sociales, vol. 115, p. 80-93. Hughes, E.C. (1996), Le regard sociologique. Essais choisis, Paris, Éditions de l’École de Hautes Études en Sciences Sociales. Journé, B. (2008), Collecter les données par l’observation, in M.-L., Gavard-Perret, D. Gotteland, C. Haon & A. Jolibert (dir.), Méthodologies de la recherche. Réussir son mémoire ou sa thèse en sciences de gestion, Pearson Education France, p. 247-279. Matheu, M. (1986), La familiarité distante. Quel regard poser sur la gestion dans notre société ?, Gérer et Comprendre, p. 81-94. Peretz, H. (2004), Les méthodes en sociologie. L’observation, Paris, La Découverte, coll. « Repères ». Peneff, J. (1992), L’Hôpital en urgence. Étude par observation participante, Paris, Éditions Métailié, coll. « Leçon de choses ». Roy, D. (1952/2006), Un sociologue à l’usine, Paris, La Découverte, coll. « Repères ».

L’ob s e r v a t i o n

Schwartz, O. (1993), L’empirisme irréductible, in N. Anderson (dir.), Le Hobo – Sociologie du sans-abri, Paris, Nathan, coll. « Essais et Recherches », p. 263-305. Stenger, S. (2017), Au cœur des cabinets d’audit et de conseil, Paris, Presses Universitaires de France. Whyte, W.F. (1993/1943), Street Corner Society: The Social Structure of an Italian Slum, Chicago, University of Chicago Press. Références pour en savoir plus Gavard-Perret, M.-L., Gotteland, D., Haon, C. & Jolibert, A. (2012), Méthodologie de la recherche. Réussir son mémoire ou sa thèse en sciences de gestion, 2e édition, Pearson. 

Cet ouvrage donne des bases rigoureuses pour bien aborder un travail de recherche (construire un objet de recherche, choisir et/ou croiser les méthodes de collecte des données et les méthodes d’analyse des données, synthétiser et rédiger les résultats). Le chapitre consacré à l’observation permet d’approfondir la technique relative à cette méthode. Muccchielli, R. (1996), L’observation psychologique et psychosociologique, 5 e édition, Paris, ESF Éditeur.

Un ouvrage de base qui présente d’un côté les éléments essentiels de l’observation, d’un autre côté les applications concrètes de l’observation. L’ouvrage se veut pratique, notamment par les exercices d’entraînement qu’il propose.

107

CHAPITRE 6. Les entretiens Françoise Chevalier et Vincent Meyer

Résumé  La conduite d’entretien, méthode de recueil des données très utilisée et en apparence simple, repose toutefois sur des techniques spécifiques. Elle nécessite notamment de maîtriser les cadres épistémologiques auxquels se réfèrent les entretiens qu’ils soient directifs, semi-directifs ou non directifs. L’objectif de ce chapitre est de présenter les fondements, tant théoriques que pratiques, nécessaires à la maîtrise de la conduite d’entretiens, en particulier des entretiens semi-directifs. Mots-clés : entretien directif, semi-directif, non directif, guide d’entretien semi-directif, principe de l’entonnoir, attitudes de l’interviewer, empathie, reformulation.

Les méthodes de recherche du DBA

108

L e s e nt r e t i e n s

« Je dirais volontiers que l’entretien peut être considéré comme une forme d’exercice spirituel, visant à obtenir, par l’oubli de soi, une véritable conversion du regard que nous portons sur les autres dans les circonstances ordinaires de la vie. » Bourdieu (1993)

INTRODUCTION La conduite d’entretien est l’une des pratiques de collecte de données parmi les plus répandues en sciences de gestion (Bryman & Bell, 2015 ; Yin, 1994). Elle est très largement utilisée par les chercheurs car elle permet de collecter rapidement des données riches et de première main. En apparence simple, elle repose cependant sur des partis pris épistémologiques importants et nécessite de se poser au préalable des questions théoriques et pratiques pour atteindre le degré de flexibilité nécessaire à son perfectionnement (Myers & Newman, 2007 ; Thiétart, 2014). Si l’entretien semi-directif est le plus connu d’entre tous, il en existe une grande variété. L’objet de ce chapitre est d’abord de définir les différents types d’entretiens pour permettre aux doctorants de choisir le ou les entretiens les plus appropriés pour leur recherche. La conduite d’entretien étant par ailleurs avant tout une pratique, l’objectif de ce chapitre est aussi de fournir aux doctorants-managers les outils et techniques nécessaires à son usage et son perfectionnement au quotidien.

1. DÉFINITION DE L’ENTRETIEN ET DES TYPES D’ENTRETIENS L’entretien n’est ni une conversation amicale, ni une discussion, ni un interrogatoire, ni une interview journalistique, ni une confession. L’entretien est une méthode de recueil des données qui participe d’une démarche préparée à l’avance et s’intègre dans un plan de recherche. Le « bon entretien » a pour objectif la compréhension de ce qui se passe pour l’autre. Il vise à réunir des discours, des récits et des matériaux discursifs permettant de comprendre les représentations mentales et les pratiques des individus au sein des organisations investiguées lors d’une recherche.

109

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

1.1. Les trois principaux types d’entretiens Il existe trois principaux types d’entretiens : directifs, non directifs et semi-directifs. En théorie, ces trois types s’échelonnent sur un continuum allant d’une entière directivité à une entière non-directivité, mais la plupart des chercheurs les utilisent, dans la pratique, à tour de rôle au cours de leurs investigations ou même au cours d’un seul entretien.

110

Les entretiens directifs sont constitués de questions très précises, en général fermées, préparées à l’avance par le chercheur et posées dans un ordre déterminé. Ils permettent de collecter rapidement des réponses précises à des questions spécifiques dans un cadre hypothético-déductif, afin de décrire ou d’expliquer des situations et des comportements donnés. Même si la collecte de données par entretiens directifs reste orale, elle s’apparente à une collecte de données quantitatives par questionnaire et vise essentiellement à assurer la fiabilité ou la mesure de concepts clés. Les entretiens directifs sont donc, le plus souvent, utilisés pour préciser des propos lors d’un second entretien ou collecter certaines informations démographiques manquantes. Ils peuvent également servir à comparer deux populations précises dans des situations spécifiques (Yin, 1994). Les entretiens non directifs sont constitués d’échanges au cours desquels le chercheur recueille des discours et des récits sur une thématique donnée sans questions préparées à l’avance (De Ketele & Roegiers, 1996). L’objectif est ici de collecter des informations brutes et laisser l’interlocuteur s’exprimer le plus librement possible sans influencer ou biaiser ses propos. Si les entretiens non directifs ne nécessitent pas la préparation de questions en amont, ils requièrent une « attention positive inconditionnelle » (Evrard, Pras & Roux, 1993, p. 91) et une forte empathie du chercheur lors de l’entretien, « c’est-à-dire l’acceptation du cadre de référence du sujet, en termes d’émotion ou de signification, « comme si » l’investigateur était à la place du sujet interrogé » (Thiétart, 2014, p. 235). Les entretiens non directifs sont ainsi souvent utilisés lors de recherches ethnographiques, en phase exploratoire d’une recherche basée sur la théorie ancrée ou grounded theory en anglais (Strauss & Corbin, 1994) ou pour effectuer des entretiens dits biographiques.

L e s e nt r e t i e n s

Les entretiens semi-directifs sont l’une des méthodes, si ce n’est la méthode de collecte de données la plus répandue en recherche qualitative. Ils reposent sur une série de thématiques et de questions préparées à l’avance. L’objectif n’est pas d’obtenir des réponses précises à des questions fermées ou des théories professées (Argyris & Schön, 1974) par des interlocuteurs mais, au contraire, de comprendre les pratiques, les comportements et les perceptions des individus en lien avec la question de recherche (Thiétart, 2014). À titre de comparaison, l’observation permet de voir directement ce que font les individus mais elle ne permet pas toujours d’accéder à leur ressenti ou à leur univers mental. De même si les questionnaires permettent d’obtenir des réponses spécifiques à des questions précises, ils présupposent toutefois que les individus ont une connaissance exacte et transparente de leurs actions et de leurs comportements. L’entretien semi-directif repose lui sur l’idée que la réalité des individus n’est pas uniquement accessible par le chercheur (observation) ou par les individus eux-mêmes (questionnaires) mais par une interaction dynamique entre le chercheur et ses interlocuteurs. Les entretiens directifs, non directifs et semi-directifs répondent ainsi à des objectifs et des paradigmes épistémologiques différents. Les entretiens directifs permettent d’obtenir des informations précises à des questions fermées et correspondent bien au cadre hypothético-déductif. Les entretiens non directifs permettent de recueillir des paroles libres. Ils sont particulièrement pertinents dans les approches inductives où la construction du savoir émerge du terrain. Les entretiens semi-directifs représentent eux un compromis basé sur un paradigme abductif (Shepherd & Sutcliffe, 2011), celui d’un dialogue continu entre le terrain et la théorie (Chevalier, 2017). Ces trois méthodes de collecte de données (Tableau 1) restent cependant des archétypes et il convient ici d’éviter deux écueils. L’une des erreurs fréquentes des jeunes chercheurs est de commencer leur collecte de données par des entretiens directifs pour être sûr d’obtenir des réponses à leurs questions et ainsi se rassurer, alors que leur objectif principal est, au contraire, de vouloir découvrir ce qui se passe sur le terrain. Par ailleurs, un entretien nécessite avant tout de la flexibilité, c’est-à-dire

111

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

une capacité à utiliser ces différentes modalités d’entretiens en fonction de l’avancement de la recherche menée. Tableau 1. Caractéristiques des trois grands types d’entretiens Non directif

Semi-directif

Principales caractéristiques

Collecte rapide de réponses à des questions spécifiques, visant à assurer la fiabilité ou la mesure d’informations et de concepts clés

Directif

Conversation libre nécessitant une grande empathie et visant la collecte de propos et de récits bruts

Collecte de réponses riches visant à comprendre des pratiques et/ou les perceptions des individus en lien avec la question de recherche

Questions

Préparées à l’avance et posées dans un ordre précis

Non préparées à l’avance

Trame flexible préparée à l’avance

Paradigme épistémologique

Hypothéticodéductif

Inductif

Abductif

112

1.2. Les autres types d’entretiens Il existe d’autres types d’entretiens, moins fréquemment utilisés, mais qui peuvent s’avérer pertinents dans le cadre d’une recherche de DBA. Ainsi les entretiens biographiques visent-ils à collecter des informations sur le passé ou certains moments clés de la vie des individus. Ils sont souvent non directifs : les chercheurs invitent leurs interlocuteurs à une « plongée dans leur histoire de vie ». La mémoire étant par nature sélective, les chercheurs s’aident souvent de visuels ou d’artefacts pour raviver les souvenirs de leurs interlocuteurs. Les entretiens de groupe permettent d’observer et de mieux comprendre les interactions entre les individus, ce qui peut s’avérer particulièrement pertinent lorsqu’on analyse les jeux de pouvoir. Ils peuvent également servir à stimuler les échanges d’idées, d’émotions et d’expériences entre les personnes. Certaines personnes peuvent néanmoins se sentir inhibées. Veiller à la dynamique de groupe est ici clé.

L e s e nt r e t i e n s

Les entretiens téléphoniques ou par visioconférence (via Skype ou Zoom) sont assez peu utilisés en recherche qualitative car ils ne permettent pas d’établir aussi facilement le contact humain propre au face à face. Ils présentent néanmoins l’avantage de réduire substantiellement les frais de déplacements et peuvent ainsi être utilisés en complément pour augmenter le nombre et la diversité des personnes interrogées comme dans cette étude de Patwardhan, Noble et Nishihara (2009) sur les centres d’appels américains implantés en Inde. On peut également citer la méthode des incidents critiques (Flanagan, 1954) où l’on interroge les personnes sur un enchaînement séquentiel d’événements.

2. LA PRATIQUE CONCRÈTE DE L’ENTRETIEN SEMIDIRECTIF Conduire des entretiens semi-directifs suppose la construction d’un guide d’entretien et la maîtrise de l’attitude clé de l’interviewer : celle de la compréhension faite d’empathie et de reformulation. D’autres questions telles que le lieu, la durée et l’enregistrement des entretiens, ainsi que le nombre d’entretiens à mener se posent au chercheur. Enfin il est essentiel d’établir et de maintenir tout au long de l’entretien une relation de confiance avec ses interlocuteurs, gage d’une authenticité de la relation.

2.1. Le guide d’entretien semi-directif Il est primordial de bien connaître les modalités d’élaboration des guides d’entretiens semi-directifs au risque, si les entretiens ne sont pas correctement conduits, de consacrer beaucoup de temps à un recueil de données qui, in fine, pourrait se révéler peu utile au chercheur et à son projet de recherche. Le guide d’entretien est un des éléments clés de la préparation d’un entretien semi-directif. Il est constitué d’une liste de thèmes et de questions ouvertes, complétée par des reformulations et des questions de relance, en lien avec la question de recherche. Il peut comporter des questions rédigées formellement ou se limiter à une simple liste de mots-clés. C’est un aide-mémoire qui permet de recentrer l’entretien si nécessaire, mais il ne doit

113

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

jamais se transformer en un cadre rigide. La qualité principale d’un chercheur menant un entretien reste sa flexibilité, c’est elle qui lui permet de s’ouvrir aux découvertes inattendues caractéristiques des recherches qualitatives. Différents types de questions sont utilisables. Encadré 1. Types de questions possibles1 Les questions d’introduction. « Pouvez-vous me décrire votre métier, votre parcours professionnel ? ». Ces questions sont essentielles car elles permettent de mettre en confiance les interlocuteurs, en partant de ce qu’ils connaissent bien. Elles permettent également de les ancrer dans un processus réflexif. Les questions liées au thème de recherche. « Et dans ce cadre qu’en estil des programmes qualité mis en œuvre dans votre entreprise ? » Les questions de relance. « Si j’ai bien compris, vous venez de me dire que… » Les questions d’approfondissement. « Pouvez-vous me donner des exemples ? » « Qu’avez-vous fait dans ce cas précis ? » ; « Comment avezvous réagi ? » Les questions d’interprétation : « Est-ce que vous pensez que le système d’évaluation de votre entreprise est juste ? »

114

Les questions de structure. « Avez-vous d’autres points à ajouter avant de passer à la deuxième partie de l’entretien ? »

L’entretien comporte plusieurs moments clés. L’entame ou démarrage de l’entretien en est un. C’est l’occasion d’énoncer sa position de chercheur en présentant la thématique générale de ses travaux, sans toutefois énoncer précisément sa question de recherche, ceci pour laisser à l’interviewé la liberté de s’approprier la thématique de la manière qui lui convient. Il s’agit de ne pas induire tel ou tel type de réponse par un formatage trop précis de la présentation de la question de recherche. Le but des entretiens semi-directifs étant bien de recueillir la spontanéité de l’interviewé. Tout au long de l’entretien, l’utilisation des regards, des silences et une empathie sincère sont indispensables à l’établissement d’une relation de confiance. À cet égard les silences permettent aux interlocuteurs d’avoir un temps de réflexion supplémentaire pour élaborer leurs réponses. En fin 1. Pour un approfondissement sur les différents types de questions, voir Kvale (1996).

L e s e nt r e t i e n s

de parcours, pour la clôture de l’entretien, il est recommandé de poser une dernière question ouverte (« nous arrivons maintenant au terme de cet entretien, est-ce qu’il y aurait un point que vous souhaiteriez ajouter, est-ce que nous avons abordé tous les points importants selon vous ? »). Ceci au cas où vos interlocuteurs souhaiteraient aborder un point important pour eux et qui n’aurait pas été développé. Préparez soigneusement votre dernière question. «  Closure sometimes brings jewels » (la clôture peut amener des perles) comme aiment à le dire nos collègues d’Outre-Manche. Enfin il ne faut bien sûr jamais oublier de remercier ses interlocuteurs pour le temps qu’ils vous ont consacré. On peut se référer au principe de l’entonnoir pour structurer son guide d’entretien. On commence par rappeler le cadre de l’entretien et la garantie d’anonymat des propos pour établir un climat de confiance avec son interlocuteur. On poursuit par des questions assez larges sur l’activité de son interlocuteur ou sur la thématique générale de sa recherche et l’on continue ensuite avec des questions d’approfondissement et des relances de plus en plus précises pour l’amener progressivement vers le cœur de son sujet. Tout le déroulé de l’entretien s’accompagne de reformulations successives garantes de la qualité de l’écoute active de l’interviewer. La conclusion permet de s’assurer que toutes les thématiques ont bien été abordées.

Encadré 2. Exemple de guide d’entretien semidirectif Entreprises familiales : question de gouvernance 2 Entame de l’entretien Bonjour M., je tiens à vous remercier de m’accorder cet entretien et du temps que vous voulez bien me consacrer… Dans le cadre de mes recherches sur la direction des entreprises familiales, je conduis une série d’entretiens auprès de dirigeants actionnaires familiaux, de dirigeants professionnels extérieurs à l’entreprise et de consultants spécialistes des questions de gouvernance dans les entreprises fa2. Cet encadré s’appuie sur les travaux de recherche de Nicolas Paillère, mémoire de recherche Majeure International Business (CEMS) HEC – Paris, dirigé par F. Chevalier, 2016.

115

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n miliales… Notre entretien durera approximativement 1 heure, voire un peu plus. J’aimerais enregistrer notre conversation pour la retranscrire, en vous garantissant l’anonymat et la confidentialité des propos. Est-ce possible ? Autrement je prendrai en note notre entretien. Questions ouvertes et questions de relance Pouvez-vous commencer par me décrire votre parcours professionnel et votre métier au quotidien ? Dans le cadre de vos activités, vous êtes amené à rencontrer des actionnaires familiaux désireux de confier le management de leur entreprise à un dirigeant extérieur à la famille. – Pourquoi prennent-ils cette décision ? Dans quel contexte ? – En quoi consiste cette opération ? – Quelles sont les responsabilités confiées au dirigeant extérieur à la famille ? – Pouvez-vous me donner des exemples concrets ? – Quelles sont les attentes des actionnaires familiaux ? – Quelles sont les attentes des dirigeants extérieurs ? – Quelles sont les difficultés rencontrées ? – Pouvez-vous me donner des exemples concrets ?

116

– Comment ces difficultés sont-elles surmontées ? – Et lorsque cela se passe bien ? – Comment cela se passe-t-il ? – Pouvez-vous me donner des exemples concrets ? – Quels sont les ingrédients des opérations qui se passent bien ? – Quelles sont, à votre avis, les bonnes questions que doivent se poser les actionnaires familiaux avant de prendre la décision de confier le management à un dirigeant extérieur à la famille ? – …….. – Est-ce que nous avons abordé tous les points qui vous semblent importants ? – Souhaitez-vous ajouter d’autres points ? Clôture de l’entretien Je vous remercie du temps que vous venez de me consacrer dans le cadre de cette recherche, et serais heureux le cas échéant de vous faire part des résultats finaux de mes travaux. Si d’autres questions se posent me sera-t-il éventuellement possible de reprendre contact avec vous…

L e s e nt r e t i e n s

2.2. Les attitudes de l’interviewer, l’empathie et la reformulation Poser des questions ouvertes et reformuler sont des techniques indispensables à la réalisation d’entretiens semi-directifs de qualité. Les questions ouvertes et les reformulations reflètent la posture du chercheur à savoir son attitude d’écoute active et authentique. Il ne s’agit en aucun cas de juger les propos de l’interviewé, ni de vouloir les évaluer, ou encore apporter une solution ou une aide quelconque à l’interviewé. Jugement, évaluation, interprétation, aide, solution sont autant d’attitudes spontanées bien décrites par Porter (1973/1996) à proscrire dans la conduite d’entretiens semi-directifs. Il ne s’agit ni de donner son avis, ni même de ponctuer verbalement ou non verbalement les propos de son interlocuteur (par un « ok » ou « oui d’accord » …), au risque de l’influencer dans une direction qui ne serait pas spontanément la sienne. C’est une attitude d’écoute et de compréhension qui est ici mise en œuvre : celle préconisée par Rogers dans son ouvrage fondateur Le développement de la personne (Rogers, 1968/2018). L’empathie tient à distance la sympathie et son opposé l’antipathie. C’est la capacité du chercheur à « s’immerger dans le monde subjectif de l’interviewé » (Rogers, 1968/2018). Cette attitude de compréhension, sans à priori aucun et sans aucune idée préconçue, suppose une disponibilité entière à l’autre, sans toutefois perdre de vue l’objet de la recherche menée. C’est là un exercice particulièrement engageant. Le chercheur s’efface pour mieux laisser l’interviewé s’exprimer. Autrement dit c’est une posture d’humilité et d’intérêt vrai pour l’autre qui est sollicitée ici. À cet égard, il est fréquent qu’en fin d’un tel entretien, l’interviewé remercie le chercheur pour son écoute attentive et patiente. Dans ces conditions aussi, l’interviewé, souvent parcimonieux de son temps au démarrage de l’entretien, oublie ses contraintes et accorde au chercheur beaucoup plus de temps que prévu au départ.

117

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Encadré 3. Attitude de compréhension de l’interviewer(d’après Rogers, 1968/2018) • Accueil (et non pas initiative de l’interviewer) • Être centré sur le vécu du sujet (et non sur les faits) • Être centré sur la personne (et non sur problème) • Faciliter la communication (et non pas faire des révélations) • Respecter le sujet (et non pas se servir de l’entretien comme d’une occasion de montrer la perspicacité de l’interviewer)

118

À cet égard, la reformulation est une technique de base de l’interviewer. Elle concourt à mettre en œuvre l’attitude d’empathie indispensable à l’interviewer. La reformulation consiste à « redire en d’autres termes » ce que l’interviewé vient d’exprimer. Si la reformulation est de qualité, l’interviewé manifeste son accord « oui c’est bien cela… », il est encouragé à poursuivre son expression et développer son propos. À l’opposé, si l’interviewé manifeste son désaccord avec votre reformulation, « non ce n’est pas ce que je voulais dire… », c’est que vous avez interprété ses propos et qu’il ne s’y reconnaît pas. Autrement dit que vous attribuez à ses propos un sens qu’il ne leur donnait pas et par conséquent vous les déformez. Dans ce cas le chercheur laissera l’interviewé reprendre et préciser sa pensée à son rythme et dans le sens qui est le sien. La reformulation est un outil essentiel dans la conduite d’entretiens semi-directifs. Les reformulations accompagnent tout le cheminement de l’interviewé et témoigne de la capacité d’écoute réelle de l’interviewer. Il est possible de distinguer trois modalités de reformulation. Encadré 4. La reformulation et ses modalités La reformulation reflet : elle reprend les derniers mots, expressions ou segments de discours de l’interviewé. L’intervieweur répète ce qui vient d’être dit. L’interviewé poursuit sur sa lancée. La reformulation-résumé : elle offre une synthèse des propos tenus par l’interviewé. Elle suppose un temps d’écoute plus long. Si l’interviewé acquiesce, c’est que le résumé proposé correspond bien à ce qu’il vient d’énoncer. Se sentant écouté et compris, l’interviewé est amené à poursuivre et souvent approfondir sa réflexion. La reformulation-clarification : il s’agit d’un type de reformulation, plus rare pour la recherche en gestion, et à manier avec beaucoup de précautions. Il s’agit ici de reformuler le non-dit, ce que l’interviewé n’a pas verbalement énoncé mais qui était présent implicitement

L e s e nt r e t i e n s dans son propos. Si l’interviewé acquiesce, c’est qu’il se reconnaît dans cette reformulation. Si l’interviewé conteste, c’est que la reformulation n’en est pas une, mais s’apparente plutôt à une interprétation ou un jugement, autrement dit confère au contenu délivré par l’interviewé un sens qu’il n’y mettait pas. La reformulation-clarification est ainsi beaucoup plus utilisée dans le cadre thérapeutique de la relation d’aide.

2.3. Lieu, durée et enregistrement de l’entretien Il y a plusieurs questions pratiques essentielles à se poser avant et après un entretien. Tout d’abord quel est le lieu le plus approprié pour mener son entretien ? En dehors ou sur le lieu de travail de son interlocuteur ? Ensuite à quel moment conduire cet entretien ? Combien de temps dure un entretien semi-directif ? Combien d’entretiens peut-on mener au cours d’une seule et même journée ? Et qu’en est-il de l’enregistrement ? Les réponses sur le lieu et la durée dépendent le plus souvent de l’objectif et du contexte et de la recherche. Néanmoins, que l’on soit sur le lieu de travail de son interlocuteur ou à l’extérieur, il importe de veiller à préserver sa disponibilité mentale et éviter au maximum les perturbations extérieures (interruptions téléphoniques, périodes de clôture pour les responsables financiers…). Les entretiens qualitatifs durent en moyenne entre une et deux heures ; l’une des erreurs les plus fréquentes pour un chercheur néophyte est de sous-estimer la fatigue physique et mentale qu’engendrent les entretiens. Les entretiens requièrent une attention pleine et entière et il est difficile de mener correctement plus de quatre entretiens par jour. En effet, même s’il n’est pas nécessaire d’un point de vue méthodologique de rédiger un journal de bord comme pour les enquêtes ethnographiques, il est toujours souhaitable de s’accorder au moins une trentaine de minutes en fin de journée pour faire le point sur les entretiens que l’on a menés. La question de l’enregistrement est également importante. La plupart des chercheurs enregistrent leurs entretiens sur des fichiers audio. Il est en effet particulièrement exigeant, d’un point de vue cognitif, de prendre des notes, d’être concentré sur les réponses de ses interlocuteurs tout en gardant en tête son guide d’entretien. Cela est toutefois possible et requiert un véritable entraînement. Dans tous les cas il s’agit d’effectuer une retrans-

119

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

cription fidèle des entretiens. L’enregistrement nécessite de demander expressément l’accord des personnes interrogées. Il peut bien sûr arriver qu’une personne refuse d’être enregistrée ou s’auto-censure pendant l’entretien parce qu’elle ne souhaite pas diffuser des informations sensibles ou que ses critiques soient conservées sur un fichier audio. Dans ce cas, il convient de rappeler à son interlocuteur que les données récoltées en entretien seront anonymisées et non diffusées. En général cela suffit à lever la plupart des inhibitions. En cas contraire, le chercheur s’appuiera sur sa prise de note. Dans tous les cas de figure, que les entretiens soient enregistrés ou qu’ils ne le soient pas, ayez toujours votre carnet à spirales et votre crayon pour prendre des notes. Prendre des notes témoigne aussi de l’intérêt vrai, sincère et sérieux, que l’on porte à l’autre.

120

Après l’entretien, il convient de le retranscrire afin de pouvoir le coder ou tout simplement revenir sur ses données. En général, il est d’usage de compter 5 à 6 heures de retranscription par heure d’enregistrement (Bryman & Bell, 2015). Cela peut augmenter si l’on fait une retranscription phonétique complète (hésitations, intonations…) pour une recherche linguistique. Les logiciels de retranscription audio comme Dragon Naturally Speaking ont fait d’énormes progrès dans la reconnaissance de la voix d’un même utilisateur et peuvent faciliter grandement le travail du chercheur. En revanche il n’existe pas encore sur le marché de logiciels permettant de retranscrire fidèlement une conversation entre deux ou plusieurs personnes et il convient soit de retranscrire soi-même ses entretiens, soit de prévoir un budget de recherche dédié à la retranscription. Celui-ci peut devenir conséquent quand on a plusieurs centaines d’heures d’enregistrement pour un projet de recherche. Certaines applications gratuites comme otranscribe3 peuvent toutefois simplifier la retranscription en associant la prise de note avec des fonctions de lecture de fichiers audio avancées.

2.4. L’échantillonnage Combien faut-il mener d’entretiens ? Si l’on se place dans un cadre hypothético-déductif, le nombre de personnes à interro3.  h ttp://otranscribe.com/

L e s e nt r e t i e n s

ger peut être fixé en amont en fonction du projet de recherche. En revanche, si l’on se place dans un cadre inductif ou abductif (Shepherd & Sutcliffe, 2011) comme c’est la plupart du temps en recherche qualitative, la meilleure réponse est celle la saturation théorique. Le but principal des recherches qualitatives étant de produire des nouvelles théories ou d’enrichir celles existantes, le chercheur doit continuer à mener des entretiens jusqu’à ce que ceux-ci « saturent », autrement dit jusqu’à ce qu’ils ne fournissent plus aucune nouvelle information relativement à la question de recherche. Dans la pratique, il n’est pas toujours facile de déterminer le moment de la saturation théorique surtout lors d’un DBA où la contrainte de temps est plus forte que pour les doctorants en Ph.D. Dès lors, quelles sont les règles d’usage ? Evidemment le nombre d’entretiens varie en fonction du contexte et de la méthode choisie (étude de cas simple ou multiple, recherche action, étude ethnographique …). Notre expérience de recherche nous a conduit par exemple, dans le cadre d’études de cas multiples sur les cercles de qualité, à réaliser plus de 200 entretiens semi-directifs (Chevalier, 1991). Marshall et ses collègues (2013) ont ainsi mené une enquête très détaillée auprès de 83 études qualitatives publiées dans les meilleures revues académiques en systèmes d’information. Il en ressort une très forte variation entre le nombre d’entretiens (d’une dizaine à plus de 200 entretiens) et que la moyenne des recherches qualitatives se situe autour de 20 à 30 entretiens pour les recherches basées sur la théorie ancrée ou « grounded theory » (Strauss & Corbin, 1994) et de 15 à 30 entretiens pour les études de cas simple.

2.5. Établir une relation de confiance avec ses interlocuteurs La qualité d’un entretien réside dans la richesse des échanges entre le chercheur et ses interlocuteurs, dans la capacité que ce dernier à de les inciter à partager des exemples précis marquants, dans sa capacité à les pousser à aller au-delà des histoires officielles pour passer dans le registre de ce qui se fait mais ne se dit pas. En général, les doctorants en DBA mènent leurs recherches au sein des organisations pour lesquelles ils travaillent et il n’existe pas de recette miracle pour établir une

121

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

relation de confiance. Les doctorants-managers sont en général familiers de leur objet d’étude : l’accès au terrain est facilité, en revanche leurs interlocuteurs peuvent aussi se montrer méfiants envers le chercheur, éventuel collègue de travail. Le premier acte est de se positionner en tant que chercheur dès le début de l’entretien. Le plus simple est de rappeler le cadre de la recherche et de souligner la confidentialité absolue de l’échange. Sortir du lieu de travail pour effectuer l’entretien peut, à cet égard, se révéler utile. Plus généralement, le chercheur n’a de cesse de faire preuve d’empathie envers ses interlocuteurs pour libérer la parole, c’est-à-dire s’intéresser activement à leurs propos et tenter de se mettre à leur place et d’intégrer leur façon de penser. Quand la recherche se passe dans un contexte tendu entre deux groupes, Roer-Strier et Sands (2015) suggèrent également de se positionner en tant qu’expert pour dépasser les jeux politiques entre les acteurs et libérer leur parole.

122

L’entretien étant avant tout un travail de mise à jour d’idées, de souvenirs et d’expériences, la maïeutique socratique reste un modèle à suivre pour tout chercheur en sciences sociales comme nous le rappelle Bourdieu (1996, p. 913) : « le travail “socratique” d’aide à l’explicitation, vise à proposer sans imposer, à formuler des suggestions parfois explicitement présentées comme telles (est-ce que vous ne voulez pas dire que…) et destinées à offrir des prolongements multiples et ouverts au propos de l’enquête, à ses hésitations ou à ses recherches d’expression ».

CONCLUSION La conduite d’entretien est à la fois simple et complexe. Comme toute pratique elle ne se fonde pas uniquement sur une théorie que l’on peut apprendre mais sur des compétences que l’on perfectionne au fur et à mesure du temps. Dans le cadre d’une thèse de DBA, à cet apprentissage s’ajoutent les contraintes professionnelles, ce qui peut limiter la disponibilité nécessaire pour effectuer des tâches chronophages telles que la retranscription ou pour multiplier les entretiens jusqu’à atteindre la saturation théorique nécessaire aux recherches qualitatives. Les doctorants en DBA sont par ailleurs très souvent doublement immergés dans leur objet de recherche, en tant que chercheur et en

L e s e nt r e t i e n s

tant qu’acteur, ce qui leur procure une connaissance précieuse et approfondie des organisations étudiées, mais nécessite aussi en contrepartie une exigence et une rigueur particulières. La clé du succès est de : se positionner dès le début de l’entretien en tant que chercheur, de préparer minutieusement son guide d’entretien pour mieux s’en détacher, d’être empathique et d’adopter une attention positive inconditionnelle, de créer une relation de confiance avec ses interlocuteurs pour libérer leur parole sans jamais oublier d’être ouvert à la recherche de surprises lors des entretiens. Références citées Argyris, C. & Schön, D. (1974), Theory in Practice : Increasing Professional Effectiveness, San Francisco, CA, Jossey-Bass. Bourdieu, P. (1993), Comprendre, in P. Bourdieu (dir.), La misère du monde, Paris, Seuil. Bourdieu, P., Accardo, A. & Balazs, G. (1993), La misère du monde, vol. 476, Paris, Seuil. Bryman, A. & Bell, E. (2015), Business Research Methods, Oxford, Oxford University Press. Chevalier, F. (1991), Cercles de qualité et changement organisationnel, Paris, Economica. Chevalier, F. (2017), La théorisation dans une perspective terrain : le décorticage d’une démarche de recherche, in P. Beaulieu & M. Kalika (dir.), Le projet de thèse de DBA,Caen, Éditions EMS, coll. « Business Science Institute », p. 165-176. De Ketele, J.-M. & Roegiers, X. (1996), Méthodologie du recueil d’informations – Fondements des méthodes d’observations, de questionnaires, d’interviews et d’études de documents, Louvain La Neuve, Belgique, Deboeck Superieur. Evrard, Y., Pras, B. & Roux, B. (1993), Market, Étude de marchés et recherche en marketing, Fondements et méthodes, Paris, Nathan. Flanagan, J. C. (1954), The critical incident technique, Psychological Bulletin, vol. 51, no 4, p. 327-358. Kvale, S. (1996), Interviews : An Introduction to Qualitative Research Interviewing, Thousands Oaks, CA, Sage. Marshall, B., Cardon, P., Poddar, A. & Fontenot, R. (2013), Does sample size matter in qualitative research ? A review of qualitative interviews in IS research, Journal of Computer Information Systems, vol. 54, no 1, p. 11-22.

123

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Meyer, V. (2018), Performance Management : An American Technology in a French Multinational Enterprise Established in China, Thèse de doctorat en sciences de gestion, dirigée par F. Chevalier, HEC Paris. Myers, M. D. & Newman, M. (2007), The qualitative interview in IS research: Examining the craft, Information and Organization, vol. 17, no 1, p. 2-26. Patwardhan, A., Noble, S. M. & Nishihara, C. M. (2009), The use of strategic deception in relationships, Journal of Services Marketing, vol. 23, no 5, p. 318-325. Porter, E.H. (1973/1996), Relationship awareness theory, Manual of Administration and Interpretation, 9 th edition. Carlsbad, CA, Personal Strengths Publishing, Roer-Strier, D. & Sands, R. G. (2015), Moving beyond the “official story”: When “others” meet in a qualitative interview, Qualitative Research, vol. 15, no 2, p. 251-268. Rogers, C. R. (1968/2018), Le développement de la personne, 2e édition, Paris, InterEditions. Saunders, M., Lewis, P. & Thornhill, A. (2012), Research Methods for Business Students, 6 th edition, Harlow, Royaume-Uni, Pearson Education.

124

Shepherd, D. A. & Sutcliffe, K. M. (2011), Inductive top-down theorizing : A source of new theories of organization, Academy of Management Review, vol. 36, no 2, p. 361-380. Strauss, A. & Corbin, J. (1994), Grounded theory methodology, in N.K. Denzin & Y. S. Lincoln (eds.), Handbook of Qualitative Research, Thousand Oaks, CA, Sage, p. 273-285. Thiétart, R. A. (2014), Méthodes de recherche en management, 4 e édition, Paris, Dunod. Yin, R. K. (1994), Case Study Rresearch: Design and Methods, 2nd edition (Applied Social Research Methods Series, 5), Thousand Oaks, CA, Sage. Références pour en savoir plus Mucchielli, R. (2011), L’entretien de face à face dans la relation d’aide, 21e édition, Montrouge, Éditions ESF, coll. « Formation Permanente ».

Cet ouvrage de base, devenu une référence, décrit ce que doit être un bon entretien car l’intention de bien conduire l’entretien ne suffit pas. Il faut une méthode. Didactique, l’ouvrage s’articule autour de deux grandes parties : une partie connaissance

L e s e nt r e t i e n s

du problème et une partie exercices d’application fort utile pour les débutants. Blanchet, A. & Gotman, A. (2005), L’enquête et ses méthodes : l’entretien, Paris, Armand Colin, coll. « Sociologie ».

Comment préparer, réaliser et analyser les entretiens effectués dans le cadre d’une enquête ? Cet ouvrage pose les conditions de validité de la méthode, précise le cadre technique de cette situation particulière d’interrogation et définit les principes de l’analyse des discours produits.

125

CHAPITRE 7. Les études de cas Pierre-Jean Barlatier

Résumé La méthodologie de l’étude de cas est une méthodologie de recherche très prisée en sciences sociales, utilisée pour étudier des phénomènes complexes nouveaux en situation réelle ou étendre les connaissances sur des phénomènes déjà investigués. Les études de cas apportent ainsi une analyse détaillée et en profondeur sur un nombre limité de sujets. L’objectif de ce chapitre est d’apporter un regard éclairé sur cette méthode pour les chercheurs-managers candidats au DBA qui envisagent d’utiliser l’étude de cas dans leur recherche, en expliquant pourquoi et comment utiliser cette méthodologie et en en exposant les avantages et inconvénients. Pour cela nous nous appuyons sur les travaux de chercheurs renommés comme Yin (2003, 2009) ou Stake (1995) pour leurs techniques et recommandations sur la méthodologie de l’étude de cas. Mots-clés : étude de cas, méthodologie, recherche qualitative, design de recherche, courant épistémologique.

Les méthodes de recherche du DBA

126

Les études de cas

INTRODUCTION La méthodologie de l’étude de cas est une méthodologie de recherche mobilisée pour étudier des phénomènes en situation réelle, qu’ils soient nouveaux et/ou complexes ou bien pour étendre les connaissances sur des phénomènes déjà investigués. Les études de cas apportent ainsi une analyse détaillée et en profondeur sur un nombre limité de sujets. Cependant, elle fait souvent l’objet de critiques concernant la généralisation des résultats obtenus en raison du faible nombre de cas étudiés, ou encore sur le manque d’objectivité des chercheurs qui biaiserait les résultats. Pour autant elle reste une méthode très utilisée par les chercheurs en sciences sociales qui publient des études de cas avec tout le soin et la rigueur scientifique requise. L’objectif de ce chapitre est d’apporter un regard éclairé sur cette méthode pour les chercheurs-managers candidats au DBA qui envisagent d’utiliser l’étude de cas pour leur recherche. Nous abordons tour-à-tour les questions fondamentales suivantes : en quoi consiste cette méthode ; pourquoi et comment l’utiliser ; comment bien choisir ses cas ; quelles sont les différentes typologies de catégories de cas ; pourquoi opter pour un design de recherche d’étude de cas simple ou multiples ; pour finir en en exposant les avantages et inconvénients. Pour cela, nous mettons en exergue les techniques et recommandations issues des travaux sur la méthodologie de l’étude de cas de chercheurs renommés comme Yin (2003, 2009) ou Stake (1995).

1. QU’EST-CE-QUE LA MÉTHODE DES ÉTUDES DE CAS ? L’étude de cas est une approche méthodologique qui vise systématiquement la collecte suffisante d’informations sur une personne, un événement ou un système social (groupe d’individus ou organisation) afin de permettre au chercheur de comprendre comment celui-ci fonctionne ou se comporte en situation réelle (Berg, 2000). Les études de cas rigoureuses permettent aux chercheurs d’explorer ou de décrire un phénomène dans son contexte en utilisant diverses sources de données. Ainsi, les

127

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

études de cas peuvent s’intéresser à un individu, un groupe, ou une organisation, par la collecte et l’analyse de récits de vie, de documents écrits, de biographies, d’interviews, ou encore d’observation participante qui servent à la déconstruction et à l’inhérente reconstruction du ou des phénomènes complexes étudiés (Yin, 2003). De ce fait l’étude de cas n’est pas une technique de collecte de données en soi, mais une approche méthodologique qui s’accommode d’un certain nombre de dispositifs de collecte de données. Quelles que soient la ou les techniques de recueil employées, les informations collectées sont en général riches et détaillées. La méthode des études de cas est aussi considérée comme design de recherche « naturaliste » (Lincoln & Guba, 1985), le plus souvent de nature qualitative, en contraste aux designs de recherche « expérimentaux » où les chercheurs ont un contrôle sur l’environnement et/ou les variables (comme les essais cliniques en laboratoires), alors que les études de cas s’intéressent à des phénomènes en situation réelle et non contrôlée.

128

La méthode de l’étude de cas est une méthode de recherche éprouvée et ancienne, notamment dans les domaines de la médecine ou des sciences sociales comme la psychologie, où les patients sont étudiés cas par cas. En sciences de gestion et des organisations, il est important d’éviter toute confusion entre l’approche pédagogique par les études de cas initiée par la Harvard Business School dès les années 1920, qui sont généralement utilisées afin d’aider les étudiants à mieux appréhender les théories et concepts à la lumière de cas concrets et pratiques ; et la méthodologie de recherche de l’étude de cas.

2. POURQUOI UTILISER LA MÉTHODE DE L’ÉTUDE DE CAS ? Selon Yin (2003, 2009) la méthode de l’étude de cas peut être utilisée afin d’expliquer, de décrire ou d’explorer des évènements ou des phénomènes dans leur contexte réel. C’est une approche différente de celle des designs expérimentaux contrôlés où les chercheurs testent des hypothèses en conditions cliniques de

Les études de cas

laboratoire, qui leur permettent de manipuler l’environnement délibérément. Selon Yin (2003, 2009), le recours à la méthode de l’étude de cas est pertinente lorsque certaines conditions sont réunies : –– l’étude doit répondre à des questions de recherche du type « quoi », « comment » et « pourquoi » ; –– le chercheur ne peut pas manipuler le comportement des informants impliqués dans l’étude ; –– le chercheur traite des facteurs contextuels du phénomène étudié qui semblent pertinents ; –– les limites entre le phénomène étudié et son contexte ne sont pas claires. Siggelkow (2007) distingue quant à lui trois grands usages de la méthodologie des études de cas : (i) la motivation d’étudier une question de recherche importante à la lueur d’un cas particulièrement intéressant ; (ii) l’inspiration de nouvelles idées générées par l’immersion dans un cas riche grâce à une approche inductive ; et (iii) l’illustration d’une théorie par un cas à valeur ajoutée, qui va apporter de nouveaux éclairages. La méthode des études de cas peut être appréhendée de différentes manières en fonction de l’approche épistémologique pertinente. Il existe traditionnellement deux grands courants épistémologiques de la méthode des études de cas en sciences sociales (et a fortiori en sciences de gestion et des organisations). La première est proposée par des auteurs comme Stake (1995) et Merriam (2009) et se situe dans un paradigme socio-constructiviste ou interprétatif, où le chercheur a une interaction personnelle avec le cas. Ici, l’étude de cas est développée dans une relation entre le chercheur et ses informants, et est présentée de manière à inviter le lecteur à rejoindre cette interaction dans la découverte du cas (Stake, 1995). La seconde approche développée par des auteurs comme Yin (2003 ; 2009) ou Eisenhardt (1989) s’inscrit davantage dans un paradigme post-positiviste, qui implique le développement d’un protocole d’étude soigné et qui considère avec attention la va-

129

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

lidité des résultats obtenus et ses éventuels biais. En général cette approche implique un construit conceptuel préalable et/ou une phase exploratoire ou pilote et assure que tous les éléments du cas soient décrits et analysés convenablement. Pour autant, les chercheurs tenants de ces deux principaux courants ont contribué ensemble à développer la popularité de la méthode des études de cas et des principes qui caractérisent cette méthodologie. Pour une revue détaillée des différentes approches épistémologiques mobilisées par les études de cas nous invitons le lecteur à consulter l’article d’Avenier et Thomas (2015).

3. COMMENT BIEN CHOISIR SON OU SES CAS ?

130

Il est primordial de pouvoir formuler une question de recherche convaincante au regard de l’état des connaissances sur le thème, avec une première appréciation des enjeux théoriques mais surtout managériaux pour un candidat en DBA, et de vérifier la pertinence du ou des cas envers ce thème. Chaque cas doit être clairement défini, dans sa nature, son espace et son temps, ce qui signifie que le périmètre temporel (début et fin du cas) et spatial (zone géographique, organisation, groupe social, etc.) ainsi que les types de données et les priorités et difficultés relatives à la collecte et l’analyse de données doivent être connus afin d’opter pour l’approche méthodologique appropriée. Le tableau 1 détaille quelques éléments proposés par Stake (1995) qui peuvent servir à évaluer la pertinence et l’adéquation du cas à la problématique de recherche retenue.

Les études de cas

Tableau 1. Évaluation de la pertinence du cas proposé (adapté de Stake, 1995) Communication

Clarté : Est-ce qu’on comprend bien le cas ? Intégrité : Est-ce que ses composantes s’assemblent bien ? Attrait : Est-ce que cela pique l’intérêt du lecteur ?

Contenu

Le cas : Est-il adéquatement défini ? La problématique : Est-ce que les principales questions de recherche sont bien identifiées ? Les données : Est-ce qu’il y a suffisamment de sources de données ?

Méthode

Sélection des cas : La stratégie de sélection est-elle raisonnable ? Collecte des données : Est-ce que les activités de collecte de données sont abordées ? Validation : Existe-t-il un besoin ou des opportunités de triangulation des données ?

Aspects pratiques

Accès : Est-ce que toutes les conditions sont réunies pour commencer la collecte sur le terrain ? Confidentialité : Quelle est la sensibilité à la protection de l’anonymat ? Coûts : Est-ce que les estimations en temps et en ressources sont raisonnables ?

4. QUELLES SONT LES DIFFÉRENTES CATÉGORIES D’ÉTUDES DE CAS ? Il existe différentes catégories d’études de cas dont le choix va être guidé par la nature de la question de recherche et le périmètre de l’étude. Les typologies les plus utilisées sont probablement celles de Yin (2003, 2009) et Stake (1995), qui sont résumées dans le tableau 2.

131

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Tableau 2. Les différentes catégories d’études de cas selon Yin (2003, 2009) et Stake (1995) Yin (2003, 2009) Explicatif (explanatory)

Descriptif (descriptive)

Étude de cas qui Étude de cas utilisée adresse une probléma- pour décrire un phénotique visant l’explicamène et son contexte. tion de liens causaux présumés entre phénomènes complexes.

Exploratoire (exploratory) Étude de cas qui explore un phénomène représentant un point d’intérêt pour le chercheur et qui vise la découverte de nouvelles causalités et/ou résultats.

Stake (1995)

132

Intrinsèque (intrinsic)

Instrumental (instrumental)

Collectif (collective)

Approche qui vise tout d’abord une meilleure compréhension du phénomène incarné dans le cas, pour un cas particulier ou unique pour le chercheur, sans chercher a priori à en généraliser les résultats (même si cela peut représenter une option selon Stake).

Approche qui vise essentiellement à résoudre un problème ou contribuer à la théorie. Ici le cas est un accessoire, un instrument qui sert un objectif supérieur. Évidemment, le cas doit être analysé avec la rigueur nécessaire mais il sert avant tout à la poursuite d’un intérêt externe au cas lui-même.

Approche qui implique l’étude de plusieurs cas simultanément ou séquentiellement, afin de produire des résultats généralisables à une plus grande population.

5. LE DESIGN DE LA RECHERCHE : ÉTUDE DE CAS SIMPLE OU ÉTUDE DE CAS MULTIPLES ? Au-delà des différentes catégories d’étude de cas, le chercheur doit choisir entre un design de recherche avec un cas unique ou comportant plusieurs études de cas. À l’évidence, le choix d’une catégorie propre au design de la recherche va conditionner le nombre de cas à investiguer. Il est certain que s’intéresser à un cas exploratoire unique implique un design de recherche comportant un seul cas alors qu’il est plus approprié (et prudent) d’étudier plusieurs cas lorsque l’objectif de la recherche est davantage la compréhension d’un phénomène qui vise à être généralisé. La sélection d’un ou plusieurs cas est un élément clé de

Les études de cas

la recherche. Le choix du design d’une étude de cas simple se justifie par différentes raisons (Yin, 2009) : (a) l’étude d’un cas critique, pour éprouver une théorie par exemple ; (b) d’un cas unique ou extrême, si rare qu’il mérite d’être analysé et connu ; (c) d’un cas représentatif ou typique, qui peuvent être informatifs sur des situations communes ; (d) d’un cas révélateur, qui donne ainsi l’opportunité d’observer et d’analyser un phénomène préalablement inaccessible ; et enfin : (e) d’un cas longitudinal, qui étudie l’évolution d’un phénomène sur plusieurs périodes de temps. Selon Yin (2009) ce sont les cinq principales raisons de sélectionner une étude de cas simple, outre l’étude de cas pilote, préalable à d’autres investigations, qui ne constitue pas une étude achevée en soi. De plus, une étude de cas simple peut être soit holistique (holistic) et comprendre une seule unité d’analyse, soit comprendre plusieurs unités d’analyse encastrées (embedded). Par exemple, une étude de cas peut s’intéresser à une industrie (comme le secteur automobile, l’énergie ou l’environnement…), ainsi qu’à une ou plusieurs entreprises de cette industrie (Renault, Engie, etc.). Ce type d’étude de cas implique donc deux niveaux d’analyse et accroît par conséquent la complexité et la quantité de données à collecter et analyser. L’analyse dans ce design de recherche peut porter sur les sous-unités étudiées séparément (dans notre exemple différentes entreprises d’une même industrie), ou encore effectuer des comparaisons entre ces sous-unités. Cependant, un même travail de recherche peut contenir plusieurs études de cas. Il s’agit alors d’un design d’étude de cas multiples. Ces designs de recherche sont de plus en plus fréquents mais requièrent davantage de temps et de travail. Une étude de cas multiples comprend comme unités d’analyse plusieurs cas individuels qui peuvent être soit des cas holistiques soit des cas encastrés. Pour Yin (2009), l’usage d’étude de cas multiples doit suivre une logique de réplication (replication) et non pas d’échan-

133

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

tillonnage statistique, et chaque cas doit être soigneusement sélectionné à cette fin. Les cas ainsi choisis doivent conduire à des résultats soit similaires (réplication littérale) soit contrastés mais pour des raisons préalablement connues (réplication théorique). Chaque cas est ainsi traité comme une expérimentation à part entière. La figure 1 expose ces différents designs de recherche. Figure 1. Les différents designs de recherche d’étude de cas selon Yin (2009)

134

6. AVANTAGES ET INCONVÉNIENTS DES ÉTUDES DE CAS La méthode de l’étude de cas présente un certain nombre d’avantages et points forts pour un manager-chercheur. Premièrement, la collecte et l’examen des données s’effectuent la plupart du temps au plus proche du terrain, c’est-à-dire au cœur du phénomène étudié. Cela permet d’avoir un accès privilégié à des données riches, en contexte réel, ce qui contraste avec l’approche expérimentale de laboratoire qui se concentre sur l’examen d’un nombre limité de variables. Ainsi, cette méthodologie est particulièrement appropriée pour l’analyse de phénomènes complexes, en situation réelle, qui ne pourraient

Les études de cas

être correctement analysées par les méthodes expérimentales cliniques. Deuxièmement, même si l’on associe le plus souvent la méthodologie de l’étude de cas à une stratégie de recherche qualitative, celle-ci permet d’utiliser des méthodes de traitement de données qualitatives et/ou quantitatives (voir Partie 3 de cet ouvrage : Analyser les données du terrain, ainsi que Miles et al., 2014). En dépit de ses qualités, la méthodologie de l’étude de cas fait également l’objet de certaines critiques et pièges à éviter. Une première grande critique envers la méthode concerne la généralisation scientifique des résultats. En effet, étant donné que selon cette méthode la création de connaissances porte sur une seule ou quelques unités d’analyse, comment alors prétendre à une généralisation des résultats ? Selon Eisenhardt (1989) et Yin (2003, 2009) les résultats issus de cette méthode peuvent prétendre à une généralisation théorique ou analytique des résultats, c’est-à-dire de généraliser un ensemble de résultats envers une théorie plus large, ou encore la formulation de nouvelles théories qui ne prétendent pas au statut de théories « universelles » mais plus modestes, relatives à une population spécifique (Eisenhardt, 1989). En revanche il n’est pas question ici de généralisation statistique, comme celle que l’on trouve dans les résultats issus d’analyses statistiques de questionnaires qui visent une représentation fidèle d’une population sur une base d’échantillonnage adéquate. Une seconde critique généralement adressée à la méthode des études de cas est celle d’un manque de rigueur souvent reproché, sur base de résultats équivoques ou biaisés. Une troisième difficulté inhérente à la méthode de l’étude de cas est liée à la quantité de données collectées à traiter, notamment dans le cas d’études de cas longitudinales ou ethnographiques, ou encore dans les études de cas multiples. Cette difficulté survient lorsque les données ne sont pas systématiquement gérées et organisées par le chercheur qui se retrouve dans une situation de saturation vis-à-vis du volume de données à analyser. Ce volume de données, conjugué avec les restrictions de temps et

135

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

ressources, peuvent négativement impacter la profondeur et la finesse de l’analyse. Cela met en évidence l’importance pour le chercheur de résister à la tentation d’accumuler le plus de données possible sans réfléchir au temps adéquat à consacrer à l’analyse et à l’interprétation des résultats issus des données. En guise de synthèse, nous proposons le tableau suivant, issu des travaux de Stake (1995), qui expose les principaux écueils et les actions requises pour les éviter ou les atténuer. Tableau 3. Les principaux écueils et solutions ou actions atténuantes selon Stake (1995) Principaux écueils Sélection/conceptualisation de mauvais cas conduisant à un manque de généralisations théoriques

Solutions ou actions atténuantes Approfondir les connaissances théoriques et empiriques sur le thème, justifier les choix faits

Collecte d’un volume trop imporAligner la collecte de données avec tant de données non pertinentes ou la question de recherche, en restant insuffisant flexible et ouvert sur d’autres pistes à explorer

136

Définir/circonscrire le(s) cas

Se concentrer sur les liens des composantes du cas (temps et/ou espace), être clair sur ce qui est en dehors du cas

Manque de rigueur

Triangulation, validation des répondants, utilisation d’un échantillonnage théorique, transparence du processus de conduite de la recherche

Problèmes éthiques ou moraux

Anonymisation des informants afin d’éviter toute identification, consentement des participants

Intégration avec le cadre théorique

Permettre l’émergence de pistes de recherche inattendues, ne pas forcer l’adéquation, vérifier les explications préliminaires, être clair et cohérent avec l’orientation épistémologique choisie

Les études de cas

CONCLUSION La méthodologie de l’étude de cas permet d’étudier de manière scientifique un phénomène singulier ou complexe dans son contexte réel, en répondant aux questions du type « pourquoi ? » et « comment ? ». Elle permet de collecter des données variées et de les faire analytiquement converger pour mettre en valeur les enseignements du ou des cas. Ce n’est pas une méthode de recherche uniquement portée sur l’exploration d’un phénomène mais sur une meilleure compréhension des comportements des sujets étudiés. C’est une méthode de recherche naturellement proche du terrain, et donc de ce fait particulièrement appropriée et prisée des chercheurs-managers candidats au DBA. En général le chercheur-manager qui opte pour cette méthodologie de recherche pour son travail de DBA va bénéficier de son accès privilégié à des données issues du terrain mais risque probablement de connaître davantage de difficultés d’objectivité et de prise de recul sur la pratique. Pour réaliser une « bonne » étude de cas il n’est pas seulement nécessaire de faire preuve de rigueur scientifique, mais d’apporter un éclairage théorique et managérial nouveau, capable de provoquer un échange intellectuel, de changer la manière actuelle de penser le phénomène étudié. Et en ce sens, la double compétence des chercheurs-managers est un atout majeur pour cela. Références citées Avenier, M.-J. & Thomas, C. (2015), Finding one’s way around various methodological guidelines for doing rigorous case studies: a comparison of four epistemological frameworks, Systèmes d’Information et Management, vol. 20, n° 1, p. 61-98. Berg, B.L. (2000), Qualitative Research Methods for the Social Sciences, 4th edition, Boston, MA, Allyn & Bacon. Eisenhardt, K.M. (1989), Building theories from case study research, Academy of Management Review, vol. 14, n° 4, p. 532-550. Lincoln, Y. & Guba, E. (1985), Naturalistic Inquiry, Newbury Park, CA, Sage Publications. Merriam, S.B. (2009), Qualitative Research: A Guide to Design and Implementation, San Francisco, CA, John Wiley & Sons.

137

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Miles, M.B., Huberman, A.M. & Saldaña, J. (2014), Qualitative Data Analysis, A Methods Sourcebook, 3 rd edition, London, Sage Publications. Stake, R.E. (1995), The Art of Case Study Research, London, Sage Publications. Siggelkow, N. (2007), Persuasion with case studies, Academy of Management Journal, vol. 50, n° 1, p. 20-24. Yin, R.K. (2003), Case Study Research, Design and Methods, 3 rd edition, London, Sage Publications. Yin, R.K. (2009), Case Study Research, Design and Methods, 4th edition, London, Sage Publications. Références pour en savoir plus Dumez, H. (2016), Méthodologie de la recherche qualitative. Les questions clés de la démarche de recherche compréhensive, 2e édition, Paris, Vuibert.

Ouvrage francophone de référence sur le design de la recherche qualitative en management.

138

Eisenhardt, K.M. & Graebner, M.E. (2007), Theory building from cases : Opportunities and challenges, Academy of Management Journal, vol. 50, n° 1, p. 25-32.

Dans cet article les auteurs exposent une série de recommandations pour définir un design de recherche rigoureux d’études de cas. Gioia, D.A., Corley, K.G. & Hamilton, A.L. (2012), Seeking qualitative rigor in inductive research : Notes on the Gioia methodology, Organizational Research Methods, vol. 1, p. 15-31.

Dans cet article les auteurs proposent une méthodologie de structure d’analyse de données qualitatives rigoureuse qui permet de renforcer la fiabilité de la recherche effectuée selon une approche inductive. Ragin, C.C. (1987), The Comparative Method : Moving Beyond Qualitative and Quantitative Strategies, Berkeley & Los Angeles, CA, London, Royaume-Uni, University of California Press.

Ouvrage fondateur de la méthode d’analyse qualitative comparative (QCA – Qualitative Comparative Analysis).

Les études de cas

Thiétart, R.-A. (dir.) (2014), Méthodes de recherche en management, 4 e édition, Paris, Dunod.

Ouvrage francophone de référence sur le design de la recherche en management.

139

CHAPITRE 8. La méthode ethnographique Fatou Diop Sall

Résumé L’objet de ce chapitre est de décrire la méthode ethnographique en mettant l’accent sur sa démarche très pratique en Executive DBA. La méthode ethnographique est une méthodologie qualitative qui permet de réaliser une étude descriptive et analytique des traditions, us, coutumes et mœurs de populations déterminées. Elle permet de collecter des données ou informations dans un système complexe pour comprendre la dynamique autour des objets. Aujourd’hui pour comprendre la complexité des sociétés, communautés et comportements des individus, la méthode ethnographique est conseillée comme outil et démarche d’approche de terrain de recherche en sciences sociales, humaines et de management. Mots-clés : méthode ethnographique, méthodologie qualitative, collecte de données, terrain, Executive DBA.

Les méthodes de recherche du DBA

140

L a m é t h o d e e t h n o g ra p h i qu e

« L’éducation est la plus puissante des armes que l’on peut utiliser pour changer le monde. » Nelson Mandela (1918-2013)

INTRODUCTION Depuis longtemps, les comportements dans les sociétés ont été un objet de recherche pour les sociologues, les psychologues, les anthropologues, les historiens. Pour les sociologues comme Émile Durkheim (1912), il faut comprendre la société dans son ensemble, considérée comme « une réalité fondamentale » qui est une abstraction métaphysique, une entité mystique. Alors que, pour l’ethnologue Marcel Mauss (1947), la société est considérée comme un groupe social vivant habituellement dans un lieu déterminé possédant une langue, une structure et des traditions qui lui sont propres. Pour comprendre la complexité de cette société, la méthode ethnographique est utilisée comme outil et démarche d’approche du terrain dans les recherches en sciences sociales et humaines. Pour Karl Popper (1963), il faut partir du terrain qui donne une représentation des faits, phénomènes et comportements qu’il qualifie de mondes réels dans sa vision des mondes scientifiques. La méthode ethnographique est une méthode de la science de l’anthropologie dont l’objet est l’étude descriptive et analytique, sur le terrain, des mœurs et des coutumes de populations déterminées. En tant que sciences des faits, la méthode ethnographique a été pratiquée dans les travaux portant par exemple sur les études des peuples africains. La méthode permet de comprendre des phénomènes difficilement quantifiables. Contrairement aux socio-ethnographes qui partent du point de vue fondamental que l’objet de la recherche ethnographique c’est la société dans son ensemble, le management se limite à des catégories d’individus dans la société. En marketing, cette méthode a été d’un grand apport pour comprendre les comportements des consommateurs de plus en plus diffus et très difficiles à maîtriser. Diffus à l’échelle internationale puisque les cultures sont différentes ; mais aussi à l’échelle nationale, voire régionale, parce que les traditions, us et coutumes diffèrent. L’ethnographie permet de récolter des informations dans un système complexe, pour comprendre la dynamique

141

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

autour des objets. Il s’agit de mieux comprendre les comportements des individus, de manière qualitative pour ensuite concevoir des stratégies adaptées dans les organisations où existent des dynamiques de plus en plus complexes et spécifiques. L’objet de ce chapitre n’est pas d’analyser la théorie sur la méthode ethnographique ou sur sa conception méthodologique, mais de mettre l’accent d’abord sur la description de la méthode puis sur sa pratique, son application.

1. LA MÉTHODE ETHNOGRAPHIQUE COMME OUTIL DE COLLECTE DES DONNÉES DE TERRAIN Dans cette section, nous allons décrire la méthode ethnographique et son introduction dans les sciences de management puis nous procédons à une présentation des différents outils de collecte de données utilisés dans le cadre de la recherche ethnographique.

142

1.1. Description de la méthode et son introduction en sciences de management Les premiers auteurs qui se sont intéressés à la méthode sont des sociologues ethnographiques (Durkheim, 1912 ; Mauss, 1947 ; Griaule, 1957). Pour eux l’objectivité, la bonne foi, l’exactitude, la plénitude dans l’enregistrement et la description des faits sont des conditions absolument indispensables pour la recherche ethnographique. La recherche ethnographique ne cherche pas seulement à décrire des faits, sinon elle ne serait « qu’une pure passion de collectionner des faits disparates et isolés » (Griaule, 1957, p. 593). Elle cherche à comprendre et expliquer les faits, phénomènes et comportements dans la société, les organisations, le milieu des affaires ou du travail. Depuis déjà plusieurs années en sciences de l’anthropologie comme en sciences de management, les chercheurs ont utilisé des méthodes telles que les groupes de discussion dans une salle de réunion pour comprendre les comportements des individus.

L a m é t h o d e e t h n o g ra p h i qu e

Encadré 1. Exemple de groupe de discussion Le groupe de discussion est organisé dans une salle aménagée et comprend entre 13 à 17 personnes. Les discussions de groupe portent sur un thème et permettent de faire émerger les préjugés freinant le changement d’attitudes. Le groupe est organisé autour d’un modérateur-facilitateur de la discussion, de la résolution du conflit et/ou de la prise de décision. Les interactions entre les membres du groupe et les comportements de chacun sont généralement effectués par un observateur muni ou non d’une grille d’observation (Evrard et al., 2000, p.102).

Aujourd’hui, les comportements des individus dans une société sont devenus plus complexes et les méthodes de groupe de discussion ne sont plus assez pertinentes pour analyser les phénomènes. En effet, avec la méthode du groupe de discussion, le chercheur se contentait plus d’interroger des individus dans des locaux aménagés à cet effet. Le chercheur qui utilise la méthode ethnographique ne peut plus se limiter à étudier des comportements dans les locaux, il se déplace sur le terrain dans le milieu naturel des individus (personnes cibles) pour les regarder agir et observer ainsi des comportements qu’il ne pouvait pas voir dans les locaux aménagés. Les comportements sont, dans ce cas, beaucoup plus naturels et donc proches de la réalité. De plus, ces comportements permettent de faire réagir l’ethnographe, de discuter et de rebondir sur de nouvelles choses. Encadré 2. Exemple d’étude ethnographique Ici le fabricant d’une marque d’aspirateur veut comprendre l’usage fait de son produit et les conditions d’utilisation avant sa mise en marché. Le chercheur se rend chez un particulier qui fait partie de sa cible. Il observe l’hygiène de la maison, le particulier faire son ménage et observe notamment l’utilisation qui est faite de l’aspirateur.

Cette étape exploratoire est déterminante pour comprendre des comportements. Ainsi, la compréhension des comportements des individus est donc devenue essentielle en amont de la conception des produits. Les entreprises ne se placent donc plus seulement du côté de l’offre, mais désormais du côté de la demande.

143

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

1.2. Les ethnoétudes pour recueillir des données empiriques Les recherches ethnographiques en sciences de management portent sur des pratiques marchandes (vente, achat, consommation) et non marchandes (travail, pratiques sociales et sociétales) propres à chaque individu, communauté ou société. Il existe différents outils pour réaliser ce type d’études, tous intéressants et surtout complémentaires.

L’observation participante Le chercheur est un « participant complet », lorsqu’il participe comme acteur à la situation étudiée. Dans ce cas, le chercheur ne notifie pas aux sujets observés son rôle de chercheur. L’objectif de cette démarche est de partager l’expérience de l’individu en action. L’observation est alors dissimulée. Encadré 3. Exemple d’observation complète

144

Le chercheur qui veut comprendre le travail des mineurs intègre le groupe de mineurs en tant que nouvelle recrue. Il observe comment les mineurs travaillent tout en étant des leurs. Il dissimule son identité de chercheur, il est connu et accepté dans le groupe comme mineur.

Cette technique de collecte de données rencontre quelques limites. En adoptant une observation « dissimulée », le chercheur peut difficilement approfondir ou recouper ses observations par d’autres techniques comme l’entretien. Le chercheur court également le risque rédhibitoire d’être découvert. Il doit utiliser des méthodes d’enregistrement des données pour éviter toute détection (Bouchard, 1976). La position du chercheur par rapport au terrain est rigide. La technique de collecte pose des problèmes éthiques (Punch, 1986). Le chercheur ne peut s’appuyer sur le simple argument de la collecte de « données réelles » (Lincoln & Guba, 1985). Le chercheur peut être un « participant observateur ». Dans ce cas, le chercheur notifie clairement aux sujets à interroger son statut de chercheur et son appartenance à l’organisation. Il déclare son rôle de chercheur et observateur. Lorsque le chercheur

L a m é t h o d e e t h n o g ra p h i qu e

opte pour ce type de collecte de données, sa position présente un compromis. Le chercheur dispose d’un plus grand degré de liberté pour mener ses investigations. Contrairement à l’observation « dissimulée », il peut compléter ses observations par des entretiens. Il s’expose néanmoins à la réactivité des sujets, car il est mandaté au sein de l’organisation. Il n’est pas dans une position neutre vis-à-vis des sujets et ces derniers peuvent activer des mécanismes de défense à l’égard de l’investigation ou de résistances à la divulgation de certaines informations. Encadré 4. Exemple d’observation « déclarée »  Un salarié d’une organisation qui décide de s’engager dans un travail de recherche. Son statut de membre de l’organisation prédomine sur son rôle de chercheur. Le conflit de rôles qui en découle peut rendre difficile le maintien de sa posture de chercheur sur le terrain.

Dans le cas où le chercheur est un « observateur qui participe ». Sa participation à la vie de l’organisation étudiée reste marginale et son rôle de chercheur est clairement défini auprès des sujets. Le chercheur risque alors de rencontrer des résistances chez les acteurs observés au début de sa recherche. Toutefois, ces résistances peuvent se réduire avec le temps et le chercheur peut être en mesure d’accroître sa capacité d’observation. C’est le comportement du chercheur qui sera ici déterminant. Pour peu qu’il réussisse à créer une relation de confiance avec les sujets, il dispose d’une plus grande latitude pour compléter l’observation par des entretiens et pour maîtriser ses sources de données. L’élément clé ici réside dans le maintien d’une neutralité à l’égard des sujets. Encadré 5. Exemple d’observation participante Le chercheur est d’abord acteur dans l’institution où il exerce une fonction. Ensuite, il doit étudier une situation dans laquelle il participe. En effet, il part d’un rôle statutaire et permanent d’acteur et il lui faut accéder au rôle de chercheur.

L’intérêt de l’observation participante est, selon Bryman (1989, p. 142), plus de comprendre (ce qui suppose une empathie avec une capacité de voir les choses du dedans) que de simplement expliquer (ce qui renvoie à une analyse causale en extériorité) les

145

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

comportements subtils des acteurs, au sein d’organisations ou de situations complexes. Il faudra avec cette technique de collecte de données, veiller à ce que l’implication ne l’emporte pas sur la distanciation qui définit la posture même du chercheur (Lapassade, 1996, p. 53).

L’observation non participante Elle est une étape élémentaire de l’approche terrain, elle est destinée à collecter des données préliminaires sur le terrain (Evrard et al., 2000). Elle peut être également comme une source de collecte de données complémentaires (Yin, 1990). Encadré 6. Exemple d’observation non systématique

146

Lors des visites sur le terrain pour y conduire des entretiens, le chercheur peut observer des indicateurs (le climat social de l’organisation, l’appauvrissement de l’organisation, les pratiques courantes, etc.), qu’il va inclure dans sa base de données. Il pourra y ajouter des indicateurs non verbaux émis par les sujets lors de la conduite d’entretiens (gestes, relations interpersonnelles, ton, regards, etc.).

Dans l’observation systématique, le chercheur mène des observations en adoptant tout au long du recueil de données, un même dispositif de collecte et d’analyse. Les éléments observés doivent être définis au préalable. Ce mode de collecte impose de développer et de valider un cadre standard d’observations avant de recueillir les données qui vont servir de base empirique à la recherche (Bouchard, 1976). Encadré 7. Exemple d’observation systématique Le chercheur doit définir un cadre d’observation systématique qui repose sur trois critères déterminants : d’abord, les catégories retenues doivent respecter des règles d’attribution exclusive, d’exhaustivité, d’homogénéité et de pertinence. Ensuite, le chercheur doit retenir des unités de découpage et d’enregistrement. Il doit également établir un plan d’échantillonnage et enfin définir un plan d’analyse des données.

L a m é t h o d e e t h n o g ra p h i qu e

La tenue de journaux de bord Le journal de bord permet de constituer la mémoire vive de l’étude de terrain et de retrouver lors de l’analyse des données, l’atmosphère du site et de l’évènement. Le journal de bord permet de mémoriser tout ce qu’on observe sur le terrain. Exemple d’éléments indispensables pour la tenue d’un journal de bord : lorsque le chercheur est l’enquêteur, il doit se munir d’un carnet pour une prise de notes sur les faits observés. Il doit prendre de nombreuses notes lors des séquences d’observation. L’utilisation d’un carnet de notes classique est conseillée. Il permettra de réaliser des croquis, de décrire certaines choses, de réaliser des préanalyses, des renvois théoriques et surtout de laisser une trace des réactions lors des premiers contacts.

L’introspection Dans l’objectif de recueillir des « verbatim » pour compléter la compréhension du phénomène, le chercheur ne se satisfait pas de sa seule interprétation du comportement constaté, il convoque l’intéressé pour lui faire raconter son interprétation de son comportement observé. Cela pour limiter le risque de surinterprétation des données. On peut notamment avoir recours aux récits de magasinage ou de consommation introspective. Ces récits permettront de connaître l’état intime et les sentiments profonds du consommateur durant l’expérience. Encadré 8. Exemple d’introspection  Le chercheur peut s’inscrire sur un forum ou aller sur des blogues sur internet pour regarder ce qui est raconté. Ces forums et blogues sont devenus des sources d’informations pour compléter les observations participantes ou non participantes. Leur accès facile fait qu’ils sont très utilisés par les internautes.

La prise de photographies ou vidéos La photographie est aussi un excellent moyen de capture d’information et permet d’avoir un visuel toujours accessible après l’étude de terrain. À la fois pour réaliser l’analyse d’une manière précise au calme après l’observation. Il permet aussi de décou-

147

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

vrir éventuellement des détails qui auraient pu échapper au premier coup d’œil au chercheur. On l’utilise généralement pour décrire des points de vente, du personnel, des clients et des consommateurs (habillement, postures, comportements, équipements, ustensiles, etc.). Les photos ou vidéos ne peuvent être la seule base d’une interprétation approfondie, elles doivent être accompagnées de notes. Il faudra aussi veiller à ne pas privilégier la dimension esthétique à la seule observation en produisant, par là même, des effets de biais. Encadré 9. Exemple de cas de prise de photographie accompagnée de notes Un chercheur qui fait une étude sur l’histoire des supports de stockage des informations. Il part des supports traditionnels : tableau blanc (ou noir), les blocs-notes, les autocollants (avec des photos à l’appui) et les comparent aux supports modernes de stockage de données avec l’arrivée d’internet : courriels, Facebook, Twitter, Dropbox, etc.

148

Encadré 10. Exemple Le chercheur utilise une caméra pour filmer les pratiques, gestes et comportements avec un crayon à la main et pour observer les gestes, la façon dont les gens utilisent les technologies de l’information et des communications (TIC), dont ils cuisinent, dont ils font le ménage, dont il se comporte sur le lieu de travail, dans un magasin… La caméra sert à archiver toute la panoplie culturelle des gens chez eux ou dans leurs milieux naturels (d’achat, travail, consommation, etc.).

Ici on recherche chez le chercheur, l’adaptabilité, les qualités d’écoute, de curiosité, de réactivité et le bon sens. On lui demande de faire à la fois le terrain et de rédiger des mini rapports. Le chercheur doit être très rapide dans la réflexion et ses actions. Il doit avoir une ouverture d’esprit, une écoute. Au jour le jour, le chercheur doit avoir beaucoup d’intuition, de créativité, de réactivité. La photographie et la vidéo comme matériel de recherche sont désormais très prisées par les ethnographes, car accompagnées de notes, elles permettent de fournir des informations immédiates et disponibles via internet aux entreprises. Cette méthode

L a m é t h o d e e t h n o g ra p h i qu e

comporte deux objectifs précis qui sont le gain de temps (il n’est plus nécessaire d’attendre le retour de l’ethnographe pour avoir les informations) et la possibilité pour l’entreprise d’être interactive avec le chercheur ethnographe et donc de modifier à son souhait son discours initial, si nécessaire.

2. L’APPLICATION ET LA DÉMARCHE DE LA MÉTHODE ETHNOGRAPHIQUE Dans cette section nous allons commencer par présenter les aptitudes du chercheur et la démarche à suivre avant de souligner la pertinence de la méthode en management et ses implications managériales.

2.1. Les aptitudes du chercheur-ethnographe et la démarche à suivre Le chercheur ethnographe doit cultiver un certain nombre d’aptitudes qui lui permet de collecter des données riches et les meilleures sur le terrain. C’est pour cette raison que Woods (1990) affirme que le chercheur ethnographe a plusieurs points communs avec le romancier, l’historien social, le journaliste et le producteur d’émissions de télévision. Selon Woods, le chercheur ethnographe doit être habile dans « l’acuité de ses observations, la finesse de son écoute, sa sensibilité émotionnelle, sa capacité de pénétration des niveaux de réalité, son pouvoir d’expression, son habilité à recréer des scènes et des formes culturelles et à leur « donner vie » et finalement, à raconter une histoire avec une structure sous-jacente ». Pour lui, il ne s’agit pas de lui demander d’écrire des œuvres de fictions « mais de représenter des formes culturelles comme les vivent les protagonistes ». Le travail du chercheur-ethnographe implique de l’empathie, une capacité de « compréhension ». Il lui faut avoir des capacités surtout artistiques (Woods, 1990). Le chercheur doit être une partie intégrante de toute recherche ethnographique. Comme le soulignent Arnould et Wallendorf (1994, p. 485), « la recherche ethnographique implique la participation expérientielle étendue de la part du chercheur dans un contexte culturel spécifique ». Le chercheur a pour objectif de comprendre ce qu’il étudie en

149

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

s’y investissant personnellement. Lorsque le chercheur a identifié le groupe social, la sous-culture ou le territoire qu’il souhaite étudier, il se prépare à s’immerger, de façon plus ou moins profonde, dans le quotidien des individus qui y vivent, tel un plongeur s’apprêtant à découvrir des fonds marins. Encadré 11. Exemple La métaphore chercheur-ethnographe et le plongeur sous-marin : L’immersion de l’ethnographe dans un phénomène qui lui est inconnu peut être comparée à un plongeur se préparant à découvrir de nouveaux trésors dans le fond des océans. À l’image du plongeur qui vérifie les coordonnées de sa zone de plongée sur une carte, l’ethnographe délimite son champ d’études. Quand le plongeur contrôle ses bouteilles, vérifie son masque et son altimètre, l’ethnographe examine son matériel de recherche (carnet de note, appareil photo, dictaphone, stylos ou crayon), planifie et choisit ses outils de collecte de données (observation participante, l’écriture de journaux de bord, l’introspection, le photographie avec prise de notes). La phase de préparation terminée le plongeur et ethnographe peuvent prendre part à l’exercice qui leur incombe, soit s’immerger dans un environnement presque inconnu afin de saisir ce qui en est le cœur et l’essence (Arnould & Wallendorf, 1994).

150

Le chercheur doit développer une intimité avec les acteurs ou sujets du terrain. Son implication personnelle et affective est une condition nécessaire à toute recherche interprétative, la neutralité vis-à-vis du phénomène devient dénuée de sens. Cependant, le chercheur doit être conscient et prêt à gérer les risques qu’engendre cet investissement affectif. Mitchell (1993, cité par Thiétart, 1999, p. 250) expose le « paradoxe de l’intimité ». L’intimité développée par le chercheur avec les acteurs lui ouvre les portes d’informations jusqu’ici inaccessibles. En revanche, cette intimité peut engendrer une prise de position du chercheur vis-à-vis des interviewés qui le limitera dans sa prise de recul et sa vision critique. Ce paradoxe de l’intimité est fonction de deux dimensions : la connaissance du terrain et l’implication affective du chercheur. De ces deux dimensions découle une typologie du rôle du chercheur au sein de son étude (Figure 1). Les questions relatives à la compréhension de pratiques et comportements des individus sont souvent traitées en utilisant la méthode d’investigation comme technique de collecte de données. Toutes les disciplines en management qui ont pour objec-

L a m é t h o d e e t h n o g ra p h i qu e

tifs de comprendre des faits dans un terrain peu exploré peuvent utiliser la méthode ethnographique. Les études culturelles l’ont utilisé dans les recherches systématiques et approfondies ethnographiques de groupements juvéniles en Grande-Bretagne (Blackman, 2005). Les travaux en psychosociologie ont utilisé la méthode ethnographique pour analyser les relations conflictuelles entre parents et enfants (Dion & Sitz, 2013). Lors de son expansion et de son développement, le marketing s’est régulièrement tourné vers les méthodes et les théories des sciences sociales afin de comprendre et d’expliquer davantage les comportements de consommation des individus. Afin de rendre compte de ces pratiques de plus en plus diffuses et complexes (Dion, 2008), les chercheurs en marketing considèrent la méthode ethnographique comme une perspective méthodologique pertinente permettant de comprendre de façon fine les dynamiques consommatoires actuelles. Figure 1. Perception du chercheur en fonction de son implication affective et de sa connaissance du terrain

151

Source : inspirée de Mitchell (1993, cité par Thiétart, 1999, p. 250)

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

2.2. La pertinence de la méthode en management et les implications managériales L’adaptation de la méthode ethnographique à des problématiques marketing s’est faite de multiples façons à partir de phénomènes tels que l’étude de communautés de consommation (Schouten & McAlexander, 1995 ; Bernard, 2004 ; Didry & Giannelloni, 2015), des dimensions ethniques de la consommation (Peñaloza, 1994), des comportements en points de vente (Badot et al., 2009 ; Peñaloza, 1999) ou des dynamiques consommatoires juvéniles (Ezan, 2009 ; Kjelgaard & Askegaard, 2006 ; Ritson & Elliot, 1999).

152

Ces diverses applications illustrent le recours croissant aux approches ethnographiques, dont la « Consumer Behavior Odyssey » de Belk, Wallendorf et Sherry (Belk, 1987 ; Belk et al., 1989) montre que depuis plus d’une dizaine d’années, les travaux de recherche sur le comportement de consommation portent un regard ethnographique et socioculturel sur la consommation contemporaine et partageant la même volonté de mettre à jour les « aspects socioculturels, expérientiels, symboliques et idéologiques de la consommation » (Arnould & Thompson, 2005, p. 868) se regroupent au sein du courant de recherche de la « Consumer Culture Theory » (Arnould & Thompson, 2005). En marketing, les observations des pratiques se font généralement sur les lieux d’achats ou au domicile. Elles sont complétées par des entretiens approfondis avec chaque personne. Les pratiques sont parfois filmées. Le travail du chercheur ethnographe de terrain implique fondamentalement les aptitudes et qualités du chercheur et les observations prolongées faites sur le terrain en participant à la vie des gens. L’entretien ethnographique ne se conçoit pas en général sans dispositif d’observation participante et d’analyse du matériel officiel et personnel (journaux personnels, lettres, autobiographies et récits de vie produits conjointement par le chercheur et le sujet), qui sont indispensables pour les stratégies à mettre en place dans l’organisation. Les résultats obtenus sur le terrain permettent d’orienter la stratégie marketing. Quel marketing relationnel développer ? Dans un contexte d’hyper concurrence et de volatilité des consommateurs, la mise en

L a m é t h o d e e t h n o g ra p h i qu e

place d’une stratégie de marketing relationnel est indispensable pour augmenter la satisfaction de sa clientèle et la fidélisation durable (Woodruff, 1997). L’utilisation de la méthode ethnographique dans les recherches en DBA permet de renforcer la contribution managériale du manager-chercheur.

CONCLUSION Les thèses de DBA doivent avoir un fort ancrage terrain. Une recherche interprétative et qualitative basée sur la méthode ethnographique permet de répondre à l’exigence d’une contribution managériale en Executive DBA. Le positionnement interprétatif permet au manager-chercheur de comprendre les pratiques d’individus dans une organisation ou dans une communauté donnée. La perspective interprétative invite le chercheur « à voir à travers les yeux de l’observé », il doit se rapprocher au plus près de sa cible. L’immersion dans le monde des sujets étudiés devient une condition nécessaire pour le manager-chercheur. Durant la période d’interactions sociales intenses entre le chercheur et les sujets dans le milieu de ces derniers naîtront des résultats à fortes implications managériales. L’intérêt de la méthode est que le manager-chercheur et le sujet qui fait l’objet de l’étude sont impliqués dans la collecte de données. Cette collecte de données peut être réalisée en mode synchrone ou asynchrone. Une thèse de DBA doit créer de la connaissance. Elle doit apporter impérativement une connaissance nouvelle qui sera sa caractéristique, sa contribution. Cette création de la connaissance peut porter sur les concepts, les méthodologies et le champ d’application (Kalika, 2017, p.48). La méthode ethnographique est une méthode très originale qui permet de produire de la connaissance. En effet, lorsque la méthode est appliquée sur un domaine original elle crée de la connaissance. La méthode ethnographique permet de réussir l’approche terrain en permettant au manager-chercheur de s’immerger dans le terrain pour en ressortir avec des résultats originaux, pertinents et utiles pour les managers. Pour cette raison, le manager-chercheur doit maîtriser les outils et méthodes ethnographiques afin de

153

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

se distinguer d’autres types de recherche par la richesse de la confrontation entre les connaissances nourries de réalités de terrain et celles qu’il peut obtenir de terrains fictifs. Références citées Arnould, E. & Thompson, C.J. (2005), Consumer Culture Theory (CCT): Twenty years of research, Journal of Consumer Research, vol. 31, n° 4, p. 868-882. Arnould, E. & Wallendorf, M. (1994), Market-oriented ethnography: Interpretation building and marketing strategy formulation, Journal of Marketing Research, vol. 31, p. 484-504. Badot, O., Carrier, C., Cova, B., Desjeux, D. & Filser, M. (2009), L’ethnomarketing : un élargissement de la recherche en comportement du consommateur à l’ethnologie, Recherche et Applications en Marketing, vol. 24, n° 1, p. 93-111. Belk, R. W. (1987), The role of the odyssey in consumer behavior and in consumer research, Advances in Consumer Research, vol. 14, p. 357-361. Belk, R.W., Wallendorf, M. & Sherry, F. Jr (1989), The sacred and the profane in consumer behavior: Theodicy on the Odyssey, Journal of Consumer Research, vol. 16, p. 1-38.

154

Bernard, Y. (2004), La netnographie : une nouvelle méthode d’enquête qualitative basée sur les communautés virtuelles de consommation, Décisions Marketing, vol. 36, p. 49-62. Blackman, S. (2005), Youth subcultural theory: A critical engagement worth the concept, its origins and politics, from Chicago School to postmodernism, Journal of Youth Studies, vol. 8, n° 1, p. 1-20. Bouchard, T.J. (1976), Field research methods: Interviewing, questionnaires, participant observation, systematic observation, unobtrusive measure, in Dunette M.D. (ed.), Handbook of Industrial and Organisational Psychology, Chicago, Rand McNally college Publishing Co, p. 363-413. Bryman, A. (1989), Quantity and Quality in Social Research, London, Unwin Hyman. Didry, N. & Giannelloni, J.-L. (2015), 14es Journées Normandes de Recherches sur la Consommation : Société et Consommation, 26-27 novembre, Angers. Dion, D. (2008), À la recherche du consommateur : nouvelles techniques pour mieux comprendre le client, Paris, Dunod. Dion, D. & Sitz, L. (2013), Enrichir la compréhension des comportements des consommateurs : pistes opérationnelles et enjeux organisationnels, Décisions Marketing, vol. 71, p. 45-58.

L a m é t h o d e e t h n o g ra p h i qu e

Durkheim, E. (1912/1984), Les formes élémentaires de la vie religieuse, Paris, Presses Universitaires de France. Evrard, Y., Pras, B. & Roux, E. (2000), Market : Études et recherche en marketing, Paris, Dunod. Ezan, P. (2009), De l’intérêt de la méthode ethnographique pour comprendre les pratiques de consommation des enfants, Recherche et Applications en Marketing, vol. 24, n° 4, p. 77-95. Griaule, M. (1957), Méthode de l’ethnographie, Paris, Presses Universitaires de France. Kalika, M. (2017), Comment réussir son DBA ?, Caen, Éditions EMS, coll. « Business Science Institute ». Kjelgaard, D. & Askegaard, S. (2006), The glocalization of youth culture: The global youth segment as structures of common difference, Journal of Consumer Research, vol. 33, p. 231-247. Lapassade, G. (1996), Les microsociologies, Paris, Anthropos. Lincoln, Y.S. & Guba, E.G. (1985), Naturalistic Inquiry, Beverly Hills, CA, Sage. Mauss, M. (1947), Manuel d’ethnographie, Paris, Payot. Popper, K. (1963), Conjectures and Refutations: The Growth of Scientific Knowledge, édition française Payot, 2006. Peñaloza, L. (1994), Border crossings: A critical ethnographic exploration of the consumer acculturation of Mexican immigrants, Journal of Consumer Research, vol. 21 (June), p. 32-54. Peñaloza, L. (1999), Just doing it: A visual ethnographic study of spectacular consumption behavior at Nike Town, Consumption Markets & Culture, vol. 2, n° 4, p. 337-400 Punch, M. (1986), The Politics and Ethics of Fieldwork, Beverly Hills, CA, Sage. Ritson, M. & Elliot, R. (1999), The social uses of advertising: An ethnographic study of adolescent advertising audiences, Journal of Consumer Research, vol. 26, p. 260-277. Schouten, J. W. & McAlexander, J. H. (1995), Subcultures of consumption: An ethnography of the new bikers, Journal of Consumer Research, vol. 22, p. 43-61. Thiétart, R.A. (1999), Méthodes de recherche en management, Paris, Dunod. Woodruff, R.B. (1997), Customer value: the next source for competitive advantage, Journal of Academy of Marketing Science, p. 25-139. Woods, P. (1990), L’ethnographie de l’école, Paris, Armand Colin. Yin, R. K. (1990), Case Study Research, Design and Methods, Newbury Park, CA, Sage.

155

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Références pour en savoir plus

Pour en savoir plus sur la méthode ethnographique vous pouvez consulter les références relatives aux évolutions postmodernes du consommateur ou la revue canadienne Approches Inductives. La méthode ethnographique conduit les chercheurs en Marketing à donner une priorité à la compréhension des changements sociaux et culturels et à s’inscrire dans de nouvelles propositions et de nouvelles pratiques. Ainsi pour répondre à des problèmes sociaux, culturels, le courant dit Consumer Culture Theory (CCT) s’est développé. Beaulieu, P. & Kalika, M. (2017), Le projet de thèse de DBA, Caen, Éditions EMS, coll. « Business Science Institute ».

Les auteurs de l’ouvrage présentent les différents éléments d’un projet de thèse de DBA. Cet ouvrage permet de comprendre les préalables pour le choix d’une méthodologie en rapport avec le sujet choisi, la problématique, les questions et les objectifs de recherche.

156

Caru, A. & Cova, B. (2003), Approche empirique de l’immersion dans l’expérience de consommation : les opérations d’appropriation, Recherche et Applications en Marketing, vol. 18, n° 2, p. 47-65.

Dans l’article les auteurs essaient de comprendre le comportement du consommateur à travers son immersion dans des expériences de consommation. Ils s’appuient sur l’appropriation développée par le consommateur pour accéder à l’immersion. Desjeux, D. (1997), L’ethnomarketing, un nouveau souffle pour les études de comportements des consommateurs, Sciences Humaines, vol. 1, p. 28-39.

L’auteur montre l’importance de l’immersion sur un terrain qui permet de dépasser un certain nombre d’écueils méthodologiques liés aux capacités cognitives du consommateur. Diallo, M.F. & Kaswengi, J. (eds.) (2018), In Times of Crisis : Perspectives and Challenges of the 21st Century, New York, Nova Book Publishers.

Dans l’ouvrage un chapitre traite de l’ethnographie comme une méthode de collecte de données pour comprendre une situation de crise. Le XXIe siècle est caractérisé pour ces situations très complexes.

L a m é t h o d e e t h n o g ra p h i qu e

La revue Approches Inductives dirigée par Jason Luckerhoff, François Guillemette et François Labelle de l’Université du Québec à Trois-Rivières (UQTR) au Canada.

Cette revue développe les nouvelles méthodes de recherche qualitatives dans le but de construire de nouvelles connaissances et des théories émergentes.

157

CHAPITRE 9. Les récits de vie Julia Vincent-Ponroy et Françoise Chevalier

Résumé Parmi les multiples significations qui se cachent derrière l’expression « récit de vie », figure une méthode de recherche en sciences humaines : l’approche biographique. Ce chapitre a pour vocation d’offrir aux doctorants de DBA une vision d’ensemble de ce que sont les récits de vie en tant que méthode, en les resituant dans leur contexte historique et en présentant les enjeux et questionnements épistémologiques auxquels ils sont associés. Ce chapitre pose également les grands principes pouvant aider les chercheurs dans l’utilisation de cette méthode, en pointant du doigt les objets de recherche pouvant être étudiés grâce à l’approche biographique et en offrant des conseils pratiques quant à la conduite de ce type d’enquête. Mots-clés : récit de vie, histoire de vie, approche biographique, méthodes qualitatives, perspective ethnosociologique, narration.

Les méthodes de recherche du DBA

158

Les récits de vie

« Dire l’identité d’un individu ou d’une communauté, c’est répondre à la question : qui a fait telle action ? Qui en est l’agent, l’auteur ? […] Répondre à la question “qui ?”, comme l’avait fortement dit Hannah Arendt, c’est raconter l’histoire d’une vie. » Paul Ricœur (1983, p. 441)

INTRODUCTION Le récit de vie peut être oral ou écrit, formel ou informel, être le lieu d’une quête de soi ou d’une interaction sociale : il est protéiforme. Mais alors, que peut-il y avoir de commun entre les récits de vie que sont une autobiographie ou un entretien accordé à un chercheur en sciences humaines ? Le socle commun à ces pratiques est la narration, par un sujet, de tout ou partie de son histoire personnelle. C’est au récit de vie en tant que méthode de recherche en sciences humaines, utile pour une thèse de DBA, que ce chapitre est dédié. Ce chapitre est divisé en deux parties. La première partie offre une vision d’ensemble du récit de vie : d’abord replacés dans leur contexte historique, les récits de vie sont ensuite définis plus précisément. Un aperçu des enjeux épistémologiques et des questionnements soulevés par les récits de vie en tant que méthode de recherche est proposé. Cette partie se referme sur une réflexion concernant le positionnement du chercheur en sciences humaines lorsqu’il utilise cette méthode. La seconde partie, plus pratique, pointe du doigt le type de phénomènes pouvant être explorés à partir de la méthode des récits de vie avant de donner des éléments de base pour conduire et analyser des récits de vie.

1. LE RÉCIT DE VIE EN SCIENCES HUMAINES : DE QUOI PARLE-T-ON ? 1.1. Le récit de vie en sciences humaines : contextualisation Dans un ouvrage dédié aux histoires de vie1, Pineau et Legrand (2013) dressent la liste des différentes catégories dans les-

1. Bien que des nuances puissent être apportées entre ces expressions, dans un souci de simplicité nous utiliserons indifféremment dans ce chapitre les expressions « récit de vie », « histoire de vie » ou « approche biographique ».

159

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

quelles les histoires de vie – qu’ils définissent comme la « recherche et construction de sens à partir de faits temporels personnels » (p.5) – peuvent s’inscrire. L’origine des récits de vie, sous leur forme écrite, ce sont les bios grecques qui, à partir du IVe siècle, sont utilisées par les philosophes socratiques comme moyen d’accéder à la connaissance de soi, c’est la célèbre maïeutique socratique (Pineau & Legrand, 2013 ; Momigliano, 1991, p. 125). Le récit de soi prend ensuite des formes littéraires : celle de mémoires – où il s’agit pour les auteurs de raconter leur vie publique en insistant sur le contexte historique – ou celle de confessions, suivant la logique chrétienne de l’aveu, comme celles de Saint Augustin au IVe siècle, ou encore celle de la chanson de geste au Moyen Âge. Mais l’apogée littéraire du récit de soi se produit au XVIIIe siècle : la publication, par Jean-Jacques Rousseau de ses Confessions (1782) marque l’avènement de l’autobiographie comme genre littéraire, qui reste, jusqu’à aujourd’hui, très répandu dans les cultures occidentales.

160

L’usage du récit de vie en sciences sociales est en revanche beaucoup plus récent. Un des travaux fondateurs dans l’utilisation des récits de vie comme méthode de recherches en sciences humaines – considéré également comme un des ouvrages fondateurs de l’École de Chicago – est Le paysan polonais (Thomas & Znaniecki, 1919/1998), une étude en cinq tomes sur les immigrants polonais dont le tome trois est une autobiographie commentée de l’immigrant polonais Wladeck Wisniewski. De cette enquête autobiographique au cœur du terrain, Thomas et Znaniecki tirent une sociologie à l’époque novatrice, fondée sur la méthode biographique (récits de vie) afin de comprendre les communautés (ici, d’immigrants polonais). Mais l’engouement pour les approches biographiques en sciences humaines trouve rapidement ses limites. En effet, dès les années 1940, on observe une montée en puissance des approches quantitatives, avec pour méthode de prédilection l’enquête par questionnaire sur échantillon représentatif. Les faits sociaux se trouvent alors quantifiés et l’histoire individuelle perd de son intérêt scientifique aux yeux de nombreux chercheurs. À cela s’ajoute, dans les années 1950-1960, le suc-

Les récits de vie

cès des approches structuralistes, qui contribuent également à maintenir les récits de vie dans un oubli quasi complet : dans ces approches – qui touchent de nombreuses disciplines allant de la sociologie (Pierre Bourdieu) à la philosophie (Michel Foucault) en passant par l’anthropologie (Claude Lévi-Strauss) et la psychanalyse (Jacques Lacan) – l’individu tend à être absorbé au profit de la structure, ce qui explique que les récits de vie ne soient plus alors considérés comme une méthode de recherche adaptée. Il faudra attendre les années 1970 pour observer un regain d’intérêt pour les récits de vie en sciences sociales : l’individu est remis à l’honneur et non plus considéré comme « unité statistique » (Passeron, 1989, p. 6). En France, Daniel Bertaux a largement contribué à revaloriser la méthode biographique en sociologie, en posant les principes de l’enquête telle qu’elle doit être conduite à savoir… « … résolument orientée vers les réalités pratiques et matérielles, politiques et sociales […]. Son but premier […] est d’étudier un morceau ou segment particulier d’une réalité sociale-historique, une pièce de la gigantesque mosaïque sociétale, un objet social […]. Dans cette perspective, le recours aux récits de vie s’avère remarquablement performant » (Bertaux, 2010, p. 11-12). Mais qu’est-ce exactement que les récits de vie comme méthode de recherche en sciences humaines ?

1.2. Le récit de vie comme méthode de recherche en sciences humaines : définition, épistémologie et questionnements Conçu comme un idéal, le récit de vie complet serait celui de « la totalité de l’histoire d’une personne. Il commencerait par la naissance, voire par l’histoire des parents […]. Il couvrirait toute l’histoire de la vie du sujet. Pour chaque période de cette histoire, le récit décrirait non seulement la vie intérieure du sujet et de ses actions, mais aussi les contextes interpersonnels et sociaux qu’il/elle a traversés » (Bertaux, 2010, p. 35). Il va de soi qu’ainsi défini, le récit de vie est complexe à mettre en œuvre dans une optique de production de savoir scientifique.

161

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Le chercheur doit donc souscrire à une définition plus souple du récit de vie : « Il y a du récit de vie dès lors qu’un sujet raconte à quelqu’un d’autre, chercheur ou pas, un épisode quelconque de son expérience vécue. Le verbe “raconter” (faire le récit de) est ici essentiel : il signifie que la production discursive du sujet a pris la forme narrative » (Bertaux, 2010, p. 35). Pour Wacheux (1996, p. 162), la méthode biographique peut se définir comme : « Une analyse d’un récit par un acteur sur des événements qu’il a vécus. Le discours est provoqué par le chercheur. L’acteur reste libre de la formulation des faits et des interprétations qu’il en donne ». Le récit de vie comme méthode est donc une approche biographique visant à appréhender les phénomènes à l’étude via la narration que le sujet fait de son expérience vécue. Le récit de vie s’inscrit dans une démarche inductive. Il s’agit de produire une description fine et approfondie d’un phénomène, d’un parcours, d’une situation, à partir du récit qu’un « sujet » fait de sa vie ou d’une période donnée de sa vie.

162

Aussi la méthode des récits de vie s’inscrit-elle dans la mouvance de la sociologie compréhensive de Dilthey, où le chercheur cherche à appréhender les phénomènes, à les comprendre, en s’appuyant sur la façon dont les acteurs en parlent, à partir de la signification qu’ils donnent à leurs actes – et donc, à la façon dont ils en font le récit. À partir des récits qu’il recueille et analyse, le chercheur va pouvoir construire de nouvelles hypothèses quant à des objets d’études jusque-là peu explorés (Chevalier, 2017). C’est ainsi que la portée des résultats obtenus à partir de l’étude des récits de vie dépasse le cas de l’individu qui se raconte : c’est par le singulier que le chercheur peut accéder au général. Encore faut-il que le chercheur soit conscient des écueils ou limites de la méthode des récits de vie. Les récits de vie sont la vie racontée, pas la vie « réelle ». Le récit vient en quelque sorte faire écran entre le chercheur et la réalité, et ce, à plusieurs égards. D’abord le récit ordonne : il ordonne chronologiquement, il présente l’expérience d’une certaine façon et ce faisant il la structure, il la lisse, la rend cohérente. C’est ce phénomène que Bourdieu qualifie d’« illusion biographique » (Bourdieu, 1986). De plus, tout récit est sélection, remaniement

Les récits de vie

de sa propre temporalité, « mise en intrigue » (Ricoeur, 1983) : le sujet sélectionne les événements qu’il va mettre en lumière et décide de la place qu’il va leur accorder. Cette sélection peut conduire à des omissions ou à des déformations qui peuvent être involontaires, découlant par exemple de défaillances de la mémoire : des épisodes sont passés sous silence, ou alors la fiction vient se loger dans les creux, comme pour combler les zones où le souvenir est flou. Mais la sélection peut aussi conduire à des omissions conscientes et volontaires. Dans la mesure où le sujet consent à participer à l’enquête, il est présumé de bonne foi, ce qui a priori limite le risque de récits inventés, ou tronqués, qui pourraient nuire à l’étude. En revanche, le sujet peut tout à fait considérer que tel épisode n’a pas d’intérêt dans le cadre de l’étude puisque, dans le contexte de la recherche en sciences humaines, le récit de vie ne consiste pas dans la narration exhaustive d’une vie de la naissance à la mort (le récit de vie « total ») mais dans le récit des moments de vie choisis, par le sujet, pour leur lien avec le thème de l’étude tel qu’il a été présenté par le chercheur. Ceci nous amène à nous intéresser à la position particulière du chercheur qui adopte une approche biographique.

1.3. La position du chercheur utilisant le récit de vie comme méthode Le chercheur, en présentant au sujet sa thématique de recherche, « précentre » l’entretien (Bertaux, 2010, p. 38) : la présentation agit ici comme un filtre, et l’acceptation, par le sujet, de participer à l’étude dans les conditions proposées par le chercheur. Dans la relation chercheur / sujet, le premier est à l’origine de la relation, il l’oriente en fonction de ses intérêts de recherche, tandis que le second apporte le contenu. Dans la mesure où ce que le sujet raconte, c’est son expérience vécue – expérience à laquelle le chercheur est initialement étranger – le chercheur peut avoir du mal à « entrer » dans le récit. À l’inverse, dans la mesure où les entretiens sont souvent longs et répétés, et où leur contenu est souvent de l’ordre de l’intime, le chercheur peut risquer de perdre la distance nécessaire à l’analyse. Un enjeu de la relation est donc, pour le chercheur, de trouver la bonne distance : « La distance épistémologique à trouver entre le chercheur et l’informateur est complexe : pour le chercheur, elle est

163

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

maximum au départ, il est étranger au contenu, son effort est de s’en approcher ; l’informateur au contraire, au départ fait corps avec le contenu, les deux s’identifient, son effort pour lui est de s’en distancier suffisamment pour le voir, le comprendre. Le défi est que chacun trouve la distance optimum » (Pineau, 1983, p. 173). Dans le cadre de cette relation, il s’agit de faire preuve de plusieurs qualités, dont l’écoute et l’empathie, qui sont les clés de l’attitude de compréhension.

2. QUAND ET COMMENT UTILISER LES RÉCITS DE VIE ? 2.1. Quels phénomènes étudier ?

164

Ricoeur a bien montré le lien entre récit et action : le récit est ce qui permet de décrire l’action et notamment l’action dans la durée, ce qui en fait un excellent moyen d’appréhender les processus d’action que le sociologue et le psychosociologue cherchent à comprendre : « la temporalité peut être appréhendée, non seulement à travers des événements historiques, des faits objectifs, mais également par le vécu des individus ou des groupes, leurs représentations, leurs affects et leurs réflexions » (Burrick, 2010, p. 7). En ce sens, le récit de vie s’avère être particulièrement adapté pour explorer des phénomènes tels que les parcours des individus ou des groupes, leur construction identitaire, mais aussi explorer les processus de changement au niveau de l’individu, du groupe ou de la société. Encadré 1. Deux exemples de récits de vie Récits de vie des associés dans les « Big 4 »2 Utilisation formelle et systématique de la méthode des récits de vie Dans sa recherche sur les associés d’audit dans les cabinets des «  Big 4 », Claire Garnier cherche à comprendre le « processus de 2. Les «  Big 4 » (traduction littérale, les « quatre grands ») sont les quatre groupes d’audit financier : Deloitte Touche Tohmatsu, EY (Ernst & Young), KPMG, et PwC (PricewaterhouseCoopers).

Les récits de vie construction identitaire de l’associé ainsi que son élaboration d’une stratégie de carrière » (Garnier, 2014, p. 13). Pour ce faire, elle utilise l’approche biographique. Ainsi, c’est en demandant à des associés travaillant dans des cabinets d’audit « Big 4 » en France de raconter leur parcours que le chercheur accumule des preuves, traque les similarités, et offre une analyse approfondie de l’identité professionnelle des associés comme population distincte des autres employés des « Big 4 », mettant en lumière les aspects longitudinaux des processus de cooptation à l’œuvre dans ces structures. Fragments de récits de vie des employés dans une entreprise familiale Utilisation partielle de récits de vie Dans le cadre de sa recherche portant sur l’identité des entreprises familiales, Julia Vincent-Ponroy (2016) a conduit une cinquantaine d’entretiens auprès d’employés non-familiaux, afin de comprendre la façon dont ils contribuent à construire l’identité familiale de l’entreprise dans laquelle ils travaillent. Ces entretiens semi-directifs n’étaient à l’origine ni conçus ni présentés comme des récits de vie. Pour autant, ils sont parsemés de passages narratifs où les interviewés racontent tout ou partie de leur parcours professionnel, font le récit de leur expérience de telle période dans la vie de l’organisation, ou de tel événement les ayant marqués. L’analyse de ces récits de (bouts de) vies a permis d’identifier des similarités inter-individuelles et de faire émerger des mécanismes de construction de l’identité organisationnelle (au niveau collectif) dans les entreprises familiales, par les employés non-familiaux.

Pour Daniel Bertaux, la perspective ethnosociologique et la méthode des récits de vie à laquelle elle est associée, visent à comprendre trois types d’objets sociaux : les mondes sociaux, les trajectoires sociales et les situations sociales. Ce n’est en réalité pas « la vie » elle-même de l’individu qui constitue le matériau utile de la recherche, mais bien les informations factuelles sur les conditions et les processus mobilisés par celui-ci dans une situation sociale et historique donnée. Par exemple, pour comprendre le monde social de la boulangerie artisanale, il est possible d’aller explorer plusieurs boulangeries – et de demander aux individus y travaillant de bien vouloir accorder aux chercheurs le récit de leur expérience de boulanger. Les trajectoires sociales sont des types de parcours pouvant être rassemblés – comme la réussite sociale par exemple. Enfin, les situations sociales sont des situations partagées par des catégories de gens ne faisant pas nécessairement partie du même

165

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

monde social et n’interagissant pas nécessairement, comme par exemple la situation des créateurs d’entreprises, des innovateurs… Encadré 2. Récits de vie : les sans-papiers Dans son ouvrage Clandestins au pays des papiers. Expériences et parcours de sans-papiers algériens (2009), Marie-Thérèse Têtu-Delage s’appuie sur les données récoltées via de l’observation et des entretiens narratifs conduits auprès d’une soixantaine de sans-papiers algériens dans la ville de Romans pour étudier la façon dont les différents acteurs abordent la question de la régularisation et comment ils se comportent par rapport à elle. Les récits de vie visent ici à mieux comprendre une situation sociale.

166

Les récits de vie constituent ainsi une méthode de recherche très largement applicable, et ce dans de nombreuses disciplines allant de l’histoire à la sociologie, l’ethnologie, la psychologie et bien sûr les sciences de gestion. Les récits de vie fournissent une véritable « stratégie d’accès au réel en sciences de gestion » (Sanséau, 2005), comme par exemple en marketing (ÖzçaglarToulouse, 2009) ou en gestion des ressources humaines (Joyeau, Demontrond & Schmidt, 2010) ou encore en entrepreneuriat (Bah, Tiercelin & Ndione, 2015). Les objets de recherche peuvent ainsi être aussi divers que la construction des identités, le leadership, le comportement des consommateurs, les attitudes dans le travail, le changement, l’innovation... La méthode des récits de vie s’avère particulièrement adaptée pour explorer des phénomènes peu étudiés, se produisant dans la durée, tant au niveau individuel que collectif. Se pose alors une question pratique : comment appliquer cette méthode ?

2.2. Mise en œuvre : la conduite de l’entretien narratif Concrètement, la méthode biographique ou des récits de vie repose sur une technique d’entretiens particulière : les entretiens narratifs. « Un entretien au cours duquel un “chercheur” (lequel peut être un étudiant en tant que jeune chercheur) demande à une

Les récits de vie

personne, [appelée] “sujet”, de lui raconter tout ou partie de son expérience vécue. En mettant l’accent […] sur l’aspect “vie sociale” : vie et activités en relation et interactions avec d’autres personnes, pratiques récurrentes, cours d’action orientés vers des buts à atteindre » (Bertaux, 2010, p. 10). Pour reprendre la démarche dans l’ordre : comme toute enquête de terrain, il faut commencer par… accéder au terrain ! Et accéder au terrain c’est d’abord être capable de se présenter soi en tant que chercheur, et de présenter son projet, ce qui n’est pas toujours chose facile. La prise de contact revêt une importance considérable dans le bon déroulé de l’entretien. Elle détermine la réception que le futur interviewé fait de la demande d’enquête. Dès le moment où la « question de recherche » est formulée, l’interlocuteur s’en saisit et la traduit en fonction de ses propres « cadres » ou grilles de perception. D’où la nécessité d’être à la fois précis et ouvert dans la formulation. Exercice difficile, qui nécessite de revenir plusieurs fois sur la ou les formulation(s) possible(s) et de les tester une première fois, puis d’effectuer un recalibrage en fonction des premiers entretiens tests réalisés. Encadré 3. Le rodage de la méthode : recherche sur les créateurs d’entreprises innovantes Dans sa recherche sur les créateurs d’entreprises innovantes Micaelli (2013, p. 177) décrit le rodage de la méthode. « Pour notre part, nous avons souhaité mener deux entretiens de rodage de la méthode biographique préalablement au démarrage de l’enquête, ce qui a été l’occasion de tester la formulation de notre question de recherche. Ainsi, dans nos premiers échanges, nous avions retenu les formulations suivantes : « Pourquoi êtes-vous devenu créateur d’entreprise ? », « Qu’est-ce qui vous a amené à devenir créateur d’entreprise ? », « Avezvous toujours souhaité devenir créateur d’entreprise ? », qui ont toutes été abandonnées car générant un focus trop prégnant sur certains éléments du parcours. En effet, la personne répondait le plus souvent à la première formulation comme s’il s’agissait d’une question fermée n’appelant qu’une seule réponse « directe » : « j’ai créé mon entreprise parce que… », « Je suis entré chez […] car … », il était alors nécessaire de la relancer plusieurs fois pour qu’elle enchaîne ensuite sur d’autres éléments de son parcours. La seconde formulation entraînait bizarrement un blocage de l’interviewé qui ne savait pas trop comment répondre, et il devenait né-

167

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n cessaire de reposer plusieurs fois la question de manière différente avant que la personne ne commence réellement à s’exprimer. La dernière, quant à elle, focalisait le démarrage de l’entretien sur la période de l’enfance, alors que nous souhaitions justement ne pas influencer la façon dont l’interlocuteur amorcerait son discours, considérant que cette amorce était en elle-même riche de sens pour l’enquête. Finalement, c’est la question : « Pourriez-vous me raconter comment vous êtes devenu créateur d’entreprise ? » qui a été choisie pour lancer les entretiens narratifs. »

Alors que le premier entretien est souvent difficile à décrocher, il s’opère souvent un effet « boule de neige » par lequel une fois la première porte ouverte, les autres s’ouvrent bien plus facilement.

168

Les prises de rendez-vous pour les entretiens sont ici essentielles, d’une part parce, et cela est classique des méthodes d’entretien, le futur interviewé ne connaît pas le chercheur, et n’a pas nécessairement envie de se raconter ; d’autre part parce qu’à la différence des autres méthodes d’entretien, le nombre d’entretiens que mène le chercheur est ici plus restreint. En revanche les entretiens sont beaucoup plus longs (durée de 2 à 4 heures) et il est fréquent que le chercheur soit amené à revoir plusieurs fois son interlocuteur pour creuser et approfondir la démarche d’introspection entamée. Soigner la présentation du projet de recherche et instaurer une relation de confiance sont ici des éléments cruciaux. De même, il convient de bien insister sur le fait que l’expérience de la personne est intéressante pour le chercheur, non pas parce qu’elle est l’expérience de cette personne, en son nom, mais parce que cette personne est emblématique de phénomènes plus généraux. À ce titre, il faut indiquer à la personne ce qui est attendu d’elle dans le cadre du dispositif de recherche – dans le cas présent, raconter son expérience personnelle en lien avec un sujet précis. Si la personne accepte, il est recommandé de fixer rapidement un rendez-vous, dans un lieu calme pour nouer un contact authentique avec l’interviewé. L’encadré ci-dessous résume les points clés de l’étape « prise de rendez-vous ».

Les récits de vie

Encadré 4. La prise de rendez-vous par le chercheur 1.

Préparer son texte.

2.

Se présenter simplement – nom / institution.

3.

Présenter son travail de recherche dans des termes non-savants, accessibles à la personne que l’on cherche à interviewer, et si possible qui l’intéressent.

4.

Évoquer rapidement le dispositif de recherche en employant le verbe raconter (ou équivalent), de façon simple : « je cherche des gens qui pourraient me raconter… ».

5.

Garantir l’entière confidentialité des propos.

6.

Proposer un rendez-vous en face à face, idéalement le plus rapproché possible dans le temps, dans un endroit calme.

7.

Prévoir un temps long pour l’entretien.

Vient ensuite le moment de l’entretien. Préparation psychologique et préparation technique sont ici de mises. Préparation psychologique dans le sens où le chercheur se met en condition d’écoute entièrement dédiée, pour être à même de recevoir le récit de l’interviewé en gardant intacte toute la subjectivité qu’il recèle. Les entretiens longs portent sur des aspects intimes et personnels du parcours de l’interviewé. Comme le précise Michelat « ce qui n’est qu’intellectualisé, ce qui n’est pas pris en charge affectivement par la personnalité n’a qu’une signification faible et une relation réduite avec le comportement de l’individu » (Michelat, 1975, p. 231). La réalisation de ces entretiens demande un investissement conséquent. Il s’agit de travailler en profondeur la posture d’écoute qu’il convient d’adopter pour être totalement disponible pour l’autre. La méthode des récits de vie suppose que le chercheur effectue une véritable plongée dans l’intimité de ses interlocuteurs. Cette immersion est plus conséquente que celle des entretiens semi-directifs classiques car les entretiens sont beaucoup plus longs et invitent à une introspection plus en profondeur. Avec le récit de vie, le chercheur est amené à connaître toutes sortes de données confidentielles, où l’affectif et l’émotionnel tiennent des places importantes. Les entretiens narratifs, dans l’approche biographique, sollicitent les personnes dans leur histoire, dans les méandres de leur passé, de leur présent et de leur avenir.

169

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Préparation technique également : l’entretien biographique se prépare à l’avance et cette préparation donne lieu à quelques notes – succinctes mais nécessaires – que le chercheur aura avec lui le jour de l’entretien : c’est le « guide d’enquête 3 ». Ces notes sont les points que le chercheur souhaite aborder et il s’assurera, à la fin de l’entretien, une fois la partie narrative achevée, que l’interviewé a évoqué tous ces aspects. Dans le cas contraire, l’entretien pourra se terminer par une phase de questions plus précises.

170

Au début de l’entretien, il est possible de demander à la personne interrogée si elle accepte d’être enregistrée – si l’enregistrement n’est pas obligatoire, la prise de notes exhaustive, elle, l’est. Il importe ici bien sûr de préciser que s’appliquent, comme dans toute enquête de terrain fondée sur des entretiens, les principes déontologiques de garantie d’anonymat, d’une part, et de non divulgation des notes d’entretien, de l’autre. Néanmoins, l’interviewé peut, s’il le souhaite, avoir communication des résultats de la recherche et pouvoir, le cas échéant, bénéficier d’une restitution lui présentant l’aboutissement du travail qu’il a en partie rendu possible. Tout ceci mérite d’être clairement spécifié en début d’entretien. Le chercheur invite ensuite le narrateur à raconter la partie de son expérience qui l’intéresse dans le cadre de ses travaux, et laisse ensuite le narrateur raconter. Il est essentiel de se souvenir que c’est en partie dans la façon que le narrateur a de construire son récit, de raconter son histoire, que le sens se construit. Aussi importe-t-il de ne pas interrompre le récit – ce qui ne veut pas dire rester silencieux d’un bout à l’autre de l’entretien, au contraire : il faut montrer à la personne interviewée que son récit suscite l’intérêt et, si nécessaire 4, l’encourager à le poursuivre, avec des reformulations (« donc vous dites que… ») et des relances (« ah bon ! et comment est-ce arrivé ? »). Un type de relance intéressant, notamment dans l’étude des parcours, consiste à demander à la personne interviewée si elle aurait aimé 3. Il faut noter qu’à mesure que l’enquête avance – et que les données s’accumulent – le projet de recherche évolue, et le guide d’enquête aussi. Il ne faut pas hésiter à le modifier au fur et à mesure. 4. Il est normal que l’interlocuteur cherche ses mots par moment, cela ne veut pas dire que le récit va s’arrêter. Le silence est aussi le temps de la réflexion.

Les récits de vie

faire autrement, que les choses se déroulent différemment. Cela permet de se faire une idée des moments clés, des moments de choix dans les parcours. Pour conclure l’entretien, il est possible de poser les questions figurant sur le guide d’enquête et n’ayant pas été abordées, et de terminer avec une ou deux questions permettant à l’interviewé d’exprimer des émotions positives – « qu’est-ce que vous avez aimé dans… ? », « quel est votre meilleur souvenir à… ? » : les récits peuvent conduire à des émotions fortes, et il importe d’éviter de rester sur des émotions négatives. Il est fréquent pour les entretiens biographiques que le chercheur soit amené à revoir son interlocuteur. Encadré 5. Les étapes de l’entretien narratif ou biographique 1.

Consacrer du temps à la préparation psychologique et technique préalables.

2.

Présenter à nouveau son travail, ses attentes et le dispositif en place.

3.

Garantir l’anonymat / la confidentialité – éventuellement demander à enregistrer.

4.

Lancer l’entretien avec une question simple, contenant le verbe « raconter ».

5.

Lors de l’entretien, reformuler et utiliser des questions de relance.

6.

À la fin du récit, s’assurer que les points du guide d’enquête ont bien été abordés .

7.

Clôturer l’entretien par un retour sur le récit d’un moment associé à une émotion positive (un succès, un moment de bonheur…).

2.3. L’analyse du récit de vie Comme tout matériau de recherche, les entretiens narratifs sont à analyser. Mieux vaut que cette analyse survienne le plus tôt possible dans le processus de collecte de données et ne pas attendre d’avoir conduit tous les entretiens biographiques pour commencer à les analyser. Pourquoi ? Parce que c’est l’analyse des entretiens qui permet de définir les besoins ultérieurs en

171

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

termes de données (qui interroger ?) et qui permet également de faire évoluer le guide d’enquête de façon à obtenir des informations manquantes. Par ailleurs, les entretiens narratifs ne sont en général pas le seul matériau dont dispose le chercheur : données secondaires et notes d’observation viennent compléter le contenu obtenu lors des entretiens.

172

L’analyse des entretiens à proprement parler consiste à établir des comparaisons entre les entretiens, à identifier des récurrences. Pour ce faire, le chercheur commence par retranscrire ses entretiens. Il convient ensuite de les analyser individuellement, et chercher à identifier les éléments clés racontés par le narrateur, ces éléments factuels dont le chercheur peut supposer qu’ils sont réels, et qu’ils sont arrivés dans un certain ordre. La dimension longitudinale de l’analyse est clé ici (Chevalier, 1997). Retracer la structure diachronique du récit (que s’estil passé et quand : avant / après ?) : voilà le premier stade de l’analyse du récit de vie. Dans Analyser les entretiens biographiques (1997/2004), Demazière et Dubar proposent de découper le récit en séquences, c’est-à-dire en unités qui correspondent aux moments clés de la situation telle que présentée par le narrateur. Il s’agit aussi de « connecter » la temporalité du récit avec la temporalité historique : des indices doivent permettre de replacer la temporalité individuelle dans la temporalité historique, dans la chronologie collective. Dans un second temps, le chercheur fera dialoguer ses entretiens et les confrontera également aux autres données recueillies. Les entretiens biographiques supposent d’analyser et de comprendre les situations à partir du vécu de l’individu et non pas tant à partir de l’organisation, même si les intrications psychologiques et sociologiques sont scrutées tout au long de l’analyse. C’est à travers ce dialogue qu’il pourra établir des comparaisons, identifier des récurrences et commencer à proposer des relations de causalité et à terme un « modèle » pour penser le phénomène à l’étude. Le chercheur pourra ainsi faire émerger des mécanismes sociaux, développer des concepts, contribuer à la construction d’un pan de théorie, en itérant entre les données et la littérature.

Les récits de vie

CONCLUSION Le récit de vie, méthode de recherche, permet de recueillir des informations riches dans un contexte particulier. Faisant dialoguer les temporalités, la méthode offre aux doctorants-managers la possibilité de creuser un phénomène en explorant l’épaisseur du vécu des personnes en situation. Cette méthode qualitative conduit à faire émerger, au travers d’histoires singulières, le sens de phénomènes humains et sociaux plus larges. Les doctorants en DBA sont tout particulièrement concernés par cette approche qui fait la part belle à l’expérience cumulée au fil du temps. Les récits de vie sont ainsi en mesure d’apporter une aide originale et précieuse à la compréhension intime de phénomènes sociaux et organisationnels et par là même d’éclairer et de faciliter un retour à l’action plus pertinent. Références citées Bah, T., Tiercelin A. & Ndione L. C. (2015), Les récits de vie en sciences de gestion. Orientations épistémologiques et méthodologiques, Caen, Editions EMS, coll. « Versus ». Becker, H. S. (ed.) (1966), Social Problems: A Modern Approach. London, J. Wiley and Sons. Bertaux, D. (2010), Le récit de vie, 3 e édition, Paris, Armand Colin. Bourdieu, P. (1986), L’illusion biographique, Actes de la Recherche en Sciences Sociales, vol. 62-63, p. 69-72. Burrick, D. (2010), Une épistémologie du récit de vie, Recherches Qualitatives, Numéro Hors-Série n°8, p. 7-36. Chevalier, F. (1997), Recherches qualitatives et longitudinales : les relations entre sociologie et histoire, in L.J. Filion, P. Paillé & D. Laflamme (dir.), Recherches qualitatives, vol. 17, Université du Québec à Trois-Rivières, p. 44-56. Chevalier, F. (2017), La théorisation dans une perspective terrain : le décorticage d’une démarche de recherche, in P. Baulieu & M. Kalika (dir.), Le projet de thèse de DBA, Caen, Éditions EMS, coll. « Business Science Institute », p. 165-176. Demazière, D. & Dubar, C. (1997/2004), Analyser les entretiens biographiques, L’exemple des récits d’insertion, Paris, Nathan et Presses Université Laval, coll. « Essais et Recherches ». Garnier, C. (2014), Qui sont les associés d’audit des cabinets Big 4 ? Une lecture interactionniste des carrières des auditeurs dans les cabinets

173

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

des Big 4 en France, Thèse de doctorat, HEC Paris, dirigée par C. Ramirez. Geertz, C. (1973), The Interpretation of Cultures, New York, Basic Books. Joyeau, A., Demontrond, P.-R. & Schmidt, C. (2010), Les récits de vie en gestion des ressources humaines : principes, portée, limite, Management & Avenir, vol. 4, n° 34, p. 14-39. Micaelli, I. (2013), Comment deviennent-ils innovateurs ? Analyse du « passage à l’acte d’innover » de chercheur-entrepreneur-innovateurs, Thèse de doctorat, HEC Paris, Co-dirigée par C.H. Besseyredes-Horts et F. Chevalier. Michelat, G. (1975), Sur l’utilisation de l’entretien non directif en sociologie, Revue Française de Sociologie, vol. 16, no2, p. 229-247. Momigliano, A. (1991), The Classical Foundations of Modern Historiography. Traduction française, Les fondations du savoir historique, Paris, Les belles Lettres. Özçaglar-Toulouse, N. (2009), Quel sens les consommateurs responsables donnent-ils à leur consommation ? Une approche par les récits de vie, Recherche et Applications Marketing, vol. 24, no 3, p. 3-24.

174

Passeron, J.C. (1989), Biographies, flux, itinéraires, trajectoires, Revue Française de Sociologie, vol. 31, no 1, p. 3-22. Pineau, G. & Legrand, J.L. (2013), Les histoires de vie, 5 e édition, Paris, Presses Universitaires de France. Ricœur, P. (1983), Temps et récit, Tome 1, L’intrigue et le récit historique, Paris, Éditions du Seuil. Sanséau, P.Y. (2005), Les récits de vie comme stratégie d’accès au réel en sciences de gestion : pertinence, positionnement et perspectives d’analyse, Recherche Qualitatives, vol. 25, no 2, p. 3357. Têtu-Delage, M.T. (2009), Clandestins au pays des papiers. Expériences et parcours de sans-papiers algériens, Paris, La Découverte et CIEMI. Thomas, W. I. & Znaniecki, F. (1919/1998), Le paysan polonais en Europe et en Amérique, Paris, Nathan. Vincent-Ponroy, J. (2016), Family Firms’ Organisational Identity and Non-family Employees: A Case Study, [titre français : Les employés non-familiaux dans l’entreprise familiale : l’identité organisationnelle en question, une étude de cas], Thèse de doctorat, HEC Paris, dirigée par F. Chevalier. Wacheux, F. (1996), Méthodes qualitatives et recherche en gestion, Paris, Economica.

Les récits de vie

Références pour en savoir plus Bertaux, D. (2010), Le récit de vie, 3 e édition, Paris, Armand Colin.

Cet ouvrage examine les fonctions des récits de vie et comment s’y prendre pour mener à bien le recueil des récits de vie. Il propose également différents modes d’analyse des récits, au cas par cas ou sur le mode comparatif. Il souligne combien chaque parcours de vie d’une personne peut être envisagé comme le reflet de déterminations, d’interactions et d’actions multiples. Joyeau, A., Demontrond, P.-R. & Schmidt, C. (2010), Les récits de vie en gestion des ressources humaines : principes, portée, limite, Management & Avenir, vol. 4, n° 34, p. 14-39.

Cet article propose de montrer l’intérêt des récits de vie dans le champ de la gestion des ressources humaines. L’apport des récits de vie est mis en avant à travers deux études empiriques, l’une portant sur la gestion des compétences et l’autre sur la gestion de la mobilité géographique intra-nationale.

175

CHAPITRE 10. Recherche historique, narration et documents d’archives Jean-Christophe Bogaert, Jean Moscarola et Caroline Mothe

Résumé Ce chapitre s’attache à décrire l’intérêt des archives historiques et de la narration dans le contexte d’une recherche longitudinale d’un cas unique couvrant les 25 années d’existence d’une entreprise de taille moyenne opérant à l’international dans le domaine de la biotechnologie industrielle. Il s’appuie sur une combinaison de méthodes qualitatives et quantitatives dans le but de rechercher de manière abductive des explications pour les événements observés en s’intéressant à l’influence des contextes sur les processus. Mots-clés : ambidextrie, données d’archives historiques, étude de cas longitudinale, narration.

Les méthodes de recherche du DBA

176

Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

INTRODUCTION La loi française définit les archives comme « l’ensemble des documents, quels que soient leur date, leur lieu de conservation, leur forme et leur support, produits ou reçus par toute personne physique ou morale et par tout service ou organisme public ou privé dans l’exercice de leur activité » (Code du patrimoine, article L.211). Par extension, on peut considérer comme archives toutes traces laissées par les activités humaines, qu’elles soient gravées sur les marbres anciens ou digitalisées dans les mémoires informatiques. C’est grâce aux archives que « les historiens font parler les choses muettes » selon la formule de Lucien Febvre (1959). C’est la méthode choisie dans cette recherche pour décrire en profondeur 25 ans de la vie d’une entreprise et expliquer ses évolutions et sa stratégie. En historien, l’auteur s’est appuyé sur les archives qu’il a pu collecter en profitant de sa qualité de manager dans cette entreprise. En historien, selon le mot de Marc Bloch (1949), il « transmet une partie de lui-même », en choisissant le découpage d’une période vécue, les concepts et systèmes d’interprétation qu’il privilégie. En historien, il se révèle également bon écrivain car l’histoire est aussi un genre littéraire comme l’indique Henri Marrou (1954). Enfin, comme chercheur en gestion, il s’appuie sur des méthodologies qualitatives et quantitatives qui font la richesse de ce travail. Ce chapitre sera organisé de la manière suivante : dans la Section 1, nous situons les spécificités de l’approche historique. Dans la Section 2, nous présenterons le cas de l’entreprise étudiée par Jean-Christophe Bogaert (2017) dans sa thèse de DBA en la prenant comme exemple d’une recherche fondée sur des archives historiques.

1. DES ARCHIVES À LA CONSTRUCTION DU SENS : PRÉSENTATION DE L’APPROCHE HISTORIQUE L’histoire n’est pas seulement liée à la discipline éponyme, mais est également largement utilisée dans d’autres domaines scientifiques, notamment en sociologie ou, moins fréquemment, en sciences de gestion. Il y a « la méthode en histoire et l’histoire

177

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

comme méthode » (Lemarchand & Nikitin, 2013, p. 1). Ceci implique pour un chercheur en sciences de gestion d’avoir un minimum de connaissances sur cette méthode.

1.1. La recherche et la critique des sources L’histoire est d’abord une enquête1 dont les sources sont des archives, bien que les entretiens puissent aussi se pratiquer en histoire contemporaine. Trouver les documents, les archiver mais aussi les qualifier et les critiquer, tel est le travail à réaliser. À la différence des entretiens, les archives ne sont pas suspectes d’une quelconque influence du chercheur mais doivent être situées dans le contexte de leur production et par les intentions de leur auteur ou des institutions qui les conservent. Un rapport de conseil d’administration ne se lit pas comme un article de presse ou un tract syndical. L’historien doit connaître les contextes et les finalités pour être capable d’apprécier les contenus et en faire une critique autant externe qu’interne (Le Goff & Nora, 1974). En histoire contemporaine, cela peut donner un avantage au chercheur immergé dans le terrain de sa recherche.

178

Ce travail de critique des sources n’est pas propre à l’histoire ; on le retrouve dans toutes les sciences humaines lorsqu’il s’agît de « faire parler » les textes contenus dans les archives : recherche qualitative pure (Dumez, 2016), analyse de contenu (Bardin, 1977), analyse de données textuelles (Moscarola, 2018), les méthodes sont nombreuses. Elles ont en commun l’exigence de maintenir une distance critique. Elles se différencient par leur degré de formalisme (Moscarola, 2018). Selon ses goûts et talents, le chercheur peut privilégier une approche plus qualitative et littéraire ou plus quantitative et formalisée.

1.2. L’écriture de l’histoire Les archives fournissent des faits et des évènements. Faire œuvre d’historien consiste à les organiser en suivant la ligne du temps, celle des causes ou des arguments. Faire sens en déroulant un récit, faire sens en expliquant un processus et en proposant une 1.  Ἱστορίαι [Historíai] signifie « enquête » en grec.

Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

interprétation ou faire sens en plaidant une cause. La qualité de l’histoire s’apprécie à la capacité de capter l’attention du lecteur, mais ce qui distingue l’historien du conteur c’est l’intention de vérité. Cette expression modère la prétention de pouvoir dire les choses telles qu’elles se sont passées et situe l’histoire à l’articulation des faits et des idées. Ainsi peut-on chercher, dans une démarche inductive, à restituer les faits sous la forme d’un récit qui les organise ou, au contraire, dans une démarche déductive, chercher à vérifier une théorie dont l’observation confirmerait le bien fondé. Question de méthode ! Le cas présenté ci-dessous illustre la variété des approches possibles.

2. UN EXEMPLE D’APPLICATION DES ARCHIVES HISTORIQUES Jean-Christophe Bogaert réalise une étude de cas longitudinale approfondie de l’entreprise dans laquelle il a occupé des fonctions de direction au cours des 25 dernières années. En travaillant sur une période relativement longue, il peut mettre en évidence une dynamique évolutive que l’étude des intervalles de temps courts ne permet pas (Burgelman, 2011). Cette approche lui permet de trier les informations pertinentes et d’accéder à des détails intimes, de considérer différentes étapes, mais aussi d’explorer la séquence des événements pour étudier l’aspect dynamique des évolutions de l’entreprise. Elle débouche sur la formulation de la problématique suivante : « Comment l’ambidextrie organisationnelle peut elle être mise en œuvre dans des entreprises de taille moyenne pour s’adapter de façon dynamique aux changements environnementaux et augmenter leurs chances de survie ? ». Ce chapitre ne développe pas la réponse à cette question mais s’attache à décrire comment cette problématique découle également du travail historique entrepris dans cette recherche. La figure 1 présente les différentes étapes de ce travail et les méthodes mises en œuvre.

179

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Figure 1. Des sources aux résultats, la pluralité des approches

2.1. La collection des archives

180

Nous expliquons ici le choix des sources et des archives et justifions les choix effectués pour constituer le corpus des décisions et évènements sur la base duquel sont menées les analyses ultérieures. Le but ici est de montrer comment procéder et les problèmes que cela pose. Diverses sources d’archives ont été utilisées (Figure 2) : procès-verbaux des réunions de direction, communiqués de presse, rapports aux actionnaires, communications aux syndicats et aux membres du personnel, articles de presse, e-mails, etc. Figure 2. Les sources, archives et documents

Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

Les sources sont plus nombreuses et plus faciles à trouver les dernières années – et plus pauvres les premières années. L’effort de recherche s’est porté sur cette première période ainsi que sur les types de documents les moins courants ou portant sur des évènements marquants dans le souvenir du chercheur. Le but était de maximiser la variété de l’information. Ce travail s’est déroulé sur une période de temps assez longue dans d’incessants allers et retours entre la lecture des archives, leur organisation dans un récit en construction et la recherche de nouvelles archives.

2.2. Construction d’un récit Le premier travail d’analyse s’effectue au cours d’une lente maturation. Elle consiste à partir de l’expérience personnelle du chercheur et des archives rassemblées à organiser un récit nourri par des observations factuelles, des souvenirs et des lectures sur la stratégie. Ainsi s’élabore l’idée que cette histoire peut s’expliquer par les réponses stratégiques de l’organisation aux fluctuations de son environnement et que celles-ci correspondent à différentes époques. Conformément aux recommandations pour les études de cas longitudinales (Thiétart, 2014 ; Yin, 2009), l’analyse a débuté en reconstituant la chronologie des événements historiques par la rédaction d’un récit retraçant l’histoire de l’entreprise en adoptant la vision écologique de la réalité de Burgelman (1991). Contrairement à une approche réductionniste qui isole les variables et étudie les relations entre elles, cette approche « examine comment les composants individuels interagissent pour devenir des systèmes dont la nature ne peut être complètement comprise en ne regardant que la somme des parties » (Burgelman, 2011, p.11). Mais, pourquoi un récit ? Un récit idéal commence par une situation stable qu’une force quelconque vient perturber. Il en résulte un état de déséquilibre ; par l’action d’une force dirigée en sens inverse, l’équilibre est rétabli ; le second équilibre est bien semblable au premier, mais les deux ne sont jamais identiques. Il y a par conséquent deux types d’épisodes dans un récit : ceux

181

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

qui décrivent un état (d’équilibre ou de déséquilibre) et ceux qui décrivent un passage d’un état à l’autre. La différence entre les descriptions et les récits réside précisément dans l’influence implicite du temps. Les actions et les interactions se déroulent au fil du temps. Dumez (2016, p.129) indique que « le chercheur qui veut donc expliquer les dynamiques sociales, dynamiques d’interactions entre individus ou de développement institutionnel, doit passer par le récit. (…) Le récit a alors un statut de production de connaissances, d’exploration, un outil pour discuter des théories ». Il ajoute (2016, p.13) : « nous devons rompre avec l’idée que nous devrions exclure la description et la narration comme formes extra-scientifiques, littéraires et subjectives : la recherche qualitative doit décrire et dire, et la description et la narration doivent être considérées comme des méthodes scientifiques et objectivantes susceptibles de critique2 ».

182

Le récit qui résulte de ce travail en constitue le premier résultat. Sa structuration en 4 époques est le produit d’un travail inductif dans l’esprit de la théorie ancrée (Glaser & Strauss, 1967). Dans cette approche, aucune hypothèse théorique n’est utilisée a priori, la théorie émergeant du matériau lui-même (Dumez, 2016). Ce travail exploratoire conduit à découper l’histoire de l’entreprise en 4 époques : Antiquitus (avant 1994), Feodalis (1994-2001), Modernitas (2001-2011), et Contemporalis (depuis 2012), caractérisées par des contextes d’environnement et des intentions stratégiques différents. Le récit est présenté sur 77 pages en annexe de la thèse. La figure 3 en donne un aperçu lexical par la mise en évidence des mots-clés caractérisant chaque époque. Au centre du graphique, on trouve les mots communs de la période. Cet aperçu permet au lecteur de se faire une idée du bien-fondé des interprétations du chercheur.

2. Ce qui implique la publication du récit et son analyse critique facilitée par les méthodes de l’analyse de donnée textuelle (Moscarola, 2018).

Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

Figure 3. La Narration. Aperçu lexical de chacune des époques3

2.3. Analyse de contenu Nous décrivons maintenant les méthodes plus formalisées utilisées pour analyser les archives rassemblées. Elles passent par la sélection préalable d’un corpus extrait de l’ensemble des archives pour répondre à la problématique de l’ambidextrie organisationnelle.

Le corpus des 410 décisions et des 277 évènements de l’environnement Pour aller plus loin, en se référant à la méthodologie qualitative rigoureuse recommandée par Gioia et al. (2012), la première analyse inductive a été systématisée en s’appuyant sur les concepts de la théorie de l’ambidextrie. Ce choix, comme l’indique Burgelman (2011), réalise un équilibre entre la tradition de l’approche historique (qui généralise à partir de l’abondance des particularités du récit) et celle des sciences sociales (qui limitent le champ de leur observation à une vision théorique plus réduite). Cela conduit à focaliser l’attention sur les décisions prises par l’entreprise en référence aux évènements de son environnement. Ces décisions et évènements sont documentés par des verbatim extraits des documents d’archives (Figure 2).

3. Toutes les analyses ont été effectuées avec SphinxIQ2.

183

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Il s’agit de 410 actions ou décisions majeures prises par l’entreprise tout au long de ses 25 ans d’histoire et de 277 évènements contextuels. La croissance exponentielle du nombre des actions/ décisions par an reflète le développement de l’entreprise et sa transformation d’une très petite entité avec quelques employés à une organisation internationale avec près de 400 employés dans six lieux sur trois continents. Les principales décisions managériales et évènements sur la période des 25 ans étudiés (de 1991 à 2015) ont été identifiés en utilisant la méthode de listage (Miles et Huberman, 1994). Ces informations décrites par des textes extraits des archives sont datées et constituent le corpus soumis à l’analyse de contenu.

La codification

184

L’analyse de contenu consiste à lire systématiquement des textes pour en extraire le sens et le noter. Ce travail repose sur la définition préalable de catégories de contenu, les codes, puis sur la lecture et la codification de chaque élément du corpus. On parle de codage théorique (Bohm, 2004) quand ces catégories proviennent d’une théorie de référence. C’est le cas pour les 410 décisions dont l’index constitué de 12 critères a été défini à partir de l’étude de questionnaires utilisés dans 25 recherches majeures sur l’ambidextrie organisationnelle. Les évènements sont définis selon 8 dimensions intrinsèques de l’environnement et codés selon leur impact sur l’entreprise. La figure 4 illustre le travail de codification effectué sur les décisions en utilisant le logiciel Excel (les décisions illustrées à titre d’exemple dans la figure 4 apparaissent en langue anglaise car la thèse a été rédigée dans cette langue). La première colonne contient le texte décrivant chaque décision. Les 12 colonnes suivantes constituent l’index. Enfin, 3 colonnes donnent les scores (Exploration, Exploitation Ambidextrie) calculés à partir des critères précédents. Le même travail est effectué sur les évènements externes pour parvenir à une mesure du dynamisme de l’environnement.

Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

Figure 4. Analyse de contenu : coder en référence à un modèle

Au terme de ce travail de lecture et de codification, les 687 extraits d’archives décrivant les décisions prises en réaction aux évènements de l’environnement conduisent à près de 10 000 chiffres résultant de la codification et donnant une autre vision très quantitative de cette histoire décrite par les deux graphiques de la figure 5. Ces graphes représentent des scores annuels moyens tirés de l’analyse de contenu effectuée sur les corpus des décisions et des évènements. Ils montrent l’évolution du dynamisme de l’environnement et les réponses de l’entreprise appréciées au prisme de l’ambidextrie. Ces éléments permettent également, grâce à une régression linéaire multiple, de mettre en évidence que l’ambidextrie organisationnelle est plus fortement influencée par l’ambidextrie de réseau que par l’ambidextrie structurelle. Ces résultats, entre autres4, servent de base aux conclusions tirées de cette recherche et aux implications managériales.

4. Nous renvoyons à la lecture de la thèse pour en apprécier toute la richesse.

185

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Figure 5. Quantifier les contenus

186

2.4. Triangulation On obtient ainsi différents points de vue sur le cas étudié : celui d’une analyse historique construite comme un récit et celui d’une analyse de contenu fondée sur un modèle. Analyse qualitative d’une part et quantitative d’autre part. La triangulation consiste à soumettre les données disponibles à différentes analyses – comme nous l’avons déjà fait pour le récit en exposant les mots spécifiques de chaque époque. Pour le corpus des 410 décisions, une classification automatique (Moscarola, 2018) a été effectuée dans le but de définir des classes de décision homogènes selon les mots-clés des verbatim. Cette analyse inductive mais purement statistique conduit à identifier 5 thèmes (cf. tableau en figure 6). Ils mettent en évidence la convergence des différents points de vue en affichant les époques et les critères de l’analyse de contenu (éléments

Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

du modèle de l’ambidextrie) qui distinguent les classes thématiques révélées par l’analyse de données textuelles. Cette analyse permet de trianguler les résultats et de discuter la portée de l’approche par l’ambidextrie à la lumière d’une approche exploratoire fondée sur l’analyse de données textuelles. Figure 6. Trianguler en confrontant le modèle d’analyse de contenu à l’exploration lexicale et historique

CONCLUSION Au-delà de l’exemple particulier du cas étudié, ce chapitre avait pour visée de promouvoir l’approche historique comme méthode de collecte de données fondée sur la collection d’archives et comme modalité d’analyse des informations ainsi recueillies. C’est une approche intéressante pour des managers-chercheurs. Comme managers, ils bénéficient de l’accès à des documents souvent plus objectifs et riches que les traditionnels entretiens. Comme chercheurs, ils peuvent mettre en œuvre selon leur goût et leur capacité les méthodes illustrées dans ce chapitre. Les uns pourront s’en tenir à un travail inductif de narration et d’interprétation guidé par la référence à des théories existantes ou débouchant sur de nouvelles conjectures (Walsh, 2015). Les autres iront chercher dans les archives les traces de concepts théoriques pour coder leurs données empiriques et tester leur modèle (Moscarola & Papatsiba, 2001 ; Boughzala & Moscarola, 2016). Les méthodes et les outils existent, enrichis des méthodes d’analyse de données textuelles (Moscarola, 2018) : ils permettent de soumettre à l’analyse statistique les interprétations du chercheur. Les plus ambitieux pourront, comme dans cet exemple, multiplier les approches et les triangulations ; ils devront toutefois résister à la tentation de s’intéresser plus

187

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

aux méthodes qu’aux connaissances qu’elles permettent de produire ! Au risque de noyer le lecteur dans une complexité inutile. Références citées Bardin, L. (1977), L’analyse de contenu, Paris, Presses Universitaires de France. Bloch, M. (1949), Apologie pour l’histoire ou métier d’historien, Paris, Armand Colin, coll. « Référence Histoire ». Bogaert, J.C. (2017), Organizational Ambidexterity for Medium-Sized Firms in a Context of Growing Uncertainty, Thèse de DBA, Business Science Institute et Université Lyon 3. Bohm, A. (2004), Theoretical coding: text analysis in grounded theory, in U. Flick, E. von Kardorff & I. Steinke (eds.), A Companion to Qualitative Research, Thousand Oaks, CA, Sage, p. 270-275. Boughzala, Y. & Moscarola J. (2016), Analyser les corpus d’avis en ligne : Analyse lexicale exploratoire et/ou modélisation sémantique ?, Actes des 13es Journées Internationales d’Analyse Statistique des Données Textuelles (JADT), 7-10 juin, Université de Nice.

188

Burgelman, R.A. (1991), Intraorganizational ecology of strategy making and organizational adaptation: Theory and field research, Organization Science, vol. 2, no 3, p. 239-262. Burgelman, R.A. (2011), Bridging history and reductionism: A key role for longitudinal qualitative research, Journal of International Business Studies, vol. 42, no 5, p. 591-601. Dumez, H. (2016), Méthodologie de la recherche qualitative. Les questions clés de la démarche compréhensive, 2e édition, Paris, MagnardVuibert. Febvre, L. (1959), Combats pour l’histoire, Paris, Armand Colin. Gioia, D. A., Corley, K. G. & Hamilton, A. L. (2012), Seeking qualitative rigor in inductive research: Notes on the Gioia methodology, Organizational Research Methods, vol. 16, n° 1, p. 15-31. Glaser, B.G. & Strauss, A.L. (1967), The Discovery of Grounded Theory ? Strategies for Qualitative Research, New Brunswick, NJ, and London, Aldine Transaction. Le Goff, J. & Nora P. (dir.) (1974), Faire de l’histoire, I. Nouveaux problèmes, II. Nouvelles approches, III. Nouveaux objets, Paris, Éditions Gallimard. Lemarchand, Y. & Nikitin, M. (2013), La méthode en histoire et l’histoire comme méthode. Document de recherche n°12, Laboratoire d’Économie d’Orléans, Université d’ Orléans. Marrou, H.I. (1954), De la connaissance historique, Paris, Le Seuil.

Re c h e r c h e h i s t o r i qu e , n a r ra t i o n e t d o c u m e nt s d ’a r c h ive s

Miles, M.B. & Huberman, A.M. (1994), Qualitative Data Analysis. An Expanded Sourcebook, 2nd edition, Thousand Oaks, CA, Sage Publications. Moscarola, J. & Papatsiba V. (2001), Exploration sans a priori ou recherche orientée par un modèle : Contributions et limites de l’analyse lexicale pour l’étude de corpus documentaires, Actes des 6es Journées internationales d’Analyse Statistique des Données Textuelles (JADT,) 13-15 mars, Saint-Malo, p. 581-592. Moscarola, J. (2018), Faire parler les données. Méthodologies quantitatives et qualitatives, Caen, Éditions EMS, coll. « Business Science Institute ». Thiétart, R.A. (2014), Méthodes de recherche en management, 4 e édition, Paris, Dunod. Walsh, I. (2015), Découvrir de nouvelles théories. Une approche mixte et enracinée dans les données, Caen, Éditions EMS, coll. « Business Science Institute ». Yin, R.K. (2009), Case Study Research: Design and Methods, 4th edition, Thousand Oaks, CA, Sage. Références pour en savoir plus Moscarola, J. (2018), Faire parler les données. Méthodologies quantitatives et qualitatives, Caen, Éditions EMS, coll. « Business Science Institute ».

Cet ouvrage situe l’approche historique par rapport aux autres approches qualitatives et présente les méthodes d’analyse de contenu, d’analyse lexicale et sémantique. Le site compagnon www.faireparelerlesdonnees.blog présente de nombreux exemples illustrés avec les logiciels Sphinx. Seignobos, C. (2014), La méthode historique appliquée aux sciences sociales, Lyon, ENS Éditions, coll. « Bibliothèque idéale des sciences sociales ». http://books.openedition.org/ enseditions/492.

Cet ouvrage disponible en ligne présente les grandes étapes de la méthode historique en discutant sa pertinence pour les sciences sociales. Thiétart, R.A. (2014), Méthodes de recherche en management, 4 e édition, Paris, Dunod.

Cet ouvrage francophone de référence en méthodologie de recherche en management a pour objectif de répondre aux ques-

189

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

tions que se pose tout chercheur en gestion et en management, que ce soit avant, pendant ou après sa recherche. Walsh, I. (2015), Découvrir de nouvelles théories. Une approche mixte et enracinée dans les données, Caen, Éditions EMS, coll. « Business Science Institute ».

Ce livre propose une approche originale applicative de la théorie enracinée et permet d’élaborer de nouvelles théories en rupture avec la littérature existante de par l’utilisation de données mixtes qualitatives et quantitatives. Yin, R.K. (2009), Case Study Research: Design and Methods, 4th edition, Thousand Oaks, CA, Sage.

Ce best-seller offre un panorama complet de la conception et de l’utilisation de la méthode des études de cas en tant qu’outil de recherche. Le livre offre une définition claire de la méthode d’étude de cas ainsi qu’une discussion sur les techniques de conception et d’analyse.

190

CHAPITRE 11. La collecte des données sur Internet Jean-François Lemoine

Résumé  Face à la multitude et à la diversité des données disponibles sur Internet, l’étudiant en DBA s’interroge régulièrement sur celles qu’il doit ou non mobiliser dans le cadre de sa thèse. Afin de lui permettre de réaliser un travail doctoral de qualité sur le plan scientifique, ce chapitre se propose de l’aider, d’une part, à hiérarchiser les informations collectées sur Internet, d’autre part, à obtenir des données non mensongères lors de la réalisation de ses enquêtes en ligne. Mots-clés : qualité des données, articles scientifiques, classement des revues académiques, enquêtes par Internet, validité externe, divulgation des données personnelles.

Les méthodes de recherche du DBA

191

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

INTRODUCTION

192

Comment un étudiant en DBA doit-il se comporter face à l’abondance des données mises à sa disposition sur Internet ? La multitude des données consultables sur Internet constitue-t-elle un avantage pour la réalisation de sa thèse ? Toutes les données auxquelles ont accès les doctorants se valent-elles d’un point de vue scientifique ? Comment opérer un tri et une hiérarchisation parmi les données disponibles ? Ces nombreuses questions se posent inévitablement à tout étudiant de DBA engagé dans une recherche doctorale tant le recours à Internet semble représenter aujourd’hui une évidence pour la réalisation de toute activité professionnelle. Derrière cette apparente facilité d’accès aux données se cachent pourtant d’importantes difficultés qui peuvent venir entacher la qualité scientifique de la thèse. La première est relative à l’évaluation de la qualité scientifique des informations disponibles. En d’autres termes, les données consultées ont-elles leur place dans la thèse ? La seconde a trait à la façon dont il convient d’exploiter les données collectées sur Internet pour les besoins de l’étude empirique de la thèse. Cela revient à se demander : quelles sont les précautions à prendre avant d’interpréter, avec la rigueur scientifique qui s’impose dans un travail doctoral, les informations issues d’une enquête en ligne ? Le but de ce chapitre est de sensibiliser les étudiants à ces deux problèmes majeurs et de leur livrer quelques conseils susceptibles de les éviter.

1. COMMENT S’ASSURER DE LA QUALITÉ SCIENTIFIQUE DES DONNÉES CONSULTÉES ? Préalablement à l’exposé de recommandations pratiques susceptibles d’aider le doctorant à hiérarchiser les données auxquelles il est confronté, nous présenterons la diversité de ces dernières.

1.1. La diversité des données disponibles sur Internet En quelques clics, tout doctorant a accès à une multitude d’informations prenant diverses formes (témoignages, définitions, statistiques, articles professionnels et académiques, rapports

L a c o l l e c t e d e s d o n n é e s s u r I nt e r n e t

d’activité, etc.) mais ne possédant pas le même statut d’un point de vue scientifique/académique. Ceci a pour conséquence qu’elles ne pourront pas être mobilisées avec autant d’importance dans le corps de la thèse. D’une manière générale, il convient de distinguer les données académiques de celles qui ne le sont pas (ou moins). Sont prioritairement considérés comme académiques : –– les articles issus de revues scientifiques qui ont fait l’objet d’un processus d’évaluation anonyme par des lecteurs, ayant la plupart du temps le statut d’enseignants-chercheurs, regroupés au sein d’un comité de lecture. Citons, à titre d’exemples, Finance, Organization Studies, Management International, Recherche et Applications en Marketing, Review of Accounting Studies, Revue de Gestion des Ressources Humaines, Systèmes d’Information et Management, etc. ; –– les communications présentées dans le cadre de colloques scientifiques nationaux et internationaux (colloque de l’Association Information Management, congrès international de l’Association Française du Marketing, conférence annuelle de l’Association Internationale de Management Stratégique, Hawaii International Conference on System Sciences (HICSS), etc.) ; –– les ouvrages et les chapitres d’ouvrages rédigés par des enseignants-chercheurs ; –– les thèses de doctorat. Ce sont principalement les données issues de ces différentes sources qui devront être privilégiées pour la rédaction de la thèse. Bien entendu, cela ne veut pas dire que les données non académiques, telles que les articles managériaux, les rapports d’entreprise, les statistiques issues de fédérations ou de syndicats professionnels, ne doivent pas être mobilisées dans le cadre d’un travail doctoral. Elles présentent en effet une utilité certaine lorsqu’il s’agit de contextualiser sa recherche d’un point de vue managérial, de souligner l’intérêt pratique ou l’importance de son travail, d’illustrer ses propos, de décrire un secteur d’activité ou des comportements de consommateurs, etc. Il convient donc de ne pas faire preuve de sectarisme à leur égard mais de les exploiter de manière plus parcimonieuse que

193

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

les données académiques. Pour parvenir à réaliser ce savant dosage entre données académiques et données non académiques, il est conseillé, notamment au cours de la première année de thèse, de revenir régulièrement vers le directeur de recherche afin qu’il éclaire le doctorant sur les pratiques en cours selon la discipline d’appartenance.

1.2. Les aides à la classification des données scientifiques Pour aider le doctorant à hiérarchiser, sur le plan académique, les différents articles qui sont à sa disposition sur Internet, il est utile de s’aider des différents classements existant en matière de revues scientifiques. Ils sont réalisés régulièrement par des organismes étrangers (EJL néerlandais, ABS anglais, VHB allemand, ABDC australien, Financial Times, etc.) et français (classement FNEGE, CNRS, HCERES, Essec, HEC, etc.). Si on prend l’exemple du classement de la Fondation Nationale pour l’Enseignement de la Gestion des Entreprises (FNEGE), il est élaboré à partir des critères suivants (FNEGE, 2016, p. 9) :

194

–– la gouvernance de la revue (rotation du rédacteur en chef, nomination des équipes éditoriales, caractère international du comité éditorial, efforts pour la Francophonie) ; –– la qualité du processus de révision des articles (respect des standards académiques d’évaluation (double aveugle), gestion rigoureuse du processus de révision (délais de réponses aux auteurs), taux de sélectivité) ; –– la diffusion et l’impact des revues (reconnaissance externe de la revue via la citation des articles publiés et l’appartenance à des classements nationaux et internationaux), le caractère « gestionnaire » de la revue (thématique, présence et importance de collègues gestionnaires dans le comité éditorial). À titre d’illustration, le classement 2016 de la FNEGE débouche sur la typologie suivante (FNEGE, 2016, p. 10) : –– revues classées 1 : revues les plus remarquables des sciences de gestion (ou d’une sous-discipline des sciences de gestion) ;

L a c o l l e c t e d e s d o n n é e s s u r I nt e r n e t

–– revues classées 2 : revues très sélectives avec un processus de révision très exigeant ; –– revues classées 3 : revues répondant aux principes d’arbitrage, de sélectivité et de qualité qui en font de très bonnes revues, avec une bonne réputation scientifique et des contributions importantes, à un degré toutefois inférieur aux revues des deux premiers rangs ; –– revues classées 4 : revues répondant complètement aux principes d’arbitrage des revues scientifiques, avec une bonne sélectivité, accueillant des contributions originales. Leur reconnaissance et leurs indices de qualité sont bons mais à un degré moindre que les revues classées aux rangs supérieurs. À l’aide de ces différents classements, l’étudiant débutant en DBA pourra se rassurer quant à la dimension académique des articles qu’il se procure sur Internet et quant à la pertinence de leur mobilisation dans le cadre de sa thèse. Il sera également en mesure de les différencier, de les hiérarchiser selon leur degré de scientificité, de complexité. Si les différents classements élaborés par les institutions savantes sont utiles pour le chercheur, ils doivent néanmoins être utilisés avec raison et ne pas conduire à l’exclusion systématique des supports n’y figurant pas. En d’autres termes, il peut exister des références non classées dont la lecture peut aider le doctorant à progresser dans sa réflexion. Ne pas les mobiliser sous le seul prétexte qu’elles n’apparaissent pas dans des classements constituerait une erreur. Là encore, tout est question de dosage et s’il convient de privilégier la lecture de revues classées dans le cadre d’un travail doctoral, il ne faut pas se priver, lorsque cela est utile à la recherche du candidat, de mobiliser d’autres supports. Par ailleurs, il convient de faire preuve de recul par rapport à ces classements dans la mesure où : –– ils sont évolutifs. Une revue non classée à l’instant t peut l’être en t+1. La FNEGE prend en compte cette possible apparition de nouvelles revues au sein de son classement en proposant une rubrique intitulée « revues émergentes » composée de supports scientifiques en passe d’être intégrés à court terme à sa classification. À l’inverse, il peut

195

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

arriver qu’une référence soit déclassée. De telles possibilités doivent donc amener le doctorant à faire preuve de modération et de prudence quant à son évaluation de la qualité scientifique d’un support ; –– ils ne convergent pas tous. Ainsi, la Revue Française de Gestion qui est classée 2 dans le classement 2016 de la FNEGE est catégorisée 3 dans le classement 2017 du CNRS. Une telle situation ne doit pas conduire l’étudiant en DBA à remettre en cause la qualité scientifique du support consulté.

2. COMMENT EXPLOITER LES DONNÉES COLLECTÉES SUR INTERNET LORS DE LA RÉALISATION D’UNE ÉTUDE EMPIRIQUE ? Après une présentation des risques susceptibles d’affecter la qualité des études empiriques réalisées par Internet, nous formulerons quelques recommandations pratiques afin d’aider les doctorants à collecter des données les moins mensongères possible lors de la mise en œuvre de leurs enquêtes en ligne.

196

2.1. La prise en compte des risques associés à la collecte des données sur Internet L’intérêt des enquêtes par Internet est de pouvoir contacter facilement et rapidement un grand nombre d’individus. Par ailleurs, les taux de réponse traditionnellement obtenus pour ce genre d’étude sont beaucoup plus élevés que ceux classiquement associés aux enquêtes administrées en face à face, par voie postale ou par téléphone. Ces éléments constituent indéniablement des avantages pour les étudiants de DBA qui disposent la plupart du temps d’un temps limité pour mener à bien leur recherche. Pourtant, derrière cette apparente facilité de mise en œuvre de l’enquête par Internet se cachent des risques récurrents pouvant mettre à mal la qualité scientifique de l’étude réalisée. Il est donc indispensable pour le doctorant de toujours les avoir à l’esprit de manière à pouvoir prendre du recul par rapport aux résultats obtenus et à être en mesure de relativiser leur portée. La première limite des études administrées par Internet est liée à l’impossibilité de contrôler l’identité des répondants.

L a c o l l e c t e d e s d o n n é e s s u r I nt e r n e t

S’ils ont fourni des données erronées, il n’est pas possible de le savoir et cela place inévitablement le chercheur dans une situation d’incertitude par rapport à la composition réelle de son échantillon et donc à sa représentativité statistique. Dans tous les cas, l’échantillon constitué est dit de convenance et il ne permet pas une extrapolation des résultats à la population totale faisant l’objet de la recherche. Le remplissage incomplet de certains questionnaires déposés en ligne constitue un deuxième risque susceptible de dégrader la valeur de la base de données composée. Même s’il existe des systèmes informatiques empêchant la validation totale du questionnaire tant que celui-ci n’a pas été intégralement rempli par l’enquêté, les doctorants n’y recourent pas systématiquement et se trouvent donc potentiellement confrontés à ce problème. Enfin, il ne faut pas sous-estimer la tendance des internautes à adopter des comportements de non divulgation de leurs données personnelles. Cela peut se traduire par des absences de réponses à certaines questions ou par la communication de données mensongères. Ce type de réaction se produit d’autant plus que l’internaute est interrogé sur des sujets qu’il juge sensibles et relevant de sa vie privée. Ces différents risques limitent la validité externe de l’étude réalisée et empêchent donc toute tentative de généralisation des conclusions obtenues. Cela doit donc amener le doctorant à prendre du recul par rapport à ses résultats, à les utiliser avec une extrême prudence et à ne jamais les présenter comme des certitudes acquises. Sous ces conditions, le doctorant est autorisé à exploiter les données collectées et à formuler avec précaution des recommandations théoriques et/ou managériales.

2.2. Les solutions à mettre en œuvre pour favoriser la divulgation de données personnelles sincères Pour réduire le risque de divulgation de données mensongères lors des enquêtes en ligne, l’étudiant en DBA peut s’inspirer des conseils formulés par Lancelot-Miltgen et Lemoine (2015) aux entreprises afin d’obtenir de la part des répondants des informations personnelles les plus sincères possible.

197

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Quatre actions sont envisageables (Lancelot-Miltgen & Lemoine, 2015) : –– offrir aux internautes une contrepartie. D’une manière générale, les répondants sont d’autant plus enclins à se consacrer sérieusement et honnêtement à l’enquête dont ils font l’objet qu’ils savent qu’ils vont recevoir quelque chose en échange qu’ils jugent satisfaisant. Préalablement au remplissage du questionnaire, les enquêtés se livrent à un arbitrage coûts/bénéfices afin d’évaluer si la contrepartie proposée est bien de nature à compenser le risque qu’ils prennent en dévoilant une partie de leur vie privée (Paine et al., 2007). Elle peut prendre la forme d’avantages financiers (rémunération, remise de bons d’achat, de réduction, abonnement à une revue) ou d’envoi symbolique de petits cadeaux (stylos, clés USB, etc.) ; –– faire preuve de pédagogie dans la présentation de l’enquête en explicitant précisément son utilité et sa finalité ;

198

–– soigner la formulation de la demande en recourant à un vocabulaire simple, compréhensible par tous mais également en offrant aux répondants des modalités de réponse variées, renforçant leur sentiment de liberté en matière de données à fournir, et la possibilité de ne plus être sollicités ultérieurement. Par ailleurs, la collecte de données sensibles doit être réduite à un nombre limité de questions pour lesquelles les réponses à communiquer sont courtes ; –– gagner la confiance du répondant en fournissant l’identité et le titre de l’enquêteur, en précisant le caractère confidentiel de l’étude et en rassurant l’internaute quant à l’aspect sécurisé du site sur lequel a lieu la collecte des données. En suivant ces recommandations, l’étudiant peut espérer favoriser les comportements de dévoilement de soi de ses répondants en réduisant leurs craintes de voir leur vie privée mise à mal par l’étude réalisée et en limitant leur propension à fournir des données erronées. Même si elle ne met pas totalement à l’abri le doctorant d’une collecte de données biaisées, la mise en œuvre de ces conseils lui permet néanmoins d’attester de sa clairvoyance en matière d’étude réalisée sur Internet et d’afficher vis-à-vis de

L a c o l l e c t e d e s d o n n é e s s u r I nt e r n e t

ses pairs sa volonté de tout mettre en œuvre pour conduire une recherche scientifique de qualité.

CONCLUSION À la question « peut-on mobiliser, dans le cadre d’une thèse de DBA, toute information disponible sur Internet ? », la réponse est non. En effet, les données consultables en ligne sont de qualité inégale sur le plan académique et sont susceptibles de mettre à mal la rigueur scientifique dont doit faire preuve un travail doctoral. Dans la mesure où il arrive qu’elles soient parfois utiles au doctorant dans l’élaboration de sa réflexion, il convient malgré tout de ne pas les rejeter systématiquement mais plutôt de les exploiter avec parcimonie, clairvoyance et lucidité. On attendra de l’étudiant de DBA qui utilise des données collectées sur Internet qu’il en explique précisément les raisons (souci de contextualisation de la recherche, volonté de démontrer l’importance du sujet traité par des données économiques, etc.), qu’il soit en mesure de les relativiser, d’un point de vue scientifique, par rapport aux données académiques et qu’il les exploite avec prudence afin de mettre à jour des contributions théoriques et managériales reconnues de manière indiscutable par la communauté des chercheurs et des praticiens. Références citées FNEGE (2016), Classement des revues scientifiques en sciences de gestion, juin, Paris. Lancelot-Miltgen, C. & Lemoine, J.-F. (2015), Mieux collecter les données personnelles sur Internet. Une étude qualitative auprès d’internautes français, Décisions Marketing, n° 79, p. 35-52. Paine, C., Reips, U.D., Stieger, S., Joinson, A. & Buchanan, T. (2007), Internet users’ perceptions of privacy concerns and privacy actions, International Journal of Human-Computer Studies, vol. 65, n° 6, p. 526-536. Références pour en savoir plus CNRS (2017), Catégorisation des revues en Économie et en Gestion, décembre, Paris.

199

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

En comparant ce classement à celui de la FNEGE (2016), vous pourrez constater comment les différentes revues académiques existantes peuvent faire l’objet de typologies différentes. Evrard, Y., Pras, B. & Roux, E. (2009), Market : fondements et méthodes de recherche en marketing, 4 e édition, Paris, Dunod.

Cet ouvrage vous aidera à mieux comparer, sur le plan des avantages et des inconvénients, les enquêtes réalisées sur Internet aux études administrées en face à face, par voie postale ou par téléphone. Wirtz, J., Lwin, M. & Williams, J.D. (2007), Causes and consequences of consumer online privacy concern, International Journal of Service Industry Management, vol. 18, n° 4, p. 326-348.

Cet article explique comment la préoccupation pour le respect de la vie privée sur Internet génère des comportements spécifiques en matière de divulgation des données personnelles.

200

CHAPITRE 12. Questionnaires et questionnaire en ligne Jean Moscarola

Résumé On présente tout d’abord ce qui distingue les questionnaires conçus pour la recherche pour ensuite expliciter les apports des enquêtes en ligne. Les exemples cités sont présentés en détail sur le site associé https://faireparlerlesdonnees. blog/ qui présente également les modes opératoires pour la construction d’un questionnaire en ligne.

Mots-clés : formulaire, design, interactivité, sondage, emailing, taux de réponse.

Les méthodes de recherche du DBA

201

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

“The rise of online survey is accompanied with the rise of big data. It is of critical importance to design the online survey to enable survey data to be related to the other kinds of data.” Vera Toepoel

INTRODUCTION Les questionnaires sont utilisés par les organismes publics et organisations en charge de populations, ils servent aussi dans les entreprises à enquêter auprès des clients ou des collaborateurs. Dans l’administration ou en informatique on parle de questionnaire ou de formulaire pour qualifier les documents ou interfaces destinés à recueillir des informations servant à définir des droits ou à lancer une application.

202

Tous ces usages reposent sur un travail de formalisation plus ou moins abouti selon la liberté laissée dans le choix et l’expression des réponses. Un formulaire administratif ou informatique définit très précisément les situations ou actions possibles, un questionnaire de satisfaction peut laisser place à une libre expression. La qualité des informations1 recueillies dépend autant des questions et du support, que des protocoles de diffusion, de recueil et d’enregistrement des réponses. Au cours des vingt dernières années, Internet a profondément transformé l’usage des questionnaires. Les protocoles traditionnels de diffusion par voie postale de questionnaires auto-administrés, ou d’enquêtes menées en face à face ou au téléphone avec l’assistance d’un enquêteur ou d’un téléacteur, ont été massivement remplacés par les questionnaires diffusés en ligne. Ainsi disparaissent l’assistance par un tiers (enquêteur ou téléacteur) et la nécessité de saisir les réponses reçues par voie postale ou recueillies par les enquêteurs. C’est désormais le répondant qui le fait. Cela a conduit à une explosion de l’usage des questionnaires devenu beaucoup moins coûteux et à l’apparition de nouvelles pratiques que nous examinerons dans la sec1. De l’existence de la réponse à son authenticité les critères sont nombreux et difficiles à définir. L’absence de réponse peut aussi bien venir de l’incompréhension de la question que du refus de répondre. Sans parler des réponses « stratégiques ».

Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

tion 2 après avoir passé en revue les grandes caractéristiques des questionnaires et leur intérêt pour la recherche.

1. L’USAGE DES QUESTIONNAIRES POUR LA RECHERCHE Les questionnaires viennent en complément des autres sources évoquées dans les chapitres précédents et ne doivent pas être confondus avec les entretiens : les questions sont précises, posées de manière systématique, les possibilités de réponses le plus souvent explicitées. Toutefois, l’analyse d’entretiens peut aider à la conception d’un questionnaire, et le formalisme des questionnaires peut être utilisés pour analyser le contenu des entretiens (Moscarola, 2018).

1.1. Questionnaire en situation managériale Le recours aux questionnaires n’est pas spécifique à la recherche. Les managers et les consultants les utilisent pour évaluer des résultats et réagir (enquête qualité, de satisfaction2, de climat interne, baromètres), pour éclairer une décision (étude de marché) ou pour mettre en place des observatoires, faire des points réguliers et suivre les opérations. Dans tous ces cas l’information recherchée est finalisée par l’action ou par la production de connaissances descriptives très spécifiques à un domaine. Les buts du chercheur sont différents : produire une connaissance générale dont la portée ne se limite pas à un cas particulier ou à une décision, mais se réfère à des théories et connaissances existantes. Cette nouvelle connaissance doit pouvoir être enseignée et apporter une compréhension plus générale et applicable à d’autres cas. Il est plus facile pour des managers-chercheurs, immergés dans leur terrain, d’administrer un questionnaire. Mais pour répondre aux exigences de la recherche il faut aller plus loin que la construction d’un questionnaire de satisfaction, de climat so2. SERVQUAL (voir Parasurama et al., 1988).

203

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

cial ou que la mise en place d’un observatoire. Néanmoins, ces approches managériales peuvent être une opportunité pour une première analyse exploratoire conduisant à ajouter des questions plus globales permettant de problématiser le questionnaire. Examinons maintenant quelques usages de questionnaires très spécifiques à l’approche recherche.

1.2. Questionnaires en situation expérimentale

204

Les approches expérimentales consistent à mettre des personnes en situation de réaliser une tâche en vue d’observer leur action et de recueillir de l’information. Ces méthodes initiées en psychologie expérimentale par le test de Rorschach (1921) ont été vulgarisées par le Thematic Apperception Test ou TAT (Brelet, 1986). La méthode consistait à montrer aux répondants des planches de dessins figuratifs représentant des situations, et de leur demander de raconter une histoire à partir de ces planches. Leur récit est ensuite interprété par l’analyste. Ce principe est repris en marketing et gestion des ressources humaines par les méthodes d’analyse conjointe (Green & Srinivasan, 1990). Le but est d’identifier les préférences de consommateurs ou de salariés en les faisant choisir entre des paires de cartes présentant les attributs de différents produits ou postes de travail. Leurs choix sont ensuite analysés statistiquement. Ces méthodes reposent sur des questionnaires présentant des documents figuratifs et donnant lieu à des réponses libres (TAT) ou spécifiées (« analyse conjointe », Guillot-Soulez & Soulez, 2009). La méthode Delphi (Linstone & Turoff, 2002) consiste à interroger des experts sur des projets. Dans un premier temps ils répondent à un questionnaire en évaluant les différents aspects du projet. Dans un deuxième temps la moyenne des évaluations est communiquée à chaque expert en leur donnant la possibilité de réviser leurs propres évaluations ou d’expliquer pourquoi ils les maintiennent. Ces approches ont en commun de faire réagir les répondants. Elles ont longtemps été limitées par la lourdeur du protocole impliquant la production et le maniement des planches figuratives ou la communication de résultats et le recueil des réactions.

Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

Comme nous le verrons, les possibilités offertes par Internet ont permis d’étendre ces usages en les banalisant.

1.3. Questionnaire instrument de mesure Les questionnaires sont utilisés en psychologie pour évaluer les caractéristiques mentales ou comportementales d’un individu invité à indiquer son degré d’accord avec des énoncés qui lui sont proposés. Les réponses sont données sur des échelles de Lickert (1932) à nombre d’échelons impairs, 5 ou 7 le plus souvent 3. La psychométrie définit les méthodes permettant de valider le questionnaire en l’administrant à un grand nombre de personnes pour vérifier la qualité de la mesure. Les tests du coefficient intellectuel ou de l’intelligence émotionnelle en sont des exemples. Ces méthodes sont reprises en sciences sociales pour définir des concepts abstraits comme la personnalité, l’attitude (Igalens & Tahri, 2012) les valeurs (Schwartz, 2006 ; Hofstede, 2001) et caractériser des populations. Les chercheurs en gestion se sont inspirés de ces méthodes pour définir des concepts et les opérationnaliser par des échelles de mesure dont la publication est un résultat de recherche qui nécessite le respect d’une méthodologie rigoureuse (Touzani & Salaani, 2000 ; Brignier, 1991). Ainsi le Handbook of Management Scales4 ou le Handbook of Marketing Scales (Bearden & Netemeyer, 1999) publient des échelles utilisées, testées et publiées dans tous les domaines du management. C’est une référence utile pour le chercheur même s’il est nécessaire de les adapter aux contextes particuliers notamment lorsqu’elles comportent de très nombreux items fortement redondants5.

1.4. Questionnaire modélisation Lorsque l’objet de la recherche est de tester des hypothèses, une théorie ou un modèle, l’approche standard consiste à construire 3. Pour éviter les prises de positions forcées. 4.  h ttps://en.wikibooks.org/wiki/Handbook_of_Management_Scales 5. Ce qui se justifie lorsque le questionnaire est passé par un professionnel psychologue.

205

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

le questionnaire en opérationnalisant les concepts de la théorie avec des échelles de mesure. On parle de « construit » pour définir la mesure de chaque concept résultant de l’application d’une batterie d’échelles. Les relations entre construits définissent le modèle. Les techniques de modélisation en équation structurelle (Bagozzi, 1981) donnent la possibilité de tester directement le modèle à partir des données recueillies. Cette approche connaît un grand succès autant par son caractère pédagogique (Kühnel, 2001) car elle guide la construction du questionnaire, que par la portée de ses résultats. Elle permet en effet de tester globalement le modèle, de qualifier l’importance des influences entre concepts et de visualiser cela par un diagramme. Figure 1. Des concepts aux questions : le questionnaire modèle

206

La figure 1 illustre les principes de construction d’un questionnaire en opérationnalisant des concepts. Le TAM est un modèle ayant donné lieu à de nombreuses recherches en système d’information.

Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

1.5. Questionnaire exploratoire Face aux difficultés à appliquer les théories de la mesure dont les conditions sont très exigeantes, ou en préférant une approche inductive, le chercheur peut opter pour un questionnaire exploratoire fondé sur une problématique plus générale visant à identifier des influences de contextes ou de circonstances, ou à appréhender différents points de vue. Il cherche ainsi à collecter des données en explorant plusieurs facettes et en cherchant sur le mode de la « théorie enracinée » (Walsh, 2015) à faire émerger des hypothèses nourries de ses observations plutôt que la littérature. Figure 2. Explorer en décrivant

207 Les schémas dans la figure 2 illustrent deux manières de voir l’objet de la recherche dont les chercheurs peut se servir pour construire un questionnaire exploratoire (Moscarola, 2018).

1.6. Questionnaire outil d’analyse Enfin un questionnaire peut être utilisé comme une grille d’analyse que le chercheur construit pour différents usages de catégorisation et de compilation des informations qu’il rencontre en différentes circonstances de sa recherche. Il peut ainsi tenir son journal de recherche en notant dans un formulaire évènements, activités, lectures et réflexion. Enfin s’il analyse des transcriptions d’entretiens, il peut le faire à l’aide d’une grille thématique, ou d’un « codebook » réalisé avec un formulaire. Dans tous ces cas le chercheur dialogue avec lui-même, organise et consigne sa pensée en documentant les zones d’un for-

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

mulaire comme s’il répondait à un questionnaire sur ce qu’il a fait, observé, lu, ou compris du corpus qu’il analyse. À la place des traditionnels cahiers, blocs notes ou dossiers, il utilise un système d’information numérique, construit et structuré en zones et rubriques correspondant aux catégories conceptuelles de sa recherche. Ce qu’il perd en contrainte de forme et rigidité est compensé par des capacités accrues d’archivage, de gestion et d’analyse. Ce travail peut être entrepris avec l’aide d’un tableur, d’un outil de gestion documentaire ou en construisant un questionnaire.

2. LES QUESTIONNAIRES EN LIGNE, PORTÉE ET LIMITES

208

Internet remplace le support papier en y ajoutant les propriétés d’un support multimédia pour solliciter des répondants en diffusant 6 des formulaires. De plus il apporte une intelligence automatisée avec la possibilité par exemple d’adapter les questions en fonctions des réponses ou de réguler les sollicitations pour respecter des quotas. Ces tâches traditionnellement dévolues aux enquêteurs sont, comme bien d’autres, prises en charge par le système. À la suite des premiers questionnaires en ligne apparus à la fin des années 1990 sous forme de pages html, on assiste à une remarquable adaptation des usages à l’évolution des technologies. Dès 2004 Kaplowitz et al. (2004) parlent de démocratisation de la recherche et en 2010, Frippiat et Marquis (2010), dans leur état des lieux, montrent que mener une enquête via Internet est la solution la moins coûteuse et la plus rapide. En 2015 Callegaro et al. (2015) décrivent les possibilités des formulaires dynamiques, associés à des bases de données et de format adaptable à tout type d’appareil mobile. En 2017 Fielding et al. (2017) prennent la mesure des ces évolutions et dressent l’actualité d’une recherche en sciences sociales où le traditionnel questionnaire en ligne coexiste avec la récupération de commentaires spontanément déposées sur le web. L’ethnographie virtuelle ou « netno6. Les outils d’e-mailing permettent des gérer la campagne de collecte.

Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

graphie » (Kozinets, 2009) vient ainsi brouiller des clivages historiques. Cette évolution se fait grâce à la technologie, et de nombreuses études ont montré l’effet positif de l’image (Ganassali & Moscarola, 2004 ; Middleton et al., 2014) et de l’interactivité (Bouzidi, 2012) sur l’efficacité des questionnaires mesurée par les taux de réponses et de remplissage (Ganassali & Moscarola, 2004 ; Galesic & Bosnjak, 2009). Pour ce qui concerne la qualité des réponses les conclusions sont moins nettes. L’incitation à répondre provoquée par la présence d’un enquêteur est moins forte, mais l’influence sur le contenu des réponses (« désirabilité sociale »7) plus faible également. Tout dépend des cibles, ainsi que des leviers dont le chercheur dispose pour s’y adapter.

2.1. Diffusion et sollicitation Internet apporte une flexibilité et une rapidité inégalées pour diffuser des questionnaires en déposant un lien sur un site ou un réseau social, en l’envoyant par mail ou en utilisant un outil d’emailing. Cette solution est de loin la plus efficace pour personnaliser la sollicitation et gérer les relances, mais elle nécessite de disposer d’adresses mail. Ce mode de diffusion particulièrement adapté aux enquêtes en « milieu connu » donne un avantage certain aux managers-chercheurs qui obtiennent de très bon taux de réponses (Mottet, 2016) au sein de leur entreprise. Mais il faut aussi savoir relancer car Internet est un media rapide, autant pour provoquer une réaction que pour laisser la sollicitation dans l’oubli. Enfin pour obtenir de bon taux de réponses et échapper au biais de ce média, il faut poursuivre la collecte par téléphone ou enquêteur.

2.2. Effet de design L’usage des couleurs, des images, des graphismes, des icônes et émoticons donne au questionnaire une apparence séduisante et ludique et permet de l’adapter à une charte graphique. De très 7. Biais qui consiste à vouloir se présenter sous un jour favorable à ses interlocuteurs (Wikipédia).

209

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

nombreuses études (Couper, 2008 ; Ganassali, 2008) ont montré les effets de ces ajouts qui compensent l’absence de stimulation humaine. Mais il faut savoir aussi résister à la tentation d’en faire trop (Couper, 2008).

2.3. L’effet de dévoilement et de scénarisation

210

Dans les enquêtes papier auto-administrées le répondant découvre les intentions du chercheur en prenant connaissance du questionnaire. Avec un enquêteur c’est lui qui dévoile progressivement les questions. Sur Internet, leur apparition est contrôlée par le découpage en pages du formulaire. Cela permet de débuter par des questions ouvertes sans dévoiler l’objectif de l’étude. Le répondant ne découvre les intentions des auteurs qu’après avoir répondu à une première séquence de questions ouvertes. Cette opportunité permet de concevoir des questionnaires hybrides (Ganassali, 2016) avec une première partie qualitative et exploratoire assimilable à un entretien préalable ouvert et une deuxième destinée à tester un modèle théorique. Dans la tradition des test projectifs, les réponses à la partie ouverte peuvent être stimulées par un mur d’images (Ganassali, 2016). Un autre effet de dévoilement consiste à présenter les réponses (modalités, items d’une batterie d’échelles, images d’un mur d’images) de manière aléatoire afin d’éliminer les biais liés aux ancrages perceptifs sur les premiers éléments (« effet de primauté » selon Tourangeau & Rasinski, 2000).

2.4. Interactivité dynamique et sémantique L’absence d’enquêteur peut être compensée sur le web par des effets d’interactivité donnant au répondant le sentiment qu’il a un interlocuteur. L’interactivité dynamique consiste à faire apparaître les items au fur et à mesure de l’avancement de ses réponses : « effet d’exposition ». L’interactivité sémantique consiste à faire varier les questions en fonctions des réponses précédemment apportées comme s’il y avait un interlocuteur : « effet d’interpellation ». On peut enfin mentionner l’interactivité de groupe qui, dans la tradition de la méthode Delphi consiste à informer le répondant des réponses apportées par les autres en

Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

l’interpellant ou en lui demandant de confirmer ou de modifier sa réponse (Boughzala, 2010). Des études (Ganassali, 2008 ; Bouzidi, 2012) montrent les effets positifs de l’interactivité sur la qualité des réponses. Au-delà de l’effet d’interpellation, l’interactivité sémantique permet aussi au chercheur de contrôler ses interprétations en soumettant en temps réel ses conclusions à l’avis du répondant8 (Boughzala, 2010).

2.5. Effets de partage et collaboration Les questionnaires en ligne permettent aussi d’organiser la recherche sur un mode collaboratif en diffusant un lien aux personnes-relais chargées d’organiser la collecte auprès de différentes populations. La collaboration peut également porter sur le partage entre chercheurs d’une grille d’analyse commune permettant de répartir le travail d’analyse bibliographique ou d’analyse de contenu.

2.6. Efficacité et limites des enquêtes en ligne Seules les populations connectées sont atteignables ce qui exclut certaines personnes et conduit à en sur-représenter d’autres (« biais d’exposition »). Le deuxième inconvénient tient à la qualité des réponses (voir aussi figure 3) plus incertaine que celles obtenues avec des enquêteurs expérimentés : abandons en cours, non-réponses, réponses « simplement pour avancer », saisies erronées, orthographe approximative… Ces biais d’intérêt peuvent être compensés par les effets de design, de scénarisation ou d’interactivité, mais la nécessité de « nettoyer les données » pour qualifier un échantillon exploitable réduit l’efficacité et augmente les coûts. Enfin, l’apparente facilité à concevoir un questionnaire et l’aspect ludique des effets de design ou d’interactivité peuvent conduire à un questionnaire trop long, mal compris où qui lasse le répondant. La technologie ne doit pas prendre le pas sur la réflexion, la connaissance du terrain et les contenus (Couper, 2008). 8. Un calcul en temps réel permet de situer le répondant en fonction de ses réponses et de l’interpeller sur cette base.

211

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Figure 3. Ce qui détermine la qualité d’un questionnaire en ligne

Source : Ganassali & Moscarola, 2004

3. QUELQUES EXEMPLES Les exemples ci-dessous sont présentés en détail à l’adresse suivante : https://faireparlerlesdonnees.blog/questionnaire

212

3.1. Grandes enquêtes Un groupe de trente universités européennes met en ligne un questionnaire hybride rédigé dans vingt-trois langues différentes comportant un mur d’images et des questions destinées à étudier l’usage des boissons en Europe du point de vue de la consommation et de la culture (Santos et al., 2013). Plus de 15 000 réponses ont été collectées sur une période de 6 mois. Chaque université gère sa collecte en diffusant un questionnaire multi-langue. Les réponses sont consolidées dans une base commune. L’analyse de contenu des commentaires suscités par le mur d’image est effectuée avec un « codebook » en ligne partagé entre les codeurs de chaque université qui lisent les réponses dans le formulaire et les codent.

3.2. Questionnaire exploratoire Pour lancer sa recherche sur la prise en compte des normes environnementales dans les projets urbains, Vincent Mottet (Mottet, 2016) diffuse à ses collègues, cadres dirigeants de l’État

Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

de Genève, un questionnaire sur leur perception de l’environnement et de l’action des acteurs du développement territorial. Ils le connaissent tous et il obtient en un mois un excellent retour à son questionnaire en ligne. Cette première enquête lui permet d’affiner sa problématique. L’usage d’un mur d’image introductif a certainement contribué à la qualité des retours.

3.3. Questionnaire managérial Amara Kouyatey, membre dirigeant de la Banque Ouest Africaine de Développement lance dans le cadre de ses activités de directeur des ressources humaines un questionnaire auprès des cadres de cette banque présente dans neuf pays. Il conçoit son questionnaire en référence aux instruments des ressources humaines, à la satisfaction et à l’engagement des collaborateurs. Il répond ainsi au besoin d’évaluer les actions de sa banque et à des questions théoriques débattues dans la littérature. Il y parvient par un effort de modélisation. Sa position dans la banque et la diffusion par du questionnaire par Internet lui permettent d’obtenir des données qu’un chercheur académique n’aurait pas pu obtenir.

3.4. Questionnaire modélisation et interactivité Younes Boughzala dans le cadre d’une thèse académique (Boughzala, 2010), étudie l’adoption d’un système d’information. Il se réfère à un modèle classique qu’il enrichit en examinant le rôle de la confiance. À la fin du questionnaire diffusé en ligne, le système affiche un commentaire qui caractérise le répondant et l’invite à réagir en s’expliquant. Le chercheur vérifie ainsi la pertinence de ses interprétations et l’analyse des réponses stimulées par l’interpellation permet d’approfondir les conclusions de la recherche. D’autres recherches sont présentées sur le site avec une description de modes opératoires.

213

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

4. CONCEVOIR UN QUESTIONNAIRE OU UNE GRILLE D’ANALYSE ET LES METTRE EN LIGNE 4.1. Les outils Il existe désormais de très nombreux services web proposant la réalisation et la mise en ligne de questionnaires. Ils offrent tous de nombreuses possibilités de mise en forme et de design. Les exemples présentés ont été mis en œuvre avec les outils Sphinx9 qui présentent l’avantage d’offrir de nombreuses possibilités de scénarisation et d’interactivité mais surtout d’être intégrés à des outils d’emailing et d’analyse statistique, lexicale et sémantique très complets.

4.2. La méthode

214

La disposition d’outil informatique est incontournable mais cette condition nécessaire n’est pas suffisante. Pour concevoir un bon questionnaire qu’il soit en ligne ou non, il faut concrétiser les concepts et modèles théoriques dans un langage compris par les répondants et qui les motive. Bref, articuler théorie et terrain pour répondre à la question de recherche. Cela nécessite tout un travail préalable, comportant une phase de test destinée à vérifier le bon fonctionnement des outils et l’adaptation du questionnaire aux interlocuteurs (Saris & Gallhofer, 2014). Cette phase de test est cruciale est doit être entreprise le plus rapidement possible. La flexibilité des questionnaires en ligne le permet. Références citées Bagozzi, R.P. (1981), Evaluating structural equation models with unobservable variables and measurement error, Journal of Marketing Research, vol. 18, n° 3, p. 375-381. Bearden, W. O. & Netemeyer, R. G. (1999), Handbook of Marketing Scales, Thousand Oaks, CA, Sage. Boughzala, Y. (2010), Le rôle de la confiance dans l’adoption des systèmes d’information : Cas de l’E-achat public en France, Thèse de doctorat en sciences de gestion, Université de Savoie Mont Blanc. 9. Sphinx Déclic est le service en ligne de Sphinx.

Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

Bouzidi, W. (2012), L’interactivité dans les enquêtes en ligne, Thèse de doctorat en sciences de gestion, Université de Savoie Mont Blanc. Brelet, F. (1986), Le TAT – Fantasme et situation projective, Paris, Éditions Dunod. Brignier, J.-M. (1991), L’influence des échelles de mesures sur les réponses collectées dans les enquêtes, Recherche et Application en Marketing, vol. 6, n° 1, p. 1-25. Callegaro, M., Manfreda, K.L. & Vehovar, V. (2015), Web Survey Methodology, Thousand Oaks, CA, Sage. Couper, M. (2008), Designing Effective Web Surveys, Cambridge, Cambridge University Press. Fielding, N. G., Lee, R. M. & Blank, G. (eds.) (2008), The SAGE Handbook of Online Research Methods, Thousand Oaks, CA, Sage. Frippiat, D. & Marquis, N. (2010), Les enquêtes par Internet en sciences sociales : un état des lieux, Population, vol. 65, n° 2, p. 309-338. Galesic, M. & Bosnjak, M. (2009), Effects of questionnaire length on participation and indicators of response quality in a web survey, Public Opinion Quarterly, vol. 73, n° 2, p. 349-360. Ganassali, S. (2008), The influence of the design of web survey questionnaires on the quality of responses, Survey Research Methods, vol. 2, n° 1, p. 21-32. Ganassali, S. (2016), Presenting online multi-image elicitation: The contributions of a hybrid protocol, Recherche et Applications en Marketing (English Edition), vol. 31, n° 4, p. 65-82. Ganassali, S. & Moscarola, J. (2004), Protocoles d’enquête et efficacité des sondages par internet, Décisions Marketing, n° 33, p. 63-75. Green, P. E. & Srinivasan, V. (1990), Analysis in Marketing: New developments with implications for research and practice, Journal of Marketing, vol. 54, n° 4, p. 3-19. Guillot-Soulez, C. & Soulez, S. (2009), L’analyse conjointe : présentation de la méthode et potentiel d’application pour la recherche en gestion des ressources humaines, Revue de Gestion des Ressources Humaines, vol. 80, n° 2, p. 33-44. Hofstede, G. (2001), Culture’s Consequences: Comparing Values, Behaviors, Institutions and Organizations Across Nations, London, Sage. Igalens, J. N. & Tahri, N. (2012), Perception de la RSE par les salariés : Construction et validation d’une échelle de mesure, Revue de Gestion des Ressources Humaines, vol. 83, n° 1, p. 3-19.

215

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Kaplowitz, M., Hadlock, T. & Levine, R. (2004), A comparison of web and mail survey response rates, Public Opinion Quarterly, vol. 68, n° 1, p. 94-101. Kozinets, K. (2009), Netnography: Doing Ethnographic Research Online, Thousand Oaks, CA, Sage. Kühnel, S. (2001), The didactical power of structural equation modeling, Conference on Structural Equation Modeling, Present and Future, A Festschrift in Honor of Karl Joreskog, Uppsala, Sweden, Scientific Software International, p. 79-96. Likert, R. (1932), A technique for the measurement of attitudes, Archives of Psychology, vol. 22, n° 140, p. 55. Linstone, H.A. & Turoff, M. (eds.) (2002), The Delphi Method: Techniques and Applications, New Jersey Institute of Technology. Middleton, A., Bragin, E., Morley, K. I. & Parker, M. (2014), Online questionnaire development: using film to engage participants and then gather attitudes towards the sharing of genomic data, Social Science Research, vol. 44, p. 211-223. Moscarola, J. (2018), Faire parler les données. Méthodologies quantitatives et qualitatives, Caen, Éditions EMS, coll. « Business Science Institute ».

216

Mottet, V. (2016). Construire une agglomération transfrontalière, Caen, Éditions EMS, coll. « Business Science Institute ». Parasuraman, A., Zeithaml, V. A. & Berry, L. L. (1988), Servqual: A multiple-item scale for measuring consumer perception or service quality, Journal of Retailing, vol. 64, n°1, p. 12. Rorschach, H. (1921), Psychodiagnostics, Berne, Hans Huber. Santos, C. R., Ganassali, S., Casarin, F. & Laaksonen, P. (eds.) (2013), Consumption Culture in Europe: Insight into the Beverage Industry, Hershey, PA, IGI Global. Saris, W. E. & Gallhofer, I. N. (2014), Design, Evaluation and Analysis of Questionnaires for Survey Research, Second edition, Hoboken, NJ, Wiley. Schwartz, S. (2006), A theory of cultural value orientations: Explication and applications, Comparative Sociology, vol. 5, n° 2, p. 137-182. Toepoel, V. (2005), Doing Surveys Online, Thousand Oaks, CA, Sage Publications. Tourangeau, L. & Rasinski, K., (2000), The Psychology of Survey Response, Cambridge, Cambridge University Press. Touzani, M. & Salaani, T. (2000), Le processus de validation des échelles de mesure : fiabilité et validité, Marketing, vol. 11, n° 3, p. 290-307.

Q u e s t i o n n a i r e s e t qu e s t i o n n a i r e e n l i g n e

Walsh, I. (2015), Découvrir de nouvelles théories : une approche mixte et enracinée dans les données, Caen, Éditions EMS, coll. « Business Science Institute ». Références pour en savoir plus Fielding, N. G., Lee, R. M. & Blank, G. (eds.) (2008), The SAGE Handbook of Online Research Methods, Thousand Oaks, CA, Sage.

Cet ouvrage de référence fait le point sur toutes les sources de données et méthodes de collecte en ligne. Il vous donnera des idées sur des approches complémentaires au traditionnel questionnaire en ligne Moscarola, J. (2018), Faire parler les données. Méthodologies quantitatives et qualitatives, Caen, Éditions EMS, coll. « Business Science Institute ».

Vous y trouverez comment développer votre questionnaire à l’articulation des concepts de la littérature et des expériences du terrain tout en mettant en œuvre les stratégies d’interrogation que permettent les formulaires en ligne. Des exemples de formulaires en ligne se trouvent également sur le site compagnon : https://faireparlerlesdonnees.blog/. Le site de l’éditeur des logiciels Sphinx http://www.lesphinx-developpement.fr, vous fournira des informations sur ces logiciels et sur leur contribution aux enquêtes en ligne.

217

CHAPITRE 13. Pratiquer une recherche-intervention qualimétrique Violette Boko et Marc Bonnet

Résumé Ce chapitre a pour objet d’illustrer la façon dont on peut réaliser une thèse DBA sur la base d’une recherche-action. Il commence par un passage en revue de plusieurs méthodes possibles de recherche-action, et il justifie le recours à l’une des méthodes les plus transformatives de recherche-action appliquées aux sciences de gestion : il s’agit de l’approche de recherche-intervention qualimétrique. Celle-ci intègre en effet les effets qualitatifs, quantitatifs et financiers des actions réalisées. La méthode est illustrée par un cas d’application dans un établissement scolaire au Bénin. Les impacts de la recherche-intervention sont évalués à trois niveaux : celui de l’intervenant-chercheur, celui de l’organisation étudiée et celui de la contribution à la connaissance scientifique. Mots-clés : recherche-action, recherche-intervention qualimétrique, apprentissage organisationnel, observation participante, recherche clinique, recherche-action participative, protocole d’intervention.

Les méthodes de recherche du DBA

218

P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

INTRODUCTION Parmi les choix méthodologiques envisageables pour réussir un DBA (Kalika, 2017), la recherche-action est une option qui permet d’obtenir de forts impacts managériaux (Bonnet, 2015), à la fois sur le développement des compétences du doctorant, sur les entreprises ou organisations où la recherche est réalisée et sur la création de connaissances opérationnelles en gestion. Il faut tout d’abord rappeler que la recherche-action n’est pas une recherche « sur » les organisations (Coghlan & Brydon-Miller, 2014), mais une recherche « avec » les acteurs des organisations, ce qui est bien approprié pour un DBA lorsque le doctorant a déjà une expérience professionnelle et qu’il dispose d’un réseau dense de relations professionnelles lui permettant de négocier un accès aux données. Ce n’est pas non plus une recherche sur l’action, mais en action, au cours de laquelle le doctorant observe de façon détaillée et longitudinale les processus d’apprentissage organisationnel tout en faisant preuve de distanciation et de réflexivité (Schön, 1983 ; Argyris et al., 1985). Parmi les méthodes de recherche-action, nous avons choisi de présenter un exemple de thèse réalisée sur la base d’une recherche-intervention qualimétrique (Savall & Zardet, 2004 ; Bonnet & Péron, 2014). Il s’agit d’une forme de recherche engagée (Van de Ven, 2007) destinée à améliorer la performance socio-économique durable des organisations et de leurs parties prenantes. Comme pour toute méthode de recherche-action, ce type de recherche peut être réalisé dans des contextes extrêmement variés, y compris dans le cas où les recherches quantitatives sont quasiment impraticables en raison de la difficulté d’accès aux données, comme pour des sujets qui abordent les aspects sensibles illustrés dans ce chapitre. En effet, la recherche-action présentée touche à des problématiques telles que les modes de décision dans les équipes de direction (Owens et al., 2015), la formation de la stratégie (Golsorkhi et al., 2015) ou la construction de la confiance dans le management d’entreprises familiales (Chrisman et al., 2012). Dans ces cas, il ne suffit pas de mener des recherches à caractère spéculatif sur la base d’observations ponctuelles ni de se limiter à des enquêtes par entretiens ou questionnaires, car la rigueur scientifique nécessite de pratiquer une observation longitudinale pour bien iden-

219

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

tifier les logiques d’action, les langages de l’action (Girin, 1990) ainsi que les écarts entre les discours et les pratiques (Argyris et al., 1985). Les méthodes de construction de connaissance par la recherche-action s’apparentent à une approche aristotélitienne plutôt que platonicienne (Dewey, 1910 ; Gibbons et al., 1994 ; Gustavsen, 2001 ; Eikeland, 2008) et elles sont particulièrement bien appropriées pour la recherche en gestion dans un contexte de grande complexité, où les problèmes posés sont flous (Gephart & Smith, 2009), les données difficilement accessibles et où les solutions dépendent de la créativité des acteurs dans un monde considéré comme ouvert à de multiples possibles. C’est l’opposé des situations de gestion rencontrées au siècle passé, où les problèmes pouvaient être bien posés, et avaient une solution jugée optimale, même s’ils étaient compliqués. Ce chapitre a pour but de montrer comment se déroule concrètement ce type de recherche, en illustrant les différentes étapes, depuis la négociation de l’accès au terrain jusqu’à l’évaluation des impacts et à l’utilisation des données dans la thèse.

220

La méthodologie est présentée au travers d’un exemple de thèse réalisée au travers d’une recherche-action dans un établissement scolaire privé au Bénin (Boko, 2017). L’intérêt de ce choix est d’illustrer la mise en œuvre d’une recherche-action dans un contexte peu exploré, car difficile d’accès pour des recherches traditionnelles (Tidjani & Kamdem, 2010) et dans un pays où très peu de recherches en gestion ont été effectuées à ce jour (Hounkou, 2006). La méthode de recherche-intervention qui a été choisie est présentée dans un premier temps, puis le contexte et le déroulement de l’intervention. La méthode employée est ensuite illustrée au travers d’une sélection de matériaux recueillis au cours de cette recherche menée par une doctorante professionnelle, avec l’aide de son directeur de recherche. Des enseignements à retirer de cette forme de recherche-action sont enfin retirés.

P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

1. CHOIX DU MODE DE RECHERCHE-ACTION : LA RECHERCHE INTERVENTION QUALIMÉTRIQUE 1.1. Variété des méthodes de recherche-action Les méthodes de recherche-action se différencient des autres méthodes de recherche en gestion, comme celles de questionnaires, des codages de données d’entretiens et d’analyses de données quantitatives figées. Depuis l’origine des travaux scientifiques sur la recherche-action (Lewin, 1946), l’hypothèse a été formulée que l’objet analysé est vivant et qu’il change quand on l’observe, comme cela avait déjà été mis en évidence par la découverte de l’effet Hawthorne en 1933-1945 par Mayo (2004). Il existe actuellement des dizaines de modalités de recherches-actions, recensées dans la « SAGE Encycopedia of Action-Research » (Coghlan & Brydon-Miller, 2014) : « actionlearning » (Revans, 1982) ; « action-science » (Argyris et al., 1985) ; « appreciative inquiry » (Sorensen et al., 2010) ; « story-telling » (Boje, 2001) ; « trans-organizational development » (Boje & Rosile, 2003), etc. Contrairement au domaine des sciences médicales, les sciences de gestion sont encore loin de proposer un consensus scientifique quant aux avantages et limites de chaque méthode. Il convient par conséquent de se limiter à l’indication de quelques points de repères, en décrivant brièvement ci-dessous des méthodes de recherche-action par ordre croissant d’engagement du chercheur dans l’action sous l’angle des sciences de gestion en tant que science de l’action et de la décision. L’observation participante et l’ethnographie (Atkinson & Hammersley, 1994), développées au début du XXe siècle par l’anthropologue Bronislaw Malinowski (1989). Cette approche a inspiré en France le Centre de Recherche en Gestion de l’École Polytechnique. L’objectif principal est d’améliorer l’accès aux données en impliquant les acteurs sur le terrain pour comprendre que la décision dans les systèmes complexes est le résultat d’une grande quantité d’interactions entre acteurs ayant des rationalités très différentes. La méthode de travail consiste notamment à retranscrire les observations effectuées sur le terrain et à interagir avec un groupe de réflexion, afin de permettre une « familiarité distante » (Girin, 1986).

221

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

La recherche clinique (Schein, 1987) consiste à favoriser la réflexion collective au long d’un processus qui fait interagir les acteurs de l’entreprise et le chercheur. La recherche clinique aide à relier théorie et pratique en permettant une action réfléchie et à éviter les réactions émotionnelles et les préjugés. Il s’agit d’une approche de développement organisationnel qui fait appel à l’écoute, à la reformulation et à la facilitation du dialogue afin de permettre aux acteurs de l’entreprise de trouver euxmêmes les solutions aux problèmes posés : le chercheur ne se positionne donc pas en tant qu’expert et il adopte une position humble d’écoute et de questionnement, contraire à celle de la « tour d’ivoire » des experts.

222

Dans le sillage de Kurt Lewin, qui fonda en 1944 le Research Center for Group Dynamics au Massachusetts Institute of Technology, et de l’approche socio-technique du Tavistock Institute de Londres, les recherches-actions participatives (Reason & Bradbury, 2008) consistent à susciter des expérimentations au travers de processus démocratiques. Elles font participer tous les acteurs afin de créer une communauté de réflexion, forme d’intelligence collective. L’objectif recherché est d’améliorer les situations organisationnelles au bénéfice de tous. Les méthodes utilisées consistent notamment à définir de façon participative les projets d’actions et à les suivre dans un processus de va et vient entre changement organisationnel et retours d’expérience au travers de groupes de réflexion et de proposition. La recherche-intervention est une approche plus engagée que les méthodes précédentes dans l’ingéniérie de gestion, car il y a non seulement accompagnement du processus de changement, mais introduction d’outils et de dispositifs de gestion. La création de connaissances se produit alors par interaction entre l’intervenant-chercheur et les praticiens qui s’approprient et adaptent les outils proposés en fonction de leurs objectifs-contraintes. Les méthodes de recherche-intervention représentent une inflexion par rapport à d’autres formes de recherche-action en donnant au chercheur un rôle actif dans la conduite du changement. Cette évolution peut être comparée au cas de l’introduction de la médecine expérimentale au XIXe siècle, avec des chercheurs comme Claude Bernard et Louis Pasteur, qui ont violé les interdits de la communauté scientifique de l’époque en pratiquant des

P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

expérimentations : ils justifiaient cette forme de transgression par la nécessité de soigner des malades et de soulager des souffrances. Par rapport à l’introduction de la médecine expérimentale, il aura fallu plus d’un siècle aux sciences de gestion pour qu’elles commencent à accepter ce type d’approche en transgressant timidement l’interdit wéberien de la coopération avec les acteurs du terrain d’observation scientifique. Comme pour la médecine, il est pourtant impératif de contribuer à soulager les immenses souffrances liées aux difficultés rencontrées dans les entreprises et organisations, surtout dans un contexte d’évolution rapide du monde économique. La recherche-intervention a été introduite en France par le Centre de Gestion Scientifique de l’École des Mines de Paris (Moisdon, 2015 ; Hatchuel & David, 2008) afin d’améliorer l’ingéniérie de l’action et de la conception, après avoir fait le constat des limites de la recherche opérationnelle et de la gestion de projet.

1.2. Choix de la méthode de recherche-intervention qualimétrique La recherche-intervention qualimétrique apporte aux autres approches de recherche-intervention une dimension économique qui est quasiment absente dans les méthodes de recherche-action. La dimension qualimétrique repose sur une approche ontologique qui intègre les données qualitatives, quantitives et financières en considérant qu’il s’agit d’un continuum et non de trois formes différentes de données. Il ne suffit donc pas de juxtaposer ou de trianguler les données, car « tout mot nécessite un chiffre et une valeur pour faire sens, et toute valeur ou chiffre nécessite un mot pour faire sens » (Savall & Zardet, 2004). L’approche de la recherche-intervention qualimétrique postule en effet que l’objet analysé en sciences de gestion en tant que science de l’action est un ensemble de processus de transformation continue des structures en interaction avec les comportements dans les organisations. L’objet analysé est ainsi particulièrement complexe, immatériel et évolutif. Les caractéristiques de cet objet évanescent rendent l’observation scientifique encore plus difficile qu’en médecine, où l’on dispose d’instruments adaptés pour analyser le corps humain tels que les scanners et les IRM. Les sciences de gestion

223

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

ont donc une bonne excuse pour accuser plus d’un siècle de retard par rapport à la médecine. Il est malgré tout impératif de tenter la mise au point de méthodes permettant d’apporter des améliorations au bénéfice du bien commun et de toutes les parties prenantes et pour remédier aux souffrances constatées. La méthode de recherche-intervention qualimétrique repose sur trois piliers épistémologiques : –– L’interactivité cognitive : ce sont ceux qui agissent qui savent, car ils sont les témoins des actions dans leur complexité. Cependant, les praticiens ne parviennent pas à formaliser leur savoir en raison d’un manque de réflexivité. Il faut donc les accompagner dans la formalisation de ce qu’ils observent par interaction avec les intervenantschercheurs.

224

–– L’inter-subjectivité contradictoire : l’objet est tellement complexe et polymorphe qu’il est impossible de le décrire de façon objective. En revanche, on peut créer un savoir actionnable par expérimentations successives, en mettant en interaction les différents acteurs ; ceux-ci vont ensemble formaliser une représentation, même imparfaite, du problème à traiter, avec une image en partie acceptée par tous les acteurs concernés pour agir de façon collective. –– La contingence générique : les expérimentations réalisées au travers de la recherche-intervention permettent de progresser dans la connaissance de solutions innovantes dans les organisations. Toutefois, cet apprentissage est spécifique et contingent au contexte de l’organisation. La reproduction des expérimentations au travers de la recherche-intervention qualimétrique a pour but de permettre une réplicabilité et de dégager des invariants. Dans le cas des travaux de recherche de l’Institut de SocioÉconomie des Entreprises et Organisations (ISEOR) de Lyon, la recherche des invariants au cours de plus de 45 ans de recherches menées dans plus de 2000 entreprises et organisations dans 45 pays a permis de mettre au point progressivement une théorie et une méthode générique, dénommée management socio-économique. Cette méthode n’est pas figée, mais elle constitue un corps de connaissances qui est perfectionné de

P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

façon progressive au travers des nouvelles expérimentations. Par comparaison avec Louis Pasteur lorsqu’il a mis au point le vaccin contre la rage à partir d’une première expérimentation, on peut constater que chaque corps humain est unique et réagit de façon spécifique, mais que la méthode de vaccination et d’apprentissage des défenses immunitaires a une vocation universelle. Il ne s’agit pas d’une recherche à caractère ponctuel, mais d’un programme de recherche à durée indéfinie, comme la méthode de vaccination fait toujours toujours l’objet de recherches expérimentales en s’attaquant désormais à des maladies comme le sida ou le paludisme. D’un point de vue épistémologique, la méthode socio-économique, produite au travers de la recherche-intervention qualimétrique, peut ainsi être rapprochée du courant du réalisme critique (Bhaskar, 1989). Ce processus de création de connaissances correspond en effet à une tentative de dépassement de l’opposition entre positivisme et constructivisme au travers d’un « constructivisme générique » (Savall & Zardet, 2004). Dans le cadre de la recherche-intervention qualimétrique, la production de connaissance est dénommée « contingence générique » : l’entreprise développe un apprentissage organisationnel spécifique et contingent, tandis que l’intervenant(e)-chercheur a pour mission d’identifier ce qui est générique. La mise en œuvre de la méthode qualimétrique fait l’objet d’un contrat de recherche longuement négocié entre le laboratoire et l’entreprise. Ce contrat prévoit le respect par l’entreprise de l’ensemble du protocole de recherche-intervention, notamment en ce qui concerne l’accès aux données et l’engagement dans un dispositif participatif de projet. La négociation du contrat fait partie intégrante du processus de recherche-intervention, car elle consiste à transformer la demande : il s’agit de faire prendre conscience au dirigeant et au « système client » qu’il ne peut y avoir de solution mécanique aux problèmes soulevés et qu’il faut un accompagnement pour stimuler le système organisationnel et le rendre agile et pro-actif face à un environnement de plus en plus chaotique. Dans ce protocole d’intervention, le dirigeant et les acteurs de l’entreprise adoptent alors un statut de co-chercheurs, puisque l’intervenant-chercheur initie des expérimentations avec les

225

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

acteurs de l’entreprise. Le rôle du dirigeant et des acteurs de l’organisation n’est cependant pas nécessairement d’écrire des articles dans des revues académiques (sauf lorsque des dirigeant(e)s font un DBA), mais des colloques sont organisés pour témoigner des résultats de façon publique. Si les conditions de la recherche-intervention ne sont pas acceptées, la négociation s’arrête ou l’intervention est reportée à une date ultérieure. Il faut noter que cette négociation suppose un accord avec la gouvernance de l’entreprise, ce qui nécessite de ne pas se limiter à des objectifs de prédation de valeur ou de spéculation à court terme, comme peut l’encourager un capitalisme financier non responsable socialement (Savall et al., 2016). Le protocole de recherche-intervention qualimétrique requiert une observation qui s’appuie à la fois sur des entretiens, des recueils de documents, des relevés de données, et sur l’observation directe. Il articule trois types d’actions (Savall & Zardet, 1987) : la stimulation d’un processus de changement et d’apprentissage organisationnel, la mise en place d’outils de gestion innovants en concertation avec les acteurs, et la prise de décisions relatives aux orientations politiques et stratégiques.

226

–– Le processus d’apprentissage et de développement organisationnel s’appuie sur un principe de pilotage négocié du changement. Il débute par un diagnostic participatif destiné à mettre en évidence les dysfonctionnements et coûts cachés qui sont les symptômes des maladies des organisations. Ce diagnostic s’appuie notamment sur les phrases-témoins issues des entretiens (approche qualitative) et restituées dans le langage naturel des acteurs, mais classées selon des thèmes génériques. Il comprend aussi des données quantitatives sur la fréquence et les impacts des dysfonctionnements (approche quantitative) et des calculs des impacts économiques visibles et cachés des dysfonctionnements sur la performance à court et à long terme (approche financière). Le diagnostic est présenté à la direction, puis à l’ensemble des acteurs concernés au travers d’un « effet miroir » destiné à créer une plateforme de dialogue entre acteurs. Cet « effet miroir » crée un choc culturel, en faisant prendre conscience aux acteurs que ce n’est pas le changement qui est douloureux et coûteux, mais le non-changement : la croyance dans le phénomène

P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

de résistance au changement ne résiste pas à ce phénomène de prise de conscience. L’effet miroir est suivi par la présentation de l’avis d’experts par les intervenants-chercheurs, de façon à renforcer le choc culturel en exprimant les non-dits perçus par observation directe. Ces non-dits sont des souffrances inavouées qui sont dues à trois principales causes-racines : le manque de sensibilité aux coûts de dysfonctionnements, le manque de toilettage régulier des activités et dysfonctionnements et enfin la désynchronisation des actions de conduite du changement. Par comparaison avec la médecine, lorsqu’un système immunitaire est affaibli, les agents infectieux ne sont pas éliminés, et les remèdes ne sont pas pris au bon moment, voire les uns à la suite des autres alors qu’ils devraient être pris de manière coordonnée : l’infection ou les cellules cancéreuses risquent alors de se propager. –– Le diagnostic et l’avis d’experts socio-économiques sont suivis par la mise en place de groupes de projet destinés à élaborer des solutions aux dysfonctionnements et à bâtir un plan d’actions stratégiques internes et externes, impliquant une adhésion profonde de l’ensemble des acteurs. Les groupes de travail sont organisés par thèmes pour aborder à la fois des aspects spécifiques à chaque secteur de l’entreprise ou organisation (approche verticale) et les problèmes généraux et inter-sectoriels (approche horizontale). Chaque groupe de travail étudie plusieurs scénarios de solutions et élabore des balances socio-économiques, montrant à la fois les coûts et les performances qualitatives, quantitatives et financières attendues des plans d’actions. Dans la plupart des cas, ces actions représentent des investissements immatériels dont le délai de remboursement est très rapide, ce qui permet d’accélérer la conduite du changement. Dans d’autres cas, comme celui des actions relatives à la protection de l’environnement naturel, la rentabilité peut être nulle en raison de la production d’externalités positives non prises en charge par les parties prenantes externes. Toutefois, la direction et le conseil d’administration peuvent malgré tout décider de les mettre en œuvre dans le cadre d’une politique de développement durable et supportable. Cela peut se justifier par la volon-

227

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

té d’assurer une cohérence entre les valeurs affichées de l’organisation et la stratégie, et renforcer ainsi la légitimité durable de l’entreprise dans son environnement (Palazzo & Scherer, 2006). Les plans d’actions sont alors mis en œuvre et évalués au travers d’indicateurs de performance destinés notamment à montrer les progrès accomplis au travers d’une accélération de la conversion des coûts cachés en création de valeur ajoutée. –– La mise en place d’outils de management socio-économique : il s’agit de former les dirigeants et managers à des outils de gestion prenant en compte une performance globale. Par exemple, le « Plan d’Actions Stratégiques Internes et Externes » est relié aux indicateurs de performances financières au travers de la mesure de la création de potentiel cachée.

228

L’accumulation de résultats de milliers de recherches-interventions qualimétriques a permis de montrer que les outils de gestion utilisés dans les entreprises et organisations sont fragmentaires et contradictoires entre eux. Par exemple, les coûts cachés, qui comprennent à la fois des surcharges et des non – produits actuels et futurs (coûts d’opportunité) représentent un montant équivalent en moyenne à celui de la masse salariale avec charges (Savall & Zardet, 1987), ce qui n’est pas pris en compte par l’analyse financière et par les outils de contrôle de gestion, malgré leur rigueur apparente. Cette fragmentation des outils de gestion crée une situation d’injonction paradoxale dans le management, par exemple lorsque les outils de gestion de ressources humaines et de gestion prévisionnelle des emplois et des compétences indiquent la nécessité de recruter, tandis que la direction financière souhaite au contraire geler les recrutements. Les outils de management socio-économiques développés progressivement au travers des recherches-interventions ont pour but de créer des interfaces entre les outils de gestion, de façon à rétablir une harmonie dans les processus de prise de décision. Par exemple, l’accompagnement des managers pour élaborer des grilles de compétences les éclaire sur la rentabilité de l’investissement immatériel requis pour former et recruter, en regard des coûts cachés et des risques qu’il y a à ne pas le faire. La

P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

recherche-intervention qualimétrique a ainsi pour but de créer une intelligence collaborative, en renforçant un dialogue entre les diverses logiques d’action au sein des organisations. En particulier, l’élaboration de balances socio-économiques pour tous les plans d’action au sein de l’organisation amène à formaliser un bilan et un compte de résultat rénovés montrant aux parties prenantes de l’entreprise et aux actionnaires la création de valeur globale de l’entreprise pour ses parties prenantes, dont font partie les actionnaires. –– Les décisions politiques et stratégiques La recherche-intervention qualimétrique ne consiste pas à donner des conseils aux décideurs, mais elle a pour effet de rendre les acteurs et décideurs davantage lucides sur les choix qu’ils font. La recherche les rend aussi conscients des conséquences de leurs décisions à court et à long terme dans un contexte de plus grande transparence. Cela amène par exemple dans une entreprise familiale à mettre en place des règles du jeu sur les droits et devoirs de chacun, y compris pour les enfants du dirigeant. Ces décisions concernent les différents domaines de la stratégie, comportant à la fois les aspects externes (produits et marchés, développement international, etc.) et les aspects internes (valeurs, modes d’organisations et règles de fonctionnement, choix technologiques, etc.).

2. ILLUSTRATION DE LA MISE EN ŒUVRE DE LA RECHERCHE-INTERVENTION QUALIMÉTRIQUE DANS UNE ÉCOLE PRIVÉE DU BÉNIN La recherche a été réalisée par une doctorante béninoise, avec l’aide de son directeur de recherche, tous deux auteurs de ce chapitre. Il est possible de décrire les diverses étapes de mise en œuvre de la recherche de façon chronologique.

2.1. Négociation de l’intervention La doctorante avait contacté la directrice d’une école primaire à Cotonou au Bénin pour lui expliquer l’intérêt d’une recherche-intervention. L’école avait été créée en 1993 et accueillait 690 élèves. Elle employait 33 personnes, dont 17 enseignants. Lors de la pre-

229

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

mière rencontre pour négocier la recherche-intervention, la directrice lui avait présenté les belles réalisations de l’école, qui contribuaient à la qualité de l’éducation des enfants dans un pays qui avait dérégulé le système d’enseignement depuis les années 1970. Au cours de l’entretien, la directrice avait aussi fait part de ses difficultés pour maintenir durablement son équilibre financier, dans un contexte de développement de la concurrence et de réglementation contraignante de la part du Ministère pour les normes des locaux et la qualité pédagogique. Le climat social se dégradait dans l’école, en raison notamment d’un manque d’équité perçue par les personnels administratifs, par comparaison avec les rétributions des enseignants. Les relations avec les parents d’élèves étaient difficiles, notamment pour faire payer les frais de scolarité. Les problèmes financiers se traduisaient par des arriérés de salaires, des retards de paiement et des découverts bancaires.

230

Une deuxième rencontre a permis d’élargir la demande et de proposer une recherche-intervention destinée à améliorer la gestion financière pour réduire les problèmes de recouvrement et pour améliorer le taux d’acquittement des frais de scolarité par les parents d’élèves. Les actions d’améliorations devaient également avoir un impact sur la visibilité et la notoriété de l’école, la qualité des services aux parents d’élèves ainsi que sur l’encadrement pédagogiques des élèves. Un accent particulier a été mis sur la gestion financière pour empêcher les manques à gagner au niveau du recouvrement ainsi que les malversations financières. Pour atteindre ces objectifs, la doctorante a proposé de recourir dans une première étape à une partie seulement de la recherche-intervention, en mettant en œuvre deux éléments de méthodes : le diagnostic et le projet socio-économiques. Le dispositif a été accepté par la directrice après avoir pris en compte ses contraintes de planning. Il permettait de construire de façon collaborative une qualité d’observation scientifique, en faisant participer tous les acteurs de l’école. –– Le diagnostic socio-économique a nécessité de conduire des entretiens avec tous les acteurs de l’école, ainsi qu’une deuxième série d’entretiens avec l’encadrement pour approfondir le calcul des dysfonctionnements. Il était également convenu qu’une séance de restitution du diagnostic

P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

aurait lieu auprès de la direction, puis auprès de l’ensemble des personnes interviewées et la direction. –– La mise en place de groupes de projet socio-économique sur la base des résultats du diagnostic et de l’avis d’expert. Ces groupes devaient comprendre les membres de la direction, l’encadrement, ainsi que des enseignants et employés, avec pour objectif de proposer des solutions pour bâtir un plan d’action. Ce plan d’action devait être formalisé avec des outils tels que des balances économiques pour calculer leur performance à court et à long terme. Le contrat de recherche a été signé et ne prévoyait pas de rémunération directe en raison de l’objectif d’apprentissage de la recherche-intervention au travers d’un doctorat. Il comprenait toutefois la prise en charge des frais de déplacements, avec notamment plusieurs voyages entre la France et le Bénin.

2.2. Réalisation du diagnostic socio-économique Le diagnostic a été réalisé sur la base de 38 entretiens, suivis par 13 séances de travail avec des membres de l’encadrement et des employés pour compléter le calcul des dysfonctionnements. Les entretiens ont été conduits de façon semi-directive, en demandant à chaque personne de présenter son rôle, puis les dysfonctionnements et coûts cachés perçus. Une prise de notes a été effectuée manuellement par l’intervenant-chercheur, en demandant aux personnes de bien valider les phrases-témoins qu’elles voulaient exprimer. Quelques exemples de phrases-témoins prononcées lors des entretiens peuvent être donnés, en indiquant le thème auquel elles ont été rattachées : –– Exemple sur le thème des conditions de travail : « Il manque un terrain pour le sport. Cela nous oblige à nous déplacer au loin avec toute la classe ». –– Exemple sur le thème de l’organisation du travail : « Il manque un contrôle à l’entrée et à la sortie de l’école. Cela nous oblige à revérifier toutes les présences ». –– Exemple sur le thème de la communication-coordination-concertation : « Des affinités se créent et des personnes

231

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

reçoivent des informations et pas d’autres. Cela crée des tensions dans l’équipe et entraîne aussi des erreurs ». –– Exemple sur le thème de la gestion du temps : « Des parents viennent voir leur enfant pendant les heures de cours. Cela perturbe la classe et nous fait perdre du temps ». –– Exemple sur le thème de la formation intégrée : « Des enseignants ne respectent pas le programme par manque de formation. Cela entraîne un risque d’échec à l’examen ». –– Exemple sur le thème de la mise en œuvre stratégique : « Il manque une politique et des règles claires pour les délais de paiement. Cela se traduit par des impayés qu’on ne pourra jamais récupérer ».

232

À la suite de la première série d’entretiens de recueil de données qualitatives, treize personnes ont été rencontrées une deuxième fois pour vérifier et préciser les données recueillies et les traduire en données financières. Par exemple, la phrase-témoin relative aux impayés a conduit à évaluer le fait qu’en moyenne annuelle, les parents de 150 élèves n’avaient pas réglé une partie des frais d’inscription et/ou de scolarité, entraînant une perte financière de 2 000 000 Francs CFA par an pour l’ensemble des cycles. Une cinquantaine de fiches de coûts cachés de ce type ont été calculées avec les personnes interviewées, et elles ont fait l’objet d’une discussion en groupe avec la direction et l’encadrement. Cela a permis le calcul du montant total des coûts cachés, qui s’élevait à plus de 11 millions de Francs CFA, soit l’équivalent de 20 % du total du chiffre d’affaire de l’école, davantage que le montant des investissements effectués par l’école chaque année. À la suite des deux séries d’entretiens, les données ont été classées par thèmes et sous-thèmes, et les fiches de calcul de coûts cachés ont été mises en forme. Une réunion de restitution dénommée « effet-miroir » a eu lieu, d’abord en présence de la direction, puis avec la direction et les personnes interviewées. Cela a été l’occasion de prendre conscience de la nécessité absolue d’élaborer des plans d’action pour remédier aux dysfonctionnements recensés, plutôt que de subir les désagréments et les coûts cachés induits par le manque d’actions préventives.

P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

2.3. Projet socio-économique Quelques jours après ces restitutions, l’avis d’expert a été présenté par la doctorante aux mêmes personnes que lors de la présentation du diagnostic, afin de mettre en relief les points importants du diagnostic et les non-dits perçus par observation directe de l’intervenant-chercheur lors de la phase de diagnostic. Quelques exemples de non-dits peuvent être donnés : –– « La culture africaine de respect des personnes âgées est invoquée comme un prétexte pour ne pas mettre en place de règles d’interférence avec l’école ». –– « Il y a un sentiment de craintes de représailles par des pratiques de voudou ou de sorcellerie qui empêchent l’exercice de la rigueur demandée par les responsables hiérarchiques ». –– «  Le mode de management paternaliste entraîne des dérives de liens de familiarité et de favoritisme ». La présentation de l’avis d’expert a eu un effet de stimulation pour le passage à l’action. Les propositions de thèmes de travail pour améliorer le plan stratégique ont été validées, en définissant aussi pour chaque thème la composition des membres des groupes de travail. Parmi les thèmes adoptés, on peut citer les suivants : règles de discipline dans l’école, amélioration de l’attractivité des locaux, procédures et règles de délégation pour les dépenses, rigueur du planning d’activité, dispositifs et règles de communication interne et externe, moyens pédagogiques, etc. À titre d’exemple, le projet relatif à la discipline dans l’école a permis aux enseignants et aux administratifs de se mettre d’accord sur le fait d’interdire l’accès des parents aux classes pendant les heures de cours et de fermer le portail de l’école entre 8 h et 15 h. Dans ce cas, la balance économique du projet montrait que le coût de cette action était infime, mais qu’elle permettait d’éviter près de 1 000 heures de gaspillage de temps pendant l’année, soit l’équivalent d’un demi-poste de travail.

2.4. Mise en place d’outils de management socio-économiques En parallèle du diagnostic et du projet socio-économique, une assistance personnalisée a été apportée à la direction et à l’en-

233

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

cadrement pour mettre en place des outils de management socio-économiques. Il s’agissait en particulier de construire le tableau de bord de pilotage de la direction. Celui-ci comprenait notamment les indicateurs de performance en termes de création de potentiel : Les temps passés à mettre en œuvre des actions d’amélioration, par exemple dans le domaine de la pédagogie, ne devaient pas être considérées comme des charges, mais plutôt comme des investissements. Des grilles de compétences ont également été mises en place, afin de faire progresser chaque membre du personnel et d’éviter les risques de postes non couverts en cas d’absence ou de départ. Par exemple, la grille de compétence du service administratif comprenait des rubriques telles que les suivantes : saisie et pointage des écritures, gestion de la paie, recouvrement des frais de scolarité, gestion des contentieux pour retards de paiement, budget prévisionnel, etc.

2.5. Décisions politiques et stratégiques

234

Un groupe de pilotage a été mis en place pour clarifier les options stratégiques, non seulement en ce qui concernait les actions stratégiques externes, comme des projets d’extension, mais aussi des actions internes, notamment quant aux règles de management. En particulier, des règles ont été définies pour passer d’un mode de management paternaliste et informel à des règles plus équitables. Par exemple, des règles du jeu ont été définies sur le contrôle du bon déroulement des activités pédagogiques, la répartition des enseignants dans les différents cours, l’exécution des sanctions disciplinaires et des récompenses des collaborateurs, la communication avec les parents, etc.

3. ENSEIGNEMENTS RETIRÉS ET IMPACTS DE LA RECHERCHE-ACTION Il est usuel d’évaluer les impacts des recherches-actions à trois niveaux (Coghlan & Brydon-Miller, 2014) : impact sur le chercheur lui-même, sur l’organisation où la recherche a eu lieu, et sur la contribution scientifique auprès du monde académique et des praticiens de la conduite du changement et du développement organisationnel.

P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

3.1. Impacts sur le chercheur La recherche réalisée a permis à la doctorante d’apprendre le métier d’accompagnement au développement organisationnel sur des bases de consulting scientifique, comme dans le cas d’un interne de Centre Hospitalo-Universitaire qui apprend la pratique de la médecine au travers des interventions de soins auprès des patients avec l’aide d’un professeur de médecine chef de service. En plus de l’obtention d’un diplôme de haut niveau, c’est une contribution importante à l’éducation au management, dans un monde des affaires qui a tant souffert des effets toxiques liés au manque de formation appropriée des consultants (Buono & Poulfelt, 2009). En outre, la formation au travers de la recherche-intervention qualimétrique a aussi été considéré comme une préparation à la fonction de direction d’établissements scolaires en Afrique.

3.2. Impacts sur l’organisation où la recherche-action a eu lieu La recherche-intervention qualimétrique a permis d’évaluer les impacts qualitatifs, quantitatifs et financiers de l’action, en procédant à des entretiens avec les parties prenantes de l’école. Ces impacts peuvent être illustrés de la façon suivante : –– Exemples d’impacts qualitatifs : amélioration de l’ambiance de travail grâce à la diminution des soupçons et des nondits ; accroissement des compétences du personnel ; amélioration du développement éducatif des élèves et meilleure satisfaction des parents, etc. –– Exemples d’impacts quantitatifs : accroissement du taux de satisfaction des parents et passage du nombre de demandes d’inscriptions de 690 à 850 inscrits ; augmentation du nombre de propositions d’amélioration proposées par les enseignants (passage de deux à trente propositions en un an) ; réduction des retards de recouvrement de 20 % à 3 % ; Réduction des arriérés de paiement de 5 % à 2 %, etc. –– Exemples d’impacts financiers : réduction de 2 millions de Francs CFA du montant des impayés ; réduction du quart

235

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

des coûts cachés soit 3 millions de Francs CFA ; augmentation de 12 % du chiffre d’affaires à charges constantes.

3.3. Impacts sur le monde académique et sur les praticiens du management

236

La recherche a notamment permis de renforcer la position des critiques à l’encontre des analyses sociologiques des écoles de la contingence culturelle plaidant pour une approche purement contingente du management interculturel dans le contexte africain (Kamdem, 2002 ; Apitsa, 2013) et qui présentent l’ethnicité comme un élément à mobiliser pour assurer le succès des entreprises (Kamden & Ongodo, 2007). En effet, la recherche-intervention a montré qu’il était possible de mettre en place davantage de formalisme dans le management de l’école, à condition de faire participer de manière structurée l’ensemble des acteurs et des parties prenantes de l’organisation. La recherche réalisée montre aussi l’intérêt de la recherche-intervention qualimétrique, qui permet de réaliser des améliorations pour tous dans un contexte de ressources particulièrement limitées, comme dans le cas de nombreuses entreprises et organisations en Afrique de l’Ouest.

CONCLUSION La pratique de la recherche-action dans le cadre d’un DBA est particulièrement féconde pour la théorie et la pratique. L’exemple présenté suscite la réflexion sur les conditions d’un développement des recherches de ce type : –– Ne faut-il pas capitaliser les recherches-actions conduites au travers des DBA en Afrique, afin de construire des connaissances génériques sur le développement organisationnel dans les pays en développement, où le besoin d’un message d’espoir est particulièrement attendu à l’échelle du continent ? –– Comment mieux former les doctorants DBA aux méthodes de recherche-action et comment développer en sciences de gestion des instituts qui forment à la recherche-action

P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

au travers de processus d’apprentissage alliant théorie et pratique ? –– La construction de programmes de recherche de ce type est particulièrement urgente dans le cas de l’Afrique du Nord et de l’Ouest, qui représentent avec un demi-milliard d’habitants une grande part de l’avenir de la recherche francophone en management. Références citées Apitsa, M.S. (2013), L’hybridation des pratiques de GRH à l’international par le truchement de l’ethnicité en Afrique, Gérer et Comprendre, vol. 3, no 113, p. 51-61. Argyris, C., Putnam, R. & McLain Smith, D. (1985), Action Science, San Francisco, Jossey-Bass. Atkinson, P. & Hammersley, M. (1994), Ethnography and Participant Observation, in N. K. Denzin & Y. S. Lincoln (eds.), Handbook of Qualitative Research, Thousand Oaks, CA, Sage, p. 248-261. Bhaskar, R. (1989), The Possibility of Naturalism: A Philosophical Critique of the Contemporary Human Sciences, Hemel Hempstead, England, Harvester Wheatsheaf. Boje, D.M. (2001), Narrative Methods for Organizational Communication Research, London, England, Sage.

and

Boje, D.M. & Rosile, G.A. (2003), Comparison of socio-economic and other trans-organizational development methods, Journal of Organizational Change Management, vol. 16, n° 1, p. 10-20. Boko, V. (2017), La professionnalisation managériale des responsables d’établissements scolaires privés au Bénin par le management socioéconomique, Thèse de doctorat sous la direction de M. Bonnet, Université Jean Moulin Lyon 3. Bonnet, M. (2015), La recherche-action dans le cadre d’un DBA, in P. Beaulieu & M. Kalika (dir.), La création de connaissance par les managers, Caen, Éditions EMS, coll. « Business Science Institute », Chapitre 13. Bonnet, M. & Péron, M. (2014), Qualimetrics intervention-research, in D. Coghlan & M. Brydon-Miller (eds.), The SAGE Encyclopedia of Action Research, London, Sage, p. 663-666. Buono, A.F. & Poulfelt, F. (eds.) (2009), Client-Consultant Collaboration: Coping with Complexity and Change, Charlotte, NC, Information Age Publishing. Chrisman, J. J., Chua, J. H., Pearson, A. W. & Barnett, T. (2012), Family involvement, family influence, and family-centered

237

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

non-economic goals in small firms, Entrepreneurship Theory and Practice, vol. 36, p. 267-293. Coghlan, D. & Brydon-Miller, M. (eds.) (2014), The SAGE Encyclopedia of Action Research, London, Sage. Dewey, J. (1910), How We Think, Boston, MA, D.C. Health. Eikeland, O. (2008), The ways of Aristotle: Aristotelian Phronesis, Aristetolian Philosophy of Dialogue and Action Research, Berne, Switzerland, Peter Lang Verlag. Gephart Jr, R. P. & Smith, R. S. (2009), An invitation to ethnostatistics, Recherche en Sciences de Gestion, vol. 70, p. 85-102. Gibbons, M., Limoges, C., Nowotony, H., Schwarzman, S., Scott, P. & Trow, M. (1994), The New Production of Knowledge: The Dynamics of Science and Research in Contemporary Societies, London, Sage Publications. Girin, J. (1986), L’objectivation des données subjectives. Dans Actes du colloque ISEOR-FNEGE, Institut de Socio-Économie des Entreprises et Organisations et Fondation Nationale pour L’Enseignement de la Gestion des Entreprises, p. 170-186.

238

Girin, J. (1990), Problèmes du langage dans les organisations, in J.-F. Chanlat (dir.), L’individu dans l’organisation : les dimensions oubliées, Québec, Presses de l’Université Laval, éditions ESKA, coll. « Sciences Administratives », p. 37-77. Golsorkhi, D., Rouleau, L., Seidl, D. & Vaara, E. (eds.) (2015), Cambridge Handbook of Strategy as Practice, Cambridge University Press. Gustavsen, B. (2001), Theory and practice: The mediating discourse, in P. Reason & H. Bradbury (eds.), Handbook of Action Research, London, Sage, p.17-26. Hatchuel, A. & David, A. (2008), From action research to intervention research in management, in A.B. Shani, S. Morhman, W. Pasmore, B. Stymne, & N. Adler (eds.), Handbook of Collaborative Management Research, Thousand Oaks, CA, Sage, p.143-162. Hounkou, E. (2006), Les pratiques de GRH des entreprises béninoises les plus performantes sont-elles contingents au context culturel béninois ?, Actes du 17e congrès de l’AGRH, Association Francophone de Gestion de Ressources Humaines, Reims. Kalika, M. (2017), Comment réussir son DBA ?, Caen, Editions EMS, coll. « Business Science Institute ». Kamdem, E. (2002), Management et interculturalité en Afrique, Québec, Presses de l’Université Laval. Kamdem, E. & Ongodo, M. F. (2007), Le management Africain, pratiques et théories – Faits et méfaits de l’ethnicité dans les

P ra t i qu e r u n e r e c h e r c h e - i nt e r ve nt i o n qu a l i m é t r i qu e

pratiques managériales en Afrique, Gestion 2000, vol. 24, no 1, p. 33-58. Lewin, K. (1946), Action research and minority problems, Journal of Social Issues, vol. 2, p.34-36. Malinowski, B. (1989), A Diary in the Strict Sense of the Term, vol. 235, Stanford, CA, Stanford University Press. Mayo, E. (2004/1933), Human Problems of an Industrial Civilization, London and New York, Routledge. Moisdon, J.C. (2015), Recherche en gestion et intervention, Revue Française de Gestion, vol. 253, n° 8, p. 21-39. Owens, B. P., Walker, A. S. & Waldman, D. A. (2015), Leader narcissism and follower outcomes: The counterbalancing effect of leader humility, The Journal of Applied Psychology, vol. 100, p. 1203-1213. Palazzo, G. & Scherer, G. (2006), Corporate legitmacy as deliberation: A communicative framework, Journal of Business Ethics, vol. 66, p. 71-88. Reason, P. & Bradbury, H. (eds.) (2008), The SAGE Handbook of Action Research: Participative Inquiry and Practice, London, Sage. Revans, R. (1982), The Origins and Growth of Action Learning, Bromley, England, Charwell-Bratt. Savall, H. & Zardet, V. (1987), Maîtriser les coûts et performances cachés, Paris, Economica. Savall, H. & Zardet, V. (2004), Recherche en sciences de gestion : approche qualimétrique – Observer l’objet complexe, Paris, Economica. Savall, H., Péron, M., Zardet, V. & Bonnet, M. (2016), Le capitalisme socialement responsable existe, Caen, Éditions EMS, coll. « Gestion en liberté ». Schein, E.H. (1987), The Clinical Perspective in Field Work, London, Sage Publications. Schön, D. (1983), The Reflective Practitioner, New York, Basic Books. Sorensen, P., Yaeger, T., Savall, H., Zardet, V. & Bonnet, M. (2010), A review of two major global and international approaches to organizational change: the SEAM (socio-economic approach to management) and appreciative inquiry, Organization Development Journal, vol. 28, no 4, p. 31-39. Tidjani, B. & Kamdem, E. (dir.) (2010), Gérer les ressources humaines en Afrique, Caen, Éditions EMS. Van de Ven, A.H. (2007), Engaged Scholarship. A Guide for Organizational and Social Research, Oxford, Oxford University Press.

239

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Références pour en savoir plus Coghlan, D. & Brydon-Miller, M. (eds.) (2014), The SAGE Encyclopedia of Action Research, London, Sage. Reason, P. & Bradbury, H. (eds.) (2008), The SAGE Handbook of Action Research : Participative Inquiry and Practice, London, Sage. Savall, H. & Zardet, V. (1987), Maîtriser les coûts et performances cachés, Paris, Economica. Savall, H. & Zardet, V. (2004), Recherche en sciences de gestion : approche qualimétrique – Observer l’objet complexe, Paris, Economica.

240

CHAPITRE 14. Les designs quasi-expérimentaux Jacques Igalens et Claude Roussillon Soyer

Résumé  Les quasi-expérimentations améliorent la compréhension des effets de causalité en combinant une bonne validité interne avec une validité externe élevée. Dans ce chapitre, les auteurs visent à encourager l’utilisation de la quasi-expérimentation en identifiant cinq de ses principaux avantages : (1) renforcer l’inférence causale quand l’affectation aléatoire et les manipulations contrôlées ne sont pas possibles, (2) construire de meilleures théories dans le temps, (3) minimiser ou supprimer les dilemmes éthiques, l’iniquité, le paternalisme, (4) utiliser le contexte pour expliquer des résultats contradictoires, (5) faciliter la collaboration avec la direction. Nous proposons des exemples illustratifs et des conseils pour guider la recherche future. Mots-clés : quasi-expérimentation, méthodologie, inférence causale, comportement organisationnel.

Les méthodes de recherche du DBA

241

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

INTRODUCTION Le chercheur en gestion ne saurait démentir Virgile lorsqu’il écrit, dans Les Géorgiques : « Felix qui potuit rerum cognoscere causas »1. Sans être une voie exclusive, la démonstration de relations causales entre des phénomènes, conformément à des hypothèses elles-mêmes issues de théories solides, constitue le Graal que cherchent nombre de doctorants.

242

Mais lorsque les hypothèses ont été établies, comment obtenir les données autorisant le chercheur à conclure à l’existence ou à l’absence de telles relations ? Le chercheur doctoral peut opter pour l’observation, elle est rarement directe, elle est souvent abordée à travers les traces des comportements. C’est le cas des chercheurs en finance ou en marketing. Les premiers ont à leur disposition des données de marchés financiers et les seconds des données de panel. Le chercheur peut également créer un dispositif expérimental qui lui permettra de bien contrôler l’ensemble des variables explicatives, celles qui sont supposées représenter les causes des phénomènes qu’il ou elle cherche à expliquer. La finance s’y essaye depuis peu avec son extension comportementale et le marketing le fait depuis beaucoup plus longtemps concernant le comportement du consommateur (Evrard et al., 2009). Mais chacune de ces voies, l’observation ou l’expérimentation, atteint rapidement ses limites. Et peut-être plus rapidement encore dans le cas d’une recherche doctorale prenant la forme d’un DBA. L’observation directe est très consommatrice de temps et l’observation indirecte se heurte parfois à la difficulté de ne pas avoir « sous la main » les bonnes mesures compte tenu des concepts que la théorie exige. L’expérimentation, quant à elle, est souvent un peu « artificielle » car il faut créer des situations qui sont souvent caricaturales et les « cobayes » de l’expérimentation ne ressemblent pas toujours aux véritables décideurs. Entre le Charybde de l’observation et le Scylla de l’expérimentation se situe le passage encore peu pratiqué de la quasi-expérimentation. Après avoir rappelé rapidement en quoi consiste la quasiexpérimentation, nous en exposerons les avantages et nous livrerons quelques clés de succès pour des doctorants en DBA. 1. Heureux qui a pu pénétrer la raison des choses.

L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

1. LA DÉMARCHE QUASI-EXPÉRIMENTALE La quasi-expérimentation consiste en une étude empirique permettant d’estimer l’impact causal d’un changement sur une population cible. La recherche quasi-expérimentale ressemble à la recherche expérimentale mais elle se situe in vivo et non in vitro, ce qui veut dire, pour nous chercheurs en sciences sociales, au sein des organisations et non dans les laboratoires. Les différences entre recherche purement expérimentale et recherche quasi-expérimentale concernent le design et les participants. Dans une recherche expérimentale le changement dont on étudie les effets est « administré » aléatoirement à des personnes « traitées » ou à des personnes qui ne le sont pas, ces dernières constituant le(s) groupe(s) de contrôle. On retrouve la démarche suivie en recherche pharmaceutique lorsqu’on étudie l’effet d’un médicament en l’administrant aléatoirement à certains cobayes alors que d’autres reçoivent un placebo, démarche parfois qualifiée de « double aveugle » car ni le cobaye, ni celui qui administre le traitement ne sait « qui prend quoi ». En sciences de gestion, il est très difficile, dans la vie réelle des entreprises, de faire de même car le changement dont on cherche à mesurer l’effet est visible, on ne peut le dissimuler dans une capsule… S’il s’agit d’étudier, par exemple, l’effet d’un aménagement d’horaire sur la productivité, cela se remarque. De plus, même si, dans certains cas, on pourrait trouver un stratagème pour le dissimuler, il est souvent délicat de le faire car l’organisation ne souhaite pas introduire de disparité. La seconde différence entre les deux formes de recherches, expérimentale et quasi-expérimentale, tient à ce qu’on est en présence de « vrais » agents de l’organisation, des employés, des clients, des actionnaires qui ont des objectifs et des contraintes et non des « cobayes » qui viennent passer quelques heures dans un laboratoire. Cela n’interdit pas que l’on dispose de groupes de contrôle mais la répartition aléatoire entre agents traités et agents de contrôle est impossible. La recherche quasi-expérimentale n’a pas la même qualité que la recherche expérimentale concernant la « validité interne » car les différences entre groupes ayant été exposés au changement et groupes de contrôle peuvent avoir d’autres origines que le changement lui-même. On trouve l’explication de ces origines

243

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

dans les ouvrages de méthodologie de la recherche (Igalens & Roussel, 1998). Notre chapitre se limite à explorer la pertinence de l’approche quasi-expérimentale dans le cas d’une recherche de type DBA, en mettant en évidence les principaux avantages de cette démarche puis quatre clés du succès de son application.

2. LES AVANTAGES DE LA DÉMARCHE QUASIEXPÉRIMENTALE À travers leur revue de la littérature sur les quasi-expérimentations réalisées entre 1982 et 2006, Grant et Wall (2009) identifient cinq caractéristiques positives des quasi-expérimentations dans la recherche portant sur la vie dans les organisations2. Avantage 1 : renforcer l’inférence causale quand l’affectation aléatoire et les manipulations contrôlées ne sont pas possibles.

244

Certains chercheurs étudient l’impact de variables qui sont impossibles à contrôler ou à manipuler de façon aléatoire car elles ont des effets (positifs ou négatifs) importants (par exemple pour le prestige ou la carrière des agents) et en conséquence les attributaires du changement étudié seraient trop avantagés (ou désavantagés) par rapport à leurs collègues. Que l’on songe à l’inscription de cadres à un séminaire réservé aux hauts potentiels (dont on cherche à mesurer les effets) : le fait d’être retenu ou de ne pas l’être n’est pas sans conséquence sur l’agent ou sur ses collègues. Dans ces conditions seuls ceux qui « naturellement » ont été sélectionnés par l’entreprise seront comparés à d’autres. Dans le cas inverse, traitement négatif, de nombreux chercheurs ont étudié l’effet du licenciement sur les salariés qui demeurent dans l’entreprise (qui sont appelés les « survivants »). La forte homogénéité du groupe de 21 survivants étudiés chez un constructeur automobile après un plan social renforce la validité interne de la recherche car on imagine bien qu’une répartition aléatoire des personnes partantes ou restantes était impossible (Jaidi & Thévenet, 2010). 2. Nous avons actualisé cette revue pour la période de 2006 à 2015, portant sur 2 340 articles publiés dans trois revues majeures, Academy of Management Journal, Journal of Applied Psychology et Personnel Psychology. Sur la totalité des articles recensés, seulement 22 articles traitent de quasi-expérimentation soit en moyenne moins de 1 % des articles publiés.

L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

Avantage 2 : construire de meilleures théories dans le temps. De plus en plus, les chercheurs prêtent attention à l’impact du temps dans les designs de recherche et dans la construction de cadre théorique (e.g., Ancona et al., 2001 ; George & Jones, 2000 ; McGrath & Rotchford, 1983 ; Mitchell & James, 2001). En laboratoire, les chercheurs ont un accès aux participants sur une courte période de temps ce qui rend difficile l’évaluation de l’impact du temps dans les études. Dans un vrai dispositif expérimental en entreprise, les chercheurs auraient beaucoup de difficultés à poursuivre un changement au-delà de la durée nécessaire pour des impératifs de gestion. Dans un cas comme dans l’autre, pour des raisons pratiques ou éthiques, il est donc très difficile d’évaluer les effets du temps sur les variables d’intérêts. À l’inverse, dans une quasi-expérimentation basée sur des changements qui interviennent naturellement ou des changements qui sont intégrés par une organisation, il est beaucoup plus propice d’évaluer l’effet du temps dans les modèles. À titre d’exemple et en rapport avec l’impact de changements qui peuvent se produire naturellement, Wagner et al. (2012) mesurent comment le manque ou la mauvaise qualité du sommeil influence les comportements de flânerie des employés sur internet suivant des différences individuelles. Concrètement, les auteurs comparent les comportements de flânerie sur internet le lundi avant le changement d’heure (perturbateur du cycle du sommeil) et les deux lundis suivant le changement d’heure durant 6 années pour des citoyens de 203 zones géographiques des États-Unis. Un autre exemple, celui de Davidson et al. (2010) concerne des changements intégrés par une organisation. Les auteurs évaluent l’effet d’un congé sabbatique sur les gains et pertes de ressources et le bien-être avant, pendant et après le congé pour des membres du corps professoral. Avantage 3 : minimiser ou supprimer les dilemmes éthiques, l’iniquité, le paternalisme. Le préjudice d’un dilemme éthique fait référence au risque de prendre des mesures qui causent des douleurs physiques et morales aux participants (Baumrind, 1971 ; Kelman, 1967). Bien qu’un chercheur entre souvent dans une organisation pour réaliser une expérimentation avec de bonnes intentions, une ex-

245

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

périmentation peut causer des dommages physiques ou moraux aux participants (Baumrind, 1985 ; Fineman, 2006 ; Kelman, 1967 ; Savin, 1973). Dans une quasi-expérimentation, les éléments fâcheux tels par exemple, une crise ou une grève, ne sont pas la résultante de l’action du chercheur lui-même. Par contre, ces évènements peuvent être étudiés par le chercheur lorsqu’ils adviennent « naturellement ». Dans leur analyse, Grant et Wall (2009) négligent le fait que le praticien peut s’appuyer sur les recommandations du chercheur, ou encore que le praticien peut être le chercheur. Ce dernier supporte donc une certaine obligation de résultat, gage d’une « acceptabilité sociale » renforcée.

246

De plus, le chercheur ou le praticien-chercheur pourra s’affranchir de l’assignation aléatoire propre à l’expérimentation et réduire par voie de conséquence les risques d’iniquité. Enfin, peut apparaître un risque s’apparentant à du paternalisme. En situation expérimentale, le chercheur intervient en procédant à des manipulations, en contrôlant et en exerçant une influence sur les participants. Il est seul « maître à bord » et impose « sa vision du monde ». Au contraire, en situation de quasi-expérimentation, les chercheurs conduisent un travail de détective (Mintzberg, 1979) pour évaluer et expliquer des changements qui se sont produits. Ils évoluent sur le terrain de manière collaborative, en étroite relation avec les décideurs et les participants à la recherche. Avantage 4 : utiliser le contexte pour expliquer des résultats contradictoires. Le contexte est un élément central dans les recherches organisationnelles. Il représente les opportunités et contraintes induites par les facteurs situationnels et environnementaux de l’organisation (Mowday & Sutton, 1993). Johns (2006) met en avant que le contexte est particulièrement intéressant pour expliquer des résultats contradictoires. Dans ce cas, un design de recherche quasi-expérimental montre pleinement son utilité. Considérons par exemple, l’effet des attitudes au travail sur l’absentéisme. Pendant longtemps, les chercheurs ont affirmé que les employés les plus satisfaits étaient moins sujets aux absences. Cependant, les résultats empiriques varient selon les études. Smith (1977) va utiliser une quasi-expérimentation pour analy-

L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

ser ces résultats en expliquant que la relation entre attitudes et absences dépend du contexte et du style de management du superviseur. Lorsque le style de management conduit à sanctionner financièrement ou socialement les absences, celles-ci vont diminuer. Cependant, Smith (1977) va ensuite montrer, grâce à un design quasi-expérimental mis en place dans un contexte climatique, que lorsque les transports en commun sont perturbés par la neige ou de mauvaises conditions météorologiques, les employés satisfaits vont réussir à regagner leur poste de travail à la différence des autres qui vont utiliser le contexte climatique pour ne pas venir travailler et justifier leur absence tout en évitant la sanction. Avantage 5 : faciliter la collaboration avec la direction. Dans le cadre d’une quasi-expérimentation le chercheur et la direction vont travailler sur un champ d’étude commun qui va leur permettre de construire une collaboration étroite. Dans le cas du DBA, le chercheur est souvent un cadre bénéficiant de toute la confiance de la direction. Ainsi disparaît la méfiance traditionnelle (surtout en France) entre direction de l’organisation et chercheur. À la place de contrôler et manipuler l’organisation avec un assignement aléatoire ou des conditions de traitement, il revient au chercheur de donner du sens à l’observation et au changement qui se passe de façon naturelle ou qu’il a mis en œuvre en accord avec la direction. Par exemple, dans leur quasiexpérimentation avec des employés d’un centre d’appel, Liu et Batt (2010) vont mesurer l’impact du coaching du superviseur et des pratiques de management de groupe sur la performance des employés. Grant et al. (2014) mesurent l’effet de la création personnelle de l’intitulé de son poste au travail sur l’épuisement émotionnel. Certains employés d’une maison de santé inventent l’intitulé de leur poste de travail et sont comparés à ceux qui ont un intitulé de poste arbitraire. À la place d’imposer son propre intérêt théorique à l’organisation, le doctorant en DBA a l’opportunité de traiter un problème « reconnu » par la direction. Par exemple, des chercheurs ont utilisé la quasi-expérimentation pour évaluer les effets d’un changement de management sur des comportements tels que : –– La performance au travail (Grant, 2012 ; Haerem & Rau, 2007 ; Liu & Batt, 2010 ; Parker et al., 2013). Parker et al. (2013)

247

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

réalisent une étude avec des médecins en milieu hospitalier qui réalisent leur travail avec ou sans support structurel et mesurent l’effet du support structurel sur la performance au travail, la surcharge de travail, les comportements proactifs et l’utilisation des compétences. –– Les compétences (Eddy et al., 2013 ; Lievens & Sanchez, 2007 ; Noordzij et al., 2013 ; Parker et al., 2013 ; Tews & Tracey, 2008). L’étude d’Eddy et al. (2013) concerne des groupes de travail d’étudiants en différentes matières avec compte rendu non guidé et un compte rendu guidé conçu pour intégrer les enseignements tirés d’expériences précédentes et mesure leur performance.

248

–– Le turnover des employés. Peterson et Luthans (2006), avec trois groupes d’employés de franchises de fast-food : (a) soumis à des primes financières, (b) soumis à des feedbacks de performance et des reconnaissances positives des contributions individuelles et de groupes, (c) groupe de contrôle, mesurent l’impact des primes financières et non financières sur le profit, le service client et le turnover des employés. –– Les comportements déviants. Lyons et al. (2016), travaillent avec des footballeurs de la ligue nationale avant et après l’adoption d’une politique formelle destinée à réduire les comportements déviants des footballeurs durant leur temps libre. Les chercheurs mesurent l’effet de l’adoption d’une politique de codes de conduite sur la réduction des comportements déviants des salariés en dehors de leur temps de travail. –– L’épuisement professionnel (Le Blanc et al., 2007) ou émotionnel (Grant et al., 2014). –– La satisfaction des employés au travail, les prévisions de chiffre d’affaires, et la santé physique (Hammer et al., 2011). –– Les gains et pertes de ressources et le bien-être au travail (Davidson et al., 2010). –– Les comportements pro-sociaux (Grant, 2012). –– Les comportements proactifs (Parker et al., 2013).

L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

Enfin, la quasi-expérimentation va permettre de créer une interdépendance entre le chercheur et le praticien. Souvent, leaders et managers se sentent exclus par le chercheur qui peut paraître au-dessus des membres de l’organisation et parfois dissimule des informations sur la nature de sa recherche ou oublie d’avoir recours à l’expertise du praticien (Amabile et al., 2001). La quasi-expérimentation permet de surpasser cette barrière psychologique pénalisante. Chercheur et praticien se positionnent tous les deux comme deux experts, à parts égales, chacun apporte ses connaissances dans le but commun de faire avancer l’investigation. La recherche psychologique et organisationnelle a montré que le fait de partager une tâche et un objectif facilite la collaboration dans le travail et permet d’augmenter la motivation (Kozlowski & Ilgen, 2006 ; Wageman, 1995), et cette évidence s’applique aussi à la collaboration entre chercheurs et praticiens. Autrement dit, les praticiens ne sont plus des sujets mais des partenaires qui vont apporter leurs connaissances du contexte pour compléter les connaissances théoriques, méthodologiques et statistiques du chercheur. Cette interdépendance mise en place par le chercheur et le praticien est une collaboration gagnant-gagnant, dans le sens où les résultats de recherche auront à la fois des implications pratiques et théoriques. En conclusion, la quasi-expérimentation est à la fois une science et un art. C’est une science dans le sens où elle implique l’utilisation de méthodes d’investigation ordonnées et rigoureuses pour tester des hypothèses et faire avancer la connaissance sur des problèmes et questions de recherche. C’est aussi un art, dans le sens où elle nécessite l’utilisation de compétences et d’imagination pour produire des designs de recherche créatifs (Grant & Wall, 2009) et orientés vers la production de contributions managériales.

3. LES CLÉS DU SUCCES D’UNE QUASIEXPÉRIMENTATION ET CONSEILS PRATIQUES Si nous pouvons regretter le manque actuel de recherches en management utilisant la quasi-expérimentation, il nous semble possible de conclure sur un ensemble de préconisations en vue d’encourager des doctorants en DBA à utiliser ce design de recherche.

249

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Clé n°1 : partager les problématiques de l’entreprise à la fois du point de vue du chercheur et du praticien3

250

Le chercheur en management doit avoir suffisamment de recul et de compétences pour savoir se faire accepter professionnellement et humainement, tout en conservant une neutralité totale. Si, dans le cas d’un doctorant en DBA effectuant sa recherche dans l’entreprise qui l’emploie, la première condition va de soi, en revanche la seconde pose problème car il est perçu en fonction du poste qu’il occupe et du passé qui est le sien. Dans le cadre de sa recherche, il doit gagner la confiance de chaque personne concernée. Il est dans l’obligation d’être transparent sur sa double position, de communiquer le sujet et les modalités de son travail doctoral et d’informer régulièrement ses interlocuteurs professionnels de l’avancement de ses travaux. Dans une recherche en gestion des ressources humaines (GRH), par exemple, l’information des institutions représentatives du personnel peut s’avérer indispensable. Lorsqu’une administration de questionnaire est envisagée auprès des employés, cas très fréquent pour les recherches en GRH, le chercheur devra prendre d’autant plus de précautions pour respecter l’anonymat et la confidentialité des réponses qu’il est lui-même un cadre de l’entreprise. Clé n°2 : rendre accessible les résultats de la recherche aux praticiens Le chercheur doit adapter une communication efficace, avec une vulgarisation de l’information, adaptée aux modes de communication propres à l’entreprise et conforme aux attentes des dirigeants et des salariés. Concrètement, certains résultats peuvent ne pas avoir d’intérêt pour la recherche mais avoir une importance pour l’organisation. Lorsque, par exemple, des questionnaires sont administrés, certaines réponses peuvent être sans intérêt pour la recherche mais intéressantes pour l’organisation. Le chercheur ne doit pas non plus négliger que le salarié n’est pas un simple « fournisseur » de réponses mais qu’il est aussi un agent intéressé par les résultats. Il convient donc de réfléchir aux modalités de restitution des résultats à tous ceux qui ont bien voulu accepter de participer à la collecte des informations. 3. Voir étape 2 du schéma n°2 dans la figure 1.

L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

Le mode de restitution des résultats aux salariés doit faire l’objet d’une véritable réflexion car ni les intérêts ni la capacité à comprendre des analyses statistiques avancées ne sont forcément partagés par le chercheur et son public. C’est à lui de s’adapter lorsqu’il prépare les restitutions. Clé n°3 : nécessité d’une boucle supplémentaire Traditionnellement, la recherche en gestion repose sur cinq ou six étapes qui sont rappelées dans le schéma 1 de la figure 1. La dernière étape, « Prise de décision et action », est malheureusement assez peu présentée car les membres de l’organisation ne sont pas toujours convaincus de la pertinence des résultats obtenus. Pour cette raison, l’introduction d’étapes supplémentaires avec un « retour sur le terrain » s’avère très utile (voir schéma 2 de la figure 1). Par exemple, après « la production de résultats », ces derniers doivent être partagés avec l’ensemble des acteurs concernés (6 e étape du schéma 2 : retour sur le terrain). Figure 1. Comparaison d’un cadre de recherche traditionnelle avec un cadre de recherche de type quasi-expérimental

251

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Clé n°4 : obligation de résultats réguliers Les informations et les résultats de recherche doivent être communiqués au fur et à mesure de l’étude. Plusieurs objectifs sont recherchés : maintenir ou renforcer la confiance, motiver à participer à chaque enquête (notamment dans le cas fréquent où on doit interroger plusieurs fois les mêmes personnes), sensibiliser à répondre avec sérieux aux questionnaires, ajuster les orientations de la politique de ressources humaines de l’entreprise, etc. L’entreprise doit sentir que l’étude lui permet d’avancer, de progresser, d’évoluer vers de nouvelles pistes. Les échelles de temps utilisées par le chercheur et le praticien sont différentes. Pour un chercheur, obtenir des résultats de recherche à l’issue de trois années de travail est tout à fait acceptable. Les contraintes des entreprises sont différentes et dans le cas d’un doctorant en DBA la conciliation de ces deux logiques est délicate mais essentielle. Cette contrainte doit être présente dès le choix du sujet. La solution consiste parfois à trouver des points d’étape qui satisfont à la fois le directeur de recherche et l’organisation.

252

En conclusion, ces quatre clés ouvrent un nouveau cadre de recherche en gestion. À condition de bien en connaître les limites épistémologiques (Cook & Campbell, 1979), le recours à des designs quasi-expérimentaux est vraisemblablement l’un des mieux adaptés aux doctorants engagés dans un DBA qui travaillent dans une organisation pour peu qu’ils aient fait le choix d’un sujet en lien avec cette dernière. Ils se distinguent des étudiants doctoraux « standards » par un « aller-retour » permanent avec le terrain et parviennent à conjuguer la rigueur qu’exige la recherche en gestion avec la pertinence dont l’organisation a besoin. Références citées Amabile, T. M., Patterson, C., Mueller, J., Wojcik, T., Kramer, S. J. & Odomirok, P. W. (2001), Academic-practitioner collaboration in management research: A case of cross-profession collaboration, Academy of Management Journal, vol. 44, n° 2, p. 418431. Ancona, D. G., Okhuysen, G. A. & Perlow, L. A. (2001), Taking time to integrate temporal research, Academy of Management Review, vol. 26, n° 4, p. 512-529.

L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

Baumrind, D. (1971), Principles of ethical conduct in the treatment of subjects: Reaction to the draft report of the committee on ethical standards in psychological research, American Psychologist, vol.26, n° 10, p. 887-896. Baumrind, D. (1985), Research using intentional deception: Ethical issues revisited, American Psychologist, vol. 40, n° 2, p. 165-174. Cook, T. D. & Campbell, D. T. (1979), Quasi-Experimentation: Design and Analysis Issues for Field Settings, Chicago, Rand McNally. Davidson, O. B., Eden, D., Westman, M., Cohen-Charash, Y., Hammer, L. B., Kluger, A. N., Krausz, M., Maslach, C., O’Driscoll, M., Perrewé, P. L., Quick, J. C., Rosenblatt, Z. & Spector, P. E. (2010), Sabbatical leave: Who gains and how much ?, Journal of Applied Psychology, vol. 95, n° 5, p. 953-964. Eddy, E. R., Tannenbaum, S. I. & Mathieu, J. E. (2013), Helping teams to help themselves: Comparing two team-led debriefing methods, Personnel Psychology, vol. 66, n° 4, p. 975-1008. Evrard, Y., Pras, B. & Roux, E. (2009), Market – fondements et méthodes des recherches en marketing, 4 e édition, Paris, Dunod. Fineman, S. (2006), On being positive: Concerns and counterpoints, Academy of Management Review, vol. 31, n° 2, p. 270-291. George, J. M. & Jones, G. R. (2000), The role of time in theory and theory building, Journal of Management, vol. 26, p. 657-684. Grant, A. M. (2012), Leading with meaning: Beneficiary contact, prosocial impact, and the performance effects of transformational leadership, Academy of Management Journal, vol. 55, n° 2, p. 458-476. Grant, A. M., Berg, J. M. & Cable, D. M. (2014), Job titles as identity badges: How self-reflective titles can reduce emotional exhaustion, Academy of Management Journal, vol. 57, n° 4, p. 12011225. Grant, A. M. & Wall, T. D. (2009), The neglected science and art of quasi-experimentation: Why-to, when-to, and how-to advice for organizational researchers, Organizational Research Methods, vol. 12, n° 4, p. 653-686. Haerem, T. & Rau, D. (2007), The influence of degree of expertise and objective task complexity on perceived task complexity and performance, Journal of Applied Psychology, vol. 92, n° 5, p. 13201331. Hammer, L. B., Kossek, E. E., Anger, W. K., Bodner, T. & Zimmerman, K. L. (2011), Clarifying work-family intervention processes: The roles of work-family conflict and family-supportive supervisor behaviors, Journal of Applied Psychology, vol. 96, n° 1, p. 134-150.

253

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Igalens, J. & Roussel, P. (1998), Méthode de gestion en ressources humaines, Paris, Economica. Jaidi, Y. & Thévenet, M. (2010), GRH en situation de crise : Départ volontaire et « bienveillance », 21e congrès de l’Association francophone de Gestion des Ressources Humaines (AGRH), Rennes et Saint-Malo. Johns, G. (2006), The essential impact of context on organizational behavior, Academy of Management Journal Review, vol. 31, n° 2 p. 386-408. Kelman, H. C. (1967), Human use of human subjects: The problem of deception in social psychological experiments, Psychological Bulletin, vol. 67, n° 1, p. 1-11. Kozlowski, S. W. J. & Ilgen, D. R. (2006), Enhancing the effectiveness of work groups and teams, Psychological Science in the Public Interest, vol. 7, n° 3, p. 77-124. Le Blanc, P. M., Hox, J. J., Schaufeli, W. B., Peeters, M. C. W. & Taris, T. W. (2007), Take care! The evaluation of a team-based burnout intervention program for oncology care providers, Journal of Applied Psychology, vol. 92, n° 1, p. 213-227.

254

Lievens, F. & Sanchez, J. I. (2007), Can training improve the quality of inferences made by raters in competency modeling? A quasiexperiment, Journal of Applied Psychology, vol. 92, n° 3, p. 812-819. Liu, X. & Batt, R. (2010), How supervisors influence performance: A multilevel study of coaching and group management in technology-mediated services, Personnel Psychology, vol. 63, n° 2, p. 265-298. Lyons, B. D., Hoffman, B. J., Bommer, W. H., Kennedy, C. L. & Hetrick, A. L. (2016), Off-duty deviance: Organizational policies and evidence for two prevention strategies, Journal of Applied Psychology, vol. 101, n° 4, p. 463-483. McGrath, J. E. & Rotchford, N. L. (1983), Time and behavior in organizations, Research in Organizational Behavior, vol. 5, p. 57-101. Mintzberg, H. (1979), An emerging strategy of “direct” research, Administrative Science Quarterly, vol. 24, n° 4, p. 582-589. Mitchell, T. R. & James, L. R. (2001), Building better theory: Time and the specification of when things happen, Academy of Management Review, vol. 26, n° 4, p. 530-547. Mowday, R. T. & Sutton, R. I. (1993), Organizational behavior: Linking individuals and groups to organizational contexts, Annual Review of Psychology, vol. 44, p. 195-229. Noordzij, G., Van Hooft, E. A. J., Van Mierlo, H., Van Dam, A. & Born, M. P. (2013), The effects of a learning-goal orientation training

L e s d e s i g n s qu a s i - ex p é r i m e nt a u x

on self-regulation: A field experiment among unemployed job seekers, Personnel Psychology, vol. 66, n° 3, p. 723-755. Parker, S. K., Johnson, A., Collins, C. & Nguyen, H. (2013), Making the most of structural support: Moderating influence of employees’ clarity and negative affect, Academy of Management Journal, vol. 56, n° 3, p. 867-892. Peterson, S. J. & Luthans, F. (2006), The impact of financial and nonfinancial incentives on business-unit outcomes over time, Journal of Applied Psychology, vol. 91, n° 1, p. 156-165. Savin, H. B. (1973), Professors and psychological researchers: Conflicting values in conflicting roles, Cognition, vol. 2, n° 1, p. 147-149. Smith, F. J. (1977), Work attitudes as predictors of attendance on a specific day, Journal of Applied Psychology, vol. 62, n° 1, p. 16-19. Tews, M. J. & Tracey, J. B. (2008), An empirical examination of posttraining on-the-job supplements for enhancing the effectiveness of interpersonal skills training, Personnel Psychology, vol. 61, n° 2, p. 375-401. Wageman, R. (1995), Interdependence and group effectiveness, Administrative Science Quarterly, vol. 40, p. 145-180. Wagner, D. T., Barnes, C. M., Lim, V. K. G. & Ferri, D. L. (2012), Lost sleep and cyberloafing: Evidence from the laboratory and a daylight saving time quasi-experiment, Journal of Applied Psychology, vol. 97, n° 5, p. 1068-1076. Références pour en savoir plus Grant, A. M., Berg, J. M. & Cable, D. M. (2014), Job titles as identity badges: How self-reflective titles can reduce emotional exhaustion, Academy of Management Journal, vol. 57, n° 4, p. 12011225.

Basée sur une quasi-expérimentation, l’étude 2 de cette recherche constate que les employés qui ont créé eux même l’intitulé de leur poste de travail éprouvent moins d’épuisement émotionnel. Grant, A. M. & Wall, T. D. (2009), The neglected science and art of quasi-experimentation: Why-to, when-to, and how-to advice for organizational researchers, Organizational Research Methods, vol. 12, n° 4, p. 653-686.

Les auteurs encouragent à l’utilisation des quasi-expérimentations en identifiant ses caractéristiques positives dans les recherches en milieu organisationnel.

255

Re c u e i l l i r l e s d o n n é e s d u t e r ra i n

Igalens, J. & Roussel, P. (1998), Méthode de gestion en ressources humaines, Paris, Economica.

Cet ouvrage expose et illustre les principales méthodes de recherche, dont la quasi-expérimentation. Les domaines d’application sont essentiellement la gestion des ressources humaines, la psychologie sociale, le marketing et la sociologie. Prévost, P. & Roy, M. (2017), Les approches qualitatives en gestion, Montréal, Presses de l’Université de Montréal.

Menées en contexte réel, les recherches qui visent à aider les praticiens et les organisations à résoudre des problèmes de gestion complexes dans un monde en pleine effervescence sont des outils précieux et de plus en plus incontournables. Pour générer des connaissances à la fois pertinentes sur le plan pratique et probantes sur le plan scientifique, les auteurs donnent les moyens de maîtrise de diverses approches qualitatives. Wagner, D. T., Barnes, C. M., Lim, V. K. G. & Ferri, D. L. (2012), Lost sleep and cyberloafing: Evidence from the laboratory and a daylight saving time quasi-experiment, Journal of Applied Psychology, vol. 97, n° 5, p. 1068-1076.

256

À travers une quasi-expérimentation, cette recherche mesure comment le manque ou la mauvaise qualité du sommeil influence les comportements de flânerie des employés sur internet et suivant des différences individuelles.

PARTIE III Analyser les données du terrain

Introduction à la partie III Françoise Chevalier, L. Martin Cloutier et Nathalie Mitev Tout autant que pour le recueil des données du terrain traité à la partie II, l’analyse des données primaires recueillies du terrain peut prendre de multiples formes, selon qu’elles sont qualitatives ou quantitatives, ou mixtes (qualitatives et quantitatives). Cela exige du doctorant-manager de DBA de mettre en place un cadre d’analyse empirique de données. En somme, qu’il aille chercher des rudiments formels, en construisant tout autant des compétences analytiques et d’utilisation de logiciels dédiés, que des capacités en gestion de données qualitatives, quantitatives, visuelles à l’état brut, de l’information disponible, et des connaissances, les siennes tout autant que celles cumulées dans les corpus de la littérature d’intérêt. Les chapitres dans cette partie de l’ouvrage, offrent un panorama, voire une coupe transversale, de possibilités en matière d’analyse de données du terrain, qu’il s’agisse de les comprendre ou de les représenter pour mieux les comprendre. Un des moyens de produire des connaissances, donc d’établir le lien entre les données et les concepts mobilisés à la compréhen-

Les méthodes de recherche du DBA

257

A n a l y s e r l e s d o n n é e s d u t e r ra i n

sion de phénomènes, est le codage. Au chapitre 15, Sébastien Point, soulève avec justesse cette question : Qu’est-ce que le codage ? Ce chapitre présente la mécanique du codage thématique si étroitement associé à l’analyse qualitative d’abord, pour nous inviter à faire de nombreuses rencontres lors de ces explorations de codage. L’auteur place en première partie du chapitre les éléments méthodologiques nécessaires à maîtriser en amont pour comprendre ce qu’il est, ce qu’il fait et aussi ce qu’il apporte ou devient. Le chapitre comprend des éléments pratiques à la section 2, avant de montrer ce que les codages apportent aux données en section 3. Sébastien Point explique aussi comment on doit présenter et faire état des résultats du codage. Ce dernier élément demeure primordial, puisqu’il sert à bien documenter la rigueur de production des connaissances, donc les choix qui justifient comment le sens attribué aux données a été produit, tout en demeurant conscient qu’il renferme une part de subjectivité, mais que cette dernière est « déclarée ».

258

Il y a un engouement certain pour l’analyse par logiciel de contenus qualitatifs, et c’est l’objectif du chapitre 16, préparé par Jean-Fabrice Lebraty, Katia Lobre-Lebraty et Stéphane Trébucq, de présenter cette méthode de recherche. Ce chapitre décrit succinctement les motivations de l’utilisation d’un logiciel d’analyse qualitative dans la réalisation d’études qualitatives avant de s’attarder plus amplement au processus sous-jacent. En particulier, les auteurs présentent les étapes de cueillette des données qualitatives pour ensuite décrire comment elles peuvent être traitées par le logiciel NVivo. Ensuite, les auteurs présentent un exemple pour illustrer le processus conduisant à l’utilisation du logiciel en contexte de codage et d’analyse. Les auteurs présentent également quelques dilemmes auxquels doivent s’attarder le chercheur de DBA dans les choix opérés lors d’analyses de données qualitatives. Sébastien Liarte et Sarah Maire, au chapitre 17, prennent le flambeau analytique dans une autre optique pour nous convaincre, à l’instar du proverbe de Confucius, du bien-fondé de l’expression : « une image vaut mille mots » ! Toutefois, ce que l’on comprend rapidement à la lecture de ce chapitre, c’est-à-dire, ce qui est capital dans le processus de production de connaissance conduisant à des recommandations managériales, est le choix de ces

A n a l y s e r l e s d o n n é e s d u t e r ra i n

mille mots ! En effet, ce chapitre souligne le bien-fondé de s’intéresser aux données visuelles comme matériau de recherche primaire, un matériau visiblement toujours sous-utilisé pour mieux comprendre les organisations. Mais, la tâche, bien que fort intéressante, n’est pas de tout repos. En effet, de nombreux défis d’ordre méthodologique sont au rendez-vous, comme exposé dans la section 1 du chapitre ; la sémiotique, la rhétorique et l’esthétique sont des éléments constitutifs qui ont pignon sur rue. Les auteurs s’emploient aussi à décrire les différentes méthodes employées dans ce processus de découverte et d’interprétation de données visuelles. Dans la section 2 du chapitre, on comprend tout l’intérêt de « rendre visible l’invisible » dans les organisations et de « matérialiser l’immatériel », ce qui permet d’approfondir la compréhension des activités conduites par les organisations. À travers ce chapitre, les nombreux exemples illustrent merveilleusement bien les propos des auteurs, et des recommandations à l’intention de managers-chercheurs constituent une réelle invitation à s’intéresser davantage aux données visuelles. Dans le chapitre 18, Jean Desmazes relève le défi de transmettre son enthousiasme pour l’analyse de données statistiques multidimensionnelles, de manière utile et compréhensible pour non-spécialistes. En particulier, l’auteur montre l’intérêt de mener des analyses statistiques, celles-ci permettant de synthétiser de riches informations chiffrées pour en extraire le sens. Les analyses statistiques multivariées dont l’auteur illustre simplement l’utilité en contexte sont : l’Analyse en Composantes Principales (ACP), l’Analyse Factorielle des Correspondances (AFC), l’Analyse des Correspondances Multiples (ACM) et la Classification Ascendante Hiérarchique (CAH). Il est important de retenir de ce chapitre que les managers-doctorants qui s’investiraient dans l’apprentissage de l’analyse statistique pourraient en tirer une compréhension intime de certains phénomènes, mais il faut aussi retenir que l’emploi en contexte de ces méthodes statistiques ne se fera pas sans efforts pour en maîtriser les tenants et aboutissants. Jean Moscarola traite au chapitre 19 de la visualisation des données et de l’infographie numérique. C’est à travers des exemples pratiques que l’auteur nous présente le potentiel et les outils

259

A n a l y s e r l e s d o n n é e s d u t e r ra i n

logiciels sous-jacents, tels Sphinx et DataViv. En particulier, ces méthodes sont susceptibles d’enrichir considérablement la communication des analyses de données, soit l’approche narrative (storytelling, en anglais) numérique ou visuelle ; le processus de théorisation ou de conceptualisation que confèrent les approches enracinées ; et la réfutation des contre-arguments. Mais, ce qui retient véritablement l’attention, et suscitera un intérêt de la part des doctorants-managers, c’est l’apport de logiciels, comme autant d’outils employés dans la production de connaissances. Mais, à l’instar de la maîtrise de méthodes statistiques, un complément d’effort doit être fait pour acquérir les compétences requises permettant de mettre à profit la visualisation des données et l’infographie. Il s’agit d’un domaine d’analyse des données en plein essor et en cette ère d’accumulation de mégadonnées. Il y a fort à parier que les méthodes et outils d’analyse dont il est question dans ce chapitre, et les enjeux qu’ils soulèvent, tiendront une place encore plus importante dans la production et la communication de recommandations managériales dans l’avenir.

260

La méta-analyse est l’art de synthétiser les résultats de la recherche pour en généraliser les résultats, et cette méthode est le sujet du chapitre 20 offert par Christophe Fournier. L’auteur aborde les étapes du processus de la méta-analyse en détail, en soulignant la nature statistique de production des résultats. Quelques références ont été ajoutées en complément de chapitre pour les doctorants-managers de DBA intéressés de produire une synthèse de la littérature dans leur champ d’expertise. La méta-analyse apparaît comme un excellent moyen de construire une expertise robuste ancrée dans les faits. La créativité est de plus en plus reconnue comme un ingrédient essentiel de la réussite en recherche, nombreux sont les chercheurs en gestion qui désormais s’y intéressent. Le chapitre 21, proposé par Gaëtan Mourmant, décrit diverses approches par lesquelles il est possible de faire intervenir la créativité dans la recherche en management. L’auteur expose différents résultats de recherche en neuroscience pour indiquer de quelle manière il est possible de mobiliser divers éléments, tels le rôle de l’attention interne et externe dans la production de représentations mentales, le rôle de la méditation et aussi celui des cinq habi-

A n a l y s e r l e s d o n n é e s d u t e r ra i n

tudes des personnes très créatives. Le chapitre comprend de nombreux exemples et souligne les différents constats à retenir. En conclusion, l’auteur synthétise l’essentiel de ses propos comme autant de recommandations appropriables pour tirer avantage de ces techniques pouvant contribuer à faire émerger des concepts pertinents à travers ces processus de conceptualisation. En somme, cette partie du livre vient mettre en évidence les différentes méthodes, outils, logiciels, et même les disciplines personnelles de conceptualisation, tous utiles à l’analyse de données primaires qualitatives, quantitatives et visuelles. Pris individuellement, chacune de ces méthodes ou techniques présentées dans cette partie, est susceptible de produire la connaissance pour comprendre un phénomène ou un objet d’intérêt dans la réalisation d’un projet de DBA. La manière dont le choix d’une méthode adaptée à la question terrain, le recueil des données terrain, et l’analyse de données du terrain, peut s’articuler en un tout intelligible et cohérent qui fera l’objet de la Partie IV.

261

CHAPITRE 15. L’analyse des données qualitatives : voyage au centre du codage Sébastien Point

Résumé Qu’est-ce que le codage ? Comment donner du sens aux données ? Comment lier concepts et données ? Ce chapitre vise à introduire la notion de codage et susciter une véritable réflexion sur ce processus d’analyse des données. Il s’agit donc de lever le voile sur ce processus de transformation. Si, en théorie, la démarche de codage reste simple, en pratique ce n’est pas un processus neutre, puisqu’il mobilise une grande subjectivité du chercheur à travers la recherche de sens. Reste au chercheur de faire les bons choix de codages et d’interprétations. Mots-clés : codage, données qualitatives, concepts, subjectivité, interprétation.

Les méthodes de recherche du DBA

262

L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

“Coding is fun isn’t it? You never know what you might discover in a simple encounter.” Strauss et Corbin (1990, p. 73)

INTRODUCTION1 Les travaux en recherche qualitative visent à comprendre et interpréter un phénomène spécifique étudié. Les extrapolations ou généralisations sont quasiment impossibles. Ce n’est d’ailleurs pas le but des recherches qualitatives fortement contextualisées et qui reposent sur des échantillons beaucoup plus restreints que les recherches quantitatives. Pourtant, avoir de petits échantillons et/ou des problématiques de recherche fortement contextualisées ne veut pas dire avoir une petite quantité d’information à devoir gérer : ces dernières années, nous assistons à une véritable mutation des données qualitatives, et qualifier la recherche qualitative de nuisance attractive (Miles, 1979) constitue plus que jamais une tautologie, et ce, pour trois raisons essentielles. En premier lieu, la taille des échantillons tend à largement augmenter, puisque pour la plupart des chercheurs, un échantillon de taille plus importante garantirait la robustesse et la validité de l’analyse – ce qui n’est pas forcément vrai ! Deuxièmement, les données recueillies sont particulièrement variées : outre les discours et toutes les observations qui conduisent le chercheur à manipuler du texte, des images, des fichiers audio ou même vidéo peuvent aujourd’hui venir enrichir la diversité des données ainsi recueillies par le chercheur2. Troisièmement, la frontière entre les approches quantitatives et qualitatives devient de plus en plus floue et conduit parfois le chercheur à opérer toutes sortes de comptages qui tendent à quantifier les informations obtenues à partir de données qualitatives. En conséquence, rigueur et flexibilité sont aujourd’hui devenus les maîtres mots de la méthodologie en recherche qualitative (Gioia et al., 2013 ; Saldaña, 2013).

1. Ce chapitre ne se veut pas être un inventaire in extenso des techniques de codage existantes. Nous proposons plutôt ici aux lecteurs une réflexion sur le processus de codage et plus généralement de l’analyse des données qualitatives. Les recensements effectués ici ne sont que des résumés de la pensée originelle et nous incitons fortement les chercheurs, intéressés par une méthode particulière, à se référer aux travaux sources : chacun des auteurs cités possède effectivement une interprétation bien particulière des concepts soulignés dans ce chapitre et nous encourageons également les chercheurs non seulement à en prendre connaissance, mais également à se faire leur propre appropriation. 2. Nous nous référons ici au dicton « All is data », cher à Glaser (1978).

263

A n a l y s e r l e s d o n n é e s d u t e r ra i n

Au lieu de parler de méthodologie de recherche qualitative, nous devrions plutôt évoquer des méthodologies : en effet, tant au niveau de la recherche qualitative que quantitative, la méthodologie se décline en trois temps distincts : le recueil, l’analyse et la mesure/validité de la recherche. L’objectif de ce chapitre est de se focaliser sur la deuxième étape, celle de l’analyse qui passe par un processus de (dé)codage des données qualitatives. Mais avant d’évoquer les processus de (dé)codage des données qualitatives et de mieux appréhender l’analyse de celles-ci, rappelons l’objectif de toute recherche qualitative.

264

L’objectif de toute recherche qualitative reste de comprendre un phénomène par la construction d’un modèle : elle assure avant tout une visée compréhensive qui conduit généralement à une construction théorique. La construction théorique peut être à visée descriptive ou explicative (Snow & Thomas, 1994) : la première correspond au « quoi » en identifiant les construits et concepts clés de la recherche ; la seconde répond au « comment » et « pourquoi » en cherchant à établir des relations entre les concepts et les construits de la recherche. La construction théorique correspond alors plutôt à un réseau de relations non hiérarchiques, exprimées avec des énoncés définissant les liens parmi les concepts (Carley, 1991) ou encore à un modèle prédictif d’événements, pouvant être comparé avec ce qui est réellement observé (Yin, 2017). Cette construction théorique est l’aboutissement de l’analyse des données qualitatives opérée via le codage. En l’occurrence, ce processus appelle à plusieurs questionnements qui structurent ce chapitre : 1) qu’est-ce que le codage ? 2) Comment lier concepts et données ? 3) Comment donner du sens aux données ? 4) Comment rendre compte du codage ?

1. UN PEU DE THÉORIE : QU’EST-CE QUE LE CODAGE ? Commençons par démystifier le processus clé au cœur de l’analyse des données qualitatives : le codage. Le codage est le résultat de l’analyse des données et il va même au-delà ; c’est une démarche captivante, mais aussi chronophage (Ayache & Dumez, 2011). Bon nombre d’auteurs s’accordent à dire que l’analyse des données qualitatives commence dès le recueil de celles-ci !

L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

Pourquoi donc coder ? Le codage permet d’identifier les idées issues des données recueillies. Le codage est un instrument (pour étayer la métaphore de Ayache & Dumez, 2011) : tel un musicien, le chercheur fait corps avec son instrument pour lire, déchiffrer et exécuter sa partition. Il s’agit également de relier les idées entre elles afin de leur donner du sens (Coffey & Atkinson, 1996). C’est en effet à partir du sens donné au matériau recueilli que le processus de codage se réalise. Pour cela, le chercheur rassemble entre eux les codes homogènes puis il va progressivement transformer ces codes en catégories par un travail successif de codage (en repensant puis en recodant les codes). « La catégorie est un code travaillé par le chercheur et renvoie ainsi à l’organisation conceptuelle et à la théorisation menée par le chercheur. Elle va alors bien au-delà de la désignation de contenu » et elle reste apparentée à la notion de concept (Point & Voynnet-Fourboul, 2006, p. 64). Il existe autant de définitions du codage que de manières d’appréhender les données qualitatives. Les définitions s’accordent toutefois toutes sur un point : le codage est un processus de transformation ; il s’agit de transformer les données pour arriver à un modèle, une construction théorique. Certaines définitions mettent en exergue le principe de réduction des données ; le cerveau humain ayant des capacités limitées, il lui est nécessaire de procéder à une simplification des données face au volume qu’il a à traiter. La catégorisation – principe que nous éluderons ultérieurement – appelle justement à une simplification en invitant le chercheur à classer les informations selon des catégories. Dans cette perspective, le codage consiste à « découper les données en unités d’analyse, à définir les catégories qui vont les accueillir, puis à placer les unités dans ces catégories » (Allard-Poesi, 2003, p. 246). Ce procédé est également cher à Miles et Huberman (1994). D’autres définitions mettent en exergue la cognition et la capacité du chercheur à penser ses données. Dans cette perspective, le codage implique « un effort explicite d’identifier des thèmes, de construire des interprétations telles qu’elles émergent des données ainsi que de clarifier le lien entre les données, les thèmes et les interprétations conséquentes » (Tesch, 1990, p. 113, traduction de l’auteur). Ce processus fournit au chercheur des façons de penser les données (un processus d’indexation). Le chercheur se pose lui-même des questions à propos des données (voir Coffey & Aktinson, 1996).

265

A n a l y s e r l e s d o n n é e s d u t e r ra i n

En théorie, la démarche de codage est simple : il suffit de se poser de multiples questions sur le texte lui-même… et au-delà : bon nombre de chercheurs tendent à se poser uniquement des questions sur le sens du texte ou le contenu du fichier audio/ vidéo, en oubliant de lire entre les lignes : silences, hésitations, émotions, métaphores, ton de la voix, gestuelle (en cas de visuel) etc. sont autant d’indices permettant au chercheur d’interpréter et de donner du sens à ces données. À l’instar de l’inspecteur Columbo, il faut donc méticuleusement trouver des indices permettant de construire un sens particulier, celui qui amènera progressivement le chercheur à mobiliser des concepts. Ayache et Dumez (2011) évoquent à juste titre la multi-dimensionnalité du codage pour rendre compte : 1) de la multiplicité du sens que le chercheur peut donner au corpus de données ; 2) de la variété des thématiques auxquelles il peut être fait référence, ou encore ; 3) des perspectives multiples (ou angles d’attaques) que chaque chercheur peut effectuer sur le même corpus de données, de manière convergente ou divergente.

266

En pratique, le codage fait vraisemblablement douter le chercheur : le codage n’est pas un processus neutre, il amène une grande subjectivité du chercheur puisque c’est lui qui donne du sens : mais a-t-il seulement fait les bons choix ? Que faut-il coder ? En commençant par une codification des données, le processus de codage amène à une catégorisation. Il ne faut en effet pas confondre codification des données et catégorisation des données. En l’occurrence, le premier renvoie à la transformation des données brutes (issues de faits observés, de propos et/ou discours recueillis…) en une première formulation qui relève du sens commun : certains chercheurs appellent cela de l’étiquetage, soit le fait de mettre des étiquettes sur des morceaux de textes ou d’images ou encore sur des extraits audios ou vidéos. La seconde est un processus visant à transformer des thèmes et/ou idées en concepts clés destinés à un système plus abstrait de connaissances. La catégorisation « est l’analyse, la conceptualisation, mise en forme, la théorisation en progression » (Paillé & Mucchielli, 2005, p. 147). Elle renvoie à une réorganisation des données et des codes déjà attribués, au moyen de catégories créées antérieurement ou ultérieurement par le chercheur.

L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

Encadré 1. Le codage en pratique : six pièges à éviter La paraphrase : de simples citations issues du corpus de données ne tiennent pas lieu d’analyse. Rappelons que le codage va au-delà d’une simple description, puisque le chercheur donne du sens à ses données ; c’est cette recherche de sens qui l’amène progressivement à faire le lien entre concepts et données empiriques. Le réductionnisme : travailler uniquement sur les codes et non sur le corpus de données de base peut amener le chercheur à perdre la globalité de ses données. Trop de réduction nuit à l’interprétation. La linéarité des opérations : le codage nécessite des « va-et-vient » entre le corpus de données étudié et les catégories créées, entre les concepts identifiés dans la revue de littérature et les données recueillies ; ce n’est pas un processus complètement linéaire qui part soit des concepts pour les relier aux données, soit des données pour faire émerger des concepts. Le processus reste itératif. La technicisation : il s’agit d’une surexploitation du corpus de données et l’emploi d’outils non nécessaires à l’analyse. Trop d’expertise peut être contreproductive au chercheur puisqu’il peut facilement se noyer dans ses propres connaissances et interprétations. L’enlisement : un enlisement dans l’analyse ou même le recueil des données peut nuire à la phase d’interprétation. Le processus de codage reste chronophage mais ne doit pas pour autant nuire aux autres étapes de la recherche. La détemporisation : le codage nécessite beaucoup de temps, non négligeable dans la procédure d’analyse. Attention toutefois à limiter le temps consacré au codage. Inspiré de Point et Voynnet-Fourboul (2006, p. 70).

En l’occurrence, le défi pour tout chercheur est justement de passer de la codification à la catégorisation, sinon il risque de rester dans le descriptif, ce qui peut davantage relever d’une démarche journalistique au lieu d’une démarche scientifique et académique. Ce procédé reste complexe mais c’est aussi la qualité de ce passage entre codification et catégorisation qui déterminera la qualité de l’analyse, et donc celle de la thèse. L’étape clé est donc de relier concepts et données.

2. UN PEU DE PRATIQUE : COMMENT LIER CONCEPTS ET DONNÉES ? Dans sa démarche de recherche, le jeune chercheur se retrouve très vite avec deux types de matériau : d’une part, avec sa revue

267

A n a l y s e r l e s d o n n é e s d u t e r ra i n

de littérature, le chercheur amasse un ensemble de connaissances, de concepts, de modèles, de théories et de réflexions. Il s’agit des données théoriques. D’autre part, les données sont regroupées sous forme de discours, de faits, d’opinions, de blogues, d’attitudes, d’observations…, c’est-à-dire un ensemble de documents regroupés en données primaires (entretiens) et données secondaires (observations, documents, sites internet, etc.) appelées données empiriques. Le défi est de trouver des passerelles ou des liens entre les données empiriques et les données théoriques. Deux visions possibles s’offrent ainsi au chercheur : partir des données empiriques et progressivement arriver à la théorie ou partir des concepts et trouver l’ancrage empirique correspondant à la théorie (Figure 1). Figure 1. Le passage entre les mondes théorique et empirique

268

Dans le premier cas, à partir de faits, d’observations et de tous documents dont il dispose, il s’agit de faire émerger des éléments plus conceptuels. Le fait de passer des données empiriques à la théorie (et ses concepts) s’appelle l’abstraction3. L’abstraction est un mécanisme permettant au chercheur de progresser vers une construction théorique ; il s’agit pour le chercheur de se focaliser sur ce qu’il perçoit comme essentiel pour bâtir un modèle 3. Le terme abstraction vient du latin ab trahere qui veut dire « tirer de ». « La catégorie fait sens, dans la mesure où elle décrit un phénomène d’un certain point de vue, dans la mesure où elle donne lieu à une définition, elle a des propriétés synthétique, dénominative et explicative d’un concept » (Paillé & Mucchielli, 2005, p. 149).

L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

analytique en relation avec le problème qu’il se pose (Dumez, 2016). Ce principe d’abstraction (ou démarche ascendante, ou bottom-up, en anglais) consiste donc à coder les données, formuler des indices (au sens de Lazarsfeld, 1967), pour ensuite progressivement créer des catégories pour faire émerger des éléments plus conceptuels. En d’autres termes, il s’agit de repérer les concepts dissimulés derrière l’ensemble des données que le chercheur a recueilli. Ces éléments empiriques ne représentent jamais directement des concepts et il s’agit justement du travail du chercheur de trouver – par un jeu de codages successifs – la signification des concepts théoriques sous-jacents. Par le jeu de l’induction, le chercheur utilise ses données pour y repérer des concepts clés. Dans l’exemple ci-dessous (Figure 2), le chercheur part de toute la richesse du matériau pour le découper en unités de sens et y attribuer des codes. Aussi, le chercheur commence par faire un repérage avec un codage très proche du texte analysé. Lorsque le label du code est identique au texte, il s’agit d’un codage dit in vivo4. Puis, progressivement, à la lecture d’autres segments de textes, le chercheur va transformer ses codes en catégories. Ainsi, dans cet exemple, la concurrence pourrait se transformer en catégorie « compétition ». L’ensemble du paragraphe fait aussi référence à la catégorie « ambition ». Figure 2. Exemple de codification

Dans le second cas (c’est-à-dire dans le cas du passage du monde théorique au monde empirique, démarche descendante (topdown, en anglais) – généralement plus abordable pour les jeunes chercheurs – ces derniers s’attachent à repérer, au sein même des données recueillies, les éléments empiriques qui illustrent le plus finement possible les concepts identifiés dans la revue de littéra-

4. Le terme in vivo vient du latin « au sens du vivant ». En d’autres termes, il s’agit d’utiliser au plus près les verbatim des personnes interrogées pour explorer les différentes dimensions des catégories (voir Saldaña, 2013).

269

A n a l y s e r l e s d o n n é e s d u t e r ra i n

ture. Il s’agit, par une manœuvre de repérage, d’identifier le ou les passages du texte, de la bande-son ou de la vidéo au(x) concept(s) identifié(s) préalablement dans la littérature. Dans l’exemple ci-dessous (Figure 3), les catégories sont données par la théorie et le chercheur tente de les retrouver dans son matériau. En l’occurrence, le chercheur utilise des codes théoriques5, c’est-à-dire les codes qu’il a identifiés dans la littérature. S’agissant généralement de concepts, ces codes théoriques constituent de véritables catégories. Dans cet exemple, le codage est clairement à visée théorique (Point & Voynnet-Fourboul, 2006). Figure 3. Exemple de catégorisation

270

Quelle que soit la démarche privilégiée (inductive ou déductive) le chercheur travaille dans un premier temps sur son corpus de données ou matériau de recherche pour ensuite travailler sur les codes eux-mêmes. En effet n’oublions pas que l’essence du codage reste de travailler sur les ressemblances/différences d’une unité de texte (mot, phrase, paragraphe, etc.) à une autre. Le chercheur va donc adopter le schéma réflexif suivant (Figure 4). Le passage de la codification à la catégorisation va amener le chercheur à passer du concret à l’abstraction et du particulier au général. Le questionnement du chercheur s’articulera alors autour des interrogations suivantes : –– Faut-il créer une catégorie à partir des codes utilisés pour rendre compte de l’idée suscitée à la lecture du texte ? –– Quelle est la place de cette catégorie par rapport aux autres ?

5. Le terme « codage théorique » est perçu comme un oxymore par certains auteurs (Ayache & Dumez, 2011, p. 34). Si le code reste un « label » que le chercheur met sur un mot – ou groupes de mots – issus d’un verbatim, rappelons que cette étiquette peut être soit identique au texte, soit provenir des lectures théoriques du chercheur, ce dernier ayant déjà cheminé sur le sens accordé au code. Nous utilisons le terme « code théorique » pour montrer que le chercheur est déjà dans une démarche d’abstraction au moment où il distribue les étiquettes au sein de ses verbatim.

L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

–– Faut-il plutôt aller plus finement dans la catégorisation, en affinant par des sous-catégories ? Figure 4. Le processus de construction théorique

Source : Saldaña (2013, p. 13)

Dans un premier temps, le chercheur réalisera un codage dit « ouvert », phase durant laquelle il va multiplier les codes à attribuer aux unités de sens. Puis, progressivement, il va chercher à regrouper ces codes en catégories, puis identifier des liens entre codes et catégories ou catégories entre elles. Les catégories peuvent aussi être affinées ; par exemple, la catégorie « performance » peut être affinée en « performance sociale », « performance économique », « efficience », « efficacité », etc. L’objectif final sera d’identifier les « méta-catégories », c’est-àdire les trois ou quatre « super catégories » qui permettront de « résumer » l’ensemble des codes et des catégories identifiés. Ces méta-catégories reliées entre elles forment une construction théorique. Les démarches de codage inductive et déductive ne sont pas incommensurables pour autant. En lisant les détracteurs de l’une ou l’autre de ces deux démarches, on pourrait croire qu’elles s’opposent. La présence de codes théoriques amène le chercheur à avoir de nombreuses « préconceptions » (Glaser, 2012). Si l’absence de préconception reste un des préceptes de la théorie ancrée (Grounded Theory, Glaser & Strauss, 1967), il est important

271

A n a l y s e r l e s d o n n é e s d u t e r ra i n

que les codes théoriques ne viennent trop polluer le matériau de recherche (Dumez, 2016). En l’occurrence, le chercheur peut être tenté de « forcer » l’apparition de concepts avec lesquels il est relativement familier au sein de son matériau de recherche. L’affirmation « pas de préconceptions » (Glaser, 2012) doit rester à l’esprit du chercheur pour garantir une certaine ouverture et être au cœur des données, sans véritablement vouloir « trouver » ce quelque chose que le chercheur souhaite absolument trouver ! À l’inverse, le chercheur ne peut que trop rarement se détacher de sa sensibilité théorique, c’est-à-dire de son expérience et de sa revue de littérature ; il reste forcément influencé.

272

Une des grandes tentations est donc de mêler démarches inductive et déductive, c’est-à-dire laisser libre cours à la créativité à partir du matériau tout en se référant à des codes théoriques par des allers-retours avec la littérature. Cette démarche de vaet-vient entre les modes empiriques et théoriques semble actuellement particulièrement prisée par les chercheurs qui qualifient bien souvent celle-ci de démarche abductive. La notion d’abduction amène effectivement des oscillations inductives et déductives mais elle va bien au-delà. Charles Sanders Peirce (1974) – à qui nous devons l’emploi de ce terme – définit l’abduction comme un processus permettant de former des hypothèses explicatives. Il s’agit d’une opération logique qui introduit une nouvelle idée. L’induction ne fait rien d’autre que de déterminer une valeur, et la déduction extrait les conséquences nécessaires d’une pure hypothèse. En conséquence, le terme « abduction » devra être utilisé avec prudence et parcimonie, puisqu’il renvoie à une véritable démarche de recherche plutôt qu’à une simple oscillation entre les modes théoriques et empiriques. Quelle que soit la démarche adoptée, le défi majeur reste de donner du sens aux données.

3. UN PEU DE RÉFLEXION : COMMENT DONNER DU SENS AUX DONNÉES ? La littérature propose au chercheur différents principes de « classification » des données ; par exemple, les méthodes de Miles et Huberman (1994) ou encore de Strauss et Corbin (1990) restent particulièrement mécanisées ce qui permet de rassurer le chercheur dans son processus de codage. Ces deux démarches

L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

constituent un bon exemple d’un protocole particulièrement précis et détaillé à suivre pour le codage des données ; un tel protocole pourrait convenir au chercheur soucieux d’exploiter au mieux ses données, mais pourrait aussi devenir particulièrement contraignant pour des chercheurs recherchant davantage de créativité. En effet, ce ne sont pas les seules démarches existantes et Saldaña, (2013) propose pas moins d’une trentaine de méthodes destinées au codage des données qualitatives. La distinction entre codification et catégorisation nous amène ici à effectuer une différenciation entre les méthodes de codage de premier ordre (ou de premier niveau) et celles de second ordre (ou de second niveau). Les codes de premier ordre renvoient à un codage descriptif ou thématique, ce qui constitue par essence un codage très proche des données. Les méthodes de codage les plus utilisées à ce stade restent les codages in vivo (reprise littérale du verbatim) et thématique (identification de grands thèmes). A contrario, les codes de second degré sont davantage tournés vers une démarche d’abstraction ; il s’agit de développer une organisation plus conceptuelle et théorique des données à partir des codes de premier ordre (Saldaña, 2013). Pendant cette seconde phase de codage, le chercheur va réorganiser ses codes (les renommer, les fusionner ou encore les abandonner). Saldaña (2013) recense nombre de techniques qui peuvent être regroupées en codage de premier et second ordre (Figure 5). La figure 5 montre la diversité des codages que le chercheur peut mobiliser pour l’analyse de ses données. Nombre de chercheurs se limitent bien souvent à un codage thématique : même si nous l’avons identifié comme une méthode à part, le codage thématique renvoie à l’ensemble des méthodes de codage de premier ordre. Le codage thématique reste présenté comme un processus intéressant pour les premières phases de codage, mais le chercheur ne saurait se limiter à celui-ci (Boyatsis, 1998). Il est ici intéressant de souligner l’apport de grilles existantes permettant de créer un codage tiré de quelques théories : ainsi les approches émotionnelles, narratives ou dramaturgiques renvoient à des théories existantes permettant au chercheur d’établir une véritable grille de codage en amont de son travail sur le terrain. Néanmoins, la multiplication de ces grilles préexistantes amène

273

A n a l y s e r l e s d o n n é e s d u t e r ra i n

aussi le chercheur à avoir des préconceptions sur son travail de recherche, et parfois même sur ses résultats.

Codage de premier ordre

Figure 5. Exemples de codage de premier ordre et de second ordre

Méthodes usuelles

Méthodes élémentaires

Codage de premier ordre Codage de second ordre

Caractéristiques de la source

Codage d’ampleur

Focus sur la fréquence ou l’intensité

Codage in vivo

Reprise littérale du verbatim

Codage processuel

Focus sur les actions

Codage ouvert

Démultiplication des codes

Codage des émotions

Focus sur les émotions exprimées

Codage des valeurs

Focus sur les valeurs, croyances, normes ou visions du monde

Codage d’évaluation

Focus sur des aspects positifs et/ou négatifs

Codage dramaturgique

Grille fondée sur l’approche théâtrale

Codage mythologique

Grille fondée sur les légendes et les mythes

Codage narratif

Grille fondée sur la narration d’une histoire

Méthodes procédurales

Codage culturel

Approche ethnographique

Codage causal

Approche fondée sur les causes du phénomène étudié

Codage thématique

Approche fondée sur l’identification de thèmes et de descriptions que le chercheur utilise pour créer toutes sortes de taxinomies autour de son corpus de données

Codage centré

Identification des catégories les plus saillantes et porteuses de sens

Codage axial

Identification des liens entre les codes et/ou catégories

Codage théorique

Identification de la ou les catégorie(s) principales

Méthodes affectives

274

Codage par attribut

Méthodes littéraires

Source : adapté de Saldaña (2013)

L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

Un véritable travail de codage ne pourra pas non plus prendre place sans la réalisation de mémos. Comparable à un véritable « journal de bord », le mémo est un mini rapport ou une mini analyse fondée sur une critique, une interprétation du chercheur à propos de ce qui émerge de ses données et qui amène à une théorisation (Saldaña, 2013). En effet, la nature même de la recherche qualitative nécessite une véritable réflexion et interprétation du chercheur sur ses données. Si la rédaction de mémos est principalement associée à une démarche de recherche de type grounded theory (Glaser & Strauss, 1967 ; Glaser, 1978 ; Strauss & Corbin, 1990), toute approche de codage peut bénéficier de l’utilisation de mémos pour aboutir à une véritable abstraction. L’utilisation de mémos permet en effet d’améliorer la réflexivité du chercheur qu’il n’aurait probablement pas atteint sans la mobilisation de ces derniers. Le mémo est la véritable « porte d’entrée » entre théorie et données. Les mémos constituent un mode de conservation et de progression des pensées du chercheur ; le chercheur va en écrire à tout moment, du recueil de ses données à la production de son document final. Le fait de prendre du recul sur le codage et de « penser » sur le processus amène le chercheur à avoir une pensée davantage « critique » sur ses données. Les mémos peuvent être de véritables résumés des résultats clés de la recherche ou encore des commentaires ou des réflexions sur des aspects particuliers de la recherche. Glaser (1978, 2014) insiste sur le fait de considérer le mémo comme une priorité pour assurer la rétention de ses idées, réflexions et interprétations ; il considère d’ailleurs le mémo comme une « note conceptuelle ». Les mémos sont de nature différente et peuvent représenter quelques lignes, voire parfois des pages entières. Nombre d’auteurs proposent des guides de rédaction des mémos (voir par exemple Glaser, 1978, 2014 ; Strauss & Corbin, 1990 ; Charmaz, 2006). Si ces différentes méthodes peuvent effectivement aider le chercheur à mieux comprendre l’intérêt des mémos dans sa recherche et leur construction, nous souscrivons aux propos de Charmaz (2006), conseillant d’écrire des mémos selon la manière qui convient le mieux au chercheur. Strauss et Corbin (1990) distinguent toutefois trois formes essentielles de mémos : opérationnels, de codage et théoriques. Les mémos opérationnels

275

A n a l y s e r l e s d o n n é e s d u t e r ra i n

renvoient aux choix du chercheur dans sa recherche. Les mémos liés au codage renvoient à l’extrapolation du chercheur sur ses codes, et la progression vers la production de catégories. Enfin, les codes théoriques – souvent présentés comme une démarche analytique dans la littérature liée à la grounded theory – amènent à une plus grande abstraction, en s’interrogeant sur les relations, les explications et les interprétations émergeant des données pour arriver à un niveau conceptuel plus élevé et plus abouti.

4. AVANT DE PASSER À L’ACTION : COMMENT RENDRE COMPTE DU CODAGE ?

276

La difficulté rencontrée par tout chercheur en recherche qualitative est véritablement de « rendre compte » du processus de codage. Depuis quelques années, un véritable standard est apparu dans les revues académiques de haut niveau. Ce standard, connu sous le nom de « méthodologie à la Gioia ». Gioia, Corley et Hamilton (2013) reprennent le principe du codage de premier ordre et de second ordre pour véritablement montrer au lecteur la progression de la réflexion dans la recherche. Selon les auteurs, l’idée de cette approche est de renforcer la rigueur et la transparence d’une recherche inductive. Si la méthodologie développée par Gioia ces 25 dernières années reste une approche interprétative fondée sur la grounded theory (Gehman et al., 2017), la manière de restituer le codage nous semble particulièrement intéressante et à mobiliser dans de nombreuses recherches destinées à la construction théorique. Elle se présente en deux temps. Dans un premier temps, le chercheur construit sa « structure de données » (data structure, en anglais) (Figure 6). En commençant pas être au plus près du terrain, le chercheur travaille sur ces codes de premier ordre. Si Gioia parle de « constellation de codes de premier ordre », il est également fondamental de veiller à garder un nombre gérable de codes selon l’auteur (voir Gehman et al., 2017). Il est vrai que la tentation dans une opération de codage ouvert est de démultiplier les codes in vivo et thématiques. Le codage de second ordre permet ensuite de progresser vers des catégories. Il peut s’agir de thèmes, mais ces derniers doivent suggérer des concepts qui expliquent le phénomène observé.

Source : Corley et Gioia (2004, p. 184)

Figure 6. La structure des données ou des codes de premier ordre à l’abstraction

L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

277

A n a l y s e r l e s d o n n é e s d u t e r ra i n

Lorsque les codes de premier et de second ordre ont été assemblés, la base de la structure de données est établie. La structure des données reste indispensable. Cette étape reste le moment pivot de la recherche, car elle montre la progression des données recueillies au codes de premier et de second ordre, ce qui constitue une étape fondamentale dans la rigueur d’une recherche qualitative (Gehman et al., 2017). Cependant, si la figure 6 montre clairement la progression de la recherche dans une démarche d’abstraction, elle ne montre pas encore les liens entre les concepts. Or ces derniers demeurent fondamentaux dans la conceptualisation de la recherche (Dumez, 2016). Aussi importante que soit la structure des données, elle ne constitue qu’une photographie statique éditée à un instant t. Aussi, pour comprendre le phénomène étudié, il reste à articuler les liens entre les concepts clés. C’est effectivement la relation entre les concepts émergents qui permettent de générer une théorie (Corley & Gioia, 2011) ; et c’est justement cette articulation entre données et théorie que la « méthode Gioia » s’attache à illustrer. La figure 7 montre le modèle final en montrant les liens entre les catégories et/ou codes de second degré.

278

L’écriture devient une véritable histoire mettant en exergue le développement de nouveaux concepts (ou de concepts dans un nouveau contexte) avec ce que Gioia et al. (2013) appellent « une découverte théorique ». L’objectif reste bien de montrer aux lecteurs l’émergence de ces nouveaux concepts ou de nouvelles perspectives sur les concepts existants.

Source : Corley et Gioia (2004, p. 185)

Figure 7. Modèle émergent à partir de la structure de données

L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

279

A n a l y s e r l e s d o n n é e s d u t e r ra i n

CONCLUSION La qualité d’une recherche qualitative dépend avant tout de la qualité de son codage. L’analyse des données n’est donc pas à prendre à la légère et il incombe au chercheur de prendre conscience de processus comme la catégorisation, l’abstraction ou encore la production de mémos. Si la phase de codification permet de générer un grand nombre de codes et/ou de thèmes, la phase de catégorisation implique de multiples interprétations de la part du chercheur et favorise inéluctablement l’abstraction. Le travail du chercheur est donc de rentrer dans un processus réflexif – notamment à travers la rédaction de mémos – qui lui permet de prendre progressivement de la distance avec son corpus de données pour arriver à une conceptualisation de sa recherche.

280

Il existe nombre de méthodes de codage que ce soit de premier ordre ou de second ordre. Chaque auteur a finalement sa propre interprétation, et chaque méthode a parfois un lexique qui lui est propre. L’objectif de ce chapitre n’était pas de proposer une liste exhaustive de ces méthodes, mais plutôt de proposer un début de réflexion et un éclairage sur la diversité des méthodes de codage conduisant le chercheur à exercer sa créativité dans cette étape cruciale de sa recherche. Force est de constater qu’il n’existe pas de stratégie optimale du codage du matériau de recherche : le type de codage ou encore la combinaison des méthodes de codage dépendent avant tout de la nature et de volume de matériau de recherche (Ayache & Dumez, 2011). Il convient donc au chercheur de faire les choix appropriés et surtout… de revenir aux sources. Références citées Allard-Poesi, F. (2003), Coder les données, in Y. Giordano (dir.), Conduire un projet de recherche : une perspective qualitative, Caen, Éditions EMS, coll. « Les essentiels de la gestion », p. 245-290. Ayache, M. & Dumez, H. (2011), Le codage dans la recherche qualitative une nouvelle perspective ?, Le Libellio d’Aegis, vol. 7, no 2, p. 33-46. Boyatsis R. (1998), Transforming Qualitative Information: Thematic Analysis and Code Development, Thousand Oaks, CA, Sage Publications.

L’a n a l y s e d e s d o n n é e s qu a l i t a t ive s

Charmaz, K. (2006), Constructing Grounded Theory: A Practical Guide Through Qualitative Analysis, Londres, Royaume-Uni, Sage Publications. Coffey, A. & Atkinson, P. (1996), Making Sense of Qualitative Data: Complementary Research Strategies, Thousand Oaks, CA, Sage Publications. Carley, K. (1991), A theory of group stability, American Sociological Review, vol, 56, no 3, p. 331-354. Corley, K. & Gioia, D. (2004), Identity ambiguity and change in the wake of a corporate spin-off, Administrative Science Quarterly, vol. 49, no 2, p. 173-208. Corley, K. & Gioia, D. (2011), Building theory about theory building: What constitutes a theoretical contribution ?, Academy of Management Review, vol. 36, no 1, p. 12-32. Dumez, H. (2016), Méthodologie de la recherche qualitative : Les questions clés de la démarche compréhensive, Paris, Vuibert. Gehman, J., Glaser, V.L., Eisenhardt, K.M., Gioia, D., Langley, A. & Corley, K. G. (2017), Finding theory-method fit: A comparison of three qualitative approaches to theory building, Journal of Management Inquiry, vol. 27, no 3, p. 284-300. Gioia, D. A., Corley, K. G. & Hamilton, A. L. (2013), Seeking qualitative rigor in inductive research: Notes on the Gioia methodology, Organizational Research Methods, vol. 16, no 1, p. 15-31. Glaser, B. (1978), Theoretical Sensitivity: Advances in the Methodology of Grounded Theory, Mill Valley, CA, Sociology Press. Glaser, B. (2012), No Preconception: The Dictum, Grounded Theory Review, vol. 11, no 2, p. 1-6. Glaser, B. (2014), Memoing: A Vital Grounded Theory Procedure, Mill Valley, CA, Sociology Press. Glaser, B. & Strauss, A. (1967), The Discovery of Grounded Theory, Chicago, IL, Adeline. Lazarsfeld, P. (1967), The Uses of Sociology, New York, Basic Books. Miles, M.B. (1979), Qualitative data as an attractive nuisance: The problem of analysis, Administrative Science Quarterly, vol. 24, no4, p. 590-601. Miles, M.B. & Huberman, A.M. (1994), Qualitative Data Analysis: An Expanded Sourcebook, Thousand Oaks, CA, Sage Publications. Paillé, P. & Mucchielli, A. (2005), L’analyse qualitative en sciences humaines et sociales, Paris, Armand Colin. Peirce, C. S. (1974), Collected Papers of Charles Sanders Peirce, vol. 5, Harvard, MA, Harvard University Press.

281

A n a l y s e r l e s d o n n é e s d u t e r ra i n

Point, S. & Voynnet-Fourboul, C. (2006), Le codage à visée théorique, Recherche et Applications en Marketing, vol. 21, no 4, p. 61-78. Saldaña, J. (2013), The Coding Manual for Qualitative Researchers, Thousand Oaks, CA, Sage Publications. Snow, C. & Thomas, J. (1994), Field research methods in strategic management: Contributions to theory building and testing, Journal of Management Studies, vol. 31, no 4, p. 457-480. Strauss, A. & Corbin, J. M. (1990), Basics of Qualitative Research: Grounded Theory Procedures and Techniques, Thousand Oaks, CA, Sage Publications. Tesch, R. (1990), Qualitative Analysis: Analysis Types and Software Tools, London, Falmer. Yin, R. (2017), Case Study Research and Applications: Design and Methods, 6 th edition, Thousand Oaks, CA, Sage Publications. Références pour en savoir plus Saldaña, J. (2013), The Coding Manual for Qualitative Researchers, Thousand Oaks, CA, Sage Publications.

L’ouvrage qui permet d’avoir un aperçu in extenso des techniques de codages possibles en recherche qualitative.

282

Gehman, J., Glaser, V.L., Eisenhardt, K.M., Gioia, D., Langley, A. & Corley, K. G. (2017), Finding theory-method fit: A comparison of three qualitative approaches to theory building, Journal of Management Inquiry, vol. 27, no 3, p. 284-300.

Un article récent issu d’un séminaire à l’Academy of Management où se confrontent les plus grands experts en recherche qualitative.

CHAPITRE 16. Logiciels et analyse de données qualitatives Jean-Fabrice Lebraty, Katia Lobre-Lebraty et Stéphane Trébucq

Résumé Ce chapitre vise à faire un point sur la recherche qualitative en mettant en lumière le soutien essentiel que procure l’utilisation d’un logiciel tel que NVivo dans sa version 11 et 12. Après avoir rappelé quelques principes fondamentaux de la recherche qualitative, et plus particulièrement des données selon leur degré de structuration, nous présentons plusieurs cas originaux d’application de NVivo dans le cadre de la réalisation de thèses de doctorat et du plus haut diplôme de l’Université : la HDR (habilitation à diriger des recherches). Mots-clés : données qualitatives, codage, analyse de contenu, logiciel, documents-sources, structure de nœuds, classification, requête, matrices, rapports, cartes de nœuds.

Les méthodes de recherche du DBA

283

A n a l y s e r l e s d o n n é e s d u t e r ra i n

« Un sujet d’une étendue immense et qui, loin de se simplifier et de s’éclaircir par la méditation, ne fait que devenir plus complexe et plus trouble à mesure que le regard s’y appuie. » Paul Valéry (1932, discours sur « la politique de l’esprit »)

INTRODUCTION S’il est une croyance ancrée dans l’esprit des jeunes chercheurs en thèse de doctorat ou de DBA, c’est bien celle de la nécessité d’avoir un logiciel de traitement des données puissant pour analyser des données quantitatives, et seulement l’approximation et le flair pour traiter des données qualitatives. Dans le meilleur des cas, le contenu qualitatif sera transformé en un résultat quantitatif simpliste pour lequel un traitement basique sera appliqué. Le but de ce chapitre est de mettre en avant la rigueur et la scientificité du traitement qualitatif et l’indispensable appui de logiciels spécifiques pour analyser des données qualitatives.

284

Rappelons tout d’abord les conditions qui conduisent à mener une recherche qualitative. Comme l’indique Yin (2011, p. 7-8), les cinq caractéristiques d’une recherche qualitative peuvent être décrites : –– Étudier la signification des comportements humains dans un contexte réel. Un contexte réel diffère du cadre d’une étude en milieu contrôlé, c’est-à-dire en laboratoire ou situation expérimentale. En effet, les individus peuvent alors être plus enclins à partager des sentiments ou adopter des comportements conduisant à augmenter la compréhension du chercheur. –– Narrer les perceptions des individus participants à une étude. Les études qualitatives constituent un bon moyen de capter les perceptions des acteurs. Ainsi, dans ce type d’étude, il conviendra de prendre en compte, non seulement ce qui serait « vrai », mais surtout ce qui est vu et cru par les acteurs. –– Décrire les éléments du contexte qui façonnent les perceptions des individus. Les études qualitatives se doivent de tenir compte du contexte qui permet de mieux comprendre le comportement des acteurs. Cette contextualisation de la

L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

recherche conduit d’ailleurs souvent à poser la question de la représentativité de ces études. –– Mettre en lumière les éléments clés dans les concepts qui permettent de mieux comprendre et analyser les comportements humains en société. Par exemple la notion de leadership permet d’expliquer le fonctionnement de groupes de travail, mais aussi conduit à proposer des pistes d’amélioration pour des leaders (Murphy & Ensher, 2008). –– Tenter d’utiliser un ensemble varié de sources et ne pas se contenter que d’une seule source de données. Lors d’une recherche qualitative, les sources peuvent être très nombreuses et variées. Même dans une seule une vidéo prise sur YouTube, coexistent un ensemble de sources comme le contenu de ce que disent les protagonistes, mais aussi, les images entourant ces personnes ou encore les commentaires et les votes positifs ou négatifs concernant leurs propos. Ainsi, une recherche qualitative peut conduire à faire émerger de multiples représentations d’un même évènement, situation, groupe ou organisation (Walsham, 1995, 2006). Pour mieux comprendre le rôle que peut jouer un logiciel d’appui à une recherche qualitative, nous rappellerons dans un premier temps ce qu’une donnée qualitative signifie. Puis nous décrirons un logiciel particulier d’analyse qualitative, NVivo, et enfin nous donnerons un exemple de recherche qualitative s’appuyant sur ce logiciel.

1. LES DONNÉES QUALITATIVES : COLLECTE ET TRAITEMENT Tous les ouvrages ou articles traitant de recherche qualitative mettent en lumière le rôle de « clé de voûte » que constituent les données (Gioia et al., 2012 ; Silverman, 1998 ; Strauss & Corbin, 1990 ; Willig, 2009 ; Yin, 2011). En général, les données peuvent se définir comme la transcription d’une réalité à l’aide de symboles compréhensibles par l’être humain. Les données sont considérées comme indépendantes de cet être humain (Lebraty, 2001). En revanche, le concept de données qualitatives est plus déli-

285

A n a l y s e r l e s d o n n é e s d u t e r ra i n

cat. En effet, un des éléments clés de la notion de qualitatif réside dans le concept de mesure. Mesurer une notion qualitative constitue un paradoxe, car le résultat de la mesure sera lié au contexte, à l’instrument utilisé pour mesurer et aux caractéristiques de celui qui mesure (Strauss & Corbin, 2008 ; Strauss & Corbin, 1990). En ce sens, une donnée qualitative doit être approchée sous l’angle d’une information, c’est-à-dire une donnée pour laquelle un individu ou un groupe a ajouté du sens.

286

Ce point est très important, car il a comme implication de rendre impossible la création d’une base de données qualitatives structurée et formatée, comme le sont par exemple les bases de données informatiques. En effet, à la différence des bases de données informatiques classiques qui sont fondées sur des modèles de données (structure de données relationnelle, multidimensionnelle ou dans une certaine mesure les systèmes de gestion de bases de données non-standard query language ou NoSQL), il n’existe pas de modèles abstraits permettant de structurer des informations qualitatives plutôt que des données. Aussi, utiliser un logiciel comme NVivo permettra de constituer une base d’information, mais cette base sera dépendante du contexte et du chercheur et ne sera pas forcément transposable à un autre cas. Nous dirons donc que les données qualitatives sont constituées de quelques données quantitatives et surtout d’informations issues du cas que le chercheur étudie. Cet ensemble sera transformé en informations par les chercheurs. Notons d’ailleurs ici un piège classique de la recherche qualitative : l’interprétation, c’est-à-dire le fait qu’un chercheur puisse élaborer du sens à partir du sens apporté par un autre acteur ; apparaît ici le risque de s’éloigner du fait original ou alors de détourner le sens de l’acteur initial. Dans tous les cas, le travail sur le sens est délicat et sa compréhension déterminante pour l’analyse de données qualitatives (Klein & Myers, 1999). Les données qualitatives peuvent résulter de quatre grands types d’activités de collecte. Premièrement, les entretiens constituent une source importante de données qualitatives. Bien évidemment, ces entretiens doivent posséder certaines caractéristiques et notamment ne pas être trop structurés pour accorder une place à l’imprévu et offrir une certaine liberté à l’interviewé. Les observations constituent également un mode

L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

de collecte répandu dans les recherches qualitatives (Thiétard, 2003). La recherche de documents contenant des données secondaires est devenue avec l’internet et les médias sociaux une source incontournable de toute recherche. Dans ce cadre, les pages web, les discussions, les images et vidéos tendent à submerger le chercheur qui ne sait comment les stocker et en tirer des enseignements. Enfin, la prise en compte des sentiments ressentis est importante aussi. Prenons l’exemple d’un entretien avec un dirigeant. Outre le contenu de la conversation, le chercheur devra inclure l’atmosphère qui règne dans la pièce et les éléments de communication non verbale du dirigeant. Ces « méta-données » qualitatives viendront compléter les données qualitatives issues de l’entretien. Une fois collectées, ces données doivent être analysées (traitées) par le chercheur. Le processus de traitement peut être constitué de cinq phases comme le mentionne Yin (2011, p. 178179). –– La première phase vise à regrouper les données selon un certain ordre fortement dépendant de son style cognitif. D’ailleurs, même si Yin (2011) fait référence au terme « database », nous préférons le terme de « base de documents » ce qui permet d’éviter la confusion avec des bases informatiques classiques comme Access (un système de gestion de base de données relationnelle éditée par Microsoft) ou PostgreSQL (un système libre ou open source de gestion de base de données relationnelle et objet). En effet, il n’y a pas de méthode universelle pour structurer les éléments collectés. La forme que prennent les cartes cognitives en est un bon exemple. –– Puis il y a une phase de « morcellement » qui peut résulter notamment de l’emploi d’une technique de codage. Ce codage constituera d’ailleurs un point clé des fonctions de NVivo. Ainsi l’ensemble des éléments collectés va s’éparpiller en un grand nombre de nouvelles catégories (les codes) pour donner de nouveau l’image d’un ensemble disparate comme celui de la première phase avant son regroupement. –– La troisième phase vise à réorganiser l’ensemble des données, mais selon un nouvel ordre fondé par exemple sur

287

A n a l y s e r l e s d o n n é e s d u t e r ra i n

le codage utilisé dans la phase précédente. À partir de ce nouvel ensemble, le chercheur construira un nouveau narratif, il proposera donc une nouvelle interprétation de son stock de données. Cette phase est très importante, car elle peut conduire à faire émerger de nouvelles idées qui n’auraient pas été imaginables auparavant. Cette surprise pour le chercheur constitue d’ailleurs un critère de réussite d’une recherche qualitative. –– Enfin, la dernière phase visera à répondre à la question de recherche qui a conduit à la collecte des données. Pour épauler la collecte de données, mais surtout pour permettre l’analyse des données qualitatives, un logiciel s’avère indispensable, surtout comme nous l’avons dit, dans un environnement numérique pour lequel les sources de données qualitatives sont nombreuses, variées et accessibles.

2. NVIVO : UN LOGICIEL D’ANALYSE DE CONTENU DE DONNÉES QUALITATIVES 288

Depuis une trentaine d’années, une catégorie de logiciel dédié aux méthodologies de recherche qualitative a émergé : les logiciels d’aide à l’analyse qualitative de données (appelé computer-assisted qualitative data analysis software, CAQDAS, ou qualitative data analysis, QDAS, en anglais). Parmi ceux-ci, plusieurs sont souvent cités, outre NVivo, Atlas.ti1, MaxQDA2 qui existent depuis longtemps, et Aquad3 ou encore Dedoose 4 plus récemment. Dans ce chapitre, nous avons choisi d’évoquer le logiciel NVivo car il est largement répandu et de nombreux chercheurs l’utilisent pour leurs recherches. Ainsi, une simple requête dans EBSCO5 sur les 10 dernières années identifie que plus de 2 500 articles dans des revues emploient le terme NVivo. Aussi, il

1. https://atlasti.com/ 2. https://www.maxqda.com/ 3. http://www.aquad.de/en/ 4. https://www.dedoose.com/ 5.  h ttps://www.ebsco.com/e/fr-fr, leader mondial de la fourniture de bases de données bibliographiques de recherche, de services de découverte, d’e-books, de revues scientifiques et de ressources documentaires dans tous les domaines.

L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

devient pratique pour un chercheur comme pour un étudiant de regarder comment d’autres se sont appuyés sur cet outil pour bâtir leur cadre méthodologique. Pour ce chapitre, nous nous fonderons sur la version 11 de ce logiciel 6. D’une manière générale, NVivo permet de gérer trois tâches afférentes à une recherche qualitative et une analyse de données qualitatives comme le montre le tableau 1 : Tableau 1. Tâches et fonctions supportées par NVivo Tâches

Fonctions dédiées

Organisation des données qualitatives

• Importation et organisation des données qualitatives, mémos et annotations • Gestion des données sociodémographiques

Analyse

• Codage des nœuds et des relations • Analyse des cooccurrences, création de matrices • Automatisation partielle du codage • Travail en équipe et critère de convergence

Restitution

• Édition de modèles et de représentations visuelles • Édition de rapports

Le premier contact avec ce logiciel se fait généralement par un « exemple type » qui est livré par NVivo et qui représente une étude sur la qualité de l’eau dans une région américaine. Composé d’entretiens sous forme de texte, de vidéos et de photos, cet exemple permet de mieux saisir les forces et limites de l’outil. Le point probablement le plus déstabilisant pour un novice est l’absence de « bouton magique » permettant immédiatement de traiter toutes les données. Le chercheur devra donc relire tous ses textes, réexaminer toutes ses images ou vidéos, selon la nature des données recueillies, et patiemment les coder « manuellement ». En cela, ce type de méthode renvoie bien à la notion de personnalisation du qualitatif. Une recherche qualitative est appelée un « projet » et celui-ci comprend sept types d’éléments : –– les « sources » qui regroupent tous les fichiers contenant des données qualitatives ; 6. http://www.qsrinternational.com/nvivo/support-overview/downloads

289

A n a l y s e r l e s d o n n é e s d u t e r ra i n

–– la « structure des nœuds » qui serviront pour le codage des données ; –– les « classifications » qui permettent de prendre en compte des données sociodémographiques et descriptives du projet ; –– les « collections » pour organiser le projet ; –– les « requêtes » qui sont un moyen de visualiser de manière quantitative des données qualitatives ; –– les « rapports » permettant de fournir des états représentatifs des résultats ; –– les « cartes » qui sont une représentation ergonomique des constituants du projet comme les nœuds par exemple. Elles peuvent prendre différentes formes. La capture d’écran dans la figure 1 illustre ces éléments. Figure 1. Capture d’écran NVivo : les sept éléments de l’analyse d’un projet

290

Quand un utilisateur crée un nouveau « projet » (ou recherche qualitative), la première fonctionnalité qu’il va utiliser consiste à ajouter du « contenu » à son projet. Quatre catégories sont prévues. –– Premièrement, l’ensemble des documents « internes », c’est-à-dire les documents qui seront stockés numérique-

L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

ment dans le fichier du projet. Il peut s’agir de texte, de photos, de son ou de vidéos, qui peuvent provenir de fichiers que vous possédez ou bien de données récupérées sur le web ou des réseaux sociaux comme Twitter. D’ailleurs un plugin (NCapture7) permet cette récupération de vos données qualitatives à l’état « brut » à partir de son navigateur web. Concernant les documents textes issus d’entretiens, il est tout à fait essentiel d’utiliser des « styles » pour que le logiciel puisse bien séparer les questions des réponses. Dans le même ordre d’idée, il est possible d’importer des références bibliographiques provenant de logiciels de gestion bibliographique destinés à la gestion et au partage de travaux de recherche, comme Mendeley 8 ou EndNote 9. Il est important que des doctorants-chercheurs utilisent ces logiciels pour constituer leur bibliographie et ne le fassent pas manuellement. Cela les limitera inévitablement dans leur utilisation de logiciels comme NVivo. –– Deuxièmement, les données « externes » sont quant à elles des liens vers des sources sur Internet, par exemple des vidéos YouTube ou des liens vers des fichiers stockés sur un ordinateur local, ce qui permet de réduire la taille du fichier contenant le projet NVivo. –– Troisièmement, une catégorie « mémo » doit être créée. Elle permet de stocker le « journal de marche » du chercheur, qui peut inclure les éléments d’ambiance que le chercheur a ressentis durant ses entretiens ou ses observations, ou encore ses réflexions sur l’adéquation entre son terrain et le modèle conceptuel qu’il utilise. Ces mémos sont une source très importante pour permettre au chercheur de garder une certaine distance avec son terrain et de ne pas « objectiver » ses données, c’est-à-dire être conscient de ses propres biais cognitifs. –– Enfin, il est possible de créer des matrices qui permettent de corréler des éléments des données, ce qui est utile notamment pour une approche méthodologique basée sur 7. http://www.qsrinternational.com/nvivo/support-overview/faqs/what-is-ncapture 8.  h ttps://www.mendeley.com/, un logiciel de gestion bibliographique, destiné à la gestion et au partage de travaux de recherche. 9.  h ttps://endnote.com/, un logiciel de gestion bibliographique, destiné à la gestion et au partage de travaux de recherche.

291

A n a l y s e r l e s d o n n é e s d u t e r ra i n

des cas multiples ou bien pour comparer un nombre d’entretiens ou d’observations. Les études qualitatives se fondant généralement sur des individus agissant en groupe dans des organisations ou des sociétés, il est important de tenir compte de données sociodémographiques relatives au groupe étudié. Ainsi, chaque individu pourra posséder des attributs (âge, genre, profession, par exemple) ce qui permettra ensuite de structurer l’analyse. Notons qu’il faudra relier les sources à la « classification ». On voit alors une structuration commencer à se construire, c’est-à-dire un réseau de liens entre des sources différentes. Une fois ces sources insérées dans le projet, l’analyse peut débuter, même si bien souvent de nouvelles sources sont ajoutées en cours d’analyse.

292

Le point d’entrée de l’analyse sous NVivo s’effectue au travers du codage. Il existe trois grandes catégories pour élaborer ce codage : déductif, inductif, ou abductif. Dans l’approche déductive, les catégories de code proviennent de concepts trouvés dans la littérature, elles sont donc prédéfinies et utilisées pour le codage des données qualitatives. Elles peuvent être soit assemblées à partir de plusieurs articles dans la littérature ou même être reprises à partir d’une seule étude. L’approche inductive stipule que les données préexistent au codage et donc que les catégories émergeront au fur et à mesure de la lecture des données qualitatives. Enfin l’abduction est une voie médiane qui s’avère bien souvent la voie la plus empruntée. Le codage repose sur la création de « nœuds » qui peuvent représenter un concept, un sentiment, une perception, un lieu ou tout autre élément qui permettra d’analyser et structurer un document-source. Les nœuds peuvent s’appliquer à un mot ou un paragraphe de verbatim d’entretiens ou de notes pris durant des observations de terrain, ou même une zone de photo par exemple. Dans l’exemple d’une recherche sur des enseignants et les méthodes pédagogiques basées sur des cas, les liens entre les nœuds et les verbatim sont illustrés par le tableau 2 :

L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

Tableau 2. Liens entre nœuds et verbatim dans une recherche sur des enseignants Apprendre des échecs d’autrui

« Et parfois il y a effectivement beaucoup plus à apprendre sur ces situations que sur les « success stories » où finalement c’est toujours très difficile de savoir ce qui a fait que cela a marché réellement ». « Tout à fait, il faut les deux, bien sûr ».

Créer un lien direct « Et en plus, c’est une méthode qui aujourd’hui, avec avec la réalité les possibilités technologiques, peut être encore enrichie avec des cas multimédias, avec les interventions des acteurs du cas, directement ou par téléconférence, comme cela se fait dans certains endroits en fin du cours, cela peut donc devenir donc une méthode très riche avec l’apport des technologies nouvelles ». « On parle de choses passionnantes et… il faut constamment faire le lien entre ce qu’on enseigne et ce qui se passe dans la réalité, et je crois que la méthode des cas est pour cela fondamentale et unique ». Approche moins adaptée dans certaines cultures

« J’ai enseigné au Japon, par exemple. La méthode de cas est très difficile à mettre en œuvre, parce que l’étudiant ou le participant ne va pas challenger son professeur, ce n’est pas dans sa culture. Il ne va pas s’exprimer à titre personnel. De la même façon, dans les pays scandinaves, je me souviens d’un public d’ingénieurs, en Suède je crois, la méthode des cas avait du mal à s’appliquer ».

Ces nœuds peuvent être hiérarchisés, ce qui permet une certaine granularité et profondeur conceptuelle dans l’analyse. La capture d’un écran NVivo dans la figure 2 montre la structure hiérarchique de nœuds provenant de l’analyse de données qualitatives d’une recherche en cours sur la coordination entre des pilotes d’avion. Il devient alors très intéressant de naviguer entre les nœuds et les documents-sources pour affiner le codage. La visualisation NVivo du codage permet, comme le montre la capture d’écran dans la figure 2, d’enrichir l’analyse et constitue une nette valeur ajoutée, comparée à l’usage manuel du traditionnel surligneur fluo pendant la lecture de documents-sources (papier ou électroniques).

293

A n a l y s e r l e s d o n n é e s d u t e r ra i n

Figure 2. La structure hiérarchique de nœuds dans une analyse de la coordination entre des pilotes d’avion

294

La capture d’un écran NVivo dans la figure 3 illustre le codage d’un extrait d’entretien avec un pilote d’avion. Le texte surligné à gauche représente les parties codées de l’entretien. Les lignes verticales à droite représentent les nœuds utilisés pour coder les idées présentes dans l’entretien. Chaque nœud à un nom et une couleur pour une meilleure visualisation du codage au fil de l’eau. Figure 3. Exemple de codage d’un entretien de pilote d’avion

L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

Cette phase de codage est la plus délicate. Le codage peut être réalisé par plusieurs chercheurs, ou par un doctorant-chercheur et son directeur de thèse DBA par exemple ; on parle alors de multi-codage, et il est alors possible d’utiliser des critères quantitatifs pour tenter de limiter ou du moins de réfléchir à plusieurs à certains écarts de codage. Dans ce cadre, on dispose d’un outil de mesure statistique, « l’accord inter-codeurs », ou le kappa de Cohen10, dans lequel le test du κ (kappa) mesure l’accord entre observateurs lors d’un codage qualitatif en catégories. Il est également possible de coder des « relations ». Les types de relations correspondent aux différentes interactions possibles entre concepts, comme des liens représentant un attachement affectif réciproque. Il est possible aussi de coder les sentiments à partir notamment d’un « dictionnaire intégré ». Ce codage permettra d’estimer à l’émotion ressentie après un évènement, par exemple. Enfin, NVivo dispose également d’une fonction de « codage automatique » qui repose sur une analyse statistique de mots. Mais ici, le logiciel souffre de la comparaison avec d’autres techniques utilisables, par exemple avec le logiciel R11, et qui conduit à réaliser une « fouille de données » (data mining en anglais) approfondie, ou extraction de connaissances de textes utilisant des techniques d’intelligence artificielle. Une fois les données codées, il va s’agir de les manipuler au travers de requêtes. Comme le montre la capture d’écran NVivo dans la figure 4, il existe plusieurs types de requêtes. Figure 4. Les types de requêtes dans NVivo

10. Voir https://www.irdp.ch/institut/coefficient-kappa-cohen-2039.html 11. R est un langage de programmation et un logiciel libre dédié aux statistiques et à la science des données, voir https://www.r-project.org/foundation/

295

A n a l y s e r l e s d o n n é e s d u t e r ra i n

De notre point de vue, les requêtes les plus importantes portent sur l’encodage. Elles permettent d’explorer les intersections, les associations ou encore les enchaînements de nœuds. Les résultats conduisent à prolonger l’analyse et peuvent permettre de créer de nouveaux nœuds et surtout de mieux comprendre ses données qualitatives. Ainsi, dans le cas d’une recherche matricielle, il sera possible de croiser deux dimensions de nœuds et d’ensuite analyser les intersections comme le montre l’écran NVivo dans la figure 5 pour l’exemple de la recherche sur la coordination entre pilotes d’avion : Figure 5. Requête croisée dans NVivo

Une fois l’analyse effectuée, il s’agira de présenter les résultats. Ceux-ci peuvent alors prendre quatre formes :

296

–– Des « cartes de concepts » – la carte dans la figure 6 illustre les nœuds issus de l’étude portant sur des enseignants. Ici, l’entretien avec une personne peut être représenté de la manière suivante : les matrices ou les graphiques associés à ces matrices. Figure 6. Écran NVivo avec carte des nœuds issus d’un entretien

L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

–– Des données liées aux documents-sources comme, par exemple, le taux de couverture de tel code dans tel document pour montrer que pour tel individu ce code est important. –– Des « arbres » liant les mots ou les concepts ou des « grappes » (clusters en anglais) ou groupements logiques de concepts. –– Des « nuages de mots » comme illustre la figure 7 – remarquons que cette fonctionnalité est plus visuelle que scientifique étant donné qu’il est possible de définir les critères agissant sur la place ou la taille des mots représentés dans un but de visualisation esthétique plutôt que scientifique. Figure 7. Nuage de mots issu d’entretiens sur la coordination entre pilotes d’avion

297

3. LE PROCESSUS DE DÉCONSTRUCTIONRECONSTRUCTION : UN EXEMPLE D’UTILISATION DE NVIVO S’inscrire en DBA sous-entend une volonté de s’ouvrir au monde de la recherche afin de progresser dans son activité managériale. Aussi, nous présenterons une utilisation de NVivo dans un cadre particulier, celui de la réalisation d’une Habilitation à

A n a l y s e r l e s d o n n é e s d u t e r ra i n

Diriger des Recherches (HDR) qui prendra la forme d’un mémoire. Ce dernier constitue une réflexion du chercheur sur son travail et illustre la nécessaire prise de recul qu’il se doit de prendre. L’obtention du diplôme de HDR conférera à son porteur le droit de diriger une thèse de doctorat et sera aussi le gage d’un bon encadrement de DBA. Katia Lobre-Lebraty (2017) a choisi dans le cadre de son HDR de développer une méthodologie ad hoc, nommée Deconstruction of the Past to Build a Future Research Project (DPBP ou déconstruction du passé pour construire un futur projet de recherche), s’appuyant sur l’utilisation du logiciel NVivo, lui permettant de répondre à la question suivante : Comment un passé de recherche peut-il contribuer à la détermination d’investigations futures ?

298

De manière générale, cette méthode consiste à déconstruire les travaux passés du chercheur puis à les reconstruire. Ce processus de déconstruction-reconstruction est envisagé comme un outil d’actualisation de la pensée. Ainsi la méthode prend explicitement en compte le chercheur et l’évolution de sa pensée, pour tracer les frontières d’un espace de recherche, gisement des projets futurs. Les données utilisées sont donc les travaux du chercheur, et il convient d’en choisir un échantillon. En effet, une prise en compte de l’ensemble exhaustif des travaux s’avère difficilement praticable. Les critères d’échantillonnage dépendent alors des objectifs poursuivis. Dans le cas exposé, les travaux sont des écrits, mais comme expliqué précédemment, NVivo aurait permis de traiter toute autre forme de données qualitatives (exposés oraux, vidéo, photos). Parmi ces écrits ont été retenus ceux qui paraissaient, compte tenu de la nature de l’épreuve (soutenance d’une HDR), les plus importants : une thèse de doctorat publiée sous forme d’ouvrage et cinq articles parus dans des revues à comité de lecture. Ont naturellement été exclus les articles produits très récemment (2016 et 2017), pour lesquels l’évolution de la pensée de l’auteur entre le moment de l’écriture et de la réécriture, n’aurait pas été significative et donc sans intérêt. Compte tenu du volume des données à traiter, le logiciel d’analyse qualitative NVivo a été utilisé.

L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

3.1. Déroulement du protocole de recherche L’échantillon constitué, la méthode comporte trois étapes : –– Première étape : Codage inductif (Point & Voynnet Fourboul, 2006) de chacune des publications sélectionnées. Ce codage représente une première condensation des idées exprimées dans les publications retenues (« nœuds libres » dans la terminologie NVivo). Rappelons que techniquement lorsque l’on code les idées lors de la lecture du texte, ces idées (nœuds libres) sont au fur et à mesure rassemblées sur le même plan et rangées par ordre alphabétique. Cet ordre aléatoire par rapport au contenu des idées est donc différent de celui de l’article. La rédaction initiale de ce dernier a en effet été structurée par le choix d’un titre et le déroulement d’un plan d’article et ses intitulés choisis. Métaphoriquement cela revient à « rebattre les cartes », en vue de procéder à une seconde donne. –– Deuxième étape : Construction pour chacune des publications d’une hiérarchisation, à trois paliers, des idées codées, modélisant une condensation croissante de ces dernières. Le modèle est représenté par des « foyers » primaires d’attention, puis par des foyers focaux d’attention et enfin par la « racine » de l’arbre. À chacun de ces paliers, l’idée choisie est celle qui synthétise le mieux l’ensemble des idées exprimées à ce palier. Ce choix comporte à l’évidence une part de subjectivisme inhérente à l’analyse qualitative, comme d’ailleurs à toute forme d’analyse. –– Troisième étape : « réécriture » du texte originel à partir d’un plan inspiré de cette modélisation. Ce texte réécrit est l’aboutissement du processus de déconstruction – reconstruction. La figure 8 rend compte de ces trois étapes :

299

A n a l y s e r l e s d o n n é e s d u t e r ra i n

Figure 8. La méthodologie DPBP (Lobre-Lebraty, 2017, p. 21)

300

3.2. Modélisation d’un article à l’aide de NVivo La figure 9 est une carte, sous forme d’arbre, des nœuds issus du codage d’un article présent dans l’échantillon des données. Cette carte permet de visualiser la structuration (modélisation dans le langage NVivo) des foyers primaires et focaux d’attention (13+4) ainsi que la racine de l’arbre (1). Il s’agit donc du résultat de la deuxième étape du protocole de recherche précédemment exposé. Remarquons que c’est sur la base des foyers d’attention et des racines des arbres de chacun des documents codés, qu’une sélection de quatre « concepts directeurs » balisant le futur espace de recherche du candidat à l’HDR a été déterminé.

L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

Figure 9. Modélisation de l’article : « Créer de la valeur par le crowdsourcing : la dyade innovationauthenticité » (Lebraty & Lobre, 2010, p. 19)

301

3.3. Vers une actualisation de la pensée de l’auteur Idéalement, pour illustrer la troisième étape du protocole de recherche, il faudrait pouvoir comparer l’article dans sa forme originelle avec l’article réécrit. C’est évidemment impossible, mais la modélisation précédente permet d’en donner un aperçu en s’en tenant au titre. Dans cet exemple, l’article initial s’intitulait : « Créer de la valeur par le crowdsourcing : la dyade innovation-authenticité ». La racine de l’arbre : « Facteurs Clés de Succès (FCS) du Crowdsourcing (CS) », constitue le titre de la réécriture de ce même article, sept ans plus tard, à la suite de la mise en œuvre de la méthode. Cette différence traduit une évolution des préoccupations du chercheur entre le moment de l’écriture (créer de la valeur) et celui de la relecture (quels FCS ?) dénotant le passage du « pourquoi le CS ? », au « comment le CS ? ». Le changement de ses centres d’intérêt entre le moment

A n a l y s e r l e s d o n n é e s d u t e r ra i n

de l’écriture de l’article et celui de la réécriture reflète son évolution et la révèle. Autrement dit, le chercheur a codé, sans en être pleinement conscient, sur la base de ses centres d’intérêt actuels plus que sur la base ses interrogations passées.

302

Pour résumer : un texte initial est déconstruit, en codant les idées qu’il contient sans référence à sa structuration, c’est-àdire à son titre et à son plan. Puis, cet ensemble d’idées, présenté sans aucun ordre autre qu’alphabétique, est restructuré par leur hiérarchisation par filtrages. On peut alors considérer qu’on dispose de deux textes représentant deux visions du même thème : une vision initiale reflétant l’état des connaissances du chercheur au moment de l’écriture et une version actuelle exprimant l’évolution et l’état de ses connaissances au moment de la réécriture. Dès lors, la comparaison des deux textes apporte une information intéressante issue du nouveau regard que le chercheur porte à un même thème à partir de connaissances actualisées. Bien sûr, on pourrait trouver la mise en évidence de cette évolution évidente, voire futile, mais l’intérêt de la méthode n’est pas là. Il est d’en faire prendre conscience au chercheur et de lui en fournir la trace ; l’intérêt est surtout de lui montrer les regards différents que l’on peut porter sur le même thème, non seulement parce que la réalité change, mais, et c’est fondamental, parce que lui aussi a changé. On pourrait presque parler à propos de cette méthode d’un essai d’objectivation pour le chercheur de sa propre subjectivité (Girard et al., 2015).

CONCLUSION Dans ce chapitre, nous avons fait un point sur la recherche qualitative mettant en lumière le soutien essentiel que procure l’utilisation d’un logiciel comme NVivo. Nos exemples l’ont bien illustré. Tout chercheur en DBA doit se questionner sur la nature des données auxquelles il a accès. Si ce sont des données qualitatives, il se devra d’emprunter le chemin de ce type de méthode. Sa manière de voir le monde est également très importante. Certains chercheurs estiment, par exemple, qu’il existe une manière optimale de décider. L’emploi du terme « optimale » n’est pas neutre. Il sous-entend souvent un certain tropisme pour le quantitatif. Un tel chercheur se sentira alors plus à l’aise avec des méthodes quantitatives fondées sur des modèles d’hypo-

L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

thèses. Ce type de recherche est tout à fait approprié. Toutefois, d’autres chercheurs adopteront une position plus dubitative sur les actions qu’ils peuvent mener. La complexité du monde les incite souvent à répondre : « ça dépend ». Dans ce cas, l’approche qualitative peut être envisagée. Bien sûr, une recherche qualitative peut comporter des aspects quantitatifs (Shah & Corley, 2006). Dans le cadre de l’utilisation de logiciels, il y a alors un choix à faire. Il est possible dans NVivo de réaliser des traitements quantitatifs, à titre d’exemple, le comptage des mots ou un graphique issu des données sociodémographiques. Il est aussi possible d’exporter des données de NVivo vers un logiciel tiers comme Excel. Cependant, ces traitements quantitatifs sont en deçà de ce qu’il est possible de réaliser avec le logiciel R de fouille de données déjà mentionné plus haut, ou le logiciel IBM SPSS12 (Statistical Package for the Social Sciences, utilisé pour l’analyse statistique), notamment. C’est alors que l’hybridité des compétences au sein des coauteurs peut conduire à une synergie augmentant à la fois la qualité et la quantité des articles publiés. Références citées Gioia, D. A., Corley, K. G. & Hamilton, A. L. (2012), Seeking qualitative rigor in inductive research: Notes on the Gioia methodology, Organizational Research Methods, vol. 16, no 1, p. 15-31. Girard, M., Bréart De Boisanger, F. ,Boisvert, I. & Vachon, M. (2015), Le chercheur et son expérience de la subjectivité : une sensibilité partagée, Spécificités, vol. 2, no 8, p. 10-20. Klein, H. K. & Myers, M. D. (1999), A set of principles for conducting and evaluating interpretive field studies in information systems, Management Information Systems Quarterly, vol. 23, no 1, p. 67-94. Lebraty, J.-F. (2001), Comprendre le concept d’information pour mieux appréhender les Technologies de l’Information et de la Communication, Actes du colloque regards croisés gestion et Information-Communication, Nice, La communication d’entrepriseCRIC, décembre, Nice, France, p. 84-102. Lebraty, J.-F. & Lobre, K. (2010), Créer de la valeur par le crowdsourcing : la dyade Innovation-Authenticité, Systèmes d’Information et Management, vol. 15, no 3, p. 9-40. 12. https://www.ibm.com/analytics/spss-statistics-software

303

A n a l y s e r l e s d o n n é e s d u t e r ra i n

Lobre-Lebraty, K. (2017), L’organistion hybride et son contrôle, Habilitation à Diriger des Recherches, Aix-Marseille Université. Murphy, S. E. & Ensher, E. A. (2008), A qualitative analysis of charismatic leadership in creative teams: the case of television directors, The Leadership Quarterly, vol. 19, no 3, p. 335-352. Point, S. & Voynnet-Fourboul, C. (2006), Le codage à visée théorique, Recherche et Applications en Marketing, vol. 21, no 4, p. 1-18. Romelaer, P. & Kalika, M. (2016), Comment réussir sa thèse, Paris, Dunod. Shah, S. K. & Corley, K. G. (2006), Building better theory by bridging the quantitative-qualitative divide, Journal of Management Studies, vol. 43, no 8, p. 1821-1835. Silverman, D. (1998), Qualitative research: meanings or practices?, Information Systems Journal, vol. 8, n°1, p. 3-20. Strauss, A. L. & Corbin, J. (1990), Basics of Qualitative Research Techniques and Procedures for Developing Grounded Theory, London, Sage Publications. Strauss, A. & Corbin, J. (2008), Basics of Qualitative Research Techniques and Procedures for Developing Grounded Theory, 3 rd edition, London, Sage Publications.

304

Thiétard, R. A. (2003), Méthodes de recherche en management, 2e edition, Paris, Dunod. Walsham, G. (1995), Interpretive case studies in IS research: nature and method, European Journal of Information Systems, vol. 4, no 2, p. 74-81. Walsham, G. (2006), Doing interpretive research, European Journal of Information Systems, vol. 15, no 3, p. 320-330. Willig, C. (2009), Introducing Qualitative Research in Psychology, Maidenhead, Berkshire, Royaume-Uni, McGraw-Hill. Yin, R. K. (2011), Qualitative Research from Start to Finish, New York, The Guilford Press. Références pour en savoir plus Klein, H. K. & Myers, M. D. (1999), A set of principles for conducting and evaluating interpretive field studies in information systems, Management Information Systems Quarterly, vol. 23, no 1, p. 67-94.

Cette référence ardue à lire est très importante. Elle propose 7 conseils pour mener une approche interprétative rigoureuse. D’ailleurs, on retrouve cette référence et la déclinaison de ces conseils dans de nombreux articles postérieurs.

L o g i c i e l s e t a n a l y s e d e d o n n é e s qu a l i t a t ive s

Silverman, D. (1998), Qualitative research: meanings or practices?, Information Systems Journal, vol. 8, no 1, p. 3-20.

Cet article propose un point de vue clair sur les apports de la recherche qualitative Yin, R. K. (2011), Qualitative Research from Start to Finish, New York, The Guilford Press.

Cet auteur est toujours cité pour ses travaux sur la notion « d’étude de cas ». Dans cet ouvrage, il englobe l’étude de cas dans le processus plus large que constitue une recherche qualitative. Il est très important de lire cet ouvrage ou du moins de le télécharger. Enfin, ajoutons les nombreux tutoriaux sur NVivo que vous trouverez sur YouTube notamment. Il est essentiel de comprendre que pour bien utiliser ce logiciel (ou d’ailleurs tout autre logiciel de traitement de données), il faut passer de nombreux heures d’apprentissage.

305

CHAPITRE 17. L’analyse des données visuelles Sébastien Liarte et Sarah Maire

Résumé Les organisations produisent un grand nombre de discours qui constituent un matériau empirique particulièrement riche pour les chercheurs en sciences de gestion. Dans cette optique, les chercheurs ont tendance à se concentrer sur les discours verbaux (documents écrits, discours, entretiens, déclarations, etc.). Mais il existe une autre forme de discours qui invite les chercheurs à s’intéresser à des données autres, jusque-là peu utilisées : les données visuelles. L’objectif de ce chapitre est de présenter ces données visuelles comme matériau de recherche particulièrement riche, d’en définir les composantes et de proposer des techniques d’analyse propre à ce type de données. Il s’agit également de présenter les problématiques spécifiques aux organisations qui se prêtent tout particulièrement à une investigation à travers les données visuelles ainsi que les principaux concepts pouvant bénéficier précisément d’un enrichissement à travers le prisme visuel. Mots-clés : visuel, rhétorique, sémiotique, méthode, organisations.

Les méthodes de recherche du DBA

306

L’a n a l y s e d e s d o n n é e s v i s u e l l e s

« Une image vaut 1 000 mots. » Confucius (551-479 av. J.-C.)

INTRODUCTION Que cela soit au travers de photographies, de diagrammes, de schémas, de dessins, de logos, des monuments architecturaux, ou de bien d’autres formes, les organisations produisent un grand nombre d’éléments visuels. Les visuels peuvent être le fruit d’un travail scrupuleux et d’un choix délibéré de l’entreprise comme, par exemple, les photographies illustrant les rapports d’entreprise ou l’aspect général des bâtiments du siège (comme en témoigne, par exemple, le souci du détail dans l’aspect visuel du futur siège The Loop d’Apple à Cupertino en Californie). Les visuels proposés par l’entreprise peuvent également découler d’un processus plus informel et plus inconscient. Quoi qu’il en soit, ils constituent une source de données particulièrement riche et intéressante pour des recherches en gestion (Maire & Liarte, 2018). Pourtant, l’utilisation de ce type de données demeure sousexploitée dans les recherches en gestion. Plusieurs raisons peuvent expliquer cette situation. Tout d’abord, un effort considérable a été fourni pour collecter le discours verbal produit par l’organisation ou ses membres. Que cela soit par entretiens, questionnaires, analyses des textes produits, etc., les chercheurs disposent aujourd’hui d’une multitude d’outils de plus en plus puissants pour utiliser un corpus textuel de plus en plus grand. Le texte inclus dans les rapports annuels des entreprises constitue, par exemple, depuis de nombreuses années un matériau empirique fréquemment utilisé dans les recherches. Ensuite, les chercheurs en gestion ont développé un lien particulier avec le visuel en s’intéressant plutôt aux visuels produits par le chercheur lui-même pour sa recherche. Dans une démarche de nature ethnographique, par exemple, le chercheur peut être conduit à prendre des photos qu’il analyse ensuite dans un second temps. Cette manière de faire l’a, sans doute, éloigné des visuels produits par l’entreprise. Enfin, alors que cela est courant en sciences humaines et sociales (Elkins, 2010), des efforts de construction, de développement et de renforcement de méthodes d’analyse d’éléments visuels restent encore à faire

307

A n a l y s e r l e s d o n n é e s d u t e r ra i n

en sciences de gestion. Plus précisément, il s’agit de chercher à intégrer un grand nombre de connaissances existantes mais sous forme éparse afin d’éviter de réinventer constamment la roue en matière d’analyse visuelle. L’objectif de ce chapitre est de détailler l’intérêt que peut présenter une analyse des visuels pour un chercheur s’intéressant à des problématiques en lien avec les organisations. Il s’agit de redonner au visuel la place centrale qu’il occupe dans la vie organisationnelle et, donc, de le considérer, à l’instar de données primaires chiffrées ou de transcriptions d’entretiens pour les chercheurs, comme un matériau de recherche à part entière.

308

Dans un premier temps, différentes techniques d’analyses de données visuelles sont présentées afin d’en saisir les enjeux, les possibilités ainsi que les limites. Dans un second temps, quelques exemples de problématiques spécifiques à la gestion et traités à travers l’étude de visuels sont présentés. Enfin, la conclusion du chapitre est l’occasion de proposer un certain nombre de recommandations pour le manager-chercheur en DBA qui souhaiterait mobiliser des données visuelles produites par l’organisation en tant que matériau empirique dans le cadre de sa recherche.

1. ANALYSER LE VISUEL : ÉLÉMENTS DE DÉFINITION ET MÉTHODES ASSOCIÉES L’analyse visuelle a émergé de manière tardive dans les recherches en gestion. Pourtant, il est clair que le recours à ce type de données peut conduire à des résultats tout à fait intéressants dans toutes les branches de la gestion. Toutefois, il est nécessaire de clarifier ce qui est évoqué derrière le terme d’analyse visuelle et de disposer d’outils méthodologiques adaptés.

1.1. Quelques clarifications définitoires Les visuels peuvent être matérialisés ou non. En effet, les images sont immatérielles et elles peuvent demeurer dans l’esprit d’une personne donnée. L’étude des visuels doit donc porter sur des images matérialisées. Dans ce cas, les images nous proviennent à travers un medium qui peut être une photographie, une présen-

L’a n a l y s e d e s d o n n é e s v i s u e l l e s

tation Powerpoint, un site Internet, un bâtiment, un journal, un rapport, etc. De ce fait, le visuel est constitué d’une image, le contenu, et d’un élément matériel, le contenant (ou le medium). Les deux éléments sont liés puisqu’un changement de l’un ou de l’autre implique un changement sur le sens global et l’interprétation que va en faire l’observateur (McLuhan & Fiore, 1967). Les deux éléments ne peuvent être étudiés de manière totalement indépendante. Sans chercher à couvrir la totalité des concepts évoqués par les théories s’intéressant à l’analyse visuelle, trois éléments centraux sont présentés ici : la sémiotique, l’esthétique et la rhétorique visuelle. La sémiotique est l’étude des signes et de leur signification. Plus précisément, il s’agit d’analyser 1) ce qui est décrit, c’est-àdire le dénoté, et 2) ce qui est exprimé et représenté, c’est-à-dire le connoté. Comme tout moyen d’expression, le visuel n’échappe pas au champ d’analyse de la sémiotique à travers la sémiotique visuelle qui étudie l’ensemble des objets de signification se manifestant par le canal visuel. Il est, par exemple, possible de s’intéresser particulièrement aux représentations et aux messages éventuellement cachés produits par les signes utilisés lors de la communication visuelle.

309

A n a l y s e r l e s d o n n é e s d u t e r ra i n

Encadré 1. Apple vs IBM Le sémioticien Jean-Marie Floch a comparé les premiers logos des entreprises Apple et IBM. Il a montré que les différences les plus marquantes pouvaient être rendues visibles à travers des associations d’oppositions binaires (Tableau 1).

Tableau 1. Oppositions binaires entre les logos Apple et IBM (Chandler, 2007, p. 109, d’après Floch, 1995) Apple

IBM

Logo

310

Structure

Pas de répétition Lignes jointes

Répétition Lignes disjointes

Couleur

Polychromatique Chaude

Monochromatique Froide

Formes

Contour Incurvées

Substance (en « gras ») Droites

À travers ces oppositions au niveau visuel, ce sont des oppositions d’identités organisationnelles qui se jouent. L’entreprise libertaire, hippie, voire psychédélique (symbolisé par l’arc-en-ciel), de la côte ouest-américaine se positionne de manière opposée à l’entreprise binaire (bleu/blanc), ordonnée et hiérarchisée (formes droites) de l’entreprise de la côte est-américaine.

Bien qu’associée avec l’appréciation de la beauté, la dimension esthétique est également en lien avec la question de la production de la connaissance au sujet des organisations. La dimension esthétique apparaît à travers les jeux de lumière, les couleurs, l’organisation de l’espace, etc. qui constituent une sorte de « meta-message » ou de contexte d’interprétation. L’esthétique peut, par exemple, être mobilisée pour exprimer une opinion en suscitant une émotion collective. Il peut même être considéré que la dimension esthétique revêt parfois une dimension politique. C’est à travers cette dimension esthétique que l’observateur et le créateur du visuel mettent en place une relation. Par exemple, les visuels apposés sur les paquets de cigarettes dits « neutres » ont pour fonction de créer une relation forte avec le fumeur à travers l’esthétique du visuel. En effet, les couleurs,

L’a n a l y s e d e s d o n n é e s v i s u e l l e s

les expressions, la mise en scène, etc., conduisent à générer une émotion particulièrement forte. Enfin, la rhétorique visuelle vise à analyser « les aspects symboliques ou communicationnels des artefacts visuels et d’en comprendre l’impact sur le public » (Foss, 2004, p. 304). Il est considéré que les éléments de rhétorique visuelle sont le fruit d’intervention humaine, impliquant des décisions conscientes, visant à « raconter » une histoire. Afin d’être interprétés correctement par le public, les éléments visuels ont leur propre « grammaire », c’est-à-dire un ensemble de règles sur ce qui peut être représenté et comment, pour que ces visuels puissent être compris. La structuration des éléments visuels se fait à travers le respect de conventions, de codes visuels pouvant être considérés comme un langage propre. Bien sûr, comme tout langage, le langage visuel n’est pas universel et reste attaché à des communautés, chacune disposant de ces propres conventions. La dimension visuelle de la comptabilité démontre cette importance de la rhétorique visuelle. En effet, les éléments de visualisation en comptabilité visent à rendre la comptabilité suffisamment homogène pour qu’elle puisse être reconnue comme autonome. La standardisation de certains éléments visuels fondamentaux comme la présentation en partie double relève de cette recherche d’homogénéité visuelle. Mais, le visuel permet également d’offrir une possibilité d’hétérogénéité qui laisse une place à la diversité à la création de différence (Quattrone, 2009). La représentation visuelle des tableaux de bord offre, par exemple, une opportunité de différenciation et de créativité. Toutefois, le message reste compréhensible par toute personne possédant les codes et les conventions de la communauté comptable. Une différence de convention (comme séparer les nombres par des virgules au lieu de points et inversement) montre comment deux visuels extrêmement proches (des tableaux de résultats) peuvent s’avérer plus ou moins compréhensibles du fait de ce changement de rhétorique visuelle.

1.2. Les méthodes de recherche associées Bien qu’utilisée depuis longtemps dans des disciplines de sciences humaines et sociales comme l’anthropologie ou la so-

311

A n a l y s e r l e s d o n n é e s d u t e r ra i n

ciologie, le recours à l’analyse visuelle n’est que très récent en gestion. Si les raisons de cette sous-utilisation sont multiples, le manque de méthodes établies, reconnues par tous et unifiées, représente sans doute une principale limite de leur emploi. Trois méthodes complémentaires sont présentées ici. Il s’agit de montrer différentes techniques, usages et objectifs de l’analyse visuelle afin d’enrichir la « boîte à outils » méthodologique du chercheur en gestion. Plutôt que de chercher à distinguer la « meilleure » méthode, il s’agit plutôt ici de présenter différentes alternatives afin d’offrir des possibilités apparaissant avant tout comme complémentaires.

1.2.1. La quantification des visuels

312

Il s’agit ici de quantifier de manière systématique ce qui apparaît sur les visuels. Il s’agit d’être en mesure de quantifier précisément les éléments représentés à travers des tableaux de fréquence d’apparition des visuels identifiables (Rose, 2001). Les chercheurs établissent un code pour chaque élément visuel, que cela soit pour décrire un objet, une couleur, une lumière, des aspects positifs ou négatifs, des représentations d’émotion, etc. Il est également possible de retenir la taille des visuels ainsi que leur position (premier ou arrière-plan, etc.). À l’instar des recherches qualitatives systématisées (notamment à travers l’utilisation de logiciel d’analyse qualitative comme NVivo qui offre la possibilité de spécifier l’analyse de visuels), une telle démarche accroît la reproductibilité de l’analyse par les autres chercheurs ainsi que la neutralité et l’objectivité du chercheur. Actuellement, se développent des logiciels d’analyse automatique de visuels (logiciels notamment développés dans le cadre de l’imagerie médicale) permettant la quantification de manière précise et automatique d’élément tels que la couleur ou la luminosité. Cette utilisation n’en est encore qu’à ses prémices en sciences sociales, mais va, sans nul doute, se développer dans les années à venir.

L’a n a l y s e d e s d o n n é e s v i s u e l l e s

Encadré 2. Logiques institutionnelles dans le scoutisme en France Dans une recherche réalisée à partir de l’étude des calendriers annuels des Scouts et Guides de France de 1936 à 2017, Maire et Liarte (2017) montrent comment il est possible d’identifier les logiques institutionnelles présentent dans le champ du scoutisme en France. Pour cela, ils ont codé l’intégralité des visuels présents sur les calendriers en cherchant à catégoriser ce qui est montré. Ensuite, l’ensemble des codes ont été rassemblés et les fréquences d’apparition calculées à travers le logiciel Nvivo 11. Le tableau 2 est alors obtenu.

Tableau 2. Grille d’analyse de contenu des visuels Code

Fréq.

Code

Fréq.

Petit groupe (deux ou trois)

657 NTIC

Groupe (plus de trois)

861 Outils intellectuels

286

Foulards

903 Transmission de connaissance

160

Autres signes distinctifs

280 Vente

Handicap

63 Argent représenté

Multiculturel

81 Levée de fond

82

15 5 35

Jeux collectifs

173 Gestion de l’argent

25

Joie

385 Partenaires

20

66 Professions

96

Lien physique Activités manuelles

314 Pratiques religieuses dans la nature

42

Outils manuels

229 Pratiques religieuses (autres)

26

34 Pratiques religieuses (messe)

37

Volontariat Groupe en marche Symboles hiérarchiques Supervision Contrôle

215 Lieux religieux 1215 Symboles religieux 202 Références historiques 12 Scènes bibliques

63 71 2 15

Réunions

116 Autres représentations chrétiennes

19

Activités intellectuelles

244 Autres religions

11

Par regroupement des codes proches, trois grandes logiques institutionnelles émergent à travers les visuels : la communauté, la religion et le managérial.

313

A n a l y s e r l e s d o n n é e s d u t e r ra i n

1.2.2. La déconstruction La méthode de déconstruction introduite par le philosophe Jacques Derrida (1983) pour l’étude des discours textuels peut également être utile pour l’étude de visuels. À l’instar de tout discours de l’organisation, les images peuvent être considérées « comme un ambassadeur esthétique de l’organisation [qui] permet de la visualiser et qui lui donne une valeur » (Campbell, 2012, p. 106). Dans ce cadre, l’objectif de la déconstruction est de révéler le sens caché dans les images en allant chercher ses sédiments au plus profond. Plus précisément, la signification du visuel est le résultat de la différence entre ce qui est visible, plutôt que de la référence aux choses qu’ils représentent. Il s’agit donc de travailler « en creux » à travers ce qui est représenté et ce qui n’est pas représenté. Il est à noter qu’il n’existe pas à proprement parler de méthode précise d’analyse de contenu, ce qui conduit à parler plus d’une pratique que d’une véritable méthode. Toutefois, la déconstruction peut conduire à des résultats particulièrement riches comme le souligne l’encadré 3.

314

Encadré 3. Toyota et la famille homosexuelle Steven Kates (1999) s’intéresse à une publicité de Toyota qui montre un couple d’hommes s’apprêtant à quitter leur domicile en voiture pour aller pique-niquer avec leurs chiens. En présentant la voiture comme « la » voiture de la famille, Toyota semble vouloir associer visuellement le couple homosexuel à une famille comme une autre. Cela peut apparaître comme une volonté d’affichage délibérée de l’homosexualité. Mais Steven Kates propose une relecture de la publicité en exposant des sens alternatifs au visuel. L’auteur avance que cette publicité n’a rien d’une ouverture puisque plutôt que de montrer l’homosexualité, elle montre une homosexualité hétérosexuelle. L’homosexualité semble acceptable à Toyota si elle rentre dans les cadres de la classe moyenne, respectable, sexuellement conservatrice, blanche et aisée. Cette déconstruction du discours visuel de Toyota s’avère particulièrement efficace pour démontrer ce que Toyota ne veut pas, ne peut pas ou ne sait pas montrer.

1.2.3. « L’enquête esthétique » (aesthetic inquiry) Les visuels peuvent permettre la visualisation d’éléments particulièrement intangibles comme les sentiments, les émotions, les humeurs, etc. Dans ce contexte, « l’enquête esthétique » vise

L’a n a l y s e d e s d o n n é e s v i s u e l l e s

à analyser les émotions à travers l’examen des sentiments plaisants et déplaisants issus de l’examen des visuels (Shrivastava & Ivanova, 2015). Cette méthode permet également l’exploration de la dimension esthétique des visuels, de son sens et de son impact sur les individus et les organisations. Il s’agit ici clairement d’étudier l’impact du visuel sur son auditoire plutôt que son sens à proprement parler. Anat Rafaeli et Iris Vilnai-Yavetz (2004) ont, par exemple, étudié l’émotion suscitée par le choix de repeindre totalement en vert les bus du réseau public Israélien. Ce changement de couleur, initialement fait pour symboliser l’écologie, a suscité des émotions différentes, mais souvent négatives de la part d’un grand nombre de parties prenantes. Les auteurs ont cherché, à travers une étude qualitative, à appréhender les émotions suscitées par ce choix esthétique ainsi que les raisons sous-jacentes à l’émotion suscitée. Les chauffeurs et les designers ont une émotion négative envers cette couleur, car ils considèrent le vert comme trop sombre pour être vu dans la nuit. De plus, le vert suscite des émotions négatives, car en Israël, le vert est plus relié à une dimension militaire qu’écologique.

2. LA VISUALISATION EN PRATIQUE DANS LES RECHERCHES EN SCIENCES DE GESTION Les éléments visuels issus de l’organisation n’ont pas, pendant de nombreuses années, suscité d’intérêt particulier de la part des chercheurs. Ce n’est que depuis récemment que certains auteurs considèrent que le langage visuel offre des possibilités multiples pour mettre en relation des phénomènes locaux et des idées et des concepts théorisés et décontextualisés (Meyer et al., 2013). Les visuels s’avèrent être un matériau empirique particulièrement riche à travers lequel il est possible de mener des recherches inédites.

2.1. Rendre visible l’invisible Le discours visuel permet de communiquer ce qu’est l’organisation, ses idées, ses valeurs, ses modèles, et ce, à plusieurs auditoires. Que cela soit à travers des publicités (institutionnelles ou

315

A n a l y s e r l e s d o n n é e s d u t e r ra i n

316

non), les sites Internet, les logos, les rapports d’entreprises, les outils de communication (bulletins, journaux, etc.), les organisations laissent transparaître des éléments de leur culture et de leur identité. L’apport des visuels est d’autant plus important que ces éléments sont, a priori, immatériels et difficiles à saisir. Les visuels permettent d’aller plus loin dans l’appréhension d’éléments conceptuels particulièrement difficiles à saisir tels que la légitimité, les rapports de force ou le pouvoir. Demeure bien évidemment une question centrale : Les visuels représentent-ils, dans une démarche volontariste et instrumentale, les éléments tels que le souhaite l’organisation ? Où sont-ils le simple reflet d’une réalité qui émerge indépendamment de toute volonté ? Les recherches mobilisant les visuels peuvent s’intéresser aux deux possibilités. Munir et Phillips (2005) ont montré, par exemple, comme l’entreprise Kodak a cherché au début du XXe siècle à transformer la photographie, activité jusque-là hautement spécialisée réalisée par des professionnels, en une activité accessible à tous à tout moment. Cette transformation a été réalisée à travers la mise en place d’une campagne d’affichage montrant des « Kodak moments », c’est-à-dire des moments forts de la vie quotidienne du grand public. À l’inverse, il est possible d’avancer que le groupe Accord a souhaité véhiculer une image d’entreprise attentive à l’égalité des sexes en proposant des publicités tant à destination des hommes que des femmes d’affaires. Pourtant une déconstruction des deux visuels traduit une forte stéréotypisation du genre masculin et féminin. Pendant son moment de repos à l’hôtel, la figure masculine se repose, se restaure et se détend en jouant de manière décontractée. A contrario, la figure féminine se livre à des activités en lien avec son apparence (maquillage) ou téléphone. Il apparaît assez clairement que les représentations de la figure masculine et féminine ne véhiculent pas les mêmes représentations. Les visuels produits par l’organisation constituent également un matériau permettant de déterminer les activités (produits, marchés, concurrents, etc.) que les entreprises considèrent comme centrales. En effet, les représentations présentes (ou absentes) des visuels ou à travers le support de diffusion choisi en disent beaucoup sur les choix fondamentaux des entreprises tant en matière d’activités que de parties prenantes visées. Après avoir quasiment disparu, les forges de Laguiole, ce haut lieu his-

L’a n a l y s e d e s d o n n é e s v i s u e l l e s

torique de réalisation du couteau du même nom, a connu une renaissance du fait de l’engagement d’une nouvelle équipe de direction. Le but était de recentrer l’ensemble de production localement pour offrir un couteau à la fois fruit d’une tradition ancestrale, mais ayant réussi le pari de la modernité et délibérément haut de gamme. Cet objectif est présent visuellement à travers le nouveau siège des Forges imaginé par l’architecte/ designer Philippe Starck. Bâtiment de verre et d’aluminium, le siège tend vers le ciel de l’Aubrac une lame de 18 mètres de haut, le tout symbolisant l’alliance de la tradition et de la modernité autour du célèbre couteau.

2.2. Matérialiser l’immatériel Les matériaux empiriques dont dispose le chercheur en gestion sont nombreux. Le contact direct avec les acteurs à travers les entretiens ou la collecte de questionnaires est une première source d’information. L’observation (participante ou non) in situ en est une autre. Enfin, le recours à des données secondaires, produites ou non par l’organisation, constitue une troisième source de données traditionnellement utilisée. Dans ce cas, il s’agit généralement d’étudier le discours verbal (discours, écrits, biographie, etc.) produit par ou au sujet des organisations. De manière traditionnelle, il est habituel d’établir une distinction claire entre les données issues du discours des acteurs (il s’agit là d’éléments déclaratifs) et de l’observation des acteurs (il s’agit là d’éléments factuels observés). Le premier type de données permet de saisir des perceptions, des opinions, des émotions, etc. Il s’agit d’accepter le fait que les données soient empreintes de subjectivité et il reste à savoir si les récits ou déclarations ne sont pas entachés de biais de mémoire, de mensonges ou de non-dits. La seconde catégorie de données permet d’observer le plus objectivement possible ce qu’il se fait, c’est-à-dire les pratiques réelles des individus et des organisations. En revanche, ce type de matériau ne renseignement aucunement sur les motivations des acteurs. Reste également à savoir si l’observation est le reflet de la réalité ou le fruit d’un comportement modifié du fait de la présence d’observateur externe.

317

A n a l y s e r l e s d o n n é e s d u t e r ra i n

318

Le recours aux visuels peut permettre de favoriser l’observation de l’activité de l’organisation. D’une part, observer les pratiques, les manières de faire ou d’être à travers des visuels évitent toute contamination des « données » par la présence d’un ou plusieurs observateurs. Il y a peu de chance que les visuels soient produits par l’organisation dans un but de potentielles futures recherches concernant une problématique non encore définie. Les photographies d’époque, immortalisant les ouvriers construisant les gratte-ciels de Manhattan au début du XXe siècle, ont souvent été utilisées pour montrer les conditions de sécurité sommaires de l’époque sur ce type de chantier. Pourtant, le visuel produit par la photographie d’un groupe d’ouvriers à plus de 330 mètres de haut sur un immeuble en construction à Los Angeles en 2016 montre que les pratiques actuelles ne sont pas si éloignées de celle du début du siècle à New York. Au niveau de l’activité, le visuel peut également permettre de « montrer » l’activité ou la stratégie de l’entreprise. Depuis un certain nombre d’années, il est, par exemple, admis dans un grand nombre de secteurs que le visuel orange traduit un modèle d’affaires à bas prix (low-cost business model, en anglais) de type (Easyjet, Basic Fit, Le Boncoin, etc.) ou que le jaune est la couleur du leader du marché (McDonald’s, Hertz, Kiloutou, etc.) et le rouge celle du suiveur (Quick, Avis, Loxam, etc.). Enfin, contrairement aux méthodes de collecte directe d’information, le travail sur le visuel permet de travailler sur l’évolution et la dynamique de phénomènes. Ces problématiques sont souvent centrales en gestion mais demeurent généralement difficiles à mener sur des périodes longues. Or, les organisations produisent parfois des visuels similaires ou dans des circonstances particulières, à intervalles plus ou moins réguliers. Ces documents permettent alors une étude dans le temps très riche, car offrant des perspectives d’observation rétrospective. Les évolutions au niveau des visuels peuvent également traduire des changements, ou du moins des inflexions, au niveau des choix, des stratégies ou de la culture de l’organisation ellemême. L’étude de l’évolution du logo du constructeur automobile Renault de sa création en 1898 à nos jours témoigne de l’impact des choix de l’entreprise en matière de stratégie (nationalisation, diversification, etc.), des évolutions des produits (évolution des capots des voitures) ou d’éléments contextuels (victoire à des

L’a n a l y s e d e s d o n n é e s v i s u e l l e s

courses, participation aux guerres, etc.) sur l’évolution visuelle du logo de l’entreprise.

CONCLUSION Les organisations produisent une grande quantité de visuels à partir desquels les chercheurs en gestion en général et les doctorants en DBA en particulier peuvent obtenir des résultats plutôt riches. En étant très immergés dans les organisations et les environnements dans lesquels elles évoluent, les doctorants-managers sont en mesure de collecter une grande quantité de visuels tout en variant les sources, de plus en plus nombreuses. En effet, outre les documents papier, les visuels se multiplient à travers les sites Internet, les réseaux sociaux, les applications de photographies spécialisées (Instagram, etc.). Bien évidemment, un certain de nombre de recommandations peut s’avérer utile pour que les doctorants-managers tirent le meilleur profit des visuels en tant que matériau de recherche. En voici sept : 1. Diversifier les sources de visuels. Publicité, documents de communication interne, architecture, conditionnement, site Internet, etc. sont quelques exemples de visuels qu’il est possible de considérer. 2. Distinguer le visuel du média qui le transmet. L’analyse d’un même visuel sur deux supports différents peut ne pas conduire aux mêmes résultats. Il est donc fondamental d’être en mesure de distinguer les effets imputables au visuel lui-même et ceux attribuables au type de médium utilisé pour le diffuser. 3. Identifier le public visé par le visuel. Un même visuel peut produire des effets différents sur des publics différents. Il est donc essentiel de savoir à qui s’adresse le visuel. 4. Identifier l’auteur du visuel. À l’instar de tout message issu d’une organisation, il est central de savoir qui en est à l’origine. S’agit-il d’une communication officielle ou non ? le visuel a-t-il été produit en interne ou par une agence de communication ? Est-il le résultat d’un travail collectif ou individuel ?

319

A n a l y s e r l e s d o n n é e s d u t e r ra i n

5. Distinguer les visuels intentionnels des visuels non intentionnels. Bien que ce qui est communiqué de manière non intentionnelle peut véhiculer du sens et de l’information sur l’organisation et ces acteurs, ce mode de communication est à distinguer de ce qui relève d’un choix délibéré. 6. Trouver un équilibre entre rigueur et liberté d’analyse en termes méthodologiques. L’analyse de visuel peut se prêter à des méthodes d’analyse assez libres (comme la déconstruction) permettant de faire émerger des éléments particulièrement enfouis dans les matériaux empiriques. Toutefois, il est nécessaire de garantir la reproductibilité des résultats et d’éviter une possible surinterprétation à travers le respect de cadres permettant une certaine systématisation des analyses proposées et des constats établis. 7. Considérer simultanément les autres formes de communication. Les visuels sont souvent accompagnés de communication verbale à travers du texte. Or, le texte se trouvant à proximité donne des indications qui orientent le récepteur. Il est donc nécessaire d’analyser le visuel conjointement au texte se trouvant à ses côtés.

320 Références citées Campbell, N. (2012), Regarding Derrida: The tasks of visual deconstruction, Qualitative Research in Organizations and Management: An International Journal, vol. 7, no 1, p. 105-124. Chandler, D. (2007), Semiotics: The Basics, New York, NY, Routledge. Derrida, J. (1983), The Time of a Thesis: Punctuations. In Philosophy in France Today by Montefiore, New York, Cambridge University Press. Elkins, J. (2010), Visual Cultures, Bristol, UK, Intellect. Floch, J.-M. (1995), Identités visuelles, Paris, PUF. Foss, S. K. (2004), Framing the study of visual rhetoric: Toward a transformation of rhetorical theory, in C.A. Hill & H.M. Helmers (eds.), Defining Visual Rhetorics, London, Routledge, p. 303-314. Kates, S. (1999), Making the ad perfectly queer: Marketing “normality” to the gay men’s community ?, Journal of Advertising, vol. 28, no 1, p. 25-37. Maire, S. & Liarte, S. (2017), Evolution of logics or evolution of their representations? Characterization of logics’ malleability through discourses and visualization, 33rd European Group for

L’a n a l y s e d e s d o n n é e s v i s u e l l e s

Organization Studies (EGOS) Colloquium, Copenhagen Business School. Maire, S. & Liarte, S. (2018), Building on visuals: Taking stock and moving ahead, M@n@gement, à paraître. McLuhan, M. & Fiore, Q. (1967), The Medium is the Massage: An Inventory of Effects, Berkeley, CA, Gingko Press. Meyer, R. E., Höllerer, M. A., Jancsary, D. & Van Leeuwen, T. (2013), The visual dimension in organizing, organization, and organization research: Core ideas, current developments, and promising avenues, Academy of Management Annals, vol. 7, no 1, p. 489-555. Munir, K. A. & Phillips, N. (2005), The birth of the Kodak moment : Institutional entrepreneurship and the adoption of new technologies, Organization Studies, vol. 26, no 11, p. 1665-1687. Quattrone, P. (2009), Books to be practiced: Memory, the power of the visual, and the success of accounting, Accounting, Organizations and Society, vol. 34, no 1, p. 85-118. Rafaeli, A. & Vilnai-Yavetz, I. (2004), Emotion as a connection of physical artifacts and organizations, Organization Science, vol. 15, no 6, p. 671-686. Rose, G. (2001), Visual Methodologies: An Introduction to the Interpretation of Visual Methodologies, Thousand Oaks, CA, Sage Publications Ltd. Shrivastava, P. & Ivanova, O. (2015), Inequality, corporate legitimacy and the Occupy Wall Street movement, Human Relations, vol. 68, no 7, p. 1209-1231. Références pour en savoir plus Joly, M. (2015), Introduction à l’analyse de l’image, 3 e édition, Paris, Armand Colin.

Cet ouvrage développe la manière dont les visuels élaborent et transmettent différents messages en questionnant ce qu’est une image avant de développer leur utilisation, en particulier dans le cadre de la publicité. Margolis, E. & Pauwels, L. (eds.) (2011), The SAGE Handbook of Visual Research Methods, Thousand Oaks, CA, Sage Publications Ltd.

Dans le cadre des sciences sociales au sens large (sociologie, anthropologie, géographie, études culturelles, etc.), cet Handbook développe les méthodes qualitatives et quantitatives existantes à l’heure actuelle sur l’étude des visuels, autant sta-

321

A n a l y s e r l e s d o n n é e s d u t e r ra i n

tiques qu’animés, tout en questionnant comment les utiliser et les diffuser dans le cadre de recherches scientifiques. Van Leeuwen, T. & Jewitt, C. (eds.) (2001), Handbook of Visual Analysis, Thousand Oaks, CA, Sage Publications Ltd.

Cet ouvrage se concentre sur les enjeux théoriques des visuels. Il développe les approches liées à la rhétorique, la sémiotique, l’iconographie ou encore l’ethnométhodologie, pour présenter un vaste panel de concepts outils mobilisables pour exploiter et analyser les visuels.

322

CHAPITRE 18. Les analyses statistiques multidimensionnelles Jean Desmazes

Résumé Ce chapitre veut être accessible à des non-spécialistes des méthodes statistiques qu’il présente. Il s’applique à faire comprendre ce que l’on peut attendre de ces méthodes et convaincre de leur extrême utilité dans les démarches d’étude et de recherche en management. Les méthodes abordées sont des méthodes multidimensionnelles descriptives (on les qualifie aussi d’exploratoires). Elles correspondent à ce que l’on nomme aussi « méthodes d’analyse des données de première génération ». Sont présentées : l’Analyse en Composantes Principales (ACP), l’Analyse Factorielle des Correspondances (AFC), l’Analyse des Correspondances Multiples (ACM) et la Classification Ascendante Hiérarchique (CAH). Après la lecture de ce chapitre, la prise en main effective de ces méthodes suppose un effort complémentaire accessible à tous, tant a progressé l’ergonomie des logiciels disponibles pour les mettre en œuvre. Mots-clés : statistiques descriptives, statistiques multidimensionnelles, analyse des données, ACP, AFC, ACM, CAH.

Les méthodes de recherche du DBA

323

A n a l y s e r l e s d o n n é e s d u t e r ra i n

INTRODUCTION Décrire, « … c’est consentir une perte en information afin d’obtenir un gain en signification » (Volle, 1981, p. 12). Cette citation de Michel Volle exprime la philosophie générale des méthodes d’analyse statistique multidimensionnelle que ce chapitre se propose de présenter aussi simplement que possible à l’attention du manager-chercheur de DBA. La présentation veut être simple, mais elle veut également être une invitation à se saisir sans hésitation et sans crainte de ces méthodes si, dans le cadre de recherches qui s’y prêtent, elles s’avèrent pertinentes, voire indispensables. En effet, au-delà de la compréhension de leurs domaines d’application et de ce qu’elles permettent, leur mise en œuvre est aujourd’hui accessible à tous grâce aux logiciels d’analyses statistiques disponibles.

324

Les méthodes présentées ici ont pour noms et acronymes : Analyse en Composantes Principales (ACP), Analyse Factorielle des Correspondances (AFC), Analyse des Correspondances Multiples (ACM), Classification Ascendante Hiérarchique (CAH). Elles composent ce qu’il est convenu de désigner comme étant les méthodes multidimensionnelles d’analyse des données de première génération. Elles n’épuisent pas l’ensemble des méthodes statistiques multidimensionnelles. À côté des méthodes descriptives, existent des méthodes multidimensionnelles explicatives, anciennes comme la régression linéaire, l’analyse de variance, l’analyse discriminante ou, plus récentes, et relevant de méthodes dites de deuxième génération, comme à titre d’exemple, les méthodes d’équations structurelles. Ce chapitre est donc consacré aux méthodes multidimensionnelles descriptives nommées ci-dessus. Il s’applique, dans une première section, à préciser leurs spécificités communes, spécificités qui justifient l’attention que doivent leur accorder les doctorants de DBA. Les méthodes présentées peuvent être distinguées en deux grandes familles. ACP, AFC et ACM sont des méthodes géométriques et appartiennent aux méthodes d’analyses factorielles. L’aspect remarquable de leurs résultats est qu’elles produisent des cartes (des mappings, en anglais) sur lesquelles apparaissent variables, modalités et observations soumises à l’analyse. Pour

L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

sa part, la CAH fait partie des méthodes arithmétiques de classification automatique (cluster analysis, en anglais) et, pour certaines d’entre elles comme la CAH, elles produisent des arbres qui montrent comment les objets mis à l’étude se regroupent peu à peu par ressemblance en classes distinctes de plus en plus étendues (Figure 1). Figure 1. Mapping et arbre de classification issus des méthodes d’analyse des données

La deuxième section est consacrée à lever le voile sur les propriétés spécifiques de chacune des méthodes déjà mentionnées : ACP, AFC, ACM et CAH.

1. PROPRIÉTÉS COMMUNES DES MÉTHODES D’ANALYSE DES DONNÉES DE PREMIÈRE GÉNÉRATION Il y a quatre bonnes raisons qui justifient l’intérêt qu’il faut porter aux méthodes multidimensionnelles d’analyse des données de première génération. Ces quatre bonnes raisons correspondent à quatre séries de propriétés centrales qui les caractérisent, propriétés qui s’articulent les unes avec les autres et se renforcent mutuellement.

1.1. Des méthodes utilisées « partout » et adaptées à tous les types de tableaux de nombres Que ce soient dans les champs des sciences de l’homme, où elles sont nées, dans ceux des sciences sociales, des sciences de la vie et de la terre, des sciences de l’ingénieur, les méthodes

325

A n a l y s e r l e s d o n n é e s d u t e r ra i n

considérées ici sont d’usage courant. L’étendue de leur utilisation tient à ce que la « réalité » à laquelle s’intéressent ces disciplines apparaît ou s’exprime souvent sous la forme de tableaux de nombres et que c’est au « traitement » de ces tableaux que s’appliquent les méthodes de l’analyse des données. En outre, à la diversité des types de tableaux rencontrés dans la « nature »1, les méthodes disponibles offrent une diversité de solutions pour répondre à chaque cas rencontré. Précisons ce point sans viser l’exhaustivité. Tableau de mesures, tableau de contingence, tableau disjonctif complet sont les types de tableaux de nombres qu’il nous faut distinguer ici pour faire comprendre la suite. D’autres types existent mais nous les laissons dans l’ombre.

326

Le tableau de mesures « tombe sous le sens » : en ligne des observations issues d’une population (au sens statistique de ces termes) et, en colonne, des variables quantitatives. À l’intersection d’une ligne et d’une colonne, on trouve la mesure pour l’observation indiquée en ligne correspondant à la variable portée en colonne. Un exemple pour illustrer : en ligne, 500 entreprises (les observations) ; en colonnes, 25 variables quantitatives : nombre de salariés, chiffre d’affaires, part de la production exportée, résultat brut d’exploitation, taux d’endettement, âge moyen des principaux dirigeants, etc. Le tableau de contingence est le résultat d’une construction plus élaborée que le tableau de mesures. Il est construit en considérant une population au regard de deux variables nominales, l’une portée en ligne et l’autre en colonne. Au croisement d’une ligne et d’une colonne, on lit le nombre d’observations de la population possédant la modalité de la variable portée en ligne et la modalité de la variable portée en colonne. On parle souvent de tableau croisé. Prenons un exemple : une population d’étudiants inscrits dans une université ; on considère deux variables nominales sur cette population : les filières de formation suivies par les étudiants, première variable nominale comprenant 10 modalités (droit, économie, sciences de l’ingénieur, mathématiques, 1. La formulation est osée et permet de rappeler ceci : les tableaux de nombres ne sont pas dans la nature et ne préexistent pas à la production de l’homme. Ils relèvent d’une réalité construite par lui.

L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

etc.) et la CSP2 des parents des étudiants comprenant 8 modalités (agriculteurs exploitants, commerçants, artisans et chefs d’entreprise, cadres et professions intellectuelles supérieures, etc.). Au croisement d’une ligne et d’une colonne de ce tableau de contingence, on trouve le nombre d’étudiants qui suivent la formation indiquée en ligne et qui sont issus d’une famille appartenant à la CSP mentionnée en colonne. Le tableau disjonctif complet est le résultat d’une construction encore plus élaborée que le tableau de contingence. Ce dernier, on le devine, permet de repérer la relation existant entre deux variables nominales. Le tableau disjonctif complet vise à s’inscrire dans une démarche où il s’agit de repérer les relations existant entre plus de deux variables nominales. Le tableau construit dans cette perspective est structuré de la manière suivante : les lignes du tableau correspondent aux observations ; les colonnes correspondent aux variables nominales et chaque variable nominale est éclatée en autant de colonnes qu’elle possède de modalités ; pour chaque observation, et pour chaque groupe de colonnes correspondant à une variable nominale, figure un « 1 » dans la colonne correspondant à la modalité possédée par l’observation et des « 0 » dans les autres modalités qu’elle ne possède pas3. Le tableau disjonctif complet apparaît ainsi comme un tableau ne contenant que des « 1 » et des « 0 » (on le qualifie parfois de tableau logique ou de tableau de présence-absence) 4. Comme les véhicules 4x4 capables de rouler sur « tous » les terrains, les méthodes d’analyse des données sont utilisables « partout » dès lors que la réalité et les phénomènes mis à l’étude s’expriment sous la forme de tableaux de nombres. Leur intérêt et leur succès tiennent, en premier lieu, à cela. Mais elles ont d’autres atouts. Car, si elles sont aptes à « traiter » tableaux de mesures, tableaux de contingence, tableaux disjonctifs complets et encore bien d’autres types de tableaux, c’est la nature et 2. Catégorie socio-professionnelle. 3. On suppose ici que les modalités des variables nominales sont exclusives (une observation ne peut en posséder qu’une et une seule). 4. Compte tenu des objectifs visés par ce chapitre, nous ne présentons pas le tableau de Burt qui prolonge le tableau disjonctif complet et qui peut être utilisé pour les traitements dont nous allons parler un peu plus loin, comme nous ne présentons pas plusieurs autres types de tableaux de nombres.

327

A n a l y s e r l e s d o n n é e s d u t e r ra i n

l’intérêt des « traitements » qu’elles opèrent qu’il faut maintenant souligner.

1.2. Des méthodes descriptives L’étape préalable à toute tentative de compréhension, d’explication, voire de maîtrise, d’un phénomène quelconque, est sa description. La description n’est pas un acte secondaire dépourvu d’enjeux, ne nécessitant aucune créativité et pour lequel il suffirait d’appliquer des routines ordinaires insignifiantes. La description est au fondement de l’explication, l’acte premier de celle-ci et, en même temps, dans une dialectique fructueuse, les progrès de l’explication sont en retour source de progrès de la description. Comme rappelé dans l’entame de ce chapitre, décrire, « … c’est consentir une perte en information afin d’obtenir un gain en signification » (Volle, 1981, p. 12). Le paradoxe n’est qu’apparent et l’expérience permet de le dépasser rapidement.

328

Prenons par exemple une liste des 3 867 revenus annuels des « actifs »5 d’une petite commune donnée. Ce listing de plus de 80 pages est insaisissable au cerveau humain et ne permet pas d’appréhender la moindre facette des réalités économiques, sociales et autres associées à ces 3 867 nombres. La construction d’un histogramme commence à faire parler les 3 867 revenus. On y voit immédiatement la forme de la distribution des revenus, sa concentration au voisinage d’une classe modale, son étalement en direction des hauts revenus, etc. L’histogramme conduit à une perte d’information puisque les 3 867 revenus individuels n’apparaissent plus. Mais il permet un incontestable gain en signification et en compréhension. Le calcul d’une moyenne, d’une médiane, d’un écart-type permet également ce gain en signification à la faveur d’une perte en information. Offrir les voies de cette prouesse subtile sont le propre des méthodes statistiques dites descriptives. Les méthodes d’analyse des données objet de ce chapitre répondent à cet objectif descriptif général. Elles possèdent en cela 5. … au sens de « personnes actives » telles que définies par les nomenclatures statistiques en vigueur…

L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

un intérêt peu contestable. Mais cet intérêt est décuplé du fait qu’elles permettent de décrire des objets multidimensionnels.

1.3. Des méthodes descriptives d’objets multidimensionnels Les méthodes présentées ici sont multidimensionnelles parce que leurs traitements s’appliquent à des « objets multidimensionnels ». Précisons le vocable. Dans l’exemple des 3 867 revenus, il y a 3 867 observations, en l’occurrence les 3 867 actifs de la petite commune considérée. Chaque observation est caractérisée par une seule variable, son revenu. L’objet correspondant aux 3 867 observations correspond à un nuage de 3 867 points unidimensionnel. Une droite (munie d’une origine et d’une graduation adéquate) suffit à le représenter. Si à la caractérisation de chaque actif par son revenu on ajoute son âge, le nuage des 3 867 points devient bidimensionnel : les 3 867 points peuvent être représentés sur un plan défini par deux droites, l’une mesurant le revenu et l’autre mesurant l’âge. Si l’on ajoute une troisième variable, le nuage de points se situe dans l’espace à trois dimensions, celui où nous vivons. Il est tridimensionnel et l’on pourrait le modeler pour le donner à voir sous sa forme exacte. Au-delà de trois variables, le nuage de points constitue un objet multidimensionnel qui existe dans un espace multidimensionnel. Le nombre de dimensions d’un objet, c’est le nombre de nombres nécessaires à sa caractérisation et à sa localisation dans l’espace auquel il appartient. Dans le cas des 500 entreprises décrites à l’aide de 25 variables quantitatives, les 500 entreprises constituent un nuage de 500 points situés dans un espace de dimension 25. Décrire, c’est-à-dire donner à voir les formes de nuages de points unidimensionnels et bidimensionnels, voire tridimensionnels, reste un exercice plutôt aisé. Mais décrire des nuages de points multidimensionnels apparaît une gageure : comment donner à voir les formes d’objets qui sont invisibles à l’œil puisqu’ils sont situés dans des espaces de dimensions supérieures à 3 ? C’est pourtant ce défi que les méthodes multidimensionnelles d’analyse des données relèvent avec succès. Comment s’y prennentelles ?

329

A n a l y s e r l e s d o n n é e s d u t e r ra i n

En ayant à l’esprit les méthodes géométriques d’analyse factorielle, on peut comprendre simplement leur « mode opératoire » par une analogie avec la photographie. Une photo permet de restituer la forme d’un objet situé dans l’espace de dimension 3 sur un plan de dimension 2. La réduction de dimension de l’objet que l’on voit sur la photo s’opère par projection de ses « vraies » formes existant dans l’espace initial de dimension 3. L’algèbre et la géométrie ont fourni tous les outils nécessaires à la généralisation de la démarche de projection pour donner à voir dans le plan les formes des objets existant dans des espaces initiaux de dimensions aussi élevées que l’on veut.

330

Bien entendu, la forme de l’objet vue sur la photo n’est pas la « vraie » forme de l’objet dans son espace initial. Il y a entre les deux, une perte d’information, perte d’information grâce à laquelle la forme est apparue sur le plan. Il reste, pour revenir à l’analogie avec la photographie, que l’angle de prise de vue n’est pas sans importance pour rendre compte aussi fidèlement que possible de la « vraie » forme de l’objet. La photo d’un camélidé prise face à l’animal ne permet pas de savoir s’il s’agit d’un chameau ou d’un dromadaire 6. La photo prise de profil est sur ce point bien plus parlante. Mais alors, comment choisir le bon angle de prise de vue de la photo ? La question se pose avec acuité. Le choix de l’angle de prise de vue de la photo est l’équivalent de la question du choix des directions des projections des objets multidimensionnels pour les donner à voir. En poursuivant sur ce point, on est conduit à souligner une quatrième propriété centrale des méthodes d’analyse des données.

1.4. Des méthodes descriptives « objectives » En tant que pratique artistique, la photographie est un art qui donne toute sa place à l’inspiration du photographe, à sa sensibilité et à sa subjectivité pour le choix de l’angle de prise de vue, du cadrage, du rendu de la lumière, etc. La visée est esthétique. Ce n’est pas celle des méthodes d’analyse des données. La visée de ces dernières est de restituer aussi fidèlement que possible les formes d’un objet invisible à l’œil parce que situé dans un es6. Nous reprenons ici une image qui compose la première de couverture de l’ouvrage de Fénelon (1981).

L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

pace multidimensionnel. « Aussi fidèlement que possible » : pour les méthodes en question, la traduction de cette exigence prend la forme de l’utilisation d’algorithmes de calcul qui ne laissent plus de place, a priori, à la subjectivité du « photographe ». On peut faire comprendre intuitivement les fondements de cette objectivité, et ses limites, en recourant au petit exemple suivant. Figure 2.1

Figure 2.2

Figure 2.3

La figure 2.1 représente un nuage de points situés dans le plan (dimension 2) et l’on se propose, en procédant par projection de ces points, de les représenter « aussi fidèlement que possible » sur une droite (dimension 1). Pour de bonnes raisons que l’on laisse ici dans l’ombre, on peut décider de faire passer la droite recherchée par le centre de gravité du nuage de points (représenté par le point blanc sur la figure). Quelle est l’orientation qu’il faut donner à cette droite pour que, une fois les points projetés sur elle (représentés par des croix), elle respecte l’objectif visé ? L’orientation de la droite D1 (Figure 2.2) et les projections qui y sont faites (les croix) sont loin de donner une image fidèle du nuage de points initial. On n’y voit pas l’opposition entre deux extrêmes autour d’un troupeau central structurant le « vrai » nuage. Les extrêmes sont confondus dans le troupeau. En revanche, on comprend que l’orientation de la droite D2 (Figure 2.3) est « aussi fidèle que possible » à la forme initiale. Ce qui vient d’être suggéré correspond à ce qui est formalisé et généralisé par les méthodes auxquelles on s’intéresse ici. Ce qu’il faut restituer « aussi fidèlement que possible », c’est la forme du nuage initial, c’est-à-dire les distances entre les points. Pour appréhender cette forme, on pense alors spontanément à recourir à la notion basique en statistique qu’est la variance (l’éta-

331

A n a l y s e r l e s d o n n é e s d u t e r ra i n

332

lement autour de la moyenne). C’est ce que font les méthodes en question en retenant la notion d’inertie, l’inertie n’étant pas autre chose qu’une variance calculée sur des points munis de poids. Une fois choisie la manière de mesurer la distance entre les points et les poids à leur affecter, une fois calculée l’inertie du nuage, et quelle que soit la dimension de l’espace initiale dans lequel il se situe, l’algorithme utilisé par les méthodes factorielles procède par itérations successives. Il calcule en premier lieu la direction de la droite sur laquelle, en projection, l’inertie projetée est maximum. Cette droite est appelée premier axe d’inertie (ou premier axe factoriel). Puis, en deuxième lieu, l’algorithme recherche la direction d’une droite orthogonale à la première, sur laquelle, en projection, l’inertie est maximum. Cette deuxième droite définit le deuxième axe d’inertie (deuxième axe factoriel). Puis en troisième lieu, il recherche la direction de la droite orthogonale aux deux premières, sur laquelle, en projection, l’inertie est maximum, etc. La photo « aussi fidèle que possible » de l’objet multidimensionnel étudié est celle qui apparaît sur le plan défini par les axes factoriels 1 et 2. On va y découvrir les formes structurantes les plus saillantes (le profil du camélidé et ses deux bosses permettant d’identifier un chameau). Mais rien n’empêche évidemment de considérer aussi l’objet sous d’autres plans en combinant d’autres axes : axes 1 et 3, axes 2 et 3, axes 2 et 4, etc. comme il est aussi intéressant de considérer la photo de face du chameau pour apprécier la taille de ses oreilles… Les descriptions des objets multidimensionnels invisibles à l’œil livrées par les méthodes factorielles sont donc « objectives » au sens où elles sont le résultat d’algorithmes mathématiques qui optimisent et hiérarchisent les structures et les formes restituées et données à voir. La subjectivité des choix d’angle de vue du photographe n’y a pas sa place. C’est le dernier atout de ces méthodes qu’il est important de comprendre et de souligner. Mais une fois affirmée « l’objectivité » des descriptions fournies et des méthodes qui y conduisent, il faut immédiatement marquer les limites de cette objectivité. Ces limites tiennent principalement à l’interprétation des axes factoriels (et des mappings qui en résultent). Les résultats obtenus ne prennent toute leur valeur et tout leur intérêt que si l’on donne un sens, une signi-

L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

fication aux structures mises au jour, que si l’on pose des mots sur les synthèses que propose l’algorithme. S’il faut encourager l’analyste à faire parler les données, il faut en même temps comprendre et admettre que cet encouragement conduit à la réapparition de la subjectivité de la description finalement proposée. Le bilan reste néanmoins largement favorable aux méthodes dont il est question ici. Les descriptions des objets multidimensionnels qu’elles permettent repoussent loin les frontières de l’entrée dans la subjectivité et permettent, pour le moins, de l’encadrer parce qu’elles offrent des bases objectives rigoureuses qu’aucune autre méthode ne permet. Méthodes passe-partout dès lors que l’on s’intéresse à des phénomènes qui s’expriment à travers des tableaux de nombres, aussi grands soient-ils, méthodes descriptives « objectives » d’objets multidimensionnels, les méthodes d’analyse des données de première génération ont des propriétés générales que nul chercheur en management ne devrait ignorer. Chacun doit pouvoir se saisir de ces méthodes si les circonstances de sa recherche s’y prêtent et c’est pour cela que l’on s’est appliqué à les faire comprendre. L’étape suivante pour le chercheur débutant en analyse des données est de passer de la compréhension de ces propriétés générales à la mise en œuvre effective des méthodes. Cette étape suppose un investissement mesuré tant les logiciels disponibles, comme Le Sphinx (voir le chapitre 19), sont devenus faciles à maîtriser et à la portée de tous. Investissement mesuré certes, mais investissement minimum quand même. L’espace manque dans ce chapitre pour accompagner jusqu’au bout dans cet investissement. Des repères bibliographiques sont donnés dans la suite du texte. On se contentera de continuer à lever un peu plus le voile sur chacune des méthodes annoncées : ACP, AFC, ACM et CAH.

2. PROPRIÉTÉ SPÉCIFIQUES DES PRINCIPALES MÉTHODES D’ANALYSE DES DONNÉES DE PREMIÈRE GÉNÉRATION Les principales spécificités des différentes méthodes considérées ici tiennent aux types de tableaux de nombres qu’elles permettent de traiter.

333

A n a l y s e r l e s d o n n é e s d u t e r ra i n

2.1. L’Analyse en Composantes Principales (ACP) L’ACP est tout particulièrement adaptée au traitement des tableaux de mesures tels qu’ils ont été définis plus haut : en ligne des observations et en colonne des variables quantitatives7. Face à de tels tableaux, qui peuvent être de très grande taille (plusieurs milliers de lignes et plusieurs dizaines de colonnes), la description de la réalité qu’ils traduisent consiste à offrir des éclairages dans trois perspectives liées : typologie des lignes, typologie des colonnes, rapprochement de ces deux typologies. Par typologie des lignes, on entend le repérage des ressemblances et dissemblances entre les observations au regard de toutes les variables quantitatives figurant en colonne. On se doute qu’un calcul de distances entre les observations (les lignes du tableau) permet l’établissement « objectif » de ces ressemblances/dissemblances.

334

Quant à la typologie des colonnes, elle revêt deux aspects remarquables. En premier lieu, s’agissant de variables quantitatives, leurs ressemblances/dissemblances s’expriment tout naturellement par leurs relations, ici par leurs corrélations (linéaires). L’ACP offre ainsi un bilan des corrélations entre les variables du tableau. En second lieu, elle offre la mise à jour de variables de synthèse résumant, « aussi fidèlement que possible », le jeu des corrélations des variables du tableau par groupes de variables. Ces variables de synthèse, combinaisons linéaires des variables initiales, ne sont pas autre chose que les axes d’inertie présentés plus haut appelés, en la circonstance, « composantes principales ». Le rapprochement des deux typologies, celles des lignes et des colonnes, s’opère grâce aux propriétés des composantes principales. Sur les axes de projection qu’elles définissent, se projettent les variables et les observations. Il est assez naturel d’interpréter les axes en termes de variables puis de considérer la position des observations au regard des interprétations données. 7. Attirons l’attention du lecteur sur le fait que parmi les tableaux de mesures auxquels l’ACP s’applique utilement, un cas fréquent rencontré dans les études et les recherches en gestion est celui des échelles de mesures multi-items construites à partir d’échelles de Likert (type degré de satisfaction, degré d’accord, etc.).

L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

Pour convaincre de l’intérêt de l’ACP et de son accessibilité à tous, il faut sans doute ajouter à ce qui vient d’être dit que les trois éclairages fournis par la méthode prennent la forme, pour l’essentiel, de mappings que l’on apprend aisément à interpréter 8.

2.2. L’Analyse Factorielle des Correspondances (AFC) L’AFC s’applique aux tableaux de contingence (définis précédemment) croisant deux variables nominales, l’une en ligne et l’autre en colonne, au regard d’une population donnée. Ayons par exemple à l’esprit le tableau qui, pour les étudiants d’une université, croise les formations où ils sont inscrits (en ligne) et la CSP de leurs parents (en colonne) 9. La question que pose ce tableau est évidemment celle de savoir s’il existe une relation entre les deux variables nominales, formations suivies et CSP familiales. Comme dans le cas de l’ACP, cette question consiste à éclairer trois perspectives : typologie des lignes, typologie des colonnes et rapprochement des deux typologies. Les éclairages donnés par l’AFC dans ces trois perspectives tiennent ici encore aux propriétés des axes d’inertie issus de la méthode sur lesquels se projettent, « aussi fidèlement que possible  », les modalités des deux variables. Ces axes sont les mêmes pour les modalités en ligne et pour les modalités en colonne. Dans les plans définis par deux axes, on peut donc y voir les ressemblances/dissemblances entre les modalités de la variable en ligne (typologie des lignes), les ressemblances/dissemblances entre les modalités de la variable en colonne (typologie des colonnes) et les relations s’établissant entre modalités en ligne et modalités en colonne (rapprochement des deux typologies). Là encore, les résultats de l’AFC se lisent, pour l’essentiel, en considérant les mappings produits par l’analyse, mappings que l’on apprend aisément à interpréter correctement. 8. Les mappings sont incontestablement la forme la plus « spectaculaire » des résultats de toutes les analyses factorielles et la voie d’accès la plus immédiate à leur interprétation. Il faut néanmoins ajouter, qu’outre ces mappings, les résultats prennent aussi la forme de tableaux de nombres, des aides à l’interprétation que l’on laisse délibérément dans l’ombre dans le cadre de cette présentation. 9. Le tableau a donc autant de lignes que la variable formation a de modalités et autant de colonnes que la variable CSP des parents a de modalités.

335

A n a l y s e r l e s d o n n é e s d u t e r ra i n

Il est fréquent que l’on ait à considérer la relation existant entre deux variables nominales. La facilité de mise en œuvre de l’AFC et les vertus heuristiques des résultats qu’elle livre justifient le succès de cette méthode. Mais plus souvent encore, ce n’est pas la relation entre deux variables nominales que l’on a à considérer, mais les relations entre plusieurs dizaines de variables nominales. C’est habituellement le cas dans les enquêtes par questionnaires. La multiplication des croisements des variables prises deux à deux révèle rapidement les limites de l’AFC. Une généralisation de cette méthode permet de dépasser ces limites.

2.3. L’Analyse des Correspondances Multiples (ACM)

336

L’ACM peut être comprise comme une extension de l’AFC au cas de plus de deux variables nominales. Elle s’applique à un tableau disjonctif complet construit comme on l’a expliqué plus haut. Dans le cadre d’une enquête par questionnaire contenant de nombreuses variables nominales (aux modalités exclusives), ce tableau traduit fidèlement les réponses données par les répondants10. La mise au jour des structures que recèle ce tableau passe, comme dans les autres analyses factorielles, par l’éclairage des trois perspectives que sont la typologie des lignes, la typologie des colonnes et le rapprochement des deux typologies. La typologie des lignes est celle des observations, celle des répondants dans le cas d’une enquête par questionnaire. La typologie des colonnes est celle des modalités des variables et donc des variables elles-mêmes, les ressemblances/ dissemblances correspondent ici aux relations qui s’établissent à ces deux niveaux, relations entre les modalités des variables et entre les variables. Le rapprochement entre les deux typologies s’appuie sur les propriétés des axes d’inertie sur lesquels se projettent observations et modalités des variables, axes qu’il est naturel d’interpréter en termes de modalités et de variables pour comprendre les positions que les observations y occupent. Les résultats livrés par une ACM sont riches et subtils. Mais pour en prendre pleinement connaissance, il est souvent néces10. Notons au passage qu’en mettant les variables quantitatives en classes, il est possible de les inclure dans les tableaux disjonctifs complets pour les associer aux variables nominales dans la réalisation de l’ACM.

L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

saire de considérer un grand nombre d’axes d’inertie et donc un grand nombre de mappings. Leur analyse et leur interprétation deviennent rapidement longues, difficiles et fastidieuses. Ce constat, face à un souci d’accès rapide et facile à des synthèses « objectives », peut conduire, de manière judicieuse, à soumettre les résultats de l’ACM à une CAH.

2.4. La Classification Ascendante Hiérarchique (CAH) La CAH est une méthode à part entière qui appartient à la famille des classifications automatiques, mais elle peut être utilisée complémentairement aux analyses factorielles. Les classifications automatiques s’appliquent à des tableaux de nombres de différents types et servent, le plus souvent, et sans que cela soit impératif, à faire des classes d’observations au regard d’un nombre plus ou moins élevé de variables qui peuvent être de types divers. Elles se situent dans une perspective de construction de typologies. Les mappings des analyses factorielles répondent à cette visée en permettant de repérer visuellement des groupes d’observations qui se ressemblent sans que les contours de ces groupes soient faciles à tracer « à vue d’œil », d’autant qu’il faut en général prendre en compte plusieurs plans de projection. On peut considérer que les classifications automatiques « viennent au secours » des analyses factorielles en leur proposant une construction calculée et rigoureuse des frontières des classes d’observations qui se ressemblent. Pour sa part, la CAH opère de la manière suivante. Une fois définie la façon de compter la distance entre deux observations, entre une observation et une classe d’observations, entre deux classes d’observations, l’algorithme calcule, au regard de toutes les observations et de toutes les variables qui les caractérisent, les distances entre chacune de ces observations. Il regroupe dans une première classe les deux observations les plus proches. Puis il réitère les calculs et regroupe les deux observations et/ou l’observation et la classe les plus proches. Les itérations se poursuivent et regroupent peu à peu, de manière ascendante, les observations et les classes jusqu’à l’itération finale où toutes les observations sont rangées dans une classe unique, comme illustré par l’arbre de classification de la figure 1. Entre le bas de l’arbre et son sommet, une coupure de l’arbre défi-

337

A n a l y s e r l e s d o n n é e s d u t e r ra i n

nit une partition de classes que l’on nomme aussi classification. Deux critères permettent d’apprécier la qualité d’une classification : l’homogénéité des classes et la séparation des classes. On se doute que les statisticiens ont su donner à ces deux critères des définitions permettant de les calculer rigoureusement. En conséquence, il est possible, pour choisir à quel niveau couper l’arbre de classification, de prendre appui sur l’évolution de ces deux indicateurs au fur et à mesure des itérations de regroupement des observations. À l’issue d’une analyse factorielle, ACP et ACM, les observations sont connues par leurs coordonnées sur les axes d’inertie. Ces coordonnées factorielles définissent un nouveau tableau de mesures que l’on peut traiter à l’aide d’une CAH. Aux tâtonnements et aux approximations d’une typologie faite « à la main » et « à vue d’œil » à partir des mappings, on peut ainsi substituer une typologie rigoureuse et précise.

CONCLUSION 338

Aucun chercheur ou chargé d’étude dans le domaine du management, comme dans bien d’autres domaines, ne devrait aujourd’hui ignorer les incomparables propriétés des méthodes statistiques multidimensionnelles, pour le moins celles qui appartiennent aux méthodes d’analyse des données de première génération. Il importe d’avoir en tête et de comprendre (1) que ce sont des méthodes, comme les véhicules 4x4, qui « passent partout » et que l’on utilise « partout » parce que (2) ce sont des méthodes descriptives (3) qui permettent de décrire des objets multidimensionnels « invisibles à l’œil » et (4) de les décrire « objectivement ». Comprendre ces quatre points est une condition nécessaire à la mobilisation à bon escient de ces méthodes. Leur mise en œuvre effective demande un effort complémentaire. Mais les progrès de l’ergonomie des logiciels disponibles pour cette mise en œuvre, et les orientations bibliographiques conseillées ci-après dans les références pour en savoir plus, rendent cette mise en œuvre accessible à tous. Le logiciel Le Sphinx, à la disposition des doctorants de DBA, est l’outil qui s’impose pour franchir cette dernière étape.

L e s a n a l y s e s s t a t i s t i qu e s m u l t i d i m e n s i o n n e l l e s

Références citées Fénelon, J.-P. (1981), Qu’est-ce que l’analyse des données ?, Paris, Éditions Lefonen. Volle, M. (1981), Analyse des données, 2e édition, Paris, Économica. Références pour en savoir plus Escofier, B. & Pages, J. (2008), Analyses factorielles simples et multiples, objectifs, méthodes et interprétations, 4 e édition, Paris, Dunod.

Une présentation de base des analyses factorielles qui combine remarquablement rigueur et accessibilité pour le plus grand nombre de lecteurs. Husson, F., Lé, S. & Pages, J. (2009), Analyse de données avec R, Presses Universitaires de Rennes.

Avec la même alliance réussie de rigueur, de clarté et d’accessibilité pour le plus grand nombre de lecteurs, on trouvera dans cette référence, outre la présentation des analyses factorielles, un exposé sur la classification automatique et, en particulier, sur la CAH. Lebart, L., Piron, M. & Morineau, A. (2006), Statistique exploratoire multidimensionnelle : visualisation et inférence en fouilles de données, 4 e édition, Paris, Dunod.

Pour aller encore plus loin dans les fondements mathématiques et statistiques des méthodes exploratoires multidimensionnelles. Moscarola, J. (2018), Faire parler les données : méthodologies quantitatives et qualitatives, Caen, Editions EMS, coll. « Business Science Institute ».

Un ouvrage désormais incontournable pour les doctorants de DBA en matière de méthodologie de la recherche qui permet de resituer les méthodes statistiques présentées dans ce chapitre parmi l’ensemble des autres méthodes, quantitatives et qualitatives, qui sont à leur disposition pour leurs recherches doctorales.

339

CHAPITRE 19. Visualisation de données et infographie dynamique : le logiciel Sphinx Jean Moscarola

Résumé Les méthodes de l’infographie et de la visualisation de données sont présentées et illustrées par trois exemples réalisés avec DataViv, le service web de Sphinx. Ces exemples sont développés sur le site compagnon https://faireparlerlesdonnees.blog/les-techniques/datavisualisation/. Leur intérêt pour la recherche est enfin discuté.

Mots-clés : analyse de données, données graphiques, tableau de bord, communication.

Les méthodes de recherche du DBA

340

Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

“Excellence in statistical graphics consists of complex ideas communicated with clarity, precision, and efficiency. Graphics reveal data.” Edward R. Tufte

INTRODUCTION Les connaissances produites en sciences sociales se situent à l’articulation entre le monde des idées et celui des faits, entre théories et observations empiriques. Au cœur de ce processus, les données fondent les conclusions du chercheur autant qu’elles l’exposent à la critique de ses pairs. Cette force de la démarche scientifique peut devenir une faiblesse au moment d’en communiquer les résultats. En effet, l’exigence de rigueur dans l’exposé des méthodes utilisées pour faire parler les données ou réfuter une théorie n’est pas toujours compatible avec les impératifs d’une communication efficace. Le faible impact des recherches académiques (Kalika et al., 2016) peut s’expliquer par cette difficulté. L’infographie et la visualisation des données sont des techniques de plus en plus utilisées par les journalistes et les consultants. Leur intégration dans les outils logiciels dont se servent les chercheurs pour analyser des données qualitatives ou quantitatives présente une opportunité de prolonger le travail de recherche par la mise en forme d’une communication plus efficace. Après avoir rappelé la nature des techniques, nous examinerons leur contribution à la production de connaissance tant du point de vue de l’efficacité de la communication (storytelling) que de celui du processus de création connaissances proprement dit par exemple, par la théorie enracinée et l’exposition à la critique (réfutation). Ces possibilités seront illustrées par des exemples mis en œuvre avec DataViv, le service web de datavisualisation1 proposé par Sphinx.

1. C’est l’expression utilisée dans le jargon technique. On parle aussi « d’une datavisualisation » ou « d’une infographie » pour qualifier les résultats obtenus par ces techniques.

341

A n a l y s e r l e s d o n n é e s d u t e r ra i n

1. LES TECHNIQUES : INFOGRAPHIE, DATAVISUALISATION ET INTERACTIVITÉ Le sens des termes « Infographie » et « Datavisualisation » sont assez voisins. Ils ont en commun l’image et la perception visuelle présentées comme complément ou alternative à la communication scripturale de textes éventuellement illustrés. Ils mettent chacun l’accent sur l’information considérée comme une forme (graphie) ou un contenu (donnée). Ils reposent sur des techniques informatiques pour les mises en forme (images, icônes, graphies), des techniques statistiques pour transformer les données, des techniques de communication et de journalisme pour raconter une histoire et enfin des sciences du design et de la cognition pour capter l’attention.

1.1. Infographie

342

L’infographie définit les techniques informatiques utilisées par les graphistes. Par extension, une infographie est une information présentée grâce à ces techniques. On passe ainsi des techniques aux contenus. De nombreuses études (Borkin et al., 2013) ont montré l’impact des propriétés infographiques d’un message sur sa perception, sa mémorisation et sa compréhension. L’infographie a une fonction esthétique. Elle agit sur l’attention grâce à la polysémie de l’image, mais elle est aussi une ressource pour l’exposé rationnel de conceptions organisées, plans, schémas modèles à l’instar des cartes cognitives (Buzan & Griffiths, 2011). Pour Dunleavy (2015), une bonne infographie est le gage d’une communication maîtrisée dans son objectif, son style, ses preuves et son format. Il convient pour cela d’équilibrer la forme apportée par les techniques graphiques et le fond qui repose sur l’information et les données. Pour Krum (2013) l’infographie est aussi une réponse à la surcharge d’information. Il la présente comme un support du storytelling. Lorsque l’histoire repose sur des données, l’infographie met les techniques graphiques au service des la visualisation des données.

Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

1.2. Datavisualisation La visualisation des données a des origines anciennes que Friendly (2017) fait remonter aux premiers cartographes. Elle connaît son âge d’or avec l’essor de la statistique à la fin du XIXe pour connaître une renaissance avec l’informatique multimédia. Elle se distingue des états comptables, bien plus anciens, par l’effort de présentation visant à donner du sens en synthétisant, comparant et distinguant. Plus qu’une simple restitution, Few (2014) la définit comme un art et une science. Elle est une branche de la statistique descriptive et un outil de stimulation dans l’esprit de la théorie enracinée (Walsh, 2015). Son but est de transmettre des idées de manière efficace en associant formes esthétiques et fonctionnelles pour donner un aperçu de données éparses ou complexes en faisant percevoir l’essentiel de leur contenu. Ainsi les infographies doivent trouver l’équilibre entre la forme et la fonction, pour atteindre l’objectif principal de la visualisation des données – communiquer des informations. Des exemples de cet « art statistique » sont produits dans les très beaux ouvrages2 de Tufte (2001) : comment exposer les données en une seule vue représentant leur singularité, leur structure ou leur évolution. Ces représentations bénéficient des apports de la statistique exploratoire et de l’analyse de données multidimensionnelle (Tukey, 1977) qui permettent de réaliser sélections et synthèses, préalablement à la mise en scène des données. En France, Bertin (1973) avec son œuvre, Sémiologie graphique. Les diagrammes, les réseaux, les cartes, donne à la visualisation des données ses fondements théoriques et ses règles pratiques qui la constituent. Il a considérablement fait évoluer cette discipline (Palsky, 2017). En reprenant le schéma de Ferdinand de Saussure (1857-1913), il définit un langage visuel dont les graphiques sont les signifiants et les informations les signifiés3. L’efficacité de la communication est la priorité : donner une représentation précise et complète en produisant des formes perceptibles dans l’instant. Cela implique le respect de règles de construction

2. Ces ouvrages ont été écrits comme suite à des cours de statistiques destinés à des journalistes. 3. Ces notions sont au centre du cours de linguistique générale rédigé par des collègues de Saussure après sa mort.

343

A n a l y s e r l e s d o n n é e s d u t e r ra i n

(analyse de données), de lisibilité (densité des symboles, seuils de lecture) et la nécessité d’intégrer le lecteur au processus (convention graphique couleur…). Il est enfin précurseur en introduisant la notion de graphique dynamique « C’est la mobilité interne de l’image qui caractérise le graphique moderne. On ne “dessine” plus un graphique une fois pour toutes. On le “construit” et on le reconstruit (on le manipule) jusqu’au moment où toutes les relations qu’il recèle ont été perçues » (Bertin, cité dans Palsky, 2017). Cet intérêt accordé aux systèmes de relations trouve son accomplissement avec l’interactivité des technologies que nous allons présenter.

1.3. Interactivité : infographie dynamique et visualisation de données interactives

344

La généralisation des services web fait entrer l’interactivité dans le langage de l’infographie et de la data visualisation. Cette technique longtemps réservée aux concepteurs pour la mise au point des supports de communication papier est désormais accessible aux lecteurs d’un service web. Ils peuvent interagir avec ce qu’ils voient pour approfondir à la manière de l’hypertexte ou simuler en adaptant l’infographie qui leur est présentée. Cette possibilité modifie le rapport à la connaissance et le statut de ses supports qui deviennent ainsi immédiatement interrogeables et discutables, flexibles, mais volatiles aussi4. Elles sont une opportunité pour le chercheur et la communauté scientifique.

1.4. Communication visuelle et connaissances scientifiques Les sciences de la nature sont fortement ancrées sur les représentations imagées du monde qu’elles décrivent et cherchent à comprendre. Dessins, photographies, spectrographies, images 4. Quelle évolution, des tables de loi gravées immuablement dans le marbre, aux énoncés présents sur le Web modulables au point d’en produire des versions aussi diverses que la diversité de ses lecteurs.

Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

de synthèse, la connaissance même la plus abstraite est mise en images à partir des modèles qui permettent de les concevoir5. Il en va différemment en sciences sociales où les représentations graphiques sont plus rares et moins valorisées que les indications chiffrées indiquant la qualité d’un modèle ou les discours élaborés à l’appui d’une interprétation conceptuelle. Les diagrammes sont utilisés pour représenter systèmes, modèles ou processus, mais les tableaux et les chiffres sont souvent préférés aux graphiques. Comme si la connaissance était d’autant plus sérieuse sans illustrations. Les consultants et les journalistes au contraire savent faire appel aux infographies et à la data visualisation pour capter l’attention de leurs interlocuteurs et les convaincre. Et pourtant le chercheur est sensé se distinguer par la clarté de ses énoncés, l’explicitation de ses sources, le partage de ses données et l’acceptation de la critique. Une nouvelle génération de logiciels s’appuyant sur des services web permet de mieux satisfaire ces exigences en utilisant infographie, data visualisation et interactivité, comme nous allons le montrer avec le service de Datavisualisation proposé par Sphinx.

1.5. Outils : Sphinx et DataViv Les logiciels Sphinx (Ganassali, 2015 ; Boughzala, Hervé & Moscarola, 2014) offrent un ensemble de ressources de visualisation de données comportant des fonctions statistiques, lexicales, sémantiques et graphiques. Outre les apports de la visualisation graphique, la nouveauté réside dans le fait que les analyses proposées par le chercheur sont interrogeables par le lecteur grâce à l’interactivité que le web autorise. Il peut ainsi préciser sa compréhension en revenant aux données, ce qui est particulièrement utile pour l’analyse de corpus, pour tester la sensibilité des modèles par simulation, ou pour trianguler dans le cas d’approches mixtes.

5. On sait montrer les trous noirs sans avoir eu encore l’occasion d’isoler la matière qui les compose.

345

A n a l y s e r l e s d o n n é e s d u t e r ra i n

2. LES LANGAGES : USAGES ET EXEMPLES AVEC SPHINX Même si le but d’une recherche scientifique est d’apporter de nouvelles connaissances il peut être utile de les introduire comme une histoire 6. Non pas l’histoire de la recherche et de sa progression, mais l’histoire qui situe les résultats obtenus par rapport à leurs causes et à leurs conséquences. Kosara et Mackinlay (2013) proposent que ces étapes s’appuient sur la visualisation des données dont l’aspect graphique ancre la compréhension et la mémorisation (Bateman et al., 2010) et que l’interactivité permet d’interroger et de discuter (Moscarola, 2018). Des données brutes aux éléments visuels, la mise en scène des données repose sur des méthodes et techniques que nous présentons dans les exemples qui suivent. Ils sont plus abondamment développés sur le site associé (https://faireparlerlesdonnees.blog/les-techniques/datavisualisation/) auquel il est nécessaire de se référer pour faire l’expérience de l’interactivité et en comprendre l’efficacité.

346

2.1. Présenter des mesures, établir des relations Sur la base d’un questionnaire, le chercheur (Boughzala, 2010) calcule les indicateurs d’un modèle classique en système d’information. L’infographie de la figure 1 présente le niveau de ces critères7 et leur distribution. Icônes et couleurs ancrent la perception. En cliquant sur les histogrammes, on constate immédiatement que tous ces critères sont reliés. Les filtres situés en haut à gauche permettent de voir comment les résultats varient selon le statut des répondants (Acheteurs ou Fournisseurs). L’infographie de la figure 2 teste le modèle explicatif de l’adoption du système d’information. Sa représentation visuelle est complétée par les résultats d’une régression linéaire multiple. L’ajustement du modèle est assez bon et montre que l’utilité perçue est le critère qui a le plus d’influence sur l’adoption. Grâce 6. Au sens du storytelling comme technique de communication (Salmon, 2008). 7. Ces valeurs sont établies, conformément à la théorie de la mesure. Chaque critère repose sur des batteries d’échelles qui définissent les concepts du modèle.

Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

à l’interactivité 8 on constate que le modèle est mieux adapté à la strate des acheteurs… Figure 1. Mesurer : les critères d’adoption d’un système d’information pour les achats publics

347 Figure 2. Expliquer : test du modèle de l’adoption

8. Le coefficient de corrélation multiple passe de 0,60 à 0,70 et le poids de la confiance diminue.

A n a l y s e r l e s d o n n é e s d u t e r ra i n

2.2. Focaliser, hiérarchiser, synthétiser Considérons l’exemple d’une étude destinée à éclairer des choix pour le développement d’une région touristique. Le questionnaire décrit les activités, attentes et satisfaction de touristes présents dans différents types d’hébergement. Une première vue (Figure 3) présente les informations relatives aux séjours. Le graphisme attire l’attention sur sa durée et les dépenses effectuées. L’identité des touristes, leurs activités et leurs attentes sont présentées de manière hiérarchisée. Enfin l’intention de retour donne une idée de la satisfaction. Mais c’est l’interactivité de cette data visualisation qui en fait l’intérêt. En cliquant sur un mode d’hébergement, on voit varier les informations caractérisant ceux qui le fréquentent. Par exemple les patrons et indépendants sont les plus nombreux à l’hôtel où les séjours sont les plus courts et la dépense la plus élevée, les salariés en camping séjournent plus longtemps, mais dépensent moins…

348

Selon son intérêt ou sa curiosité, le lecteur peut ainsi découvrir la spécificité de chaque hébergement. Figure 3. Rapprocher focaliser : tableau de bord d’une population touristique

Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

Le nombre élevé d’items décrivant les vacances idéales rend leur perception compliquée. On y remédie en construisant une typologie 9 qui permet de distinguer trois types de touristes, les Consommateurs, les Paisibles, les Sportifs. Cet effort de simplification associé à la recherche d’éléments distinctifs permet de produire une synthèse indiquant les seuls éléments qui distinguent les hébergements les uns par rapport aux autres10 (Figure 4). La carte associée11 met en évidence l’opposition nette entre Hôtel et Camping dont les éléments caractéristiques sont nettement différenciés (sociologie, activité, type d’attentes)… Grâce à l’interactivité, on peut vérifier si ces propriétés sont stables selon la zone géographique considérée. Figure 4. Synthétiser, distinguer : positionnement des modes d’hébergements

349

2.3. Explorer des corpus, identifier des thématiques Infographie et data visualisation ne sont pas réservées aux données quantitatives. Associées aux ressources de l’analyse lexicale, sémantique et de la navigation hypertextuelle elles sont 9. Par la méthode des k-means qui permet de regrouper les répondants selon la similarité de leurs profils. 10. Les éléments spécifiques de chaque type d’hébergement sont sélectionnés par des tests du X 2 (khi-deux). 11. Établie grâce à une analyse factorielle des correspondances multiples.

A n a l y s e r l e s d o n n é e s d u t e r ra i n

très utiles pour l’analyse d’interviews, de documents ou de réponses ouvertes dans les enquêtes. Par exemple dans la phase exploratoire d’une recherche visant à situer les usages de la certification en Afrique12, les nuages de mots de la figure 5 donnent une idée de l’influence exercée par les questions du chercheur. La taille des mots visualise leur fréquence d’usage. Grâce à l’interactivité, en cliquant sur les mots des questions on voit comment ceux-ci se reflètent dans le contenu des réponses.

Figure 5. Résumé par les mots-clés : l’influence des questions sur les réponses

350

La figure 6 indique les principales formes grammaticales13 contenues dans les réponses. Le lien interactif avec le nuage des mots fait ressortir les associations lexicales, précisées par le verbatim correspondant qui apparaît en cliquant sur les mots. À la manière de la lecture flottante (Bardin, 1996 ; Moscarola, 2018) le chercheur découvre ainsi son corpus et les citations qu’il pourra reprendre. Il peut l’aborder globalement ou entretien par entretien.

12. Ouattara, doctorant Business Science Institute, recherche en cours en 2018, le corpus est constitué de 37 entretiens non directifs. Un autre exemple tiré de la thèse de Sfeir (2016) est disponible sur le site. 13. Obtenue grâce à l’analyse morphosyntaxique (Boughzala, 2014).

Figure 6. Explorer, découvrir : naviguer dans le corpus à la recherche de verbatim

Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

351

A n a l y s e r l e s d o n n é e s d u t e r ra i n

Enfin, en mobilisant l’analyse de données textuelles une procédure de classification14 permet de regrouper les réponses selon leur proximité lexicale. On obtient ainsi une typologie caractérisée par les univers lexicaux représentés dans la figure 7. Ils révèlent les thèmes développés et permettent de caractériser les répondants. À l’analyste de trouver la bonne interprétation pour définir et nommer ces thèmes. La possibilité de faire apparaître le verbatim associé aux mots de chaque classe l’aide dans ce travail et permet au lecteur de contrôler les interprétations du chercheur15. Figure 7. Synthétiser et interpréter : découvrir les thématiques

352

3. PORTÉE ET LIMITES DE LA VISUALISATION DES DONNÉES Ces exemples conduisent à plusieurs types de commentaires selon que l’on considère le point de vue du chercheur qui conçoit la mise en scène de ses données, celui du lecteur qui en prend connaissance, ou plus généralement du point de vue de la qualité et de l’impact des connaissances produites. 14. Classification hiérarchique descendante fondée sur l’analyse factorielle des correspondances (Boughzala, 2014). 15. Seules les méthodes de visualisation de données permettent de rendre ainsi compte du travail d’interprétation en l’exposant à la critique du lecteur. Un autre exemple tiré d’une thèse de DBA (Sfeir & Lebraty, 2016) est disponible sur le site.

Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

3.1. Le travail du chercheur Tout ceci ne peut se concevoir sans logiciels. Le chercheur doit avoir la capacité de les utiliser et de les contrôler, car ils affectent aussi la manière de décrire le monde ou de l’expliquer. Ces moyens sont désormais très accessibles. Ils n’apportent rien de nouveau sur le fond des techniques d’analyses statistiques ou lexicales, mais permettent de les mettre en œuvre de manière infiniment plus rapide, flexible et efficace. Ce changement se révèle à l’écran16. La couleur, le graphisme, l’image et l’interactivité deviennent des moyens d’investigation incomparables en mobilisant un spectre bien plus large de nos capacités cognitives. Ainsi les couleurs dynamiques variant selon les valeurs, ou les graphes visualisant des relations, facilitent l’observation des données en allant à l’essentiel. Notamment pour faire ressortir dans l’examen de grands tableaux les données statistiquement significatives ou signaler les évolutions. Des exemples sont fournis sur le site. La possibilité de disposer en vis-à-vis différents éléments dans un tableau de bord donne une vision globale en organisant un raisonnement ou en facilitant des comparaisons… Enfin l’interactivité fait percevoir les liens entre les données, éclaire la sensibilité des modèles ou permet d’explorer les corpus à la recherche de verbatim ou de synthèse. Cette perception expérientielle étend les possibilités de la triangulation. Elle peut aussi révéler des interprétations erronées ou en suggérer de nouvelles. Ainsi le rapport du chercheur aux données se trouve modifié dans le sens de la théorie enracinée pour laquelle Walsh (2015) et Kniggle et Cope (2006) montrent que la data visualisation permet ainsi d’intégrer les données qualitatives et quantitatives. Demeure le risque que présente l’abus de toute technologie. Lorsque leur usage devient la finalité (Bateman et al., 2010 ; Kosara & Mackinlay, 2013) le chercheur peut perdre du temps en jouant avec la mise en forme ou se perdre dans les simulations au détriment de ce qu’il veut communiquer. Ce n’est pas la multiplication des vues qui fait la qualité des connaissances produites, mais la simplicité de l’histoire qu’elles racontent. 16. Lorsque j’ai fait ma thèse il fallait des heures avant d’obtenir le précieux listing et je me souviens de mon scepticisme lorsque la couleur est apparue sur les écrans d’ordinateurs. À qui cela pourrait-il servir !

353

A n a l y s e r l e s d o n n é e s d u t e r ra i n

3.2. Le point de vue du lecteur Techniques de communication, l’infographie et la data visualisation s’adressent d’abord au destinataire de la recherche et de se fait contribuent à son impact et à la diffusion des connaissances. Dans une conception stricte de la démarche scientifique, seule la consistance des résultats compte : justifications statistiques ou illustrations par du verbatim. Mais pour que l’exercice de la critique qui distingue l’approche scientifique puisse s’exercer, il faut que les résultats soient clairement mis en évidence, perçus et compris. L’infographie y contribue en faisant ressortir l’essentiel au risque peut-être de trop simplifier ou d’abuser les lecteurs par des effets graphiques. Mais la data visualisation et l’interactivité compensent ce risque en donnant la capacité au lecteur de revenir aux données ou de changer les points de vue. Il peut ainsi exercer son esprit critique ou poursuivre sa propre curiosité.

CONCLUSION 354

Il faut se référer au site compagnon de ce chapitre pour faire l’expérience de l’effet de l’interactivité sur la compréhension des exemples présentés. C’est le principal obstacle pour une communauté scientifique qui privilégie encore le papier comme support de la communication. La littérature même sous ses formes électroniques continue de privilégier les codes de l’écrit imprimé laissant peu de place aux formes graphiques colorées, imagées, animées ou interactives. Et pourtant, les pratiques de recherche ont complètement intégré l’internet et l’ordinateur, mais la tradition continue d’imposer des normes de communications d’une autre époque. Il ne s’agit pas ici d’en discuter les raisons, mais d’inviter les chercheurs à profiter des ressources que nous avons présentées pour mieux comprendre leurs données et mieux communiquer ce qu’elles nous apprennent. Plus que d’autres les managers-chercheurs du DBA devraient pouvoir trouver le bon compromis entre les impératifs de la connaissance scientifique et l’utilité de la communication. Ils peuvent ainsi contribuer à augmenter l’impact des recherches en gestion et à faire évoluer les conventions et usages de notre communauté scientifique.

Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

Références citées Bardin, L. (1996), L’analyse de contenu, 8 e édition, Paris, PUF. Bateman, S., Mandryk, R.L., Gutwin, C., Genest, A., McDine, D. & Brooks, C. (2010), Useful junk?: The effects of visual embellishment on comprehension and memorability of charts, Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, ACM, p. 2573-2582. Bertin, J. (1973), Sémiologie graphique. Les diagrammes, les réseaux, les cartes, Paris/La Haye, Mouton, Paris, Gauthier-Villars. Borkin, M., Vo, A.A., Bylinskii, Z., Isola, P., Sunkavalli, A., Oliva, A & Pfister, H. (2013), What makes a visualization memorable?, IEEE Transactions on Visualization and Computer Graphics, vol. 19, no 12, p. 2306-2315. Boughzala, Y. (2010), Rôle de la confiance dans l’adoption des systèmes d’information, Thèse, Université de Savoie. Boughzala, Y., Moscarola, J. & Hervé, M. (2014), Sphinx Quali : un nouvel outil d’analyses textuelles et sémantiques, in E., Née, J.M., Daube, M., Valette & S., Fleury (dir.), JADT 2014 : 12es Journées Internationales d’Analyse Statistique des Données Textuelles, 3-6 juin, Paris, p. 91-103. Buzan, T. & Griffiths, C. (2011), Le mind mapping au service du manager, Paris, Eyrolles. Dunleavy, D. (2015), Data visualization and infographics, Visual Communication Quarterly, vol. 22, no 1, p. 66-68. Few, S. (2014), Data visualization for human perception, in M. Soegaard, R. Dam (eds.), The Encyclopedia of HumanComputer Interaction, 2nd edition, Aarhus, The Interaction Design Foundation. Friedman, V. (2008), Data Visualization and Infographics, Smashing Magazine. Disponible à : http://www.smashingmagazine. com/2008/01/14/monday-inspiration-data-visualization-andinfographics/ Friendly, M. (2017), A Brief History of Data Visualization, SpringerVerlag. Ganassali, S. (2015), Enquête et analyse de données avec Sphinx, Pearson. Hullman, J. & Diakopoulos, N. (2011), Visualization Rhetoric: Framing effects in narrative visualization, IEEE Transactions on Visualization and Computer Graphics, vol. 17, no 12, p. 2231-2240. Kalika, M., Liarte, S. & Moscorola, J. (2016), Enquête FNEGE sur l’impact de la recherche en management, Paris, FNEGE.

355

A n a l y s e r l e s d o n n é e s d u t e r ra i n

Kniggle, L. & Cope, M. (2006), Grounded visualization: Integrating the analysis of qualitative and quantitative data through grounded theory and visualization, Environment and Planning A: Economy and Space, vol. 38, no 11, p. 2021-2037. Kosara, R. & MacKinlay, J. (2013), Storytelling: The next step for visualization, Computer, vol. 46, no 5, p. 44-50. Krum, R. (2013), Cool Infographics: Effective Communication with Data Visualization and Design, Wiley. Moscarola, J. (2018), Faire parler les données : méthodologies quantitatives et qualitatives, Caen, Éditions EMS, coll. « Business Sciences Institute ». Moscarola, B. & Moscarola, J. (2018), ADT et visualisation, pour une nouvelle lecture des corpus. Les débats de 2e tour des Présidentielles (1974-2017), JADT 2018 : 12es Journées Internationales d’Analyse Statistique des Données Textuelles, 12-15 juin, Rome, Italie. Palsky, G. (2017), La sémiologie graphique de Jacques Bertin a cinquante ans, Visioncarto. Robertson, G., Fernandez, R., Fisher, D. & Stasko, J. (2008), Effectiveness of animation in trend visualization, IEEE Transactions on Visualization and Computer Graphics, vol. 14, no 6, p. 1325-1332.

356

Salmon C. (2008), Storrytelling, Paris, La Découverte. Sfeir, R. & Lebraty, J.-F. (2016), Communication de PME en situation de crise financière, Bulletin de la Société d’Etudes Economiques et Sociales, vol. 74, n° 1, p. 39-50. Tufte, E. (2001), The Visual Display of Quantitative Information, 2nd edition, Cheshire, CT, Graphics Press. Tukey, J. (1977), Exploratory Data Analysis, Boston, MA, AddisonWesley. Walsh, I. (2015), Découvrir de nouvelles théories, Caen, Éditions EMS, coll. « Business Sciences Institute ». Références pour en savoir plus Moscarola, J. (2018), Faire parler les données : méthodologies quantitatives et qualitatives, Caen, Éditions EMS, coll. « Business Sciences Institute ».

Pour approfondir les méthodes d’analyse de données qualitatives et quantitatives. Cet ouvrage s’appuie sur de nombreux exemples illustrés dans le site compagnon https://faireparlerlesdonnees. blog/

Vi s u a l i s a t i o n d e d o n n é e s e t i n f o g ra p h i e dy n a m i qu e

Tufte, E. (2001), The Visual Display of Quantitative Information, 2nd edition, Cheshire, CT, Graphics Press.

Ce beau livre explore le pouvoir explicatif de l’image et donne de nombreux exemples d’une époque où les graphismes étaient manuels. C’est une source d’inspiration pour l’usage des moyens contemporains.

357

CHAPITRE 20. La méta-analyse Christophe Fournier

Résumé L’objectif de ce chapitre est de présenter la technique de généralisation empirique des résultats qu’est la méta-analyse. Si le processus de mise en œuvre de cette méthode est abordé, l’essentiel des propos porte sur les conditions d’utilisation des résultats, les apports et les limites de la méta-analyse pour un travail de recherche, notamment la réalisation d’une thèse de DBA. Mots-clés : méta-analyse, généralisation empirique de résultats, réplication, variables modératrices, universalité.

Les méthodes de recherche du DBA

358

La méta-analyse

« La Science a besoin de réplications, or les rédacteurs en chef de revues n’aiment pas les réplications. » Pr Larry Chonko (février 2006, Baylor University)

INTRODUCTION La citation en exergue est la traduction d’une discussion, que j’ai eue avec Larry Chonko, professeur, en 2006, à Baylor University, aujourd’hui en poste à l’Université du Texas à Arlington, titulaire de la chaire The Thomas McMahon. Le Professeur Chonko, en plus d’être un chercheur extrêmement prolifique, avait exercé les fonctions de rédacteur en chef de la revue de référence dans le domaine du management de la force de vente, à savoir The Journal of Personal Selling & Sales Mangement. Ce constat est corroboré par l’appel à contributions du Journal of Business Research qui prévoit pour 2019 un numéro exclusivement consacré à cette question de la réplication de recherches, le titre de ce numéro spécial étant Corroborating Empirical Evidence from Published Marketing Research1. L’introduction à cet appel est ainsi formulée “Journals favor ‘originality’ over corroboration, which fosters confidence, or a lack thereof, in previous evidence” (Nosek, Spies & Motyl, 2012). Dès les années 2000, les méta-analyses se sont multipliées notamment dans le domaine du management et des sciences de gestion. Depuis, le nombre de publications prenant appui sur les résultats d’une méta-analyse ne cesse de progresser, ce qui est logique compte tenu de la nature même de cette méthode, destinée à synthétiser et généraliser des résultats empiriques de recherche. L’objectif de cet article n’est pas de former le lecteur à la réalisation d’une méta-analyse à proprement parler, mais de mettre en lumière cette approche encore assez méconnue des chercheurs en sciences sociales. Ainsi, les chercheursmanagers de DBA pourront prendre appui sur les résultats d’une méta-analyse dans le cadre de leur revue de littérature, pour étayer et justifier une hypothèse, et seront en mesure, à l’issue 1. Référence du numéro spécial de Journal of Business Research, https://www.journals.elsevier.com/journal-of-business-research/call-for-papers/corroborating-empirical-evidence-from-published-marketing

359

A n a l y s e r l e s d o n n é e s d u t e r ra i n

du travail de recherche, de constater en quoi leurs résultats peuvent alimenter, enrichir voire susciter d’autres recherches via une méta-analyse. Dans ce chapitre nous allons positionner la méta-analyse par rapport aux autres méthodes de généralisation empiriques des résultats avant de décrire la procédure proprement dite de cette approche. Nous verrons ensuite la question des études non publiées et de leur impact possible sur la fiabilité des résultats avant de discuter des apports de cette méthode.

1. LA MÉTA-ANALYSE ET LES DIFFÉRENTES MÉTHODES DE GÉNÉRALISATION DES RÉSULTATS

360

La méta-analyse est une des techniques de généralisation empirique de résultats de recherche. D’autres méthodes existent, à savoir, la revue classique de littérature, l’analyse de contenu ou encore, l’exploration statistique de bases de données. Pour des discussions approfondies et des exemples sur ces thématiques, il est possible de se référer au numéro spécial de la revue Marketing Science (1995), « Special issue on empirical generalization in marketing » (Bass & Wind, 1995). Au sens strict, une méta-analyse est une « analyse des analyses » (Wolf, 1986). Pour Farley, Lehmann et Sawyer (1995, p. G37), c’est une « alternative rigoureuse à l’état de l’art narratif qui caractérise les tentatives menées pour comprendre l’abondante littérature de recherche ». Enfin pour Bass (1995, p. G7), cette approche vise à « mettre en évidence la structure qui se répète par-delà différentes circonstances et qui peut être décrite d’une manière simple par des méthodes mathématiques ou graphiques ». On se trouve donc clairement dans des recherches mobilisant des méthodes quantitatives. Pour simplifier, une méta-analyse permet de synthétiser les résultats obtenus dans le cadre de différentes études (ou encore, analyse) et ainsi de pouvoir généraliser ce résultat au travers d’une méthode rigoureuse permettant d’être certain du résultat final obtenu (la méta-analyse). Dans le cadre de leurs recherches, les scientifiques vont mener une étude en respectant une certaine démarche scientifique aboutissant à un résultat, c’est « l’analyse ». Pour être certain

La méta-analyse

que le résultat obtenu ne soit pas lié à la nature de l’échantillon mobilisé, à des circonstances quelconques, ces études devraient idéalement être multipliées, les résultats comparés les uns par rapport aux autres, en menant une analyse de ces analyses : la méta-analyse. Les conclusions d’une méta-analyse permettent de connaître, avec une quasi-certitude, la force d’un résultat. Dans le domaine du management, très souvent les études portent sur des hypothèses mettant aux prises une relation supposée entre deux concepts ou variables, fréquemment mesurés de façon quantitative. La méta-analyse va permettre de valider l’existence de cette relation et de quantifier l’intensité d’une relation, au travers de la production d’un intervalle de confiance. Un exemple est proposé dans le tableau 1. Dans le cadre de la réalisation d’une thèse ou d’une recherche, la méta-analyse est un outil précieux pour synthétiser les résultats d’une littérature de plus en plus abondante. En effet, au fur et à mesure du développement de travaux publiés en sciences de gestion, il devient de plus en plus complexe et laborieux de développer une vision globale des résultats publiés. S’appuyer sur ceux d’une méta-analyse est ainsi un gain de temps conséquent en accédant à un résultat global et fiable.

Nombre d’études

Taille cumulée de l’échantillon

Coefficient Corrélation de r observé

Coefficient Corrélation de r corrigé

Intervalle de confiance de r observé (95 %)

Intervalle de confiance de r corrigé (95 %)

Tableau 1. Résultats de la méta-analyse sur la relation « perception des rôles – satisfaction » (traduit de Brown et Peterson, 1993)

Ambiguïté de rôle – satisfaction

15

2431

-.36

-.45

-.62