Resumã© Ouvrage Alain Thietart Methodologie de Recherche [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Méthodologie Le management est un domaine de recherche de grande ampleur, il peut se définir comme la manière de conduire, diriger, structurer et développer une organisation. Il touche les aspects organisationnel et décisionnel qui sous-tendent et il conditionne le succès et le bon fonctionnement de bon nombre d’entreprises et organisations. •

I.

Le mangement Offre au chercheur un domaine inépuisable de questions: thème : Quoi étudier ? (Caractéristiques d’une Entreprise innovante), finalité (Décrire une situation d’apprentissage organisationnel), démarche adoptée : comment procéder ? (Construire une théorie nouvelle), finalité : pourquoi et dans quel but ? (Décrire une situation d’apprentissage organisationnel),

Fondements épistémologiques de la recherche :

L’épistémologie a pour objet l’étude des sciences, elle s’interroge sur ce qu’est la science en discutant de la nature, de la méthode et de la valeur de la connaissance. La réflexion épistémologique s’impose à tout chercheur soucieux d’effectuer une recherche sérieuse car elle permet d’asseoir la validité et la légitimité d’une recherche. Tout travail de recherche repose, en effet, sur une certaine vision du monde, utilise une méthode, propose des résultats visant à prédire, prescrire, comprendre, construire ou expliquer. La réflexion épistémologique est donc consubstantielle à toute recherche qui s’opère. Les trois questions du chercheur :

o Quelle est la nature de la connaissance produite? : Il s’agit de s’interroger sur la vision du monde social qu’à le chercheur, sur la nature de la réalité que le chercheur pense pouvoir appréhender. o Comment la connaissance scientifique est – elle engendrée? : Il s’agit de s’interroger sur le chemin de la connaissance empruntée. o Quels sont la valeur et le statut de cette connaissance? : On s’interrogera alors sur les critères qui permettront de valider la connaissance produite. Pour répondre à ces questions, il faut s’inspirer des réponses fournies par trois grands paradigmes épistémologiques (M.LOUITRI : pour faire un choix de recherche, il faut se situer entre ses trois paradigmes) : 

Paradigme positiviste : est largement présenté comme le paradigme dominant les sciences de l’organisation. Positivistes: La réalité existe en soi dont la vérité a une essence propre, le chercheur peut donc chercher à connaître cette réalité extérieure à lui. Il y a une indépendance entre l’objet (la réalité) et le sujet qui l’observe ou l’expérimente. Le monde social ou matériel est ainsi extérieur à la cognition individuelle comme le souligne Burrel et Morgan (1979) « Que nous les nommions ou non, que nous les percevions ou non, les structures tangibles et relativement immuables de ce monde existent en tant qu’entités empiriques ». 1

-

Principe d’objectivité: Principe selon lequel l’observation de l’objet extérieur par un sujet ne doit pas modifier la nature de cet objet. « La connaissance au sens objectif est une connaissance sans connaisseur, c’est une connaissance sans sujet connaissant » Popper (1991). M.LOUITRI : le positiviste est le meilleur paradigme pour le chercheur car il est considéré comme un observateur puisque la distance est maximale c’est à dire que nous sommes dans une phase de description pure de la réalité mais ce paradigme a aussi beaucoup de limites.

Complexité

L’application du paradigme positiviste est de décrire la réalité c'est-à-dire la continuité de la connaissance de la réalité. 

Interprétativiste :

défendant la particularité des sciences humaines en général et des

sciences de l’organisation en particulier, s’oppose traditionnellement au positivisme. 

Constructivisme : tend aujourd’hui à étendre l’influence de sa conception

au sein de la

communauté des chercheurs en sciences de l’organisation. M.LOUITRI : on considère l’organisation comme une ethnie et donc on se met à l’intérieure de cette ethnie. On est dans un laboratoire (un laboratoire veut dire qu’il faut agir). On crée de la connaissance.

+ 

Interprétativistes et constructivistes:

La réalité (Objet) est dépendante de

l’observateur (Sujet). Elle est appréhendée par l’action du Sujet qui l’expérimente. « Ce qui est réel pour un moine Tibétain peut ne pas être ‘réel’ pour un homme d’affaires Américain. La ‘connaissance’ du criminel diffère de celle du criminologue. Il s’ensuit que des regroupements spécifiques de ‘réalité’ et de ‘connaissance’ appartiennent à des contextes sociaux spécifiques » Berger et Luckmann (1996). La réalité sociale est construite à partir des interactions des acteurs dans des contextes particuliers ; Les processus établissant la réalité ; Le cas des prophéties auto-réalisatrices de Watzlawick, qui démonte la chaine cause effet (déterminisme). Phénomène, interprétation, construction, réalité (objectif/ sujet) et connaissance. Section 2 : Le chemin de la connaissance Il s’agit de : 

Mettre l’accent sur le processus ou la démarche qu’emprunte un chercheur pour produire une connaissance.



Répondre aux questions en faisant appel aux trois paradigmes épistémologiques.

Pour les positivistes  Le chemin de la connaissance passe par l’appréhension des lois qui régissent la réalité.  La vision déterministe de la réalité fait pencher la science vers la recherche d’explication, vers des réponses en termes de « pour quelles causes ». 2

 La relation cause à effet doit intégrer d’autres causalités à savoir les causalités multiples et circulaires. L’itinéraire (Chemin) de la connaissance dans le paradigme positiviste reste largement guidé par l’idée que la réalité connaissable a un sens en elle-même et que ce sens ne dépend pas nécessairement des préférences personnelles des observateurs qui s’efforcent de l’enregistrer sous formes de détermination. Aucune distinction ou opposition n’est admise entre comprendre et expliquer. Pour les interprétativistes  Le processus de création de connaissance passe par la compréhension du sens que les acteurs donnent à la réalité.  La démarche doit prendre en compte les intentions, les motivations, les attentes, les raisons, les croyances des acteurs qui portent moins sur les faits que sur les pratiques. (Pourtois et Desmet 1988)  Interpréter un phénomène c’est comprendre et expliquer subjectivement une réalité. Le statut privilégié donné à la compréhension se fonde sur la notion de Verstehen qui recouvre deux niveaux d’appréhension qui fondent le processus de création de la connaissance :

 Le processus par lequel les individus sont amenés à interpréter et à comprendre leur propre monde.  C’est le processus par lequel le chercheur interprète les significations subjectives qui fondent le comportement des individus qu’il étudie. (Lee 1991). Pour les constructivistes  La démarche de compréhension participe à la construction de la réalité des acteurs étudiés.  Le réel est construit par l’acte de connaître plutôt que donné par la perception objective du monde (Le Moigne 1994) On peut dire alors que : Le chemin de la connaissance n’existe pas à priori, il se construit en marchant. Le processus de construction de la connaissance est nécessairement concerné par l’intentionnalité ou la finalité du sujet connaissant. (Piaget 1970). Section 3 : les critères de validité de la connaissance Il s’agit de : 

Évaluer le degré de fiabilité de la connaissance grâce à un certain nombre de critères.



De positionner ces critères dans les trois paradigmes épistémologiques.

3

Pour les positivistes  On peut distinguer clairement les connaissances scientifiques des connaissances non scientifiques  L’établissement des critères correspond à une volonté d’uniformisation (standardisation) visant à l’unicité (originalité) des sciences.  Il y a trois critères à retenir : la vérifiabilité, la confirmabilité & la réfutabilité 1. la vérifiabilité : Selon ce principe, une proposition peut être soit analytique, soit synthétique, soit vraie en vertu de la définition de ses propres termes, soit vraie, si c’est bien le cas, en vertu d’une expérience pratique; ce principe conclut alors qu’une proposition synthétique n’a de sens que si et seulement si elle est susceptible d’être vérifiée empiriquement. 2. La confirmabilité : Elle remet en cause le caractère certain de la vérité, elle repose sur l’idée que l’on ne peut pas dire qu’une proposition est vrai universellement mais seulement qu’elle est probable. On ne peut jamais s’assurer cas par cas que, dans toutes les circonstances où elle s’applique, elle est vraie. 3. La réfutabilité: Selon Ce Principe on ne peut jamais affirmer qu’une théorie est vraie mais on peut en revanche affirmer qu’une théorie n’est pas vraie. Une théorie qui n’est pas réfutée est une théorie provisoirement corroborée (Confirmée), elle est scientifique si elle admet que certains résultats peuvent l’infirmer.

Pour respecter ces critères, le positivisme ne reconnaît comme scientifique qu’une méthode reposant sur le respect de la logique formelle (la logique déductive). Lois et théories : Raisonnement inductif (Fais établis par l’observation)/raisonnement déductif (Prédiction et explication). Pour les interprétativistes :  Il n’y a pas des critères explicites de distinction entre science et non science.  Les critères de validité sont d’une part le caractère idiographique des recherches et d’autre part les capacités d’empathie que développe le chercheur.  Une connaissance est valide que si et seulement si, elle remplit les deux conditions citées làdessus. Denzin propose d’opérationnaliser ces deux critères à travers les questions suivantes : Est-ce que l’interprétation développée par le chercheur est révélatrice de l’expérience vécue? Est-ce qu’elle est enracinée historiquement et temporellement? L’interprétation proposée par le chercheur est-elle cohérente? L’interprétation produit-elle une compréhension de la réalité sociale étudiée? Pour les constructivistes :  Il y a une pluralité des critères de validité de la connaissance.  Une discussion entre les différentes communautés de savoir et une approche de la connaissance en termes de validité éthique demeurent importantes. 4

 Les critères de validité sont le critère d’adéquation d’une part et le critère d’enseignabilité d’autre part. L’adéquation : Selon Ce principe, une connaissance est validée dés lors qu’elle convient à une situation donnée. L’enseignabilité : Une connaissance est valide lorsqu’elle est reproductible, intelligible et constructible. Section 4: Pour un aménagement des paradigmes  Le chercheur doit –il faire un choix de principe entre les paradigmes ? Est ce qu’il dispose d’un degré de liberté lui permettant d’aménager son positionnement? La coexistence des 3 paradigmes dans les travaux en sciences de l’organisation peut être le signe d’une immaturité de cette science soit une science en crise ou une opportunité pour les chercheurs. Le signe d’une immaturité de cette science: « La notion du paradigme peut aboutir à une position de dénonciation. Toutes les sciences qui ne procèdent pas d’un paradigme ne sont que prétention idéologique. Ce qui d’ailleurs n’est pas très éloigné de la position de Kuhn, à ceci près qu’il ne dénonce pas mais s’apitoie sur les malheureuses sciences humaines pré paradigmatiques ». (Stengers, 1993). Des périodes de révolutions scientifiques (Kuhn, 1983)/ Une opportunité pour le chercheur permettant un enrichissement d’une telle pluralité, permettant « de disposer d’une variété d’approches qui chacune à leur manière, sont en mesure de rendre compte de certains aspects des réalités complexes auxquelles s’intéressent les sciences de l’organisation ». (Koening, 1993) ; La réflexion épistémologique doit conduire le chercheur à :  Comprendre l’ensemble des présupposés sur lesquels sa recherche s’appuie;  Expliciter les implications que ses choix entrainent afin de parvenir à une plus grande maitrise de sa recherche.

II.

Construction de l’objet de la recherche : 

L’objet d’une recherche consiste en la question générale que la recherche s’efforce de satisfaire, l’objectif que l’on cherche à atteindre. L’objet consiste en une question large et générale et se distingue des : Questions de recherches; Objets théoriques, méthodologiques, et empiriques.

SectIon1 : Qu’est ce que l’objet de la recherche ? Un objet consiste en l’élaboration d’une question ou problématique au travers de laquelle le chercheur construira ou découvrira la réalité. Il s’agit de produire en question liant, articulant ou interrogeant des objets théoriques (la notion de représentation collective, le changement, l’apprentissage, la connaissance collective..) méthodologiques(modèles explicatifs ou descriptifs de 5

phénomènes (processus d’apprentissage dans les groupes)) et/ou des objets empiriques (exemple d’une décision prises lors d’un conseil d’administration).

1. Traduisant le projet de connaissance du chercheur : L’objet de la recherche traduit et cristallise le projet de connaissance du chercheur. Or ce projet de connaissance revêt des significations différentes en fonction des postulats épistémologiques du chercheur.

2. Des objets différents pour des connaissances différentes: 

Paradigme de la connaissance et objet:

La nature de la connaissance et l’objet de la recherche dépendent étroitement de la vision du chercheur. L’objet a une origine, un rôle et une position selon chaque processus de recherche (paradigmes) dont ces perspectives servent de repères pour l’identification des présupposés et non pas une étape de raisonnement. L’objet dans une perspective positiviste : Pour un chercheur positiviste, l’objet de la recherche consiste principalement à interroger des faits afin d’en découvrir la structure sous-jacente. 

Hypothèse ontologique : La vérité a une essence propre.



Hypothèse déterministe : Des causes réelles existent, La causalité est la loi de la nature, « Qui cherche à connaitre la réalité tentera donc de découvrir les raisons simples par les quelles les faits observés sont reliés aux causes qui les expliques »;

Le chercheur élaborera donc son objet de recherche à partir de l’Identification des insuffisances dans les théories existantes pour améliorer les connaissances sous jacente de la réalité. 

L’objet dans une perspective intérpretativiste : Pour un chercheur interprétatif, il s’agit de comprendre un phénomène de l’intérieur pour tenter d’appréhender les significations que les gens attachent à la réalité, leurs motivations et intentions. Ex: quel sens les individus donnent ils au changement? Que font-ils ?comment réagissent-ils?



L’objet dans une perspective constructiviste : Pour un chercheur constructiviste, il s’agit de construire un objet de recherche qui consiste à élaborer un projet de connaissance que la recherche s’efforcera de satisfaire. (« L’intelligence qui organise le monde en s’organisant elle-même »).

SectIon2 : Les voies de construction de l’objet . 1. Des concepts, des théories, des modèles théoriques: Une lecture critique des travaux de recherche peut faire émerger des contradictions, des lacunes des insuffisances conceptuelles au sein du corpus théorique. Exemples: Proposer l’insuffisance 6

des modèles de l’efficacité organisationnelle(Steers), Utiliser une théorie pour étudier d’autres phénomènes que ceux auxquels elle a été jusqu’ici appliquée (TRACY), tester certains principes théoriques déjà élaborés qui n’ont pas étés mis à l’épreuve empirique de façon convaincante. 2. Méthodologie: Deux possibilités s’offre au chercheur pour construire un objet de recherche dans une optique méthodologique : En premier lieu, l’objet peut consister à Interroger des outils méthodologiques existants, en identifient les limites et tenter d’en proposer de nouveaux. En deuxième lieu, l’objet consiste à envisager une problématique théorique déjà abordée dans d’autres recherches par le biais d’outils nouveaux ou d’une nouvelle approche méthodologique. 3. Un problème concret: Les difficultés des entreprises, les questions des managers sont souvent des points de départ privilégiés pour asseoir un objet de recherche en sciences de gestion. Une problématique construite sur cette base permet d’avoir un ancrage managérial intéressant. Il faudra veiller tôt ou tard à trouver également une perspective théorique à la démarche de recherche pour asseoir véritablement l’objet de la recherche.

4. Un terrain : Certains chercheurs commencent leurs investigations avec un terrain en poche, dans cas de Conventions de recherche avec des entreprises et dans le cas de recherches très inductives. L’entreprise et le chercheur se sont entendus sur un sujet de recherche. 5. Un domaine d’intérêt : Certains chercheurs vont s’intéresser à un thème particulier, Cependant le thème qui intéresse le chercheur devra donc être raffiné, précisé et soumis à l’épreuve de théories, méthodologies, intérêts managériaux, ou opportunités du terrain. 2) De la difficulté de construire son objet: Il n’existe pas de recettes pour définir un « bon problème » de recherche, ni de voies « royales » pour y parvenir. L’appartenance des chercheurs à des paradigmes épistémologiques différents introduit des définitions différentes d’un « bon problème » de recherche. 2.1) savoir délimiter son objet de recherche: Le chercheur doit s’efforcer de se donner un objet précis et concis, -qualité et Clair: l’objet de la recherche est le nœud du projet du chercheur, donc sa formulation doit être suffisamment claire pour remplir cette fonction. -Restreint: l’objectif est de dire beaucoup sur un petit problème, cela évite de dire peu sur beaucoup. L’objet de la recherche doit être réaliste et faisable. Un objet relativement clair et restreint évite l’approche trop « touristique » évoquée par Silverman (1993).

7

Le danger de cette approche est de surévaluer les différences culturelles et d’oublier les points communs et similarités entre la culture étudiée et celle à laquelle on appartient. 

À l’inverse:

Il faut éviter un objet trop restreint: le chercheur risque de perdre l’intelligence du contexte dans lequel le phénomène étudié prend place. C’est la notion « d’opportunisme méthodique » évoqué par Girin (1989: 1-2). L’une des difficultés majeures à laquelle sera confronté le chercheur c’est de trouver l’équilibre entre un objet trop large et un objet trop restreint. 2) Connaître les présupposés que peut cacher son objet: L’objet doit posséder des qualités de pertinence, Quivy et Campenhoudt (1988) désignent par là le registre (explicatif, normatif, moral, philosophique…) dont relève l’objet de recherche. Il doit porter une intention compréhensive et/ou explicative qui sont les objectifs de science et non moralisatrice ou philosophique. Un objet de recherche est la traduction d’un projet de connaissance qui doit être explicatif, prédictif et compréhensif. Construire un objet de recherche est un travail long, difficile et exigeant. Mais avant tout trouver ou créer son propre objet de recherche, se donner un projet, s’engager, ce qui rend sans doute ce processus à la fois si angoissant et si passionnant. L’objet ainsi construit pourra recouvrir différentes questions: « qu’est- ce que? », « comment? », « pourquoi? »…, ils peuvent recouvrir des réalités très différentes en fonction notamment de l’approche ou de la sensibilité épistémologique du chercheur.

III.

Explorer et tester :

Définition de l’objet

Comment je cherche ?

Donnée (Recueil et traitement)

L’objet de ce chapitre est de répondre à la question « Comment je cherche ? ». On est face à deux processus de construction des connaissances : l’exploration (la démarche par laquelle le chercheur à pour objectif la proposition de résultats théoriques novateurs) et le test (la mise à l’épreuve de la réalité d’un objet théorique). Section I : LES RAISONNEMENTS TYPES DU TEST ET DE L’EXPLORATION 1. Des modes de raisonnement distincts … 1.1. La déduction. La déduction est donc un raisonnement qui fonde la démarche hypothético-déductive. Cette démarche consiste à élaborer une ou plusieurs hypothèses et à les confronter en suite à une réalité. Le but est alors de porter un jugement sur la pertinence de l’hypothèse initialement formulée. (Déductif va du général au particulier).

8

1.2 L’induction et l’abduction: L’induction est « une inférence (généralisation) conjecturale (aléatoire) qui conclut : 1) de la régularité observée de certains faits à leur constance ; 2) de la constatation de certains faits à l’existence d’autres faits non donnés mais qui ont été liés régulièrement aux premiers dans l’expérience antérieure » (Morfaux, 1980) (il s’agit d’un raisonnement par lequel on passe du particulier au général, des faits à la cause et des conséquences aux principes). « L’abduction *…+ permet d’échapper à la perception chaotique que l’on a du monde réel par un essai de conjecture (présupposition) sur les relations qu’entretiennent effectivement les choses *…+. L’abduction consiste à tirer de l’observation des conjectures qu’il convient ensuite de tester et de discuter » (Koenig, 1993). 1.3. Une complémentarité scientifique :

2- …Pour des objets théoriques identiques : 2.1- Hypothèses : Une hypothèse est une conjecture sur l’apparition ou l’explication d’un événement. Elle est une Présomption (indice) de comportement ou de relation entre des objets étudiés. On pose par l’hypothèse que tel phénomène est l’antécédent, le conséquent ou le concomitant invariables d’autres phénomènes donnés. En fait, ces objets sont une mise en relation de concepts théoriques. Propriétés: •

La formulation de l’hypothèse doit être exprimée sous forme observable. Il ne faut pas qu’elles soient des relations fondées sur des préjugés ou des stéréotypes de la société.



Aucune expression idéologique ne peut être considérée comme une hypothèse.

9

2.2. Modèles :

Définition : « on dit qu’un système A est un modèle du système B si l’étude de A est utile à la compréhension de B sans qu’il y ait le lien causal direct ou indirect entre A et B » (Kaplan, 1964). Un modèle est une représentation simplifiée d’un processus ou d’un système, destinée à expliquer et/ou à simuler la situation réelle étudiée. 2.3- Théorie La théorie est un ensemble de connaissances formant un système sur un sujet ou dans un domaine déterminé. (Morfaux, 1980 : 366). Zaltman, Pinson et Angelmar (1973) recensent dix définitions qui ont un point commun : les théories sont un ensemble de propositions reliées les unes aux autres. Une théorie est un système composé d’un « Noyau dur » et d’une « ceinture protectrice ». Le noyau dur comprend des hypothèses de base qui sous-tendent la théorie et ne doivent pas être, par postulat, ni rejetées, ni modifiées. Il est entouré par la ceinture protectrice qui contient des hypothèses auxiliaires explicites complétant le noyau dur des descriptions des conditions initiales et des énoncés d’observation. En management, le chercheur élabore ou teste des théories qui sont généralement qualifiées substantives dont cette dernière est un développement théorique en relation directe avec un domaine empirique alors que la théorie formelle a un caractère plus universel puisqu’elle concerne un domaine conceptuel. Section II : LES VOIES DE L’EXPLORATION L’EXPLORATION : Prédominance des méthodes empiriques pour explorer et élaborer de nouveaux construits théoriques ainsi que pour les tester. Pour l’exploration, les méthodes qualitatives sont plus courantes car plus efficaces. Sachant que l’exploration ne limite pas les choix épistémologiques du chercheur. 1. L’exploration théorique : consiste à opérer un lien entre deux champs théoriques/ deux disciplines (au minimum) jusqu’alors non liés dans des travaux antérieurs. Le chercheur va sélectionner et retenir un certain nombre d’objets théoriques dans l’un et l’autre des champs ou disciplines étudiés. L’exploration théorique nécessite de procéder de manière inductive. Cette démarche peut conduire le chercheur à procéder par analogie (correspondance) entre plusieurs domaines théoriques. Cela dit, l’exploration théorique doit rester pertinente pour le domaine dans lequel travaille le chercheur. 2. L’exploration empirique : Cette voie consiste à explorer un phénomène en faisant table rase des connaissances antérieures sur le sujet. Le chercheur travaille alors sans à priori. Cette voie permet théoriquement d’élaborer du « Nouveau » indépendamment des connaissances antérieures. La

10

démarche logique propre à l’exploration empirique est l’induction pure, laquelle favorise, en théorie, les inférences (ressemblances) de nature nouvelle. La démarche de l’exploration empirique : Mode de raisonnement inductif recherche « inversé » par rapport aux recherches traditionnelles en management d’un cadre théorique initial qui peut guider l’exploration et la conditionner.

Mode de Absence

3. L’exploration hybride : consiste à procéder par allers-retours entre des observations et des connaissances théoriques tout au long de la recherche. Le chercheur a initialement mobilisé des concepts et intégré la littérature concernant son objet de recherche. Il va s’appuyer sur des connaissances pour donner du sens aux observations empiriques. La démarche d’exploration hybride : Voie d’enrichissement et d’approfondissement des connaissances antérieures/Koenig (1993): Tendance vers un « réalisme fort » de la théorie. Glaser et Strauss (1967) : Production de faits théoriques fortement « enracinés » dans les faits considérés. Passeron (1991) : contextes « parents » mise à l’épreuve d’un objet théorique produit sur d’autres contextes. Section III : LA VOIE DU TEST Le test est un processus par lequel un objet théorique est confronté à la réalité. Il peut être appliqué à une hypothèse, un modèle et des théories concurrentes.

1) Le test d’une hypothèse : Lorsqu’une hypothèse est soumise à un test, elle est confrontée à une réalité qui sert de référent: Il est donc nécessaire de présenter au préalable de présenter comment le chercheur détermine l’acceptabilité ou non d’une hypothèse par rapport à la réalité? En suite, la démarche de test d’une hypothèse (hypothético- déductive) est exposée.

1.1- Acceptabilité d’une hypothèse : Le chercheur n’invente pas, il ne fait que montrer. Toute fois l’interprétation du résultat du test (vrai ou faux) ne doit pas être faite dans l’absolu mais par rapport au cadre conceptuel et aux conditions d’expérimentation. Un résultat favorable à l’issue de confrontation avec la réalité constitue une corroboration (confirmation) plus au moins probante temporairement. Critères de corroboration d’une hypothèse

11

Critère1: Quantité



Résultats favorables =

confirmation de la théorie

Critère 2: Diversité •Changer le type de test= confirmation de l’hypothèse

Critère 3: Précision des faits •Procédures d’observation et les mesures

Critère 4: Simplicité •Popper: la plus simple de deux hypothèses est celle dont il est plus facile d’établir la fausseté (Popper;1973)

Les propriétés dune hypothèse falsifiable : la première : Pour falsifiable, une hypothèse doit revêtir un caractère de généralité. La deuxième : une hypothèse ne peut être falsifiée que si elle accepte des énoncés contraires qui sont théoriquement susceptible d’être vérifiés (selon POPPER une hypothèse ne peut être tenue pour vraie (provisoirement) tant que tous ses contraires sont faux). 1.2- La démarche hypothético- déductive : Lorsqu’un chercheur entreprend une démarche TEST, il utilise cette démarche. La démarche se décompose en quatre grandes étapes: 1- déterminer les concepts nécessaire, mettre en avant les hypothèses, modèles et théories liés au sujet; 2- insuffisance des outils mobilisés; 3- Déterminer de nouveaux objets théoriques; 4- enfin tester pour réfuter ou non ces objets théoriques.

12

2) Le test d’un modèle : Le modèle est la concrétisation d’un système d’hypothèses logiquement articulées entre elles. Deux approches possibles: Approche 1: Test d’un modèle en étudiant les hypothèses prises individuellement Cette approche consiste à décomposer les relations au sein du modèle en hypothèses simples et à tester l’ensemble de ces hypothèses les une après les autres. Trois cas de figures: 1) Aucune des hypothèses n’est infirmée (rejeté); (acceptation du modèle, tout en moins temporairement) 2) Plusieurs hypothèses sont infirmées; (acceptation en partie du modèle, tout en moins temporairement) 3) Toutes les hypothèses sont infirmées (Rejet pur et simple du modèle).

Approche 2: Test d’un modèle dans sa globalité La première approche néglige les synergies et les interactions donc il s’avère nécessaire d’étudier le modèle dans sa globalité. Le principe de réfutabilité s’applique pour ce modèle. Le test d’un modèle dépend de sa représentativité. 3) Le test d’objet théorique concurrents : Le chercheur peut se retrouver dans un cas de littérature lui propose plusieurs Modèles ou théories en concurrence. Evaluation des théories et choix entre théories (modèles), il est au cœur de débat non résolu entre rationalisme et relativisme. Popper (1973): choix de la théorie qui se défend le mieux (représentativité de la réalité). Dodd (1968): liste hiérarchisée de 24 critères d’évaluation (4 catégories: forme, sémantiques, méthodologiques, épistémologiques). Le chercheur peut alors évaluer la qualité de chacun des modèles sur chacun de ses critères afin de comparer les résultats obtenus.

IV.

Quelles Approches avec quelles données ?

Dans son itinéraire (parcours) de recherche, le chercheur se dispose à opter pour un choix en matière de données et d’approches adéquates avec sa question de recherche. Deux réalités : Il y a la finalité poursuivie et Il y a l’existant: donnée et approche. Le chercheur se trouve donc dans une situation tridimensionnelle : Finalité-Approche-Donnée. L’engagement du chercheur à long terme et Le choix opéré n’est pas réversible engendrent un processus de recherche très couteux. Section1 : le choix des données: primaires / secondaires? 1- qu’est-ce qu’une « donné » ? Les données sont traditionnellement considérées les prémisses (propositions ou hypothèses) des théories. Malgré cette acception, deux propositions se posent: les données précédant les théories et la deuxième donnée découlant de la première. Dans le premier cas 13

Les données existent en dehors des chercheurs puisqu’ils les « trouvent » et les « rassemblent » afin de leur infliger des traitements. On peut dire alors que les données sont à la fois des réceptacles et des sources de théorisation. Une donnée est un postulat qui présente l’information de telle façon qu’elle prend implicitement un statut de vérité.

1. 1- la donnée comme représentation: Les donnés sont des représentations acceptées d’une réalité que l’on ne peut empiriquement (sensations), ni théoriquement (abstraction), embrasser parce que la réalité n’est pas réductible à une partie moindre qu’on peut l’exprimer. Une donnée peut être définie comme une représentation qui permet de maintenir une correspondance bidirectionnelle entre une réalité empirique et un système symbolique » Stablin1993.rvab Trois modalités de constitution des données : instrumentation (Phénomènes observables), attitudes (Phénomènes non observables) et la troisième modalité est la constitution des données.

1. 2- le positionnement épistémologique du chercheur à l’égard de la donnée La donnée est en même temps une « découverte » (positivisme) et une « invention » (création) (constructivisme). La dichotomie entre découverte et invention risque de biaiser la construction de la théorie. En effet, La considération objective des découvertes (seulement) élude la partie créative de recherche. Le seul côté subjectif risque de bloquer la progression de recherche. Le processus de construction de la recherche s’inscrit dans un « aller-retour » incessant entre la théorie et ses fondements empirique. A chaque fois le chercheur doit poser la question : Ce qui constitue, ou ne constitue pas une donnée? 1.3. La subjectivité de la donnée due à la réactivité de sa source La donnée peut être produite au travers d’une relation observateur/observé. La donnée soit de nature primaire ou secondaire ne constitue pas un facteur discriminant. La question déterminante est plutôt la suivante: la donnée est-elle affectée par la réactivité de sa source à l’égard du chercheur? Il faut distinguer entre les données obtenues de façon « ouverte » et les données collectées de façon «dissimulée». 2.

L’utilisation des données primaires et secondaire : 2.1 Quand les privilégier?

La théorisation qui est issue de données secondaires a-t-elle un statut scientifique moindre de celle qui est « ancrée » dans le terrain par le chercheur lui-même? L’utilisation d’un ouvrage comme une donnée secondaire constitue une pierre supplémentaire à une œuvre beaucoup plus large et progressive. On ne peut conseiller à un jeune chercheur de s’engager dans ce type de recherche, basée sur des données 14

secondaires, sans avoir acquis sur le terrain une maturité importante vis-à-vis des données et de leurs constitutions. Le choix doit être ramené à un ensemble de dimensions: Statut ontologique; Validité interne et externe de la recherche; Accessibilité; Flexibilité. Quelques idées reçues sur les données primaires: Le statut ontologique; tendance à accorder un statut de vérité plus grande aux recherches fondées sur des données primaires. Validité interne supérieure. L’excès de confiance. Validité externe faible. Degré d’accessibilité très faible. Degré de flexibilité très fort. Ceci engendre un risque de biaiser de la recherche d’un chercheur.

Idées reçues

Implications directes et indirectes

Quant à leur statut Les données primaires ont un statut de vérités parce Excès de confiance dans les déclarations des acteurs. qu’elles proviennent directement du terrain ontologique. Théories trop intuitives ou tautologiques. Quant à leur impact Les données de première main(ex :entretien) ont une L’excès de confiance dans la validité interne des données primaires pousse à éluder des explications sur la validité interne validité interne immédiate. rivales ou à ignorer des variables intermédiaires.

Quant à leur impact L’utilisation des donnés essentiellement primaires On compense par des données secondaires qui n’ont pas de rapport avec la question de recherche. sur la validité externe diminue la validité externe des résultats. Quant à accessibilité

leur

Les données primaires sont difficilement accessibles.

On privilégie des données secondaires accessibles mais incomplètes. Alors que l’objet de la recherche mériterait le recueil de donnés primaires (heuristique du disponible)

Quant à flexibilité

leur

Les données primaires sont très flexibles.

On est confronté sur terrain par au manque de disponibilité des acteurs Travestissement (camouflage) des données primaires en les détournant de l’objet pour lequel elles ont été recueillies.

Quelques idées sur les données secondaires : Statut de vérité supérieur à la donnée primaire. Parce qu’elles sont formalisées et publiées. Validité interne faible. Une grande accessibilité des données secondaires. Une faible flexibilité des données secondaires. 15

Idées reçues Quant à leur statut Les données secondaires ont un statut de vérité supérieur aux ontologique

données primaires car elles ont été formalisées et publiées.

Implications directes et indirectes On ne s’interroge pas sur la finalité et les conditions du recueil et traitement initiaux. On oublie les limitations que les auteurs avaient attachées aux données qu’ils avaient produites. On reprend les propositions et on leur attribut le statut de vérité

Quant à leur impact sur la validité interne

Le statut ontologique de véracité des L’intégration de données disponibles peut conduire à négliger la données secondaires offre une robustesse des construits de la recherche, le chercheur externalise maîtrise de la validité interne. le risque de validité interne (excès de confiance).

Quant à leur impact sur la validité externe

L’établissement de la validité externe L’établissement de la validité externe peut être biaisé par l’excès de est facilité par la comparaison avec confiance dans les données secondaires. des données secondaires. Le chercheur conclut à une généralisation excessive de ses résultats.

Quant à leur accessibilité

Les données secondaires sont La plus grande accessibilité peut donner au chercheur le sentiment disponibles et facilement accessibles. de complétude, tandis que sa base de données est incomplète.

Quant à leur flexibilité

Les données secondaires sont peu flexibles don plus fiables car moins manipulables.

Croyance naïve : la formalisation des données secondaires ne gage pas de leur pérennité. Les données manquent d’actualisation et subissent un biais de maturation.

2. 2 Les contraintes inhérentes à leur utilisation

Les contraintes de recueil des données : Difficulté de recueil importante des données primaires due au non maîtrise de l’interaction avec le terrain. Les données secondaires limitent l’interaction avec le terrain. Les contraintes d’analyse des données : problème de contrôle des interprétations des données primaires. Le chercheur et en même temps juge et partie dans l’interprétation des données primaires. Au niveau des données secondaires; le chercheur ne peut pas remonter à la source. 2. 3 La complémentarité des données primaires et secondaires

Les données primaires et secondaires sont complémentaires tout au long du processus de la recherche. L’incomplétude des données primaires peut être corrigée par des données secondaires. L’inverse est juste.

16

Section2 : le choix d’une approche La question qui se pose ici est celle de voir quel choix de l’approche faut il mettre en en œuvre pour collecter les donner. Ainsi, nous examinerons tout d’abord ce qui distingue l’approche qualitative de l’approche quantitative, et nous montrerons par la ensuite comment ces deux approches peuvent révéler complémentaires. 1- distinction entre l’approche qualitative et l’approche quantitative D’après Gravitz (1993) il est de tradition en recherche de faire une distinction entre le qualitatif et le quantitatif. Pourtant, cette distinction est à la fois équivoque (DOUBLE) et ambiguë, ce qui conduit Barbet à s’interroger « faut-il encore parler d’approche qualitative et d’approche quantitative? ». Comme la montre Barbet, la distinction est équivoque car elle repose sur une multiplicité de critères et elle est de plus ambiguë car aucun des critères ne permet une distinction absolue entre l’approche qualitative et l’approche quantitative. Nous nous livrerons à présent à un examen critique des différents critères que sont: la nature de la donnée, l’orientation de la recherche et le caractère objectif ou subjectif des résultats obtenus et de la flexibilité de la recherche. 1.1. Distinction selon la nature de la donnés : D’après Miles et Huberman (1991), »les données qualitatives *…+ se présente sous forme de mots plutôt que de chiffres ». Selon Yin (1988/89), « les donnés numériques » apportent de preuves de nature quantitative, tandis que les « données non numériques » fournissent des preuves de nature qualitative. Toutefois, la nature de la donnée ne dicte pas forcément un mode de traitement identique. Le chercheur peut procéder par exemple à un traitement statistique et, par conséquent, quantitatif avec des variables nominales. Ainsi suivant Evrard et Al (1993/35), les données qualitatives correspondent à des variables mesurées sur des échelles nominales et ordinales (c’est-à-dire non métrique), tandis que les données quantitatives sont collectées avec des échelles d’intervalles(ou cardinale fortes ou encore ratio). Ces échelles peuvent être hiérarchisées en fonction de la qualité de leurs mathématiques. Cette hiérarchisation va de l’échelle nominale la plus pauvre d’un point de vu mathématique, l’échelle de proportion, l’élite des échelles de mesure. Les éléments que nous venons d’exposer sur les données qualitatives et sure les données quantitatives montrent bien que la nature de la données ne dicte pas une approche de recherche quantitative ou qualitative. Pour distinguer l’approche quantitative et l’approche qualitative, il nous faut évaluer d’autres critères.

17

1. 2-Distinction selon l’orientation de la recherche La recherche en science de gestion est caractérisée par deux grandes orientations: la construction ou le test d’un objet théorique. S’il s’oriente vers la vérification, le chercheur a une idée claire et établie de ce qu’il recherche. A l’opposé, si le chercheur s’oriente vers une démarche exploratoire, caractéristique de la construction théorique, le chercheur ignore en grande partie la teneur de ce qu’il va mettre à jour (chapitre3). Il est classique de lier l’exploration à une approche qualitative et la vérification à une approche quantitatives (Grabet, 1988). A ce propos, Silverman distingue deux » écoles en science social, l’une orientée sur le test quantitatif d’hypothèses et l’autre tournée vers la génération qualitative d’hypothèses (1993).Il s’agit pourtant encore une fois d’une idée reçue car pour construire ou pour tester, le chercheur peut adopter tout aussi bien une approche quantitative qu’une approche qualitative (cf chapitre3). »il n’y a pas de conflit fondamental entre les buts et les potentialités des méthodes ou des données qualitatives et quantitatives.*…+ Chacune des formes de données est utiles pour la vérification et la généralisation de théorie »(Glaser et Strauss 1967). Il faut cependant souligner que les chercheurs choisissent rarement une approche qualitative avec la seule perspective de tester une théorie. En général, le choix est accompagné également d’une orientation encore plus marquée vers la construction. Cette tendance s’explique par le coût, notamment en temps, d’une approche qualitative qui ne serait destinée qu’à tester une théorie. Imaginons que le test s’avère positif, le chercheur n’aura d’autre choix que de reconduire une autre campagne de recueil et d’analyse. Le rôle de l’approche qualitative n’est pas de produire la généralisation d’une théorie existante. Stake souligne à propos de l’étude de cas qu’il positionne dans l’approche cet approche que tout au plus »par le contre-exemple, l’étude de cas invite à la modification d’une généralisation »(1995).cette modification implique une construction. La limite de l’approche qualitative réside dans le fait qu’elle s’inscrit dans une démarche d’étude d’un contexte particulier. Ces limites de l’approche qualitative en termes de généralisation conduisent à accorder plus de validité externe aux approches qualitatives. A l’opposé, l’approche quantitative offre plus de garantie sur la validité interne des résultats. Les possibilités d’évaluation d’explications rivales du phénomène étudié sont plus grandes que dans l’approche quantitative car le chercheur peut mieux procéder à des recoupements entre les données. L’approche qualitative accroît l’aptitude du chercheur à décrire un système social complexe (Marshall et Rossman, 1989). Le choix d’une approche qualitative et quantitative apparaît donc plus dicté par des critères d’efficience par rapport à l’orientation de la recherche, construire ou tester.

18

1. 3. Distinction selon le caractère objectif ou subjectif des résultats : Il est plus généralement connu que l’approche quantitative offre une plus grande garantie d’objectivité. Dans la comparaison entre les méthodes qualitatives et quantitatives, Grawitz pose de façon presque caricaturale une interrogation fondamentale: »vaut-il mieux trouver des éléments intéressants dont on n’est pas certain, ou être sur que ce que l’on trouve est vrai, même si ce n’est pas très intéressant? (1993).L question suggère que le caractère objectif ou subjectif des résultats constitue une ligne de séparation entre l’approche qualitative et l’approche quantitative. (Tester lois universelle, être objectif : je cherche quelque chose que jr connais déjà)

Sur la subjectivité plusieurs positions sont mises en avant: -En premier lieu, le développement de l’approche qualitative a été caractérisé par la prise en compte de la subjectivité du chercheur. Ce premier repère montre en quoi l’objectivisme et le subjectivisme s’opposent quant à la posture et à l’approche du chercheur vis à vis de l’objet de recherche. Selon Erickson (1986), la caractéristique la plus distinctive de l’enquête qualitative réside dans la mise en exergue de l’interprétation. Cette interprétation ne doit pas être celle du chercheur mais celles des individus qui sont étudié. L’approche qualitative n’exclus pas une posture épistémologique d’objectivité de la recherche par rapport au monde qu’elle étudie. Certains, auteurs promoteurs de l’approche qualitative, Glauser et Strauss(1967) notamment n développant une conception positiviste; de même dans leur ouvrages, Miles et Huberman plaident pour un positivisme aménagé et suggèrent la construction d’une chaîne logique de preuve à des fins d’objectivités de résultats .nous le voyons à travers me repère sur la chaîne de preuve. En définitive, la collecte et l’analyse des données doivent rester cohérentes avec le positionnement épistémologique explicite du chercheur. L’approche qualitative est plus subjective (constructivisme, interpretativisme)

1. 4-Distinction selon la flexibilité de la recherche : Dans le domaine de la recherche sur la gestion et les organisations, il est claire que les évènements inattendus et dignes d’intérêt sont propres à bouleverser n’importe quel programme, et que la vrai question n’est pas celle de du respect du programme mais celle de la manière de saisir intelligemment les possibilités d’observation qu’offrent les circonstances ». (Girin, 1989). Ainsi, avec l’approche qualitative, le chercheur bénéficie en général d’une plus grande flexibilité dans le recueil des données. L’approche quantitative n’offre pas cette souplesse car elle implique généralement un calendrier plus rigide.

2- La stratégie de complémentarité Toute étude quantitative nécessite une préalable étude exploratoire (succès de projet de recherche) (qualitative). Pour Campbell et Fiske (1959): « l’achèvement de construits utiles et hypothétiquement réalistes dans une science passe par l’utilisation de méthodes multiples focalisées

19

sur le diagnostic d’un même construit à partir de points d’observation indépendants, à travers une sorte de triangulation ». Dans un processus d’apprentissage, le fait d’utiliser conjointement le qualitatif et le quantitatif aide le chercheur à instaurer un dialogue différencié entre ce qui est observé (objet de recherche) et les deux façons de le symboliser. D’où la notion de triangulation qui vise l’amélioration à la fois la précision de la mesure et celle de description. Le recours à une approche de séquentialité (Voir page 101)  Le processus de recherche se base nécessairement sur l’articulation entre données, approches et finalités  Le principe de triangulation permet d’adopter une démarche systématique permettant d’évacuer un tel « opportunisme méthodique » imposé par la contrainte temporelle et les difficultés l’accessibilité aux données.  La complémentarité entre les différents types de données et les différentes approches est un moyen efficace au chercheur ambitieux dans sa « contribution à la littérature ». Le recours aux données primaires n’est pas préférable qu’après l’épuisement s donné secondaires

V.

Recherches sur le contenu et recherches sur le processus :

Recherche sur le contenu : Appréhender la nature de l’objet étudié ; à savoir « de quoi » il est composé. Recherche sur le processus : Mettre en évidence le comportement de l’objet étudié dans le temps; à savoir son évolution.

Section 1: Recherches sur le contenu 1. pourquoi mener une recherche sur le contenu? Deux types de recherche sur le contenu différent tant par les méthodes employées que par les types de questions traitées:  Le premier consiste à décrire l’objet de recherche afin de mieux le comprendre.  Le second vise à montrer et à expliquer les liens de causalité existant entre les variables qui composent l’objet que le chercheur étudie. 1.1 En vue d’une description: Objectif : Améliorer la compréhension de l’objet étudié; il s’agit de surmonter la complexité perçue de cet objet.

20

 Cas des problématiques nouvelles pour lesquelles il existe encore peu de recherches théoriques ou de matériaux empiriques.  Ainsi, la compréhension peut permettre une première approche et une meilleure compréhension d’un objet encore peu connu de la communauté scientifique. Donc l’objectif est essentiellement de nature exploratoire. 1.2 En vue d’une explication: A partir de la connaissance fine des éléments composant l’objet de recherche, le chercheur essayera de comprendre les liens causaux entre ces éléments. L’objectif des études sur le contenu explicatives est la mise en évidence de liens de causalité entre les variables composant l’objet de recherche.

2. principales questions relatives à une recherche sur le contenu Les questions, méthodes ainsi que les outils de recherche différente selon que le chercheur mène une recherche sur le contenu soit pour décrire ou expliquer l’objet qu’il étudie. 2.1 Problèmes auxquels le chercheur est confronté

La définition de l’objet dont il veut connaitre la composition. Problème relatif aux modèles théoriques ou empiriques que le chercheur peut mobiliser pour comprendre l’objet qu’il étudie. Problème lié à la définition du niveau d’analyse du chercheur de l’objet étudié, puisque de ce niveau d’analyse peut découler le souhait de rechercher une décomposition plus ou moins fine et plus ou moins en profondeur de cet objet étudié.

2.2 Principales questions pour décrire un contenu: Deux approches sont possibles pour ce type de recherche. La première consiste à procéder par décomposition de l’objet étudié en un certain nombre de caractéristiques élémentaires. La deuxième est plus globale et vise à mieux appréhender l’objet étudié dans son ensemble plutôt qu’en le décomposant. a. Comment mener une recherche descriptive en décomposant? Les questions de recherche correspondantes sont: De quoi se compose l’objet à étudier? Quels en sont les éléments? L’objectif est de trouver les éléments qui composent l’objet étudié. b. Comment effectuer une recherche descriptive en identifiant des formes? Il s’agit d’appréhender l’objet étudié dans son ensemble en identifiant des formes. L’objectif du chercheur est de mettre l’accent sur l’interdépendance des éléments constituant l’objet étudié, pour montrer que les propriétés d’ensemble d’une forme particulière peuvent avoir plus d’importance que les propriétés de chacun des éléments la composant.

21

Divers courants s’inscrivent dans la logique de recherche de formes. L’approche configurationnelle a pour principe général l’étude d’un objet en regroupant les observations dans des catégories homogènes permettant une appréhension (crainte) plus facile de la réalité. Le chercheur peut adopter deux approches distinctes:  La constitution de taxonomie: consiste en une démarche empirique et inductive de classification, et peut également découler d’une approche qualitative.  La typologie : a un fondement conceptuel, et peut découler d’une analyse de la littérature ou encore de l’expérience et de la connaissance accumulées par le chercheur. 2.2 Principales questions pour expliquer un contenu

Comment expliquer un contenu par une approche hypothético-déductive? Quelles autres possibilités pour des recherches de contenu explicatives? Limites des recherches hypothético-déductives quantitatives: a. L’utilisation de données chiffrées nécessite fréquemment que des variables soient définies; ce qui transforme la réalité. b. Cette démarche freine l’émergence d’idées nouvelles car elle est très encadrée. Autres possibilités pouvant être exploitées: a. L’utilisation d’une démarche qualitative, et retrouver par là même toute la subtilité de la réalité étudiée. b. Le recourt à une démarche inductive, et c’est alors que les liens de causalité émergent du terrain. Section2: Recherche sur le processus 

1. Pourquoi faire une recherche sur le processus? 1.1 Les objectifs:

La recherche sur le processus décrit et analyse comment une variable évolue dans le temps. La recherche sur le processus conduit ainsi à l’identification et à l’articulation d’intervalles tels que séquences, cycle ou encore phase qui décrivent le comportement d’une variable dans le temps. 

1.2. Les recherchse pour décrire ou pour expliquer:  Pour décrire:

La description d’un processus conduit à porter une attention particulière aux éléments qui composent le processus ainsi qu’à l’ordre et à l’enchaînement de ces éléments dans le temps. Premier objectif: est la description en profondeur de l’objet d’étude dans le temps

22

Deuxième objectif: EST la description du processus Troisième objectif: le chercheur peut vouloir comparer deux ou plusieurs processus observés et en déduire quelques similarités ou différences. Les travaux de MINTZBERG et al. Sur les processus non structurés de prise de décision correspondent à Ce même objectif de recherche.  Pour expliquer: Le chercheur tente de répondre à la question suivante : une évolution, une modification sur la variable X serait-elle reliée, impliquerait-elle une évolution, une modification sur la variable Y ? L’analyse stratégique et industrielle invite le chercheur à comprendre les compétences distinctives d’une entreprise au regard des sources d’avantages concurrentielles du secteur économique dans lequel cette dernière opère. La stratégie d’une organisation (la décision de quitter un secteur industriel) apparaît comme la résultante d’une coévolution entre une variable sectorielle externe (les avantages compétitifs d’un secteur) et une variable organisationnelle interne (les compétences distinctives de l’organisation. 2- Comment conduire une recherche sur le processus? Etape 1: consiste à préciser la variable processuelle de l’étude (Le processus de l’innovation, la transformation et la mise en œuvre d’idées nouvelles) Etape 2: Permet aux chercheurs de définir la période de temps d’observation ainsi que l’échantillon d’observation Etape 3: Consiste à définir les concepts clés (sous variables) qui doivent permettre d’observer l’évolution de la variable innovation. Ils sont au nombre de cinq : les acteurs, les idées, les transactions, le contexte, les résultats. Etape 4 : consiste à regrouper les incidents critiques entre eux et à déterminer les phases qui permettent de suivre le déroulement dans le temps des processus d’innovation étudiés. 2.2. Principales étapes: Le chercheur doit décomposer la variable processuelle qu’il étudie en concepts (sous-variable); La description et la compréhension de l’objet étudié dans le temps; Identification des incidents critiques, les analyser et les regrouper pour faire ressortir les intervalles temporels qui marquent le déroulement du processus. 

3-Les principales questions relatives à une recherche sur le processus 3-1-Comment décomposer la variable processuelle ?

La variable processuelle reste abstraite si elle n’est pas décomposée en autant d’éléments qui participent à son déroulement dans le temps. Dans le cadre d’une démarche inductive pure, le chercheur va devoir faire émerger du terrain des concepts qui donnent du sens aux informations

23

collectées, ainsi que les différentes dimensions qu’ils peuvent prendre. (Problème de la connaissance et donc de la décomposition de la variable processuelle à étudier.) 3-2-Comment délimiter le processus étudié ? Le problème de la délimitation (La séparation) est double par rapport au temps et par rapport à l’objet et au contexte de l’étude. 

Délimitation par rapport au temps

Il n’est pas toujours aisé pour le chercheur d’établir les bornes inférieures et supérieures de la période d’observation du phénomène qu’il souhaite étudier. L’organisation prend des décisions, hésite, avance puis remise en cause une idée…à tout moment. Ainsi la décision d’une de procéder à un changement structurelle peut être procédée d’une longue période de maturation dont le début est souvent difficile à identifier. Ce problème de délimitation temporelle est important pour deux raisons:  Il oblige le chercheur à savoir quand commencer la collecte des données sur le terrain.

 La manière de fixer le début d’un processus peut influencer l’interprétation même du processus.  Délimitation par rapport à l’objet et au contexte: Ce problème de délimitation temporelle est important pour deux raisons : Dans le premier cas, l’objet étudié est le développement de la population d’innovation prise dans son ensemble (le contexte est celui de la population) dans le deuxième cas, l’objet étudié est un projet d’innovation, son contexte est constitué des autres projets menées en parallèle.). Il est souvent difficile au chercheur d’isoler l’histoire d’une innovation en particulier. Il doit toutefois clarifier son choix. Il s’agit d’un choix à faire en termes de niveau d’analyse. Le chercheur veut il étudier l’évolution d’un projet d’innovation parmi d’autre projet ou veut il, au contraire, étudier l’évolution des projets d’innovation au sein d’une organisation ? A-t- on affaire à deux processus séparés ou à un seul processus organisationnel? 3-3-Comment ordonner les intervalles temporels d’événements dans le temps ? Avant d’ordonner logiquement les intervalles, le chercheur peut éprouver quelques difficultés à connaître le nombre d’intervalle pertinents pour constituer un modèle processuel. La question du nombre de phase devant être retenues pour bâtir un modèle processuel reste largement à l’appréciation du chercheur. Tout dépend en fait du niveau de détails que le chercheur entend donner dans la description de l’ordonnancement temporel du processus étudié. Le chercheur adopte une position épistémologique pour mener sa recherche, position inductive ou déductive. Il faut retenir que le chercheur doit clarifier le modèle ou la représentation du processus en définissant ses conceptions quant au « moteur » du changement, au cycle du processus et à l’unité observé.

24

Section3 : Positionnement de la recherche Les deux analyses se complètent:

Le processus enrichit la recherche sur le contenu 1.1. Le processus enrichit la recherche sur le contenu : L’intégration des processus dans l’analyse de contenu descriptive peut prendre deux formes: D’une part, les configurations reposent sur un certain nombre de dimensions qui comprennent; dans la majorité des cas; des processus. D’autre part, les approches qui procèdent par décomposition peuvent mettre en évidence les processus qui sous tendent l’objet étudié sans entrer dans le détail des étapes qui le constituent. 1.2 Le contenu enrichit les recherches sur le processus : Selon Van de Ven (1992), le processus peut se présenter comme l’étude de l’évolution d’une variable dans le temps, et pour suivre l’évolution de cette variable, on la décompose en éléments. Cette décomposition correspond donc à une réflexion sur le contenu.

La stratégie de recherche: processus, contenu ou approche mixte? 2-1- Choisir: processus ou contenu? En réalité les deux approches sont nécessaires pour améliorer la connaissance d’un objet. Le chercheur effectue son choix, doit prendre en compte de l’état de l’art sur un objet particulier qui lui permet de retenir une approche qui enrichit la connaissance existante. Le chercheur doit être alors capable de choisir son positionnement entre le processus et contenu pour apporter un éclairage nouveau dans une optique d’accumulation de connaissance. 2-2- Vers des approches mixtes? Une analyse de processus ne doit pas être considérée comme incompatible avec une analyse de contenu, puisque toute décision prise dans l’organisation, tout système organisationnel ne sont que l’aboutissement d’une succession d’états, d’étapes et de dynamique. Le pourquoi des choix stratégiques, le quoi d’une décision stratégique et le comment de telles décisions sont complémentaires.

Importance du contenu dans la recherche

Faible

Forte

Importance du temps dans la recherche

Faible Forte

Recherche sur le contenu Recherche

sur

le

Recherche mixte

25

processus

Chapitre 6 : LE DESIGN DE LA RECHERCHE I.

Epistémologie et design de la recherche : Le design ou l’architecture de la recherche est la trame qui permet d’articuler les différents éléments de la recherche (problématique, littérature, données, analyse et résultat). L’évaluation de la qualité d’un design repose, d’une part sur la logique de l’ensemble de la démarche de recherche et, d’autre part, sur la cohérence de tous les éléments qui la constituent. Un modèle réduit travail, une représentation en miniature du travail. Le meilleur design c’est celui qui converge vers le travail final. Une vue microscopique du travail.

1. Evolution des démarches de la recherche : Le paradigme positiviste (le postulat d’objectivité de la réalité), se concrétise par un design particulier celui de la méthode scientifique. L’étude scientifique commence par l’observation libre et sans préjugé des faits, procède par inférence inductive à la formulation des lois universelles relatives à ces faits, et enfin parvient par induction supplémentaire à des propositions encore plus générales appelées théories. De nouvelles conceptions apparaissent proposant à la fois une modification du statut de la théorie et de la méthode qui repose sur le modèle hypothético déductif. Selon Popper, une théorie ne peut pas être confirmée mais seulement corroborée, en termes de méthodes cette nouvelle conception implique que les hypothèses soient formulées de manière à être falsifiable et interdit l’élaboration d’hypothèses auxiliaires sauf si ces hypothèses augmentent le degré de falsifiabilité du système.



La théorie enracinée: paradigme positiviste



La recherche action: paradigme constructiviste

2. Positionnement épistémologique et design de la recherche : L’approche positiviste : Seule la méthode scientifique peut produire des données véritablement scientifiques. (Théorie enraciné). L’approche constructiviste : L’étude des individus et leurs institutions (organisation) demande des méthodes spécifiques.(recherche par action). 26

 La démarche qualitative s’inscrit dans le paradigme constructiviste tandis que la démarche quantitative s’inscrit dans le paradigme positiviste (Van a démontré le contraire en testant une théorie par l’étude de cas).  Une

démarche

de

recherche

(qualitative

ou

quantitative)

n’est

pas

systématiquement rattachée à un paradigme.  Il n’existe pas de lien simple entre le positionnement épistémologique du chercheur et l’utilisation d’une démarche particulière. 3. Maturité de la connaissance et type de design de la recherche Quelle relation entre le degré de maturité de la connaissance dans un domaine donné et le type de design ? Le processus de recherche débuterait avec la réalisation d’études exploratoires (favorisant l’émergence de théories et l’identification de nouveaux concepts ou nouvelles variables explicatives où les connaissances sont peu développées), puis se poursuivrait avec des designs plus solides, expérimentations et enquêtes quantitatives. (Camerer, 1985). Toutefois, d’autres chercheurs proposent des modèles concurrents de construire une théorie à partir d’une étude quantitative ou tester par une étude qualitative.

II.

L’étape d’élaboration du design de la recherche : La rédaction d’un document présentant la démarche de la recherche et les choix méthodologique adoptés qui doivent être justifiés par rapport à la problématique. 1. Quand élaborer le design Après la définition de la problématique, on élabore le design de la recherche c’est à dire on définit les moyens (méthodes d’analyse, types, sources et techniques de recueil des données, composition et taille de l’échantillon) nécessaires pour répondre à celle-ci. L’élaboration d’un design constitue un moyen d’améliorer la précision ou la formulation de la problématique d’une part et les références théoriques d’autre part< » Grunow 1995. Ceci permet d’estimer la faisabilité du travail. 2. Comment élaborer le design : Morse 1994 propose d’utiliser la tactique qui consiste à procéder à l’envers. C'est-à-dire à commencer par imaginer ce qu’on va trouver. Projeter le type de résultat attendu, voir le résultat souhaité lui-même, permet souvent d’affiner la problématique et de trouver facilement les différentes méthodes envisageable pour y répondre.

27

Le choix d’une méthode (qualitative ou quantitative) d’analyse dépend de la question et du type du résultat souhaité. Le choix d’une méthode suppose que l’on connaisse ses contraintes et conditions d’utilisation, pour pouvoir déceler (découvrir) à l’avance les éléments susceptible de la rendre inutilisable dans le cadre de la recherche ou pour pouvoir la compléter par une autre qui comblera ses déficiences (Comparer les méthodes permet de choisir celle la plus adaptée à la recherche). Recueillir les données nécessaires pour répondre à la problématique. (La nature des données collectées, le mode de collecte de données, la nature du terrain d’observation et de l’échantillon et les sources de données) chaque élément doit être justifié par rapport à la problématique. Ceci est valable non seulement pour les démarche déductive, mais aussi pour la démarche inductive qui vise à explorer un phénomène. La pertinence des données tout comme le choix des interlocuteurs et des sites dépend de la compréhension du chercheur de son objet de recherche par les théories existantes dans le domaine étudié. Mode de collecte (qualitative ou quantitative) des données est il adapté à la problématique? Le terrain choisi permet il de répondre à la problématique? La taille de l’échantillon est elle suffisante pour l’analyse que je souhaite mettre en œuvre ? Les sources l’interlocuteur (s) est il apte à me fournir les informations dont j’ai besoin? Le processus d’allers retours pour élaborer un design peut être facilement dérivé. En effet, les trois éléments (données, traitement et résultat attendu) peuvent être cohérents entre eux mais le résultat attendu ne répond plus à la problématique initialement formulée. On procède soit à la reformulation de la question, soit à un réajustement de la revue de littérature, si nécessité il ya. Exemple de design de la recherche : Problématique: comment sont prises les décisions d’investissement stratégique dans les GE diversifiées? Cadre théorique: approche pluridisciplinaire de la problématique: établir un lien entre les perspectives financières, stratégiques et organisationnelles. Démarche choisie: étude de trois cas. Recueil des données: 3 projets d’investissement stratégiques en cours de discussion au sein de GE Britanniques diversifiées. Le recueil de données s’effectue en deux temps (observation directe du processus de décision du projet et en deuxième temps des entretiens directifs des personnes ayant pris part dans le processus de décision).

28

III.

Evolution du design au cours de la recherche : Le design n’est pas figé par rapport à la configuration initiale.

1. Mode de déroulement et degré de flexibilité : Existence d’une forme de séquentialité (succession) entre les différentes étapes d’une recherche mais rarement parcourues de manière strictement linéaire. Le déroulement de la recherche impose des retours en arrière. Les étapes sont menées simultanément par le chercheur se focalise davantage sur l’une ou l’autre au cours du temps. Des démarche de recherche se différent en terme de degré flexibilité: la démarche enraciné: est flexible vue sa nature, La démarche expérimentale: est séquentielle et rigide car il n’est pas question de modifier une expérimentation durant son déroulement en effet cela remettrait en cause le principe même de contrôle qui constitue le fondement de la méthode. Si des difficultés surviennent, on ne peut que stopper l’expérience pour recommencer une autre. Entre ces extrêmes, l’enquête par questionnaire n’est, par nature, ni itératif ni très flexible, mais il sera parfois possible en cas de difficulté de compléter une information manquante par relance téléphonique, ou d’augmenter un échantillon trop petit par une seconde vague d’enquête.

2. Problèmes rencontrés et évolution du design : Les pré-tests dans le cadre de l’expérimentation (Quantitative) et cas pilote (Qualitative) dans le cadre de l’exploration permettent de vérifier tant les procédures de recueil de l’information que la nature des données qu’il convient de collecter par rapport à la question. Des difficultés peuvent apparaitre dans la phase d’analyse. La solution dépend de l’impact du problème, modifiant ainsi le design de la recherche en obligeant: le chercheur à se retourner vers le terrain pour compléter l’étude, Ou a rechercher dans la littérature afin trouver des éclaircissements.

3. Processus général de formation du design Le design de la recherche a pour objectif de lever les incertitudes mais ne garantit pas l’absence de difficultés susceptibles de nécessiter des réajustements voire des modifications plus importantes du design. Toutefois, les modifications peuvent résulter de la flexibilité de la démarche, d’opportunités apparues à différentes étapes de la recherche (intégrer un nouveau terrain).

29

La construction du design final est par conséquent est un processus évolutif qui comporte généralement des itérations lors de son élaboration mais peut également en comporter plus tard, au fur et à mesure de la progression dans les étapes suivantes.

Chapitre 7 : comment lier concepts et données ?

I.

Fondement de la démarche de traduction : 1. Des concepts et des données Monde théorique : l’ensemble des connaissances, concepts, données et modèles théoriques disponibles ou en voie de construction dans la littérature. Généralement, l’attention du chercheur est portée sur le concept et ses définitions. Vu que la littérature est ainsi le point de départ du design de la recherche, les définitions retenues du concept conditionnement la démarche de traduction. Monde empirique : l’ensemble de des données que l’on peut recueillir ou utiliser sur le terrain, soit des faits, des opinions, des attitudes, des observations, des documents. Le cadre du monde empirique peut être délimité par le chercheur dans l’espace et dans le temps. Les données recueillies sont censées approximer des concepts. 30

2. Le passage d’un monde à l’autre Pour passer du théorique à l’empirique le chercheur doit concevoir les éléments du monde où il se trouve dans la langue du monde vers lequel il souhaite aller. Repérer les éléments du monde empirique qui illustrent le plus finement possible la définition conceptuelle adoptée. La démarche de traduction est appelée mesure, elle désigne les procédures par lesquelles les observations empiriques sont ordonnées pour représenter la conceptualisation qui doit être expliquée. Les étapes de la mesure : Le concept : la construction abstraite qui conduit vers une représentation imagée (concept : efficacité stratégique). La mesure du concept: découvrir ses composantes (dimensions : performance commercial, financière) Définir le type de données à recueillir pour chacune des dimensions en s’appuyant sur des indicateurs. (Chiffre d’affaire, profits). La définition d’indices : combinaison de plusieurs indicateurs (profits/CA) L’abstraction : le monde empirique comme point de départ, le chercheur dispose d’un ensemble de données qu’il tente de mettre en ordre au sein d’un cadre plus large afin de trouver une conceptualisation sous-jacente.

3. Moyen de traduction : L’objet de la mesure est de chercher les indicateurs correspondants. Ces indicateurs permettent d’associer une valeur ou un symbole à une partie du concept. On les désigne sous le nom d’instruments de mesure. Ils aident le chercheur à déterminer le type de données à recueillir. Ils peuvent être de nature qualitative ou quantitative. Le codage ouvert : Comparer et classer les données en ensembles et sous ensembles selon leur similarité grâce à un examen approfondi des données. (À partir d’un entretien arriver au concept : procédé d’abstraction) Le codage axial : comme le codage ouvert vise en plus à spécifier chaque catégorie en termes de causalité, de contexte, d’actions- interactions et de conséquences de ces dernières (pour enrichir l’abstraction). Le codage sélectif : on dépasse le simple cap de la description pour tendre vers la conceptualisation, l’intégration ou l’élaboration théorique. On cherche à définir une 31

catégorie centrale qui cherche à relier l’ensemble des propriétés de toutes les autres catégories. (Pour enrichir l’abstraction).

II.

Concevoir la démarche de traduction Le mode de raisonnement suivi lors du passage d’un monde à un autre. 1. Cas de la mesure : 1.1 S’appuyant sur l’existant : Afin d’utiliser des mesures déjà disponibles, le chercheur doit repérer où se trouvent ces mesures (indicateurs et dimensions) (des travaux liés plus ou moins directement à son propre domaine). Effectuer un choix parmi celles-ci (en s’appuyant sur les critères de fiabilité, validité et faisabilité opérationnelle). La faisabilité opérationnelle d’un instrument de mesure se situe au niveau de sa facilité de lecture et de compréhension et elle porte également sur la sensibilité des instruments de mesure. Si nécessaire envisager leur réajustement au contexte particulier de sa propre recherche.

1.2.Améliorer l’existant ou innover : Utiliser des mesures en leurs apportant des modifications importantes. Absence de mesure : innovation et construction de mesure. 2. Cas de l’abstraction : Il suit un cheminement inverse. Cette démarche consiste à découvrir des classes de faits, de personnes, d’événements ainsi que les propriétés qui les caractérisent. 2.1. Principes de regroupement et de classification des données Le chercheur opère un regroupement de ses éléments par la création d’un thème fédérateur. Les catégories peuvent être élaborées selon le principe chronologique (succession ou simultanéité), ou le niveau structurel de complexité, la classification sur la notion de généralités conceptuelles.

2.2.Le chercheur comme composante de l’abstraction Le chercheur peut-être envisagé comme un instrument : « les chercheurs apprennent à s’utiliser comme l’instrument le plus important et le plus fiable de l’observation, de la sélection, de la coordination et de l’interprétation, « Le travail ethnographique prend une dimension particulière du fait du style même du chercheur lorsque ce dernier transcrit ses résultats », du fait de l’immersion importante du chercheur instrument au sein du monde empirique.

32

Conclusion : définir les bons concepts en phase avec la problématique, puis les lier concepts et données. Dès qu’il y a plusieurs concepts on peut mettre en place un modèle. Validité interne : Assurer la cohérence de l’ensemble de cohérence de la recherche.

Chapitre 8 : Echantillon L’échantillon peut être défini comme un sous ensemble d’éléments tiré d’un ensemble plus vaste appelé population.

I.

Sélection des éléments de l’échantillon 1. Les différentes méthodes : La validité externe (la possibilité de généraliser les résultats sur l’ensemble de la population) peut être obtenue par deux modes d’inférence, l’inférence statistique (généraliser les résultats statistiques obtenus sur l’échantillon étudié à la population dont il est issu) et l’inférence théorique (généraliser des propositions théoriques sur la base d’un raisonnement logique).

1.1. Méthodes probabilistes : Ces méthodes sont les seules permettent d’utiliser les règles de l’inférence statistique. Elles regroupent l’échantillon aléatoire simple (chaque élément de la population présente une probabilité identique d’appartenir à l’échantillon, nécessite une liste exhaustive de la population), échantillon systématique (idem sauf qu’il ne nécessite pas de dresser une liste de la population), échantillon stratifié (consiste à segmenter la population puis choisir de manière aléatoire parmi chaque segment), échantillon à plusieurs degrés (consiste à effectuer des tirages successifs à différents niveaux, le premier degré correspond à la sélection d’éléments appelés unités primaires etc.) et échantillon par grappes (L’échantillon par grappes est cas particulier d’échantillon à deux degrés. Les éléments ne sont pas sélectionnés un à un mais par sous-groupes appelés grappes, chaque élément de la population étant rattaché à une grappe et à une seule).

1.2.Méthodes par choix raisonnés : reposent fondamentalement sur le jugement et donc sur la subjectivité car ne nécessite ni procédure particulière, ni base de sondage. 1.3.Méthode des quotas : La population est segmentée en fonction de critères définis a priori, de telle sorte que chaque élément de la population appartienne à un seul segment et permet d’obtenir un échantillon ayant une certaine représentativité de la population étudiée. 1.4.Méthodes par convenance : Désigne les échantillons sélectionnés en fonction des seules opportunités qui se sont présentées au chercheur, sans aucun critère de choix n’ait été défini a priori. 33

PROF :

2. Constitution des échantillons appariés : Les recherches qui reposent sur l’expérimentation utilisent des échantillons appariés (marié), soit par la randomisation (consiste à scinder un groupe initial en plusieurs et répartir de manière systématique les individus entre différents groupes) soit par le contrôle a priori (Stratifier (réunir) la population selon des critères pouvant agir/ la variable étudiée, Structures identiques). PROF : la grande question pour un questionnaire c’est comment passer des objectifs aux questions, par exemple pour passer de l’objectif « évaluation de l’efficacité organisationnelle » par une étude quantitative, il y a une étape intermédiaire : la thématisation : déterminer les objectifs que recouvrent l’efficacité, les variables et les indicateurs. Le pré-test est une phase pilote qui a ses règles et ses critères, exemple au niveau de la compréhension des questions il faut utiliser un langage adéquat à la cible, et maitriser la longueur du questionnaire. Le test pilote doit être un modèle réduit mais représentatif de toutes les sous-catégories.

3. Le biais de l’échantillon: Les erreurs de différentes natures peuvent affecter la validité tant interne qu’externe de l’étude. L’erreur totale de l’étude est composée de trois catégories de biais : la variabilité des estimations (les différences dans les résultats obtenus qu’il est possible de constater d’un échantillon à l’autre), le biais de l’échantillonnage (biais lié à la méthode de sélection ou lié à l’estimateur c.-à-d. l’outil statistique comme la variance); Biais non liés à l’échantillonnage dont on distingue : les biais liés à l’absence de l’observation (ce sont les biais de couverture liés à l’absence de correspondance entre la population étudiée et la population de référence, et les biais dus aux non réponses dus au refus ou inaccessibilité des individus de l’échantillon), et biais liés à l’observation (erreurs des répondants ou erreurs de mesure).

II.

Déterminer la taille de l’échantillon :

Revient à estimer la taille minimale requise pour obtenir des résultats avec un degré de confiance satisfaisant.

1. Taille d’un échantillon pour un traitement quantitatif 1.1.Les échantillons destinés à la description : Le principal critère d’évaluation d’une recherche descriptive est la précision dont cette dernière dépend de plusieurs facteurs qui sont le seuil de signification souhaité, la 34

variance de la population, la technique d’échantillonnage utilisée et la taille de la population.

1.2.La variance de la population et taille de l’échantillon : La variance est un indicateur de dispersion. C’est la moyenne des carrées des écarts à la moyenne. Plus les observations de la variable étudiée s’écartent de la moyenne et plus sa valeur est élevée. Plus cette variance est grande, plus grande devra être la taille de l’échantillon. L’indicateur de dispersion le plus fréquemment rencontré est l’écart type qui est la racine carrée de la variance.

1.3.La spécificité des échantillons destinés à tester des hypothèses Il s’agit de l’importance de l’effet mesuré, de la puissance du test et du nombre de paramètre à estimer, ces critères sont destinés à assurer la significativité des résultats obtenus.

 Importance de l’effet mesuré et la taille de l’échantillon :  Puissance du test et taille de l’échantillon : La puissance test correspond en quelque sorte à la probabilité de pouvoir mettre en évidence l’effet étudié. Lorsque la puissance est faible, on ne peut pas savoir s’il n’y a pas de lien entre les variables dans la population. Où si ce lien existe mais n’a pu être mise en évidence en raison d’un manque de sensibilité de recherche.  La taille de l’échantillon et nombre de paramètre à estimer : La taille de l’échantillon dépend également du nombre de paramètre à estimer c'est-à-dire, du nombre de variables et d’effet d’interaction que l’on souhaite étudier. Pour une méthode statistique donnée, plus le nombre de paramètre à estimer est grand et plus la taille de l’échantillon doit être grande.  La taille de l’échantillon à contacter et taille de l’échantillon à étudier : Pour déterminer la taille de l’échantillon à contacter, il faut tenir en compte des non réponses probables. La taille de l’échantillon utile devra être corrigée du taux de réponse estimé. Pour déterminer ce dernier il faut faire recours à l’expertise de personnes qui ont pratiqué des collectes de données similaires dans le même domaine.  Arbitrage entre taille de l’échantillon et architecture de la recherche : La taille d’un échantillon dépend de la variance de la variable étudiée. Plus les éléments de l’échantillon sont hétérogènes, plus il y a de risque que la variance soit élevée et plus la taille de l’échantillon soit grande. Une possibilité consiste à réduire la variance en sélectionnant des éléments homogènes dans un sous ensemble de la population cela permet d’obtenir des résultats significatifs à un faible coût. L’inconvénient de cette solution est une perte de la validité externe. En effet, c’est la validité interne qui est 35

prioritaire, la validité externe n’étant que secondaire, l’objectif étant d’abord d’établir des résultats fiables sur l’échantillon étudié avant d’essayer de les généraliser.

2. Taille d’un échantillon pour un traitement qualitatif 2.1.Le cas unique : sujet de controverse, pour certains il est impropre à la généralisation (validité externe), pour d’autres il est peut être source de généralisation scientifique et d’émergence de théorie car selon YIN 1990, il peut être assimilé à une expérimentation.cet auteur justifie le cas unique par trois situations (tester une théorie existante soit pour la confirmer, la remettre en cause ou la compléter, lors d’un cas unique ou extrême, enfin, pour révéler un phénomène qui n’est pas rare mais qui était inaccessible aux chercheurs). 2.2.Le cas multiple : deux principes permettent de déterminer la taille minimale ( le nombre de cas) sont la réplication (choix soit parce qu’on suppose trouver des résultats similaires c’est la réplication littérale soit parce qu’il devrait conduire à des résultats différents réplication théorique) et la saturation (la taille adéquate d’un échantillon est celle qui permet d’atteindre la saturation théorique, la collecte de données s’arrête lorsque les dernières unités d’observations analysées n’ont pas apporter d’éléments nouveaux).

III.

Démarches de constitution d’un échantillon 1. Deux démarches génériques :

Démarches traditionnelle: est caractéristique de la constitution de l’échantillon probabiliste mais également fréquemment rencontrée dans la méthode des quotas. Elle commence par la définition de la population de référence sur laquelle les résultats pourront être généralisés par inférence statistique. L’opérationnalisation de cette population de référence permettra ensuite de déterminer les éléments inclus ou exclus de la population étudiés. La deuxième étape consiste à choisir une procédure d’échantillonnage. Toutes ces informations étant connues, elle est alors possible de déterminer la taille de l’échantillon susceptible de répondre aux objectifs fixés. Cette démarche se termine par une étude des biais et, si cela est nécessaire par un redressement de l’échantillon destiné à les corriger. Démarche itérative : contrairement à la première, la définition du domaine de généralisation des résultats n’est pas effectuée dès la première étape mais à l’issu du processus. Une autre différence majeure entre les deux démarches réside dans la constitution progressive de l’échantillon par itération successive. Chaque élément de l’échantillon est sélectionné par choix raisonné, les données sont ensuite collectées sont analysées avant que l’élément suivant ne soit analysé. 36

Le rôle du pré-test ou cas pilote : Il permet de définir la taille et la composition de l’échantillon final.

2. Quelques démarches particulières :  Constitution progressive de l’échantillon dans une démarche classique : (quantitative) La démarche classique de l’échantillon revient à déterminer la taille de l’échantillon avant de collecter les données. Tandis que cette démarche consiste à collecter les données jusqu’à ce qu’on atteint le degré de précision ou le seuil de signification souhaités, on procède par vagues successives de recueil de données. De même s’il est possible de constituer progressivement un échantillon, il demeure intéressant d’en estimer la taille a priori. Car, déterminer la taille de l’échantillon à priori permet d’évaluer le caractère réalisable des objectifs que le chercheur souhaite atteindre.

 Constitution d’un échantillon apparié a posteriori : Lorsqu’on réalise des expérimentations en laboratoire, la démarche de constitution d’échantillons appariés consiste à sélectionner les éléments, à les répartir dans les différentes conditions d’observation, puis à collecter les données. Cela n’est pas toujours facile, car tous les phénomènes ne se prêtent pas à la constitution de d’échantillons appariés avant la collecte de données, la structure de l’échantillon est parfois difficile à maîtriser (difficilement identifiables, ou accessibles) ou que la population étudiée est mal connue.

37

Un groupe témoin est prélève dans la population de référence en respectant une procédure d’échantillonnage aléatoire, de telle sorte que la structure du groupe témoin reproduise celle du groupe observé.

3. Traitement ex post de l’échantillon : 3.1.Procédure de contrôle et de redressement de l’échantillon Il est préférable de chercher à éviter le biais non liés à l’échantillonnage. Toutefois, il est possible de redresser la situation tels que les non répondants et les erreurs de réponse. Les non réponses : afin de détecter ces biais, on peut comparer la structure de l’échantillon avec celle de la population dont il est issu, à partir des variables pouvant influencer le phénomène étudié. S’il y a des écarts, il conviendra de les corriger à travers trois procédures de redressement des non réponses :  L’interrogation d’un sous échantillon de non répondants : on désigne un sous échantillon de l’échantillon des non répondants par un tirage aléatoire. Le chercheur doit s’efforcer d’obtenir une réponse de l’intégralité des éléments de cette sous échantillon. Les réponses seront comptées plusieurs fois pour trouver l’échantillon initial des non répondants. Il est difficile d’opérer.  La réalisation d’une stratification à posteriori : permet de redresser le biais de non réponses. A l’opposé de la stratification (Formation) à priori, il n’est pas nécessaire de connaitre les valeurs que prennent les critères de stratification (taille, effectifs, secteur par exemple) pour chacun des éléments de la population. Il suffit en effet, de connaitre la distribution globale de ces caractères sur la population. Les réponses des éléments de l’échantillon sont alors affectées de coefficients de telle sorte que l’on retrouve la structure de la population. Ceci permet d’augmenter la précision des estimations, effectuées sur l’échantillon observé.  Le remplacement des individus défaillants : Il suffit de connaitre certaines caractéristiques des non répondants. Deux solutions sont ensuite possibles : la première consiste à identifier parmi les répondants des éléments qui présentent des caractéristiques identiques à celles des défaillants et à leur affecter un coefficient de pondération pour compenser les non répondants. La deuxième conduit pour chaque non répondant à inclure dans l’échantillon un répondant supplémentaire aussi semblable que possible au non répondant. Si à l’issu de ces procédures de redressement il n’a pas été possible d’obtenir des sous groupes de

38

l’échantillon, il conviendra de redéfinir la population de référence soit d’indiquer les limites de l’étude.  Les erreurs de réponses : Elles peuvent être contrôlées en effectuant une contre enquête auprès d’un sous échantillon de répondants, pour identifier certaines erreurs dues à une mauvaise compréhension de la question où à l’enquêteur. Cette méthode est inefficace si le répondant fournit volontairement une réponse erronée. Il est difficile ainsi de détecter le biais correspondant et de le corriger.

3.2.Traitement pour un échantillon trop petit : Après traitement, il peut se révéler que la taille de l’échantillon est insuffisante après traitement pour obtenir la précision ou le seuil de significations souhaitées. On peut ainsi travailler sur une nouvelle vague. Toutefois, ceci n’est pas toujours possible soit parce qu’on a exploité entièrement les fichiers (par exemple si on travaille sur des fichiers de données secondaires), ou lorsque les données dépendent d’un contexte particulier qui a changé. Quand l’augmentation de la taille de l’échantillon n’est pas possible, on peut utiliser des méthodes qui consistent à générer plusieurs échantillons à partir de l’échantillon de départ et effectuer les analyses sur ces nouveaux échantillons. Il existe deux méthodes principales : la méthode Jackknife consiste à former les nouveaux échantillons en retirant à chaque fois un élément de l’échantillon de départ de la taille n. Et le Boostrap fonctionne selon le principe relativement proche mais la constitution des échantillons est différente, les échantillons sont obtenus par un tirage aléatoire avec une remise de l’échantillon de départ et comportent le même nombre d’éléments n que l’échantillon de départ.

Chapitre 9 : la collecte de données et la gestion de leurs sources I.

La collecte de données primaires dans les recherches quantitatives 1. La collecte par questionnaire :

Le questionnaire permet d’interroger directement des individus en définissant au préalable, par une approche qualitative, les modalités de réponses au travers des questions. C’est un outil de collecte de données primaires bien adapté aux recherches quantitatives puisqu’il permet de traiter de grands échantillons et d’établir des relations statistiques ou des comparaisons chiffrés.

39











1.1.Le choix des échelles de mesure : Construire un questionnaire pour une recherche quantitative, c’est construire un instrument de mesure. Il faut donc choisir les échelles de mesure à utiliser avant d’aborder les problèmes de rédaction des questions. Les différents types d’échelle de mesure (ordinales, nominales, d’intervalle ou de proportion ont été présentées dans le chapitre 4). L’utilisation d’échelles de mesure préexistantes : le chercheur peut utiliser des échelles déjà construites et validées par d’autres chercheurs. Toutefois, il faut avertir le chercheur que la validité de ces échelles préexistantes est fortement liée au contexte de leur utilisation. La construction de ses propres échelles de mesure : A défaut d’échelle adaptée, le chercheur doit construire ses propres instruments. Il faut d’abord réaliser des entretiens en profondeur afin de mieux cerner les comportements réels des sujets pour définir ainsi des items cohérents et compréhensibles par la population d’étude. Suit alors, une phase de pré-test, de sélection des items et de validation de l’échelle. 1.2.L’élaboration et le pré-test du questionnaire : L’élaboration du questionnaire : Il faut éviter les erreurs dans la formulation et l’agencement des questions ainsi que dans les choix de réponses proposées. Commencer par des questions simples et fermées et terminer le document par des questions plus complexes et ou ouvertes. Les questions doivent se suivre dans une logique de regroupement thématique. Des biais courants à éviter dans l’agencement et la formulation des questions : comme l’effet de HALO qui réside dans l’association d’une série de questions successives trop similaires, on peut introduire dans ce cas un changement dans la forme des questions ; comme l’effet de contamination qui consiste en l’influence d’une question sur la suivante, dans ce cas il faut veiller à l’ordre des questions. Le pré-test : une fois la première version du questionnaire est faite il faut effectuer le pré-test pour mettre à l’épreuve la forme des questions, leur ordonnancement et vérifier la compréhension des répondants ainsi que la pertinence des modalités de réponse proposées. Il est recommandé que le pré-test soit réalisé selon le mode d’administration du questionnaire définitif pour respecter les conditions d’interaction avec les répondants. Les données collectées lors du pré-test permettent également de mesurer la validité interne des échelles de mesure sur la base de procédure statistique. A l’issue de cette phase le questionnaire doit être pertinent, efficient et clair pour le chercheur comme pour les répondants. L’administration du questionnaire: le chercheur n’est pas à l’abri d’un très faible taux de réponse à son enquête qui peut remettre en cause l’ensemble de son projet 40

de recherche, il s’agit ici du problème de gestion des sources de données dans la perspective de l’enquête par questionnaire. Plusieurs auteurs ont proposé des modes d’administration qui permettent d’obtenir des taux de réponse élevé : postal (la particularité réside dans le fait qu’il est auto-administré); En face à face (permet de répondre aux interrogations des répondants directement, sur la nature des questions, un meilleur contrôle de la représentativité de l’échantillon) ; Par téléphone (un outil souvent dérangeant, le chercheur s’expose au dilemme entre le maintien de l’anonymat du sujet et la personnalisation du contact) ; Et par voie informatique (s’opère selon deux techniques : envoie de questionnaire sur support numérique ou via le réseau internet). Les avantages du questionnaire : la possibilité de standardisation et d’une comparabilité de la mesure. Les limites : il n’est pas flexible, car lorsque la phase de l’administration est engagée il n’est plus possible de revenir en arrière. 2. Les autres modes de collecte : 2.1.L’observation est une méthode de collecte de données primaires pas très courante en démarche quantitative. Du fait, qu’il est difficile d’observer un large échantillon. Ainsi, on peut mobiliser plusieurs observateurs mais un problème de fiabilité de la mesure se pose (car les observations risquent de ne pas être homogène). Donc il est nécessaire de recourir à un cadre d’observation systématique, pour décrire de la même façon les comportements observés. Un cadre de l’observation est construit comme un questionnaire sur la base du modèle conceptuel de la recherche et du choix de la méthode d’analyse de données que le chercheur compte utiliser. (Les données collectées par observation systématique peuvent faire l’objet d’un traitement quantitatif afin de décrire le comportement observé. 2.2.Les méthodes expérimentales : permettent de faire des prélèvements quantitatifs et d’exploiter statistiquement les données recueillis. La qualité d’une expérimentation repose avant tout sur les mises en condition des participants (qui encouragent les participants à se comporter le plus naturellement possible). Différentes méthodes peuvent être utilisées pour mener une expérimentation : la méthode des protocoles (le participant est invité à reconstituer et à décrire à haute voix les processus internes de traitement de l’information qui sous-tendent sa décision), et une autre méthode qui consiste en la participation des sujets à un jeu de rôle. Ces méthodes sont riche en information avec des variables mesurables et maitrisables, de tester des rapports de causalité entre événements mais leur généralisation est limitée.

41

II.

La collecte des données primaires dans les recherches qualitatives :

1. Les principaux modes de collecte :

L’entretien est une technique destinée à collecter les données, dans la perspective de leur analyse, des données discursives (rationnelles) reflétant notamment l’univers mental conscient ou inconscient des individus. l’entretien individuel : est une situation de face à face avec le sujet, c’est une pratique de questionnement, le questionnement directif relève du questionnaire et le questionnement non directif repose sur la possibilité pour le sujet de tout dire, et implique une attitude d’empathie de l’investigateur avec le sujet. On distingue l’entretien non directif et l’entretien semi directif. L’entretien non directif : l’investigateur définit un thème général sans intervenir sur l’orientation du propos du sujet. L’entretien semi directif : le chercheur applique le même principe mais utilise cette fois ci un guide structuré pour aborder une série de thèmes préalablement définis, il peut être modifié si le sujet aborde lui-même des thèmes prévus. Le chercheur peut procéder de deux manières : soit il utilise les entretiens pour des fins de comparaisons, il utilisera de manière rigoureuse un même guide

pour l’ensemble des

entretiens ; soit il utilise les entretiens pour des fins d’accumulation des connaissances dans ce cas le chercheur visera une progression par rapport à sa question de recherche. L’entretien de groupe : consiste à réunir différents sujets autour d’un ou de plusieurs animateurs. Sa particularité est de placer les sujets dans une situation d’interaction. Le rôle de l’animateur est délicat car il consiste à facilité l’expression des différents individus et à gérer la dynamique du groupe. L’entretien de groupe demande donc une préparation précise car les objectifs et les règles d’intervention des sujets, prise de parole et thèmes à aborder, doivent être clairement définit au début de l’entretien. Les avis sont divergeant à propos de son efficacité à collecter des données pertinentes (pour explorer une problématique, identifier des informateurs clés ou stimuler la réflexion sur le problème posé).

1.1.L’observation est un mode de collecte de données par lequel le chercheur observe lui-même des processus ou des comportements se déroulant dans une organisation pendant une période de temps délimitée, elle constitue un mode de recueil alternatif de l’entretien dans le sens ou le chercheur peut analyser des données factuelles (identifiables) dont les occurrences sont certaines, plutôt que des données verbales dont l’inférence factuelle est sujette à caution. Il existe deux formes d’observation : l’observation 42

participante (le chercheur adopter un point de vue interne dont trois degrés de participation: un participant complet (l’identité dissimulée ainsi il ne peut pas compléter l’observation par des entretiens), le participant observateur (il dispose d’un plus grand degré de liberté pour mener ces investigations) et l’observateur qui participe ( ) et l’observation non participante (adopte un point de vue externe, sa participation à la vie de l’organisation est marginale, son rôle de chercheur est clairement défini, il risque de rencontrer des réticences chez les acteurs observés). 2. Les implications de la gestion des sources de données primaires : 2.1.L’accès aux sources : (recherche qualitative)  L’autorisation des responsables d’organisations : il est crucial de déterminer si la recherche nécessite un accès autorisé au terrain que l’on désire étudier, car l’autorisation n’est systématique. Il y a des entreprises qui cultivent une tradition de relation avec la communauté des chercheurs, d’autres qui cultivent une culture du secret et s’opposent à l’investigation des chercheurs. Toutefois, de nombreuses informations sont disponibles sans la coopération de l’entreprise.

 La négociation d’un accès aux sources de données : (l’aménagement d’un accès aux sources de données) La négociation d’un accès au terrain requiert du temps, de la patience et de la sensibilité aux rythmes et aux normes d’un groupe. Des méthodes permettent au chercheur de ne pas bloquer l’accès au terrain telles que l’observation participante, elle offre l’opportunité de construire une relation de confiance qui constituera la clé d’accès aux données (notamment primaires). La création d’une relation de confiance peut nécessiter le parrainage par un acteur du terrain, réduit le temps d’accès également aux sources.

2.2.La nécessaire flexibilité du chercheur : La flexibilité du chercheur est nécessaire dans la gestion des sources de données primaires car celles-ci sont le plus souvent réactives. Le chercheur est confronté à une part d’imprévu car ce qui sera appris sur un site est toujours dépendant de l’interaction entre l’investigateur et le contexte.

2.3.Le problème de la contamination des sources :

Un des problèmes critiques de gestion des sources réside dans le phénomène de contamination, il ne s’agit pas que le chercheur reste neutre mais il doit être conscient et gérer de façon attentive les multiples risques de contamination. Si le chercheur est introduit par un parrain on pourra apparaître comme une tête chercheuse du parrain, ceci pourra créer une attitude collective contre le chercheur influençant ainsi les 43

réponses. Le parrain (responsable) peut contaminer le chercheur en modelant la population des interviewés. Les sources secondaires (documents internes) peuvent être contaminantes dans la mesure où elles comportent des erreurs. Sachant que les contaminations sont à l’ordre de trois : la contamination intergroupe, la contamination entre le chercheur et la population interviewée, ainsi que la contamination entre source de données primaires et secondaires. Elle

peut être

définie comme toute influence exercée par un acteur sur un autre acteur, soit une influence directe ou indirecte.

2.4.Le risque de perte du chantier de recherche : La perte d’un chantier de recherche est couteuse pour le chercheur car elle entraîne une recherche d’un site de substituions ou de réduction de la base empirique de la recherche. Dans le cadre d’une étude de cas unique, le risque de perte de chantier devient la préoccupation première du chercheur et dicte tant de modalité d’accès aux données que la gestion des sources primaires jusqu’à l’issue du travail de recherche.

3. Quelques stratégies d’approche et de gestion des sources de données 3.1.Les approches contractuelles ou oblatives : L’approche contractuelle : encadrer le travail par un contrat entre le chercheur et l’entreprise. En rassurant l’entreprise sur la finalité de la présence du chercheur et en précisant quels modes de collecte de données vont être entrepris et enfin la confidentialité des résultats et les droits de publication ; il est légitime que tout entreprise protège la confidentialité de ses savoir-faire, plans, méthodes, codes et documents, il est ainsi d’usage que le chercheur soumet ses travaux à l’entreprise avant leur publication. A l’opposé de la première forme contractuelle, L’approche oblative : nettement informelle fondée sur l’esprit du don. (Il cherche d’une manière implicite). 3.2.Les approches dissimulées ou ouvertes : divulgué ou non les objectifs de sa recherche. L’approche dissimulée : adopter une investigation masquant les objectifs de la recherche aux sujets-sources. Elle limite fortement la mobilité du chercheur sur le terrain car les acteurs peuvent nourrir des soupçons sur ses intentions de plus elle soulève des problèmes quant à la moralité de la démarche qui les sous-tend. L’approche ouverte : le choix de cette approche par laquelle le chercheur ne cache pas les objectifs de sa recherche mais le confronte à la réactivité des sujets. Exposer toutes ses intentions dans le but d’obtenir un accès au terrain. Il court le risque dans ce cas de se voir refuser l’accès, et requière des techniques de collectes ouverte.

44

3.3.La distance ou l’intimité à l’égard de la source de données : elle concerne la façon dont le chercheur conduit ses entretiens et observations, il est nécessaire de prendre en compte le paradoxe de l’intimité du chercheur avec les sujets-sources. En effet, plus le chercheur développe une intimité avec les acteurs interroger plus ils auront tendance à se dévoiler et à dévoiler des informations. Toutefois, c’est une attitude qui peut avoir un effet négatif sur la validité interne de la recherche. La gestion du dilemme entre la distance et l’intimité pose également des problèmes en liaison avec le degré d’information qu’il acquière et son implication affective avec les sujets-sources. On distingue 4 cas de figure : peu-compatisant et avisé (espion), peu-compatisant et ingénu (outsider), compatisant-avisé (allié) et compatisant-ingénu (novice). (Voir page 250) III.

La collecte des données secondaires : Il est conseillé de commencer une recherche par l’utilisation des données secondaires disponibles car elles sont moins chères et rapidement à obtenir, elles ont une valeur historique et sont utiles pour établir des comparaisons et évaluer les données primaires. Il faut systématiquement commencer par ces dernières. 1. Les données secondaires internes : Elles n’ont pas été recueillies pour répondre aux besoins spécifiques de la recherche. C’est des informations déjà produites par des organisations ou des personnes privées. Pour collecter ces données le chercheur doit entrer en contact avec les personnes se trouvant sur le terrain étudié. L’accès aux données semi-privé peut être relativement aisé (comme les rapports d’activité des sociétés cotées en Bourse) toutefois, elles peuvent être difficilement accessible et leur consultation peut être limitée pour des raisons de confidentialité. Ainsi l’accès à ces données n’est ni facile ni automatique. Le traitement de ces données dépend de leur nature, lorsqu’elles se présentent sous une forme littéraire on effectue une analyse de contenu, lorsqu’elles sont chiffrées, le chercheur pratique des analyses statistiques ou comptables. Que la recherche soit qualitative ou quantitative, ce qui importe c’est la pertinence, la qualité et le format des données. Avantages • • •

constituent des véritables sources ; Permettent de reconstituer des actions passées transcrites dans les écrits ; Permettent d’avoir des informations dont

limites • • •

Leur recueil ne répond pas aux besoins spécifiques des chercheurs limitées par raisons de confidentialité certaines informations sont difficilement 45

• • • •

les acteurs ne parlent pas spontanément lors des entretiens en face à face. indispensables dans la démarche historique et longitudinale (changement organisationnel par exemple) se familiariser avec le terrain d’étude Pour construire une triangulation des données et valider leur fiabilité. Le faible coût financier d’accès.





repérables souffre de problème de validation : lorsqu’il ne dispose pas d’assez d’information sur le contexte de ces données il va élaborer une analyse subjective de celles-ci. problème de contamination : le contrôle de ces données avec d’autres types de sources notamment l’entretien est indispensable pour retrouver la réalité.

2. Les données secondaires externes : L’accès aux thèses et recherches est indispensable pour la recherche. La lecture des travaux des chercheurs facilite l’identification de la problématique. Il faut ainsi se rendre dans les bibliothèques et les centres de documentation. Ces données permettent de mieux cibler et justifier le sujet en début de recherche. Au cours de la recherche, elles permettent d’entretenir un contact permanent avec l’évolution du sujet et des autres chercheurs.

IV.

La confidentialité de la recherche et les sources de données L’investigation (la recherche) de chercheur peut constituer une menace pour les organisations et leurs membres cette menace peut être: Interne: le risque de révélation d’attitude et de comportement de l’acteur interlocuteur à la direction par exemple : « La présence d’un chercheur est parfois crainte car il induit la possibilité que des activités déviantes soient révélées » Lee 1993. Externe: le chercheur peut représenter une menace pour vis-à-vis de l’extérieur de l’organisation, car ce qui a trait au management d’une organisation peut avoir un impact sur sa relation avec son environnement. Les contraintes qu’impose une situation de confidentialité sont de trois ordres :

1. Préservation de la confidentialité des données : Lorsque le chercheur travaille dans sur un sujet sensible, il est confronté à la protection de ses résultats d’enquête, de protéger l’anonymat des sujets interrogés ou observés et des organisations étudiées. A travers les actions suivantes : notamment recourir à des logiciels de cryptographie pour protéger les retranscriptions (réecriture) contre toute divulgation accidentelle. Conserver une version non cryptée des données dans un lieu sûr. 2. Confidentialité et validation des résultats par les sources de données : Si les acteurs ou les sujets doivent être requis pour une relecture des résultats du chercheur afin d’apporter une formulation ou une interprétation alternatives, le chercheur doit tenir du caractère éventuellement « sensible » des éléments mis en 46

évidence et doit préserver la confidentialité des résultats notamment en masquant certains résultats en fonction de la position spécifique des acteurs consultés. 3. Publication de la recherche et respect des sources de données : La publication constitue le dernier point de la gestion des sources de données par le chercheur, que le terrain soit considéré sensible ou non. Le maintien de l’anonymat prive les autres chercheurs du pouvoir de vérification des résultats de la recherche. Toutefois, l’utilisation de pseudonymes peut être une condition de la coopération des acteurs sur le terrain.

Chapitre 10 : La validité et la fiabilité de la recherche I.

Validité du construit : 1. Définition et généralités : Il existe différents types de validité du concept en recherche, les plus souvent utilisés sont : la validité criterium related (difficilement applicable à la majorité des concepts en sciences sociales car dans de nombreux cas, il n’existe aucun critère pertinent auquel confronter une mesure de ce concept : la distance), la validité du contenu (est un critère qui souligne l’étendu d’un concept qui est difficile à appliquer au science de gestion) et la validité du construit. La validité du construit est une notion propre au champ des sciences sociales, où l’objet d’une recherche porte souvent sur un ou plusieurs concepts abstraits qui ne sont pas toujours directement observables. Une des principales difficultés dans la recherche en management réside dans le processus d’opérationnalisation(Traduction). Le concept peut être réduit à une série de variable d’opérationnalisation ou de mesure qui est autant d’indicateurs observables ou mesurables d’un concept souvent non observable. C’est ce concept opérationnalisé que l’on désigne par le terme « construit » de la recherche. On s’intéresse ainsi au processus d’opérationnalisation de l’objet de la recherche plutôt que de construction de l’objet de la recherche. (Qualité de processus qui détermine la validité).

2. Comment s’assurer de la validité de construit d’une recherche ? 2.1.Recherche quantitative :

Tester la validité du construit dans une démarche quantitative consiste à déterminer si les items (critères) utilisés pour mesurer le phénomène étudié à travers des échelles de mesure, en sont une bonne représentation. Tester la validité du construit revient à vérifier que des items mesurant la même chose convergent et se distinguent d’tems 47

mesurant des phénomènes différents. Pour mesurer la corrélation entre items le chercheur peut utiliser la matrice multi-trait ou mutltiméthodes (elle est une matrice de corrélation entre des mesures d’un phénomène obtenues par la même méthode et des mesures obtenues par des méthodes différentes) et multi-méthodes de Campbell (Validité convergente et validité discriminante). Le chercheur peut également fait recours à d’autres méthodes telles que l’analyse factorielles qui permet de mesurer le niveau de validité du construit.

2.2.Recherche qualitative : Il s’agit dans ce cas d’établir que les variables utilisées pour opérationnaliser les concepts étudiées sont les bonnes et d’évaluer dans quelle mesure la méthodologie de recherche (à la fois le design de la recherche et les outils de recueil et d’analyse des données) permet de répondre aux questions initialement posées qui constituent l’objet de la recherche. Il faut donc dans un premier temps, poser convenablement la question ou l’objet de recherche. Préciser les concepts centraux qui sont les dimensions à mesurer. L’étape suivante consiste à établir à partir de l’objet de recherche et à partir de la littérature, un cadre conceptuel qui permet d’identifier les différents éléments de la problématique qui fournit les bases à la construction de la méthodologie et qui permet de déterminer les caractéristiques du terrain de l’observation et des unités d’analyse. Le cadre conceptuel décrit les principales dimensions à étudier les variables clés et les relations présumées (innovation produit et innovation de recherche et développement) entre variables. Il spécifie ainsi ce qui sera étudier et par la même détermine les informations à recueillir et à analyser. Tester la validité du construit dans une démarche qualitative : Problématique, littérature, cadre conceptuel, dimension à mesurer, méthodologie de recherche et la collecte sur le terrain et la dimension ;

II.

Fiabilité et validité de l’instrument de mesure : 1. Définition et généralités : La notion de mesure (traduction) peut se définir comme le processus qui permet de mettre

en

relation

des

concepts

abstraits

et

des

indicateurs

empiriques

(opérationnalisation). Une des préoccupations majeures du chercheur est de vérifier que les données qu’il va collecter sur le terrain rendent compte le plus précisément possible de la réalité qu’il souhaite étudiée. Il est donc indispensable de s’assurer que les indicateurs empiriques assimilés à des mesures du phénomène étudié permettent de donner la meilleure représentation possible de ce phénomène. Ainsi il faut se poser pour chaque mesure effectuée la question de sa fiabilité et de sa validité.

48

Définition de la fiabilité : Un instrument de mesure fiable doit permettre à des observateurs différents de faire des mesures concordantes (similaire, douces) d’un même sujet avec le même instrument, ou doit permettre à un observateur d’établir des mesures similaires d’un même sujet à des moments différents, toujours avec le même instrument. Pour être valide l’instrument doit d’une part, mesurer ce qu’on lui demande. D’autre part, donner des mesures exactes de l’objet étudié (le sujet).

2. Comment s’assurer de la fiabilité d’un instrument de mesure ? Il s’agit de s’assurer que si l’on mesure plusieurs fois le même objet ou le même phénomène avec le même instrument de mesure on obtient des résultats les plus similaires possibles.

2.1.Recherches quantitatives : Pour juger de la pertinence de l’instrument de mesure (items) quantitatif, on se réfère le plus souvent au « modèle de la vraie valeur », qui décompose le résultat d’une mesure en différents éléments : la vraie valeur (théoriquement la mesure est parfaite), et les erreurs. L’erreur aléatoire (instrument peut être sujet d’aléa tel que la fatigue de l’interviewé mais plus l’instrument est fiable plus l’erreur aléatoire est faible), l’erreur systématique (lorsque l’instrument de mesure produit un écart avec le phénomène étudié mais plus l’instrument est valide plus l’erreur systématique est faible). (Exemple : Thermomètre). Quatre méthodes permettent d’estimer la fiabilité :

 La méthode du « test-retest » : effectuer le même test (la même question), sur les mêmes individus à des périodes différentes. On calcule alors un coefficient de corrélation entre les résultats obtenus dans les deux tests successifs, plus le coefficient est proche de 1 plus les mesures sont proches et plus fiable est l’outil utilisé.  La méthode des formes alternatives : C’est la même procédure sauf que le second test n’est pas identique au premier. (le second test n’est pas identique au premier).  La méthode des deux moitiés » consiste à utiliser le même outil au même moment sur les mêmes individus mais en séparant l’ensemble des items d’une échelle à deux moitiés.  La méthode de la cohérence interne : la principale limite de la méthode précédente, des méthodes ont été développées afin d’estimer des coefficients de fiabilité qui mesurent la cohérence interne de l’échelle et qui ne nécessitent pas à découper ou répliquer des items. Le plus connu et le plus utilisé de ces coefficients et l’alpha. 49

2.2.Recherches qualitatives : On s’intéresse ici aux modes de collecte comme l’entretien, l’observation et les sources documentaires. Dans ce cas, la fiabilité et validité des instruments reposent sur les compétences du chercheur. C’est une personne qui observe, interroge et enregistre toute en modifiant les outils d’observation d’entretien d’une visite de terrain à une autre. La fiabilité s’estime d’une part, à partir de la comparaison des résultats de différents enquêteurs lorsqu’il y a plusieurs. Et d’autre part, à partir du travail de codage des données brutes fournies. On peut calculer la fiabilité à partir des résultats obtenus par un même codeur qui a codé les mêmes données à deux périodes différentes ou à partir des résultats de codeurs différents travaillant sur les mêmes données simultanément.

 La fiabilité des observations : on reproche à cette méthode de ne pas procurer des éléments permettant de juger leur fiabilité. Ainsi, il est recommandé de s’assurer que les observateurs apprécient de la même façon le même phénomène, d’observer selon les mêmes normes. (voir page270).  La fiabilité des sources documentaires : elle dépend du travail de catégorisation (sélection) des données écrites pour analyser le texte. Des codeurs différentes analysent le même document doivent avoir les mêmes résultats.  Fiabilité des entretiens : Dans les entretiens libres, analyser la fiabilité revient à analyser la fiabilité des intercodeurs. Dans le cas d’entretiens plus directifs, il est important pour s’assurer de la fiabilité des entretiens, de contrôler que tous les individus interrogés comprennent les questions posées de la même Façon et que les réponses peuvent être codées sans ambigüité. 3. Comment s’assurer de la validité d’un instrument de mesure ? 2.1.recherches quantitatives : La validité d’une mesure est liée au degré d’erreur systématique qu’elle contient. Dans ce sens, la validité du contenu permet d’apprécier la validité d’un instrument de mesure (l’existence de consensus au sein de la communauté des chercheurs quant à cette utilisation), et que les échelles de mesure utilisées des phénomènes sont une bonne représentation de ce dernier.

2.2.recherches qualitatives :  Améliorer la validité des entretiens : le fait que les questions posées concernent le problème étudié n’est pas suffisant. Mais également, la 50

question de privilégier soit la précision des questions ou la richesse des informations obtenues est posée.  Améliorer la validité des analyses documentaires : l’analyse est valide lorsque la description du contenu du document est significative.  Améliorer la validité des techniques d’observation : la validité des techniques dépend du dispositif méthodologique d’ensemble.

III.

La validité interne de la recherche : 1. Définition et généralités : La cohérence interne et la pertinence des résultats générés par l’étude, le chercheur doit se demander dans quelle mesure les explications rivales n’existent pas. Et il convient de vérifier que les variations de la variable à expliquer sont causées uniquement par les variables explicatives. 2. Les techniques d’appréciation de la validité interne Nous ne distinguons pas les techniques utilisées selon la nature quantitative ou qualitative de la recherche. Les problèmes de validité interne doivent se poser dès le design de la recherche, puis suivies tout au long du déroulement de l’étude.

Biais limitant

Signification

Comment éviter le biais ?

Se demander si des événements extérieurs à

Réduire la période d’étude

l’étude et survenus pendant la période d’étude n’ont pas faussé les résultats

avoir un regard critique sur la période retenue

Les objets d’analyse ont chargé pendant le

Réduire la période d’étude

la

validité

Effet d’histoire

Effet

de

maturation

cours de l’étude

Effet de test

Les individus subissent plusieurs fois le

Travailler avec plusieurs échantillons ayant les mêmes

même test à intervalles rapprochés lors d’une

étude

longitudinale,

et

leurs

caractéristiques

réponses au deuxième tour sont biaisées par le fait d’avoir déjà répondu à ce test

51

Effet

Les questions utilisées pour recueillir les

d’instrumen

données sont mal formulées réduit le recueil de données doit être très formalisé

tation

Effet

Le chercheur doit être un expert, le nombre d’enquêteurs doit être

de

Les individus sélectionnés l’ont été sur la

Revoir la constitution de l’échantillon

régression statistique

base de scores extrêmes

Effet de sélection

L’échantillon étudié doit être représentatif de la population pertinente pour l’étude

Accorder une très grande importance à la procédure d’échantillonnag

Effet

Des sujets ont disparu pendant l’étude

Remplacer si nécessaire les sujets sans changer les

de

mortalité caractéristiques de l’échantillon

expérimenta le

Effet

de

contaminati on

Un individu interrogé apprend par d’autres

Mener l’étude de plus rapidement possible ou s’assurer

individus l’objet de l’étude, ce qui fausse les résultats

au mieux de la confidentialité de ces travaux.

Dans le cadre d’une étude cas YIN proposent quelques tactiques pour renforcer la validité :

 Tester les hypothèses rivales et comparer les schémas empiriques mis en évidence aux propositions théoriques issues de la littérature, Le chercheur assure que la relation qu’il établit entre les événements est correcte et qu’il n’existe pas une autre explication.  Décrire et expliquer en détaille la stratégie d’analyse et outils de l’analyse des données  Il est souhaitable de rechercher une saturation du terrain grâce à une collecte des données suffisamment large. Miles et Huber Man proposent d’autres tactiques:  Examiner les différences entre les résultats obtenus  Établir des contrastes et des comparaisons entre les résultats pour tester une conclusion. Vérifier la signification des cas atypiques. En effet, on peut remarquer des exceptions pour tout résultat

52

IV.

La fiabilité de la recherche : 1. Définition et généralités : L’évaluation de la fiabilité de la recherche consiste à établir et vérifier que les différentes opérations d’une recherche pourront être répétées avec le même résultat par des chercheurs différents et, ou à des moments différents. La dimension « de réplication » de la fiabilité qui amène à évoluer les circonstances dans lesquelles une même méthode d’observation va conduire aux même résultats (Kirk et Miller ;1998). Donc la fiabilité d’une recherche (qualitative ou quantitative) concerne toutes les étapes de la recherche, Le chercheur décrive très précisément le design de la recherche pour arriver à un degré de fiabilité élevé.

2. Comment s’assurer de la fiabilité de la recherche ? 2.1.Pour toute recherche qualitative ou quantitative: Donner une grande attention à la transmission d’information d’ordre méthodologique d’un chercheur vers un autre ou d’un terrain vers un autre terrain. C’est pouvoir décrire très précisément la démarche de sa recherche. La fiabilité de la recherche et dépendante de la fiabilité de l’instrument de mesure dans le cas d’une recherche quantitative et de la capacité du chercheur à appréhender et à restituer le terrain d’étude dans la démarche qualitative.

2.2.Cas de la recherche qualitative :  la fiabilité d’une recherche qualitative est liée à la fiabilité de l’instrument de mesure (instrument qualitatif). Donc le chercheur doit porter une attention à la rédaction de consignes pour l’utilisation de cet instrument en répondant aux questions: 

Comment administrer cet instrument



Comment comprendre les questions posées dans l’hypothèse



Comment sélectionner les personnes à interroger



Comment prendre des notes sur les réponses des personnes interrogées

La fiabilité de recherche qualitative repose aussi sur la capacité et l’honnêteté du chercheur à décrire très concrètement le processus entier de sa recherche à travers des techniques et outils statistiques.

V.

La validité externe de la recherche 1. Définition et généralités : 53

La validité externe d’une recherche examine les possibilités et les conditions de généralisation et de réappropriation des résultats d’une démarche. La première préoccupation, de généralisation parait davantage familière à tout chercheur en recherche quantitative dont les caractéristiques de la démarche imposent une précision quant à la population et l’échantillon. Cette préoccupation ne doit pas échapper au chercheur qualitatif. Le statut des résultats issus de l’étude qualitative dépend essentiellement de la précision suivante: soit le cas de l’entreprise étudiée constitue un échantillon représentatif d’une population d’entreprises possédant des caractéristiques similaires, ou confrontées à des enjeux identiques.

Dans les deux cas qualitatif et quantitatif, l’échantillon étudié et la population visée par cette recherche doivent être précisés afin de connaitre le périmètre de généralisation des résultats obtenus. La seconde préoccupation de transférabilité des résultats qui concerne soit les recherches qui évaluent l’extension de la recherche sur d’autres terrains, soit encore les chercheurs qui importent d’un domaine différent de celui qu’ils étudient, des résultats pour alimenter leur propre démarche d’étude. le chercheur dans ces deux cas doit porter une attention particulière à l’éventuel dépendance contextuelle des résultats d’une recherche. Car les recherches qualitatives sont jugées par une trop grande contextualisation (c’est une connaissance approfondie, riche, intime, du contexte de sa recherche). Ainsi, il est nécessaire que le chercheur précise ses objectifs soit de généralisation ou transférabilité et qu’en conséquence, il mobilise les techniques et moyens adéquats pour s’assurer de l’une ou l’autre préoccupation de la validité externe des résultats de sa recherche.

2. Comment s’assurer de la validité externe de la recherche ? 2.1.Recherche quantitative : La validité dans ce cas dépend de la validité externe de l’instrument de mesure. Le chercheur dispose de règles de tests statistiques pour décider si l’écart constaté entre les deux mesures marque une différence aléatoire ou une différence systémique. Ces tests reposent sur le principe de l’inférence statistique. A l’issue d’une recherche menée sur un échantillon le chercheur souhaite généralement généraliser les résultats de son travail, c’est ce qu’on appelle la généralisation statistique, car les résultats prennent souvent la forme de statistique. On a recours ainsi à des formules statistiques pour généraliser les résultats sur la population de référence. La question de transférabilité des résultats vers des terrains parents repose les éléments suivants : la question de la validité de l’instrument de mesure et la question de l’inférence des résultats d’une population vers une autre population. En 54

travaillant sur un échantillon faible le chercheur doit utiliser des tests non paramétriques. 2.2.Recherche qualitative : La validité externe de la recherche dépend dans ce cas de la procédure de recherche. Il existe différentes techniques visant à généraliser des résultats tirés d’études de cas: de nombreux auteurs recommandent de recourir à plusieurs études de cas ( Eisenhardt,1998 , Guba et Lincoln, 1985)

pour faire varier les caractéristiques contextuelles d’une

recherche qualitative et limiter ou maîtriser autant que possible les spécificités dues au choix d’un cas particulier. Plus généralement, la procédure de choix des différents sites d’études doit être menée avec attention car le chercheur peut être sujet à un biais de représentativité ( Miles et Huberman, 1991).

55