Résumé Méthodologie Et Épistémologie de La Recherche [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Introduction:

Deux grands modèles en matière de recherche coexistent: 

Le premier est le modèle dominant nord-américain caractérisé par des démarches quantitatives, déductives, mettant un fort accent sur des méthodes structurées et se limitant à un objet de recherche volontairement restreint à des fins de confronter la théorie aux faits.



Le second est le modèle européen, plus qualitatif, inductif, souvent qualifié d'approximatif, où l'accent sur la méthode n'est qu'accessoire et où il n'y a pas d'effort véritable d'accumulation. L'objectif est là d'expliquer un problème dans son contexte, de manière globale, dans sa dynamique.

Chapitre I: Fondements épistémologiques de la recherche 

Tout travail de recherche repose sur une certaine vision du monde, utilise une méthodologie, propose des résultats visant à prédire, prescrire, comprendre, construire ou expliquer.



Trois grand paradigmes épistémologiques sont identifiés en science de l'organisation: ◦ Le paradigme positiviste: explique la réalité. ◦ Le paradigme interprétativiste: comprendre la réalité ◦ Le paradigme constructiviste: construire la réalité



Trois questions essentielles sur quoi doit s'interroger un chercheur pour définir sa démarche de recherche: ◦ Quelle est la nature de la connaissance produite? ◦ Comment la connaissance scientifique est-elle engendrée? ◦ Quels sont la valeur et le statut de cette connaissance?



Positivistes: La réalité existe en soi. Principe d'objectivité: l'observation de l'objet extérieur par un sujet ne doit pas modifier la nature de cet objet. Indépendance de l'objet par rapport au sujet. Hypothèse ontologique. Cherchent à découvrir la réalité extérieure et les mécanismes qui la conditionnent. S'interroger sur les raisons économiques, politiques, techniques du fait à expliquer. Notion de l'unicité de la science obtenue à travers l'application de critères universels. Suivent une logique déductive, qui est la seule qui permette d'avoir une reproduction objective de la réalité.



Interprétativisme: processus de création de connaissance passe par la compréhension du sens que les acteurs donnent à la réalité. Il s'agit de comprendre cette réalité au lieu de juste l'expliquer. Une démarche se développe à travers la prise en compte des intentions, des

motivations, des attentes, des raisons, des croyances des acteurs. Ils font une distinction entre comprendre et expliquer: l'explication implique la compréhension. La compréhension se fonde sur la notion de Vertehen (comprendre) développée par Weber en 1965, qui recouvre deux niveaux de compréhension qui se fondent sur le processus de création de la connaissance: C'est un processus par le quel les individus, dans leur vie quotidienne, sont amené à interpréter et à comprendre leur propre monde/ C'est un processus par lequel (au sens restrictif) le chercheur interprète les significations subjectives qui fondent le comportement des individus qu'il étudie. Remettent en cause la logique déductive chez les positivistes. Deux critères de validité: 1° Le caractère idiographique des recherches (une recherche représente un caractère idiographique si les phénomènes sont étudiés en situation. C'est le contraire d'une recherche de type nomothétique par le fait qu'elles s'intéressent à des événements singuliers). La connaissance produite doit intégrer une description détaillée du phénomène étudié, incluant ses aspects historiques et contextuels. 2° Les capacités d'empathie que développe le chercheur (c'est la faculté de se mettre à la place d'autrui, de percevoir ce qu'il ressent. Le chercheur doit s'approprier le langage et les terminologies propres aux acteurs. Il devra développer une capacité d'empathie afin d'atteindre les réalités telles qu'elles sont vécue par les acteurs). Denzin 1984 : Ces deux critères peuvent être opérationnalisés à travers les questions suivantes (Est-ce que l'interprétation développée par le chercheur est révélatrice de l'expérience vécue? Est-ce qu'elle est enracinée historiquement et temporellement? L'interprétation proposée par le chercheur est-elle cohérente? L'interprétation produit-elle une compréhension de la réalité sociale étudiée? 

Constructivisme: basé sur la compréhension, mais avec une démarche de construction par l'acte de connaître (le chemin de la connaissance n'existe pas à priori, il se construit en marchant). Remettent en cause la démarche de vérification (un caractère illusoire) et de réfutabilité (un caractère inadapté) des positivistes. Ils refusent de donner un unique critère de validité, et certains auteurs proposent des sources de validation de la connaissance comme le critère d'adéquation (Glaserfled: une connaissance est valide dès lors qu'elle convient à une situation donnée. La métaphore de la clé) et le critère d'enseignabilité (Le Moigne = les critères de la connaissance enseignable s'énonce dans les termes de reproductibilité, intelligibilité, constructibilité. Argumentation = Constructibilité = Reproductibilité = Intelligibilité chez l'interlocuteur)



Constructivistes et interprétativistes: la réalité (l'objet) est dépendante de l'observateur (le sujet). Elle est appréhendée par l'action du sujet qui l'expérimente. Hypothèse phénoménologique: un phénomène est le mode d'apparition interne des choses dans la conscience. Il n'y a donc pas de connaissance objective de la réalité. On ne peut que la

représenter voir la construire. L'interaction qui peut exister entre les acteurs permet de développer une signification intersubjectivement partagée. La connaissance ainsi produite sera alors subjective et contextuelle. Contestent la notion de l'unicité de la science. Ils optent pour une pluralité de méthodes (non pas la méthode déductive seulement comme ont fait les positivistes). 

Tableau 1.2 (page 21)



Les critères de validité de la connaissance: ◦ Positivisme: ▪ Vérifiabilité: une proposition est soit analytique, soit synthétique, soit vraie en vertu de la définition de ses propres termes, soit vraie, si c'est bien le cas, en vertu d'une expérience pratique.

Vérification empirique

▪ Confirmabilité: suit une logique probabiliste. Elle remet en cause le caractère certain de la vérité. On ne peut dire qu'une proposition est vraie universellement mais seulement qu'elle est probable. On ne peut jamais s'assurer cas par cas que, dans toutes les circonstances, elle est vraie. ▪ Réfutabilité: On ne peut jamais affirmer qu'une théorie est vraie, mais on peut en revanche affirmer qu'une théorie n'est pas vraie (réfutée). Une théorie qui n'est pas réfutée est une théorie provisoirement corroborée (non pas confirmée) ◦ Interprétativisme :une recherche représente un caractère idiographique si les phénomènes sont étudiés en ▪ Idéographie

situation. La connaissance produite doit intégrer une description détaillée du phénomène étudié, incluant ses aspects historiques et contextuels

▪ Empathie ◦ Constructivisme : ▪ Adéquation ▪ Enseignabilité les critères de la connaissance enseignable s'énonce dans les termes de reproductibilité, intelligibilité, constructibilité



L'immaturité : La non utilisation d'un paradigme = une science prépragmatique.



La coexistence de plusieurs paradigmes dans une seule recherche permet un enrichissement de la connaissance = Une position épistémologique aménagée (exemple: le positiviste aménagé par Huberman et Miles en 1991).

Chapitre II: Construction de l'objet de la recherche:

L'objet d'une recherche est la question générale que le chercheur s'efforce de satisfaire, l'objectif que l'on cherche à atteindre. Elle est sous forme d'une question relativement large et générale. C'est l'élément clé du processus de recherche: il traduit et cristallise le projet de connaissance du

chercheur. C'est une question ou problématique élaborée par le chercheur au travers de laquelle il construira ou découvrira la réalité. Il s'agit de produire une question liant, articulant ou interrogeant des objets théoriques, méthodologiques et/ou des objets empiriques. Les étapes de construction du design de recherche et de la méthodologie peuvent venir affecter la définition de la problématique initiale. La construction de l'objet est un processus fait d'aller-retours. Ainsi, l'intuition, la rigueur, les connaissances et l'imagination du chercheur, avec son sens de l'observation et de l'abstraction peuvent lui servir comme guide durant son chemin d'aller-retour entre son objet de recherche et sa méthodologie ainsi que ses résultats de recherche. 

Pour les chercheurs positivistes: l'objet de recherche consiste principalement à interroger des faits afin d'en découvrir la structure sous-jacente. Le chercheur élaborera son objet de recherche à partir de l'identification d'insuffisances ou d'incohérences dans les théories rendant le compte de la réalité, ou entre les théories et les faits. Les résultats de sa recherche viseront à résoudre ou combler ces insuffisances ou incohérences afin d'améliorer notre connaissance sur la structure sous-jacente de la réalité.



Pour un chercheur interprétatif: il s'agit de comprendre un phénomène de l'intérieur pour tenter d'appréhender les significations que les gens attachent à la réalité, leurs motivations et intentions. La réalité est essentiellement mentale et perçue (hypothèse phénoménologique), et le sujet et l'objet étudié sont fondamentalement interdépendants (hypothèse d'interactivité). Ils ne cherchent pas à découvrir la réalité des lois la régissant, mais de développer une compréhension de cette réalité sociale.



Pour les cherches constructivistes: construire un objet de recherche consiste à élaborer un projet de connaissance que la recherche s'efforcera de satisfaire. La connaissance que propose le constructivisme est une connaissance à la fois contextuelle et relative, mais surtout finalisée, en ce qu'elle traduit une forte intentionnalité. Ce projet trouve sa genèse dans l'identification d'un besoin de transformation des modes de réponses traditionnelles dans un contexte donné. L'objet d'une recherche constructiviste sera donc éclairci qu'à la fin de la recherche.

Par ailleurs, une fois l'objet temporairement défini au cours du processus de recherche, il est utile d'essayer d'appréhender les postulats qui lui sont sous-jacents afin d'en identifier clairement les limites.  Inductif : des lois et théories à l’explication et la prédiction  Déductif : des faits établis à l’observation aux lois et théories

Chapitre III: Explorer et tester 

L'exploration (démarche inductive ou abductive) est la démarche par laquelle le chercheur a pour objectif la proposition de résultats théoriques novateurs. Elle se réfère à une démarche de type inductive. Explorer répond à l'intention initiale du chercheur de proposer des résultats théoriques novateurs, c'est-à-dire de créer de nouvelles articulations théoriques entre des concepts et/ou d'intégrer de nouveaux concepts dans un champ théorique donné: ◦ L'exploration théorique: a pour objet d'établir un lien conceptuel entre plusieurs champs théoriques ou disciplines. ◦ L'exploration empirique: concerne la production de connaissance sans forcément mobiliser des concepts préalables. ◦ L'exploration hybride: consiste à procéder par aller-retour entre observations empiriques et connaissances théoriques.



Tester (démarche déductive) se rapporte à la mise à l'épreuve de la réalité d'un objet théorique. Fait appel à une démarche de type déductive. C'est l'ensemble des opérations par lesquelles le chercheur met à l'épreuve de la réalité la pertinence d'une hypothèse, d'un modèle ou d'une théorie dans un but d'explication.



La déduction (passer du général au particulier): c'est un raisonnement qui fonde la démarche hypothético-déductive qui consiste à élaborer une ou plusieurs hypothèses et à les confronter ensuite à une réalité. Le but est alors de porter un jugement sur la pertinence de l'hypothèse initialement formulée. Les logiciens établissent une distinction entre : ◦ la déduction formelle: un raisonnement ou une inférence qui consiste à réaliser le passage de l'implicite à l'explicite; la forme la plus usuelle est le syllogisme qui relève d'un raisonnement rigoureux, qui est toutefois stérile dans la mesure où la conclusion ne permet pas d'apprendre un fait nouveau. La conclusion est déjà présupposée dans les prémisses, par conséquent le raisonnement est tautologique. ◦ La déduction constructive: la conclusion, tout en étant nécessaire comme celle de la déduction formelle, consiste un apport pour la connaissance. Elle est une démonstration composée non seulement du contenu des prémisses mais aussi du raisonnement par lequel on démontre qu'une chose est la conséquence d'une autre.



L'induction (passer du particulier au général) et l'abduction: il s'agit du raisonnement par lequel on passe du particulier au général, des faits aux lois, des effets à la cause et des

conséquences aux principes. L'abduction ou l'adduction ont comme objectif de proposer de nouvelles conceptualisations théoriques valides et robustes, rigoureusement élaborées, au lieu de produire des lois universelles (induction), ça nécessite donc un test ou une discution sur les conjectures tirées de l'observation étudiée. L'induction et la déduction sont deux modes de raisonnement distincts qui doivent être compris comme étant plus complémentaires qu'antagonistes.  L’hypothèse est une supposition ou présomption de comportement ou de relation entre des objets étudiés. Quand on élabore une hypothèse, on explicite la logique des relations qui unissent les concepts évoqués dans la problématique (c’est une réponse provisoire à cette dernière). Si le sens de l’hypothèse est +, cela signifie que plus le concept 1 est présent, plus le concept 2 est fort. Le chercheur est amené à élaborer un ensemble d’hypothèses qui doivent s’articuler les unes aux autres et s’intégrer logiquement dans la problématique (il s’agit donc d’un modèle).  La théorie formelle offre généralement l’intégration de plusieurs théories substantives développées sur des domaines empiriques différents et/ou comparables. L’élaboration de la théorie formelle passe généralement par les intégrations successives de plusieurs théories substantives. On distingue trois types de voie d’exploration :  L’exploration théorique : consiste à opérer un lien entre deux champs théoriques au minimum jusqu’alors non liés dans des travaux antérieurs ou entre deux disciplines. Ceci va aider le chercheur à délimiter le cadre conceptuel de sa recherche, et de chercher soit à satisfaire une explication incomplète, soit à avancer une autre compréhension des choses. Elle nécessite de procéder de manière inductive.  L’exploration empirique : le chercheur travail sans a priori. Cette voie permet théoriquement d’élaborer du « nouveau » indépendamment des connaissances antérieures. Il existe certaines limites intrinsèques tels que le fait que le chercheur n’est pas aussi indépendant que cela de ses connaissances antérieures : verra-t-il tout ce qu’il peut voir ou seulement tout ce qu’il sait voir compte tenu de sa formation antérieure, de sa personnalité, de la structure de son esprit ? Ceci reste adapté cependant lorsque le chercheur s’intéresse à des phénomènes mal connus, voire totalement inconnus.  L’exploration hybride : consiste à procéder par allers-retours entre des observations et des connaissances théoriques tout au long de la recherche. Le chercheur a initialement mobilisé

des concepts et intégré la littérature concernant son objet de recherche. Il va s’appuyer sur cette connaissance pour donner du sens à ses observations empiriques en procédant par allers-retours fréquents entre le matériau empirique recueilli et la théorie. Il s’agit d’une démarque abductive dans ce cas. Le test d’une hypothèse : Il existe 4 critères de corroboration d’une hypothèse selon Hempel (1996) : o Quantité. o Diversité : plus la diversité est grande, plus l’hypothèse se trouve corroborée. o Précision des faits : accroissement de la précision des procédures d’observation et des mesures auxquelles elles donnent lieu peut donner plus de poids au résultat. o Simplicité : (le critère le plus subjectif) La plus simple des deux hypothèses, qui ont obtenus les même résultats, sera jugée la plus acceptable.

La démarche hypothético-déductive a quatre étapes selon Anderson (1983) : 1. Nous déterminons quels sont les concepts qui permettent de répondre à notre question de recherche. Nous mettons ainsi en avant, d’après la littérature, les hypothèses, modèles ou théories qui correspondent à notre sujet. 2. Au cours d’une première phase, nous observons que les hypothèses, modèles ou théories mobilisés ne rentrent pas parfaitement compte de la réalité. 3. Nous déterminons de nouveaux modèles, hypothèses ou théories 4. Nous mettons alors en œuvre une phase de test qui va nous permettre de réfuter, ou non, les hypothèses, les modèles ou les théories. Le test d’un modèle : une première approche du test peut consister à décomposer les relations au sein du modèle en hypothèses simples et à tester l’ensemble de ces hypothèses, les une après les autres. Nous aboutissons alors à l’un des trois cas de figure suivants selon Lerbet (1993) : o Aucune des hypothèses n’est infirmée (rejetée). o Plusieurs hypothèses sont infirmées. o Toutes les hypothèses sont infirmées. Ensuite, il convient de choisir une méthode parmi les méthodes spécifiques permettent de tester un modèle dans sa globalité comme, par exemple, les équations structurelles. Le test d’un modèle revient à juger de la qualité de la simulation de la réalité, c’est-à-dire de sa représentativité. Si celle-ci est faible, le modèle est rejeté.

Le test d’objets théoriques concurrents : Face à la multitude des théories et des modèles en concurrence sur un champ de débat épistémologique, le chercheur se crée un conflit interne dû à l'embarras du choix entre rationalisme et relativisme. Deux courants qui s'opposent du fait que le premier pose l'existence d'un critère simple, éternel, universel permettant d'évaluer les mérites comparés de théories rivales, alors que le deuxième nie l'existence d'une norme de rationalité universelle qui permettrait de juger qu'une théorie est meilleure qu'une autre.

Pour Dodd (1968), le choix du modèle susceptible de répondre à sa problématique devra se faire sur la base d'une liste hiérarchisée de 24 critères d'évaluation que l'on peut regrouper en 4 catégories: ◦ Critère de forme, ◦ Sémantiques, ◦ Méthodologiques, ◦ Epistémologiques.

Le chercheur pourra donc comparer la qualité de représentation de la réalité par chacun des modèles qui ont été pris individuellement. Et après avoir calculé les écarts, le modèle pour lequel les écarts sont les plus faibles est alors qualifié de « plus représentatif de la réalité » que les autres.

Chapitre IV : Quelles approches avec quelles données ?  Le chercheur poursuit une triple adéquation entre : Finalité / Approche / Donnée. Problèmes liés au coût et à l’irréversibilité.  Le chercheur doit utiliser des données primaires (issues de l’empirique), tout en s’appuyant sur des données secondaires (des études et informations déjà existantes).  La validité interne et externe : o Les données primaires ont une validité interne immédiate. Sont difficilement accessibles. Sont très flexibles. o Les données secondaires offrent une maîtrise de la validité interne. Sont disponibles et facilement accessibles. Sont peu flexibles.



Il existe une complémentarité entre données primaires et secondaires, et entre les différentes approches tout au long de la recherche : une triangulation émerge dans ce sens ; le processus de recherche se base nécessairement sur l’articulation entre données, approches et finalités. Cette triangulation permet d’adopter une démarche systématique permettant d’évacuer un tel « opportunisme méthodique » imposé par la contrainte temporelle et les difficultés l’accessibilité aux données. Le recours aux données primaires n’est préférable qu’après épuisement de donnés secondaires.

 Approche qualitative : o Selon la nature des données : donnée numérique ou donnée non numérique. (la nature de la donnée ne dicte pas une approche de recherche quantitative ou qualitative) o Selon l’orientation de la recherche : plus de validités externes sont accordées à cette dernière suite à ses limites liées à la généralisation+accroît l’aptitude du chercheur à décrire un système social complexe. Une approche qualitative qui ne serait destinée qu’à tester une théorie+le rôle de l’approche qualitative n’est pas de produire la généralisation d’une théorie existante. o Selon le caractère objectif ou subjectif des résultats : le développement de l’approche qualitative (constructivisme, interprétativisme) a été caractérisé par la prise en compte de la subjectivité du chercheur (la mise en exergue de l’interprétation). o Selon la flexibilité de la recherche : le chercheur bénéficie en général d’une plus grande flexibilité dans le recueil des données.  Approche quantitative : o Selon la nature des données : donnée numérique ou donnée non numérique. (la nature de la donnée ne dicte pas une approche de recherche quantitative ou qualitative) o Selon l’orientation de la recherche : offre plus de validité interne des résultats. Les possibilités d’évaluation d’explications rivales du phénomène étudié sont plus grandes. o Selon le caractère objectif ou subjectif des résultats : l’approche quantitative offre une plus grande garantie d’objectivité. o Selon la flexibilité de la recherche : quantitative n’offre pas de souplesse car elle

implique généralement un calendrier plus rigide.

Chapitre V : Recherches sur le contenu et recherches sur le processus 

Recherche sur le contenu :  Une recherche pourrait avoir comme objectif :  Soit la description (de nature exploratoire) :  Approche par composition de l’objet étudié (pour trouver les éléments qui composent l’objet étudié) : De quoi se compose l’objet à étudier? Quels en sont les éléments qui la composent?  Approche plus globale pour mieux appréhender l’objet étudié (logique de recherche et identification des caractéristiques de forme), exemple de courants dans se sens « Approche configurationnelle » qui consiste en l’élaboration de configurations constituants des points de repères pour une comparaison avec les résultats, deux méthodes peuvent en découler :  La constitution de taxonomie: consiste en une démarche empirique et inductive de classification faisant appel à des méthodes statistiques de classification ou de structuration, et peut

également

découler

d’une

approche

qualitative

(exemple : étudier les styles de management).  La typologie : a un fondement conceptuel, et peut découler d’une analyse de la littérature (théorique) ou encore de l’expérience et de la connaissance accumulées par le chercheur (exemple : les recherches sur les structures organisationnelles).

 Soit l’explication (rechercher le lien de causalité entre les différentes composantes de l’objet de recherche), on peut se poser des questions relatives soit :  Approche hypothético-déductive quantitative : vise une bonne validité externe.  Approche hypothético-déductive qualitative : utilise une démarche

qualitative ou une démarche inductive. Favorisant l’émergence et la mise en évidence des liens de causalité provenant du terrain.  Questions relative à la recherche que peut se posé un chercheur :  Problème relatif aux modèles théoriques ou empiriques que le chercheur peut mobiliser pour comprendre l’objet qu’il étudie.  Problème lié à la définition du niveau d’analyse du chercheur de l’objet étudié. 

Recherche sur le Processus : décrit et analyse comment une variable évolue dans le temps. Analyser le comportement dans le temps

 Pour décrire : soit pour une description en profondeur de l’objet de recherche dans le temps, soit pour décrire le processus, soit pour comparer quelques processus pour en déduire les similarités ou/et les différences.  Pour expliquer : voir si l’évolution de la variable X (qui se modifie à travers le temps) conduit-elle à l’évolution de la variable Y (à travers le temps) ?

Comment conduire une recherche sur le processus (4 étapes) : 1) Préciser la variable processuelle de l’étude. 2) Définir la période de temps d’observation ainsi que l’échantillon d’observation. 3) Définir les concepts clés (sous variables) qui doivent permettre d’observer l’évolution de la variable innovation. Ils sont au nombre de cinq : les acteurs, les idées, les transactions, le contexte, les résultats. 4) Regrouper les incidents critiques qui en découlent et déterminer les phases qui permettent de suivre le déroulement dans le temps des processus étudiés.

Les deux analyses se complète (approche mixe) : le processus enrichit la recherche sur le contenu, et vis versa. Les deux approches sont nécessaires pour améliorer la connaissance d’un objet. Toute décision prise dans l’organisation, tout système organisationnel ne constituent que l’aboutissement d’une succession d’étapes et de dynamiques.

Chapitre 6 : Le design de la recherche C’est la trame qui permet d’articuler les différents éléments de la recherche (problématique, littérature, données, analyse et résultats). Ces éléments doivent suivre une même logique constituant

une forte cohérence dans le travail réalisé.  L’approche positiviste : théorie enraciné. Démarche quantitative.  L’approche constructiviste : recherche par action pour la construction d’une théorie. Démarche qualitative. Van a démontré qu’il n’existe pas de lien simple entre le positionnement épistémologique du chercheur (les paradigmes) et l’utilisation d’une démarche particulière de recherche (quali ou quanti).

Le processus de construction du design final est un processus évolutif qui comporte généralement des itérations lors de son élaboration. Les étapes sont :

Le processus de recherche débuterait avec la réalisation d’études exploratoires (favorisant (l’émergence de théories et l’identification de nouveaux concepts ou nouvelles variables explicatives où les connaissances sont peu développées), puis se poursuivrait avec des designs plus solides, expérimentations et enquêtes quantitatives. (Camerer, 1985). Étude expolratoire a pour objectif de sélectionner les doses à utiliser pour une étude ultérieure plus détaillée

Ce processus permet au chercheur de clarifier ses idées, ce qui conduit généralement à affiner sa problématique. Cette projection future des résultats pourrait démontrer la pertinance de sa problématique. Ceci pourrait faciliter l’analyse au préalable de la démarche choisie, pour d’éventuels conseils provenants des autres chercheurs. Egalement, ce design initial constituera un guide de travail et permettra ainsi d’éviter une trop grande dispersion qui peut être coûteuse, notamment en terme de temps.

Chapitre 7 : Comment lier concepts et données ?  Confrontation de l’ensemble des connaissances, concepts, données et modèles théoriques disponibles avec l’ensemble des données recueillis du terrain, soit sous formes de faits, d’opinions, d’attitudes, d’observations ou de documents.  La mesure est le passage du monde théorique vers le monde empirique à travers les étapes suivantes :

1) Le concept : la représentation abstraite qui conduit vers une représentation imagée. 2) La mesure du concept : découvrir ses composantes.

3) Définition du type de données à recueillir pour chacune des dimensions en s’appuyant sur des indicateurs. 4) Définition des indices : combinaison de plusieurs indicateurs. 5) L’abstraction : le chercheur dispose d’un ensemble de données qu’il tente de mettre en ordre au sein d’un cadre plus large afin de trouver une conceptualisation sousjacente.  La mesure (théories et travaux antérieurs) se réalise à l’aide de codages qui enrichissent l’abstraction (recherche sur terrain, l’empirique) : o Codage ouvert : comparer et calsses les données en ensembles et sous-ensembles selon leur similarité grâce à un examen approfondi des données. o Codage axial : comme le codage ouvert vise en plus à spécifier chaque catégorie en termes de causalité, de contexte, d’actions-interactions et de conséquences de ces derniers. o Codage sélectif : on dépasse le simple cap de la description pour tendre vers la conceptualisation, l’intégration ou l’élaboration théorique. On cherche à définir une catégorie centrale qui cherche à relier l’ensemble des propriétés de toutes les autres catégories. (on modélise les relations)

Chapitre 8 : Echantillon L'échantillion et un sous-ensemble de la population

La validité externe (possibilité de généraliser les résultats sur l’ensemble de la population) peut être obtenue par deux modes d’inférence :  L’inférence statistique (généralisation des résultats sur la population de référence) : o Méthodes probabilistes qui regroupent l’échantillon aléatoire simple, l’échantillon systématique, l’échantillon stratifié, l’échantillon à plusieurs degrés, et l’échantillon par grappes.  L’inférence théorique (généralisation des propositions théoriques sur la base d’un raisonnement logique) : o Méthode par choix raisonnés : reposent sur la subjectivité ne nécessitant ni procédure ni base de sondage. o Méhodes des quotas : la population est segmentée en fonction de critères définis à priori, de telle sorte que chaque élément de la population appartient à un seul segment pour essayer d’avoir un échantillon avec une certaine représentativité de la

population étudiée. o Méthode de boulle de neige. o Méthodes par convenance : sans aucun critère de choix défini à priopri, le chercheur sélectionne son échantillon en fonction des seules opportunités qui se sont présentées lors de sa prospection.

 Le biais de l’échantillon : se sont les erreurs pouvant affecter la validité interne et externe de l’étude. Il existe trois catégories de biais : o La variabilité des estimations : différences constatées d’un échantillon à un autre. o Les biais de l’échantillonnage : lié à la méthode de sélécetion ou à l’estimation. o Les biais non liés à l’échantillonnage : les biais liés à l’absence de l’observation (non réponses dus aux refus ou incaccessibilité des individus de l’échantillon) et les biais liés à l’observation (erreurs des répondants leur de la formulation de leurs réponses ou erreurs de mesure de ces réponses).  La détermination de la taille de l’échantillon : o Pour un traitement quantitatif : la taille de l’échantillon diffère selon l’importance de l’effet mesuré, la puissance du test, le nombre de paramètres à estimer, la taille de l’échantillon à contacter à causes des non réponses probables (la taille de l’échantillon utile devra être corrigée par le taux de réponses estimé précisé généralement par des spécialistes dans le domaine étudié), la variance des éléments de l’échantillon étudié. o Pour un traitement qualitatif :  Le cas unique : son statut fait l’objet de controverses. Yin (1990) estime que le cas unique peut être assimilé à une expérimentation. Aussi, il présente trois situations principales justifiant l’étude d’un cas unique : 1) La 1ere est celle où l’on souhaite tester une théorie existante; 2) La 2eme c’est lorsque le cas présente un caractère extrême ou unique; 3) La 3eme c’est lorsqu’il permet de dévoiler un phénomène inaccessible à la communauté scientifique.  Les cas multiples : deux méthodes permettent de définir la taille de l’échantillon qui présentera une confiance satisfaisante des résultats : 1) Le principe de réplication : (Yin 1990) chaque cas est sélectionné : a) « Réplication littérale » : Soit parce qu’on suppose trouver des résultats similaires : Le nombre de cas de réplication

littérale dépend de l’ampleur des différences constatées et du degré de certitude souhaité. b) « Réplication

théorique » :

Soit

parce

qu’il

devrait

conduire à des résultats différents : Le nombre de cas de réplication théorique dépend des conditions supposées exerçant une influence sur le phénomène. 2) Le principe de saturation : (Glaser et Strauss 1967) la taille adéquate d’un échantillon est celle qui permet d’atteindre la saturation théorique. Généralement la collecte des données s’arrête lorsque les dernières unités d’observations analysées

n’ont pas apporté

d’éléments nouveaux. (ce principe est observé empiriquement)  Deux démarches génériques de constitution d’un échantillon :

« Démarche traditionnelle »

« Démarche itérative »

Le rôle du pré-test (quanti) ou cas pilote (quali) : Il permet de définir la taille et la composition de l’échantillon final.  Autres démarches : o Constitution progressive de l’échantillon dans une démarche classique : moins

coûteuse et permet de déterminer un échantillon final deux fois moins grand que lorsqu’il est déterminé par une démarche classique (déterminé à pripori). Elle n’est pas toujours utilisable. o Constitution d’un échantillon apparié à posteriori : Selon les variables et les données choisies ont détermine l’échantillon finale par une procédure d’échantillonnage aléatoire (elle n’est pas toujours fiable).

 Procédures de contrôle des réponses : essentielle pour détecter les non réponses et les erreurs de réponses par : o L’interrogation d’un sous-échantillon de non répondants. o La réalisatione d’une stratification à posteriori. o Le remplacement des individus défaillants, tout en prenant en concidération les caractéristiques des non répondants pour rechercher des répondants similaires.  Traitement pour un échantillon trop petit : pour obtenir la précision ou le seuil de signification souhaitée, on peut travailler sur une nouvelle vague. Toutefois, ceci n’est pas toujours possible , on peut donc travailler selon deux méthodes principales : o La méthode de Jackknife : former les nouveaux échantillons en retirant à chaque fois un élément de l’échantillon de départ. o La méthode de Boostrap : former les échantillons par une tirage aléatoire avec une remise de l’échantillon de départ.

Chapitre 9 : La collecte de données et la gestion de leurs sources  La collecte de données primaires dans la recherche quantitative : o Par questionnaire : interroger directement des individus en définissant au préalable, par une approche qualitative, les modalités de réponses au travers des questions.  Il faut choisir les échelles de mesure à utiliser avant d’aborder les problèmes de rédaction des questions (ordinales, nominales, intervalle, de proportion). Le chercheur peut soit utiliser des échelles de mesures préexistantes déjà construites et validées par d’autres chercheurs (elles sont fortement liées au contexte de leur utilisation), soit par la construction de ses propres échelles de mesure à défaut d’échelles adaptées (entretiens en profondeur, pré-test,

sélection des items, validation de l’échelle).  Lors de l’élaboration du questionnaire, il faut éviter les erreurs dans la formulation et l’agencement des questions ainsi que dans le choix des réponses proposées. Commencer par des questions simples et fermées et terminer par des questions plus complexes et ouvertes. Les questions foivent se suivre dans une logique de regroupement thématique.  Une fois la première version du questionnaires est faite, il faut effectuer le pré-test pour mettre à l’épreuve la forme des questions, leur ordonnancement et vérifier la compréhension des répondants ainsi que la pertinance des modalités de réponses proposées. Ça permet aussi de mesurer la validité interne des échelles de mesure sur la base de procédure statistique.  L’administration du questionnaire : postal, face à face, par téléphone, par voie informatique (il faut prendre en concidération le taux de non réponse). o Par l’observation : méthode de collecte de données primaires pas très courante en démarche quantitative, car il est difficile d’observer un large échantillon. Il faut recourir à un cadre d’observation systématique pour pouvoir décrir de la même façon les comportements observés. o Par méthodes expérimentales : faire des prélèvements quantitatifs et exploiter statistiquement les données recueillis (méthode des protocoles qui conciste à inviter le participantà décrire les processus internes de traitement de l’information pour sa prise de décision à haute voix, méthode de participation à un jeu de rôle). Leur généralisation est limitée.  La collecte des données primaires dans les recherches qualitatives : o Par entretien :  Entretien individuel : entretien directif, entretien semi directif.  Entretien de groupe : situation d’intération des sujets + un animateur. o L’observation : observation participante (adopte un point de vue interne), l’observation non participante (adopte un point de vue externe).

Remarques :  La contamination : Elle peut être définie comme toute influence exercée par un acteur sur un autre acteur, soit une influence directe ou indirecte. Trois types : contamination intergroupe, contamination entre le chercheur et la population interviewée, contamination entre source de données primaires et secondaires.  Stratégies d’approche et de gestion des sources de données :

o Approches contractuelles ou oblative : encadrer le travail par un contrat entre le chercheur et l’entreprise (contractuelle), ou bien être fondée sur l’esprit de don avec une démarche informelle (oblative). o Approches dissimulées ou ouvertes : divulguer (ouverte) ou non (dissimuler) les objectifs de sa recherche. o La distance ou l’intimité à l’égard de la source de données : plus le chercheur développe une intimité avec les acteurs interroger plus ils auront tendance à se dévoiler et à dévoiler des informations pertinentes. Toutefois, c’est une attitude qui peut avoir un effet négatif sur la validité interne de la recherche. On distingue 4 cas de figure : peu-compatisant et avisé (espion), peu-compatisant et ingénu (outsider), compatisant-avisé (allié) et compatisant-ingénu (novice).  La collecte des données secondaires : o Données secondaires internes : C’est des informations déjà produites par des organisations ou des personnes privées. Que la recherche soit qualitative ou quantitative, ce qui importe c’est la pertinence, la qualité et le format des données. o Données secondaires externes : C’est l’accès aux thèses et recherches déjà effectuées. La lecture de ces travaux facilite

l’identification de la problématique. , elles

permettent d’entretenir un contact permanent avec l’évolution du sujet et des travaux réalisés par d’autres chercheurs.

Chapitre 10 : La validité et la fiabilité de la recherche  Il exsite trois type de validité : o Validité criterium : difficilement applicable à la majorité des concepts en sciences sociale. Critère o Validité de contenu : souligne l’étendu d’un concept qui est difficile à appliquer au science de gestion. o Validité du construit : une notion propre au champ des sciences sociales, où l’objet d’une recherche porte souvent sur un ou plusieurs concepts abstraits qui ne sont pas toujours directement observables. Quand on opérationnalise l’objet de recherche, on parle en terme de construit.

 Validité du construit d’une recherche quantitative : consiste à déterminer si les items (critères) utilisés pour mesurer le phénomène étudié à travers des échelles de mesure, en sont une bonne représentation. Plusieurs méthodes existent pour corréler les items mesurant des phénomènes différents rencontrés durant la recherche (matrice multi-trait ou multiméthodes, analyse factorielle).  Validité du construit d’une recherche qualitative : permet de répondre aux questions initialement posées qui constituent l’objet de la recherche. Problématique (formulation de l’objet de recherche), littérature adéquate, cadre conceptuel (détailler les concepts), dimension à mesurer (résultats et ratios), méthodologie de recherche (démarche de recherche convenable avec la problématique, cohérence) et la collecte sur le terrain.

Validité de l’instrument de mesure : le processus qui permet de mettre en relation des concepts abstraits et des indicateurs empiriques (opérationnalisation). Il faut se poser pour chaque mesure effectuée la question de sa fiabilité et de sa validité. 

Dans une recherche quantitative : « modèle de la vraie valeur » (la vraie valeur et les erreurs aléatoires et systématiques). Quatre méthodes existent : o La méthode du « test-retest » : même test sur les mêmes individus dans des périodes différentes. o La méthode des formes alternatives : même chose mais avec des teste différents. o La méthode des deux moitiés : utilisation du même outil au même moment sur les mêmes individus mais en séparant l’ensemble des items d’une échelle à deux moitiés. o La méthode de la cohérence interne : estimer des coefficients de fiabilité qui mesurent la cohérence interne de l’échelle et qui ne nécessitent pas à découper ou répliquer des items. Le plus connu et le plus utilisé de ces coefficients et l’alpha.



Dans une recherche qualitative (l’entretien, l’observation et les sources documentaires) : la fiabilité et validité des instruments reposent sur les compétences du chercheur. o La fiabilité des observations : ne procure pas des éléments permettant de juger leur fiabilité. o La fiabilité des sources documentaires : dépend du travail de catégorisation des données écrites pour l’analyse du texte. o La fiabilité des entretiens : vérifier si tous les individus interrogés comprennent les questions posées de la même façon, et que les réponses peuvent être codées sans ambigüité.

La validité Interne et la validité Externe de la recherche :  La validité interne : C’est de vérifier s’il existe une cohérence interne ainsi que la pertinence des résultats générés par l’étude. Il convient aussi de vérifier que les variations de la variable à expliquer sont causées uniquement par les variables explicatives.  La validité externe : La validité externe d’une recherche examine les possibilités et les conditions de généralisation et de réappropriation des résultats d’une démarche. o Préoccupation 1 (généralisation) : dans les deux cas qualitatif et quantitatif, l’échantillon étudié et la population visée par cette recherche doivent être précisés afin de connaitre le périmètre de généralisation des résultats obtenus. o Préoccupation 2 (transférabilité) : il doit porter une attention particulière à l’éventuelle dépendance contextuelle des résultats d’une recherche.