Thermodynamique Et Physique Statistique [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Thermodynamique et physique statistique Introduction Les grandeurs physiques Les différentes grandeurs La température Le travail La chaleur Le premier principe Fonctions d’état Le second principe Les échanges de chaleur Entropie Le second principe La physique statistique Mouvements aléatoires Principe ergodique Le second principe Statistiques quantiques Applications Machines thermiques Magnétisme Corps noir Métaux, isolants et semi-conducteurs Diodes Transistors Naines blanches Superfluides Supraconducteurs Références

Introduction Qu’est-ce que la thermodynamique ? Une première tentative sera de dire que c’est la théorie de la chaleur. Mais ce n’est pas tout à fait exact car elle parle de bien d’autres choses et il existe de plus une véritable théorie de propagation de la chaleur, la théorie de Fourier. Il serait alors plus juste de dire que cette théorie est caractérisée par trois choses :  Les relations qui existent entre les grandeurs : pression, volume et température. Il faut y adjoindre bien d’autres grandeurs, mais c’est trois-là sont au cœur de la théorie.  Le caractère macroscopique des systèmes. La thermodynamique de traite pas de la physique des particules atomiques mais des systèmes à notre échelle constituée de milliards de milliards de particules comme une masse de gaz dans une bouteille par exemple.  Les phénomènes présentent un caractère irréversible. L’exemple typique est le verre qui se brise en mille morceaux mais ne se reconstitue pas spontanément. Ou alors, un mélange d’eau chaude et d’eau froide qui donne de l’eau tiède mais ne se sépare ensuite pas spontanément en deux masses d’eaux de températures différentes. A la base, la thermodynamique traite des systèmes dits en équilibre thermique. C’est-à-dire de systèmes ayant une température homogène et constante. Mais elle traite aussi des changements d’équilibres et a depuis longtemps maintenant embrassé les systèmes dit « hors équilibre ». La physique statistique est la théorie qui fait la liaison entre la thermodynamique et la physique fondamentale décrivant les interactions entre particules et atomes. Elle le fait en traitant de la

situation d’assemblées de milliards de particules et en utilisant des outils tels que les probabilités et les statistiques. C’est une théorie très puissante qui a permis d’élargir considérablement le champ d’action de la thermodynamique. La thermodynamique et la physique statistique se trouvent maintenant au cœur de nombreuses problématiques : machines thermiques, physique des matériaux, supraconducteurs, etc. Ses applications sont nombreuses et variées. Nous allons donner une présentation vulgarisée de la théorie, c’est-à-dire sans équations, sauf les plus emblématiques à titre d’illustration. Mais nous essaierons malgré-tout d’être aussi rigoureux que possible et de justifier tant que faire se peut les affirmations. Il n’y aura donc pas non plus de calculs élaborés sauf peut-être quelques calculs élémentaires là aussi à titre d’illustration (quelques additions et multiplications, voire quelques calculs élémentaires, ne devraient pas vous effrayer). Nous commencerons par présenter la scène de théâtre de la thermodynamique, c’est-à-dire ce dont elle parle : les différentes grandeurs physiques. Certaines méritent des explications détaillées. Puis nous passerons aux fondements de la théorie et nous insisterons particulièrement sur le second principe au cœur de l’irréversibilité et la grandeur physique qui est presque la mascotte de la thermodynamique : l’entropie. Enfin, nous passerons à la physique statistique puis à la présentation de quelques applications sans espérer être exhaustif.

Un peu d’histoire Donnons de manière très brève la manière dont les conceptions de la thermodynamique sont apparues. Les concepts de chaleur et de température font parties des grandeurs physiques qui mirent longtemps avant d’être mesurées et comprises. Durant l’antiquité, les concepts restaient encore flou et seules quelques rares expériences permettant de mesurer le « chaud » et le « froid » furent entreprises, en particulier par Héron d’Alexandrie avec son thermoscope et de rares traités dont le « pneumatique » de Philon de Byzance. Les choses n’évoluèrent guère par la suite. Les connaissances restant essentiellement empiriques et du domaine de quelques corps de métiers comme les métallurgistes. Il fallut attendre la renaissance pour que les choses commencent enfin à évoluer. Les exigences de rigueur et d’expérimentation de l’époque conduisent à l’élaboration de thermomètres. D’abord basés sur les premiers travaux de l’antiquité, les premiers thermomètres (tous basés sur la dilatation des corps sous l’effet de la chaleur) commencèrent rapidement à se perfectionner. Pour graduer un thermomètre, c’est-à-dire pour attribuer une température à une indication de l’appareil de mesure, il fallait choisir des points de références faciles à reproduire et à utiliser afin de concevoir des thermomètres tous identiques et fournissant ainsi des résultats aisés à comparer. Le choix de ces points fixes de référence et leur utilisation varia considérablement au cours du temps et des auteurs. Il existait une multitude de choix et de méthodes. On se rendit compte rapidement que les thermomètres indiquaient des valeurs qui dépendaient non seulement de la température mais aussi par la pression atmosphérique. Diverses méthodes furent rapidement mises au point pour rendre la mesure de la température indépendante de la pression. Les premières tentatives pour mettre au point des méthodes sûres et qui conduisirent à des normes utilisées de manière plus répandue furent réalisées par Roemer et Farenheit qui mirent au point une

graduation des thermomètres qui portent le nom de ce dernier. Ils furent suivis par Réaumur qui mit également une méthode qui se répandit après diverses modifications et améliorations. C’est lors de ces travaux de standardisation que furent découverts divers phénomènes montrant les limites des procédés utilisés. Elles ne pouvaient être découvertes que grâce à une précision toujours accrue :  Difficultés d’adhérence des fluides utilisés sur les parois des tubes en verre, faussant les mesures.  Dilatation des fluides non strictement proportionnelle à la température. L’eau, par exemple, se contracte au lieu de se dilater entre 0 et 4 degrés Celsius puis commence seulement à se dilater.  Difficulté d’obtenir des fluides reproductibles et ayant ainsi les mêmes coefficients de dilatation. L’esprit de vin était ainsi souvent préféré au mercure pour sa grande capacité de dilatation. Mais il était difficile d’obtenir de l’esprit de vin de composition constante. La révolution française conduisit à l’adoption de systèmes d’unités standardisés et simples. C’est ainsi que fut adopté le système métrique avec ses divisions basées sur les multiples de dix. Le système de mesure de Celsius fut adopté après quelques adaptations pour donner l’échelle de température allant de 0°C (C pour Celsius) pour la glace fondante à 100°C pour l’eau bouillante. Le procédé fut plus tard quelque peu amélioré avec le système des degrés centigrades utilisant pour le 0 la température du point triple de l’eau (où coexiste eau liquide, glace et vapeur). La différence avec l’échelle Celsius est faible mais importante lorsqu’une grande précision est requise. Malgré tous ces progrès, la chaleur restait une grandeur très mal comprise et il était fréquent de confondre température et chaleur, à travers des associations comme « température = chaleur emmagasinée dans un corps ». On comprit toutefois assez vite qu’il devait y avoir deux concepts : l’un traduisant l’état d’un corps, la température, et l’autre traduisant des échanges entre corps, la chaleur. C’est au dix-huitième siècle que les débuts de la calorimétrie (mesure de la chaleur) commencèrent à donner des résultats par l’élaboration de diverses méthodes efficaces. On mit ainsi en évidence les concepts de chaleur latente, chaleur libérée lors du passage de l’eau liquide à la glace, ainsi que le concept de chaleur spécifique correspondant à la quantité de chaleur portant un corps à une température donnée. La chaleur restait malgré tout une grandeur mal comprise et plusieurs théories antagonistes existaient, celles basées sur des « fluides » nommés caloriques et celles identifiant la chaleur à des mouvements internes de la matière. Certains en vinrent même à se demander s’il n’existait pas plusieurs formes de chaleur. Les percées importantes se firent seulement au cours du dix-neuvième siècle. Citons trois développements importants :  Fourier établit une théorie mathématique précise sur la propagation de la chaleur, indépendamment de la nature de celle-ci. Il dégagea le concept de conductivité thermique.  Carnot publia un mémoire fondateur de première importance sur la force motrice des machines à valeur. Il considéra les relations entre les températures des sources chaudes et froides, la chaleur échangée et le travail fournit par les machines. Il montra ainsi l’existence d’une limite, maintenant appelé rendement de Carnot, à l’efficacité des machines motrices.  Les travaux de nombreux chercheurs, en particulier ceux de Joules, montrèrent qu’il existait une équivalence entre chaleur et travail. Les deux n’étaient que la manifestation d’une

même chose : l’énergie. On fit également plus tard le lien avec le rayonnement thermique (infrarouge). A cela il faut ajouter l’énorme accumulation de mesures de plus en plus précises des propriétés des corps et de leurs comportements en fonction de la température et de la pression. Travail qui continue encore de nos jours surtout avec les nouveaux matériaux ou dans des conditions extrêmes de température (élevée ou très basse) et de pression (très hautes pressions comme on peut en rencontrer, par exemple, au cœur des planètes). L’acte de naissance de la thermodynamique fut établit par Clausius en 1851 qui, rassemblant plusieurs résultats dont celui de Carnot, formula les principes relatifs à l’entropie. Par après, le développement de plus en plus important de l’hypothèse atomique pour la matière conduisit Maxwell, Boltzmann et d’autres à élaborer une théorie statistique des gaz pour rendrecompte de leurs propriétés à partir de leurs constituants. Mais c’est surtout au vingtième siècle que la physique se développa, en particulier suite à l’apparition de la physique quantique qui permet de préciser les comportements des particules et des atomes ainsi que du rayonnement. La thermodynamique et la physique statistique connurent alors une longue période de développements considérables.

Les grandeurs physiques Les différentes grandeurs Passons en revue les différentes grandeurs physiques apparaissant en thermodynamique.

Classification des grandeurs On classe les grandeurs physiques en deux grandes catégories :  Les grandeurs extensives sont des propriétés des corps dans leur ensemble et qui dépendent de la quantité de matière considérée. Si l’on double la quantité de matière, toute autre chose restant égale, la grandeur double de valeur. Un exemple typique est le volume du corps.  Les grandeurs intensives sont des grandeurs caractérisant les propriétés de la matière constitutive d’un corps et de son état. On les appelle aussi variables d’état. Elles ne dépendent pas de la quantité de matière. Par exemple, si l’on a deux morceaux de fer à 20°C, en les mettant ensemble on a juste un morceau de fer plus grand toujours à 20°C.

Grandeurs extensives  Le volume caractérise la place occupée par un corps. Elle se note est se mesure en mètrescubes ( ).  La masse caractérise l’inertie d’un corps sous la mise en mouvement. Plus un corps est massif, plus il est difficile à pousser. Il ne faut pas confondre la masse avec le poids que nous verrons plus bas. Elle se note et se mesure en kilogrammes ( ) ou kilos en abrégé. Attention de ne pas confondre non plus le « m » représentant la variable « masse » et le « m » représentant l’unité de mesure « mètre ». Le contexte permet toujours de savoir de quoi on parle  Quantité de matière. Cette notion est différente des précédentes car différentes sortes de matières peuvent occuper des volumes différents ou avoir des masses différentes. La matière étant composée d’atomes et de molécules, on identifie la quantité de matière au nombre d’atomes ou de molécules constituant la matière. Mais c’est peu pratique car il est généralement très grands. Ainsi quelques grammes d’eau contiennent des dizaines de

milliers de milliards de milliards de molécules d’eau ! Un nombre tellement énorme qu’il est même difficile à imaginer. Pour rendre les choses plus faciles les physiciens utilisent une unité appelée mole (m). Là aussi le contexte permet de ne pas confondre avec le « m » de « mètre ». Une mole de matière correspond à c’est-à-dire 6 suivi de 23 chiffres 0, ou encore six cent mille milliards de milliards de molécules. Ce nombre est une constante appelée nombre d’Avogadro. La quantité de matière se note . Etonnamment, la notion de mole est apparue bien avant la confirmation de l’existence des atomes et bien avant de déterminer ce nombre gigantesque. Les molécules étant constituées d’assemblages bien précis d’atomes les transformations chimiques se font toujours dans des proportions bien déterminées. Prenons un exemple simple pour l’illustrer. Les atomes sont les plus petites entités de la matière manifestant les mêmes propriétés que cette matière. On trouve ainsi des atomes d’hydrogènes, des atomes d’oxygène, des atomes de carbones, etc. Notés respectivement H, O, C. Les chimistes les appellent des éléments. C’est-à-dire des substances qui ne peuvent se décomposer en substances plus simples. Nous aurons l’occasion de reparler un peu des atomes. L’air que nous respirons n’est pas constitués d’atomes d’oxygène mais de molécules d’oxygène constituées de deux atomes d’oxygène liés ensembles. On note donc cette molécule . De même, l’hydrogène se trouve dans des conditions normales sous sa forme moléculaire . L’eau n’est pas un élément chimique. L’eau peut être décomposée en ses éléments simples : l’oxygène et l’hydrogène. On peut faire cette opération, par exemple, en faisant circuler un courant électrique dans l’eau. On obtient ainsi une réaction notée : Les expériences et les mesures précises en chimie montrent que l’eau est composée de deux atomes d’hydrogène et d’un atome d’oxygène . Pour obtenir une molécule d’oxygène, il faut deux atomes d’oxygène et donc deux molécules d’eau. La décomposition correcte est donc donnée par : Deux molécules d’eau donnent donc deux molécules d’hydrogène et une molécule d’oxygène. Les chimistes ont vite constaté (en premier avec Lavoisier) ces relations de proportionnalités. Une même quantité d’eau donnait toujours une même quantité d’hydrogène et une même quantité d’oxygène. Si l’on double la quantité d’eau, on double aussi les quantités d’hydrogène et d’oxygène. Ils ont ainsi inventé la notion de mole. Deux moles d’eau donnent deux moles d’hydrogène et une mole d’oxygène. Ces proportions ne sont que le reflet de la composition moléculaire et atomique de la matière mais les chimistes ne l’ont compris que plus tard (avec Dalton, et la confirmation fut encore plus tardive, en particulier avec Einstein). Par convention, la mole fut définie comme une quantité correspondant à une 12 gramme de carbone pur. Il s’avéra plus tard que le nombre d’atomes correspondant est le nombre d’Avogadro.  Energie. L’énergie est un concept central en physique. Nous y reviendrons plus longuement par la suite. Nous ne donnerons que quelques exemples ici. Pour en donner une définition imagée nous dirons que l’énergie décrit la capacité des systèmes à fournir des actions où à transmettre des actions. L’énergie se note et se mesure en Joule (J). o L’énergie interne est l’énergie totale contenue dans un corps. Elle est due aux mouvements microscopiques des molécules composant ce corps et aux liaisons entre ces molécules. L’énergie interne se note .

o

La chaleur est aussi appelée énergie thermique. Elle se mesurait anciennement en calories. La chaleur se note . o Le travail aussi appelée « énergie noble » est la forme d’énergie transmise par les actions mécaniques. Le travail se note . On place souvent dans cette énergie toutes les formes d’énergie autre que la chaleur et l’énergie interne. o Il existe encore bien d’autres formes d’énergie. Nous y reviendrons.  Entropie. L’entropie est un concept central en thermodynamique. Nous y reviendrons abondamment. Elle traduit une espèce de désordre de la matière. Mais cette notion de désordre est parfois assez éloignée de celui auquel nous pensons intuitivement, ce qui peut être assez trompeur. Il serait plus juste de dire que l’entropie caractérise l’évolution irréversible des systèmes. L’entropie se note et se mesure en Joule par Kelvin (unité de température, voir plus bas) (J/K).  Les forces sont des grandeurs quantifiant l’intensité de l’action d’un corps sur un autre corps. Par exemple, lorsque l’on pousse sur une masse pour la faire bouger, on exerce une certaine force. L’attraction entre le Soleil est les planètes est aussi une force appelée force gravitationnelle. Les forces se mesurent en Newton (N) et se notent généralement . Il peut y avoir des variations dans les notations car il peut y avoir plusieurs forces à prendre en compte et il faut les distinguer. Par exemple par un indice : Pour mesurer une force on peut utiliser un dispositif tel que le dynamomètre.

On exerce une force sur un ressort, par exemple en tirant dessus avec la main. Plus la traction est forte et plus le ressort s’allonge. Une indication graduée indique alors la valeur de la force. Notons que, contrairement aux grandeurs précédentes caractérisées par un simple nombre, la force possède plusieurs caractéristiques : o Elle a une grandeur (la valeur en Newton). o Elle a une direction (la flèche ci-dessus par exemple). o Elle a un point d’application (par exemple, l’extrémité du ressort ci-dessus). Mathématiquement, les physiciens utilisent pour représenter les forces, non pas des nombres, mais des « vecteurs ». Mais nous n’aurons heureusement pas besoin d’en dire plus puisque nous éviterons les calculs mathématiques.  La pression. Lorsque la force a une multitude de points d’applications formant une surface, c’est-à-dire lorsque l’on a une multitude de forces agissant sur une surface, on parle de pression.

La pression est la mesure de la force appliquée en un point donné par unité de surface. C’està-dire qu’on fait la somme des forces appliquées sur une petite surface puis on fait tendre la surface vers zéro, la somme des forces divisées par la surface tend alors vers la valeur appelée pression. Ce n’est pas une opération mathématique triviale car il y a en fait une infinité de forces appliquées (une en chaque point). La force se mesure en Pascal (Pa) et est équivalente à 100000 Newton par mètre carré. Elle se note . Des exemples sont la pression atmosphérique ou la pression de l’eau exercée sur les parois d’un récipient (ou sur tout corps plongé dans l’eau).  Le poids est une force mesurant l’attraction exercée par la pesanteur terrestre sur un corps. D’après les lois de Newton et l’expérience, le poids est toujours dirigé vers le bas (en fait vers le centre de gravité de la Terre) et égal à la masse du corps fois l’accélération de la pesanteur (qui est l’accélération d’un corps tombant en chute libre, hors frottements de l’air, à savoir une accélération de 9.81 mètres par seconde au carré. C’est-à-dire que la vitesse augmente de 9.81 mètres par seconde à chaque seconde), notée g. Elle se mesure en Newton et se note généralement . On notera le risque de confusion avec la pression qui se note également . La différence est donnée par le contexte ou, si l’on doit utiliser les deux, on utilise un autre symbole. Dans l’esprit du grand public, il est fréquent de confondre masse et poids alors que ce sont deux grandeur différentes. Les balances à plateau mesurent la masse tandis qu’un pèse personne mesure le poids. Le fait que l’accélération de la pesanteur soit presque partout identique à la surface de la Terre, fait que la confusion est facile. Un poids de « 1 kilo » correspond en réalité à un poids de 9.81 Newton et à une masse de 1 kilo sur Terre (les variations avec la latitude ou l’altitude sont assez faible, du moins pour celui qui veut mesurer le poids d’un sac de farine). Mais comme la pesanteur varie légèrement d’un point à l’autre et, en particulier, diminue avec la hauteur, une confusion peut être fort dommageable si une grande précision est requise, comme en laboratoire ou certains procédés industriels.

Grandeurs intensives  La masse volumique est la masse par unité de volume. On mesure donc la masse d’une toute petite portion et on divise par le volume de cette petite portion. Elle se note généralement et se mesure en kilo par mètre cube (kg/m³).  La densité est la masse volumique rapportée à celle de l’eau mesurée à 4°C (environ 1000 kg/m³, soit une tonne par mètre cube). C’est-à-dire qu’on divise la masse volumique du corps par cette masse volumique de référence. Elle se note généralement et est sans unité.  La température est une grandeur qui quantifie les notions de chaud et de froid. Elle se mesure en degrés Celsius (°C) ou En Kelvin (K) et se note habituellement T. Cette grandeur étant fondamentale en thermodynamique, nous allons l’étudier en profondeur dans la section suivante.

Il existe encore bien d’autres grandeurs en physique et beaucoup interviennent aussi en thermodynamique. Nous en verrons d’autres dans ce qui suit. Mais arrêtons ici le panorama des grandeurs physique. Nous venons de présenter les plus importantes, celles qui se rencontrent partout en thermodynamique, et elles sont suffisantes pour commencer à comprendre de quoi on parle.

Classification des systèmes physiques Un système physique est un ensemble plus ou moins complexe d’objets, d’appareils, de corps, de substances gazeuses ou liquides bien identifiés et délimité par une frontière également bien identifiée. La frontière peut être imposée par un corps physique, par exemple une paroi. Mais elle peut être aussi tout à fait arbitraire, imposée par des considérations pratiques par exemple, tel qu’une section choisie à un endroit quelconque dans une tuyauterie. Des exemples de systèmes physiques sont une bouteille d’eau, un moteur de voiture, la voiture dans son ensemble, l’atmosphère terrestre, etc. On voit ainsi que les systèmes complexes peuvent euxmêmes être décomposés en sous-systèmes. Les choix des systèmes se font sur des bases pratiques ou liées aux problèmes abordés. On classe les systèmes physiques en trois grandes catégories.  Les systèmes isolés. Ce sont des systèmes tels qu’absolument rien ne traverse leur frontière : ni matière, ni énergie sous quelque forme que ce soit (chaleur, travail,…). Ils sont totalement isolés du système extérieur. Notons qu’il est très difficile d’avoir un système parfaitement isolé. L’isolation est toujours imparfaite, approximative. On peut considérer un système isolé soit comme un objet théorique, soit comme un objet pratique tant que les échanges avec l’extérieur sont suffisamment faible pour être négligés sur l’échelle de temps considérée. Par exemple, un thermo pour garder son café bien au chaud, est un système que l’on peut considérer comme isolé tant que l’on n’attend pas trop longtemps (la chaleur s’en échappe mais très doucement).  Un système fermé est un système qui n’échange pas de matière avec l’extérieur. Sa frontière est imperméable. Mais il peut échanger de l’énergie sous forme de chaleur, de travail,… Les systèmes fermés se rencontrent fréquemment. Parfois, le système n’est fermé que pendant une certaine période de temps, comme le cylindre d’un moteur de voiture à essence lorsque les soupapes sont fermées.  Les systèmes ouverts, enfin, sont les autres cas. Ils échangent matière et énergie à travers leur frontière. C’est le cas d’un moteur qui reçoit de l’essence et de l’air par une admission et rejette des gaz d’échappements.

La température La température quantifie les notions intuitives de chaud et de froid que l’on peut sentir simplement en posant sa main sur une surface. Divers phénomènes physiques sont sensibles à la température. Ces mêmes phénomènes sont d’ailleurs responsables aussi de la sensation physiologique. Sans même connaitre l’origine de la température (que l’on sait maintenant reliée à la notion d’agitation thermique) on peut lui donner un sens physique en la définissant à travers ces phénomènes physiques, en les utilisant pour mesurer

cette quantité ainsi définie et en comparant entre eux les comportements de ces divers phénomènes. Nous ne détaillerons pas tous les phénomènes possibles mais seulement ceux qui sont important pour bien saisir la notion de température et de sa mesure.

La dilatation thermique L’expérience montre que les corps se dilatent lorsque la température est plus élevée. Ainsi, quand il fait chaud, les rails des voies de chemin de fer s’allongent et pour éviter une déformation, une fente est prévue entre chaque rail afin de laisser la place au rail pour se dilater sans entrer en contact avec le rail suivant. La même technique est utilisée pour les ponts d’une certaine taille où des contraintes exagérées dans le bêton ou les poutrelles pourraient avoir des conséquences désastreuses. Une fente est laissée en certains endroits du tablier du point et des tiges coulissantes permettent de garder l’intégrité du pont. Supposons qu’une substance (liquide ou solide) aie un volume V. Si la température augmente, alors la substance va se dilater et son volume va devenir V’, plus grand que V. La différence, notée est la différence : . Ce qui nous intéresse n’est pas tant le volume que son augmentation. Si on prend un objet deux fois plus volumineux, l’augmentation va être deux fois plus grande (la somme de l’augmentation de chaque moitié). Donc, pour avoir une augmentation indépendante du volume choisi au départ, on effectue le rapport qu’on peut exprimer, par exemple, en pourcentage de dilatation. Ce rapport, rapporté à une augmentation de température de un degré, est appelé coefficient de dilatation thermique . Il s’exprime en rapport de dilatation par degré. Notons que la dilatation des liquides peut avoir une conséquence importante. Ainsi, sous l’influence du réchauffement climatique, on parle d’une augmentation du niveau (moyen) des océans de quelques centimètres à dizaines de centimètres (selon les scénarios). Beaucoup pensent que cette augmentation est due à la fonte des glaces. En réalité, si les glaces jouent un rôle dans cette augmentation (en particulier la fonte partielle de l’inlandsis au pôle sud qui est très volumineux, et les glaciers terrestres mais pas la banquise qui est une glace flottante dont le fonte ne fait pas varier la hauteur de l’eau, tout comme la fonte d’un glaçon dans un whisky ne fait pas déborder le verre), l’essentiel de cette augmentation est dû à la dilatation thermique de l’océan ! Cas des gaz Le cas des gaz est un peu différent car un gaz à tendance à occuper tout l’espace disponible. Quelle que soit la température, si un gaz est dans une enceinte de volume V, il occupera tout le volume V, tout simplement. Dans cette situation, comment parler de dilatation ? En fait, celle-ci existe bien mais est contrariée par les parois de l’enceinte. Le gaz « poussant » plus ou moins fort sur les parois. Il faut donc considérer la pression. Imaginons le gaz placé dans un cylindre fermé par un piston sur lequel on applique une certaine force F.

Le piston sera en équilibre si les forces qui s’appliquent sur lui sont également en équilibre, c’est-àdire si la même force est appliquée au-dessus du piston et en-dessous du piston. Si la surface du piston est , la force appliquée par le gaz sera simplement et la force au-dessus du piston est égale à la pression atmosphérique , poussant le piston vers le bas et la force . Par conséquent, si on mesure la pression atmosphérique avec un autre instrument (un baromètre), on est en mesure de connaitre . L’expérience montre que plus le gaz est chaud, pour un volume donné, plus la pression est élevée. En fait, on a une relation de proportionnalité : C’est-à-dire que la pression est proportionnelle à la quantité n de gaz, à la température et inversement proportionnelle au volume occupé. Mieux encore, cette relation est précise et universelle. La constante de proportionnalité est appelée constante des gaz parfait R et est identique pour tous les gaz : oxygène, azote, hydrogène,… Du moins tant qu’on a des densités relativement modeste (à très haute pression cette relation peut se modifier, d’autant plus évidemment qu’à très haute pression le gaz peut tout simplement se liquéfier. Nous allons revenir très vite sur ces changements d’états). Thermomètres Un gaz n’est pas très pratique pour mesurer la température car il faut des volumes importants et il faut mesurer la pression. On préfère donc se baser sur la dilatation des liquides ou des solides. On utilisera de préférence une substance dont le volume varie fortement avec la température, c’està-dire ayant un grand coefficient de dilatation thermique. C’est le cas du mercure et de l’alcool. Le principe d’un thermomètre est alors le suivant.

Un liquide est placé dans un réservoir hermétique prolongé d’un capillaire. Ce liquide est généralement un alcool coloré en rouge (pour être plus visible) ou du mercure. Sous la dilatation thermique, le liquide augmente de volume et s’échappe par la seule voie disponible : le capillaire. Celui-ci étant fin, même un petit volume de liquide correspond à une grande hauteur de liquide. Le thermomètre peut ainsi indiquer de petites variations de températures à l’aide d’une grande variation de hauteur. La précision est de l’ordre du dixième de degré. Notons que le vide dans le capillaire n’est pas parfait. Il s’y trouve toujours une petite quantité de gaz venant du liquide, à pression dite « saturante » (qui dépend fortement de la température). Mais cet effet faible. Le long du tube sont placées des graduations mesurant la hauteur du liquide. Ces graduations sont marquées directement en degrés pour indiquer la température correspondante. Notons que si le capillaire est particulière fin, le liquide a tendance à « coller » par adhérence à la paroi. Lorsque la température augmente, le liquide est poussé par la dilatation du réservoir et monte sans difficulté. Mais lorsque la température baisse, le liquide reste « coincé » dans le capillaire. Dans ce cas, on peut avoir à secouer le thermomètre pour faire retomber le liquide. C’est le cas typique des thermomètres médicaux dont la finisse du capillaire garantit une plus grande variation de hauteur avec la température et donc une meilleure précision dans la gamme de température désirée (autour de 37 degrés Celsius). Mais on ne peut pas rétrécir indéfiniment le capillaire car les forces d’adhésion finiraient par l’emporter empêchant le liquide de monter. Bien entendu, le réservoir, habituellement en verre, se dilate aussi avec la température. Mais le coefficient de dilatation thermique du verre est beaucoup plus faible que celui des liquides utilisés. Le choix de l’alcool ou du mercure résulte de leur grand coefficient de dilatation thermique. A l’inverse, il existe des alliages comme celui appelé « invar » dont le coefficient de dilatation thermique est proche de zéro. Ils sont utilisés dans des dispositifs où la température varie mais où l’invariance du volume de la pièce mécanique est crucial pour le fonctionnement ou la précision. Cette dilatation du réservoir n’a pas beaucoup d’importance car seul le résultat net sur la hauteur du liquide est important. Et les graduations en tiennent compte. Par contre il peut y avoir une influence

de la pression, surtout si elle est élevée, dont on peut avoir à tenir compte (variation du volume du réservoir sous la pression). Certains dispositifs plus simples et plus maniables, mais beaucoup moins précis, existent comme les thermomètres à capsule. Une capsule de gaz varie de volume avec la température et un mécanisme fixé à la capsule déplace une aiguille indiquant directement la température sur un indicateur gradué. Il existe aussi des substances chimiques dont la couleur change à une certaine température, ce qui permet de fabriquer des thermomètres indiquant la température à l’aide de plusieurs substances choisies pour différentes températures. Il existe aussi des dispositifs ludiques dont la couleur change simplement avec la température du corps. Notons aussi que le coefficient de dilatation avec la température varie parfois de manière relativement importante avec la température. Nous avons déjà cité le cas de l’eau qui se contracte légèrement, jusqu’à 4 °C avant de commencer à se dilater. Cela est vrai des solides, des liquides et des gaz à pression élevée. A nouveau, on en tient compte dans les graduations qui ne sont pas nécessairement strictement linéaires (par exemple, si un degré correspond à un centimètre en bas du tube, au-dessus du tube il pourrait correspondre à 8 millimètres).

Les échelles thermométriques Mais comment tracer ces graduations ? Ces graduations indiquent la température mais pour tracer les graduations il faut connaitre la température. Un raisonnement qui se mord la queue ! Une façon de procédé est par comparaison. On utilise un thermomètre de référence et on construit des thermomètres identiques sur lesquels on recopie les mêmes graduations. C’est utilisé dans la fabrication industrielle des thermomètrez « à la chaîne ». Mais cette façon de faire a ses limites : si on fait des copies de copies de copies… On finit par dégrader sérieusement la précision. La fabrication n’étant jamais parfaite, il est aussi important de contrôler les thermomètres. Enfin, le premier thermomètre, celui servant de référence, comment doit-on le graduer ? La seule possibilité consiste à utiliser des phénomènes physiques bien précis dans des conditions bien précises et indiquant des températures fixes (points fixes) choisies par convention (comme dire « la glace fond à zéro degré »). Ces phénomènes peuvent alors être utilisés pour graduer un thermomètre placé à même température. Après avoir tracé quelques graduations repère, on trace alors les graduations intermédiaires simplement en supposant une variation linéaire (coefficient de dilatation constant). Les conventions étant arbitraires, cela peut conduire à plusieurs échelles de température que nous allons décrire. Echelle Celsius Celsius a choisi deux points fixes pour la température :  La température de fusion de la glace : par convention, 0 degrés. Noté 0 °C.  La température d’ébullition de l’eau (transformation en vapeur) : par convention 100 °C. Les mesures s’effectuant à pression atmosphérique normale. Cet étalon de mesure n’était pas extrêmement précis. Il dépend en effet de la pression atmosphérique. Même si on la qualifie de normale, la pression varie de manière non négligeable selon la météo (cyclones et anticyclones, respectivement des basses et hautes pressions) et

l’altitude. L’influence est notable surtout sur la température d’ébullition (au sommet de l’Everest, la différence est déjà considérable). Ces températures dépendent aussi de la pureté de l’eau. Il convient d’utiliser de l’eau distillée. La présence de substances telles que le sel ou le calcaire, ce dernier étant très fréquent dans l’eau de distribution, influence fortement la température de transformation en glace. Echelle Fahrenheit Farenheit, précédé de Roemer puis aidé par lui, choisi après plusieurs choix :  La température de fusion de la glace : par convention 32 °F.  La température du corps humain : par convention 96 °F. Ces choix peuvent sembler curieux mais la température pour la fusion de la glace fut choisir initialement de façon à n’avoir jamais que des températures positives. L’échelle fut en question fut en effet imaginée à Copenhague où la température ne descendait jamais assez pour devenir négative dans cette échelle. Quant au chiffre de 96, différent au début, il fut choisi uniquement pour être un multiple de 32. Il peut paraître étonnant d’avoir choisi la température du corps humain, d’autant que la première tentative de Roemer utilisait l’eau bouillante. Il est donc inutile de dire que la précision était assez mauvaise. Deux personnes n’ont jamais exactement la même température corporelle, même en étant en bonne santé. Par la suite, les continuateurs choisirent donc :  La température de l’eau bouillante : 212 °F. Ce choix fut fait afin de conserver la même échelle (en fait, la température ainsi obtenue pour le corps est de 98.6 °F, ce qui correspond à 37 °C, et non 96 °F qui correspond à 35.6 °C, preuve s’il en est de la précision exécrable obtenue en mesurant la température du corps). Cette échelle de température n’est plus utilisée en science, du moins officiellement, mais elle encore d’application par la plupart des gens dans les pays anglo-saxons. Regardez la météo sur CNN par exemple. Echelle absolue  Le premier point fixe est donné par le point triple de l’eau, fixé à 273.16 K (K pour Kelvin).  Le second point fixe est donné par la température de l’eau bouillante sous la pression d’une atmosphère exactement, fixé à 373.15 K C’est l’échelle de température du Système International. Elle est assortie d’un tas de règles (tel que la pureté de l’eau, etc.) et de considérations sur la précision et l’usage. Le but étant d’avoir la meilleure précision possible dans les expériences ou les applications. Quelques explications sont nécessaires sur ces choix. Tout d’abord, qu’est-ce que le point triple ? Nous y reviendrons ci-dessous mais c’est simplement la température (et la pression précise associée) où la substance (ici l’eau) se trouve dans l’état où coexistent simultanément le liquide, le solide et le gaz. La précision n’est limitée que par l’efficacité de l’équilibre thermique atteint pour l’eau et le thermomètre (qui doit évidemment être à la même température).

Dans cette échelle, la température de fusion de la glace sous pression atmosphérique n’est pas 273.16 K mais 273.15 K (la différence est donc minime). Ainsi, l’échelle complète entre la fusion de la glace et l’ébullition est de 100 degrés. On garde donc la même valeur du degré que l’échelle Celsius, ce qui est pratique, mais avec un simple décalage de273.15. Plus exactement, il s’agit ici de l’échelle centigrade basée sur le point triple de l’eau fixé à 0.01 °C, plus précise que l’échelle Celsius. Il reste à expliquer ce chiffre étrange de 273.16. Il est choisi pour que la température la plus basse possible soit de 0 K (soit -273.15 °C). C’est le zéro absolu. Cet point est très important en thermodynamique où il est beaucoup plus pratique d’utiliser la température T mesurée en Kelvin. Pourquoi est-ce la température la plus basse possible ? Ne pourrait-on pas obtenir une température encore plus basse ? La réponse est non. Le phénomène fut d’abord constaté expérimentalement : plus on refroidissait les fluides avec des mécanismes efficaces, et plus on approchait d’une limite inférieure sans jamais pouvoir l’atteindre. Bien entendu, on aurait toujours pu imaginer que cette limite était due à des raisons technologiques et qu’une ingéniosité accrue ou un phénomène physique nouveau aurait permis de franchir cette limite. Mais l’explication fut comprise très tôt. Nous verrons plus en détail l’explication microscopique de la thermodynamique. Mais il est déjà utile de dire que la température est reliée à l’agitation thermique, expression que vous devez connaitre. Les atomes et les molécules sont agitées de mouvements désordonnés continuels : déplacements, vibrations, rotations,… Et la température st juste le reflet de cette agitation. Le zéro absolu correspond classiquement à l’état d’immobilité totale. La limite devient alors tout à fait compréhensible : difficile d’être plus immobile que l’immobilité totale ! Et donc impossible de descendre en dessous de 0 K. En fait, la mécanique quantique a montré que l’immobilité absolue n’existait pas : il reste toujours de petits mouvements résiduels. Mais ces mouvements résiduels sont bien précis et ne peuvent devenir aussi petit que l’on veut. Ils correspondent à l’état de plus basse énergie des corps, des atomes et des molécules. Appelé état de base. Et cet état de base correspond à 0 K. Puisque l’on parle de basse température, notons qu’elles sont difficiles à atteindre. Les fluides habituels tels que l’eau ou même le gaz carbonique utilisé dans certains réfrigérateurs gèlent endessous d’une certaine température. Il faut donc utiliser des gaz qui se liquéfient à très basse température : oxygène, azote, hydrogène, hélium… L’hélium en particulier reste liquide même à 0K à pression atmosphérique. Il n’est par contre pas très utile à température ambiante car c’est un gaz mauvais conducteur de la chaleur. Pour le refroidissement on utilise donc des réfrigérateurs à plusieurs étages, chacun utilisant des fluides différents et atteignant chacun une température plus basse. L’utilisation des fluides appropriés est également vraie pour les thermomètres. Notons que lorsqu’on approche de 0 K, les difficultés se multiplient :  Les processus physique permettent d’extraire de moins en moins de chaleur et on approche du 0 K sans jamais ‘atteindre (en utilisant divers phénomènes physiques, on atteint tout de même des températures de l’ordre du millionième de degré).

 Il devient très difficile d’isoler les systèmes étudié, le moindre apport de chaleur de l’extérieur faisant littéralement exploser la température qu’on avait eut tant de mal à atteindre. Même l’introduction d’une sonde de mesure est problématique : elle doit être mise dès le départ et refroidie avec le fluide étudié, ce qui n’est pas toujours facile.  Même les thermomètres tel qu’indiqué plus haut de marchent plus, la dilatation thermique étant trop faible pour être d’une quelconque utilité. On utilise donc d’autres mesures qui donnent une indication indirecte sur la température, ce qui peut être assez complexe car il faut connaitre les phénomènes physiques donnant la relation entre la température et ce qui est mesuré.

Changements d’états Les différentes substances peuvent se trouver dans différents états physiques appelés « phases » :  Solide. Où la substance a une forme et un volume bien définis.  Liquide. Ou la substance se déforme, épouse la forme du récipient dans lequel elle est contenue.  Gaz. Où la substance non seulement se déforme mais ne reste pas dans son récipient et occupe toute la place disponible. Notons qu’il existe quelques variations autour de ces états tel que l’état pâteux, l’état granuleux ou encore l’absence d’état gazeux parce que la substance se décompose chimiquement à haute température avant même de fondre (c’est le cas par exemple de certains plastiques comme la bakélite). Enfin, à très haute température on a aussi l’état de plasma où les électrons sont arrachés aux atomes et où on a un gaz formé de particules chargées électriquement. Les changements d’états se produisent lorsque l’on fait varier la température et la pression. On a ainsi :  Le passage de l’état solide à l’état liquide, appelé fusion.  Le passage de l’état liquide à l’état solide, appelé solidification.  Le passage de l’état liquide à l’état gazeux, appelé ébullition. Une partie du liquide peut aussi se transformer en gaz à plus basse température par évaporation, jusqu’à formation d’un équilibre qui dépend de la température et de la pression.  Le passage de l’état gazeux à l’état liquide, appelé condensation.  Enfin, le passage de l’état solide à l’état gazeux, ou l’inverse, appelé sublimation. Un exemple courant de sublimation est la glace sèche, ou glace carbonique, qui a pression atmosphérique passe directement de l’état de glace à l’état de gaz, sans passer par l’état liquide. Notons qu’une caractéristique de ce type de changement de phase est la coexistence, pendant la transformation, des différentes phases concernées. Pendant cette transformation, jusqu’à disparition complète d’une des phases, la température reste constante. D’où leur utilité dans la définition On trace généralement un diagramme P-T ou diagramme pression-température pour illustrer ces phases. Voici un diagramme typique :

La température augmente quand on va de la gauche vers la droite. La pression augmente quand on va du bas vers le haut. A un point donné dans le diagramme correspond une température et une pression bien précis que l’on peut lire directement sur les axes (sur lesquels on indique les valeurs des températures et des pressions). On voit clairement sur le diagramme les différentes phases et leurs transformations lorsque l’on fait varier la température ou la pression. Le point triple est également visible. La forme précise du diagramme peut varier considérablement selon les substances. Le point critique est un point au-delà duquel il n’y a plus de différence entre gaz et liquide. On peut passer continûment de l’un à l’autre en faisant varier la pression ou la température, sans discontinuité et sans étape où la température reste constante. La densité du fluide varie également de manière continue au-delà de ce point alors que lorsqu’on traverse les lignes épaisses, on a de fortes variations de densité. Le point critique peut être difficile à mesurer dans certains cas car il est généralement à très forte pression et température. Notons qu’il peut y avoir différentes phases solides selon la manière dont les atomes et molécules se disposent dans l’espace. Ce sont différentes formes cristallines. On peut même avoir des phases liquides différentes. Certains diagrammes peuvent ainsi être fort complexes, même pour l’eau qui présente différentes types de glace à forte pression. Ce type de diagramme est très utilisé en métallurgie pour les alliages dont le diagramme peut là aussi être fort complexe. Notons que pour les substances qui fondent à haute température comme certains métaux, les températures de fusion ou d’ébullition peuvent aussi servir de moyen de mesure des hautes températures, en particulier dans l’industrie. Notons quelques valeurs intéressantes : Points fixes Valeurs (°C) Ebullition de l’oxygène sous -182.962 pression normale (1

Thermomètre étalon normalisé (tel que fixé par les Bureaux des Poids et Mesures) Voir aussi plus bas Thermomètre à résistance de platine.

atmosphère) Point triple de l’eau Ebullition de l’eau sous pression normale Solidification du zinc Solidification de l’antimoine Solidification de l’argent Solidification de l’or Solidification du palladium

0.01 100 419.58 630.74 961.93 1064.43 1554

Thermocouple platine – platine + 10% de rhodium

Thermomètre optique monochromatique (utilisant la loi des corps noirs)

Variation résistance électrique Il existe d’autres phénomènes utiles permettant la mesure des températures, en particulier ceux permettant de réaliser les thermomètres étalons cités dans le tableau ci-dessous. Les substances peuvent plus ou moins bien laisser passer le courant électrique. Prenons un petite tige d’une substance quelconque. Si en appliquant 1 Volt (V) on a un courant de 1 Ampère (A), alors on dit que sa résistance électrique est de 1 V / 1 A = 1 Ohm. La peau humaine a typiquement une résistance de quelques centaines d’Ohm. Elle varie de manière importante avec la surface de contact (avec la source de courant), le type de peau, l’humidité, la transpiration… Mais cette valeur montre que si l’on touche une alimentation électrique standard de 220 V, on a typiquement un courant de l’ordre de 1 Ampère qui circule dans le corps… ce qui est dangereux et même souvent mortel ! Les substances se classent en trois catégories :  Les conducteurs électriques, qui vont nous intéresser ici. Ce sont les métaux ou certaines substances comme l’eau salée. La résistance typique des d’un millième de Ohm ou beaucoup moins.  Les isolants électriques, tel que le bois, les plastiques, les roches, l’eau distillée, les céramiques,… Leur résistance est typiquement de quelques millions d’Ohm. Ils ne bloquent donc pas totalement le courant mais lui offrent une résistance considérable.  Les semi-conducteurs qui se situent dans la gamme intermédiaire entre isolants et conducteurs. Ils jouent un rôle important en électronique et nous y reviendrons. La résistance électrique d’une substance varie de manière plus ou moins importante avec la température. A température ambiante la résistance électrique des métaux augmente lorsque la température augmente et celle des semi-conducteurs diminue. Ils peuvent donc servir de sonde pour mesurer la température. Les semi-conducteurs, par leur emploi en électronique, peuvent fournir des capteurs très précis. Mais ils ne résistent pas aux hautes températures. Les métaux, par contre, gardent leurs propriétés électriques et mécaniques même à haute température. Ils peuvent donc fournir des étalons de mesure précis et ce d’autant plus que la résistance électrique peut être mesurée avec une très grande précision. Les mesures des résistances et de leur variation avec la température a beaucoup été étudiée. Et le Bureau de Poids et Mesure a choisi un étalon de ce type pour la mesure des températures depuis les très basses températures jusqu’à des températures de l’ordre de 500 degrés Celsius. Pour cela, elle définit un élément en platine pur avec des dimensions très précises et utilisé comme sonde de manière bien définie. On fixe alors en fonction de certains points fixes (voir le tableau) les températures correspondantes et on mesure la résistance électrique. A partir de là, la sonde en platine permet de mesurer des températures très variées avec une grande précision.

Thermocouple Lorsque l’on met deux substances conductrices en contact, on constate l’apparition d’une tension électrique à la jonction de contact. La jonction se comporte comme une pile. Cet effet existe même pour des métaux pour peu qu’on utilise des métaux ou des alliages différents. Puisque l’on a une pile, on pourrait croire qu’il suffit alors de fermer le circuit pour avoir un courant. Mais c’est faux, car en fermant le circuit, on a forcément une deuxième jonction de contact entre les deux métaux.

Les deux jonctions se neutralisent et on n’a aucun courant. Mais le voltage de la jonction dépend de la température. Donc, si les deux jonctions sont à des températures différentes, on a alors un courant électrique qui s’établit. Et la mesure de ce courant donne une indication du voltage et donc de la température.

La mesure de ce courant peut là aussi servir d’étalon de mesure dans certaines gammes de température (voir tableau ci-dessus). L’effet étant d’autant plus important que la température est élevée et ce type de sonde de mesure convient bien pour les températures élevées

Le rayonnement thermique A température encore plus élevée, plus aucun des dispositifs décrits plus haut ne peut marcher car toute substance sans exception finit par fondre ! Il faut donc disposer d’une méthode de mesure à distance. Heureusement, un phénomène physique nous le permet : c’est le rayonnement thermique.

Nous reviendrons en profondeur sur ce phénomène et nous n’en donnerons ici qu’une description partielle pour comprendre son usage. Vous avez déjà tous vu une pièce de métal fortement chauffée. Lorsqu’elle commence à être suffisamment chaude, elle devient rouge, puis jaune puis enfin blanche… avant de fondre. C’est-àdire que lorsqu’elle est fortement chauffée, la pièce de métal émet un rayonnement lumineux. C’est quelque chose qui est utilisé de manière très pratique dans les lampes à incandescence. Elles contiennent un filament en tungstène (qui a l’avantage de fondre à haute température, la plus haute de toutes les substances en fait) placée dans une ampoule en verre sous vide ou contenant un gaz inerte (pour éviter que le filament ne rouille !) Lorsque le courant passe, la résistance électrique du filament provoque un échauffement important (effet Joule) et le filament émet alors une forte lumière blanche. Vous avez déjà aussi certainement vu, au moins au cinéma ou à la télévision, ces lunettes infrarouges qui permettent de voir dans le noir, en particulier les corps humains qui brillent comme des torches. Les corps humain sont en effet à température plus élevée (37 degrés) que l’environnement (sauf si on est dans un sauna, évidemment). Un autre exemple de ce type est le Soleil dont la température de surface est de 6000 degrés et qui émet beaucoup d’ultraviolets (en plus de la lumière visible). Au contraire, les nuages de gaz extrêmement froids dans l’univers émettent surtout des ondes radios qui sont captées par les astronomes à l’aide d’immenses antennes (radiotélescopes). Comme le grand radiotélescope d’Arecibo que vous avez peut-être vu dans le film de James Bond Goldeneye, ou dans le film Contact. Nous avons là une description qualitative du phénomène :  Plus la température est élevée et plus le rayonnement est intense.  Au fur et à mesure que la température augmente, le rayonnement émit passe des infrarouges, au rouge, puis au jaune et au blanc (en fait, au bleu, mais la présence des autres couleurs donne un aspect visuel blanc à lumière) et enfin aux ultraviolets. La loi décrivant ce phénomène s’appelle « rayonnement des corps noirs ». Nous y reviendrons. Notons juste ici un résultat important : l’énergie totale émise est proportionnelle à , c’est-à-dire la puissance quatrième de la température (si la température est multipliée par 10, l’énergie émise est multipliée par 10*10*10*10 = 10000. L’augmentation est donc très rapide). Ce rayonnement est donc un moyen idéal de mesurer des températures très élevées. Un simple capteur optique calibré proprement permet de mesurer la température à distance. C’est ce que l’on fait pour mesurer la température des étoiles ou simplement en laboratoire ou dans l’industrie pour les températures fort élevées (voir le tableau ci-dessus).

Le travail Concept d’énergie mécanique Intuitivement, on a une certaine idée de ce qu’est l’énergie. On sait que pour déplacer une masse importante, il faut fournir un effort. Il faut appliquer une force mais aussi dépenser de « l’énergie ». Cette énergie est apportée d’une manière ou d’une autre : énergie musculaire, énergie thermique, énergie électrique,…

De même, un objet très rapide tel qu’une balle de fusil provoque de gros dégâts lorsqu’il heurte un obstacle. Il communique une grande énergie à l’obstacle ce qui provoque la rupture de celui-ci. On peut aussi constater, lors de tel chocs, une augmentation de la température. De l’énergie mécanique est alors transformée en énergie thermique. C’est exactement ce que fait le forgeron lorsqu’il tape une pièce métallique avec son marteau afin de l’échauffer (ou conserver la température obtenue avec un feu) et le déformer.

Travail Le travail est une forme d’énergie échangée. C’est-à-dire que c’est l’énergie mécanique communiquée par un système à un autre système. Supposons qu’une force soit appliquée à un objet et que le point d’application de la force se déplace de la distance . Alors on définit le travail fourni par la force comme : La distance parcourue * la force dans le sens du déplacement. La dernière remarque sur le sens du déplacement est importante. Voyons trois cas caractéristiques.

Dans ce cas, la force pousse le wagon et lorsqu’il se déplace de la distance la force communique par définition le travail : . (vous aurez notez qu’on utilise des caractères gras pour les quantité telle que les forces qui ont à la fois une grandeur et une direction, comme une flèche, et nous utilisons des caractères maigres pour indiquer seulement la grandeur de la force, indépendamment de sa direction, c’est-à-dire sa valeur en Newton ou bien des mètres pour la valeur de ). On dit aussi que c’est une force qui travaille.

Ici, la force tire sur le wagon pendant qu’il se déplace de la distance . On peut dire aussi que la force pousse le wagon dans l’autre sens, dans le sens inverse du déplacement. Dans ce cas, la force est dite résistante et elle consomme un travail de valeur aussi qu’elle fournit une énergie « négative » . Enfin :

. On peut dire

Ici, la force est perpendiculaire au déplacement. A supposer qu’elle ne soulève pas le wagon (si son poids est suffisant), alors la force ne fournit aucun travail. C’est assez intuitif puisque disposée de cette manière elle ne peut contribuer ni à accélérer ni à ralentir le wagon. Un exemple typique est donné par les planètes tournant autour du Soleil. Leur orbite est (pratiquement) circulaire et la force d’attraction du Soleil est constamment perpendiculaire au déplacement des planètes. Cette force contribue au changement de direction du déplacement, ce qui permet à la planète de tourner, mais elle ne fournit ni ne consomme d’énergie et les planètes peuvent ainsi tourner indéfiniment.

Energie cinétique Revenons au projectile ayant une certaine vitesse. Nous avons vu que lors d’une collision il fournit une certaine quantité d’énergie. L’expérience montre que cette énergie dite énergie cinétique est proportionnelle à la masse du projectile, ce qui est assez logique et au carré de la vitesse. Ce carré est moins intuitif, cela signifie que l’énergie est multipliée par quatre chaque fois que la vitesse double. C’est quelque chose de bien connu des conducteurs de voiture, la sécurité routière rappelant sans cesse que passer de 30 km/h à 60 km/h quadruple l’énergie cinétique du véhicule, augmentant d’autant les risques pour les piétons. Plus précisément, la formule de l’énergie cinétique est :

Ne vous effrayez pas de cette formule. Elle est donnée à titre indicatif et pour montrer : la masse que multiplie le carré de la vitesse et le facteur ½. Ce facteur n’est pas simple à expliquer. Disons qu’il est indispensable au théorème ci-dessous. Il fut d’ailleurs une époque, au début des développements sur la mécanique, où les scientifiques (juste après Newton) cherchaient la bonne formule et avaient essayé et avant que Emilie Du Chatelet ne trouve la bonne relation.

Théorème de conservation de l’énergie mécanique On est dans la situation où l’on a que de l’énergie mécanique, c’est-à-dire du travail effectué par les forces et de l’énergie cinétique, à l’exclusion de tout autre forme d’énergie (thermique, électrique,…). On démontre aisément avec les lois de la mécanique de Newton (ou leur version relativiste) que si le total des forces appliquées à un système S (comme le chariot par exemple) communique un travail au système, alors l’énergie cinétique totale du système (par exemple due à la vitesse du chariot) augmente de la valeur avec . L’énergie fournie se retrouve intégralement, sans ajout ni perte, dans le système. Il est utile ici de parler de la troisième loi de Newton sur la mécanique. Celle-ci parle de l’action et de la réaction. C’est quelque chose de bien connu : si l’on tire un boulet avec un canon, le canon subit un recul important que l’on ne peut éviter qu’en le fixant au sol avec éventuellement des amortisseurs. De même, si vous poussez sur un bloc trop lourd, celui-ci reste immobile. Et malgré la poussée que vous exercez, vous aussi vous restez immobile. Ceci est dû au fait que le bloc exerce sur vous une force de réaction. Enfin, lorsque deux corps s’attirent par la gravitation, par exemple la Terre et la Lune, chacun exerce une force d’attraction sur l’autre. Ainsi, la Lune ne tourne pas exactement autour du centre de la Terre mais les deux, la Lune et la Terre, tournent de concert autour d’un point commun (qui est situé

si près de la Terre qu’il est en fait dans le sol, ceci étant dû au fait que la Lune est beaucoup plus légère que la Terre). Vous avez certainement déjà observé quelque chose d’analogue lorsqu’un athlète s’apprête à lancer le poids et le fait tourner autour de lui. L’athlète tourne alors lui aussi autour d’un axe commun situé un peu devant son corps. L’athlète s’incline et place ses pieds au niveau de cet axe afin de conserver l’équilibre. Notons aussi que les forces d’attractions exercées par la Lune sont facile à constater : elles provoquent les marées. La troisième loi stipule que la force d’action (la poussée sur le boulet ou sur le bloc ou la force d’attraction de la Terre) est identique en grandeur mais de sens contraire à la force de réaction (la force de recul sur la canon, la poussée sur le corps ou l’attraction de la Lune). Cette loi admirablement confirmée découle d’ailleurs logiquement des autres lois de la mécanique et de quelques hypothèses évidentes. Dans le bilan du travail fournit il faut donc tenir compte de ces forces opposées, chacune agissant sur un système différent. Il faut ajouter à cela un forme d’énergie appelée énergie potentielle. C’est une forme d’énergie latente qui peut être transformée en d’autres formes d’énergie, par exemple, l’énergie cinétique. Donnons un exemple simple : la gravitation. Si un corps de masse se situe à une hauteur , on dit qu’il a une énergie potentielle où est l’accélération de la pesanteur (9.81 , environ 35 km/h par seconde). C’est la vitesse acquise par un corps qui chute pendant une seconde. Un corps en altitude a donc plus d’énergie potentielle de gravitation. Et c’est logique. En effet, si un corps est placé en altitude, il peut éventuellement tomber. Auquel cas, sa vitesse de chute augmente et l’énergie potentielle est convertie en énergie cinétique. On démontre (en fait, la définition de l’énergie potentielle est choisie pour cela) que l’énergie potentielle totale plus l’énergie cinétique totale est conservée. Et le travail , ne fait que transférer de l’énergie cinétique ou potentielle entre systèmes. C’est la loi de conservation de l’énergie mécanique totale. Notons qu’on peut également ajouter aisément d’autres phénomènes et sources d’énergie :  Ainsi, un ressort comprimé contient une énergie potentielle (due à la tension mécanique dans le ressort) qui peut être libérée si on relâche le ressort.  Une source électrique fournit un travail qui peut se manifester de manière mécanique, avec un moteur. Cette source fournit une énergie électrique qui est égale à la tension électrique fois le courant électriques. Bien d’autres possibilités existent et tout est construit de manière à avoir une conservation de l’énergie totale qui n’est donc jamais créée ni détruite mais déplacée. Pour plus d’informations sur ce sujet complexe qu’est l’énergie, nous renvoyons à l’article « L’énergie ».

Pressions Rappelons qu’une pression est une force appliquée par unité de surface. Donc, lorsque cette force se déplace, elle doit elle-aussi fournir un travail. Ainsi, si une pression est appliquée sur un piston de surface et que le piston s’enfonce de la distance , alors la pression fournit un travail égal à (le qui vient s’insérer dans la formule est dû au fait que la pression est une force par unité de surface. Pour avoir la force appliquée, on multiplie donc par la surface concernée).

La chaleur Définition La chaleur ou énergie thermique est une forme d’énergie emmagasinée par les corps et qui peut modifier son état physique (changement de phase, variation de sa température,…) ou même modifier certains processus (réactions chimiques). La chaleur est la notion intuitive de « chaud » ou de « froid ». Plus exactement, « chaud et froid » caractérisent plutôt la température et la chaleur est ce qui est émis quand on touche un corps chaud ou qu’on est chauffé par son rayonnement (radiateur électrique par exemple). La chaleur étant une énergie, elle se mesure en Joule. Mais il arrive encore que l’on trouve dans la littérature le terme de « calorie » (par exemple dans la définition de la valeur énergétique des aliments). Une calorie étant la chaleur fournie pour augmenter de 1 degré la température de l’eau. Elle vaut environ quatre Joule. On dit parfois que la chaleur est une forme « dégradée » de l’énergie. Nous verrons pourquoi avec l’étude de la thermodynamique et notamment de l’entropie.

Chaleur spécifique Si on fournit une quantité Q de chaleur a un corps et si sa température augmente de est utilisé pour indiquer la variation), alors la capacité calorifique du corps est .

(le signe

En réalité on distingue la capacité calorifique mesurée a volume constant ou pression constante, si la différence est faible pour les solides et les liquides elle est non négligeable pour les gaz. Mais cela a surtout d’importance dans les manipulations mathématiques des formules reliant toutes ces grandeurs.

Formes de transfert de la chaleur La chaleur peut se transférer d’un corps à l’autre. C’est comme cela que l’on sent la température d’un objet en le touchant ou qu’un thermomètre peut indiquer la température : la chaleur de l’environnement est transmise à son réservoir jusqu’à équilibre, ce qui modifie la température de ce réservoir. C’est d’ailleurs pour cela que si l’on place un thermomètre médical, il faut attendre un peu qu’il se soit mis à la température du corps. Il existe trois mécanismes de transfert de la chaleur :  La conduction thermique. C’est un transfert direct de chaleur par contact. La chaleur contenue dans une substance passant directement dans une autre substance avec laquelle elle est en contact. Ce transfert de chaleur peut aussi avoir lieu dans une même substance si sa température n’est pas homogène. La conduction est un phénomène bien décrit par la théorie de Fourier. Celle-ci dit que la quantité de chaleur qui se propage est proportionnelle à la différence de température entre deux zones. La constante de proportionnalité est appelée conductivité thermique. Certains matériaux comme le verre ou le plastique sont de bons isolants thermiques alors que les métaux conduisent fort bien la chaleur (conductivité thermique élevée). En général, les bons conducteurs de courant sont aussi de bons conducteurs de la chaleur.  La convection. C’est un transfert de matière. C’est-à-dire que la matière en mouvement transporte la chaleur qu’elle contient. Deux exemples très simples peuvent l’illustrer : o Lorsqu’un vent chaud ou froid nous touche, on le sent nettement. La chaleur est ainsi transportée par le vent.

o

Lorsque l’on fait chauffer de l’eau, on constate que celle-ci se met en mouvement en formant des tourbillons. Ce phénomène est dû au fait que l’eau chaude (en bas, près de la source de chaleur) se dilate et est donc plus légère que l’eau placée au-dessus. Comme ce qui est plus léger a tendance à monter, il se forme ces tourbillons (appelés cellules de convection) qui transportent la chaleur du fond du récipient vers la surface.  Le rayonnement. C’est un mécanisme que nous avons déjà vu. Tout corps chaud émet un rayonnement proportionnel à . Ce rayonnement peut en retour être absorbé par un corps qui voit alors sa température augmenter. C’est exactement ce qui se passe lorsque l’on se blottit devant un radiateur électrique ou lorsque l’on se fait dorer au Soleil (attention alors aux ultraviolets qui font bronzer mais peuvent aussi provoquer des coups de Soleil ou augmenter les risques de cancer de la peau). La conduction thermique est de loin le mécanisme le moins efficace, sauf circonstances exceptionnelles :  A très basse température, le rayonnement étant très faible (puisqu’il est proportionnel à ) et si les différences de température sont trop faible pour déclencher une convection, alors la conduction est prépondérante.  A l’intérieur d’un solide compact, seule la conduction permet le transfert de chaleur.  Dans une bouteille thermo, les parois contiennent un vide empêchant la convection et la conduction et les parois réfléchissantes empêchent le transfert par rayonnement. L’essentiel de la chaleur est perdue par les petites zones de contact inévitables entre la bouteille intérieure et les parois (la bouteille de flotte pas dans le vide, il faut bien la fixer d’une manière ou d’une autre et si possible assez solidement pour qu’elle ne ballote pas). Dans l’atmosphère et les océans et même au sein d’une pièce, la convection est le mécanisme de transfert de loin le plus efficaces (courants d’air, cyclones et anticyclones, les courants océaniques, comme le bien conne Gulf Stream). La matière pouvant transférer des quantités très importantes de chaleur en son sein. A très haute température, le rayonnement étant proportionnel à , il devient toujours prépondérant. Ainsi, une pièce de métal chauffée à blanc est brûlante dès que l’on approche la main à quelques centimètres de sa surface, sans même avoir besoin de convection. Si un jour vous assistez au phénomène de coulée de lave, évitez de vous approcher : le rayonnement thermique est tellement intense qu’il pourrait vous faire griller. Une coulée de lave est en effet une roche en fusion qui fond typiquement à beaucoup plus que 1000 degrés. Enfin, dans le vide spatial ou dans un récipient sous vide, seul les rayonnements thermiques peuvent se propager. On dit parfois que l’espace est froid, mais c’est faux. Le vide…. c’est du vide, une absence de contenu, il n’a donc pas de température en soi. Seuls les objets physiques peuvent avoir une température donnée par leur état physique. Ainsi, dans le vide spatial, tout dépend des sources de rayonnement thermique qui vous éclairent. Sur la Lune, où il n’y a pas d’atmosphère, la surface exposée au Soleil monte allègrement à plus de cent degrés alors que la nuit, le sol rayonne vers le vide sans rayonnement en retour, et il peut descendre à des températures très négatives. Il en est de même des objets spatiaux comme les satellites qui sont ainsi soumis à des contraintes thermiques très grandes

Chaleur latente Lorsqu’une substance change de phase, il peut y avoir émission ou absorption de chaleur. Ainsi, lorsqu’une substance liquide se solidifie, ou lorsqu’une substance gazeuse se condense, une certaine quantité de chaleur est libérée. Cela est vrai aussi d’autres changements de phase (par exemple un

changement de phase cristalline pour le solide). Cette chaleur dépend tant de la nature de la substance que du changement de phase considéré. Elle est appelée chaleur latente. C’est d’ailleurs cette chaleur qu’on évacue progressivement dans le processus de congélation ou de liquéfaction pendant toute la durée où les deux phases subsistent simultanément.

Mesure de la chaleur La définition de la chaleur est aussi une question de mesure, elle est définie à travers sa mesure et toute mesure est un processus de comparaison. C’est-à-dire la comparaison entre deux échanges de chaleur, l’un pouvant être choisi éventuellement comme étalon. Supposons que l’on place un corps M1, dans des conditions données de température et de pression, en contact avec de la glace et que l’on constate que cela permette de faire fondre un gramme de glace (il faut bien sûr que le corps en question soit plus chaud et tout autre échange de chaleur avec l’extérieur doit être proscrit). Il fait cela parce qu’il transfère de la chaleur à la glace. Si l’on utilise un autre corps M2 de même nature, de même masse et dans les mêmes conditions, il va également faire fondre un gramme de glace. C’est évident et cela signifie que la même quantité de chaleur a été échangée. Mais supposons maintenant que M2 soit deux fois plus massifs. On postule alors qu’il fera fondre deux grammes de glace, ce que l’on vérifie évidemment par l’expérience. Et c’est logique car cela revient à faire fondre deux fois un gramme de glace avec deux corps de même masse que M1. La quantité de chaleur est donc proportionnelle à la masse. Le tout est maintenant de définir des protocoles de mesure précis et de définir des étalons. Anciennement, l’étalon de chaleur était donné par la calorie : chaleur à fournir pour élever la température de l’eau de un degré. Mais actuellement, à cause de l’équivalence avec l’énergie mécanique (voir plus loin), l’unité d’énergie est maintenant le Joule et son étalon est défini par les lois de la mécanique. Toutefois les mesures thermiques n’ont pas cessé et définir et comparer des processus d’échanges de chaleur reste important. Les instruments de mesure de la chaleur sont des calorimètres.

La paroi épaisse assure à la fois la solidité mécanique face à certaines mesures (réactions fortement exothermiques, c’est-à-dire dégageant beaucoup de chaleur, ou explosives, comme la combustion de certains gaz). Les systèmes de commande permettent de déclencher divers processus tel qu’une combustion avec une étincelle ou un brassage avec une hélice. On étudie les processus (fonte de glace, combustion d’un produit chimique) et on mesure en particulier la température et la pression à l’intérieur du calorimètre (parfois appelé « bombe » !) Avec des étalonnages appropriés, des comparaisons, etc., on peut alors mesurer les quantités de chaleur dégagées ou absorbées dans divers processus Pour la mesure des énergies échangées : - pour la convection il s’agit de chaleur emmagasinée dans le corps, la connaissance (ou la mesure) de la capacité thermique ainsi que la mesure de température et de quantité de matière échangée donne la chaleur transportée - La conduction nécessite aussi la connaissance de la température en une zone et la connaissance de la capacité thermique. - Pour le rayonnement, des détecteurs optiques appropriés permettent de savoir quel quantité de rayonnement thermique est émise et donc grâce aux propriétés des rayonnements thermiques, on sait quelle quantité d’énergie thermique est émise.

Le premier principe Les formes d’énergies Rappelons ce que nous avons dit sur l’énergie mécanique. On a :  L’énergie cinétique, due au mouvement.  L’énergie potentielle.  Les transferts d’énergie se font sous forme de travail.  Et l’énergie totale d’un système varie comme l’énergie qu’il transfert au monde extérieur.

Mais l’énergie potentielle n’est pas toujours de nature (comme notre exemple avec le ressort). Citons :  L’énergie potentielle de gravitation, que nous avons déjà cité.  L’énergie chimique, due à la possibilité d’un système de subir diverses transformations chimiques (réarrangement des atomes au sein des molécules).  L’énergie nucléaire (réarrangement des neutrons et protons au sein des noyaux des atomes).  L’énergie électrique.  L’énergie magnétique. Selon les domaines on ne les appelle pas toujours « énergie potentielle ». Ca dépend du domaine considéré et ce ne sont, simplement, que différentes formes d’énergie. Le terme « potentiel » étant parfois un peu à géométrie variable. A cela il faut ajouter la chaleur contenue dans un corps (chaleur interne) ainsi que la chaleur transférée d’un système à un autre par conduction, rayonnement ou transfert de matière (convection). Quelques autres aspects peuvent parfois être pris en compte tel que le transfert d’énergie sous forme de rayonnement non thermique (par exemple le rayonnement laser) ou sous forme d’autres particules (rayonnements radioactifs par exemple). Ici encore nous pouvons renvoyer à l’article L’énergie pour plus de détails.

Expérience de Joule Voici une expérience qui fut réalisée par Joule au dix-neuvième siècle et qui est très importante pour notre propos :

Une hélice tourne dans de l’eau à l’intérieur d’un calorimètre. Après un certain temps, on arrête l’hélice. L’eau remue encore un certain temps, mais elle finit par s’arrêter à cause de la viscosité (frottements internes dans l’eau et contre l’hélice ou les parois). Quel que soit les moyens pour faire tourner l’hélice (mécaniquement, par exemple avec un jeu de poids et d’engrenages comme dans les horloges à balancier, ou électriquement avec un moteur) on

peut aisément mesurer et calculer la quantité d’énergie communiquée par l’hélice à l’eau dans le calorimètre. De même, en mesurant la température de l’eau, on constate que celle-ci s’est échauffée. Et la capacité calorifique de l’eau permet de calculer précisément la quantité de chaleur supplémentaire stockée dans l’eau. On constate alors que la quantité de chaleur est toujours proportionnelle à l’énergie mécanique communiquée. Il y a équivalence entre chaleur et travail ce qui permet d’affirmer que le chaleur est une forme d’énergie et que la quantité d’énergie totale est conservée.

Premier principe On a maintenant ce qu’il faut pour exprimer le premier principe de la thermodynamique. L’énergie totale, c’est-à-dire la somme de l’énergie cinétique, des différentes formes d’énergie potentielle et la chaleur emmagasinée, pour un système isolé, est constante. Pour un système non isolé, la variation (augmentation ou diminution) d’énergie totale du système est égale à l’énergie transférée avec l’extérieur (respectivement venant de ou vers) sous forme de chaleur ou de travail. Ceci exprime la loi générale de la conservation de l’énergie totale.

Les formes d’énergie en thermodynamique Comme nous l’avons dit ci-dessus, il peut y avoir selon les domaines scientifiques, différentes manières de regrouper les formes d’énergie. En thermodynamique, on distingue pour un système donné :  L’énergie interne. Regroupant les différentes formes d’énergie potentielle et la chaleur emmagasinée. Notée U.  L’énergie totale. C’est l’énergie interne plus l’énergie cinétique. Notée E.  Le travail. Noté W.  La chaleur transférée. Notée Q. Le premier principe peut donc s’exprimer comme

.

Rappelons que le travail des forces de pression est donné par où est la surface et le déplacement. Mais le déplacement d’une surface n’est rien d’autre que la variation du volume (du système, par exemple un cylindre avec un piston) que l’on note , donc le travail des forces de pression vaut . Il doit bien sûr être inclut dans . Enfin, on définit l’enthalpie comme formules.

. Cette relation permet de simplifier bien des

Diagramme pression – volume Nous avons déjà vu le diagramme pression – température, pratique pour l’étude des changements de phase. Un autre diagramme fréquemment utilisé est le diagramme pression – volume. On trace la volume en abscisse (axe horizontal) et la pression en ordonnée (axe vertical). Il s’appelle aussi diagramme de Clapeyron. Un point dans ce diagramme représente l’état du système à un instant donné. Cela signifie que l’on décrit un système avec un seule pression, comme un cylindre de moteur. Si l’on a un système

complexe avec plusieurs parties à des pressions différentes, il faut décomposer le système en soussystèmes et utiliser plusieurs diagrammes. De plus, on imagine bien que lorsque la pression varie, cela ne se fait pas instantanément. Elle varie à l’endroit où on applique la contrainte (par exemple le piston) et qui se propage ensuite dans le milieu. Or le diagramme considère une seule pression uniforme. Il faut donc considérer que l’équilibre a eu le temps de s’établir et la pression est devenue uniforme. Ce n’est heureusement pas une contrainte très forte car les forces de contraintes dans un matériau (solide, liquide ou gaz) se propagent à la vitesse du son. A moins de considérer un grand système (l’atmosphère dans son ensemble par exemple), cette vitesse est généralement considérable par rapport aux échelles de temps considérées. Par exemple, dans un cylindre, la pression s’uniformise en un temps typique de l’ordre du millième de seconde. Un tel raisonnement doit aussi être tenu pour la température, par exemple. Il faut qu’elle ait le temps de s’uniformiser. Cela peut être problématique à très basse température (proche du zéro absolu) où les transferts de chaleur peuvent être extrêmement lents. On considère donc en pratique que le système a le temps de trouver son équilibre au fur et à mesure qu’il change. On parle de « quasi-équilibre ». D’une manière générale, la thermodynamique traite des systèmes à l’équilibre. La théorie a toutefois évolué pour prendre en compte les systèmes hors équilibre bien que nous n’aborderons pas ce sujet pointu ici. Si l’état du système évolue au cours du temps, le point dans le diagramme qui représente son état se déplace donc au cours du temps en traçant une trajectoire. Cette trajectoire représente l’évolution du système :

Le diagramme ci-dessus représente ainsi l’évolution du système de l’état A vers l’état B. Ce type de diagramme (ainsi que d’autres diagrammes, nous en verrons) est utile pour étudier l’évolution des systèmes physiques ou des machines thermiques (moteurs thermiques, générateurs thermiques,…). Si le système évolue et voit son volume varier tout en gardant sa pression constante, on parle d’isobare :

C’est évidemment une simple ligne horizontale. De même qu’une évolution avec un volume constant (par exemple, si l’on chauffe du gaz dans une enceinte fermée) est une verticale, on appelle cela une isochore :

Qu’en est-il de la situation évolue à température constante (comme si le système était relié à un thermostat qui veille a garder la température constante) ? Dans le diagramme pression – température, cela donnerait une simple droite. Mais ici ? Une telle trajectoire s’appelle un isotherme. La loi décrivant les isothermes a été découverte par Boyle et Mariotte au XVIIème siècle. Ils ont découvert qu’un gaz qui est à température constante voit son volume varier en sens inverse de la pression. En somme . Cette loi n’est plus vraie pour les solides, les liquides ou les gaz à forte pression. Mais pour la plupart des gaz dans des conditions normales d’utilisation (les

machines thermiques) cette loi est tout à fait correcte. Un exemple est donné par la pompe à vélo : lorsque vous pressez le piston en bouchant le trou avec le doigt, vous constatez que l’air dans la pompe chauffe fortement. Donc, appuyez lentement de plus en plus fort, suffisamment lentement pour que l’air dans l’a pompe aie le temps de refroidir et rester à température ambiante. Alors la pression que vous appliquez sur le piston augmente en même temps que le volume diminue, dans une relation parfaitement proportionnelle. La courbe ainsi obtenue est une hyperbole (plus exactement une hyperbole dite équilatère par les mathématiciens, celle que vous obtenez lorsque vous tracez le graphe de la fonction ). Vous pouvez le vérifier aussi vous-même en traçant la courbe point par point :

Une autre transformation importante est la transformation adiabatique. Elle correspond à une transformation du système sans échange de chaleur avec l’extérieur (mais éventuellement du travail, si). Un exemple de transformation est celui donné plus haut de la pompe à vélo, quand on appuie suffisamment fort et vite pour que l’air à l’intérieur n’ait pas le temps d’échanger de chaleur avec l’extérieur. Il n’est pas très difficile de calculer les trajectoires correspondantes bien que ce soit un peu plus compliqué que pour les transformations isothermes. On découvre que ce sont là aussi des arcs d’hyperboles mais avec une pente plus élevée. Et la pente est liée à un détail que nous avions déjà signalé : la différence entre les capacités calorifiques à volume et pression constante.

Les transformations isothermes sont parfois qualifiées « d’infiniment lentes » car elles se produisent suffisamment lentement pour que la température puisse être ajustée en permanence par échange de chaleur avec un thermostat ou avec l’environnement. Et les transformations adiabatiques sont parfois qualifiées « d’infiniment rapides » car elles se produisent avant que le système n’aie eut le temps d’échanger de la chaleur avec l’environnement. Les régulations thermiques ou les isolations n’étant jamais parfaites, de telles transformations sont évidemment idéalisées. On ne peut pas avoir de transformation prenant un temps infini ou instantanée. Mais en pratique, à la précision des mesures près, de telles transformations ne sont pas si rare (par exemple, une transformation adiabatique avec bel et bien un échange de chaleur mais si faible qu’il en est négligeable voire non mesurable). Enfin, il y a les cycles. Ce sont des séries de transformations où le système part d’un état donné et revient finalement à son état de départ. C’est le cas typique des machines thermiques comme le moteur thermique. Le moteur thermique est généralement à quatre temps et subit quatre transformations bien particulières formant un cycle. Il existe pour les moteurs des véhicules deux cycles importants, le cycle Otto associé aux moteurs à essence (le jeu de mots « auto » permet de facilement s’en souvenir) et le cycle Diesel associé aux moteurs à diesel (cette fois il n’y a pas de jeu de mots). Voici un autre exemple :

C’est le cycle de Carnot. Il est composé de deux transformations adiabatiques et de deux transformations isothermes. Techniquement difficile à réaliser il a toutefois une grande importance théorique car il correspond à un rendement maximum (nous y reviendrons).

Fonctions d’état Liens entre grandeurs Les différentes variables décrivant l’état d’un système ne sont pas indépendantes. Elles dépendent des lois physiques décrivant les interactions physiques au sein d’un milieu donné. Un exemple bien connu est que la tension électrique aux bornes d’une résistance électrique est donnée par où est ici la tension électrique, le courant électrique passant dans la résistance et la résistance électrique. En thermodynamique, les variables que l’on considère généralement sont la pression , le volume , la température et la quantité de matière . On vérifie expérimentalement qu’une substance donnée obéit à une loi reliant ces quantités sous ). Elle est appelée forme d’une relation que nous pouvons écrire symboliquement comme ( fonction d’état. Un point important est que si l’on donne trois de ces grandeurs, la fonction d’état permet de calculer la quatrième. C’est très utile. Ainsi dans un diagramme de Clapeyron, si on a un point donnant l’état, on a la pression et le volume. Et si on ajoute la quantité de matière, on a alors automatiquement la température. Ainsi, dans le diagramme, pour une substance donnée et une quantité de matière donnée, à chaque point du diagramme correspond une température précise qui peut d’ailleurs être donnée sous forme d’abaques, c’est-à-dire de feuilles avec des axes pression – volume déjà gradués et des courbes en traits fins indiquant les valeurs des températures. Il ne reste plus qu’à tracer les trajectoires décrivant l’évolution du système (par exemple de la vapeur d’eau dans un cylindre) et on peut lire directement toutes les valeurs sur le diagramme.

On a aussi une relation qui donne l’énergie interne en fonction de ces grandeurs et éventuellement d’autres paramètres externes tel que, par exemple, le champ magnétique externe appliqué.

Loi des gaz parfaits La loi des gaz parfaits est une fonction d’état qui s’applique à tous les gaz à des pressions pas trop élevées. A température ambiante, presque tous les gaz obéissent très bien à cette loi. C’est le cas de l’oxygène, de l’azote (et donc de l’air), de l’hydrogène, du gaz carbonique, de l’hélium, de la vapeur d’eau, etc. C’est une loi qui a été établie expérimentalement mais que l’on peut maintenant retrouver à partir de la physique statistique que nous verrons plus loin. Cette loi est :

ici n’est évidemment pas la résistance électrique mais une grandeur constante appelée constante des gaz parfaits. Elle vaut environ 8.3 Joule par mole et par Kelvin. Notons que si la température est constante, pour une quantité de matière donnée, alors on a :

C’est la loi de Boyle et Mariotte que nous avons déjà vu. C’est en établissant diverses lois de ce type que les physiciens du passé ont construit la loi des gaz parfaits.

Autres cas de grandeurs constantes Considérons maintenant le cas où est constant (toujours pour une quantité de matière donnée). Dans ce cas, la loi des gaz parfaits dit que : C’est-à-dire que : (le tilde ~ est utilisé pour dire « proportionnel ») La pression et la température évoluent de concert. Un exemple simple est de l’air chauffé dans une enceinte hermétiquement fermée. Au fur et à mesure que la température augmente, la pression augmente dans les mêmes proportions. Considérons ensuite le cas où

est constant. Dans ce cas on a :

Le volume est proportionnel à la température. Un exemple simple est celui d’un ballon que l’on chauffe. Il gonfle alors de manière proportionnelle à la température (du moins avec une certaine approximation car le caoutchouc exerce une contrainte non nulle qui s’ajoute à la pression, surtout lorsqu’il est proche de l’éclatement). Ainsi, un ballon d’enfant gonflé à l’hélium un peu trop fort et laissé au Soleil risque d’éclater. Enfin, on peut considérer le cas où tout est constant. Si et sont constants, pour une quantité données, alors le volume est également constant. Et la loi des gaz parfaits étant « universelle », cela est vrai pour tous les gaz (dans le domaine où ils sont « parfaits »).

Ainsi, à pression et température constante, tous les gaz cités ci-dessus et bien d’autres ont un volume de 22.4 litres pour une mole de gaz. Cette loi fut très rapidement constatée déjà à l’époque de Lavoisier. En plus de la conservation de la quantité de matière dans les réactions chimiques, on avait une loi de conservation des volumes de gaz. De plus, un peu plus tard, cette universalité du volume de gaz fut un argument très fort pour la théorie atomique de la chimie élaborée par Dalton.

Substances réelles Les loi des gaz parfaits n’est qu’une approximation (en générale suffisante). Mais pour les gaz à fortes pression, les liquides et les solides (où même tous les gaz en général si on est tatillon), les lois sont plus compliquées. En outre, les changements de phase constituent des discontinuités. Par exemple, lorsqu’un liquide se transforme en gaz, son volume augmente brusquement de manière très importante (sauf près du point critique). Un exemple est la tentative (totalement déconseillée) de faire chauffer de l’eau dans un récipient totalement hermétique. Lorsque l’eau arrive à ébullition, la vapeur d’eau n’a pas de place où aller et la pression augmente alors de manière considérable. On arrive ainsi très vite à l’explosion du récipient (explosion très violente). C’est la célèbre expérience de la marmite de Papin qui mit ainsi en évidence l’extraordinaire puissance de la vapeur qui un peu plus tard fut exploitée dans les premières machines à vapeur.

Le second principe Le second principe est très important et est au cœur de la thermodynamique. C’est aussi un sujet plus difficile qui nécessite d’introduire plusieurs choses. Nous découperons donc ce sujet en plusieurs sections.

Les échanges de chaleur Contact entre sources à températures différentes Prenons deux corps. L’un est chaud à température (le signe signifie « plus grand que »).

et l’autre est froid à température

. On a donc

Mettons-les en contact :

L’expérience montre qu’il y a un échange de chaleur entre les deux corps et que la chaleur va toujours du corps le plus chaud vers le plus froid. Ainsi , si vous mettez un morceau de métal très chaud dans de l’eau froide, le métal va se refroidir et l’eau se réchauffer. La chaleur va du métal vers l’eau. Jamais on ne verra spontanément l’eau geler et le métal devenir encore plus chaud. De même, si vous mettez votre main sur une plaque de métal brûlante, vous sentez la chaleur réchauffer (ou brûler) votre main mais jamais vous ne sentirez votre main geler !

Bien entendu, on peut forcer la chaleur à suivre le chemin inverse, mais il ne s’agit plus d’un simple échange de chaleur, il faut apporter une forme de travail, comme avec un réfrigérateur alimenté à l’électricité. L’échange de chaleur spontané, sans apport de travail, lui, va toujours du corps le plus chaud vers le plus froid. C’est le principe clef qui est au cœur de la thermodynamique.

Irréversibilité La nature est décrite par de nombreuses lois physiques. Mais il en existe de plus « fondamentales ». C’est-à-dire des lois qui permettent de retrouver les autres dans des situations particulières ou en ignorant certains détails. Les lois fondamentales, ou interactions fondamentales, sont au nombre de quatre :  L’électromagnétisme (forces électriques et magnétiques).  La gravitation universelle.  Les forces nucléaires fortes (responsables des réactions nucléaires).  Les forces nucléaires faibles (responsables de certaines formes de radioactivité). Un exemple de « loi dérivée » est celle du frottement. Newton a décrit le frottement sec (sans lubrifiant) et montré que les lois donnant les forces de frottement sont assez simples. Quelle est l’origine du frottement ? Il est dû à deux choses :  A l’échelle microscopique, aucun matériau n’est parfaitement lisse. Il y a toujours des aspérités, des stries, des bosses et des creux.  Les atomes et molécules interagissent entre eux en s’attirant et se repoussant. Ces interactions sont de nature électromagnétique (elles sont dues aux électrons tournant autour des atomes, les électrons ayant une charge électrique). Lorsque deux matériaux sont frottés l’un contre l’autre, les irrégularités des surfaces entrent en contact et les interactions entre molécules provoquent des forces entre des irrégularités lorsqu’elles se heurtent. Ce sont ces forces qui sont responsables du frottement qui peut donc s’expliquer par les loi de l’électromagnétisme appliquées à un cas particulier. Un autre exemple est donné par les lois de la chimie qui décrivent la manière dont les atomes s’associent pour former des molécules. Ces associations sont dues aux partages des électrons périphériques des atomes et là encore l’électromagnétisme est à la base de ces phénomènes. Considérons donc uniquement les lois physiques fondamentales puisqu’elles permettent de retrouver tout le reste, du plus petit atome aux plus grosses étoiles. On constate alors que les quatre lois fondamentales sont réversibles. Qu’est-ce que cela signifie ? Considérons la situation suivante :

On jette un caillou vers le haut. Celui-ci, soumit à la gravité, parcoure alors une trajectoire parabolique. Cette trajectoire est une solution des équations décrivant la gravitation. Mais la trajectoire inverse est tout aussi possible (si on jette le caillou dans l’autre sens). Il parcourt exactement la même trajectoire, avec les mêmes vitesses, mais dans le sens inverse. C’est une caractéristique générale des lois fondamentales. Si l’on renverse le temps, alors les solutions renversées dans le temps sont également des solutions de ces lois fondamentales. Evidemment, on n’utilise pas de machine à remonter le temps. Cela signifie simplement que toute trajectoire peut être parcourue dans les deux sens. Mais nous connaissons pourtant des phénomènes qui ne sont pas réversibles. Laissons par exemple tomber un verre d’une certaine hauteur. Il se brise en touchant le sol et les morceaux s’éparpillent. Et cette opération est irréversible. Bien entendu, rien n’empêche de fondre les morceaux et de mouler un nouveau verre pour se retrouver dans la situation de départ. Mais ce n’est pas la trajectoire identique mais renversée dans le temps. Une trajectoire renversée signifierait que les morceaux de verre bondiraient spontanément du sol pour se ressouder et former un verre. Situation tellement impossible qu’un simple coup d’œil permet de le constater lorsque l’on passe un film à l’envers. D’ailleurs, même la méthode qui consiste à prendre un « autre chemin » en fondant le verre pour en fabriquer un nouveau ne revient en réalité pas tout à fait à son point de départ. Des choses ont changés : par exemple, nous avons pu consommer du pétrole pour faire fonctionner le four verrier, opération dont l’inverse serait la synthèse de pétrole à partir de cendres et fumées ! En fait, les phénomènes irréversibles sont presque la règle à notre échelle : un morceau de bois qui brule, un plongeur sautant dans une piscine, une lampe éclairant une pièce (la lumière ne revient jamais dans la lampe pour fabriquer du courant et même en utilisant des dispositifs tel que des cellules photo-électriques qui font effectivement ce travail, il y a toujours des pertes quelque part et on ne sait pas revenir exactement à la situation initiale). En thermodynamique, l’archétype du phénomène irréversible est l’échange de chaleur entre corps à températures différentes. On dit d’ailleurs parfois que la thermodynamique est la science reine de l’irréversibilité. Signalons d’ailleurs en passant que la théorie de Fourier qui décrit la conduction de la chaleur est aussi une théorie présentant ce caractère irréversible. L’expérience montre que l’irréversibilité est une caractéristique des systèmes complexes comme les objets macroscopiques (c’est-à-dire de grande taille par rapport aux atomes). Par exemple, un simple verre est composé de millions de milliards de milliards d’atomes. Mais nous sommes face à un mystère. Si toutes les lois dérivent des lois fondamentales. Et si les lois fondamentales sont réversibles. Comment peut-on arriver à des lois irréversibles comme la thermodynamique ? Pour l’expliquer, il nous faudra faire usage de la physique statistique. Nous y reviendrons quand nous connaitrons mieux le sujet. Pour le moment, ce que nous pouvons faire est simplement constater le caractère irréversible des transferts de chaleur et voir où cela nous conduit.

Entropie Puisque l’on a un processus irréversible, il serait utile de trouver une grandeur qui permet de caractériser ce caractère irréversible. Cette section est essentielle pour comprendre la thermodynamique, mais elle est assez difficile. Curieusement, l’approche microscopique statistique est plus facile. Mais comme nous avons pris le parti d’expliquer la thermodynamique puis la physique statistique, on ne peut y échapper. Lisez-la posément en réfléchissant bien sur les explications.

Caractérisation sur un cycle Notons la chaleur reçue par le système pendant un petit intervalle de temps, divisé par sa température. La raison pour laquelle on considère un tout petit intervalle de temps, c’est pour avoir une température bien définie puisque celle-ci peut varier au cours du temps. est positif pour la chaleur reçue et négatif pour la chaleur donnée par le système. Considérons ensuite un système qui parcourt un cycle comme nous l’avons vu. C’est-à-dire que le système voit son état évoluer et revenir à son état de départ au bout d’un certain temps. En utilisant le premier principe et le constat que la chaleur va toujours d’un corps chaud vers un corps froid, Clausius a montré que sur le cycle complet, en faisant la somme de toutes les petites quantités , on doit forcément trouver une valeur négative. Il y a des notations mathématiques précises pour cela, mais comme elles sont un peu compliquées à expliquer et qu’on veut éviter les mathématiques tant que faire se peut, nous noterons ça comme : (

)

(vous l’aurez compris,

signifie « inférieur ou égal »)

Et de plus, si toutes les transformations subies par le système sont réversibles, alors on doit avoir l’égalité. Et s’il y a certaines transformations irréversibles, alors la valeur doit être strictement négative. Nous allons voir les conséquences de cela, et la raison de ce résultat sera plus claire lorsque nous verrons la situation de l’échange de chaleur entre deux corps.

Valeur entre deux états Considérons deux états A et B et un système qui évolue de l’état A, à l’état B. Plutôt qu’un cycle. On peut alors calculer comme ci-dessus les sommes : (

)

Non plus sur un cycle mais juste sur le passage de l’état A à l’état B. Qu’est-ce qu’on obtient si la transformation A – B est réversible ? Considérons le cycle A – B – A avec des transformations réversibles. Donc on passe de A vers B puis de B vers A, de manière réversible. Donc ce que nous avons vu ci-dessus nous dit que : (

)

Et puisque c’est des sommes : (

)

(

)

Pour aller de l’état A à B, on pourrait avoir des transformations aussi compliquées que l’on veut du moment qu’elles sont réversibles. On pourrait passer par un état C ou par un état D. Mais le membre de droite ci-dessus ne dépend pas de ce choix. On va de A à B comme on veut et de B à A comme on veut. Et les deux sont toujours identiques au signe près. La seule conclusion possible est que la valeur calculée ne dépend pas de la transformation réversible choisie. Le résultat ne dépend que des états A et B. Lorsque la grandeur dépend des états et pas du chemin pour passer d’un état à un autre, on peut dire que cette grandeur caractérise les états. On parle de variable d’état ou de fonction d’état, tout à fait comme les grandeurs que nous avons déjà vue Cette grandeur-ci sera appelée entropie et notée . Lors du passage de A à B, elle varie alors comme : (

)

Ou, si on note

et (

l’entropie des états :

)

Notons qu’à ce stade nous ne connaissons pas la signification physique intrinsèque de cette grandeur. Que signifie-elle physiquement ? Mystère. Mais nous avons une définition basée sur les échanges de chaleur et la température et cela est suffisant pour faire tous les calculs que l’on veut. Et de plus, on sait qu’elle caractérise les phénomènes d’irréversibilités, nous allons le voir. Nous aurons une signification physique avec la physique statistique

Cas irréversible De même, si la transformation A – B est irréversible, un calcul semblable montre que : (

)

En effet, si on considère le cycle A-B-A et qu’on choisit une transformation réversible pour B-A, alors : (

)

Mais comme la somme totale, sur le cycle complet, doit être négative, on doit forcément avoir (

) plus petit que

.

Petites transformations En utilisant ce qui précède, on a une relation très importante. Considérons une toute petite transformation où on peut considérer comme constant avec un tout petit échange de chaleur. Alors : Avec l’égalité dans le cas réversible. Notons que puisque caractérise l’irréversibilité et étant donné ce qu’on a vu sur les échanges de chaleur, cette relation n’est pas étonnante.

Appliquons cela à notre situation où l’on a un échange de chaleur entre deux corps à température constante (on considère l’échange de chaleur suffisamment petit pour que la température des corps ne change pas de manière significative). C’est-à-dire un corps 1 avec une température , un corps 2 avec une température et comme avant . On sait que dans ce cas l’échange de chaleur se fait de 1 vers 2 et est irréversible. Voyons cela. La relation précédente dit que pour le corps 1, la chaleur étant émise elle est prise négativement et donc on a la variation d’entropie du corps 1 : De même, pour le corps 2 avec une chaleur positive puisque c’est de la chaleur reçue :

On peut alors calculer la variation d’entropie totale des deux corps en faisant la somme des deux variations (voir aussi la remarque sur le fait que l’entropie est une grandeur extensive ci-dessous) :

Comme positif :

est plus grand que

, le terme de droite est plus petit et donc le résultat est toujours

Donc ne peut que croître. En fait c’est en raisonnant comme ça sur un cycle que Clausius a établi mathématiquement la relation donnée plus haut sur un cycle.

Propriétés  La définition de l’entropie permet de voir que, comme sont elle dépend, est une grandeur extensive. C’est-à-dire que si deux corps d’entropie respective et sont mis ensembles, leur entropie totale vaut .  Puisque toutes les relations ci-dessus ne parlent jamais que de variations, de l’entropie, alors la valeur de l’entropie n’est définie qu’à une constante près (dans toute variation, cette constante disparait). Il faut choisir pour quel état physique sa valeur serait 0. Un principe parfois appelé troisième principe a été découvert expérimentalement par Nernst. Tous les corps (pour la même quantité de matière), quel que soit leur nature, ont la même entropie au zéro absolu. Par facilité on pose donc si .  Pour tout corps isolé, , donc les relations précédentes montrent que . L’entropie ne peut que croître. Le système évolue spontanément jusqu’à atteindre un équilibre où toute évolution s’arrête. L’entropie atteint alors un maximum.

Le second principe Le second principe Nous avons vu dans la section précédente que pour tout système isolé, la variation d’entropie est . Ceci nous conduit immédiatement à l’expression du second principe de la thermodynamique : Pour tout système isolé (éventuellement tout l’univers) l’entropie totale du système ne décroît jamais.

Nous avons vu que c’était le cas pour deux corps à température différente échangeant de la chaleur. Au cours de ce processus, la température du corps 1 diminue et la température du corps 2 augmente. Le processus s’arrête quand les températures sont uniformes. On parle d’équilibre thermique et à ce stade le système a atteint une entropie maximale.

Le rendement de Carnot Carnot, dans son étude sur les machines thermiques, a montré qu’elles devaient avoir un rendement maximum. Il n’a utilisé pour cela que le principe d’irréversibilité des échanges de chaleur. Supposons que l’on ait machine constituée comme suit (une machine thermique, un moteur) :

On a une source chaude a température . Ca peut être une source de vapeur, une source chauffée au charbon, au pétrole, etc. Celle-ci envoie un flux de chaleur vers la machine (dont on ne donne pas le détail). A la sortie, un flux de chaleur est récupéré par une source froide à température un refroidisseur à température ambiante par exemple. On a bien sûr

. Ce peut être

.

La machine transforme une partie du flux de chaleur en travail qui est la partie utile de la machine. Ce peut être une énergie mécanique (une bielle faisant tourner une roue de voiture ou de train) ou une énergie électrique (centrale thermique) par exemple. On appelle rendement de la machine le rapport :

C’est-à-dire le rapport (généralement exprimé en pour cent) de l’énergie utile par l’énergie fournie par la source de chaleur. C’est qui est utilisé car habituellement la source chaude est alimentée par un carburant quelconque qui fournit cette chaleur. C’est l’énergie dépensée. Carnot a montré que le rendement maximal, appelé rendement de Carnot, avait pour valeur :

Aucune machine de ce type ne peut avoir de rendement supérieur. A titre d’exemple, supposons que =20 °C (température ambiante) et =200 °C (une vapeur surchauffée par exemple). N’oublions pas qu’on doit utiliser la température absolue, on doit donc ajouter 273.15. On obtient :

On ne peut donc récupérer que 37.6% de la chaleur pour la transformer en travail. La démonstration n’est pas très difficile, mais vous pouvez l’éviter si quelques calculs vous effraient. Démonstration Le premier principe nous dit que :

Le rendement vaut donc :

Si l’on calcule l’entropie (on suppose la température constante durant un bref échange ou la température est maintenue constante par un apport de carburant d’un côté et d’air frais de l’autre), on trouve :

Le second principe nous dit que, au mieux, avec des transformations réversibles dans la machine (ce que permet d’ailleurs le cycle de Carnot que nous avons vu) :

Donc, au mieux :

Soit :

Et le rendement vaut dans ce cas : (

)

CQFD.

Machines perpétuelles Peut-on fabriquer une machine à mouvement perpétuel ? C’est-à-dire qui fonctionne indéfiniment sans aucun apport d’énergie. Pour fabriquer une machine à mouvement perpétuel, il n’y a que trois possibilités : 1) Elle ne produit ni ne consomme d’énergie. 2) Elle ne consomme pas d’énergie mais en produit. 3) Elle consomme de la chaleur en refroidissant une source, chaleur transformée en travail. Voyons ces trois possibilités de plus près : 1) La machine ne consomme pas d’énergie mais n’en fournit pas non plus. Son énergie est donc constante et jusque-là pas de problème puisque le premier principe est respecté. Elle n’échange ni chaleur ni travail avec l’extérieur et on peut imaginer une machine d’entropie constante. Le second principe est respecté ici.

On a donc une machine qui ne change pas d’état (au moins après un cycle) et ne fournit pas d’énergie. On peut par exemple imaginer une machine… à l’arrêt. Ce qui n’est guère intéressant. On parle d’ailleurs parfois de « mouvement » perpétuel. On peut donc imaginer que quelque chose se passe. Et en effet, cela est possible. Un exemple est donné par les planètes tournant autour du Soleil. Elles tournent imperturbablement depuis des milliards d’années. En fait, cet exemple n’est pas parfait. En effet, la mécanique montre que les planètes se perturbent les unes les autres et le système est chaotique : une planète peut être perturbée au point de changer d’orbite. Mais rassurez-vous, ce chaos ne se manifeste sur des milliards et des milliards d’années. Aucun risque que la Terre soit éjectée de son orbite demain ! Par contre, pour les petits corps comme les astéroïdes, tournant entre Jupiter et Saturne, la possibilité est plus grande et de temps à autre un de ces petits corps change fortement d’orbite après une perturbation voire une collision avec un autre petit corps. On sait que la crainte qu’un astéroïde vienne heurter la Terre n’est pas nulle et divers projets existent pour les surveiller (surtout ceux dont l’orbite croise déjà celle de la Terre, appelés géo-croiseurs) et trouver des solutions pour les dévier en cas de besoin. En outre, la relativité générale montre que les planètes émettent des ondes gravitationnelles, perdent de l’énergie et tombent en spirale sur le Soleil. Mais on parle cette fois en milliards de milliards d’années. Le Soleil sera totalement éteint bien avant que ce genre de chose ne se produise. Donnons un autre exemple plus sûr : les électrons tournent autour des atomes là aussi de manière imperturbable. Et si on ne dérange pas l’atome, cela peut durer éternellement. Toutefois, on aimerait avoir une vraie machine. Pas juste un atome. Une machine avec toutes sortes de mécanismes et peut-être quelque chose de « visuel » comme une roue qui tourne. Mais là, cette fois, c’est irréalisable car il y a toujours émission de chaleur par frottement mécanique, ne fut-ce que les frottements de l’air, ou émission de chaleur par courant électrique dans les résistances. Il y a toutefois quelques exceptions. Il est possible d’avoir du courant tournant indéfiniment dans une boucle avec des supraconducteurs ou des mouvements sans frottement avec les superfluides. Nous verrons cela plus tard. Mais ce n’est guère utile (outre la difficulté de réalisation : il faut refroidir à très basse température et donc il faut de l’énergie pour refroidir… ou bien isoler… mais les isolations parfaites n’existent pas). Tout au plus, une boucle de courant perpétuelle présente-elle un magnétisme, comme un aimant, mais on peut difficile appeler « machine » un aimant ! De toute façon, une machine qui ne fournit aucune énergie n’est guère utile. C’est juste un joujou. On aimerait avoir une machine qui fournit de l’énergie et une énergie utile (un travail). Certains appellent cela « énergie libre », dans le sens « libre de l’emploi de sources d’énergie comme le pétrole ou autre ». L’usage de cette expression est un peu malheureuse car il existe bien un concept d’énergie libre en thermodynamique, semblable à l’enthalpie, mais totalement différent de ce dont nous parlons ici.

Considérons donc les deux autres possibilités. 2) Puisque le mouvement est perpétuel, cela signifie que sur un cycle, la machine revient a son état initial et a donc la même énergie totale. Par contre, elle ne reçoit aucune énergie de l’extérieur mais en fournit. C’est une violation du premier principe et c’est donc impossible. On peut imaginer une légère variante : le système voit son énergie interne diminuer indéfiniment. Mais aucun système physique connu ne l’autorise. Tous les systèmes physiques connus, sans exception, ont une énergie de base (énergie minimale) finie et on ne peut descendre en-dessous. C’est exactement comme l’histoire du zéro absolu : on ne peut pas être plus immobile que l’immobilité totale. Certains fantasmes sur l’énergie du vide. Mais là aussi, cette énergie est bien définie et on ne peut extraire l’énergie du vide à l’envi. Les EPZ (« extracteurs d’énergie du point zéro ») restent un fantasme de la science-fiction (comme les feuilletons Star Gate). Rien n’exclut qu’on trouve quelque chose comme ça un jour. Mais ce n’est pas dans les objets, systèmes physiques et processus physiques connus qu’on le trouvera. Ce n’est pas avec des engrenages, des aimants ou divers mécanismes connus par ailleurs qu’on fera surgir de l’énergie comme par magie. 3) Considérons maintenant les machines qui convertissent de la chaleur en travail. Ca, ça existe. C’est le fonctionnement, par exemple, d’une turbine dans une centrale électrique thermique qui transforme la chaleur (fournie par un combustible quelconque) en énergie mécanique transformée ensuite en électricité par un alternateur. Mais nous l’avons vu, dans ce cas l’entropie augmente. Pour pouvoir revenir a l’état de départ, il faudrait pouvoir faire passer de la chaleur de la source froide vers la source chaude, sans dépasser de travail (ou moins de travail que celui produit). Le rendement total serait alors supérieur à 100%. Mais cette dernière étape provoque une diminution de l’entropie totale. On peut la faire en respectant le premier principe mais la diminution d’entropie est interdite par le second principe qui explique d’ailleurs le rendement maximum de Carnot que nous avons vu. Donc, impossible de pomper l’énergie de la chaleur dans l’air (parfois appelée machines à une seule source) sans avoir initialement deux sources à températures différentes qui en s’égalisant vont provoquer une augmentation de l’entropie et l’arrête de la machine dès que l’équilibre thermique est atteint. La thermodynamique est donc sans appel : pas de machine perpétuelle « utile », pas d’énergie libre (au sens donné ci-dessus). Sur internet, on trouve toutes sortes de dispositifs produisant soi-disant de l’énergie « libre ». Ces dispositifs sont souvent astucieux et utilisent aussi souvent des aimants (le magnétisme fascine de nombreux internautes). Mais ces dispositifs ne marchent pas. En dehors des canulars et des fraudes (en absence de preuves indépendantes, difficile de séparer le bon grain de l’ivraie) ces dispositifs présentent toujours des failles, empêchant le dispositif de fonctionner correctement. Ces failles sont parfois très difficile à déceler non seulement à cause de la complexité de ces machines mais encore

plus souvent parce que ceux qui décrivent ces machines sont confus, imprécis ou incomplets. Cela empêche de vraiment comprendre ou reproduire ces dispositifs. Même lorsque cette imprécision est involontaire, ils ont beau jeu de contrer les arguments ou ceux qui monteraient une telle machine qui ne fonctionne pas (notons que ces « petits génies » n’ont eux-mêmes jamais réalisé une machine de ce type, autrement que sur des vidéos impossibles à vérifier), simplement en disant « vous avez mal fabriqué/compris telle ou telle partie ». Mais arguments contrés ou pas, cela ne rend pas plus réel ces fantasmes des grands « incompris opprimés par science officielle ». Nous n’irons pas plus loin dans la thermodynamique classique où on peut établir toutes sortes de formules reliant les variations de pression, de température, d’entropie, d’énergie interne ou d’enthalpie. Cela nous mènerait trop loin et ne serait qu’un « jeu » avec des formules mathématiques. Passons maintenant à la physique statistique.

La physique statistique Définition La physique statistique est l’étude des propriétés des systèmes (en général des substances ou des assemblages simples de substances) macroscopiques en fonction de leurs propriétés microscopiques. Les systèmes étudiés sont donc des assemblées très grandes (des milliards de milliards de particules) d’atomes et de molécules dans divers états physiques. Par exemple, les molécules peuvent être mobiles et libres de se déplacer comme dans un gaz ou bien situées à des positions bien précises dans un solide (mais les molécules peuvent encore vibrer autour de leur position moyenne). A cela il faut ajouter diverses conditions externes tel que la présence de champs magnétiques ou électriques. On distingue donc :  Les micro-états qui sont les états précis de chaque molécule. Par exemple, si l’on dit « la molécule 1 est à la position , la molécule 2 est à la position , etc…), cela constitue la description d’un micro-état bien précis.  Les macro-états qui sont la description de l’état physique macroscopique sans tenir compte du détail microscopique. C’est exactement ce que nous avons vu avec la thermodynamique classique : l’état est donné par l’énergie interne, la pression, la température,… Ici on n’émet aucune hypothèse sur la nature de la fonction d’état. Elle doit être déduite des propriétés microscopiques. Plus généralement, la physique statistique relie les micro-états aux macro-états. C’est-à-dire qu’elle relie les grandeurs microscopiques (tel que la position de chaque particule) aux grandeurs macroscopiques (tel que la température). Vu le nombre de particules et vu que chacune d’elle peut avoir un grand nombre de positions, de vitesse,… on devine facilement que le nombre total de micro-états possibles est un nombre absolument faramineux. Nous en verrons rapidement des exemples. La physique statistique ne s’amuse pas à décrire chaque état individuellement, cela donnerait des équations tellement grandes qu’une feuille de papier grande comme notre Galaxie ne suffirait pas à l’écrire. Par conséquent, on utilise le calcul des probabilités et les statistiques (d’où le nom) pour déterminer quels sont les états microscopiques les plus probables et de là les états macroscopiques.

Postulats de base Si un système fermé et isolé de particules se trouve à un instant donné dans un certain état microscopique, il n’y reste que très peu de temps car les chocs ou les interactions le font évoluer. Il change donc d’état microscopique avec une très grande fréquence. On pourrait imaginer de déterminer l’évolution du système à l’aide des équations du mouvement (mécanique classique ou bien mécanique quantique) mais serait amené à résoudre un nombre de équations difficiles (on les appelle des équations différentielles) dépendant de variables. Si vaut deux ou trois, c’est tout à fait envisageable. Pour plus grand, disons jusqu’ plus grand, disons jusqu’à quelques dizaines, diverses techniques d’approximation ou le calcul numérique est possible. Le calcul numérique sur de gros ordinateurs ou des ordinateurs en réseau pourrait même être mené pour atteignant quelques milliers. Mais pour un corps macroscopique, vaut typiquement le nombre d’Avogadro, soit des millions de milliards de milliards. Un tel calcul est totalement utopique. Devant cette impossibilité de prévoir précisément l’évolution du système, Gibbs a introduit l’idée que tous les états microscopiques accessibles à un système isolé se réalisent également au cours du temps ce qui l’a conduit a énoncer le premier postulat de la thermodynamique statistique : Tous les états microscopiques accessibles à un système isolé sont également probables. Si tous les états microscopiques sont aussi probables les uns que les autres, il n’en est pas de même des états macroscopiques qui sont alors d’autant plus probables qu’ils sont réalisés par un nombre plus grand d’états microscopiques. Le nombre d’états microscopiques réalisant un état macroscopique est appelé probabilité thermodynamique de l’état macroscopique. Le nom est un peu malheureux car est un nombre généralement extrêmement grand alors qu’une probabilité en mathématique est un nombre compris entre 0 et 1 (entre zéro et cent pour cent) mais l’appellation est traditionnelle et de plus, si on considère le nombre total d’états microscopiques possibles, alors est vraiment une probabilité, au sens habituel, c’est la probabilité d’avoir l’état macroscopique correspondant à . Voyons cela sur un exemple simple. Considérons une boite dans laquelle il y a

particules.

On divise la boite en deux compartiments 1 et 2 identiques. La séparation (en tirets) est artificielle, elle n’empêche pas les particules de passer. Chaque particule se déplace au hasard et a donc autant de chance d’être dans le compartiment 1 que 2. Chaque distribution des particules dans les compartiments 1 et 2 a donc une probabilité identique. Définissons l’état microscopique. On identifie l’état microscopique en disant dans quel compartiment se trouve chacune de ces particules : la particule 1 dans le compartiment 1, la particule 2 dans le compartiment 2, etc.

Définissons l’état macroscopique : un état macroscopique est déterminé par le nombre particules dans le compartiment 1 (et donc dans le compartiment 2).

de

Cette définition des états microscopiques et macroscopiques est assez artificielle. En fait, un équivalent réel peut exister, par exemple avec le paramagnétisme. Mais l’exemple ci-dessus a l’avantage d’être clair et intuitif. Supposons qu’on ait 5 particules comme dans le dessin ci-dessus. Détaillons le calcul de l’exemple, en fonction de chaque état macroscopique.

pour

Pour , toutes les particules sont dans le compartiment 2, et il n’y a qu’une seule manière de le faire (la particule 1 dans le compartiment 2, la particule 2 dans le compartiment 2, etc.), donc . Pour , on a exactement une particule dans le compartiment 1 et le reste dans le compartiment 2. Mais la particule dans le 1 peut être n’importe laquelle des cinq particules. Il y a donc cinq manières de répartir les particules, donc 5 états microscopiques : . Pour , il y a deux particules dans le compartiment 1. On peut choisir une des cinq particules qu’on met dans le compartiment 1, et une des quatre restantes qu’on met également dans le compartiment 1. Cela fait 5*4 possibilités, donc 20. Mais en réalité on a compté les états deux fois car si on prend la particule 1 et la 2 (par exemple) ou la particule 2 et la 1, ça revient au même. Il y a donc en réalité possibilités. En continuant ainsi on trouve : 0 1 2 3 4 5 W 1 5 10 10 5 1 On voit bien que les états macroscopiques ont des probabilités différentes de se réaliser, une répartition équilibrée (ou presque, ici étant impairs) étant la plus probables. On peut faire le calcul pour une valeur différente de , par exemple 0 1 2 3 4 5 6 7 8 9 10 1 10 45 120 210 252 210 120 45 10 1

.

On voit que les chiffres grimpent très vite. Il y a 252 fois plus de chance d’avoir une répartition équilibrée que d’avoir toutes les particules d’un seul côté. A titre d’exemple, donnons quelques valeurs pour le tableau étant symétrique) : 0 10 100 500 1 1000

(nous ne mettons que la partie gauche,

La notation signifie suivi de zéros. Notons que si est négatif, alors on compte le 0 et les 0 après la virgule, par exemple vaut 0.00003. Ces notations sont très pratiques pour écrire des nombres gigantesques ou minuscules. Ainsi pour la répartition équilibrée il y a déjà 2.7 milliards de milliards de milliards de … etc possibilités (prononcez trente-trois fois le mot milliards !) Ce nombre est déjà fantastiquement grand. Imaginez ce qu’il vaut pour égal au nombre d’Avogadro. Même pour le nombre d’états est des milliards de milliards de… (dix-sept fois) plus petit. Clairement les états équilibrés ou peu s’en faut sont les plus probables. Voyons maintenant pour (à peu près le nombre d’Avogadro). En fait, lorsque est aussi grand, peu importe que l’on ait une ou deux particules en plus à gauche ou à droite. Une seule particule est impossible à distinguer au niveau macroscopique (si vous enlevez un seul atome à une

pomme, vous ne verrez aucune différence, le seul fait de la frotter pour la nettoyer arrache des milliers d’atomes). Donc, ce qui nous importe surtout c’est les proportions de particules de chaque côté. Notons cette proportion : Si toutes les particules sont à gauche, et et donc particules sont à droite, alors et enfin, s’il y a équilibre parfait,

. Inversement, si toutes les , alors .

Traçons un graphique des valeurs de , d’abord en regardant sa valeur dans une bande très étroite de valeurs autour de 0, puis pour toutes les valeurs de .

On voit que la valeur la plus probable de est extrêmement concentrée autour de 0, la répartition équilibrée avec une petite dispersion autour de cette valeur de l’ordre du centième de milliardième, impossible à mesurer en pratique. Pour un observateur qui ferait des mesures sur la boîte, il mesurerait toujours un état d’équilibre parfait. La largeur de la zone la plus probable (la courbe en cloche à gauche) est appelée écart-type et vaut l’inverse de la racine carrée de . Par exemple, pour , cela donne des écarts de l’ordre du pour cent. Et pour égal à dix milliards, cela donne des écarts de l’ordre du millième de pour cent, déjà infime. Cette discussion, portant sur un cas particulier, se généralise dans d’autres systèmes à condition que le nombre de particules soit très grand. Elle permet d’introduire le second postulat de la thermodynamique : L’état d’équilibre d’un système fermé et isolé correspond à l’état macroscopique le plus probable. Chose étonnante, ces deux postulats et quelques règles évidentes qu’on verra plus loin suffisent pour tout calculer !

Mouvements aléatoires Mouvements et quantification Imaginons que l’on ait des particules réelles dans un gaz, c’est-à-dire des atomes ou des molécules (par exemple des molécules d’oxygène, d’hydrogène,…). Comment calculer le nombre d’états microscopiques que peuvent prendre ces particules ? Chaque molécule dans le gaz peut être caractérisée par sa position et sa vitesse. Chacune de ces deux grandeurs nécessite trois nombres. Ainsi, on peut mesurer la position dans trois directions : longueur, largeur, hauteur, ce qui donne sa position sans ambiguïté sous forme de trois nombres . De même, on peut mesurer la vitesse dans trois directions . Chaque particule a aussi une certaine masse mais qui ne varie pas. En toute généralité, l’état du gaz est donc donné par les six nombres fois le nombre de particules. Chaque nombre peut varier de manière continue. Ainsi, peut valoir 1 ou 2 mais aussi 1.1 ou 1.125 ou encore 1.243568925… Il y a donc une infinité de valeurs possibles. Pour cette raison il y a une infinité d’états possibles. Ce qui pose évidemment une difficulté : comment faire des calculs avec des valeurs infinies ? Deux possibilités s’offrent à nous :  La première, est de procéder comme ci-dessus. On enferme les particules dans une boite, ce qui correspond d’ailleurs à l’expérience (intérieur d’un cylindre de moteur, pièce voire l’atmosphère d’une planète) et on divise la boite en petits compartiments. On utilise alors des compartiments suffisamment petits pour qu’ils ne soient même pas mesurables. On fait alors comme ci-dessous en disant dans quel compartiment se trouve telle ou telle particule. On peut faire quelque chose de semblable avec les vitesses en considérant de minuscules intervalles de vitesses. Toutes les valeurs deviennent finies.

peut être très grand mais il est fini.

Si on utilise un découpage suffisamment fin, le calcul montre que les résultats finaux dans le calcul des grandeurs macroscopiques ne dépend pas de la finesse du découpage. Il peut être aussi fin qu’on veut et à la limite infiniment découpé, ce qui revient à la limite continue.  La deuxième manière est de tenir compte de la mécanique quantique. Cette manière de faire est même préférable car on prend alors en compte une réalité physique confirmée par l’expérience. La mécanique quantique dit que dans une boite, les grandeurs telles que les positions et les vitesses ne peuvent pas être quelconques. Elles sont quantifiées, c’est-à-dire qu’elles ne prennent que certaines valeurs. Ca revient à peu près au même que le découpage ci-dessus, si ce n’est que la manière de découper est un peu différente et imposée par la théorie. Dans les deux cas, en disant que les valeurs devenaient finies, ce n’est pas tout à fait vrai. Par exemple, en découpant les vitesses en intervalles minuscules, les vitesses peuvent prendre n’importe quelle valeur entière de fois cette petite valeur : … Il y a une infinité de valeurs possibles car a priori les vitesses peuvent être aussi grandes qu’on veut. Toutefois, on fait toujours le calcul en imposant certaines contraintes. Par exemple, on dit que l’énergie totale a une certaine valeur . Dans ce cas, les vitesses ne peuvent pas être aussi grandes

qu’on veut (voir ci-dessous) car elles sont limitées par l’énergie que peuvent avoir les particules. Dans ce cas, le nombre d’états possibles est toujours fini. Notons qu’à ces mouvements dits de translation il faut aussi ajouter d’autres mouvements. Les molécules peuvent être composées de plusieurs atomes qui peuvent vibrer (comme des petites billes attachées par des ressorts) ou tourner sur eux-mêmes. Là aussi la mécanique vient à la rescousse en disant quels sont les états de vibration et de rotation possibles. On suppose comme plus haut que les particules se déplacent au hasard, se heurtent, heurtent les parois et changent constamment de vitesse, de vibration, de rotation,… L’état microscopique évolue en permanence (et très vite) et seul nous intéresse les états macroscopiques correspondant les plus probables.

Energie Il n’est pas très difficile de connaitre l’énergie totale des particules. Si une particule a une masse et une vitesse , alors son énergie cinétique est simplement sa masse fois le carré de la vitesse (divisé par deux). On fait la somme de toutes les énergies et on obtient ainsi l’énergie totale. Appelons l’énergie de la particule . Pour la somme, nous utiliserons le symbole classique de sommation . L’énergie totale est donc ∑ . A cette énergie cinétique du mouvement il faut aussi ajouter les énergies de vibration et de rotation, directement données par les équations de la mécanique quantique. On a ainsi l’énergie interne totale du gaz en fonction de l’état microscopique.

Pression Regardons de près une paroi du récipient dans lequel est placé le gaz et regardons une particule qui vient heurter la paroi :

Lorsque la particule rebondit sur la paroi, elle lui imprime un choc qui tend à la faire reculer. Disons que la vitesse est avant le choc puis après le choc. Chaque particule qui heurte la paroi communique une quantité appelée, en mécanique, quantité de ) (en fait, mouvement. Si la particule est de masse , alors la quantité communiquée est ( on doit considérer uniquement la composante de la vitesse perpendiculaire à la paroi, la vitesse d’approche et d’éloignement de la paroi, mais c’est un détail technique). On peut appliquer une force sur la paroi pour la maintenir en place. Evidemment, on ne devrait en principe appliquer cette force que pendant le choc ou le temps de remettre la paroi en place après son recul. Mais des particules heurtent la paroi en permanence. Si l’on connait le nombre de chocs par seconde et la quantité de mouvement communiquée en moyenne, on peut calculer à l’aide de la mécanique la force à appliquer en permanence pour que la paroi reste en place (à quelques petites vibrations près du fait que les chocs sont erratiques). De plus, le nombre de chocs est proportionnel à la surface de la paroi. Si la paroi est deux fois plus grande, deux fois plus de particules pourront la heurter. On doit donc appliquer une certaine force par unité de surface. Et ça, c’est une pression. Nous avons donc l’origine microscopique de la pression. De plus, les calculs de probabilité permettent de calculer le nombre de collisions à chaque seconde : elles dépendent du nombre de particules ainsi que de leur vitesse. Plus elles sont nombreuses, et plus elles vont heurter la paroi et plus elles vont vites et plus vite elles arriveront sur la paroi pour la heurter. On a donc tout ce qu’il faut pour calculer la pression du gaz en fonction de l’état microscopique.

Température La chaleur étant une forme d’énergie stockée dans un corps, celle-ci doit se retrouver sous forme d’énergie interne, c’est-à-dire sous forme d’énergie cinétique des particules. La chaleur doit donc correspondre à l’énergie de mouvement de particules. Beaucoup de chaleur signifie une vitesse élevée. Si on touche une paroi chaude avec la main, les particules très rapides de la paroi vont venir heurter les particules composant notre main (les molécules de peau) et augmenter leur énergie. Dans le cas d’un corps solide, les molécules ne se déplace pas, il s’agira donc de vibrations de ces molécules. Ce transfert de chaleur est l’énergie cinétique des particules passant d’un corps à l’autre (pour le transfert par conduction). Mais on sait aussi qu’en communiquant de la chaleur à un corps, on augmente sa température. Un corps est chaud, non seulement parce qu’il communique de la chaleur lorsqu’on le touche mais aussi par ce que sa température est élevée. D’ailleurs, un thermomètre mesure la température en absorbant un peu de chaleur qui va chauffer le réservoir et provoquer sa dilatation. On devine d’ailleurs que l’agitation des molécules, augmentant la pression, doit provoquer une dilatation du corps. On en déduit ainsi que pour une température particules du gaz.

élevée, on doit avoir une grande vitesse des

Les calculs permettent, comme nous l’avons dit, de relier les grandeurs microscopiques aux grandeurs macroscopiques. Voir aussi ci-dessous. On peut ainsi retrouver les relations entre grandeurs de la thermodynamique classique. En comparant ces relations, on peut ainsi constater que la température est directement reliée à l’énergie moyenne des particules.

Pour être plus précis. Chaque particule possède un certain nombre de degrés de liberté. C’est-àdire des possibilités indépendante de se mouvoir. Par exemple, pour une particule de gaz, il y a trois directions indépendantes dans l’espace (longueur, largeur, hauteur), les autres directions pouvant être obtenues comme une combinaison des trois premières. Dans ce cas, . Mais il faut aussi, si cela est pertinent, ajouter les degrés de liberté de rotation et de vibration. On montre alors que l’énergie moyenne d’une particule est constante de Boltzmann. Sa valeur est .



est une constante appelée

Relier le microscopique et le macroscopique Classons les particules en fonction de leur énergie, avec particules d’énergie , particules d’énergie , etc. Et plus généralement particules d’énergie . Ce découpage n’est pas problématique dans la mesure où la mécanique quantique dit que l’énergie des particules est quantifiée et prend des valeurs bien définie ou etc. Le nombre total de particules est simplement la somme du nombre de particules de chacune de ces catégories : ∑ On peut relier directement cette valeur à la quantité de matière, en mole, en divisant par le nombre d’Avogadro. Et si la masse d’une particule est , alors la masse totale est . Pour un système fermé, cette valeur est connue et constante et sert donc de contrainte pour les valeurs . Si particules ont l’énergie , alors leur énergie totale est évidemment le produit . Et de même pour les autres énergies. Donc l’énergie interne totale est donnée tout simplement par : ∑ Pour un système isolé cette valeur est également une constante. On cherche à trouver l’état le plus favorable. Pour cela, on exprime W en fonction de différentes variables, ce qui donne différentes expressions où intervient la température (voir plus haut), l’entropie (voir après), etc. A partir de là, il ne faut plus que quelques calculs pour trouver toutes les relations thermodynamiques. Notons par exemple que les relations entre énergie interne et température expliquée plus haut permette directement de faire le lien avec la chaleur spécifique. Comment estimer

? Voyons cela plus en détail.

Des particules identiques et non localisées, comme dans le cas d’un gaz, sont indiscernables. C’est un principe de la mécanique quantique sur lequel nous reviendrons. En effet, si en mécanique classique on peut parler de la trajectoire d’une particule, cela n’est plus vrai en mécanique quantique en raison du principe d’incertitude qui interdit de localiser avec une précision infinie une particule et de mesure simultanément sa vitesse. Si l’on considère une assemblée de particules identiques, on ne peut donc pas suivre leurs mouvements individuels. C’est en cela que des particules identiques sont, en mécanique quantique, indiscernables. Cela a pour conséquence qu’en échangeant les grandeurs microscopiques relatives à deux particules, on obtient le même état quantique du gaz. Il s’ensuit que pour décrire l’état microscopique d’un gaz composé de particules identiques, il faut et il suffit que l’on se donne l’ensemble des nombres

des particules dans les états microscopiques (quantiques ou cellules) 1, 2, …, , … d’énergie comme nous l’avons fait ci-dessus. L’expression statistique des grandeurs macroscopique dépend de ces nombres. Nous avons ainsi donné l’exemple de et de ci-dessus. Lorsque l’on considère un gaz contenu dans un récipient fermé et isolé, les grandeurs et sont déterminées et les seuls états microscopiques accessibles sont ceux vérifiant ces contraintes. Notons, et cela est un point important, que nous considérons des systèmes où le nombre des particules est de l’ordre du nombre d’Avogadro. Il est donc hors de question de déterminer expérimentalement l’état microscopique d’un système en raison du nombre énormes de paramètres et de la fréquence élevée du changement d’état microscopique dû aux chocs. De plus, il est impossible de mettre en évidence des transitions entre deux états quantiques trop voisins, c’est-àdire dont les énergies diffèrent moins qu’une petite quantité (très faible à vrai dire, de l’ordre de ). C’est pour cela que l’on effectue une partition moins fine de l’ensemble des valeurs microscopiques en domaines d’extension regroupant des états quantiques voisins d’énergies très proches. Voici comment se présentent schématiquement les valeurs :

Le nombre de cellules par domaine est appelé poids statistique. On le désigne sous le nom de dégénérescence (un nom identique est utilisé en mécanique quantique pour plusieurs états quantiques ayant même énergie) et on le note . La donnée des nombres de particules se trouvant dans le domaine 1, 2, …, , … d’énergie définit alors l’état macroscopique du système. La description macroscopique de l’état d’un système est donc moins précise que la description microscopique, un état macroscopique pouvant être réalisé par un grand nombre d’états microscopiques différents. Le tableau ci-dessous donne la correspondance entre les deux descriptions microscopique et macroscopique. Description Microscopique Macroscopique Elément de l’ensemble des valeurs possibles pour les grandeurs Cellule Domaine Nombre de particules

Energie Dégénérescence

1

Voyons maintenant comme évaluer la probabilité thermodynamique d’un état macroscopique du système physique considéré, c’est-à-dire le nombre d’états microscopiques différents réalisant cet état macroscopique. Selon les systèmes physiques, les états quantiques relatifs à une particule sont peu nombreux et bien séparés en énergie ou au contraire en nombre infini avec des différences d’énergie beaucoup trop petites pour pouvoir être mesurées. On rencontre aussi des cas intermédiaires. On utilise cependant pour traiter ces différents cas le même langage introduit ci-dessus pour les gaz dans lequel une cellule désigne un état quantique et un domaine regroupe un nombre d’états quantiques d’énergie voisine . Dans certains cas on peut ainsi avoir et parfois il peut être très grand. Un état macroscopique est alors défini par l’ensemble des nombres de particules dans chacun des domaines d’indice . Pour chercher la probabilité thermodynamique ( ) d’une telle répartition posée a priori, on procède en deux étapes. Tout d’abord on évalue le nombre de façons de réaliser la partition choisie des particules dans les domaines. C’est exactement comme les calculs que nous avons fait en plaçant les particules dans les deux compartiments d’une boîte. Puis on évalue le nombre de façon de distribuer les particules du domaine dans les cellules de ce domaine. En effectuant ce dénombrement pour chacun des domaines, on obtient finalement :

La méthode est schématisée dans le tableau ci-dessous. L’évaluation explicite de dépend de la nature physique des particules considérées. Nous devons distinguer deux cas selon que les particules sont discernables ou indiscernables. Nous reviendrons sur ce point plus loin. Nombre total de cas possibles La répartition macroscopique choisie est caractérisée par les nombres :

Une des répartitions possibles des particules entre les cellules est :

Une des répartitions microscopiques possibles est :

Distribution de Maxwell-Boltzmann Considérons un gaz constitué s de particules se déplaçant librement, discernables et bien localisées. La distribution des particules dans les différents domaines s’appelle statistique de MaxwellBoltzmann. Pour commencer, on doit calculer la valeur de pour un état macroscopique donné, c’est-à-dire pour une distribution donnée. Pour cela on calcule les valeurs de puis des . Puisqu’on peut discerner les particules les unes des autres, la valeur de revient à se poser la question suivante : combien y a-t-il de manière de placer particules dans boites, la première avec particules, la deuxième avec particules, etc. ? C’est un simple calcul de combinatoire tout à fait semblable à celui qu’on a vu avec les deux compartiments plus haut. Nous ne donnerons pas la formule ainsi obtenue qui est trop compliquée pour ici. Ensuite, on doit calculer cellules du domaine ?

qui revient à se demander : comment répartir

particules dans les

A priori, il n’y a pas de contraintes sur le nombre de particules que l’on peut placer dans une cellule. Par conséquent, on peut placer la première particule dans n’importe laquelle des cellules , puis la deuxième particule dans n’importe laquelle des cellules , soit au total possibilités. De même, on peut placer la troisième particule dans n’importe quelle cellule, ce qui donne au total possibilités. Ainsi de suite. Au final : avec facteurs On obtient finalement

.

On recherche ensuite l’état le plus probable. C’est-à-dire, pour une valeur fixée, les valeurs des qui rendent maximal. Après quelques calculs on trouve une répartition exponentielle qui a l’allure suivante :

La courbe ainsi obtenue dépend de la température. Plus elle est élevée, « étalée ».

, et plus elle est

Notons que l’énergie dépend de la vitesse, c’est l’énergie cinétique des particules, comme nous l’avons vu. Cette distribution des particules en fonction de leur vitesse s’appelle distribution de Maxwell-Boltzmann. A partir de cette répartition, on peut calculer les différentes grandeurs thermodynamiques tel que la pression par exemple. On peut ainsi déterminer comme ces grandeurs sont reliées entre-elles. On retrouve en particulier la loi des gaz parfaits. Il est intéressant de mesurer directement si ces résultats sont une réalité physique. On utilise pour cela la technique des jets moléculaires.

On ouvre une petite ouverture dans l’enceinte où est le gaz. Les particules (molécules ou atomes) s’en échappent alors à la vitesse qu’ils avaient dans le gaz car dans la nouvelle enceinte, sous vide, rien ne les ralentit. Elles heurtent des détecteurs qui permettent de mesurer leur vitesse en mesurant le temps entre l’ouverture du passage et la détection. Les mesures confirment bien les résultats théoriques. En étudiant en outre théoriquement les collusions entre molécules (ce qui dépend de leur taille) on peut aussi calculer divers résultats importants. Par exemple, on peut calculer la viscosité du gaz, le coefficient de conduction thermique ou le libre parcourt moyen. Ce dernier est la distance moyenne que parcourt une particule entre deux collisions.

Principe ergodique Revenons sur l’hypothèse de base de la physique statistique : tous les états microscopiques sont équiprobables. Cette hypothèse peut paraître a priori un peu arbitraire et peu plausible. Comment en être sûr ?

Espace des phases Prenons toutes les grandeurs microscopiques (positions, vitesses). On peut imaginer tracer un graphique sont les axes sont les grandeurs, comme pour nos graphiques pression – température, et où un point du graphique représente un état microscopique donné. Cette représentation est appelée espace des phases.

Sous l’évolution, au fur et à mesure des collisions et du mouvement, le point décrivant l’état parcourt une trajectoire dans le graphique.

Evidemment, sur un tel dessin on ne sait représenter que deux axes (trois au plus avec un dessin en perspective), par exemple ci-dessus cela pourrait être l’état d’une seule particule, mais cela se généralise au moins mathématiquement à un très grand nombre de grandeurs. Même si on ne sait pas le dessiner sur une feuille de papier. L’évolution est déterministe. Elle est dictée par des lois physiques précises qui disent, par exemple, que si le système est dans l’état 1, alors l’instant suivant il se trouvera dans l’état 2. Même pour un système quantique, où les lois sont probabilistes, il existe des lois précises et les états quantiques évoluent de manière déterministe. Cette évolution déterministe implique que deux trajectoires différentes ne peuvent pas se couper. Par exemple, si elles se coupaient en 1, alors elles ne pourraient plus se séparer puisque l’évolution déterministe implique qu’à partir de 1, l’état suivant obligatoire est le 2. De même en traçant les trajectoires à rebours dans le temps. Cette contrainte des trajectoires qui ne se coupent pas est très forte. Mais dès la dimension trois (trois grandeurs), les trajectoires peuvent être extraordinairement compliquées, même avec cette contrainte. Imaginez une pelote de laine toute mélangée. Evidemment, pour un système composé de milliards de particules, il est aisé d'imaginer que l’ensemble est d’une incroyable complexité. Si l’on a un état macroscopique donné, cela implique des contraintes sur les grandeurs microscopiques. Nous avons vu, par exemple, que l’énergie totale est donnée par l’énergie de chaque particule. Pour une énergie totale fixée, l’énergie des particules ne peut plus être quelconque.

C’est dans cette zone que l’on va considérer que l’évolution des trajectoires est aléatoire, au moins en principe. Ce que l’on va essayer de justifier.

Principe ergodique On peut énoncer le principe ergodique comme suit : La trajectoire issue d’un point (quelconque) passe une infinité de fois aussi près qu’on veut de n’importe quel point. Par exemple, voici quelques portions possibles de la trajectoire près d’un point :

Difficile d’en avoir une infinité à deux dimensions sans couper une autre trajectoire. Mais à trois dimensions ou plus, cela devient facile (on peut toujours contourner par « au-dessus » ou « audessous »). On dit aussi que la trajectoire est dense dans l’espace des phases. Le fait que la trajectoire passe et repasser une infinité de fois à des positions légèrement différentes traduit bien un comportement aléatoire. Une autre manière plus « physique » de décrire le principe ergodique est la suivante. Supposons que l’on considère une grandeur associée à une particule, par exemple sa vitesse, et que l’on désire calculer la moyenne de cette grandeur que l’on note 〈 〉. Il y a deux manières de faire : 1) Soit on suit la particule pendant un long intervalle de temps, et on calcule la valeur moyenne 〈 〉 prise par au cours du temps. C’est ce que pourrait faire un automobiliste qui désirerait calculer sa vitesse moyenne. 2) Soit, on prend à un instant donné un grand nombre de particules, et on calcule la moyenne 〈 〉 de toutes les valeurs prises par ces particules.

Avec les automobiles, c’est ce que ferait par exemple un institut de la sécurité routière, équipé de radars, et qui voudrait connaitre la moyenne des vitesses des véhicules sur la route. C’est aussi dans ce sens que nous avons parlé de moyenne en disant que l’énergie moyenne des particules était . On parle de moyenne temporelle et spatiale. Le principe ergodique affirme que si les particules sont identiques, alors les deux valeurs calculées de ces deux manières doivent être identiques. Pour des automobiles, c’est clairement faux, certains conducteurs roulant plus vites en moyenne que d’autres. Mais pour des particules identiques, c’est tout à fait possible. On montre que (sous quelques conditions très générales) les trois principes sont équivalents :  La probabilité identique de tous les états microscopiques.  L’égalité des moyennes temporelles et spatiales.  Le caractère dense des trajectoires dans l’espace des phases.

Influence sensitive des conditions initiales Imaginons une boule de billard qui rebondit sur une bande.

Le rebond est bien déterminé et suit une loi simple, d’ailleurs identiques aux lois de réflexions de la lumière sur un miroir : l’angle de rebond est identique à l’ange d’incidence sur la bande. Si l’on considère maintenant deux trajectoires très légèrement différentes, par exemple elles ont une direction différente d’un tout petit angle . Alors au cours du temps, l’écart des boules augmente mais reste raisonnable, en fait l’angle reste tout du long. Et après rebond, l’angle d’écart entre les deux directions reste . Le rebond n’amplifie donc pas l’écart. Si les mesures des vitesses des boules sont suffisamment précises, on pourra prédire avec une bonne précision où les boules vont aboutir. On dit dans ce cas que les trajectoires s’écartent de manière linéaire. Ajoutons maintenant des bouchons (ou d’autres boules) sur la trajectoire de notre boule.

Là aussi les lois du rebond sont bien précises et simples (bien qu’un rien plus compliquée puisque le rebond se fait sur une surface courbe). Mais si l’on considère deux trajectoires très légèrement différentes il ne faut pas beaucoup de rebonds sur les bouchons pour que les trajectoires deviennent considérablement différentes. Les bouchons amplifient fortement les écarts même si les différentes initiales sont infimes. Cela s’appelle l’influence sensitive des conditions initiales car de toutes petites variations des conditions initiales (la direction de la trajectoire) donne rapidement un résultat extrêmement différent. Dans ce cas, pour calculer les trajectoires il faut mesurer les vitesses et positions avec une précision diabolique car la moindre erreur, aussi infime soit-elle, est rapidement amplifiée. A cause de ce phénomène, les trajectoires deviennent totalement imprévisibles bien que les lois du rebonds soient bien précises (parfaitement déterministes : à une trajectoire précise correspond un rebond précis). C’est la base de la théorie des systèmes dynamiques aussi appelée théorie du chaos déterministe car le comportement des boules semble chaotique. Si l’on trace les trajectoires dans l’espace des phases, elles s’écartent très vite et s’entremêlent donnant des structures complexes appelées fractales et que vous avez certainement déjà admiré. Ces comportements sont très répandus dans la nature. Citons trois exemples :  Les corps célestes parcourent des orbites dictées par les lois (simples) de la gravitation universelle de Newton. La simplicité de ces lois conduisent à des résultats simples lorsque l’on a deux corps. Ainsi, une planète parcourt autour d’un corps massif (son soleil) des trajectoires bien régulières en forme d’ellipses. Mais ajoutez seulement un corps (donc au total on en a trois, mais dans le système solaire il y en a encore plus) et les équations adoptent un comportement chaotique. Heureusement pour nous, les perturbations dues aux autres planètes sont faibles et ce comportement chaotique ne se manifeste que sur de très longues durées qui se chiffrent en milliards d’années. Donc, inutile de s’inquiéter pour la stabilité du calendrier, des saisons ou des éphémérides (tel que les phases lunaires).

Il y a toutefois une exception. Lorsqu’un astéroïde a le malheur de s’approcher un peu trop près de la Terre, il va aussi passer l’orbite de Mars. Si d’aventure Mars est proche de sa trajectoire, celle-ci va être fortement déviée. Le phénomène est tout à fait analogue à notre boule heurtant un bouchon : la moindre imprécision dans la connaissance de la trajectoire conduit à une grande différence après le croisement avec Mars. Un tel phénomène s’est produit il y a quelques années. L’astéroïde dit géocroiseur (car il croise l’orbite de la Terre, ce qui bien entendu présente un danger) Apophis devait s’approcher de la Terre après avoir frôlé Mars. Les calculs disaient que l’astéroïde devait passer dangereusement près de la Terre. Mais les trajectoires des astéroïdes ne sont jamais connues avec une précision infinie et son passage près de Mars pouvait tout changer. Après avoir croisé Mars, il s’avéra que la trajectoire d’Apophis le ferait passer fort loin de la Terre, sans danger. Ce qui se confirma.  Un autre exemple bien connu est celui de la météorologie. Les équations (complexes) utilisées par les ordinateurs qui prédisent le temps qu’il va faire sont celles de la mécanique des fluides qui sont elles aussi sujettes à des comportements chaotiques. Cela rend illusoire la possibilité de prédire le temps au-delà de deux ou trois semaines au mieux, même en améliorant fortement la couverture des mesures réalisées sur le terrain (qui est déjà excellente grâce aux satellites). Ce phénomène est parfois appelé un peu abusivement « effet papillon » : les battements des ailes d’un papillon au Brésil peuvent provoquer une tempête quelques semaines plus tard sur l’Europe. Il serait plus juste de dire que toutes les petites perturbations infimes (comme celles des papillons, des chutes de feuilles d’arbre, des simples mouvements des gens,…) s’amplifient rendant le temps totalement imprévisibles sur quelques semaines : une zone de pluie qui devait passer d’après les calculs sur un département passera peut-être à cent kilomètres de là.  Enfin, citons le cas qui nous intéresse au premier chef : les mouvements des molécules dans un gaz. Ces molécules entrent constamment en collisions (des milliards par seconde dans un volume d’air macroscopique dans les conditions ambiantes) et chaque collision est exactement du même type que celui d’une boule de billard sur un bouchon ou sur une autre boule, ou comme le passage d’Apophis près de Mars. Cela rend le comportement de ces molécules hautement imprévisible et donne des trajectoires incroyablement enchevêtrées dans l’espace des phases. On remarque immédiatement que ce type de comportement est justement celui du principe ergodique. A partir de ces considérations il est possible de démontrer le principe ergodique dans des situations très variées avec peu d’hypothèses, même si une démonstration totalement générale manque encore. Mais certains théoriciens estiment que, au pire, on peut se passer du principe ergodique et se contenter de l’hypothèse que tous les micro-états sont équiprobables. En effet, un théorème dû à Liouville permet de montrer que si cette hypothèse est vraie au temps alors elle doit forcément rester vraie à tout instant ultérieur. Ainsi, on peut poser cette hypothèse à un instant donné et se contenter de vérifier que les prédictions théoriques de la physique statistique sont bien conforment à l’expérience, ce qui est en effet le cas avec une très grande précision.

Le second principe Passons maintenant au second principe et à l’entropie dans ce cadre statistique.

Un exemple Reprenons notre boîte avec des particules dedans. Plaçons cette fois une véritable paroi séparant la boîte en deux compartiments, et plaçons toutes les particules dans le compartiment de gauche.

Ensuite on enlève la paroi, laissant les particules se déplacer dans toute la boîte.

Les particules se déplacent et finissent par avoir une répartition quasi égale dans les deux compartiments, comme nous l’avons vu, surtout s’il y a beaucoup de particules. Ce phénomène est en outre très rapide à température ambiante, les particules dans un gaz ayant des vitesses de plusieurs mètres par seconde. Pour une boîte, disons de la taille d’une bpîte à chaussures, Il ne faut qu’une fraction de seconde pour atteindre le nouvel état d’équilibre.

Au départ, il n’y a qu’un seul état possible (toutes les particules à gauche) alors qu’à la fin, pour l’équilibre de 5 particules de chaque côté, il y a beaucoup d’états possibles. Nous l’avons vu. Pour disons seulement 10 particules, on a déjà 252 manières de faire et pour cent particules il y a déjà cent milliards de milliards de milliard de façon de les répartir de manière égale dans les deux compartiments. Pour un nombre de particules de l’ordre du nombre d’Avogadro, ce nombre d’états est extrêmement grand, astronomique. Les déplacements étant aléatoires, il n’y a quasiment aucune chance de les voir revenir dans le seul état où elles seraient toutes à gauche alors qu’il y a un nombre colossal d’états où elles se répartissent dans les deux compartiments. Ceci explique l’aspect irréversible de cette expérience.

L’entropie statistique On voit que le caractère irréversible est clairement lié au nombre d’états à l’équilibre et plus précisément au nombre de micro-états correspondant à un état macroscopique donné. On voudrait pouvoir lier les deux. Supposons que l’on ait deux systèmes et ayant (dans les conditions macroscopiques données) et micro-états possibles respectivement. Plaçons ces deux systèmes ensembles (pas de mélange ou de paroi ouverte ici, on se contente de les juxtaposer) formant un système S. Quel est le nombre de micro-états correspondants à S ? La réponse est simple : avec chaque micro-état possible de on peut avoir tous les états possibles de . On a donc . Mais on voudrait que l’entropie soit une grandeur extensive, c’est-à-dire additive. Si les entropies des deux systèmes sont respectivement et , on voudrait avoir . On ne peut donc pas simplement poser et . Comment transformer une multiplication en une addition ? Heureusement, les mathématiciens ont une fonction mathématique qui fait ce travail. Elle est appelée logarithme et se note . Pour cette ) ( ) fonction on a ( ( ). Peu importe la définition mathématique du logarithme. Ce qui compte est cette propriété. Par ) ( ) exemple ( ( ). Essayons donc

( ).

Dans ce cas, on vérifie bien que . Il reste à déterminer quelle constante on doit utiliser. Pour cela, il faut procéder comme avec la température : on développe les équations de la physique statistique et on compare aux équations de la thermodynamique. On trouve alors que : ( ) Où est la constante de Boltzmann que nous avons déjà rencontré. Notons que cette relation est strictement croissante : si

augmente, alors augmente.

On peut dire sans se tromper que cette relation est la relation fondamentale de la physique statistique.

Second principe On peut alors énoncer le second principe dans le cadre de la physique statistique.

Un système isolé évolue, par suite de l’évolution aléatoire des micro-états, vers l’état macroscopique ayant le nombre de micro-états le plus grand. C’est-à-dire, vers l’état d’entropie la plus élevée. Cette évolution donnée par le second principe est donc un simple effet statistique. Il y a plus de chance de trouver le système dans un état quelconque d’un milliards d’états possibles que dans un seul état particulier.

Irréversibilité Puisque les déplacements microscopiques sont aléatoires, il n’est pas totalement exclu que les particules reviennent dans leur état initial. Il y a une certaine probabilité que cela se produise. Mais le nombre d’états microscopiques devient vite colossal. On l’a vu avec notre boîte. Et la probabilité d’un retour à l’état initial devient négligeable. Extrêmement proche de zéro. On peut faire un calcul réaliste tenant compte de la vitesse à laquelle change les états microscopiques dans des conditions ordinaires. Pour un système macroscopique composé d’une mole de matière, il est alors possible de calculer au bout de combien de temps en moyenne le système a une chance notable de revenir à son état initial (appelé temps de récurrence de Poincaré). On trouve une durée de l’ordre de 10000….0000 années, le nombre de zéro étant de l’ordre de cent mille milliards de milliards. Un nombre faramineux, à peine concevable. Même si vous mélangiez de l’eau froide et chaude (donnant un mélange tiède) avec des milliards de verre et si vous attendiez des milliards d’années, la probabilité de voir miraculeusement l’eau froide et chaude se séparer spontanément reste infinitésimale. Il n’est donc pas abusif de dire que l’on n’a aucune chance de voir le système faire « marche-arrière » dans le cas d’un système macroscopique. Et ce, même si on considère tous les systèmes macroscopiques que l’on puisse trouver sur Terre et pendant la durée de toute l’histoire de l’humanité. Pour donner un exemple, J/K, une valeur typique, équivaut à deux mille milliards de milliards de milliards de milliards de milliards de milliards de milliards d’états possibles. Et une probabilité de un sur ce nombre de voir revenir v1ers 0 spontanément. Vous avez bien plus de chance de gagner le super loto plusieurs fois de suite. Le second principe, l’augmentation de , est donc de nature statistique et dû au fait que pour des objets macroscopiques le nombre d’état est proprement astronomique. Ce résultat statistique est d’une solidité extrême. Surtout si l’on pense qu’une diminution de l’entropie totale, presque « miraculeuse », se produisant, ce ne serait qu’un très bref instant.

Statistiques quantiques Nous avons déjà cité le caractère indiscernable des particules quantiques. Mais nous n’avons pas approfondi ce concept et nous n’en avons pas tenu compte. Il est temps d’expliquer ce point plus en détail et d’en voir les conséquences. C’est d’autant plus important que certains exemples de phénomènes physiques dépendent de manière cruciale de ces propriétés. Après cela nous serons suffisamment outillés pour expliquer divers exemples d’application de la théorie.

Particules indiscernables Qu’est-ce que cela signifie « indiscernable » ? C’est comme être identique mais dans un sens beaucoup plus fort. Considérons deux cubes identiques. De même composition chimique, même structure, même forme, avec la même surface, la même couleur,…

Ces cubes sont tout à fait identiques, en apparence. Mais ce sont des objets composés de milliards de milliards d’atomes. Il n’y a aucune chance qu’ils soient vraiment identiques. Si on utilise une loupe très puissante ou un microscope, voire un microscope électronique, on pourra y distinguer de petites fissures, de petites bosses et creux, de petits défauts. Ces petites anomalies permettent ainsi de distinguer ces deux cubes. Même si on regarde avec nos yeux et que l’on ne voit pas de différence, ces deux cubes sont réellement deux objets différents. Au pire, à supposer qu’on construise ces cubes atomes par atomes et qu’on arrive à obtenir deux cubes strictement identiques, à l’atome près, même comme ça on peut encore en principe les distinguer. Il suffit de leur attacher une étiquette (même « virtuelle », en les nommant de tête) et les suivre des yeux. Cela permet toujours de dire « celui-là est le cube 1, celui-là est le cube 2 ». On peut donc les distinguer. Et à nouveau, même si on ignore formellement cette distinction, elle reste possible en principe. D’ailleurs, quelque chose se charge d’interagir en permanence avec ces cubes et de garder trace (même si on l’ignore) de leurs positions et mouvements : c’est l’environnement. Les cubes seront frappés par les molécules d’air, par la lumière ou les ondes radios environnantes,… Impossible de s’en abstraire totalement : même la gravité terrestre interagit avec ces cubes. Et du fait de leur présence, telle ou telle molécule d’air peut se trouver à un endroit plutôt qu’un autre, ce qui est un indice même implicite de l’identité, de la position et du mouvement des cubes. Donc, même si l’on considère ces cubes comme identiques, ils sont deux objets bien distincts, chacun avec son identité propre. Il y a toujours moyen de les discerner même en principe. Passons maintenant à des particules microscopiques : des atomes, voire de simples particules élémentaires telles que des électrons. Une telle particule a peu de propriétés, y compris celles décrivant une éventuelle structure interne (comme un atome). Par exemple, un électron ne se distingue d’un autre électron que par sa position, sa vitesse et l’orientation de son spin (l’orientation de l’axe de rotation si c’était une petite toupie).

Avec si peu de propriétés, il est facile d’avoir deux particules ayant exactement les mêmes propriétés et donc d’être parfaitement identiques. Imaginons maintenant que l’on ait deux telles particules identiques. Et imaginons qu’un petit lutin malicieux passe par là et échange les deux particules à notre insu. Puisque ces deux particules sont parfaitement identiques, nous serions incapables de savoir que l’échange a eu lieu. Absolument rien ne permettrait de le savoir puisque tout en ces particules est identique. On ne pourrait pas le savoir même en principe. On pourrait encore objecter qu’on pourrait suivre les particules des yeux, comme avec nos cubes, et que même si on ne le fait pas, les interactions avec l’environnement garantissent une trace des déplacements des particules. Mais c’est là que la mécanique quantique entre en jeu. En mécanique quantique, les positions et vitesses des particules ne sont pas parfaitement déterminées. Ainsi, une particule peut avoir un certain « étalement », une zone où la particule a une certaines probabilité de se trouver à chaque endroit. Et il en est de même de sa vitesse. On pourrait penser a priori que ce caractère probabiliste est simplement le reflet de notre ignorance, mais ce n’est pas le cas. C’est une réelle propriété des objets quantiques. Plusieurs choses le montre :  Cette zone n’est pas seulement décrite par une répartition des probabilités de se trouver en tel ou tel endroit mais par ce qu’on appelle une amplitude qui contient des informations supplémentaires (on l’appelle phase).  Cette étrange indétermination de la position a des conséquences mesurables. Ainsi, les particules peuvent interférer comme le feraient des ondes, propriétés due à cette « dispersion » et aux différences de phase.  Enfin, il y a les conséquences que nous allons dégager. Si deux particules identiques sous tout rapport sauf peut-être la position et la vitesse ont ne fut-ce qu’une petite zone de présence en commun (de même pour la vitesse), il devient impossible de suivre les particules des yeux car dans cette zone où elles peuvent être ensemble exactement au même endroit tout échange passerait inaperçu.

(nous n’avons représenté qu’une seule direction) La même chose est vraie pour « l’observation » par l’environnement. De plus, ces particules étant microscopiques, leurs interactions avec l’environnement peuvent être rares et sporadiques. Cela rend ces deux particules non seulement identiques mais totalement indiscernables. On ne peut pas dire qui est qui et même la question perd tout son sens. Considérons nos deux particules en leur mettant une étiquette.

On peut avoir les particules A et B comme dans l’état 1 ci-dessus ou bien les deux particules échangées. Mais ces étiquettes sont purement formelles. Elles n’existent que sur le dessin ou dans notre tête. Rappelons-nous que rien ne distingue ces deux possibilités, c’est exactement la même chose. Force est d’admettre qu’il s’agit du même état (quantique. Il n’y a pas deux états différents mais un seul. C’est quelque chose qui peut sembler très curieux pour nous qui vivons au quotidien où l’identité des choses est bien définies, comme les cubes au début. Qu’en échangeant deux objets strictement identiques on ait exactement la même situation, soit, mais que ce soit vraiment la situation telle qu’elle était a départ, cela peut sembler difficile à digérer. Nous ne pouvons donc pas nous contenter d’un raisonnement. C’est l’expérience qui doit nous guider. Notons que s’il y avait effectivement la moindre chance de distinguer ces particules, même si cela nous est totalement inconnu, le raisonnement ci-dessus (« même état ») serait faux. Et les conséquences, nous le verrons, sont importantes. L’expérience peut donc facilement trancher et elle le fait. Voyons donc maintenant ces conséquences.

Statistiques quantiques Statistique classique Comme exemple pour illustrer les différentes possibilités, nous prendrons deux dés à six faces. Chacun peut se trouver dans un des six états possibles avec la face supérieure indiquant : 1, 2, 3, 4, 5 ou 6. Considérons deux dés classiques, c’est-à-dire discernables, comme nos cubes. Chaque dé pouvant avoir six états possibles, une paire de dés peut avoir 36 états possibles. Voici une portion des états possibles : Dé 1 Dé 2 1 1 1 2 2 1 1 3 3 1 2 3 3 2 Statistique quantique Considérons maintenant que nous ayons affaire à des objets quantiques élémentaires. Ces deux dés quantiques microscopiques sont parfaitement identiques en tout point si ce n’est la valeur indiquée par la face supérieure.

Dans ce cas, les dés sont indiscernables et il n’y a pas lieu de distinguer l’état 1-2 de l’état 2-1. La liste des états possibles est donc plus courte. Dé 1 Dé 2 1 1 1 2 1 3 1 4 1 5 1 6 2 2 2 3 2 4 2 5 2 6 3 3 3 4 3 5 3 6 4 4 4 5 4 6 5 5 5 6 6 6 Il n’y a donc que 21 états possibles. Les bosons Il existe deux sortes de particules, les bosons et les fermions. La propriété de spin distingue ces deux sortes de particules. Nous y reviendrons ci-dessous. Les bosons obéissent exactement à la répartition statistique ci-dessus. Cette statistique est appelée statistique de Bose-Einstein. Les fermions Les fermions ont la particularité de ne jamais être à deux dans le même état quantique. On ne peut pas avoir, par exemple, deux électrons au même endroit (recouvrement de leur zone d’occupation) avec le même spin. Ce phénomène s’appelle principe d’exclusion de Pauli. Il est particulièrement important car il explique les propriétés chimiques des atomes. En effet, plus il y a des électrons autour du noyau et plus ceux-ci s’établissent dans des zones (appelées orbitales) de plus en plus éloignées du noyau car les places plus proches sont occupées. La répartition complexe des électrons donne alors aux atomes diverses propriétés lors de leurs interactions par échange d’électrons. Ce qui leur donne leurs propriétés chimiques. Notons que cette impossibilité d’avoir notre paire de « dés fermions » dans l’état 1-1 n’est pas interdit par « quelque chose ». Ce n’est pas une espèce d’interaction ou de forces qui empêcherait les dés de le faire (ou les électrons). C’est juste que dans la liste des états possibles pour la paire de dés ou d’électrons, l’état 1-1 n’existe pas !

Cette étrange propriété quantique des particules est lié à la relativité et à leur moment angulaire (leur « rotation » comme des toupies) c’est-à-dire en termes quantiques, leurs spins. C’est un résultat fascinant dont la raison profond, très technique, semble difficile à décrire en termes simples. Citons une liste de particules importantes qui sont d’un type ou l’autre : Bosons Fermions Photons (lumière) Electrons Mésons (particules exotiques Protons rencontrées en physique des particules) Atomes d’hélium 4 Neutrons Atomes d’hélium 3 (un isotope nucléaire plus léger de l’hélium, assez rare, il y a un neutron de moins dans le noyau) Revenons à nos dés. Puisque les fermions sont indiscernables et puisqu’ils obéissent au principe d’exclusion, la liste se raccourci encore. Dé 1 Dé 2 1 2 1 3 1 5 1 6 2 3 2 4 2 5 2 6 3 4 3 5 3 6 4 5 4 6 5 6 Il n’y a plus que 14 états possibles. La répartition statistique correspondantes s’appelle statistique de Fermi-Dirac.

Calcul de la probabilité thermodynamique Revenons au calcul des probabilités thermodynamiques. Rappelons-nous que particules.

correspond au nombre de façon de placer

particules en domaines de

Mais puisque les particules quantiques sont indiscernables, peu importe quelle particule est dans quel domine. Dans tous les cas ça revient au même. Donc, on a tout simplement :

Pour ensuite placer particules dans cellules, cela revient à compter un peu comme pour nos dés. Pour les bosons on peut mettre 0 à particules par cellule, mais peu importe quelle particule

est dans quelle cellule. C’est un petit calcul combinatoire que nous vous laissons faire si vous aimez les mathématiques. Pour des fermions, on ne peut mettre qu’une seule particule par cellule ! Sinon, on aurait deux particules dans le même état, ce qui est interdit. La question revient à compter de combien de manière on peut choisir cellules parmi les cellules disponibles. Notons qu’on doit forcément avoir (supérieur ou égal). C’est à nouveau un petit calcul combinatoire assez simple.

Conséquences Bosons Les résultats précédents montrent bien ce que sont les différentes statistiques. Mais il est difficile de deviner quelles peuvent bien être les conséquences. Regardons le cas des dés avec les bosons. Comptons le nombre de cas où les deux dés ont la même valeur. Il y a six états de ce type. Cela veut dire que dans le cas classique, la probabilité d’avoir une telle paire est : Tandis que pour les bosons la probabilité vaut :

Il y a donc plus de chance d’avoir les deux dés avec une valeur identique. Illustrons cela autrement. Considérons à nouveau notre boîte à deux compartiments avec quatre particules. Il n’y a qu’une seule manière de ranger toutes les particules dans le compartiment de gauche, que les particules soient classiques ou des bosons. Par contre, pour la répartition équilibrée, tout change. Pour des particules classiques, on l’a vu, il y a 12 manières de répartir les 4 particules de manière équilibrée (2-2) dans les deux compartiments. Il y a donc 12 fois plus d’états de ce type que l’état « toutes les particules à gauche ». Mais les bosons étant indiscernables, peu importe quelle particule a été mise dans le compartiment de gauche ou de droite. Toutes ces répartitions sont indiscernables. Il n’y a donc qu’une seule manière de le faire ! La probabilité d’avoir toutes les particules à gauche est donc aussi grande que d’avoir la répartition d’équilibre. D’une manière générale, supposons que l’on ait déjà particules dans le même état. Alors on montre que la probabilité qu’une nouvelle particule ajoutée, si ce sont des bosons, se retrouve aussi dans le même état est grande, et d’autant plus grande que est grand. On dit que les bosons ont un comportement « grégaire », comme les moutons, et « aiment » à être tous dans le même état. En fait, bien entendu, c’est juste une question de probabilité, pas une préférence volontaire des particules. Fermions Pour les fermions, les paires de valeurs identiques sont zéros. C’est normal, contrairement aux bosons grégaires, ils obéissent au principe d’exclusion et donc ne sont jamais dans le même état.

Mais prenons quatre dés au lieu de deux. Pour des dés classiques, cela donne 6*6*6*6=1296 paires possibles. Pour des fermions on a : Dé 1 Dé 2 Dé 3 Dé 4 1 2 3 4 1 2 3 5 1 2 3 6 1 2 4 5 1 2 4 6 1 2 5 6 2 3 4 5 2 3 4 6 2 4 5 6 3 4 5 6 Donc, seulement 10 états possibles ! La différence est considérable. Et pour six dés on n’a même qu’un état possible. Rappelez-vous le calcul de les possibilités.

: on ne peut mettre qu’une particule par cellule. Cela limite fortement

D’une manière générale, comme les états ont une énergie croissante, les particules remplissent les états d’énergie de plus en plus grande et si l’énergie est limitée elles ne pourront pas remplir d’états d’énergie encore plus élevée. Elles ont donc tendance à remplir complètement les états de faible énergie avec une particule par cellule. Typiquement, un remplissage prend la forme très « ramassée » suivante :

Le niveau d’énergie s’appelle niveau ou énergie de Fermi. A la température du zéro absolu, seuls les états sous sont remplis et ils le sont tous, et si plus d’énergie est disponible ( plus grand), les particules tendent à occuper des états d’énergie un peu plus grande. Haute température A très haute température, il y a beaucoup d’énergie disponible. Le nombre d’états microscopiques disponibles devient alors très grand. Les particules disponibles peuvent donc se répartir dans un nombre extrêmement grand de cellules et de domaines. Vu le nombre de particules beaucoup plus

petit que le nombre d’états microscopiques possibles, on va avoir des particules disposées de ci de là dans les cellules avec beaucoup de cellules vides. Dans ces circonstances, si ces particules étaient classiques, la probabilité d’avoir deux particules dans la même cellule devient rare. Tout comme un trappeur croise peu de monde dans une région désertique. De même, si on a une particule dans la cellule et une autre dans la cellule , le fait qu’un peu plus tard on trouve l’inverse (échange des deux particules) devient rare. Dans ces circonstances, le fait d’être un boson ou un fermion ne joue plus beaucoup puisque le caractère indiscernable n’intervient plus beaucoup et de même que le principe d’exclusion. Le comportement des particules quantiques s’approche du comportement de particules classiques. On montre que les valeurs des tendent vers leurs valeurs classiques que nous avons vues. De même, la distribution statistique des grandeurs physiques dictée par la statistique de BoseEinstein ou de Fermi-Dirac tend vers la distribution de Maxwell-Boltzmann. En fait, il reste quand même une différence. Puisque les particules sont indiscernables, on continue à avoir . Toutefois, même dans le cas classique, pour un nombre de domaine donnés, la valeur de est une constante. Elle n’intervient pas beaucoup dans les relations tirées des distributions statistiques, si ce n’est sur l’entropie totale qui est plus faible d’une constante donnée par le . On parle ainsi de statistique de Maxwell-Boltzmann corrigée. On comprend donc que, sauf dans certaines circonstances, les aspects quantiques liés aux statistiques de Bose-Einstein et Fermi-Dirac ne se rencontrent que si la température est suffisamment basse pour limiter le nombre d’états disponibles et mettre ainsi en exergue les aspects quantiques. Typiquement, ce sont dans les très basses températures, proches du zéro absolu, que l’on va voir ces comportements. Mais il y a des exceptions. Il est donc temps maintenant de passer aux applications car nous sommes suffisamment outillés pour les comprendre.

Applications La liste des applications ci-dessous n’est pas du tout exhaustive, la physique statistique se retrouvant un peu partout.

Machines thermiques Les machines thermiques sont un domaine fort important de la thermodynamique classique. On peut même dire qu’elles sont l’origine de cette discipline puisque c’est en étudiant les phénomènes liés à la « puissance du feu » que Carnot a publié son ouvrage à l’origine de cette discipline.

Description Qu’est-ce qu’une machine thermique ? C’est un ensemble de dispositif (pompes, compresseurs, turbines, échangeurs de chaleur) qui effectuent des transformations sur un fluide (liquide ou gaz) afin de réaliser :  Des échanges de chaleur avec une source chaude et une source froide.  Fournir ou consommer un travail mécanique. Voici un dessin représentant une machine thermique typique :

Décrivons les différents composants et leur rôle.  Le compresseur (généralement alimenté par une source électrique) comprime le fluide. Dans ce processus il peut être gazeux avant et après, liquide avant et après ou gazeux avant compression et liquéfié par la compression. Du travail est fourni au fluide. Le fluide voit sa pression et sa température augmenter.  La turbine reçoit un fluide très chaud et à forte pression, le fluide se détend dans la turbine et cette détente mécanique est utilisée pour faire tourner des pales. Couplée à un alternateur, la turbine peut ainsi produire du courant électrique. Du travail est fourni à l’extérieur. Le fluide voit sa température et sa pression chuter. Parfois, au lieu d’un alternateur, on peut avoir une simple valve de détente du fluide qui fait baisser sa pression et sa température. On trouve ce genre de dispositif (ne fournissant aucun travail) dans des systèmes réfrigérants simples comme les réfrigérateurs domestiques.  Un échangeur de chaleur est un dispositif où circulent deux fluides : un fluide externe apportant ou emportant de la chaleur et le fluide de la machine. Les deux ne se mélangent pas mais ont une grande surface de contact, favorisant les échanges, à travers un système compliqué de tournants et méandres. La source chaude est une source de fluide plus chaude que celle circulant dans la machine. Par exemple un fluide provenant d’une chaudière alimentée au gaz, au charbon, au pétrole ou par une pile nucléaire.

La source froide, plus froide que le fluide circulant dans la machine, peut être simplement l’air ambiant ou l’eau d’une rivière.

Cycles Chaque composant ci-dessus provoque un changement d’état du fluide en faisant varier sa température et sa pression. On obtient ainsi un cycle comme ceux que nous avons déjà vu :

Selon le sens de parcourt du cycle, le système fonctionne comme un générateur de travail (par exemple, pour produire du courant électrique dans une centrale thermique) ou comme un consommateur de travail (comme un réfrigérateur). Dans le sens générateur, on consomme de la chaleur et on produit du travail. Bien entendu, la turbine fournit plus de courant que n’en consomme le compresseur ! Dans le sens « frigo », le système a surtout pour but de refroidir un fluide, la source froide est alors le fluide à refroidir tel que l’air dans un réfrigérateur.

Diagramme TS Les diagrammes TS (température-entropie) sont fort pratique pour les machines thermiques.

Dans ce diagramme, les horizontales sont les isothermes et les lignes verticales sont les lignes isentropiques, c’est-à-dire à entropie (du système) constante (l’entropie totale pouvant encore augmenter, en tenant compte de l’entropie du monde extérieur). Ces diagrammes sont assez pratiques car la surface du cycle (la surface du carré ci-dessus) est la valeur de la chaleur échangée par le cycle. Avec la détermination du travail, on calcule ainsi facilement le rendement de la machine, dont le rendement maximal est celui de Carnot.

Applications Il existe de nombreux systèmes différents suivant les rendements recherchés, les fluides disponibles, les températures disponibles ou souhaitées, … Les machines peuvent différer par divers composants et le choix de diverses transformations (isothermes, isochores, etc.). On a ainsi de nombreuses applications pour :  Produire de l’énergie mécanique (puis électrique) : centrales thermiques, centrales nucléaires.  Produire du froid : réfrigérateurs, surgélateurs, dispositifs pour liquéfier divers gaz, air, gaz carbonique, hydrogène,… Parfois les fluides ne permettent d’atteindre qu’une certaine température et plusieurs étages peuvent être nécessaires. Chaque étage est une machine thermique différente travaillant à des températures de plus en plus basses. La source froide d’un étage étant la source chaude de l’étage suivant.  Les pompes à chaleur. Conceptuellement, une pompe à chaleur n’est jamais un système de réfrigération dont la source chaude est l’intérieur d’un bâtiment, et la source froide est l’extérieur. Ce type de dispositif est couteux à installer car il faut prévoir un système d’échange thermique efficace entre le fluide de la pompe à chaleur et l’air du bâtiment, ce qui se fait en général par des serpentins placés dans le sol ou les murs. Par contre, les pompes à chaleur

sont appréciées pour leur très bon rendement. En effet, plutôt que de simplement transformer le travail en chaleur (principe d’un chauffage classique, par exemple un radiateur électrique), une partie de la chaleur est fournie par le monde extérieur, donnant des rendements (chaleur produite divisé par le travail) supérieur à 100%

Magnétisme Il existe différentes formes de magnétisme. Plus exactement, différents comportements des substances magnétiques. Citons, sans être exhaustif, le diamagnétisme, le paramagnétisme, le ferromagnétisme, le ferrimagnétisme, l’antiferromagnétisme, etc. Nous allons étudier les trois premiers, qui sont aussi les plus génériques, mais nous allons d’abord commencer par donner quelques explications sur le magnétisme.

Magnétisme Le magnétisme est un phénomène lié à l’électromagnétisme. On peut dire que le magnétisme est un « champ » émit par les aimants. Un champ étant quelque chose répandu dans tout l’espace et le temps et prenant une valeur en chaque point (par exemple, le « champ de vitesse » d’une rivière est la vitesse de l’eau en chaque point de sa surface). Tout le monde a déjà manipulé des aimants et cela constitue donc une base intuitive utile pour comprendre. Mais qu’est-ce qui crée le magnétisme dans un aimant ? Le champ magnétique est formé de lignes de champ le long des quelles s’alignent des objets sensibles au champ magnétique, comme le fer. On peut visualiser ces lignes de champ avec de la limaille de fer. Par exemple avec un aimant :

Ce qui permet de déterminer les lignes de champ magnétique :

Ces lignes de champ sont en outre orientées et un aimant possède deux pôles, un pôle Nord et un pôle Sud. Ce nom vient du fait qu’une aiguille aimantée voit son pôle Nord se diriger vers le pôle Nord géographique (en fait c’est le pôle Sud magnétique de la Terre). Si on prend un fil électrique parcouru par un courant électrique, on peut aussi détecter un champ magnétique. Il a la forme suivante :

On en déduit facilement que si l’on a une boucle de courant électrique, on a (ce que la mesure confirme) :

Le champ magnétique est en fait semblable à celui d’un aimant. On parle de dipôle magnétique ou de moment magnétique. Mais un courant électrique n’est rien d’autre que des charges électriques en mouvement. De fait, une charge électrique qui se déplace produit le même champ magnétique :

Et donc toute charge électrique qui est en orbite produit un moment magnétique comme un aimant. Or les électrons autour des atomes sont dans ce cas. Bien sûr, mécanique quantique oblige, les électrons ont une densité de présence autour du noyau de l’atome qui ne correspond pas toujours à une orbite. Mais pour certains des électrons placés autour du noyau, on a bien une « rotation » nette non nulle et donc un moment magnétique. A part l’hydrogène, tous les atomes ont plusieurs électrons en orbite autour de leur noyau. Certains vont créer un moment magnétique dans un sens et d’autres dans l’autre sens. Dans ce cas, les moments magnétiques opposés se neutralisent. Mais dans certains cas, comme le fer, le résultat net est non nul et l’atome possède un petit moment magnétique. Dans ce cas, l’atome se comporte comme un minuscule aimant.

Voilà l’origine du magnétisme : ce sont les aimantations cumulées de tous ces petits aimants atomiques. Mais pour mieux comprendre comment ils peuvent se coordonner pour donner une aimantation macroscopique, nous allons devoir y regarder d’un peu plus près et nous verrons cela avec le ferromagnétisme plus loin.

Effet du magnétisme sur les aimants Pour comprendre la suite on a besoin de savoir comment interagissent les aimants entre eux ou avec un champ magnétique externe appliqué. Si on a deux champs magnétiques, ils interagissent avec apparition d’une force. De même, si on place un aimant dans un champ magnétique :

L’aimant subit une force qui tend à le déplacer dans le champ magnétique. Mais si l’aimant n’est pas aligné avec le champ magnétique, la situation est différente :

L’aimant a donc tendance à pivoter pour s’aligner avec le champ magnétique. De même, puisque un aimant émet un champ magnétique, ils vont aussi interagir et s’attirer ou se repousser :

La conséquence nette est que les pôles de même nature se repoussent alors que les pôles de nature opposée s’attirent.

A cause de ces forces, deux aimants qui ne sont pas placés dans la « bonne » position vont avoir tendance à pivoter pour se placer comme suit :

C’est quelque chose que vous avec déjà dû expérimenter si vous avez joué avec des aimants. Ils tendent à se mettre à le queue-leu-leu ou à se placer l’un à côté de l’autre mais tête bêche. Avec ces phénomènes, vous avez (presque) tout en main pour comprendre comment vont se comporter les « aimants atomiques » dans les différentes formes de magnétisme.

Diamagnétisme Le diamagnétisme se produit avec les atomes sans moment magnétique. C’est le cas des molécules d’air (molécules d’oxygène et d’azote). Sous un champ magnétique, puisque ces atomes n’ont pas de moment magnétique et ne se comportent pas comme de petits aimants, il ne devrait pas y avoir de réaction. Mais un atome est composé d’un noyau (lourd et peu mobile) et d’électrons très rapides tournant autour. Or les électrons sont des particules chargées électriquement et donc comme tels peuvent être influencés par le champ magnétique. Les orbites des électrons sont donc perturbées par la présence du champ magnétique. Plus précisément, ce sont les zones de présence qui sont déformées. Sous cette déformation, la forme des orbites n’est plus symétrique et on voit apparaitre un petit moment magnétique. Or, c’est un effet de l’électromagnétisme appelé loi de Lenz, la déformation s’oppose à la cause qui lui a donné naissance. C’est-à-dire que l’orientation du moment magnétique est telle qu’il y a répulsion par le champ magnétique. Cet effet est toujours très faible, bien que mesurable avec des champs magnétiques suffisamment puissants, sauf avec les supraconducteurs que l’on verra après.

Paramagnétisme Lorsque les atomes ont un moment magnétique, chaque atome se comporte comme un petit aimant qui peut s’orienter sous un champ magnétique externe. On peut supposer que ce moment magnétique est assez faible et que les atomes sont suffisamment éloignés les uns des autres pour ne pas s’influencer de manière notable, si ce n’est lors des collisions.

En l’absence de champ magnétique externe, chaque atome est orienté au hasard. De plus, les collisions aléatoires entre atomes vont provoquer des basculements des moments magnétiques également au hasard. Globalement, il y a autant de moments magnétiques dans un sens que dans l’autre, il n’y a donc pas d’aimantation globale.

Si l’on applique un champ magnétique externe, celui-ci va affecter les petits aimants atomiques. Ces derniers vont alors pivoter comme nos aimants précédemment. Le résultat est alors une attraction de la substance par le champ magnétique. Cet effet est toutefois assez faible à cause de l’agitation thermique qui tend à désorganiser la structure et à désorienter les aimants atomiques.

Il est possible de calculer l’aimantation en utilisant la physique statistique. Chaque atome a deux orientations, dans le sens du champ magnétique ou opposé. En réalité il y a bien plus que deux orientations. Mais la mécanique quantique montre que le moment magnétique est quantifié et qu’il suffit de considérer ces deux orientations. L’énergie de l’atome est alors légèrement différente, en plus ou en moins, selon son orientation, à cause de l’interaction du moment magnétique avec le champ magnétique. Il y a un terme qui vient s’ajouter où est le moment magnétique et le champ magnétique. A partir de là, on peut calculer et tous les calculs habituels. On calcule alors la répartition, en fonction de la température, des atomes orientés dans un sens et ceux dans l’autre. La différence, fois le moment magnétique, donne l’aimantation globale. A une température donnée, on trouve ainsi une courbe donnant l’aimantation de la substance en fonction de la température.

La ligne en tirer de valeur est l’aimantation à saturation lorsque tous les petits aimants atomiques sont alignés. Cela ne se produit qu’à très basse température ou avec des champs magnétiques extrêmement puissantes. D’une manière générale la courbe grimpe moins vite lorsque la température est plus grande. Les résultats théoriques sont bien confirmés par l’expérience.

Ferromagnétisme Certaines substances ont la faculté de présenter une aimantation spontanée ou qui apparait lors de l’application d’un champ magnétique et qui subsiste une fois ce champ magnétique supprimé. Ce sont les substances ferromagnétiques comme le fer, le cobalt et quelques autres atomes et alliages. Leur aimantation est généralement très forte. Cela signifie que les moments magnétiques des atomes s’alignent spontanément dans le même sens ou le restent une fois alignés.

Mais ça, c’est contraire à ce que nous avons vu. Les aimants alignés dans le même sens se repoussent et ils devraient pivoter pour se retrouver tête-bêche. Cela se produit d’ailleurs et est appelé

antiferromagnétisme. Cela se produit lorsque les atomes sont suffisamment proches pour que leurs moments magnétiques s’influencent l’un l’autre. Mais dans ce cas, pour un ferromagnétique, comment peuvent-ils s’aligner dans le même sens ? L’explication réside dans la mécanique quantique et les particules indiscernables, encore elles ! Et de fait, la physique classique est impuissante à expliquer un tel phénomène. Lorsque les atomes sont proches, ils y a une certaine probabilité que les électrons s’échangent.

Ce dessin est approximatif car les orbites ne sont pas simplement circulaires mais des zones de présence de diverses formes (boules, sabliers, trèfles,…) et il y a une asymétrie puisque les atomes considérés présentent un moment magnétique. Si les électrons sont dans le même état (sauf la position, évidemment, sinon le principe d’exclusion de Pauli l’interdirait) alors après l’échange, il n’y a aucune différence. Dans une telle situation, la mécanique quantique montre que l’énergie totale est plus faible, donc favorable. Et justement, quand les moments magnétiques sont alignés, les orientations des zones de présences identiques, les électrons concernés (généralement externes ou presque) sont justement dans le même état. Ce mécanisme quantique favorise donc les moments magnétiques alignés. Suivant les atomes (et leur remplissage des couches électroniques), selon la structure cristalline (l’arrangement des atomes dans la substance) on peut donc avoir ou un comportement paramagnétique, ou antiferromagnétique ou celui dont nous parlons : l’alignement est favorisé. Puisque les aimants atomiques s’alignent, on a alors automatiquement une aimantation spontanée. Suite aux mouvements aléatoires des atomes, leur orientation va se faire également au hasard, se claquant sur ses voisins. Ce phénomène se produit en différant endroit de la substance conduisant à des zones d’orientation différente appelées domaine de Weiss. La structure de ces zones est aussi dictée par la structure cristalline et le fait qu’un matériau comme le fer est généralement constitué de nombreux petits cristaux orientés dans tous les sens.

Les « parois » entre les domaines contiennent généralement des atomes dont l’orientation est aléatoire, appelées parois de Bloch. Comme on a des domaines orientés dans tous les sens, pour un matériau macroscopique, l’aimantation globale est nulle. Que se passe-t-il si on applique un champ magnétique externe ? Le champ va agir sur les aimants magnétiques et va avoir tendance à faire basculer les aimants atomiques. Mais ceux-ci ayant une position plus favorables s’ils sont entourés d’atomes orientés comme eux, ce sont les atomes au bord des domaines qui vont avoir tendance à basculer. Le résultat net est une diminution de la taille des domaines mal orientés et une augmentation de la taille des domaines mieux orientés.

(nous n’avons représenté que l’orientation globale des domaines de Weiss) Comme il y a des domaines de plus en plus grands orientés dans une direction déterminée, il apparait ainsi une aimantation globale. Cette aimantation et le champ magnétique provoque une forte attraction de la substance par le champ magnétique. Contrairement au paramagnétique, à cause de l’orientation privilégiée des atomes par rapport à leurs voisins, l’orientation commune est fortement privilégiée conduisant à une attraction beaucoup plus grande. Si l’on coupe le champ magnétique, les atomes restent orientés dans la position où ils se trouvent. La substance conserve donc une aimantation permanente. Nous avons fabriqué un aimant ! Notons que dans certains matériaux, les cristaux sont microscopiques favorisant des domaines de Weiss minuscules. L’orientation favorable ne concerne que peu d’atomes par domaine et l’agitation

thermique empêche le maintien d’une aimantation. Mais la plupart des matériaux ferromagnétiques gardent une aimantation. Cela se voit bien si vous placez un aimant dans une boite d’épingles puis que vous le retirez : les épingles gardent une aimantation et se « collent » les unes aux autres. Si l’on inverse le champ magnétique, le processus inverse se produit. Les domaines qui avaient grandis se mettent à rétrécir et inversement. Notons que cette variation de la taille des domaines de Weiss ne se fait pas sans résistance. Cela nécessite en effet de l’énergie puisque l’on pousse les atomes à changer d’orientation alors que leurs voisins sont orientés différemment. Cette résistance fait que sous un changement du champ magnétique, il y a un décalage de l’aimantation acquise par la substance. Lorsque l’on fait varier le champ magnétique de manière cyclique (ce qui se produit dans des moteurs, des dynamos, etc.) on observe une hystérésis :

Les flèches sur la courbe indiquent le sens dans lequel on fait varier le champ magnétique. « Init » est le point de départ à partir d’une substance non aimantée. est l’aimantation à saturation que nous avons déjà vue, est l’aimantation qui subsiste après coupure du champ magnétique (il y a une légère diminution car il y a « relaxation », les atomes reprenant diverses orientations dictées par leur voisins et la structure cristalline). est le champ coercitif qu’il faut appliquer dans l’autre sens pour éliminer l’aimantation. Notons qu’on montre que la surface de l’hystérésis est proportionnelle à l’énergie dissipée par la substance lors d’un cycle (à cause de la résistance au basculement). Cette énergie se dissipe sous forme de chaleur. Pour éviter des échauffements dommageables dans les machines tournantes (moteurs, alternateurs, …) on utilise des matériaux ayant un faible hystérésis tel que l’acier doux.

Tous ces résultats théoriques ainsi que les valeurs calculées à partir de la théorie sont bien confirmés par l’expérience. Prenons maintenant un aimant et augmentons la température. Lorsque la température augmente, l’agitation thermique provoque des basculements des atomes et on a apparition de domaines de Weiss de plus en plus petits. A température suffisamment élevées, l’agitation thermique l’emporte sur la tendance des atomes à s’aligner et il n’y a plus du tout d’aimantation.

On peut ainsi tracer la courbe de l’aimantation rémanente en fonction de la température. On voit qu’elle s’annule pour une température appelée température de Curie. Au-delà de cette température, il n’y a plus du tout d’aimantation spontanée et la substance se comporte comme une substance paramagnétique. S’il y avait une aimantation globale, après passage par la température de Curie, il y a reformation de domaines de Weiss d’orientations variées et l’aimantation globale est perdue. Un aimant chauffé audelà de sa température de Curie perd donc son magnétisme. Pour donner une idée, la température de Curie du fer est de 820 degrés Celsius, celle du nickel de 377 °C, celle du gadolinium de seulement 20°C. On peut même avoir des températures de Curie extrêmement basse, ainsi la molécule hydratée de cuivre a une température de Curie de 0.88 K. Ce n’est donc que très près du zéro absolu qu’on peut constater son comportement ferromagnétique.

Corps noir Définition Tout corps chaud émet des rayonnements électromagnétiques (lumière, ondes radions, etc. Nous y reviendrons ci-dessous). Par exemple, si vous chauffez fortement un morceau de métal, celui-ci devient lumineux. Il est d’abord rouge cerise (comme dans l’expression « chauffé au rouge ») puis orange, jaune et finalement blanc.

Plus la température est élevée et plus le morceau de métal est lumineux et plus sa couleur se décale du rouge vers le bleu. Ce procédé est également utilisé dans les lampes à incandescence. Le filament en tungstène (métal qui fond à la plus haute température) est fortement chauffé par le courant électrique et émet alors un rayonnement. On dit de ces rayonnements qu’ils sont « chauds » car ils comportent toutes les couleurs, ce qui est plus agréable pour les yeux, jusqu’au infrarouges qui transmettent bien la chaleur. On parle aussi de rayonnement thermique. Même les corps moins chaud émettent des rayonnements. Ainsi, le corps humain à 37 °C émet surtout dans l’infrarouge, ce qui permet l’utilisation de lunettes infrarouges montrant clairement les corps qui se détachent sur l’environnement plus froid. Mais même des corps encore plus froids, tels que des nuages interstellaires à seulement quelques dizaines de degré Kelvin, émettent des rayonnements. Cette fois, ce sont surtout des ondes radios, ce qui est exploité dans les radiotélescopes, ces immenses antennes paraboliques qui scrutent les cieux. On appelle corps noir un corps idéalisé ayant les deux propriétés suivantes :  Il absorbe tout rayonnement électromagnétique qui le touche.  Il est à température uniforme et constante, c’est-à-dire à l’équilibre thermique. On appelle rayonnement de corps noir le rayonnement thermique d’un tel corps. Bien qu’idéalisé (aucun corps n’absorbe parfaitement tous les rayonnements) beaucoup de corps sont d’assez bons corps noirs. Et on peut aussi corriger la loi des corps noirs par divers facteurs qui donnent par exemple le coefficient de réflexion des ondes électromagnétiques. Dans ce cas, on parle de corps gris. Il est vrai que « corps noir » est un nom un peu bizarre. Il est dû au fait qu’un corps qui ne reflète aucun rayonnement (puisqu’il les absorbe) est noir, comme du noir de charbon. Mais puisqu’il émet du rayonnement par lui-même, sa couleur n’est pas nécessairement noire. Ainsi, le Soleil est une grosse boule de gaz qui ne ressemble en rien à une boule à facettes ! Le Soleil absorbe bien les rayonnements incidents et sa température de surface à peu près constante (environ 6000 degrés) et constitue ainsi un très bon corps noir dans un large domaine de longueurs d’ondes. Il est assez amusant de qualifier le Soleil de… noir !

Spectre Revenons aux ondes électromagnétiques. Ce sont des variations périodiques et qui se propagent des champs électriques et magnétiques. Comme toutes les ondes, comme les vagues sur l’eau, elles ont une longueur d’onde (la distance entre deux crêtes). Les ondes électromagnétiques comprennent : la lumière visible, les infrarouges, les ultraviolets, les ondes radios, les rayons X et les rayons gammas. Ces différents domaines ne diffèrent que par la longueur d’onde. La lumière visible elle-même se décompose en couleurs qui dépendent de la longueur d’onde. A chaque longueur d’onde correspond aussi une fréquence (rythme auquel les vagues arrivent sur la plage) qui dépend de la vitesse de l’onde et de sa longueur d’onde, mais la vitesse étant toujours la même (dans le vide) pour les ondes électromagnétiques (300000 kilomètres par seconde), il est équivalent de parler en termes de longueur d’onde ou de fréquence. Ainsi, les stations radios que

vous écoutez sans doute sont distinguée par leur fréquence d’émission, par exemple 100 MHz, M pour « million » et Hz pour « Hertz ». Un Hertz est une fréquence d’un battement par seconde. L’ensemble des longueurs d’onde s’appelle le spectre Voici une image globale du spectre électromagnétique :

Notons qu’on donne fréquemment l’intensité d’un rayonnement électromagnétique en fonction de la longueur d’onde. On parle alors du spectre du rayonnement ou du spectre du corps qui émet ce rayonnement.

Universalité Le rayonnement de corps noir est universel en ce sens qu’il dépend uniquement de la température et pas de la nature de la substance composant le corps noir. Cela se démontre aisément. Imaginons le dispositif suivant :

On a une boite parfaitement isolante et réfléchissante. A l’intérieur on a deux substances différentes qui sont des corps noirs. Entre les deux, une paroi filtrante ne laisse passer que certaines longueurs d’ondes et est parfaitement réfléchissante pour le reste du spectre. Imaginons qu’initialement la température soit uniforme dans toute la boîte. Puisque les parois et le filtre sont parfaitement réfléchissant et les parois parfaitement isolées, la seule évolution que pourrait subir l’ensemble c’est par le rayonnement qui passe à travers le filtre. Supposons que le rayonnement de corps noir ne soit pas universel, qu’il dépende de la température mais aussi des substances concernées. Alors le spectre de corps noir des deux substances doit être différent au moins pour une partie des longueurs d’onde. Choisissons un filtre qui ne laisse passer le rayonnement électromagnétique que dans cette gamme de longueur d’onde. Puisque le rayonnement est différent, il y aura plus de rayonnement qui passe dans un sens que dans l’autre. Les substances étant parfaitement absorbantes (corps noirs), elles absorbent le rayonnement reçu. Le corps qui émet le moins de rayonnement dans la gamme de longueurs d’onde concernée, va en recevoir plus qu’il n’en émet et l’inverse pour le second corps. Par conséquent le premier corps va s’échauffer et voir sa température augmenter tandis que le second va se refroidir. Ce phénomène est directement en contradiction avec le second principe qui n’autorise l’échange spontané de chaleur que d’un corps chaud vers un corps froid. Puisque les deux parties de la boîte se retrouvent à une température différente, elles pourraient servir de sources froide et chaude pour une machine thermique produisant de l’énergie mécanique ou électrique. L’énergie retirée pourrait simplement être rendue en ouvrant la boîte pour qu’elle reprenne la température ambiante puis on referme la boîte et on continue. On aurait ainsi une machine perpétuelle qui fournit de l’énergie indéfiniment. Ce qui, nous le savons, est impossible. Puisque tout cela découle de l’hypothèse d’un rayonnement universel, cela démontre que le rayonnement du corps noir doit être universel selon la thermodynamique.

Etude expérimentale Comment étudier le rayonnement du corps noir ? On peut bien sûr étudier le rayonnement émit par différentes substances à différentes température, et cela se fait. Mais le corps noir étant une substance idéale, comment procéder pour étudier ce rayonnement ?

Imaginons le dispositif suivant :

Un four est maintenu a température constante par un dispositif de chauffage et un thermostat. Un petit trou est pratiqué dans la paroi. On veille aussi à avoir des parois internes non réfléchissantes et pas trop lisses. Tout rayonnement entrant par le trou a une chance infime d’en ressortir. Il faudrait qu’il soit réfléchi par les parois sans être absorbé et ce de nombreuses fois avant d’avoir par hasard la bonne direction pour sortir. L’ouverture dans le four a donc tous les attributs d’un corps noir. Attention, on parle bien du trou luimême et pas la paroi du four ! Le rayonnement qui sort du four par le trou doit donc avec les caractéristiques d’un rayonnement de corps noir. On peut alors mesurer ce rayonnement et déterminer son spectre.

On constante avant tout deux choses :  Plus la température est élevée et plus l’intensité du rayonnement est grande. Avez-vous déjà essayé d’approcher la main d’un morceau de métal chauffé à blanc ? C’est fortement déconseillé : ça brûle, même sans toucher !  Plus la température est élevée et plus le maximum de la courbe se décale vers les courtes longueurs d’onde. Ceci explique que plus un corps est chaud et plus son rayonnement passe des infrarouges, puis au rouge, au jaune, au bleu… Si un métal chauffé à blanc nous paraît blanc c’est parce qu’il émet beaucoup de bleu mais aussi beaucoup de rayonnement des autres couleurs. Le mélange paraît blanc. Le maximum de la courbe est tel que la longueur d’onde de ce maximum est inversement proportionnel à la température. Puisque la courbe représente la quantité d’énergie émise pour une longueur d’onde donnée, l’énergie totale émise par le corps est donné par la surface sous la courbe. On vérifie que l’on a : Où

est une constante appelée constante de Stefan-Boltzman qui vaut

.

Puisque l’énergie émise est la puissance quatrième de la température, l’énergie émise augmente très vite. Ainsi, si l’on multiplie la température par dix (en Kelvin), alors l’énergie émise est multipliée par dix-mille. En utilisant des dispositifs divers, des substances proches du corps noir (noir de carbone, métal ou gaz très fortement chauffé), on vérifie bien l’universalité du rayonnement.

La catastrophe ultraviolette Voilà qui est bien pour l’expérience. Mais que dit la théorie (en dehors de l’universalité) ? La modélisation théorique du rayonnement du corps noir fut un challenge au cours du XIXe siècle. On pourrait même dire une énorme épine dans le pied des physiciens. En effet, l’approche classique ne marchait pas et ce malgré de nombreux efforts. Voyons en particulier comment Planck (qui a fini par trouver la solution) a procédé. A l’époque on avait déjà découvert les électrons, particules chargées d’électricité négative et de masse extrêmement faible contenus dans la matière. Planck imagina donc que les atomes avaient une certaines structures, inconnues, mais où les électrons jouissaient d’une certaine mobilité (ce qui pouvait expliquer le courant électrique) et pouvaient ainsi vibrer au sein des atomes. Or toute charge électrique qui vibre émet un rayonnement électromagnétique et peut également en absorber. Planck imagina donc la matière comme une assemblée de petits oscillateurs pouvant émettre ou recevoir des rayonnements électromagnétiques à des fréquences liées à celle de ces petits oscillateurs. En utilisant les lois de la mécanique (pour calculer l’énergie d’un petit système vibrant), les lois de l’électromagnétisme et la physique statistique, Planck était alors à même de calculer la distribution de vibration des petits oscillateurs et de là le rayonnement émit. Mais le résultat obtenu était totalement absurde :

Les courbes qu’il avait obtenues étaient les courbes en bleu. On voit qu’elles collent parfaitement aux données expérimentales pour les grandes longueurs d’onde. Mais la courbe s’écarte totalement de l’expérience. Plus grave, elles divergent. C’est-à-dire qu’elles filent vers l’infini lorsqu’on s’approche des plus petites longueurs d’onde. Mais il y a pire encore. Si on calcule l’énergie totale émise, sous la courbe bleue, on obtient une énergie totale infinie ! C’est évidemment impossible. Quelque chose clochait dans la théorie, mais quoi ? Notons qu’à ce stade ses prédécesseurs n’avaient pas fait mieux. On avait bien une courbe théorique valable, elle, pour les petites longueurs d’onde, la loi de Rayleigh-Jeans, mais impossible de l’appliquer dans cette situation. Cette divergence de la loi théorique pour les courtes longueurs d’onde (les ultraviolets) fut appelée catastrophe ultraviolette. Quelle pouvait être la solution ?

Quantification Dans ces recherches pour résoudre le problème, Planck a eu une idée saugrenue. Et si l’énergie émise par les petits oscillateurs atomiques n’était pas quelconque mais quantifiée ? Il posa la relation suivante : Où est l’énergie que peut émettre l’atome (ou tout multiple entier de cette quantité), est la fréquence de l’onde électromagnétique qu’il émet et est une constante universelle maintenant appelée constante de Planck. Elle vaut . C’est une quantité extrêmement petite. L’idée de quantifier les grandeurs, c’est-à-dire de les découper en multiples entiers d’une petite quantité arbitrairement petite, n’est pas nouvelle. Elle peut parfois faciliter les calculs et elle est même maintenant abondamment utilisée pour le calcul numérique sur ordinateur, ceux-ci ne pouvant manipuler que des nombres finis (par exemple un nombre fini de valeurs de l’énergie dans un intervalle donné, d’où l’idée de le découper en intervalles plus petits). On retrouve ensuite les lois rattachées à des grandeurs continues quelconques en faisant tendre les petites quantités arbitraires vers zéro. Mais ici, c’est différent :  Les petites quantités d’énergie ne sont pas arbitraires mais liées à la fréquence. Pour des fréquences très élevées, ces quantités peuvent devenir appréciables.  Il n’est pas question ici de faire tendre vers zéro, sa valeur est imposée par une constante . Pourquoi est-ce que cette idée peut fonctionner ? Qu’apporte-t-elle ? La raison en est qu’il devient difficile d’émettre des énergies arbitrairement grandes aux petites longueurs d’onde (haute fréquence). En effet, on ne peut plus émettre de très nombreux trains d’onde d’énergie faible, il faut au minimum émettre d’un seul coup un paquet d’énergie . Et pour cela il faut avoir des oscillateurs atomiques qui vibrent suffisamment fort. Les lois statistiques impliquent qu’il y a très peu d’oscillateurs vibrant suffisamment forts pour émettre un seul paquet d’énergie et par conséquent peu de rayonnement émit. La divergence disparait. Et de fait, en effectuant les calculs, Planck obtint une formule du rayonnement de corps noir qui collait parfaitement aux données expérimentales. Sa formule redonne exactement les courbes données plus haut (en noir).

Gaz de photons La physique moderne utilise la mécanique quantique et celle-ci implique que le champ électromagnétique est quantifié. Il est composé de photons d’énergie . Il faut bien prendre garde de ne pas voir les photons comme de petits corpuscules. Une image plus juste serait des trains d’ondes d’énergie quantifiée. On peut considérer une cavité fermée, parfaitement absorbante (pour les ondes électromagnétiques) et à température uniforme . La cavité est alors remplie d’un rayonnement thermique que l’on peut voir comme un gaz de photons. Les photons étant des bosons on applique la statistique de Bose-Einstein. Il n’y a qu’une difficulté : le nombre de photons n’est pas constant car il est facile de créer des ondes électromagnétiques (ou d’en absorber) et donc des photons. En utilisant les techniques que nous avons vues, on peut alors calculer les caractéristiques de ce gaz et on retrouve la formule de Planck et le rayonnement de corps noir.

Métaux, isolants et semi-conducteurs Il est intéressant d’étudier les propriétés de conductions des substances.

Le spectre des atomes Rappelons que les électrons sont des fermions et que par conséquent ils s’empilent autour des noyaux atomiques par couches successives de plus en plus éloignées. On parle aussi de niveaux ou d’orbitales (pour ne pas les confondre avec des « orbites », les électrons ne tournant pas comme des petites planètes autour du noyau). Chaque électron autour du noyau a une certaine énergie. C’est donc un bon moyen pour les classer. Ainsi, plus un électron est proche du noyau, plus l’attraction électrostatique entre le noyau (charge positivement) et l’électron (chargé négativement) est grande et plus il faut d’énergie pour arracher l’électron à l’atome. Lorsqu’un électron change de niveau, son énergie change et celle-ci peut être balancée par l’absorption ou l’émission de photons. L’empilement des électrons autour de l’atome donne ainsi directement le spectre d’émission lumineuse d’un atome. Voici un exemple pour le spectre le plus simple, facile à calculer, de l’hydrogène qui ne possède qu’un seul électron situé autour d’un seul proton.

L’axe horizontal est arbitraire, juste pour faciliter la lecture. Les petits traits représentent l’énergie de l’électron autour du proton ou plutôt les différentes énergies qu’il peut avoir. Les notations sont celles de la spectroscopie, la discipline qui étudie les spectres de la lumière. Le niveau 1s est celui de l’électron dans l’état d’énergie la plus basse, c’est l’état de base de l’atome d’hydrogène, celui qu’il a lorsqu’il est laissé tranquille sans apport d’énergie. Pour arracher cet électron, il faut deux milliardième de milliardième de Joule. Cette unité n’étant pas très pratique, on lui préfère

l’électronvolt (eV) qui est l’énergie qu’un électron acquiert lorsqu’il se déplace sous une tension de 1 Volt. L’énergie de liaison de l’électron est dans l’hydrogène dans l’état 1s est 13.6 eV. Notons que la lumière visible est composée de photons ayant une énergie de l’ordre de l’électronvolt. Rappelons que chaque électron a une certaine probabilité de présence autour du noyau, les orbitales. Selon leur niveau d’énergie, ces orbitales peuvent avoir différentes formes. Voici quelques exemples :

La structure des cristaux Les cristaux sont extrêmement répandus. Beaucoup plus qu’on pourrait le croire. Tous n’ont pas l’aspect agréable des bijoux d’un magasin. En général, les structures cristallines sont composées d’une myriade de petits cristaux orientés dans tous les sens, donnant un aspect macroscopique assez banal au matériau. Les métaux ont par exemple cette structure cristalline. Elle n’est pas facile à voir. Il faut pour cela polir le métal jusqu’à ce qu’il soit aussi lisse qu’une peau de bébé, puis le regarder sous la lumière rasante. En jouant alors un peu avec les reflets, on peut apercevoir la structure en mosaïque du métal. Les cristaux sont formés d’atomes ou de molécules disposés selon une structure périodique. De nombreuses géométries existent (cubiques, hexagonales, rhomboédriques,…) et ont toutes été répertoriées en utilisant les lois de la géométrie et en étudiant de nombreux cristaux. Un exemple assez classique est le sel de cuisine, ou chlorure (Cl) de sodium (Na), dont la structure cubique est assez facile à observer sur les petits grains de sels voire de beaux cristaux de sel gemme de grande taille. Les atomes y sont agencés comme suit :

Il existe d’autres structures : amorphes (comme le verre), fibreuses (bois, plastiques), etc. Notons d’ailleurs que le verre communément appelé « cristal » n’a pas une structure cristalline ! Il est appelé comme cela à cause de son aspect qui peut rivaliser de beauté avec certains cristaux. Ici nous nous limiterons aux cristaux qui ont une grande importance, par exemple en électronique. La structure périodique des atomes ayant une grande influence sur leurs propriétés.

Electrons dans un réseau périodique Dans un réseau d’atomes, il y a des liaisons chimiques entre atomes. C’est-à-dire des électrons échangés (comme avec le sel de cuisine) ou des électrons mis en commun (comme avec le diamant par exemple). De plus, des électrons peuvent s’échanger entre atomes ou voyager d’atomes en atomes. La structure cristalline modifie donc nécessairement les orbitales électroniques. Il est déjà difficile voire impossible de mener des calculs de mécanique quantique dès qu’il y a plus d’un seul électron et a fortiori plusieurs atomes. Même si des calculs numériques restent possibles, au moins pour des structures de complexité raisonnable. Mais on parle ici d’assemblage de milliers, millions, milliards d’atomes ! Toutefois la structure périodique simplifie les choses. Avec quelques astuces, éventuellement quelques simplifications, on peut résoudre les calculs même s’ils restent terriblement complexes. Les orbitales prennent alors une structure telle que celle-là :

Le potentiel est le potentiel de liaison électrostatique des électrons aux noyaux des atomes (représentés par les boules noires). Les bandes grises représentent des zones de présence des électrons. On trouve ainsi deux sortes de zones de présence :  Les zones présentent à l’intérieur des puits de potentiel. Les électrons y sont « coincés » et liés à leur atome. On les appelle des électrons de valence.  Les zones hors du puits où les électrons ne sont pas attachés à un atome particulier. Ce sont des électrons libres. Ils sont toutefois astreints à rester dans la substance. On les appelle des électrons de conduction. La structure à trois dimensions qui dépend en outre de la structure cristalline est un peu plus complexe les zones d’occupation formant des zones de formes quelque peu tarabiscotées appelées zones de Brillouin. La coupe à une dimension ci-dessus suffit toutefois à comprendre qualitativement ce qui se passe.

Théorie des bandes On voit que les électrons ci-dessus forment des bandes de présence. Chaque bande pouvant en fait contenir plusieurs électrons et même un très grand nombre. On représente alors schématiquement ces bandes en indiquant simplement l’énergie (et un axe horizontal arbitraire sauf mention contraire).

Celle du haut sont les bandes de conduction et celles du bas sont les bandes de valence. On représente les électrons simplement par une zone en grisé. Notons que les bandes ne sont que partiellement remplies. Au zéro absolu, les électrons se placent dans leur état d’énergie la plus basse, sous l’énergie de Fermi.

Dans ce cas-là, tous les électrons sont dans les bandes de valence et celles-ci sont totalement remplies.

Les deux bandes importantes sont la bande de valence la plus haute et la bande de conduction la plus basse. Nous ne représenterons dorénavant que celles-là. Que se passe-t-il si on applique un champ électrique à la substance ? Pour ce faire, il suffit de brancher la substance à des électrodes reliées à une pile.

Sous ce champ électrique, les électrons chargés électriquement vont être attirés par la borne positive de la pile (les électrons étant de charge opposée). Il peut alors s’établir un courant électrique que par convention on note dans l’autre sens. Ce sens surprenant est dû au fait qu’il fut choisi bien avant la découverte des électrons ! Au zéro absolu, tous les électrons sont coincés autour de leurs atomes dans les bandes de valence. Par conséquent aucun courant ne s’établit. C’est valable pour toutes les substances sauf les supraconducteurs que nous verrons plus tard. Si le voltage de la pile est suffisant, les électrons peuvent subir une attraction assez forte pour franchir la barrière séparant les atomes, auquel cas un courant s’établit mais il est assez violent et peut détruire la substance (on parle de claquage). Mais il suffit d’un peu d’agitation thermique pour que des électrons passent dans la bande de conduction. Ces électrons étant libre de se déplacer, ils vont former un courant électrique sous l’influence du champ électrique. Ils sont happés par la borne positive de la pile et remplacés par d’autres électrons venant de la borne négative.

Isolant Les isolants électriques sont des substances, telles que le quartz, qui sont de très mauvais conducteurs du courant. La distance entre la bande valence et la bande de conduction s’appelle la bande interdite ou gap. Dans le cas d’une substance isolante, cette bande interdite est très large.

Sous l’effet de l’agitation thermique, les électrons ont beaucoup de mal à passer dans la bande de conduction. En effet, l’énergie moyenne d’agitation thermique est , beaucoup plus faible que la valeur du gap . Par conséquent très peu d’électrons ont assez d’énergie pour passer dans la bande de conduction et, une fois qu’ils y sont, ils retombent facilement dans la bande de valence. Même sous une forte tension électrique (mais pas trop forte, sinon il y a claquage) le courant qui passe est extrêmement faible. La résistance électrique est très élevée. Les isolants sont souvent utilisés pour, justement, isoler les conducteurs électriques bien que l’on emploie généralement des substances non cristallines, souvent isolantes, telles que les plastiques ou les céramiques.

Conducteurs Les conducteurs électriques sont les substances qui laissent aisément passer le courant électrique. C’est le cas de tous les métaux mais aussi de nombreuses substances telles que le sodium, le sel, le carbone,… Dans le cas d’un conducteur, la bande interdite est de faible largeur.

On a et dans ce cas l’agitation thermique permet à de nombreux électrons de passer dans la bande de conduction. Sous une tension, le courant qui passe est fort élevé. La résistance électrique est faible.

Notons qu’augmenter la température n’améliore pas la conduction. En effet, en augmentant la température, on augmente et donc le nombre d’électrons dans la bande de conduction. Mais leur nombre est déjà plus que suffisant pour permettre la conduction. Par contre, sous l’agitation thermique les atomes du réseau vibrent de plus en plus fort. Ces vibrations gênent la progression des électrons de conduction et offrent ainsi une résistance au courant. Lorsque l’on augmente la température, la résistance électrique augmente, même si cela reste de bons conducteurs.

Semi-conducteurs Les semi-conducteurs sont les substances ayant une conductivité intermédiaire entre les isolants et les bons conducteurs, tel que le silicium et le germanium. La taille de leur bande interdite est intermédiaire entre les deux cas précédents.

Sous l’agitation thermique il y a peu d’électrons pouvant passer dans la bande de conduction mais leur quantité y est néanmoins non négligeable. La résistance électrique est assez élevée mais beaucoup plus faible que celle d’un isolant. Notons que lorsque l’on augmente la température, le nombre d’électrons passant dans la bande de conduction est significatif. C’est l’effet dominant. Et sous une augmentation de température, la résistance électrique diminue, à l’inverse des conducteurs. Un point important est à noter. Si quelques électrons passent dans la bande de conduction, alors ils laissent une petite zone vide dans la bande de valence, des « trous ». Le mécanisme est simple : en quittant sa place d’électron lié, celui-ci laisse une place vacante dans les niveaux autour de l’atome.

Notons que les substances comme le silicium ou le germanium ont quatre électrons dans les couches les plus externes, électrons mis en commun avec leurs voisins pour former les liaisons chimiques. On dit qu’ils ont une valence 4. Ce sont ces électrons qui quittent leur position pour devenir des électrons de conduction en laissant un trou. Sous l’influence d’un champ électrique, on a un déplacement de l’électron de conduction.

Mais on a aussi le déplacement inverse. Les électrons liés voisins, plutôt que de passer directement dans la bande de conduction peuvent sauter la « barrière de potentiel » et se retrouver dans le trou qui état libre, en laissant un derrière-eux. Ce phénomène quantique où une particule peut passer à travers une barrière qui serait classiquement infranchissable s’appelle l’effet tunnel. Sous l’influence du champ électrique, l’électron fait volontiers ce saut, provoquant un déplacement des trous.

Notons que les trous se déplacent en sens inverse des électrons. Mais ils se comportent aussi comme des particules de charge positive (manque d’un électron de charge négative). Ils contribuent donc au courant dans le même sens et au même titre que les électrons de conduction. Il est intéressant de parler du nombre d'électrons de conduction,

, et du nombre de trous,

:

C'est une représentation très pratique pour représenter ce qui se passe au sein d'un semiconducteur. La variation indiquée n’est qu’un exemple, pour montrer la représentation. Ca ne varie pas nécessairement en fonction de la position. Pour les électrons on parle de porteurs négatifs et pour les trous de porteurs positifs. On parle aussi de porteurs majoritaires pour les plus nombreux et porteurs minoritaires pour les moins nombreux. Bien entendu, lorsqu'un électron libre rencontre un trou, ils peuvent se recombiner.

L'électron changeant d'état, il repasse sur un niveau d'énergie plus faible, le surplus d'énergie est dégagé, généralement sous forme de vibrations dans le réseau mais cela peut aussi être sous forme de photons. Cette « annihilation » entre un électron de conduction et un trou est analogue à l'annihilation d'un électron et d'un positron. Sauf que l'énergie dégagée ici est moins grande car il reste quelque chose après : l'électron de valence. L'énergie dégagée ici est égale à la valeur du gap, pas

! Le trou n’est pas de l’antimatière.

Ces recombinaisons sont aléatoires et dépendent des mouvements des trous et des électrons, au petit bonheur la chance. Bien entendu, le nombre de recombinaison augmente quand il y a plus de trous et d'électrons (libres), donc quand et sont grands. Quant aux trous et électrons libres, ils se forment avec l'agitation thermique. A chaque création on a exactement un trou et un électron de plus, indépendamment de ceux déjà présent. Il doit donc y avoir un équilibre qui correspond à un nombre de créations identique au nombre de recombinaisons. Le premier dépend de la température (il augmente avec la température) et de la valeur du gap (plus le gap est élevé, plus il faut d'énergie thermique pour créer une paire électron - trou), l'autre uniquement du nombre de porteurs. Un petit calcul utilisant la physique statistique montre que le nombre de recombinaisons est proportionnel au produit . C'est d'ailleurs logique, s'il y a deux fois plus d'électrons, il y aura deux fois plus de recombinaisons, et de même pour les trous. ( ). C'est-à-dire que le produit du nombre de porteurs est A l'équilibre on aura donc égal à une certaine fonction de la valeur du gap et de la température. Le calcul exact montre que cette fonction a l'allure suivante :

Le maximum est en fait le nombre maximum d'électrons qui peuvent être arrachés aux couches externes des atomes. On voit que dans les environs de la température ambiante la courbe croît très fort. Le nombre de porteurs augmente donc très vite avec la température. C'est en fait le facteur le plus important dans la conductivité, comme signalé plus haut. Le calcul est purement statistique et ne dépend pas de la nature du semi-conducteur, autrement que par l'intermédiaire de la valeur du gap. La formule reste donc valable même dans d'autres circonstances comme celles que nous allons voir plus loin (dopage). Cette formule ne donne que le produit du nombre des porteurs. On a besoin d'une autre information pour calculer la quantité de chaque porteur. Ici, c'est facile, car on part d'une situation isolante au zéro absolu et un trou est toujours créé en même temps qu'un électron de conduction. Donc . Mais ce n'est pas toujours le cas, on va le voir avec le dopage.

Diodes Les semi-conducteurs permettent la réalisation de dispositifs forts intéressants. Voyons cela.

Dopage Le dopage consiste au replacement de certains atomes du semi-conducteur par d'autres atomes étrangers.

Il est nécessaire de partir d’un monocristal de silicium d’une très grande pureté. Il peut sembler étrange de rajouter des impuretés après avoir fait tant d'effort pour obtenir un matériau aussi pur. Mais il ne s'agit pas ici de rajouter n'importes quelles impuretés. On veut seulement ajouter certains atomes bien précis, avec une répartition bien précise et une quantité bien précise. Une première condition est la taille des atomes insérés. On veut que les atomes ajoutés prennent la place de ceux du semi-conducteur dans le réseau cristallin. Il faut donc que ces atomes aient à peu près la même taille pour pouvoir s'y insérer et ne pas trop déformer le réseau. Un atome trop gros ne saurait pas prendre la place d'un atome du semi-conducteur et un atome trop petit s'infiltrerait dans le réseau sans chasser les atomes présents.

Evidemment, remplacer un atome de silicium par un atome ayant des propriétés chimiques semblables et, en particulier, la même valence (le même nombre d'électrons impliqués dans les liaisons) n'aurait pas beaucoup d'intérêt. On ne ferait que modifier un tout petit peu le semiconducteur. Mais nous verrons ci-dessous ce que l'on souhaite vraiment faire. Voyons d'abord comment effectuer ce dopage. Un moyen simple est d'exposer le matériau à un gaz contenant les atomes étrangers, le tout à haute température.

Le masque sert à ne doper que certaines parties du silicium. Il s'agit en général d'une couche protectrice en résine. Ce masque peut être fabriqué par des techniques photographiques. On recouvre le silicium d'une résine sensible aux ultraviolets. Puis on utilise un masque, un simple fil de plastique, et un système optique pour irradier la résine aux endroits désirés. Et enfin, on utilise un acide qui va enlever uniquement les parties exposées aux ultraviolets. Cela permettra de fabriquer des masques extrêmement petits. De plus, l'utilisation du masque permet l'application de plusieurs dopages successifs avec des atomes différents mais également le dépôt de couches métalliques. Notons aussi que le dopage se fait

uniquement en surface ce qui permet, par des découpes dans le matériau, d'effectuer des dopages en plusieurs couches. On voit se dessiner ainsi après plusieurs opérations un matériau très complexe.

Voyons maintenant l'utilité du dopage. Suivant les atomes insérés on distingue deux types de dopage. Le dopage de type N consiste à ajouter des atomes donneurs d'électrons. Le silicium ou le germanium ayant 4 électrons de valence, on utilise donc des atomes ayant 5 électrons de valence. Par exemple, pour des raisons de taille des atomes, on utilise du phosphore avec le silicium et de l'arsenic avec le germanium. L'atome de phosphore prenant la place d'un atome de silicium dans le réseau cristallin, quatre de ses électrons de valence sont utilisés pour se lier à ses voisins mais le dernier électron reste non lié.

Cet électron, non lié, peut se détacher facilement pour se balader dans le réseau. Bien sûr, à cette occasion il n'y a pas formation d'un trou car il laisse simplement un atome fixe, doté d'une charge positive excédentaire. Voilà comment

peut différer de

.

Les niveaux prennent l'allure suivante :

Le niveau d'énergie correspondant à l'état des électrons supplémentaires autour de l'atome de phosphore est très près de la bande de conduction. Une faible agitation thermique suffit à faire passer ces électrons dans la bande de conduction. Presque tous les atomes de phosphore contribuent ainsi à fournir des électrons à la bande de conduction. Dans ces conditions, sera très grand et proche du nombre d'atomes de phosphore. Comme le nombre d'électrons devient très grand, le matériau sera un meilleur conducteur et ce d'autant plus qu'il y a beaucoup d'atomes de phosphore. Le produit étant fixé (par le gap et la température), puisque est grand, cela signifie que est très petit. C'est logique car les électrons en grand nombre ont vite fait de se recombiner avec les trous, diminuant fortement leur nombre. Les trous vont donc très peu contribuer à la conduction. De plus, comme est à peu près égal au nombre d'atomes de phosphore, cela signifie qu'il est très peu sensible à la température. Avec une augmentation de la température, c'est surtout qui va augmenter, leur apparition étant favorisée par la création de paires électrons - trous. Mais comme les électrons restent beaucoup plus nombreux que les trous, l'influence de la température sur la conduction sera beaucoup plus faible. C'est un avantage car cela donne une meilleure maîtrise des propriétés électriques du matériau, il n'y a pas besoin de contrôler finement la valeur de la température. Le dopage de type P consiste à utiliser des atomes « accepteurs » d'électrons. C'est-à-dire des atomes avec une valence 3. Lorsqu'ils se substituent au silicium, il reste une liaison insatisfaite dans le réseau. On utilise, par exemple, de l'azote ou du bore. Tout ce qui a été se répète à l'identique mais en échangeant le rôle des trous et des électrons.

Les électrons voisins se déplacent facilement pour venir combler la lacune, créant un trou qui peut participer à la conduction.

Ici, c'est le nombre de trous qui est élevé et trous) peu sensible à la température.

faible. C'est également un bon conducteur (de

Mais en-dehors d’augmenter la conduction. Comment utilise-t-on ces propriétés ? On va maintenant le voir en combinant les différents dopages.

Jonction PN Que se passe-t-il si nous plaçons maintenant côte à côte deux régions avec des caractéristiques différentes ? Par exemple, une zone dopée n et une zone dopée p.

Une telle structure s'appelle une « jonction p-n » et l'ensemble forme une « diode à semiconducteur ». Observons d'abord l'interface de près, là où les deux zones se touchent. Dans la partie de type n, il y a une grande quantité d'électrons libres (et quelques trous), dans la partie de type p, il y a une

grande quantité de trous (et quelques électrons libres). Ces électrons et ces trous diffusent dans le matériau, un peu au hasard, en fonction de l'agitation thermique. A l'endroit de l'interface, les électrons de la zone n vont diffuser dans la zone p. Mais à cet endroit, il y a beaucoup de trous. Les électrons vont dons s'empresser d'aller combler ces trous. Ce faisant, puisqu'ils quittent la zone n, celle-ci acquiert une petite charge électrique positive. Tandis que du côté p, le surplus d'électrons apporte une petite charge électrique négative. De même, les trous du coté p vont diffuser du coté n, rencontrer la grande quantité d'électrons disponibles et être annihilés. Cela augmente encore la charge négative côté p et positive côté n. Il n’y a toutefois pas de courant qui s’établit car ce processus ne peut continuer indéfiniment. En effet, les charges électriques ainsi formées vont créer un champ électrique qui va avoir tendance à repousser les électrons du coté n et les trous du coté p. Le processus s'arrête quand ce champ électrique est assez fort pour contrebalancer la diffusion des porteurs majoritaires (le champ électrique va du + vers le - et les électrons, de charge négative, sont attirés en sens inverse).

Les charges positives et négatives s'attirent et, de plus, le processus de diffusion à lieu aux alentours de l'interface. C'est donc dans une fine bande autour de l'interface que vont être localisées ces charges. On peut représenter le potentiel électrique dans le matériau (sa variation est une image du champ électrique) et le nombre de porteurs dans le matériau.

La diode présente donc à ses extrémités une différence de potentiel, tout comme une pile ou une batterie. Peut-on exploiter ce fait pour en faire une pile ? On pourrait brancher deux fils électrique à ses extrémités et les relier à une lampe. On aurait ainsi une pile fonctionnant éternellement, ce serait génial ! Mais, en effet, cela est trop beau pour être vrai. Cela ne marche pas car les fils introduisent eux aussi des jonctions. Cette fois, ce sont des jonctions métal - semi-conducteur. Et les potentiels des différentes jonctions se neutralisent. Le plus simple pour le voir est de considérer un fil composé lui-même de semi-conducteur.

Les deux jonctions étant en sens opposé (en suivant le « fil »), leurs différences de potentiel s'annulent et aucun courant ne circule. C’est symétrique.

Notons que ceci est vrai seulement si tout est la même température. Des températures différentes font varier les barrières de potentielle (puisque cela augmente l'agitation thermique, donc la diffusion et donc la quantité d'électrons et de trous qui s'installent de chaque côté de la jonction) et un courant peut s'établir convertissant l'énergie thermique en électrique. C'est le principe des thermocouples. On pourrait aussi éclairer la jonction avec des photons d'énergie convenable, créant des paires (en fournissant de l'énergie à un électron de valence) qui se séparent (l'électron est entraîné vers la zone n par le champ électrique et le trou vers la zone p) ce qui correspond à un mouvement de charges et donc à un courant.

C’est le principe des cellules photoélectriques (photodiodes) ou des cellules solaires. Branchons maintenant une diode sur une pile.

Si la pile est branchée comme sur la figure, les électrons fournis par la pile sont repoussés par le champ électrique de la jonction. Du moins si la tension de la pile n'est pas trop grande (si le potentiel électrique de la pile est plus grand que celui de la jonction, alors suffisamment d'énergie est communiquée aux électrons pour qu'ils franchissent la barrière de potentiel). Un très faible courant continue à passer grâce aux porteurs minoritaires (les électrons injectés dans la zone de type n annihilent les trous de cette zone). Mais ces porteurs étant justement très peu nombreux, le courant est très faible. Branchons la pile dans l'autre sens. Cette fois les électrons arrivent dans la zone p où les trous sont majoritaires. Les électrons vont s'en donner à cœur joie et neutraliser les trous créant un excès de charges négatives dans le matériau. Ces charges négatives vont facilement être comblées par un courant de trou allant de la jonction vers l'extrémité de la zone p car cette fois le champ électrique est dans le bon sens. Le courant passe donc sans difficulté. Tout ce qui vient d'être dit est également valable en considérant l'autre côté du circuit et en inversant le rôle des électrons et des trous, bouclant ainsi le circuit. Donc, la diode ne laisse passer le courant que dans un sens.

Les diodes peuvent ainsi servir de « redresseur » (pour transformer du courant alternatif en courant continu) ou de dispositifs « logiques » dans des circuits d'ordinateur (en laissant passer ou non le courant, en jouant sur la tension appliquée, on traduit cela par une information 0 ou 1). Des machines de ce type ont été construites. Un autre usage intéressant des diodes est le suivant. Lorsque les électrons ou les trous franchissent la barrière de potentiel (dans le sens passant) ils perdent brutalement de l'énergie. Il faut pour cela que la zone de transition entre p et n (qui n'est jamais totalement nette) soit la plus fine possible. Cette énergie peut être convertie dans certains matériaux en photons. Ainsi, une telle diode branchée à une pile fournit de la lumière. C'est le principe de fonctionnement inverse de la photodiode. Ces dispositifs sont parfois appelées « diodes luminescentes » ou « LED » et elles peuvent équiper divers dispositifs d'affichage profitant de la petite taille de ces dispositifs.

En dimensionnant correctement le dispositif on peut aussi provoquer un effet d'émission stimulée (les photons émis facilitant le passage des électrons et des trous grâce à l'effet grégaire des photons qui aiment à se retrouver nombreux dans le même état). La diode émet alors un rayonnement laser. C'est une « diode laser ». Cela permet la fabrication de lasers facilement contrôlables et de taille minuscule. Ce type de laser équipe les lecteurs CD et DVD.

Transistors Le transistor consiste en deux jonctions de semi-conducteurs très voisines l'une de l'autre. Son fonctionnement repose en partie sur les mêmes principes que ceux que nous venons de décrire au sujet de la diode. Imaginez que nous construisions une petite barre de silicium avec trois régions distincte, une région de type p, une région de type n et une autre de type p, comme indiqué cidessous.

Cette combinaison s'appelle un transistor p-n-p. Chacune des deux jonctions dans le transistor aura un comportement très semblable à celui que nous avons décrit plus haut. En particulier, il y aura une barrière de potentiel électrostatique à chaque jonction, avec une chute de potentiel de la région de type n vers chaque région de type p. Si les deux régions de type p ont les mêmes propriétés internes, la variation du potentiel le long du cristal se présentera comme indiqué ci-dessus. Imaginons maintenant que nous connections chacune des trois régions à des sources de potentiel extérieures (des piles ou d'autres parties d'un circuit) comme indiqué ci-dessous.

Nous mesurerons tous les voltages (les potentiels) à partir de l'électrode reliée à la région p de gauche, laquelle sera par définition au potentiel zéro (ce qui importe toujours c'est les variations du potentiel). Nous appellerons cette électrode « l'émetteur ». La région de type n, appelée « la base », est reliée à un potentiel légèrement négatif. La région de type p à droite, appelée « collecteur », est connectée à un potentiel un peu plus fortement négatif. Dans ces conditions, la variation du potentiel le long du cristal se présente comme indiqué par le graphique ci-dessus. Voyons d'abord ce qui arrive aux porteurs positifs (les trous) dont le comportement décidera, pour l'essentiel, du fonctionnement du transistor p-n-p. Puisque l'émetteur est à un potentiel légèrement plus positif que la base, il s'établira un courant de porteurs positifs allant de la région de l'émetteur à celle de la base. Ce courant sera relativement grand car nous avons une jonction soumise à un voltage « dans le bon sens », comme pour la diode. Dans ces conditions, les porteurs positifs ou trous seront « émis » par la région de type p vers la région de type n. Vous pourriez penser que ce courant va s'écouler hors de la région n par l'électrode de la base. Cependant, c'est là qu'intervient le secret du transistor. Le transistor est construit de manière à ce que la région de type n soit extrêmement mince, typiquement de l'ordre du centième de millimètre ou moins (c'est plus fin qu'un cheveu), beaucoup plus étroite que ses dimensions transversales. Il en résulte que les trous qui pénètrent dans la région n ont une très bonne chance d'atteindre l'autre jonction avant d'être annihilés par les électrons de la région de type n. En somme, la base est plus étroite que la zone d'interface de la diode. Lorsqu'ils atteignent la frontière de droite de la région n, ils y trouvent un potentiel à forte pente descendante et ils tombent donc immédiatement dans la région de type p sur la droite. Ce côté du cristal est appelé le collecteur car il « collecte » les trous après leur diffusion à travers la région n. Dans un transistor typique, la quasi-totalité du courant de trous qui provient de l'émetteur et entre dans la base est collecté dans la région du collecteur. Seule une fraction de pour cent contribue au courant total de la base. La somme des courants de la base et du collecteur est, bien sûr, égale au courant de l'émetteur.

Essayez maintenant d'imaginer ce qui se passe si nous varions légèrement le potentiel de l'électrode reliée à la base. Comme nous sommes sur une partie à forte pente du potentiel, une petite variation du potentiel provoquera un assez grand changement dans le courant de l'émetteur. Nous l'avons vu, dans le sens passant, le courant d'une diode grimpe très vite avec la tension. Comme le voltage du collecteur est beaucoup plus négatif que le voltage de la base, ces faibles variations du potentiel n'affecteront pas sensiblement la falaise abrupte de potentiel entre la base et le collecteur. La plupart des porteurs positifs émis vers la région n continueront d'être capturés par le collecteur. Ainsi, quand nous faisons varier le potentiel de l'électrode de la base, une variation correspondante affecte le courant du collecteur. Cependant, le point essentiel consiste en ce que le courant de base reste toujours une faible fraction du courant du collecteur. Le transistor est un amplificateur. Un faible courant introduit dans l'électrode de la base donne un fort courant, quelque chose comme 100 fois plus grand, à l'électrode du collecteur. Et les électrons, ces porteurs négatifs que nous avons négligés jusqu'à présent ? Notez d'abord que nous ne nous attendons à aucun courant notable d'électrons entre la base et le collecteur. Avec un voltage élevé sur le collecteur, les électrons de la base auraient à escalader une très haute falaise d'énergie potentielle et la probabilité qu'ils y arrivent est très faible. Il y a un très faible courant d'électrons vers le collecteur (diode dans le sens bloquant). Par contre, les électrons dans la base peuvent passer dans la région de l'émetteur. De fait, vous pourriez vous attendre à un courant d'électrons dans cette direction qui soit comparable au courant de trous qui va de l'émetteur à la base. Un tel courant d'électrons n'est pas utile, il est au contraire nuisible car il accroît le courant total de la base nécessaire pour une valeur donnée du courant de trous vers le collecteur. Le transistor est donc conçu de manière à minimiser le courant d'électrons vers l'émetteur. Le courant d'électrons est proportionnel au nombre de porteurs négatifs dans la base . Par contre le courant de trous dépend de la quantité de porteurs positifs dans l'émetteur . En utilisant un dopage relativement faible dans le matériau de type n, on peut rendre le de la base beaucoup plus faible que le de l'émetteur. C’est le second secret du transistor. Le fait que la région de la base soit très fine aide aussi beaucoup car le déplacement rapide des trous dans cette région vers le collecteur accroît de façon sensible le courant moyen de trous de l'émetteur vers la base, tandis que le courant d'électrons n'est pas affecté par cela. Le résultat global est que l'on peut faire en sorte que le courant d'électrons à travers la jonction émetteur - base soit beaucoup plus faible que le courant de trous et qu'ainsi les électrons ne jouent pas de rôle notable dans le fonctionnement du transistor p-n-p. C'est essentiellement le mouvement des trous qui détermine les courants et le transistor agit comme un amplificateur selon le mécanisme décrit plus haut.

Notons que, comme tout se passe dans la base, que tout est dicté par les trous et que cette région est de type n, on dit parfois que le comportement du transistor est dominé par le comportement des porteurs minoritaires. Ce que nous venons de dire s’applique aussi au transistor « npn ». Il est possible également de faire un transistor où les matériaux de type p et de type n sont intervertis. On a alors ce que l'on appelle un transistor de type n-p-n. Dans un transistor n-p-n, les principaux courants sont portés par les électrons qui s'écoulent de l'émetteur vers la base et de là vers le collecteur. De toute évidence, tous les raisonnements que nous avons faits à propos du transistor p-n-p s'appliquent aussi au transistor n-p-n si les potentiels sur les électrodes sont choisis avec des signes opposés. Les transistors étant des amplificateurs, ils peuvent servir à amplifier des courants faibles pour, par exemple, des systèmes de communication, Les transistors sont utilisés dans les amplificateurs de chaîne hautefidélité. Et les transistors, branchés ensembles d'une manière appropriée, peuvent constituer toutes sortes de dispositifs tel que des « portes logiques », des « bascules », des « compteurs », etc. pour des circuits d'ordinateurs. Les transistors ont remplacés les anciens tubes triodes, encombrant, nécessitant des fortes tensions électriques, couteux, et avec une durée de vie limitée comme n’importe quelle lampe. De plus, la miniaturisation des transistors et les techniques décrites plus haut pour la fabrication ont permis de construire des systèmes avec des millions de transistors sur une petite « puce » d’un centimètre carré.

Naines blanches Une application intéressante de la physique statistique est celui des naines blanches.

Vie et mort des étoiles Voyons comment se déroule la vie d’une étoile d’une masse proche de la masse du Soleil. Leur fin de vie est ce qui nous intéresse : une naine blanche. Les plus grosses étoiles terminent leur vie en explosant, les supernovæ. Initialement on a un grand nuage de gaz dans une galaxie qui subit une perturbation quelconque (collision avec un autre nuage de gaz, compression due à l’explosion voisine d’une supernovæ). Sous cette perturbation, le nuage va commencer à s’effondrer sous son propre poids. En général, ces nuages sont immenses et une masse totale de l’ordre de plusieurs milliers d’étoiles. Mais le nuage se fragmente en plusieurs morceaux. Suivons le destin d’un des fragments d’une masse proche du Soleil. Au fur et à mesure que le gaz s’effondre sous son propre poids, il voit sa pression augmenter. Les relations de la thermodynamique nous montrent alors qu’un tel amas de gaz voit sa température grimper fortement. Arrivé à un certain stade (cela prend plusieurs millions d’années) le cœur de cette « protoétoile » atteint une température suffisante (de l’ordre de cent millions de degrés) pour que s’allument les réactions thermonucléaires.

L’étoile est initialement composée en plus grande partie d’hydrogène. La réaction de fusion thermonucléaire est une réaction ou plusieurs noyaux d’atomes fusionnent pour en former un plus gros. Les noyaux étant minuscules et chargés positivement, pour qu’ils s’approchent suffisamment pour que les interactions nucléaires entrent en jeu et fusionnent les noyaux, il faut des collisions extrêmement violentes entre noyaux, ce qui ne se produit que pour des températures très élevées. Le bilan de la réaction est le suivant : Quatre atomes d’hydrogènes fusionnent pour former un atome d’hélium plus des rayons gammas (il y a aussi une part non négligeable de neutrinos mais dont nous n’aurons pas besoin). La réaction décrite ci-dessus est un bilan. La réaction se produit en fait en plusieurs étapes. Mais le détail n’est pas important ici. Ce qui compte est que l’énergie dégagée est énorme. Une partie se retrouve sous forme d’énergie cinétique du noyau d’hélium et une partie dans les rayons gammas. Les rayons gammas, extrêmement énergétiques, s’éloignent du centre où la température est la plus élevée et rebondissent de nombreuses fois sur les noyaux. En faisant cela, ils communiquent progressivement leur énergie aux atomes sous forme de chaleur. L’énergie produite au centre met environ cent mille ans pour atteindre la surface ! L’énergie se retrouve intégralement sous forme de chaleur jusqu’à la surface qui est à 6000 degrés. La lumière de l’étoile ne vient pas de la réaction nucléaire mais du rayonnement thermique du gaz de la surface (appelée photosphère). Ensuite, plusieurs forces agissent sur l’étoile :  Sous son poids, l’étoile a tendance à se contracter.  La pression due à la chaleur mais aussi la pression engendrée par le rayonnement gamma tendent à faire gonfler l’étoile. Ces deux forces antagonistes sont en équilibre. En effet, si l’étoile se contacte un peu, cela augmente la température dans son cœur ce qui augmente le rythme des réactions nucléaires qui provoquent un gonflement de l’étoile. Et inversement, si elle se dilate, le refroidissement qui en découle ralentit les réactions et l’étoile se contacte sous son poids. Cet équilibre dure tant qu’il y a du combustible (de l’hydrogène). Pour une planète de type solaire, cela dure environ dix milliards d’années. Puis, le combustible étant épuisé (du moins dans le cœur), les réactions diminuent. L’étoile se contracte alors sous son poids et cela augmente la température du cœur. Lorsque la température devient suffisante (de l’ordre du milliard de degrés) l’hélium entre lui aussi en réaction thermonucléaire. La réaction thermonucléaire de l’hélium fournit moins d’énergie. L’équilibre ne s’établit donc qu’avec un cœur plus dense et plus chaud. Cette chaleur intense provoque un gonflement de l’enveloppe de l’étoile. La surface de l’étoile s’éloignant du cœur, elle refroidit et l’étoile prend une teinte rouge. C’est le stade géante rouge. Notons que pendant cette phase, l’enveloppe est beaucoup moins dense puisqu’elle s’est dilatée alors que le cœur s’est contracté. De plus, l’enveloppe s’étant fort éloignée du centre de l’étoile, la gravité est nettement plus faible en surface. Sous ces conditions, le vent solaire devient très important et une grande partie de l’enveloppe va être évacuée dans l’espace, formant un nuage appelé nébuleuse planétaire. La combustion de l’hélium étant peu énergétique, le maintien de l’équilibre nécessite qu’il soit consommé à grande vitesse. En quelques millions d’années, c’est fini. Le même phénomène va se reproduire et le cœur par des réactions thermonucléaires successives ca synthétiser de l’azote, du carbone, de l’oxygène,... Puis cela s’arrête totalement. En effet, même sen se contractant la température du cœur n’augmente plus suffisamment pour les réactions thermonucléaires suivantes.

Si l’étoile était beaucoup plus massive, la contraction sous son poids serait suffisante et les réactions continueraient jusqu’à la formation du fer. Le fer ne pouvant fournir d’énergie par fusion thermonucléaire, la réaction s’arrête brutalement, l’étoile s’effondre d’un seul coup et rebondit dans une formidable explosion : les supernovae. Pour notre « étoile naine » qu’est le Soleil, les choses se passent plus calmement. Le combustible s’épuise lentement et l’étoile se contracte lentement formant une toute petite étoile extrêmement dense : une naine blanche. Les naines blanches sont encore fort chaude mais leur refroidissement est lent et prend des milliards d’années pour former une naine noire.

Naine blanche Dans une naine blanche, la densité est extrême. Le cœur de l’étoile s’est effondré sous son poids jusqu’à ce que l’étoile ait à peu près les dimensions de la Terre. Sa densité est d’environ dix tonnes par centimètre-cube (une cuillère à soupe). Dans cet état, les noyaux des atomes sont très proches les uns des autres, presque à se toucher. Les électrons ne sont plus liés aux atomes et se comportement comme un fluide baignant la matière. Dans un centimètre cube, il y a environ cent millions de fois plus d’électrons libre que dans un métal. Il n’y a pas meilleur conducteur électrique que la matière d’une naine blanche ! Cet état de la matière est appelé matière dégénérée. La physique statistique permet ensuite de calculer toute une série de résultats intéressants. Tout d’abord, on peut calculer l’énergie de Fermi. Malgré que la naine blanche soit à 10 millions de degrés, on constate que l’énergie de Fermi est très élevée et beaucoup plus grande que . Les électrons se trouvent donc tassés au maximum dans les états de base. Le fluide d’électrons se comporte comme si la matière était au zéro absolu ! Cette situation étonnante simplifie les calculs. Les électrons étant tous tassés dans leur état de base, ils ne peuvent pas se contracter dans un volume plus petit. Cela engendre une pression dite pression de Fermi qui contrebalance le poids de l’étoile. Il est possible de calculer exactement cet équilibre entre la gravité et la pression de Fermi. On trouve que pour une étoile homogène la masse ne peut dépasser 1.72 masses solaires. Au-delà, la pression de Fermi n’est pas suffisante et l’étoile continue à s’effondrer. Les électrons ne pouvant plus se contracter, ils fusionnent avec les protons formant des neutrons. On aboutit à une étoile à neutrons qui peut se former dans les supernovae suite à l’explosion d’une grosse étoile ou si la naine blanche aspire le gaz d’une étoile compagnon. Un calcul plus réaliste tenant compte de la variation de la densité avec la profondeur conduit à une masse limite de 1.44 masses solaires. C’est la masse de Chandrasekhar. Les observations confirment bien les différentes propriétés des naines blanches issues de la physique nucléaire et de la physique statistique. En particulier, on ne trouve pas de naines blanches plus massives que la masse de Chandrasekhar.

Superfluides Description La superfluidité est un état particulier de l’hélium à très basse température. Tous les fluides présentent une certaine viscosité. C’est évident quand on manipule du miel ou même de l’huile. Mais c’est vrai aussi de l’eau par exemple. Cette viscosité se traduit par des frottements sur les parois des récipients et des frottements internes. Ainsi, lorsque de l’eau s’écoule dans un tuyau, les frottements sur les parois provoquent une « perte de charge », c’est-à-dire une baisse de pression de l’eau. Cela implique que pour de longues conduites on doive utiliser des pressions plus élevées. Ce phénomène se traduit aussi, lorsque l’on agite un fluide, par une production de chaleur. Comme lorsque Watt a pu déterminer l’équivalence entre travail et énergie. L’hélium est un gaz qui se liquéfie à très basse température, à 4 K, c’est-à-dire -269 °C. C’est le fluide qui se liquéfie à la plus basse température. C’est à la fois dû au fait que les atomes d’hélium sont très légers mais aussi parce que c’est un gaz inerte (chimiquement). Or si on refroidit encore l’hélium, disons vers 1 ou 2 K, il se produit un phénomène étrange. Il ne se solidifie pas. Au contraire solidifier l’hélium est très difficile. Il faut descendre encore plus bas en température et augmenter la pression. A pression ordinaire, l’hélium ne se solidifie jamais. Ce qui est une exception. Ce qui se passe c’est que l’hélium devient superfluide. C’est-à-dire que sa viscosité devient totalement nulle. Et ça c’est très étrange. D’abord parce que c’est unique. Il s’écoule sans aucun frottement, ce qui conduit à des comportements surprenant.

Par exemple, prenez une bouteille fermée contenant de l’hélium superfluide avec un récipient. Remplissez ce récipient et soulevez-le. Alors, rapidement, l’hélium présent dans le récipient s’écoule et retombe dans la bouteille. Il ne passe pas à travers le fond du récipient. Il s’écoule le long des parois qu’il grimpe puis redescend.

Théorie des deux fluides Mais à quoi sont dû ces étranges propriétés ? Deux éléments interviennent :  Le fait qu’à aussi basse température l’hélium reste liquide, nous avons déjà expliqué pourquoi.  Ensuite, le fait que les atomes d’hélium sont des bosons (du moins le noyau d’hélium le plus courant avec deux neutrons dit hélium 4). Comme ce sont des bosons, ils ont tendance à se placer dans le même état. Lorsque la température est suffisamment basse, les excitations dues à l’agitation thermique disparaissent et tous les atomes se placent dans le même état quantique, celui de plus basse énergie. De plus, ces atomes sont indiscernables les uns des autres. On obtient donc un fluide dont tous les atomes se comportent comme s’ils n’étaient qu’une seule et même entité. Leur déplacement à tendance à se faire sans modifier l’état de base sui est fortement favorisé. Ainsi, les aspérités ou interactions avec les parois d’un récipient ont peu ou pas d’effet. Le fluide s’écoule sans viscosité. Il a tellement peu de viscosité qu’il a tendance à s’étaler totalement sur les surfaces (contrairement, par exemple, à une goutte d’eau qui ne s’étale pas sur une surface sèche, la viscosité, c’est-à-dire les frottements, bloquent sont étalement et elle conserver une forme de petite bosse sur la surface). Ainsi, lorsque l’on soulève le récipient dans l’expérience ci-dessus, il y a en réalité un film d’hélium extrêmement fin (à l’échelle de l’atome) sur toutes les parois et l’hélium s’y déverse comme par un siphon. Ceci est toutefois vrai au zéro absolu. Mais que se passe-t-il juste un peu au-dessus du zéro absolu ? Pour mieux le comprendre, regardons le diagramme de phase de l’hélium.

On voit qu’en effet l’hélium reste liquide au zéro absolu à pression atmosphérique. On voit deux zones particulières pour la phase liquide. La partie notée « Hélium I » est celle ou le liquide se comporte de manière habituelle, comme l’eau, avec de la viscosité, des formations de gouttes sur les

parois, etc. La partie notée « Hélium II » est celle où l’hélium a un comportement de superfluide. Nous reviendrons ci-dessous sur les points notés . Pour décrire la zone II, on a élaboré la « théorie des deux fluides ». Cette zone serait en fait un mélange d’hélium superfluide et d’hélium normal. D’une part on a (à non, nul) une série d’atomes qui sont dans leur état de base, l’ensemble formant un superfluide. D’autre part, à cause de l’agitation thermique, on a un certain nombre d’atomes dans des états excités (vitesse plus grandes dans un fluide), ils forment alors un fluide normal, non superfluide. Les étant mélangés intimement (et même dans une situation dynamique, c’est-à-dire que l’on a constamment des atomes qui passent de l’état de base à un état excité et vice versa, les deux fluides n’étant pas constitués constamment des mêmes atomes). A cause de leur mélange intime, l’hélium II entraine l’hélium I avec lui, le fluide garde donc globalement des propriétés superfluides. En utilisant la thermodynamique, ses équations, et certaines propriétés de l’hélium, il est possible de calculer la position des points dans le graphique, ce qui donne de bons résultats. A l’aide de la physique statistique, on peut calculer toute une série de propriétés du superfluide tel que sa conductivité thermique. Les atomes lors de leurs chocs entre eux propagent les vibrations sonores. En fait, à l’échelle atomique, ces vibrations son quantifiées et on les appelle des phonons. Il est possible de les étudier par les méthodes de la physique statistique ce qui permet, par exemple de calculer la vitesse du son. On constate alors quelque chose d’un peu surprenant : on trouve (dans la zone II) deux vitesses pour le son. La première est due à l’hélium normal et varie peu entre les zones I et II (avec une faible discontinuité). La deuxième vitesse, beaucoup plus grande, est due à la composante superfluide et s’explique bien par le fait qu’ils ont tendance à avoir des mouvements d’ensemble, transmettant donc très rapidement la moindre perturbation. Expérimentalement, tous ces résultats sont bien confirmés. La deux vitesses du son en particulier se traduisent par un phénomène audible appelé « deuxième son », une double tonalité lorsque l’on « heurte » le récipient. Ces résultats confirment le bien-fondé de la théorie des deux fluides.

Supraconducteurs Supraconductivité Tous les conducteurs électriques présentent une certaine résistance. Lorsque l’on baisse la température, la résistance électrique diminue. Nous l’avons vu, c’est dû au fait qu’il y a moins d’’agitation thermique qui gêne le mouvement des électrons.

Mais la résistance ne s’annule jamais totalement en particulier à cause des défauts du réseau cristallin, mais pas seulement. Les électrons interagissent de toute façon un peu avec les atomes. Par contre, pour certaines substances, lorsqu’on les refroidit en-dessous d’une certaine température critique, ils deviennent supra-conducteur.

C’est-à-dire que leur résistance devient brusquement nulle en-dessous d’une température critique. Ils conduisent donc le courant sans résistance et sans échauffement. Il pourrait y des applications intéressantes pour le transport d’électricité si ce n’est qu’il faut refroidir les câbles à très basse température. Ainsi que la possibilité de construire des électro-aimants très puissants grâce aux courants élevés n’échauffant pas les fils.

Les températures critiques sont très basses : 1.2 K pour l’aluminium, 4.15 K pour le mercure, 3.4 K pour l’indium, 9.5 K pour le niobium, 7.2 K pour le plomb et 3.7 K pour l’étain. Les supraconducteurs sont aussi des diamagnétiques parfaits. C’est l’effet Meisner.

Ils repoussent totalement les lignes de champ magnétique. Cela a des effets étonnants, par exemple si l’on utilise un anneau supraconducteur. Si vous plongez un anneau supraconducteur dans un champ magnétique, celui-ci est totalement repoussé.

Le champ magnétique ne pénètre même pas dans l’anneau. Mais faites maintenant l’expérience suivante.

Utilisez un anneau normal, par exemple en plomb au-dessus de la température critique. Plongez-le dans un champ magnétique. Les lignes de champ passent à travers (le plomb affecte très peu le champ magnétique, il n’est pas ferromagnétique). Ensuite, refroidissez l’anneau jusqu’à ce qu’il devienne supraconducteur. Le champ magnétique est alors repoussé. Mais certaines lignes de champ passaient dans l’anneau et elles y restent piégées. Puis coupez la source du champ magnétique. Les lignes de champ dans l’anneau restent piégées, elles ne peuvent en sortir. L’anneau se comporte alors comme un aimant.

Ce genre de propriétés permet de concevoir des détecteurs magnétiques extrêmement sensibles, mais aussi des circuits électroniques (par exemple, une boucle de supraconducteur pouvant ou non contenir un champ magnétique constitue une mémoire) et autres dispositifs remarquables

Théorie BCS La théorie qui s’applique à la supraconductivité est la théorie BCS (des initiales de Bardeen, Schrieffer et Cooper). Lorsqu’un électron libre se déplace dans le métal, il interagit avec le réseau cristallin. Lorsque l’électron passe au niveau d’un atome, il y a une certaine probabilité qu’il provoque une vibration de cet atome. Cette vibration va alors se propager dans le réseau où elle a à nouveau une certaine probabilité d’être absorbée par un autre électron. On peut mettre cette idée en équations l’aide de la mécanique quantique où les deux électrons échangent un phonon (quantification des vibrations qui se propagent). Le résultat net est une attraction des deux électrons. Ils se trouvent ainsi liés dans ce que l’on nomme une paire de Cooper. La situation est tout à fait analogue à un électron tournant autour d’un noyau atomique, qui échange avec ce noyau des photons associés aux champs électrostatique et qui ainsi lie l’électron à l’atome à travers l’attraction électrostatique. Notons que les paires de Cooper sont dynamiques. Au gré des échanges de phonons, ce n’est pas toujours les mêmes électrons qui sont liés en paires de Cooper. Un point très important intervient maintenant. Lorsque deux fermions sont rassemblés, l’ensemble qu’ils forment est un boson ! C’est une propriété fondamentale de la mécanique quantique et cela est lié au fait que le caractère « fermion/boson » est dû au moment angulaire de rotation des particules. La suite devient facile à comprendre. Au zéro absolu , toutes ces paires de Cooper se mettent dans le même état de base. La situation est identique au superfluide qui s’écoule sans viscosité. Les paires de Cooper étant toutes dans le même état, sous un champ électrique elles subissent un mouvement d’ensemble qui est ici un courant électrique sans aucune résistance. A nouveau, pour , un certain nombre de paires vont être dans des états excités et à une température critique (analogue au passage à l’état He I) on a une transition vers une conduction « normale », avec résistance électrique. Notons aussi qu’un tel courant électrique sans aucune résistance réagit de manière immédiate à tout champ magnétique et annule totalement le champ magnétique, l’empêchant d’entrer dans le matériau. D’où l’effet diamagnétique parfait, l’effet Meisner. Mieux encore, dans la dernière expérience expliquée ci-dessus, la coupure du champ magnétique entraine une variation du champ magnétique (qui varie de sa valeur maximale à zéro) ce qui provoque par induction magnétique (comme dans un alternateur) l’apparition d’un courant électrique qui va générer ou plutôt maintenant le champ magnétique passant dans l’anneau. Le courant circulant sans résistance, il se maintient indéfiniment. D’où l’étrange piège à champ magnétique qui a été découvert. Tout comme avec la superfluidité, on peut appliquer la physique statistique aux paires de Cooper en fonction de la température ce qui permet de calculer pleins de choses tel que la température

critique, la chaleur spécifique, le champ magnétique critique (au-delà d’une certaine intensité, le champ pénètre brutalement dans la substance faisant disparaitre l’état supraconducteur), etc.

Références -

-

Paul Glansdorff, Alkiviadis Grecos, Entropie, Encyclopedia Universalis. Arthur Birembaut, Thermodynamique – Histoire et fondements, Encyclopedia Universalis. Paul Glansdorff, Ilya Prigogine, Thermodynamique – Lois fondamentales, Encyclopedia Universalis. Alkiviadis Grecos, Statistique (thermodynamique), Encyclopedia Universalis. Pierre Giacomo, Mesure – Etalons fondamentaux, Encyclopedia Universalis. Jean Maulard, Mesure – Mesures thermiques, Encyclopedia Universalis. Paul Glansdorff, Chaleur, Encyclopedia Universalis. Radu Balescu, Irréversibilité, Encyclopedia Universalis. Didier Lauwaert, L’énergie. L. Couture, R. Zitoun, Physique statistique, Ellipses. Feynman, Leigthon, Sands, Le cours de physique de Feynman, Mécanique quantique, InterEditions, Paris.