50 Clés Pour Comprendre L'astronomie - Dunod [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

5O

CLÉS POUR COMPRENDRE L’

ASTRONOMIE JOANNE

BAKER Traduit de l’anglais par Julien Bambaggi

table des matières Introduction 3

01 02 03 04 05 06

Les planètes 4 Héliocentrisme 8 Les lois de Kepler 12 La gravitation de Newton 16 L’optique de Newton 20 Lunette et télescope 24

07 08 09 10 11 12 13 14 15 16 17 18 19 20 21

Raies de Fraunhofer 28 L’effet Doppler 32 Parallaxe 36 Le Grand Débat 40 Le paradoxe d’Olbers 44 La loi de Hubble 48 échelle des distances cosmiques 52 Le Big Bang 56 Fond diffus cosmologique 60 Big Bang et nucléosynthèse 64 Antimatière 68 Matière noire 72 L’inflation cosmique 76 La constante cosmologique 80 Le principe de Mach 84

22 23 24 25

La Relativité restreinte 88 La Relativité générale 92 Trous noirs 96 Astrophysique des particules 100

26 La « particule de Dieu » 104

27 28 29 30

La théorie des cordes 108 Le principe anthropique 112 La séquence de Hubble 116 Amas galactiques 120

31 32 33 34 35 36 37 38 39 40 41 42

Structure à grande échelle 124 Radioastronomie 128 Quasars 132 Fond cosmique de rayons X 136 Trous noirs supermassifs 140 évolution galactique 144 Lentilles gravitationnelles 148 Classer les étoiles 152 évolution stellaire 156 Naissances d’étoiles 160 Morts d’étoiles 164 Pulsars 168

43 44 45 46 47 48 49 50

Susauts gamma 172 Variabilité 176 Le Soleil 180 Exoplanètes 184 Formation du système solaire 188 Lunes 192 Exobiologie 196 Le paradoxe de Fermi 200

Glossaire 204 Index 206

Introduction

introduction L’astronomie est l’une des sciences les plus anciennes et les plus profondes. Depuis la traque du mouvement du Soleil et des étoiles par nos ancêtres, les connaissances que nous avons acquises ont radicalement modifié la perception de la place de l’Homme dans l’Univers. Chaque avancée a eu des répercussions sociales. Au xviie siècle, Galilée fut arrêté pour avoir affirmé que la Terre tournait autour du Soleil. Les preuves du fait que notre système solaire est éloigné du centre de la Voie lactée ont provoqué pareils sursauts d’incrédulité. Et Edwin Hubble, dans les années 1920, a clos le débat en découvrant que la Voie lactée n’est qu’une des milliards de galaxies dispersées dans un vaste univers en expansion, vieux de 14 milliards d’années. Au cours du xxe siècle, les techniques ont accéléré le rythme des découvertes. Le siècle débuta avec des avancées dans notre connaissance des étoiles et de la fusion nucléaire dont elles sont le siège, parallèlement à nos découvertes sur l’énergie nucléaire et le rayonnement et à la construction de la bombe atomique. Pendant la Deuxième Guerre mondiale et les années qui ont suivi, il y eut le développement de la radioastronomie, l’identification des pulsars, des quasars et des trous noirs. De nouvelles fenêtres sur l’Univers s’ouvrirent d’un coup, depuis le rayonnement microonde du fond diffus cosmologique jusqu’aux rayons X et gamma, chaque bande de fréquences étudiée apportant ses propres découvertes. Ce livre est un voyage dans le monde de l’astronomie et de l’astrophysique à partir des perspectives ouvertes par la recherche moderne. Les premières sections décrivent les grands sauts dans notre connaissance des échelles de l’Univers, cependant qu’ils introduisent les bases, depuis la gravité jusqu’au fonctionnement des lunettes et télescopes. Le groupe suivant de sections s’interroge sur ce que nous avons appris en cosmologie, l’étude de l’Univers comme un tout : ses différentes parties, son histoire et son évolution. On introduit ensuite les aspects théoriques de notre approche de l’Univers, entre autres la Relativité, les trous noirs et les multivers. Les dernières sections regardent en détail ce que nous savons des galaxies, des étoiles et du système solaire, depuis les quasars et l’évolution des galaxies jusqu’aux exoplanètes et à l’astrobiologie. Le rythme des découvertes reste rapide : peut-être les prochaines décennies nous verront-elles témoins du prochain renversement de paradigme – la découverte de la vie en dehors de la Terre.

3

4

50 clés pour comprendre l’astronomie

01 L es planètes Combien de planètes compte le système solaire ? Il y a quelques années, chacun pouvait facilement répondre : neuf. Ce n’est plus si simple ! Les astronomes ont tout chamboulé en découvrant dans la froideur glacée des confins du système solaire des corps rocheux soutenant la comparaison avec Pluton ainsi que des centaines de planètes tournant autour d’étoiles lointaines. Contraints d’en redéfinir le concept, ils préconisent désormais de décompter dans notre système solaire huit planètes dignes de ce nom et quelques planètes naines comme Pluton. Les planètes – nous le savons depuis la Préhistoire – sont différentes des étoiles. Leur nom vient du Grec « errant » : elles se déplacent dans le ciel nocturne tandis que les étoiles en forment l’immuable toile de fond. Nuit après nuit, les étoiles constituent les mêmes motifs : leurs constellations tournent ensemble lentement autour des pôles Nord et Sud, chaque étoile gravant son cercle dans le firmament. Mais les positions des planètes par rapport aux étoiles se déplacent légèrement chaque jour, poursuivant à travers ciel une trajectoire inclinée dans un plan appelé écliptique. Tandis que les planètes tournent autour du Soleil, leur mouvement se fait dans le même plan dont la projection dans le ciel forme un trait. Les principales planètes autres que la Terre sont connues depuis des millénaires : Mercure, Vénus, Mars, Jupiter et Saturne. On peut facilement les voir à l’œil nu. Elles occultent souvent les étoiles voisines et leurs mouvements contraires leur confèrent un statut mythique, encore grandi par l’arrivée des télescopes au xviie  siècle : Saturne est entourée d’élégants anneaux, Jupiter s’enorgueillit d’une ribambelle de lunes tandis que la surface de Mars est striée de canaux sombres.

La planète X Ces certitudes célestes ont été bousculées par la découverte,

en 1781, de la planète Uranus par l’astronome britannique William Herschel. Plus pâle et se déplaçant plus lentement que les autres planètes connues, on

chronologie

350 av. J.-C. Aristote établit que la Terre est ronde

1543

Copernic publie sa théorie héliocentrique

1610

Galilée observe à la lunette les satellites de Jupiter

1781

William Herschel découvre Uranus

Les planètes la croyait jusqu’alors étoile solitaire. C’est la quête méticuleuse de Herschel qui a définitivement prouvé qu’elle tournait autour du Soleil, lui conférant ainsi son statut de planète. Herschel se reposa sur la gloire que cette découverte lui avait apportée, allant jusqu’à rechercher les faveurs du roi George III dont le nom servit, pendant une courte période, à désigner la nouvelle planète.

5

La définition d’une planète

Une planète est un corps céleste qui : (a) est en orbite autour du Soleil ; (b) a une masse suffisante pour que sa gravité l’emporte sur les forces de cohésion du corps solide et lui donne une forme presque sphérique ; (c) a éliminé tout corps susceptible de se déplacer sur une orbite proche.

D’autres découvertes allaient venir. De légères perturbations dans l’orbite d’Uranus laissaient penser qu’elles étaient dues à la présence, au-delà, d’un autre corps céleste. Plusieurs astronomes traquèrent l’intrus vagabond dans la direction attendue : en 1846, Neptune fut découverte par le Français Urbain Jean Joseph Le Verrier qui coiffait au poteau l’astronome britannique John Couch Adams.

Puis, en 1930, ce fut l’existence de Pluton qui fut corroborée. Comme pour Neptune, de petits écarts dans les mouvements attendus des planètes périphériques suggéraient la présence d’un corps situé au-delà – on l’appela la planète X. Aux États-Unis, Clyde Tombaugh, du Lowell Observatory, le repéra en comparant des photographies du ciel prises à différents moments : c’est par son mouvement que la planète s’est révélée. Mais c’est à une écolière qu’il appartint de lui donner un nom. Venetia Burney, d’Oxford au Royaume-Uni, remporta le concours lancé à cette fin en proposant un nom d’inspiration classique : Pluton, le dieu des Enfers. La planète Pluton a joué un grand rôle dans l’imagerie populaire, depuis le chien de Comme les continents, la bande dessinée (Pluton se dit Pluto en anglais) jusqu’au récent plutonium. les planètes sont davantage

«

Pluton déchue Notre système solaire

à neuf planètes a tenu bon 75 ans, jusqu’à ce que Michael Brown et son équipe du Caltech découvrent que Pluton n’était pas seule. Aux confins glacés du système solaire, ils ont trouvé quelques objets

1843-1846

Adams et Le Verrier découvrent Neptune, dont l’existence était prédite

1930

Clyde Tombaugh découvre Pluton

1962

définies par notre façon de les voir que par une assertion énoncée après coup. Michael Brown, 2006

Les premières images de Vénus par la sonde Mariner 2 montrent la surface d’une autre planète

»

1992

Découverte de la première planète extrasolaire

2005

Michael Brown découvre Éris

6

50 clés pour comprendre l’astronomie

d’assez belle taille, l’un d’entre eux étant même plus gros que Pluton lui-même. Ils l’ont appelé Éris. Une question se posait à la communauté scientifique : la découverte de Brown devait-elle être considérée comme une dixième planète ? Et que dire des autres corps glacés proches de Pluton et Éris ? Le statut de planète de Pluton était remis en cause. Les confins du système solaire étaient jonchés d’objets recouverts de glace, Pluton et Éris n’en étant que les plus gros. De plus, on connaissait ailleurs des astéroïdes rocheux de taille semblable, dont Cérès, un astéroïde de 950 kilomètres de diamètre découvert en 1801 entre Mars et Jupiter pendant la traque de Neptune. En 2005, une commission de l’Union astronomique internationale, l’organisation professionnelle des astronomes, se réunit pour décider du sort de Pluton.

William Herschel (1738-1822) Frederick William Herschel est né en Allemagne, à Hanovre, en 1738. Il émigra en Angleterre en 1757 où il gagna sa vie comme musicien. Il se prit de passion pour l’astronomie, passion qu’il partageait avec sa sœur Caroline qu’il avait fait venir en Angleterre en 1772. Les Herschel ont construit un télescope pour contempler le ciel nocturne, identifiant des centaines d’étoiles doubles et des milliers

de nébuleuses. Herschel découvrit Uranus qu’il appela « Georgium Sidum », l’étoile de George, en l’honneur du roi George III qui le fit Astronome de la cour. Parmi les autres découvertes de Herschel : la nature binaire de nombreuses étoiles doubles, les variations saisonnières des calottes polaires de Mars et les satellites d’Uranus et Saturne.

Les planètes Brown et quelques autres voulaient conserver son statut à Pluton considérant qu’il était d’ordre culturel.

«

7

Peut-être notre monde est-il l’enfer d’une autre planète. Aldous Huxley

»

Selon eux, Éris devrait aussi être considérée comme une planète. Pour les autres participants, tous les corps glacés au-delà de Neptune n’étaient pas de vraies planètes. Cela fit l’objet d’un vote lors d’une assemblée générale en 2006. On décida d’une nouvelle définition d’une planète. Jusque-là, il ne s’agissait pas d’un concept précis. Certains étaient perplexes, estimant que c’était comme demander, par exemple, la définition précise d’un continent : si l’Australie en est un, pourquoi pas le Groënland ? Où l’Europe finit-elle et où l’Asie commence-t-elle ? Mais les astrophysiciens ont fini par convenir d’un ensemble de règles. Une planète est définie comme un corps céleste en orbite autour du Soleil, de masse suffisante pour que sa gravité lui donne une forme sphérique et le rende capable d’éliminer les corps voisins. D’après ces règles, Pluton n’est pas une planète parce qu’elle ne remplit pas la dernière condition. Pluton et Éris furent qualifiées de planètes naines, de même que Cérès. Les corps plus petits, en dehors des satellites, restèrent non définis.

Au-delà du Soleil Cette définition d’une planète était destinée à notre

propre système solaire. Mais on peut l’appliquer ailleurs. Aujourd’hui, nous connaissons plusieurs centaines de planètes en orbite autour d’autre étoiles que le Soleil. Elles ont été repérées essentiellement par l’attraction ténue qu’elles exercent sur leur étoile hôte. La plupart de ces planètes sont de massives géantes gazeuses comme Jupiter. Mais de nouveaux engins spatiaux, tel Kepler lancé en 2009, rivalisent pour détecter autour d’autres étoiles des planètes plus petites qui pourraient ressembler à la Terre. Une autre définition, celle d’une étoile, a elle aussi fini par être remise en cause. Les étoiles sont des boules de gaz, tel le Soleil, suffisamment grosses pour que, dans leur cœur, se soit enclenchée la fusion nucléaire. C’est là l’énergie qui fait briller les étoiles. Mais il n’est pas évident de distinguer les boules de gaz de taille planétaire, comme Jupiter, des étoiles les plus petites et les plus sombres, les naines brunes. L’espace est peut-être peuplé d’étoiles qui ne se sont pas allumées, voire de planètes à la dérive.­

l’idée clé Les planètes sont des objets hors du commun

8

50 clés pour comprendre l’astronomie

02 Héliocentrisme Nous savons aujourd’hui que la Terre et les planètes tournent autour du Soleil mais il fallut que les preuves s’accumulent au xviie siècle pour que cela finisse par être admis. Notre vision du monde en a été bouleversée : les êtres humains n’étaient pas au centre de l’Univers, ce qui s’opposait aux philosophies et religions dominantes de l’époque. Le débat se poursuit sur la place de l’Homme dans le cosmos avec des arguments semblables, depuis les dogmes créationnistes jusqu’aux aspects rationnels de la cosmologie. Les premiers hommes ne pouvaient concevoir qu’un univers gravitant autour d’eux. Dans l’Antiquité, la Terre était placée au centre des modèles du cosmos et tout le reste en découlait. On imaginait que les corps célestes étaient plaqués sur des sphères de cristal tournant autour de la Terre. Ainsi, chaque nuit, les étoiles fixées sur elles – ou révélées par des trous minuscules – étaient entraînées dans un mouvement circulaire autour des pôles célestes nord et sud : les êtres humains étaient bien la clé des mécanismes de l’Univers. On soupçonnait cependant que ce modèle bien commode était erroné et cela a interpellé des générations de philosophes. L’idée que les cieux se meuvent autour du Soleil plutôt que de la Terre – un modèle héliocentrique, du grec helios, Soleil – a été avancée par les philosophes grecs de l’Antiquité dès 270 av. J.-C. Parmi eux, Aristarque de Samos a développé cette idée dans ses écrits. Il calcula la taille relative de la Terre et du Soleil et se rendit compte que ce dernier était bien plus grand. Il paraissait plus logique de penser que c’était le plus petit des deux astres, la Terre, qui se déplaçait. Ptolémée, au iie siècle de notre ère, se servit des mathématiques pour prédire le mouvement des étoiles et des planètes et il obtint des résultats corrects. Mais ses équations ne rendaient pas compte de configurations évidentes. La manifestation la plus curieuse était que, de temps à autre, le mouvement des planètes changeait de sens : c’est le mouvement rétrograde. Ptolémée – qui, comme d’autres avant lui, pensait que les planètes se déplaçaient sur de grandes roues

chronologie

270 av. J.-C.

Les Grecs de l’Antiquité proposent un modèle héliocentrique

IIe siècle

Ptolémée ajoute des épicycles pour expliquer le mouvement rétrograde des planètes

Héliocentrisme circulaires dans le ciel – conçut une explication en ajoutant de nouvelles roues dentées à leurs orbites. Il avança que les planètes se déplaçaient sur de petits anneaux tout en poursuivant leur trajectoire principale, une espèce de mécanisme d’horlogerie géant. Ce sont ces « épicycles » superposés qui faisaient que les planètes, de temps à autre, donnaient l’impression de rebrousser chemin. Cette idée d’épicycles s’installa. Elle fut affinée par la suite. Les philosophes étaient séduits par l’idée que la nature mettait en œuvre de parfaites figures géométriques. Mais, à mesure que la précision des mesures astronomiques augmentait, les savantes combinaisons mathématiques parvenaient de moins en moins à les expliquer : les données s’étoffaient, les contradictions aussi…

Le modèle de Copernic Au fil des

siècles, il fut question, de temps à autre, d’héliocentrisme, mais cela ne fut pas pris au sérieux. La conception géocentrique allait de soi et toute théorie alternative paraissait une vue de l’esprit. Ce ne fut donc pas avant le xvie siècle que les conséquences de l’héliocentrisme furent entièrement développées. Dans son ouvrage de 1543 De revolutionibus orbium cœlestium, l’astronome polonais Nicolas Copernic décrivit en détail un modèle mathématique héliocentrique, expliquant le mouvement rétrograde des planètes comme une projection vue depuis la Terre de leur mouvement autour du Soleil, la Terre étant elle-même animée d’un mouvement semblable.

«

»

Enfin, nous pourrons mettre le Soleil lui même au centre de l’Univers. Nicolas Copernic

1543

Copernic publie son modèle héliocentrique

1609-1610

Kepler représente les orbites des planètes par des ellipses ; Galilée découvre les satellites de Jupiter

1633

Galilée est poursuivi pour avoir professé l’héliocentrisme

9

10

50 clés pour comprendre l’astronomie Nicolas Copernic (1473-1543) Né à Thorn, en Pologne, Copernic reçut une formation de chanoine, suivant des cours de droit, de médecine, d’astronomie et d’astrologie. Il était fasciné par les idées de Ptolémée sur l’ordre de l’Univers tout en les critiquant et préféra élaborer son propre système dans lequel la Terre et les planètes tournent autour du Soleil. L’ouvrage de Copernic, De revolu-

tionibus orbium cœlestium (De la révolution des sphères célestes), publié en mars 1543 – seulement deux mois avant sa mort –, a été une étape cruciale dans l’avènement d’un univers héliocentrique. Mais cela reste loin des idées de l’astronomie moderne.

Le modèle de Copernic mettait en cause la prédominance universelle des êtres humains et cela ne fut pas sans conséquences. L’Église officielle en tenait pour le système géocentrique de Ptolémée. Prudent, Copernic retarda la publication de son ouvrage jusqu’à l’année de sa mort. Ses arguments posthumes furent entendus et tranquillement mis de côté. C’est à un personnage plus enflammé qu’il revint de prendre le relais.

Les convictions de Galilée L’astronome italien Galileo Galilei a ostensiblement défié l’Église catholique romaine en défendant l’héliocentrisme. Sa témérité s’appuyait sur les observations qu’il avait faites à la lunette, alors construite depuis peu. Scrutant les cieux avec davantage de précision que ses prédécesseurs, il obtint la preuve que la Terre n’était pas un centre universel : des satellites gravitaient autour de Jupiter tandis que Vénus, comme la Lune, connaissait des phases. Il publia ces découvertes dans son ouvrage de 1610 Siderus nuncius, Le Messager des étoiles. Fort de sa conviction héliocentrique, Galilée défendit sa thèse dans une lettre à la Grande Duchesse Christine. Il avait affirmé que c’était la rotation de la Terre qui donnait l’impression que le Soleil se déplaçait dans le ciel : aussi se retrouva-t-il convoqué à Rome. Le Vatican voulait bien admettre la validité des observations, les astronomes jésuites ayant fait les mêmes constatations à la lunette. Mais l’Église refusa la théorie de Galilée, décrétant qu’il ne s’agissait que d’une simple hypothèse qu’il ne fallait pas prendre au pied de la lettre en dépit de sa séduisante simplicité. On interdit à Galilée de professer l’héliocentrisme, excluant toute possibilité pour lui de « défendre ou enseigner » cette idée ­controversée.

«

Héliocentrisme

Déclarer hérétique le fait de croire à ce qui est prouvé est sans nul doute nocif pour les âmes. Galilée

»

Les raisons de Kepler À la même époque, un astronome allemand tra-

vaillait aussi sur les mathématiques du mouvement des planètes. Johannes Kepler publia son étude de la trajectoire de Mars dans son ouvrage Astronomia nova (1609), l’année même où Galilée monta sa lunette. Kepler découvrit que l’ellipse fournissait de l’orbite de la planète rouge autour du Soleil une meilleure description que le cercle. En se libérant des cercles parfaits, il dépassa le modèle de Copernic et améliora les prévisions du mouvement des planètes. Les idées de Kepler sont aujourd’hui considérées comme une loi élémentaire de la physique mais elles étaient très en avance sur leur temps et mirent longtemps à s’imposer. Pour sa part, Galilée les prit en considération.

Même s’il était désormais sous le coup d’un interdit, Galilée restait convaincu que son explication héliocentrique était la bonne. Le pape Urbain VIII lui demanda de rédiger un compte rendu équilibré des deux points de vue : dans son Dialogue sur les deux grands systèmes du monde, Galilée irrita le pontife en manifestant sa préférence pour son propre point de vue par rapport à celui de l’Église. Le Vatican le convoqua une nouvelle fois à Rome et le mit en accusation pour avoir bravé l’interdit auquel il était soumis. Galilée fut assigné à résidence jusqu’à la fin de sa vie, en 1642. Ce n’est que quatre siècles plus tard, à l’occasion de l’anniversaire de la publication de l’ouvrage contesté, que le Vatican fit des excuses formelles.

L’idée fait son chemin Les preuves que l’héliocentrisme était la bonne

façon de voir le système solaire se sont peu à peu accumulées au fil des siècles. On vit que les lois de Kepler sur les orbites tenaient bon et elles influencèrent la théorie de la gravitation de Newton. Des planètes plus lointaines furent découvertes et le fait qu’elles tournaient autour du Soleil paraissait évident. Mettre l’Homme au centre de tout n’était plus tenable.

l’idée clé Au centre, le Soleil

11

12

50 clés pour comprendre l’astronomie

03 Les lois de Kepler Johannes Kepler recherchait des motifs en toute chose. Examinant les tables astronomiques où étaient relevées les boucles décrites par Mars dans notre ciel, il découvrit trois lois qui régissent la trajectoire des planètes. Il explicita le caractère elliptique de ces trajectoires, les planètes qui sont le plus loin du Soleil se déplaçant le plus lentement autour de lui. Non seulement les lois de Kepler transformèrent l’astronomie mais elles jetèrent les bases de la loi de la gravitation universelle de Newton. Dans leur mouvement autour du Soleil, les planètes les plus proches de lui se déplacent plus rapidement que celles qui en sont plus éloignées. Mercure ne fait le tour du Soleil qu’en 80 jours terrestres. À la même vitesse, il ne faudrait à Jupiter que 3,5 années terrestres pour parcourir son orbite, alors qu’il lui en faut douze en réalité. Dans leur ballet, les planètes passent les unes devant les autres et, pour un observateur terrestre, certaines semblent parfois rebrousser chemin. Du temps de Kepler, ces mouvements « rétrogrades » constituaient une grande énigme. C’est en la résolvant que vinrent à Kepler les idées qui le conduisirent à établir ses trois lois du mouvement des planètes.

Des motifs polygonaux Kepler était un mathématicien allemand qui vécut à la fin du xvie siècle et au début du xviie. L’astrologie était alors prise très au sérieux tandis que l’astronomie, en tant que science, en était à ses balbutiements. Pour révéler les lois de la nature, le religieux et le sacré comptaient tout autant que l’observation. Lui-même mystique, Kepler était convaincu que la structure sous-jacente de l’Univers reposait sur des formes géométriques parfaites et il passa sa vie à tenter de dégager d’imaginaires motifs polygonaux parfaits cachés dans les œuvres de la nature. Les travaux de Kepler vinrent presque un siècle après que l’astronome polonais Nicolas Copernic eut avancé que le Soleil se trouvait au centre de l’Univers

chronologie

Vers 580 av. J.-C.

Pythagore énonce que les planètes sont en orbite sur des sphères cristallines parfaite

Vers 150 ap. J.-C.

Ptolémée invente les épicycles pour expliquer le mouvement rétrograde des planètes

1543

Copernic propose un système où les planètes tournent autour du Soleil

Les lois de Kepler et que la Terre tournait autour de lui plutôt que l’inverse. Au début, Kepler adopta le système héliocentrique de A Copernic, convaincu que les planètes Soleil se déplaçaient autour du Soleil selon des trajectoires circulaires. Il imagina un système dans lequel les orbites des planètes étaient portées par une série de sphères de cristal emboîtées et espacées en respectant les proporPlanète tions d’une série de polygones, euxB mêmes dotés d’un nombre croissant de côtés et remplissant les sphères. L’idée selon laquelle les lois de la nature suivaient des rapports géométriques fondamentaux était apparue chez les Grecs de l’Antiquité.

13

D

C

Kepler s’essaya à modeler des orbites de planètes étayant ses idées géométriques et, pour cela, il utilisa les données les plus précises disponibles : les tables complexes des mouvements planétaires dans notre ciel méticuleusement établies par Tycho Brahé. C’est dans ces colonnes de nombres que Kepler discerna des motifs qui lui firent réviser son jugement et lui suggérèrent ses trois lois. En élucidant le mouvement rétrograde de Mars, Kepler réalisa une avancée décisive. De temps à autre, la planète rouge rebrousse chemin dans notre ciel et effectue une petite boucle. Copernic avait modélisé les boucles en ajoutant à l’orbite principale des petits cercles supplémentaires, des « épicycles ». Mais Kepler remarqua que cela n’était pas en accord avec la précision des mesures récentes.

«

Quelque chose me frappa soudain : ce joli petit pois bleu était la Terre. Je levai mon pouce et fermai un œil : mon pouce masqua la Terre. Loin d’avoir l’impression d’être un géant, je me sentis petit, tout petit. Neil Armstrong

1576

Tycho Brahé effectue un relevé de la position des planètes

»

1609

Kepler publie sa théorie des orbites elliptiques

1687

Newton explique les lois de Kepler par la gravité

2009

La NASA lance le satellite Kepler afin de repérer des planètes en orbite autour d’autres étoiles

14

50 clés pour comprendre l’astronomie

Lois de Kepler Première loi Les planètes décrivent une ellipse dont le Soleil occupe l’un des foyers. Deuxième loi Quand une planète parcourt son orbite, le rayon Soleil-planète balaie des aires égales en des intervalles de temps égaux. Troisième loi Les périodes orbitales sont liées à la taille des ellipses, le carré de la période étant proportionnel au cube du grand axe de l’orbite.

Il chercha une autre explication et eut un éclair de génie : les boucles rétrogrades s’expliqueraient si les orbites planétaires étaient elliptiques et non circulaires comme on le pensait. Comble d’ironie, cela signifiait que la nature n’était pas bâtie sur des formes géométriques parfaites ainsi que Kepler le croyait. Mais il eut le courage de se rendre à l’évidence et de changer d’avis.

Orbites La première loi de Kepler

dit que les planètes suivent des orbites elliptiques dont le Soleil occupe l’un des deux foyers. La deuxième loi décrit la vitesse avec laquelle une planète se déplace sur son orbite : en parcourant sa trajectoire, une planète balaie des aires égales en des intervalles de temps égaux. Ces aires sont celles des portions angulaires formées par le Soleil et les deux positions de la planète (AB ou CD), comme une part de tarte. Les orbites étant elliptiques, pour balayer une aire donnée, il faut qu’elle parcoure une distance plus grande quand elle est proche du Soleil que lorsqu’elle en est loin. Une planète se déplace donc plus vite lorsqu’elle est proche du Soleil. La loi de Kepler lie vitesse et distance au Soleil : bien que Kepler ne s’en soit pas rendu compte, cela est dû à la gravitation qui accélère la planète d’autant plus qu’elle est proche de la masse du Soleil. La troisième loi va encore plus loin en expliquant comment les périodes orbitales varient selon la taille des ellipses en suivant toute l’échelle des distances des planètes au Soleil. Elle énonce que le carré de la période orbitale est proportionnel au cube de la longueur du grand axe de l’ellipse de l’orbite. Plus grande est l’ellipse, plus longue est la période, c’est-à-dire plus il faut de temps pour parcourir l’orbite. Les planètes les plus éloignées se déplacent plus lentement que les plus proches. Il faut près de 2 années terrestres à Mars pour opérer une révolution, 29 à Saturne et 165 à Neptune.

«

Nous ne sommes qu’une race avancée de singes sur une planète mineure tournant autour d’une étoile très moyenne. Mais nous sommes capables de comprendre l’Univers, ce qui fait de nous quelque chose de tout à fait à part. Stephen Hawking

»

«

Les lois de Kepler

Je mesurais les cieux, je mesure à présent les ombres de la Terre. L’esprit était céleste, ci-gît l’ombre du corps. Épitaphe de Johannes Kepler

»

Avec ses trois lois, Kepler parvint à décrire les orbites de toutes les planètes de notre système solaire. Ses lois s’appliquent également à tout corps en orbite autour d’un autre, qu’il s’agisse de comètes, d’astéroïdes ou de satellites dans notre système solaire, de planètes autour d’autres étoiles ou même des satellites artificiels filant autour de la Terre. Quatre siècles après qu’il les eut formulées, ses lois demeurent un pilier de la physique. Mais il y a plus : Kepler a été novateur en étant l’un des premiers à utiliser les méthodes scientifiques en usage de nos jours : observer et analyser afin de tester les théories. Kepler parvint à unifier les principes en des lois géométriques dont il ignorait la cause. Il pensait qu’elles provenaient de configurations géométriques sousjacentes de la nature. Il revint à Newton de les fondre dans une théorie de la gravitation universelle.

Johannes Kepler (1571-1630) Johannes Kepler s’intéressa à l’astronomie dès l’enfance, allant jusqu’à noter dans son journal, alors qu’il n’avait pas dix ans, le passage d’une comète ainsi qu’une éclipse de Lune. Durant les années où il enseigna à Graz, il publia une théorie cosmologique dans un ouvrage intitulé Mysterium cosmographicum (Les Mystères du Cosmos). Il devint ensuite l’assistant de Tycho Brahé dans son observatoire situé près de Prague ; il lui succéda en tant que Mathématicien impérial en 1601, chargé de préparer l’horoscope de l’Empereur. Kepler analysa les tables astronomiques

de Tycho Brahé et publia ses théories relatives aux orbites non circulaires ainsi que ses première et deuxième lois dans Astronomia nova (La Nouvelle Astronomie). En 1620, la mère de Kepler, guérisseuse utilisant les vertus médicinales des plantes, fut accusée de sorcellerie et emprisonnée. Kepler dut mener une grande bataille judiciaire pour la faire libérer. Il parvint néanmoins à poursuivre ses travaux et sa troisième loi fut publiée dans son célèbre Harmonices mundi (L’Harmonie des mondes).

l’idée clé La loi des mondes

15

16

50 clés pour comprendre l’astronomie

04 L a gravitation de Newton

Newton fit un pas de géant en rapprochant les trajectoires des boulets de canon de celles de planètes, reliant ainsi la Terre et les cieux. Ses lois de la gravitation demeurent parmi les concepts les plus féconds de la physique, fournissant la clé des mouvements aussi bien sur Terre qu’ailleurs dans l’Univers. Newton avança que tous les corps s’attirent entre eux grâce à la force gravitationnelle, dont l’intensité décroît en raison du carré de la distance. On dit que c’est la chute d’une pomme depuis un arbre qui donna à Newton l’idée de gravité. Quoi qu’il en soit, il fallut à Newton un gros effort d’imagination pour mettre au point des lois valides pour les mouvements tant terrestres que célestes. Il comprit que les objets étaient attirés au sol par quelque force qui les accélérait. Les pommes tombent des arbres mais que se passerait-il si ces derniers étaient encore plus hauts ? S’ils atteignaient la Lune ? Pourquoi celle-ci ne tombe-t-elle pas sur la Terre comme le fait une pomme ? Autant de questions…

Tout tombe La réponse de Newton se trouve dans ses lois du mouvement reliant forces, masse et accélération. Un boulet tiré par un canon franchit une certaine distance avant de retomber au sol. Qu’en serait-il si le tir lui avait communiqué une vitesse plus élevée ? La distance franchie aurait été plus grande. Et s’il s’était déplacé en ligne droite à une vitesse telle que, sous lui, la Terre commencerait à s’incurver : où tomberait-il ? Newton se rendit compte qu’il aurait été attiré vers la Terre mais aurait alors suivi une orbite circulaire, tout comme un satellite est attiré en permanence vers le sol mais ne l’atteint jamais.

chronologie

350 av. J.-C.

Aristote traite de la chute des corps

1609

Kepler énonce les lois qui régissent les orbites des planètes

La gravitation de Newton Isaac Newton (1643-1727) Isaac Newton a été le premier scientifique à être anobli en Grande-Bretagne. Considéré à l’école comme un élève paresseux et inattentif, puis comme un étudiant tout à fait quelconque, il s’épanouit soudain quand la peste contraignit l’université à fermer à l’été 1665. De retour chez lui, dans le Lincolnshire, il se consacra aux mathématiques, à la physique et à l’astronomie et jeta même les bases du calcul différentiel. C’est là qu’il formula les premières versions de ses trois lois du mouvement et en déduisit la loi de la gravité en carré inverse. Après un tel déchaînement d’idées remarquables, Newton fut élu à la Chaire lucasienne de mathématiques en 1669 – il n’avait pas 27 ans. Il se tourna vers l’optique et découvrit, à l’aide d’un prisme, que la lumière blanche

était constituée des couleurs de l’arc-en-ciel : ses controverses sur le sujet avec Robert Hooke et Christian Huygens sont célèbres. Newton écrivit deux œuvres majeures : Philosophiae naturalis principia mathematica, ou Principia, et Opticks, L’Optique. Sur le tard, il s’engagea politiquement, défendant les libertés universitaires alors que le roi Jacques II tentait de s’immiscer dans les questions de nominations universitaires. Il entra au Parlement en 1689. Plein de contradictions, il souhaitait d’un côté être en pleine lumière et, de l’autre, rester dans l’ombre, essayant de se mettre à l’abri des critiques. Newton usa de sa position dominante pour combattre férocement ses adversaires scientifiques et resta querelleur jusqu’à sa mort.

En athlétisme, les lanceurs de marteau tournoient sur eux-mêmes et c’est la tension du fil sur le marteau qui permet à ce dernier de conserver un mouvement circulaire. Sans cette tension, le marteau s’échapperait en ligne droite, exactement comme il le fait quand il est libéré. Il en est de même du boulet de canon de Newton : sans la force centripète reliant le projectile à la Terre, il s’éloignerait dans l’espace. Allant plus loin, Newton se dit que la Lune elle-même reste suspendue dans le ciel car elle y est maintenue par les liens invisibles de la gravitation. Sans cette dernière, même elle s’échapperait dans l’espace.

Loi en carré inverse Newton tenta ensuite de quantifier ses prédictions. Après des échanges épistolaires avec son contemporain Robert Hooke, il montra que la gravité suit une loi en carré inverse :

1687

Publication des Principia de Newton

1905

«

La gravité est une habitude dont il est difficile de se débarrasser. Terry Pratchett

Publication de l’article d’Einstein sur la Relativité restreinte

»

1915

Publication de l’article d’Einstein sur la Relativité générale

17

18

50 clés pour comprendre l’astronomie son intensité décroît en raison du carré de la distance à un corps. Ainsi, si vous doublez votre distance par rapport à un certain corps, la force de gravité qu’il exerce est quatre fois plus petite. L’attraction exercée par le Soleil sur une planète qui serait deux fois plus éloignée de lui que la Terre serait quatre fois plus petite, et neuf fois plus petite si la distance était trois fois plus grande. La loi de la gravité de Newton en carré inverse explique en une seule équation les orbites de toutes les planètes telles que les décrivent les trois lois de Kepler (voir page  14). La loi de Newton prédit que les planètes se déplacent sur leur trajectoire elliptique plus rapidement lorsqu’elles sont proches du Soleil : l’intensité de la force d’attraction exercée par ce dernier est alors plus grande et c’est cela qui les accélère. Cette augmentation de leur vitesse les éloigne du Soleil, ce qui les ralentit peu à peu. C’est ainsi que Newton fusionna tous les travaux de ses prédécesseurs en une seule et profonde théorie.

Loi universelle Dans une généralisation audacieuse, Newton affirma que

sa théorie de la gravitation s’appliquait à tout dans l’Univers. Tout corps exerce une force de gravité proportionnelle à sa masse et inversement proportionnelle au carré de la distance. C’est ainsi que deux corps quelconques s’attirent mais, les forces gravitationnelles étant faibles, nous ne le remarquons vraiment que pour des corps très massifs tels le Soleil, la Terre et les autres planètes.

En y regardant de plus près, il est cependant possible d’observer de minuscules variations de l’intensité de la pesanteur à la surface de la Terre. De grandes montagnes, une variation de la densité des couches rocheuses peuvent augmenter ou réduire localement l’intensité de la pesanteur : on peut ainsi, à l’aide d’un gravimètre, dresser une carte et approfondir nos connaissances sur la structure de la croûte terrestre. Les archéologues aussi utilisent les minuscules variations de la gravité pour repérer des vestiges enfouis. Récemment, des scientifiques ont utilisé des À la surface de la Terre, l’accélérasatellites capables de mesurer la gravité pour tion due à la pesanteur d’un corps en relever l’épaisseur – en baisse – de la calotte chute libre, g, est de 9,81 mètres par glaciaire aux pôles ainsi que pour détecter les seconde par seconde. modifications de la croûte terrestre consécutives à de violents tremblements de terre.

Accélération

«

La gravitation de Newton

Dans l’univers, deux corps quelconques s’attirent suivant la droite passant par leurs centres, avec une force proportionnelle à la masse et inversement proportionnelle au carré de la distance. Isaac Newton

Mais revenons au xviie siècle. Newton regroupa toutes ses idées sur la gravitation en un seul livre, Philosophiae naturalis principia mathematica, les Principia. Publié en 1687, il apparaît toujours comme une étape majeure de l’histoire des sciences. La gravitation universelle de Newton expliquait non seulement les mouvements des planètes et de leurs lunes mais aussi ceux des projectiles, des pendules… et des pommes. Elle expliquait les orbites des comètes, l’origine des marées aussi bien que les oscillations de l’axe terrestre. Cette œuvre a installé Newton au Panthéon des plus grands scientifiques de tous les temps.

Relativité La loi de la gravitation universelle de Newton a résisté pendant plusieurs centaines d’années et fournit encore, de nos jours, une description élémentaire du mouvement des corps. Mais la science ne stagne pas et les scientifiques du xxe siècle ont bâti sur ces fondations – particulièrement Einstein avec sa théorie de la Relativité générale. La théorie newtonienne de la gravitation fonctionne bien pour la plupart des objets de notre quotidien ; il en est de même pour le comportement des planètes, des comètes et des astéroïdes du système solaire qui sont dispersés à de grandes distances du Soleil, là où son attraction gravitationnelle est relativement faible. La loi de la gravitation de Newton était même suffisamment puissante pour permettre de prédire la position de Neptune, découverte en 1846 à l’endroit attendu au-delà de l’orbite d’Uranus. Mais c’est l’orbite d’une autre planète, Mercure, qui nécessita une physique plus élaborée que celle de Newton. La Relativité générale est nécessaire pour rendre compte de situations où la gravité est intense, comme c’est le cas près du Soleil, des étoiles et des trous noirs.

l’idée clé Les masses s’attirent

»

19

20

50 clés pour comprendre l’astronomie

05 L’optique

de Newton

Les propriétés physiques de la lumière permettent aux astronomes de révéler bien des secrets de l’Univers. Isaac Newton fut l’un des premiers à tenter d’en percer la nature. En faisant passer de la lumière blanche à travers un prisme, il découvrit qu’elle se décomposait dans toutes les nuances de l’arc-en-ciel et montra que ces couleurs étaient contenues dans la lumière blanche et non produites par le prisme. Nous savons aujourd’hui que la lumière visible n’est qu’une partie du spectre des ondes électromagnétiques, qui s’étend des ondes radio aux rayons gamma. Braquez un faisceau de lumière blanche à travers un prisme : les rayons émergents s’éparpillent en toutes les couleurs de l’arc-en-ciel. Ce dernier se forme de la même manière : la lumière du Soleil est scindée pour former toute la palette du spectre familier : rouge, orange, jaune, vert, bleu, indigo et violet. Dans les années 1660, Newton se livra chez lui à des expériences et démontra, à l’aide de faisceaux lumineux et de prismes, que les nombreuses couleurs de la lumière pouvaient être combinées pour restituer de la lumière blanche. Les couleurs n’étaient pas le résultat de mélanges, pas plus qu’elles n’étaient produites par le prisme lui-même comme on le croyait, mais constituaient les éléments de base. Newton isola des faisceaux de lumière rouge et bleue et montra que le passage à travers d’autres prismes ne pouvait plus les décomposer, prouvant ainsi leur caractère élémentaire.

Ondes de lumière Poursuivant ses expériences, il parvint à la conclusion que la lumière se comporte par beaucoup d’aspects comme les vagues. La lumière est déviée par des obstacles tout comme les vagues autour de la digue d’un port. On peut aussi combiner les faisceaux pour renforcer ou, au contraire, annuler leur luminosité comme s’annulent les vagues qui se chevauchent.

chronologie

1672

Newton explique les arcs-en-ciel

1678

Publication d’une théorie ondulatoire de la lumière par Christiaan Huygens

«

L’optique de Newton

La lumière nous donne des nouvelles de l’Univers. Sir William Bragg

»

Les vagues sont des mouvements à grande échelle d’invisibles molécules d’eau. Aussi Newton pensait-il que les ondes lumineuses étaient, en fin de compte, les rides formées par de minuscules particules de lumière, les « corpuscules », qui étaient même plus petits que les atomes.

Ce que Newton ne savait pas et qui ne fut découvert que des siècles plus tard, c’est que les ondes lumineuses sont des ondes électromagnétiques – les ondes de champs électriques et magnétiques couplés – et non la vibration de particules solides. Lorsqu’on découvrit le caractère ondulatoire de la lumière, les idées corpusculaires de Newton furent abandonnées. Mais elles ressurgirent sous une nouvelle forme quand Albert Einstein montra que la lumière pouvait parfois se comporter comme un faisceau de particules transportant de l’énergie mais n’ayant pas de masse.

À travers le spectre

infrarouge

visible

micro-ondes

ultraviolet

Les différentes couleurs de rayons X la lumière sont la manifesradio tation du fait que ces ondes rayons γ électromagnétiques ont des longueurs d’ondes diffélongueur d’onde rentes. La longueur d’onde fréquence est la distance entre deux crêtes consécutives d’une onde. Lorsqu’elle traverse un prisme, la lumière blanche se scinde en de nombreuses couleurs, chacune déviée par le verre selon un angle différent en fonction de sa longueur d’onde, la lumière rouge l’étant le moins et la bleue le plus. Le spectre de la lumière visible apparaît alors dans l’ordre des longueurs d’onde, depuis celle du rouge, la plus grande, jusqu’à celle du bleu, la plus petite, en passant par toutes les autres couleurs de l’arc-en-ciel. Qu’y a-t-il aux extrémités de l’arc-en-ciel ? La lumière visible n’est qu’une partie du spectre électromagnétique. Elle a pour nous une grande importance du fait que nos yeux se sont développés pour être sensibles à cette partie du spectre. Les longueurs d’onde de la lumière visible sont, en gros, à la même échelle qu’atomes et molécules – quelques centaines de millionièmes de millimètres. Aussi les interactions entre lumière visible et atomes sont-elles importantes. Nos yeux ont évolué pour s’adapter à la lumière visible parce qu’elle est très sensible

1839

Découverte de l’effet photoélectrique par Alexandre Becquerel

1873

Les équations de James Clerk Maxwell montrent que la lumière est une onde électromagnétique

1895

Wilhelm Roentgen découvre les rayons X

1905

Einstein montre que la lumière peut, dans certaines circonstances, présenter un comportement de particules

21

22

50 clés pour comprendre l’astronomie à la structure atomique. Le fonctionnement de notre vue fascinait Newton. Il est allé jusqu’à s’enfoncer une aiguille émoussée entre l’œil et la paroi de l’orbite pour observer la façon dont la pression affectait sa perception des couleurs. En deçà de la lumière rouge, il y a l’infrarouge, dont la longueur d’onde est de quelques millionièmes de mètres. Les rayons infrarouges transportent la lumière du Soleil et sont aussi captés par les lunettes à vision nocturne pour « voir » la chaleur des corps. Plus grandes encore – de quelques millimètres à quelques centimètres –, il y a les longueurs d’onde des micro-ondes puis celles des ondes radio – quelques mètres ou plus. Les fours à micro-ondes utilisent des rayons électromagnétiques pour agiter les molécules d’eau contenues dans les aliments, ce qui les réchauffe. À l’autre extrémité du spectre, au-delà du bleu, on trouve les rayons ultraviolets. Ils sont produits par le Soleil et peuvent endommager notre peau mais la plupart sont arrêtés par la couche d’ozone. Plus courtes sont les longueurs d’onde des rayons X, utilisés dans les hôpitaux parce qu’ils traversent les tissus humains, les plus petites longueurs d’ondes étant celles des rayons gamma. Les astronomes observent l’Univers à toutes ces longueurs d’onde.

Photons Mais la lumière ne se comporte pas toujours comme une onde : Newton avait en partie raison. Les rayons lumineux transportent de l’énergie qu’ils délivrent en minuscules paquets, appelés photons, qui n’ont pas de masse et se déplacent à la vitesse de la lumière. C’est Einstein qui le découvrit en observant qu’un rayon ultraviolet braqué sur un métal y faisait naître un courant électrique : c’est l’effet photoélectrique. De tels courants apparaissent avec des rayons de lumière bleue ou ultraviolette mais pas avec de la lumière rouge. Même un faisceau brillant de lumière rouge est incapable de provoquer

Ondes de matière

En 1924, Louis-Victor de Broglie a suggéré l’idée inverse que les particules de matière puissent aussi se comporter comme des ondes. Il avança que tout corps possédait une longueur d’onde associée, et donc que la dualité onde-particule était universelle. Trois ans plus tard, le concept d’onde de matière fut confirmé lorsqu’on observa des électrons diffracter et interférer exactement comme la lumière. Aujourd’hui, les physiciens ont aussi vu des particules plus grosses se comportant comme des ondes – des neutrons, des pro-

tons et même, il y a peu, des molécules, y compris ces microscopiques molécules de carbone en forme de ballons de football de carbone nommées « footballènes ». Les objets plus gros ont de minuscules longueurs d’onde, trop petites pour être vues, ce qui fait que nous ne pouvons pas remarquer leur comportement ondulatoire. Une balle de tennis traversant un court a une longueur d’onde de 10-34 mètre, ce qui est bien plus petit que le diamètre d’un proton (10-15 mètre).

«

L’optique de Newton

»

La nature et ses lois se cachaient dans la nuit. Dieu dit : “Que Newton soit !” Et tout fut lumière. Alexander Pope (épitaphe en hommage à Newton) l’apparition d’un courant électrique. Une charge se met en mouvement seulement lorsque la fréquence de la lumière franchit un certain seuil qui dépend du métal. Ce seuil traduit le fait qu’une certaine quantité d’énergie doit être accumulée pour pouvoir déplacer une charge. En 1905, Einstein présenta une explication géniale. C’est davantage cela que la Relativité qui lui valut le prix Nobel en 1921. Plutôt que décrire un métal plongé dans un bain d’ondes lumineuses continues, il avança que l’effet photoélectrique était produit par des billes individuelles de lumière qui percutaient les électrons et les mettaient en mouvement. Chaque photon transportant une certaine énergie, en rapport avec sa propre fréquence, celle de l’électron percuté est aussi en rapport avec la fréquence de la lumière. Un photon de lumière rouge (avec une basse fréquence) ne transporte pas suffisamment d’énergie pour déloger un électron mais un photon de lumière bleue (une lumière de plus haute fréquence) en possède davantage et peut le mettre en mouvement. Un photon ultraviolet possède davantage d’énergie et peut culbuter un électron et lui conférer une vitesse plus grande encore. Augmenter l’intensité de la lumière ne change rien : à quoi sert d’avoir davantage de photons rouges si aucun d’entre eux n’est capable de déplacer un électron ? C’est un peu comme bombarder un lourd 4 × 4 avec des balles de ping-pong. Cette idée d’Einstein de quanta de lumière a tout d’abord été impopulaire mais les choses changèrent quand des expériences montrèrent que sa théorie farfelue était vraie. Elles confirmèrent que l’énergie des électrons libérés augmentait proportionnellement à la fréquence de la lumière.

Dualité onde-particule La proposition d’Einstein faisait naître cette idée

dérangeante que la lumière était à la fois onde et particule, ce qu’on appelle la dualité onde-particule. Les physiciens se débattent toujours avec cette question. De nos jours, nous pensons même que la lumière paraît savoir choisir le comportement adapté aux différentes circonstances. Si l’on fait une expérience pour mesurer ses propriétés ondulatoires – comme la faire passer à travers un prisme –, elle se fait onde. Mais si vous essayez plutôt de mesurer ses propriétés de particule, elle se montre tout aussi obligeante. Elle est vraiment les deux !

l’idée clé Au-delà de l’arc-en-ciel

23

24

50 clés pour comprendre l’astronomie

06 Lunette

et télescope

C’est avec l’invention, au xviie siècle, de la lunette astronomique que commença l’astronomie moderne. Le système solaire s’offrit à nous, révélant les anneaux de Saturne et permettant la découverte des planètes extérieures. Les observations à la lunette ou au télescope furent décisives pour confirmer que c’est la Terre qui tourne autour du Soleil. En fin de compte, ces instruments nous ont donné accès à tout l’univers visible. Galilée est célèbre pour avoir réalisé des observations à l’aide d’une lunette astronomique, découvrant en 1610, grâce à son pouvoir grossissant, quatre satellites de Jupiter, les phases de Vénus et les cratères de la Lune. Mais il ne faisait que suivre le courant. L’invention de la lunette astronomique ne peut être attribuée à personne en particulier. Le Hollandais Hans Lipperhey a été l’un des premiers à essayer d’en déposer un brevet en 1608. En vain : le concept en était déjà largement répandu. Le pouvoir grossissant des matériaux transparents à bords courbes était déjà bien connu : les disques en forme de «  lentilles  » ont été utilisés comme lunettes de spectacle ou simplement grossissantes depuis le xiiie siècle. Il est attesté que des lunettes ont été construites et utilisées pour observer la Lune au milieu du xvie siècle. Mais les développements des techniques de taille du verre ont été tels que ce n’est qu’au xviie siècle que les instruments de qualité se répandirent. De bonnes lentilles produisent des images claires, même si elles proviennent de pâles corps célestes.

Pouvoir grossissant Comment fonctionne une lunette ? Le modèle le

plus simple utilise deux lentilles, l’une à chaque extrémité d’un tube. La première concentre les rayons de lumière de façon que l’œil les perçoive comme lui parvenant d’une source plus étendue. La seconde est utilisée comme oculaire, rétablissant le parallélisme des rayons pour permettre la mise au point par l’œil.

chronologie

1609

Galilée réalise des observations astronomiques à l’aide d’une lunette

1668

Newton construit un télescope

Lunette et télescope

«

L’inclinaison des rayons par la lentille est J’étudie tes pieds appelée réfraction. La lumière se déplace au microscope et ton plus lentement dans les matériaux plus au télescope. denses – et le verre l’est plus que l’air. Cela explique le mirage de la flaque d’eau sur Victor Hugo une route chaude. La vitesse de la lumière est modifiée dans la couche d’air qui se trouve juste au-dessus de l’asphalte surchauffé et les rayons provenant du ciel s’inclinent pour ricocher sur la surface de la route. L’air est moins dense chaud que froid aussi les rayons lumineux s’inclinent-ils par rapport à la verticale : nous voyons alors le reflet du ciel sur le macadam, ce qui donne l’illusion d’une flaque d’eau.

»

âme

L’angle de la déviation d’un rayon est lié à la vitesse relative de son déplacement à travers les deux matériaux – précisément, le rapport des vitesses est égal au rapport des sinus des angles, mesurés par rapport à la verticale, des rayons incidents. Ainsi, un rayon passant de l’air au verre, ou toute autre substance dense, est dévié vers l’intérieur et son chemin devient plus escarpé.

Indice de réfraction La lumière se déplace dans le vide à la vitesse gigan-

tesque de 300 000 kilomètres par seconde. Le quotient de cette vitesse par celle qu’elle a dans un matériau plus dense, comme le verre, est l’indice de réfraction de ce matériau. Par définition, l’indice de réfraction du vide est de 1. Un corps d’indice de réfraction de 2 ralentirait la vitesse de la lumière à la moitié de ce qu’elle est dans le vide. Un indice de réfraction élevé pour une substance traduit le fait que la lumière est fortement déviée en passant au travers.

La valeur de l’indice de réfraction est propre à chaque matériau. Un matériau peut être conçu pour avoir un indice de réfraction spécifique – ce qui peut être utile, par exemple, dans la construction de lunettes astronomiques ou de lentilles correctrices pour des problèmes de vue. La puissance des lentilles ou des prismes dépend de leur indice de réfraction : ceux des lentilles puissantes sont élevés. Les lunettes astronomiques présentent des inconvénients. L’image finale apparaît inversée du fait que les rayons lumineux se croisent

1937

Construction du premier radiotélescope

1990

LUNETTE

Oculaire

Lentille

TÉLESCOPE Oculaire

Miroir secondaire

Lancement du télescope spatial Hubble

Miroir primaire

25

26

50 clés pour comprendre l’astronomie avant l’oculaire. En astronomie, ce n’est pas vraiment un Télescope de 30 m problème : cela ne Mauna Kea, Keck Télescope géant Hawaii Mauna change pas grandMagellan Kea, Las Campanas (Chili) chose de voir une Hawaii étoile à l’envers. On (déjà construit) peut corriger ce problème en ajoutant une troisième lentille pour inverser l’image une fois de plus, 10 mètres 24 mètres 30 mètres 42 mètres mais cela allonge la lunette qui devient alors encombrante. Autre problème, plus sérieux, les images produites par une lunette sont floues : les différentes longueurs d’onde de la lumière sont réfractées selon des angles différents – les ondes de lumière bleue sont plus déviées que celles de lumière rouge –, les différentes couleurs sont séparées et l’image finale perd en netteté. De nouveaux types de lentilles sont capables, de nos jours, de minimiser ce défaut mais leur taille est limitée. Très grand télescope européen Cerro Armazones (Chili)

Le télescope Pour résoudre ces problèmes, Newton inventa le télescope. En

remplaçant la lentille par un miroir courbe pour dévier les rayons, il a fondamentalement replié la lunette en deux, rendant l’ensemble plus maniable. Sa conception évitait aussi le flou provenant des différentes couleurs du fait que la surface d’un miroir réfléchit toutes les couleurs de la même manière. Mais les techniques d’étamage n’étaient pas très au point à l’époque de Newton et plusieurs siècles furent nécessaires pour perfectionner les modèles. Aujourd’hui, la plupart des télescopes professionnels utilisent un miroir géant plutôt qu’une lentille pour recueillir la lumière provenant du ciel et la renvoyer sur l’oculaire. C’est la taille du miroir qui fixe la quantité de lumière qui peut être recueillie – une aire importante permet de voir des objets très peu lumineux. Les miroirs d’un télescope optique moderne peuvent avoir la taille d’une chambre – les plus grands actuellement en service, comme ceux qui composent les télescopes géants jumeaux Keck sur le Maunea Kea, à Hawaï, ont environ 10 mètres de diamètre. On a prévu d’en construire d’autres encore plus grands, pouvant aller jusqu’à 100 mètres de diamètre, dans les prochaines décennies.

Il est difficile de construire de très grands miroirs : ils se déforment sous l’effet de leur propre poids quand le télescope est incliné pour sonder le ciel. Il faut trouver des astuces pour les rendre le plus légers possible. Certains sont fabriqués avec une multitude de pièces. Pour d’autres, on veille à ce qu’ils soient

fins tout en étant soigneusement taillés. Une autre solution, appelée «  optique adaptative  », est de corriger sans cesse la forme du miroir à l’aide d’un réseau de minuscules pistons repoussant par derrière la surface lorsqu’elle s’affaisse.

«

Lunette et télescope

Là où il y a un observatoire et un télescope, nous nous attendons à ce qu’on découvre tout de suite des mondes nouveaux. Henry David Thoreau

»

Scintillement d’étoiles Au-delà des instruments eux-mêmes, la clarté des images astronomiques est altérée par les turbulences de notre atmosphère. Même par la nuit la plus claire, les étoiles scintillent, celles qui sont près de l’horizon plus que celles qui sont au-dessus, à cause des poches d’air qui se déplacent devant elles. Les astronomes appellent ce flou le « seeing ». La taille des composants optiques de la lunette ou du télescope impose une autre limite absolue à la collecte de la lumière provenant d’une étoile due à un autre aspect du comportement de la lumière, la diffraction – la déviation des rayons lumineux au voisinage des bords d’une lentille, d’une ouverture ou d’un miroir. Pour obtenir les images les plus nettes des étoiles et des planètes, les astronomes choisissent où placer leurs télescopes. Sur Terre, ils préfèrent des sites en altitude, là où la couche d’air est mince – les montagnes – et l’écoulement d’air régulier – près des côtes. Parmi les meilleurs endroits, les Andes chiliennes et les pics volcaniques d’Hawaï. Les images les plus lointaines jamais prises de l’Univers ont été réalisées par le télescope spatial en orbite Hubble. Les télescopes peuvent opérer à d’autres longueurs d’onde que celles de la lumière visible. Des instruments semblables aux lunettes de vision nocturne montés sur télescopes permettent de déceler l’infrarouge – la chaleur –, du moment qu’on peut empêcher l’ensemble de trop chauffer. C’est dans l’espace que les rayons X, dont les longueurs d’onde sont très courtes, sont le mieux détectés, à partir de télescopes montés sur satellites. Même les ondes radio peuvent être captées à l’aide de grands miroirs concaves, comme celui d’Arecibo, ou d’un ensemble d’une multitude de petites antennes, comme le Very Large Array, au Nouveau-Mexique. Mais le nec plus ultra des télescopes est peut-être la Terre elle-même : des particules fondamentales la traversent à toute vitesse chaque jour et les physiciens ont placé des pièges pour essayer de les capturer au passage.

l’idée clé Agrandir en inclinant les rayons

27

28

50 clés pour comprendre l’astronomie

07 Raies

de Fraunhofer

Dans le spectre de la lumière provenant des étoiles gît une empreinte chimique. Des raies sombres ou brillantes révèlent les longueurs d’onde spécifiques qui sont absorbées ou émises par les gaz brûlants de l’atmosphère d’une étoile. Tout d’abord remarqués dans la lumière du Soleil, ces marqueurs atomiques sont un outil puissant pour les enquêteursastronomes. Ils révèlent la composition chimique des étoiles et des galaxies aussi bien que le mouvement des corps célestes ou l’expansion de l’Univers. Lorsqu’on fait passer la lumière du Soleil à travers un prisme, le spectre en arc-en-ciel de la lumière émergente est strié de raies sombres, comme un codebarres. Ces raies indiquent les longueurs d’onde particulières manquantes parce qu’elles ont été absorbées par les gaz de l’atmosphère solaire. Chaque raie correspond à un élément chimique précis en différents états et à différents niveaux d’énergie, depuis les atomes neutres jusqu’aux ions excités. En effectuant le relevé de ses raies, on peut déterminer la composition chimique du Soleil. Bien que repérées par l’astronome anglais William Hyde Wollaston en 1802, ce n’est qu’en 1814 que les raies d’absorption du spectre solaire furent étudiées en détail par Joseph von Fraunhofer – de là leur nom. Il réussit à en décompter plus de 500. Avec un équipement moderne, on peut en trouver plusieurs milliers.

Unicité chimique Les chimistes allemands Gustav Kirchhoff et Robert

Bunsen découvrirent dans leur laboratoire en 1850 que chaque élément donne naissance à une unique série de raies d’absorption. Dans le Soleil, l’hydrogène est l’élément le plus abondant. Mais le spectre solaire montre des raies d’absorption de nombreux autres éléments, parmi lesquels l’hélium, le carbone, l’oxygène, le sodium, le calcium et le fer. Chacun a son propre code-barres de raies d’absorption.

chronologie

1802

Wollaston repère des raies sombres dans le spectre du Soleil

1814

Fraunhofer dénombre des centaines de raies

«

Raies de Fraunhofer

La lumière des autres étoiles Ce sont les astres, les astres convoie aussi ses empreintes au-dessus de nos têtes, chimiques. L’étude de ces qui règlent nos destinées. spectres chimiques, la spectroscopie, est une technique William Shakespeare particulièrement efficace en astronomie parce qu’elle nous livre la composition des étoiles mais aussi des nébuleuses, de l’atmosphère des planètes et des galaxies lointaines. Les astronomes ne peuvent pas faire entrer étoiles et galaxies dans leurs laboratoires ni se transporter vers elles. Aussi doivent-ils avoir recours à des observations lointaines et à des astuces techniques.

»

Il arrive que les raies soient brillantes et non sombres : il s’agit de raies d’émission. Des sources très brillantes, comme les étoiles les plus chaudes et les quasars lumineux, possèdent une énergie telle que leurs gaz ne peuvent que refroidir en laissant s’échapper des photons à ces longueurs d’onde caractéristiques plutôt que de les absorber. La lumière fluorescente émet aussi une série de raies brillantes qui correspondent aux longueurs d’onde des atomes excités dans le gaz d’un tube, comme le néon.

luminosité

Les sauts de fréquences dans le Réseaux Pour spectre d’une étoile permettent décomposer la de connaître la composition lumière dans les chimique du gaz absorbant différentes longueurs d’onde qui la constituent, on utilise des dispositifs appelés réseaux de diffraction. Les prismes Longueur d’onde sont encombrants et la déviation qu’ils peuvent communiquer aux rayons lumineux est limitée par leur indice de réfraction. On préfère donc insérer un dispositif comprenant une rangée de fines fentes parallèles dans le faisceau lumineux. Fraunhofer a réalisé le premier réseau de diffraction avec des fils de fer tendus.

Le principe de fonctionnement des réseaux utilise les propriétés ondulatoires de la lumière. La lumière qui traverse chaque fente du grillage est diffractée, la

1842

Doppler explique le décalage des raies spectrales

1859

Kirchhoff et Bunsen découvrent la spectroscopie au laboratoire

1912

Vesto Slipher découvre le décalage vers le rouge du spectre des galaxies

29

30

50 clés pour comprendre l’astronomie déviation étant proportionnelle à la longueur d’onde de la lumière et inversement proportionnelle à la largeur de la fente. Des fentes très étroites dispersent la lumière plus largement et la lumière rouge est plus diffractée que la bleue. Les fentes multiples assemblent la lumière plus loin du fait d’une autre propriété, l’interférence – quand les crêtes et les creux des ondes lumineuses se renforcent ou, au contraire, s’annulent les uns les autres, créant par superposition un motif de franges claires et sombres. Dans chacune de ces franges, la lumière est divisée de manière plus fine encore ; toujours en suivant les longueurs d’onde mais, cette fois, de façon inversement proportionnelle à la distance qui sépare les fentes. En jouant sur le nombre de fentes, la distance entre elles et leur largeur, les astronomes peuvent contrôler la façon dont la lumière est dispersée et le niveau de détails avec lequel ils vont rechercher les raies d’absorption et d’émission. Les réseaux sont donc bien plus efficaces et polyvalents que les prismes. Un réseau simple peut être fabriqué à partir d’une diapositive sur laquelle on a gravé des fentes. On en vend parfois dans les boutiques des musées de science. Si vous en placez un devant un tube de néon, vous verrez le code-barres des longueurs d’onde du gaz chaud dispersées devant votre œil.

Diagnostics Les raies spectrales sont plus que des indicateurs chimiques. Chaque raie correspond à un état atomique spécifique : les expériences menées en laboratoire nous ont donc permis de bien connaître leurs longueurs d’onde. L’énergie caractéristique de chaque raie provient de la structure de l’atome.

Joseph von Fraunhofer (1787-1826) Né en Bavière en 1787, Joseph von Fraunhofer débuta modestement avant de devenir un fabriquant d’instruments d’optique mondialement connu. Orphelin dès l’âge de 11 ans, il devint apprenti verrier. Quand l’atelier où il avait été placé s’effondra, en 1801, un prince bavarois qui reconnut en lui les capacités pour faire des études lui vint en aide. Il put étudier sa spécialité dans un monastère.

Fraunhofer devint un fabricant d’instruments d’optique reconnu dans le monde entier. Il fit une brillante carrière scientifique : il devint directeur de l’Institut d’optique, fut anobli et nommé citoyen d’honneur de Munich. Mais, comme de nombreux opticiens de ce temps, il mourut jeune, à 39 ans, empoisonné par les vapeurs de métaux lourds.

«

Raies de Fraunhofer

Pourquoi suis-je ici, je ne sais. Demander où je vais est chose inutile – à côté des innombrables êtres vivants, mondes éteints, étoiles, systèmes, infinité, pourquoi m’angoisserais-je du sort d’un atome ? Lord Byron

»

Bien que les atomes soient, en réalité, bien plus complexes et éphémères, on peut, de manière simplifiée, les imaginer comme notre système solaire. Le noyau, fait de particules lourdes, les protons et les neutrons, y jouerait le rôle du Soleil, tandis que les électrons figureraient les planètes. Il y a des raies d’absorption ou d’émission à chaque fois qu’une planète change d’orbite, l’énergie, sous la forme d’un photon, étant alors ajoutée ou retranchée. Il y a absorption quand un photon possédant la bonne énergie pénètre l’atome et envoie un électron vers une orbite plus élevée. Il y a émission quand un électron quitte son orbite pour une autre moins élevée en donnant à un photon l’énergie supplémentaire correspondante. Les énergies nécessaires pour passer d’une orbite à une autre sont très précises et dépendent du type d’atome et de son état. Dans les gaz très chauds, les électrons périphériques peuvent être tous arrachés – on dit alors que l’atome est ionisé. Du fait qu’elles trouvent leur origine dans la physique fondamentale, les raies spectrales sont sensibles à bien des propriétés physiques des gaz. La température d’un gaz peut être déduite de l’élargissement des raies, un gaz plus chaud en produisant de plus larges. Les rapports des intensités des raies spectrales fournissent des informations supplémentaires, comme le degré d’ionisation du gaz. On utilise aussi les raies spectrales pour mesurer le mouvement des corps célestes. La longueur d’onde d’une raie bien précise est parfaitement connue : le moindre petit décalage de cette raie traduit donc un mouvement de la source. Si une étoile s’éloigne de nous, son spectre est décalé vers le rouge : c’est l’effet Doppler (voir chapitre suivant). Si elle s’approche, le décalage se fait vers le bleu. On peut mesurer le décalage en observant les raies spectrales. À grande échelle, ce « décalage vers le rouge » a révélé l’expansion de l’Univers.

l’idée clé Codes-barres dans les étoiles

31

32

50 clés pour comprendre l’astronomie

08 L ’effet Doppler Il nous est arrivé à tous d’entendre le hurlement de la sirène d’une ambulance baisser de ton quand elle nous dépasse à toute allure. Les ondes en provenance d’une source qui s’approche parviennent comprimées et apparaissent ainsi comme ayant une fréquence plus élevée. De même, les ondes sont étirées, et nous atteignent donc plus lentement, quand elles proviennent d’une source qui s’éloigne. C’est ce qu’on appelle l’effet Doppler, utilisé pour mesurer la vitesse des voitures, le flux sanguin et – c’est là qu’on retrouve le décalage vers le rouge – les mouvements des étoiles et des galaxies dans l’Univers. L’effet Doppler fut pour la première fois mis en évidence en 1842 par un mathématicien et astronome autrichien, Christian Doppler. Il se produit du fait du mouvement du véhicule par rapport à l’observateur. Pendant son approche, les ondes sonores s’entassent, la distance entre les fronts d’onde s’amenuise et le son devient plus élevé. Quand il s’éloigne, les fronts d’onde prennent régulièrement plus de temps à nous atteindre, les intervalles s’allongent et le ton baisse.

Va-et-vient Imaginez que quelqu’un se trouvant dans un train en mouvement vous lance des balles sans s’arrêter à raison d’une balle toutes les trois secondes, le rythme étant fixé par sa montre. Si le déplacement se fait vers vous, à chaque tranche de trois secondes, les balles mettront un peu moins de temps à vous parvenir parce qu’elles sont envoyées à chaque fois d’un peu plus près. Vu par celui qui rattrape les balles, le rythme semblera s’accélérer. De même, alors que le train s’éloigne, les balles mettront un peu plus de temps à vous parvenir parce qu’elles parcourront une distance un peu plus longue à chaque lancer et la fréquence avec laquelle elles vous parviennent vous semblera plus basse. Si vous pouvez mesurer ce décalage dans le temps avec votre propre montre, alors vous serez capable de mesurer la vitesse du train du lanceur. L’effet Doppler s’applique à tout objet en mouvement par rapport à un autre. Ce serait la même chose si c’était vous qui étiez dans le train et que le

chronologie

1842

Parution de l’article de Doppler sur les décalages des couleurs dans la lumière des étoiles

L’effet Doppler

Exoplanètes

On a découvert des milliers de planètes en orbite autour d’autres étoiles que le Soleil. La plupart sont des géantes gazeuses semblables à Jupiter bien que sur des orbites beaucoup plus rapprochées que la sienne. Mais quelques-unes sont peut-être des planètes rocheuses de taille semblable à celle de notre Terre. Environ une étoile sur dix est entourée de planètes et cela a alimenté les spéculations sur le fait que certaines pourraient même abriter des formes de vie. La grande majorité des premières exoplanètes a été découverte par la petite attraction gravitationnelle qu’elles exercent sur leur étoile. Les planètes sont petites comparées à l’étoile autour de

laquelle elles gravitent, mais leur masse perturbe un peu le mouvement de l’étoile et ce roulis peut se signaler comme un décalage de fréquence dû à l’effet Doppler dans un trait caractéristique du spectre de l’étoile. Les premières planètes extrasolaires ont été détectées autour d’un pulsar en 1992, autour d’une étoile ordinaire en 1995. Leur repérage est désormais chose banale mais les astronomes recherchent toujours des systèmes solaires semblables au nôtre et combien il existe de configurations planétaires. On doit au télescope Kepler, lancée par la NASA en 2009, la découverte de nombreuses exoplanètes dont plusieurs, semblables à la Terre.

lanceur se tenait sur une plateforme immobile. En tant que moyen de mesurer des vitesses, l’effet Doppler a de nombreuses applications : il est utilisé aussi bien en médecine pour mesurer le flux sanguin que dans les radars placés le long des routes pour prendre sur le fait les coupables d’excès de vitesse.

Mouvement dans l’espace L’effet Doppler intervient souvent en astronomie, apparaissant à chaque fois que de la matière est en mouvement. Par exemple, la lumière provenant d’une planète en orbite autour d’une étoile lointaine révélera un décalage qui lui est dû : pendant qu’elle se rapproche

«

Peut-être les peuples lointains d’autres planètes ne perçoivent-ils de nous que les longueurs d’onde d’un hurlement continu. Iris Murdoch

1912

Vesto Slipher mesure le décalage vers le rouge des galaxies

»

1992

Détection, pour la première fois, d’une exoplanète par Doppler

33

34

50 clés pour comprendre l’astronomie Christian Doppler (1803-1853) Christian Doppler est né dans une famille de tailleurs de pierre à Salzbourg, en Autriche. Il était trop fragile pour poursuivre dans la voie familiale et partit plutôt à Vienne afin d’y étudier les mathématiques, la philosophie et l’astronomie. Avant de trouver un emploi universitaire à Prague, il travailla comme comptable et envisagea même d’émigrer aux États-Unis. Bien que promu professeur, Doppler s’épuisa à la tâche et sa santé en souffrit. Un de ses amis a écrit : «  L’Autriche dispose en cet homme d’un génie dont on a peine à imaginer à quel point il peut être fécond. J’ai écrit (…) à de nombreuses personnes qui pourraient éviter qu’il ne meure sous le joug et le pré-

server pour la science. Malheureusement, je crains le pire. » Finalement, Doppler quitta Prague pour retourner à Vienne. En 1842, il publia un article décrivant le décalage de la lumière des étoiles, ce que nous nommons aujourd’hui l’effet Doppler : «  Il est pratiquement certain que, dans un futur relativement proche, cela offrira aux astronomes des moyens opportuns pour déterminer mouvements et distance de telles étoiles.  » Bien que jugé original, cet article reçut un accueil mitigé de la part d’autres savants éminents. Les détracteurs de Doppler s’interrogeaient sur ses aptitudes mathématiques tandis que ses amis tenaient en haute estime ses facultés d’invention scientifique et son intuition.

de nous, sa fréquence augmente tandis que, pendant qu’elle s’éloigne, sa fréquence baisse. La lumière d’une planète qui s’approche est dite « décalée vers le bleu », celle d’une planète qui s’éloigne « décalée vers le rouge ». Depuis les années 1990, des centaines de planètes ont été repérées autour d’étoiles lointaines parce qu’on avait découvert ce motif incrusté au cœur de l’éclat de l’étoile centrale. Les décalages vers le rouge n’apparaissent pas seulement dans les mouvements orbitaux des planètes mais aussi du fait de l’expansion de l’Univers – on parle alors de décalage cosmologique vers le rouge : si la distance qui nous sépare d’une galaxie lointaine augmente au fur et à mesure de l’expansion de l’Univers, cela équivaut à dire que la galaxie s’éloigne de nous avec une certaine vitesse. De la même façon, deux points situés sur un ballon qu’on gonfle paraissent s’éloigner l’un de l’autre. Par suite, la lumière provenant de la galaxie est décalée vers de plus basses fréquences parce que les ondes lumineuses doivent effectuer un trajet de plus en plus long avant de nous atteindre. Voilà pourquoi les galaxies lointaines paraissent plus rouges que celles qui sont plus proches. À strictement parler, il ne s’agit pas là d’un véritable effet Doppler : la galaxie qui fuit n’est pas en mouvement par rapport aux objets de son voisinage ; c’est, en fin de compte, l’espace intermédiaire qui s’étire.

L’effet Doppler Doppler lui-même – il faut Une planète cachée perturbe le lui reconnaître – vit que une étoile lointaine l’effet qui porte désormais son nom pourrait être utile aux astronomes, même s’il ne pouvait prévoir tout ce qui en a découlé. Il affirma avoir vu cet effet révélé dans les couleurs de la lumière provenant L’effet Doppler dû d’étoiles doubles mais, à son au roulis de l’étoile époque, cela fut mis en doute. Doppler était un scientifique original et inventif mais son enthousiasme allait parfois au-delà de ses possibilités expérimentales. Cela dit, quelques décennies plus tard, les décalages galactiques vers le rouge furent mesurés par l’astronome Veto Slipher, ouvrant la voie au développement de la théorie du Big Bang comme modèle de l’Univers. Et, de nos jours, l’effet Doppler peut nous permettre d’identifier des mondes gravitant autour d’étoiles lointaines dont il se pourrait même qu’elles abritent la vie.

Décalage vers le rouge et mesure des distances Les décalages vers le rouge ou vers le bleu sont exprimés par le rapport entre les longueurs d’onde (ou la fréquence) observée et émise par un objet. Les astronomes expriment cette modification en utilisant le symbole sans dimension z en sorte que le rapport entre longueurs d’onde observée et émise soit égal à 1 + z. Ainsi définis, les décalages vers le rouge sont utilisés comme raccourcis pour parler de la distance à un objet astronomique. Pour une

l’idée clé Étirement

galaxie à z = 1, par exemple, la lumière que nous observons a une longueur d’onde deux fois plus grande que lors de son émission. La distance d’un tel objet serait de la moitié de l’Univers. Pour les galaxies les plus lointaines que nous connaissons z est compris entre 7 et 9, soit à une distance représentant 80 % de l’Univers. Le fonds diffus cosmologique – ce que nous pouvons voir de plus loin – est à z approximativement égal à 1 000.

35

36

50 clés pour comprendre l’astronomie

09 Parallaxe À quelle distance se trouvent les étoiles ? La méthode de la parallaxe s’appuie sur le fait que les objets les plus voisins semblent, vus depuis la Terre en mouvement, filer plus vite que les plus lointains. Le léger décalage des positions qui en résulte nous apprend que la distance à la Terre des étoiles les plus proches est de plus d’un million de fois celle séparant la Terre du Soleil. La plupart se trouvent à l’intérieur d’un disque qui constitue notre propre galaxie et qui nous apparaît en projection sur le ciel comme une traînée que nous nommons Voie lactée. Une fois qu’on eut compris que les étoiles n’étaient pas des piqûres d’épingles dans des sphères de verre mais des myriades de soleils lointains, on commença à se demander à quelle distance de nous elles se situaient. Les motifs qu’elles forment, les constellations, ont été appelés Orion, la Grande Ourse, la Croix du Sud. Mais il fallut des siècles pour déterminer leur distribution dans l’espace. Tout d’abord, les étoiles ne sont pas réparties uniformément dans le ciel, la plupart se trouvant dans la traînée blafarde que nous nommons Voie lactée. C’est dans l’hémisphère Sud qu’elle est le plus brillante, tout particulièrement près de la constellation du Sagittaire, où la vue immémoriale est criblée de nuages noirs avec des taches brillantes et floues qu’on appelle nébuleuses. Nous savons aujourd’hui que la traînée de la Voie lactée est faite de milliards d’étoiles luisant faiblement et que notre regard confond en un tout. Si nous en relevons les positions plus en détail, les étoiles apparaissent regroupées dans des bras spiraux. Comme de la mousse savonneuse tournoyant autour de la bonde d’un lavabo, les étoiles de la Voie lactée, attirées par la gravité, s’enroulent autour du centre de notre galaxie. Le Soleil se trouve sur l’un de ces bras spiraux, dans une tranquille banlieue galactique. Mais comment a-t-on compris tout cela ?

La Voie lactée Via lactica en latin, la Voie lactée intriguait les Anciens. Les philosophes grecs, y compris Aristote et Anaxagore, se demandaient si elle était vraiment une mer d’étoiles lumineuses lointaines. Mais ils ne disposaient d’aucun moyen d’en savoir plus. Ce ne fut qu’en 1610, quand Galilée utilisa sa lunette,

chronologie

1573

Digges propose la méthode de la parallaxe

1674

Hooke détecte un décalage dans la position de γ-Draconis

Parallaxe que le brouillard se dissipa pour révéler une multitude d’étoiles individuelles.

37

Secondes d’arc

Le philosophe Emmanuel Kant s’interLes astronomes mesurent les distances rogea sur la répartition des étoiles dans dans le ciel à l’aide de projections angul’espace tridimensionnel. Dans un traité laires. La taille de la Lune est d’environ un publié en 1755, il avança que les étoiles demi-degré. Les degrés sont à leur tour de la Voie lactée étaient regroupées, du subdivisés en 60 minutes d’arc (’), ellesfait de la gravité, en un gigantesque mêmes décomposées en 60 secondes disque, tout comme les planètes de notre d’arc (”). Une seconde d’arc représente système solaire tournent toutes dans un donc 1/3600 degré. plan unique autour du Soleil. Les étoiles nous apparaissent comme une traînée dans notre ciel parce que nous les observons depuis l’intérieur de ce disque. En 1785, l’astronome britannique William Herschel détermina en détail la forme de la Voie lactée par l’étude méticuleuse de centaines d’étoiles. En relevant leur position, il se rendit compte qu’il y en avait beaucoup plus d’un côté du ciel que de l’autre. Il avança que le Soleil se trouvait d’un côté du disque de la Voie lactée et non pas en son centre, comme on l’avait supposé jusque-là.

Très loin On avait pensé tout d’abord que toutes les étoiles se trouvaient à peu près à la même distance de la Terre. Mais les astronomes se rendirent compte peu à peu que c’était improbable. À l’évidence, elles étaient réparties de façon inégale. La théorie de la gravité de Newton impliquait que, si elles étaient massives, elles s’attireraient les unes les autres, exactement comme les planètes sont attirées par le Soleil. Mais, comme elles ne formaient pas une seule gerbe, cette attraction devait être faible. Il s’ensuit que les étoiles doivent être très éloignées les unes des autres. Raisonnant ainsi, Newton fut l’un des premiers à se rendre compte à quel point les étoiles étaient en réalité éloignées. Les astronomes cherchèrent des méthodes pour déterminer la distance d’une étoile. L’une d’elle se fondait sur sa luminosité : si une étoile est aussi brillante que le Soleil, sa luminosité doit décliner selon le carré de sa distance. S’appuyant sur cette hypothèse, le physicien néerlandais Christiaan Huygens (1629-1695) détermina la distance de l’étoile la plus brillante de notre ciel nocturne, Sirius. En ajustant la taille d’un trou minuscule dans un écran, il parvint à faire passer exactement la même quantité de lumière que l’étoile. Après des calculs réalisés en comparant la taille du trou et du Soleil, il parvint à la conclusion que Sirius devait se trouver des dizaines de milliers de fois plus loin que ce dernier. Plus tard, Newton repoussa

1725

Bradley avance la théorie des aberrations stellaires

1755

Kant postule que la Voie lactée est un disque

1785

Herschel établit la forme du disque de la Voie lactée

1838

Bessel effectue une mesure de la parallaxe

1989

Lancement du satellite Hipparcos

38

50 clés pour comprendre l’astronomie

Parsecs

La mesure de la parallaxe stellaire est souvent définie comme la différence entre la position d’une étoile vue depuis la Terre et depuis le Soleil. Il est équivalent de considérer l’angle sous lequel on verrait, depuis l’étoile, le demi-grand axe de l’orbite terrestre. Le parsec (3,26 années-lumière) est, par définition, la distance pour laquelle cet angle est d’une seconde d’arc.

cette distance à un million de fois celle du Soleil, en comparant la luminosité de l’étoile à celle d’une planète. Newton n’était pas loin : Sirius se trouve à peu près à la moitié de cette distance. L’immensité de l’espace interstellaire s’imposait.

Parallaxe Mais les étoiles ne brillent

pas toutes exactement comme le Soleil. En 1573, l’astronome britannique Thomas Digges proposa de tenter d’appliquer aux étoiles la méthode de la parallaxe des géographes. La parallaxe est un décalage de l’angle sous lequel on voit un repère alors qu’on est en mouvement par rapport à lui. Si vous vous déplacez dans la campagne, la distance, relevée au compas, jusqu’au sommet d’une colline voisine se modifiera plus vite que celle d’une montagne au loin. Autre exemple : en voiture, les arbres proches disparaissent plus vite derrière nous que ceux qui sont plus éloignés. Les étoiles proches, vues depuis la Terre en train de se déplacer le long de sa trajectoire elliptique autour du Soleil, devraient par conséquent apparaître comme faisant dans le ciel de minuscules allées et venues dont l’étendue dépend de leur distance à la Terre. Les astronomes ont vite cherché à détecter ces déplacements annuels dans la position des étoiles, à la fois pour déterminer à quelle distance elles se trouvent et pour confirmer le modèle héliocentrique du système solaire. Ce faisant, ils ont découvert quelque chose d’autre. En 1674, Robert Hooke publia un article sur un déport de ce type dans la position de γ-Draconis, une étoile très brillante qui passe au-dessus des têtes à la latitude de Londres, ce qui lui avait permis de faire des observations précises à travers un trou spécialement fait dans son toit. En 1680, Jean Picard signala que Polaris, l’Étoile polaire, se déplaçait chaque année sur pas moins de 40 secondes d’arc, ce que John Flamsteed confirma en 1689.

Soleil Parallaxe

James Bradley s’interrogea sur la signification de ces mesures, refit les observations et confirma, en  1725 et 1726, le mouvement saisonnier de γ-Draconis. Mais ces décalages ne ressemblaient pas à ceux dus à la parallaxe : au lieu de différer selon la distance des étoiles, ils allaient tous dans le même sens.

Parallaxe Robert Hooke (1635-1703) Robert Hooke est né en Angleterre, sur l’île de Wight. Fils de vicaire, il fit ses études à Oxford, à Christ Church, travaillant comme assistant du physicien et chimiste Robert Boyle. En 1660, il découvrit la loi sur l’élasticité qui porte son nom et, peu après, fut nommé démonstrateur aux réunions de la Royal Society, l’Académie des sciences britannique. Cinq ans plus tard, il publia Micrographia, où il forgea le terme « cellule » après avoir comparé les cellules végétales à celles d’un monastère. En 1666, Hooke participa à la reconstruction de

Londres après le Grand Incendie, travailla avec Christopher Wren sur la construction de l’Observatoire royal de Greenwich et de l’Hôpital royal de Bethlem (le « Bedlam »). Il est mort à Londres en 1703 et y fut enterré, à St Helen’s Bishopsgate exactement, mais ses restes furent transférés au xixe siècle et l’on ignore où ils se trouvent actuellement. En février 2006, on a retrouvé un exemplaire, perdu depuis longtemps, des notes de Robert Hooke prises aux réunions de la Royal Society ; il est désormais conservé à Londres, à la Royal Society.

«

Il était perplexe. Deux ans plus tard, il comSi j’ai vu plus loin, prit que, de la même façon qu’une girouette accrochée au mât d’un navire tourne quand c’est que j’étais juché sur le bateau change de direction, combinant les les épaules de géants. directions du bateau et du vent, le mouveIsaac Newton ment de la Terre se modifie tandis que nous observons les étoiles : toutes ondulent légèrement pendant que nous tournons autour du Soleil. Cette découverte surprenante, appelée aberration stellaire, confirme en outre la rotation de la Terre autour du Soleil.

»

L’imprécision des instruments fut un obstacle à la découverte de la parallaxe. Les premières mesures couronnées de succès furent réalisées par Friedrich Bessel en 1838 sur l’étoile 61 Cygni. Les étoiles étant très lointaines, leur parallaxe est très petite et difficile à mesurer. Ainsi, l’étoile la plus proche de nous, Proxima Centauri, a une parallaxe inférieure à une seconde d’arc, soit quelque 50 fois plus petite que son aberration. De nos jours, des satellites, tel Hipparcos de l’Agence spatiale européenne, ont permis de mesurer la position précise de 100 000 étoiles proches, la distance de beaucoup d’entre elles s’en déduisant. Pourtant, les parallaxes ne permettent de prendre en compte qu’environ un pour cent de notre galaxie.

l’idée clé En vedette, le déplacement des étoiles

39

40

50 clés pour comprendre l’astronomie

10 L e Grand Débat En 1920, la rencontre de deux esprits planta le décor du plus grand bouleversement dans la vision qu’a l’Homme de l’Univers : l’idée que notre galaxie n’en est qu’une parmi bien d’autres qui parsèment l’espace. Changement de paradigme aussi important que celui qui a fait tourner la Terre autour du Soleil ou celui qui a fait du Soleil l’une des nombreuses étoiles, le Grand Débat clarifia ce qui était à vérifier pour démontrer qu’il existe des galaxies bien au-delà de la Voie lactée. Quelle est la taille de l’Univers ? En 1920, cette question se ramenait à connaître la taille de la Voie lactée. Au cours des siècles précédents, les astronomes avaient fini par admettre l’idée que les étoiles sont des soleils lointains semblables au nôtre, leur configuration formant dans le ciel comme un disque aplati. La projection dans le ciel de ce plan donnait la traînée de la Voie lactée, nom que nous avons donné à notre galaxie. Mais la Voie lactée est plus qu’un ensemble d’étoiles. Elle contient de nombreux nuages flous, les nébuleuses, comme la tache qui se trouve dans la ceinture de la constellation d’Orion, connue sous le nom de nébuleuse de la Tête de cheval en raison de la forme du nuage noir qu’elle contient. La plupart de ces nébuleuses ont des formes irrégulières mais une partie d’entre elles sont elliptiques avec des superpositions de motifs spiraux. Un exemple fameux en est donné par la nébuleuse d’Andromède dans la constellation du même nom. Au sein de la Voie lactée, on trouve aussi des amas d’étoiles, comme les Pléiades, un groupe d’étoiles bleues, enchâssées dans les fils d’un duvet, visibles à l’œil nu. Des amas d’étoiles plus denses parsèment aussi le ciel – dont les amas globulaires, qui sont des boules compactes comprenant des centaines de milliers d’étoiles. On connaît environ 150 amas globulaires dans la Voie lactée.

chronologie

1665

Les amas globulaires sont découverts par l’astronome amateur allemand Abraham Ihle

1784

Découverte des étoiles variables, les céphéides

Le Grand Débat

41

Au début du xxe siècle, les astronomes commencèrent à cartographier les cieux en reconstituant les distributions spatiales de ces objets. Ils recherchaient en particulier la forme de la Voie lactée, réputée contenir tout l’univers connu.

Le débat Le 26 avril 1920, deux grands astronomes américains se retrou-

vèrent face à face pour discuter de la taille de la Voie lactée. Ils se retrouvèrent au Smithsonian Museum of Natural History à Washington à la suite d’une réunion de la United States National Academy of Sciences. Au sein de l’auditoire se trouvaient de nombreux scientifiques éminents, y compris, a-t-on dit, Albert Einstein. On a dit de ce débat qu’il avait précipité un bouleversement dans notre compréhension des échelles dans l’Univers. Le premier à parler fut Harlow Shapley, un jeune et brillant astronome du Mount Wilson Observatory en Californie. Face à lui, un astronome plus confirmé, Heber Curtis, directeur de l’Allegheny Observatory de Pittsburgh en Pennsylvanie. Tous deux présentèrent leurs arguments sur la taille de la Voie lactée en s’appuyant sur les différents critères astronomiques dans lesquels chacun était expert. Shapley avait déterminé la distance d’amas globulaires. Il les avait trouvés bien plus éloignés qu’il ne l’avait pensé, ce qui impliquait que notre galaxie était dix fois plus grande qu’on ne le croyait : quelque 300 000 La galaxie d’Andromède années-lumière de diamètre. Il remarqua aussi qu’il y avait plus d’amas globulaires dans une moitié du ciel que dans l’autre, ce qui signifiait que le Soleil était loin du centre – il l’estimait décalé de 60 000 années-lumière ou à peu près à mi-chemin. Une telle description avait quelque chose de choquant : le Soleil était une étoile moyenne, loin d’être au centre des choses… Cependant, Curtis se concentrait sur un autre problème : la

1789

Herschel dresse la liste des amas globulaires et les nomme

1908

Henrietta Swan Leavitt découvre les propriétés des céphéides qui permettent d’évaluer leur distance

1920

Le grand débat Shapley–Curtis

1924

Hubble détermine la distance de la nébuleuse d’Andromède, bien au-delà de la Voie lactée

42

50 clés pour comprendre l’astronomie

«

Les progrès de la connaissance scientifique ne semblent pas enlever une once de mystère à notre univers pas plus qu’à notre vie intérieure en son sein. J.B.S. Haldane

nature des nébuleuses spirales. Les caractéristiques particulières de ces structures nuageuses lui suggéraient, ainsi qu’à d’autres, qu’il y avait une catégorie d’objets se trouvant au-delà des bords de la Voie lactée. Ce qui concordait avec le petit rayon alors estimé de la Voie lactée.

L’opposition entre les résultats des deux astronomes montrait qu’il y avait un sérieux problème à résoudre ! Les nouvelles mesures de Shapley avaient agrandi la Voie lactée dans de telles proportions que la possibilité que les nébuleuses de Curtis se trouvent en dehors d’elle était remise en question. Néanmoins, ces nébuleuses particulières ne ressemblaient à rien d’autre au sein de la Voie lactée. À l’évidence, il fallait y regarder de plus près.

»

Les arguments Les deux astronomes étayaient leurs idées sur des don-

nées. Shapley s’appuyait sur ses mesures de la distance des amas globulaires, concluant que la Voie lactée était tellement grande que tout ce qu’on voyait dans le ciel nocturne devait y être inclus. Sa technique utilisait une catégorie précise d’étoiles variables dont la période des éclats révélait sa luminosité – il s’agit des étoiles variables céphéides, nommées d’après leur prototype Delta Cephei. Fondamentalement, ces étoiles variables lumineuses se comportent comme des ampoules de lumière de puissance connue et leur distance peut donc être établie. Curtis était plus prudent. Il répliqua que la Voie lactée ne pouvait pas être aussi grande – les distances des céphéides étaient peut-être erronées. Et les propriétés des nébuleuses spirales étaient telles qu’elles devaient se trouver en dehors d’elle. Les nébuleuses spirales se comportaient comme des versions miniatures de notre propre galaxie. Tout comme la Voie lactée, elles contiennent des étoiles en train d’exploser en semblables quantités, elles tournent de façon semblable à la nôtre, elles ont approximativement la même taille et certaines

Années-lumière

L’année-lumière est la distance parcourue par la lumière en un an. La lumière se déplace à environ 300 000 km par seconde. Ainsi, en un an, elle parcourt 10 000 milliards de kilomètres. La Voie lactée a un diamètre d’à peu près 150 000 années-lumière ; la galaxie d’Andromède est à 2,3 millions d’années-lumière.

Le Grand Débat

Unités astronomiques

Les astronomes utilisent aussi une unité de distance, appelée unité astronomique (UA). Historiquement basée sur la distance Terre-Soleil, l’unité astronomique a été définie en 2012 par l’Union astronomique Internationale comme valant exactement 149 597 870,700 km.

possèdent une ligne sombre le long de leur axe le plus grand, ce qui suggère une forme de disque. Elles paraissent être d’autres galaxies, ce qui implique que la nôtre n’est pas la seule. Qui avait raison ? Le débat se soldait par un match nul, sans vainqueur clairement désigné. D’un certain point de vue, tous deux avaient raison… Et tort en fonction d’autres critères. Chacun avait raison en ce qui concerne sa spécialité. Les distances calculées par Shapley étaient en gros correctes. Et le Soleil se trouve bien loin du centre. Mais, plus important, Curtis avait fondamentalement raison en ce que les nébuleuses se trouvent en dehors de notre galaxie : ce sont des « univers-îles ». Cela fut démontré en 1924 par Edwin Hubble qui associa les deux ensembles de preuves. Il mesura à quelle distance se trouvait la nébuleuse d’Andromède – une de nos plus proches galaxies voisines – en se servant, comme Shapley, de céphéides et il découvrit qu’elle se trouvait bien plus loin encore que les amas globulaires. On était vraiment au-delà de la Voie lactée.

Conséquences Bien que le débat ait plus été un échange d’arguments qu’un match de boxe avec une victoire bien nette, il mit en place les questions que les astronomes devaient vérifier. Il fut ainsi un moment clé de la transformation de nos façons de voir les échelles dans l’Univers. Tout comme Copernic chassa la Terre du centre de l’Univers pour y mettre le Soleil, Shapley chassa le Soleil loin du cœur de la Voie lactée. Curtis alla même plus loin et montra que cette dernière n’est ni unique ni particulière : elle n’est qu’une parmi les milliards d’autres galaxies. La place de l’humanité dans l’Univers est décidément précaire…

l’idée clé Le royaume des galaxies

43

44

50 clés pour comprendre l’astronomie

11 L e paradoxe d’Olbers

Pourquoi le ciel nocturne est-il noir ? Si l’Univers était infini et avait existé depuis toujours, il devrait alors être aussi brillant que le Soleil – ce qu’il n’est pas. En scrutant le ciel nocturne, vous avez sous les yeux l’histoire de l’Univers tout entière. Le nombre d’étoiles est fini ce qui a pour conséquence que l’Univers est lui-même fini, de même que son âge. Le paradoxe d’Olbers a ouvert la voie à la cosmologie moderne et au modèle du Big Bang. Peut-être pensez-vous que cartographier l’Univers tout entier ou passer en revue son histoire est chose difficile pour laquelle il faudrait de coûteux satellites dans l’espace, d’énormes télescopes au sommet de montagnes lointaines, ou encore un cerveau comme celui d’Einstein. Mais, en sortant par une nuit claire, vous pouvez faire une observation qui est tout aussi profonde que la Relativité générale : la nuit est noire. Bien que considéré comme allant de soi, le fait qu’elle est noire et non brillante comme le Soleil nous dit beaucoup de choses sur l’Univers.

Lumière d’étoile Si l’Univers était infini, s’étendant à tout jamais dans

toutes les directions, alors, dans quelque direction que nous regardions, nous finirions par voir une étoile. Dans chaque direction, le regard buterait sur la surface d’une étoile. En s’éloignant de la Terre, l’espace serait rempli de toujours plus d’étoiles. Ce serait comme regarder à travers une forêt : à proximité, on peut distinguer des troncs individuels, d’autant plus grands qu’ils sont proches, mais de plus en plus d’arbres lointains rempliraient votre champ de vision. Pour peu que la forêt soit vraiment grande, il vous serait impossible de voir le paysage au-delà. C’est ce qui se produirait si l’Univers était infiniment grand. Quand bien même les étoiles sont plus distantes que ne le sont les arbres, en fin de compte, il y en aurait suffisamment pour boucher complètement votre vue. Si toutes les étoiles étaient comme le Soleil, alors chaque point du ciel serait

chronologie

1610

Kepler s’interroge sur le fait que le ciel nocturne est sombre

Le paradoxe d’Olbers rempli de lumière. Même si une seule étoile lointaine luit faiblement, il y a d’autres d’étoiles à la même distance. En ajoutant leur luminosité, elles fourniraient autant de lumière que le Soleil – et le ciel nocturne dans son ensemble devrait être aussi brillant que le Soleil. À l’évidence, les choses ne sont pas ainsi. Le paradoxe de la nuit noire avait été remarqué par Kepler au xviie  siècle mais il n’a été formulé qu’en 1823 par l’astronome allemand Heinrich Olbers. Les solutions de ce paradoxe sont profondes. Il y a plusieurs explications possibles, chacune recélant des éléments de vérité qui sont aujourd’hui compris, et adoptés, par les astronomes. Néanmoins, il est extraordinaire qu’une observation aussi simple puisse dire autant de choses.

Vision interrompue La première explication est que l’Univers n’est

pas infiniment grand. Il doit s’arrêter quelque part. Il doit donc comporter un nombre fini d’étoiles ce qui fait que certains regards ne rencontrent pas d’étoile. De façon similaire, en vous tenant à la lisière de la forêt, ou dans un petit bois, vous pouvez voir le ciel au-delà. Une autre explication possible pourrait être que les étoiles les plus lointaines sont moins nombreuses et ne s’ajoutent donc pas pour fournir autant de lumière. La lumière se déplaçant à une vitesse précise, celle provenant d’étoiles lointaines met plus de temps à nous atteindre que celle des étoiles plus proches. La lumière du Soleil met huit minutes à nous parvenir, mais il faut quatre ans à celle d’Alpha du Centaure, l’étoile la plus proche de nous et pas moins de 100 000 ans pour la lumière des étoiles situées de l’autre côté de notre propre galaxie. La lumière qui nous vient de la galaxie la plus proche, Andromède, met deux millions d’années à nous atteindre : c’est l’objet le plus lointain que nous pouvons voir à l’œil nu. Aussi, quand nous nous efforçons de voir toujours plus loin dans l’Univers, nous regardons vers le passé et les étoiles lointaines

1832

Olbers formule le paradoxe qui porte son nom

1912

Vesto Slipher mesure le décalage vers le rouge des galaxies

45

46

50 clés pour comprendre l’astronomie

Obscurité

La beauté de la nuit noire devient d’accès difficile à cause du halo de lumière de nos villes. Par une nuit claire, partout, les peuples anciens ont pu lever les yeux sur une épine dorsale lumineuse d’étoiles, étirée à travers les cieux. Même dans les grandes villes, il y a 50  ans, il était possible de voir les étoiles les plus brillantes et la traînée de la Voie lactée. Mais, aujourd’hui, il n’y a pratiquement aucune étoile qui soit visible en ville et, même à la campagne, le spectacle des cieux est délavé par un smog jaune. Le spectacle

qui a inspiré des générations avant la nôtre est en train de s’obscurcir. Les lampes au sodium des réverbères sont les principales coupables, particulièrement celles qui gaspillent la lumière en brillant tant vers le haut que vers le bas. Partout dans le monde, des groupes, telle l’International Dark-Sky Association, dans laquelle on trouve des astronomes, font maintenant campagne pour mettre un frein à la pollution lumineuse afin de préserver la vue que nous avons sur l’Univers.

nous apparaissent plus jeunes que celles qui nous sont proches : leur lumière a voyagé plus longtemps avant de nous atteindre. Cela pourrait nous être d’un certain secours avec le paradoxe d’Olbers si ces étoiles plus jeunes sont aussi plus rares que celles de notre voisinage. Les étoiles semblables au Soleil vivent environ 10 milliards d’années (les plus grosses vivent moins longtemps, les moins grosses plus longtemps) et le fait que les étoiles aient une durée de vie finie pourrait expliquer le paradoxe. Il n’y a pas d’étoiles dans l’Univers primitif parce qu’elles n’ont pas eu le temps de naître. Les étoiles n’ont donc pas existé depuis toujours. Les étoiles distantes peuvent aussi luire plus faiblement que le Soleil à cause du décalage vers le rouge. L’expansion de l’Univers étire les longueurs d’onde rendant plus rouge la lumière qui provient des étoiles lointaines. Ces dernières apparaîtront donc un peu plus froides que nos voisines. Cela peut aussi limiter la quantité de lumière qui nous arrive des confins de l’Univers. Des idées plus farfelues ont été aussi mises en avant, comme la lumière lointaine arrêtée par la suie produite par des civilisations extraterrestres, ou par des aiguilles d’acier, ou encore une étrange poussière grise. Mais toute lumière absorbée aurait été réémise sous forme de chaleur et aurait donc été découverte ailleurs dans le spectre. Les astronomes ont traqué la lumière dans le ciel nocturne à toutes les longueurs d’onde, depuis les fréquences radio jusqu’aux rayons gamma, et ils n’ont rien repéré qui indique que la lumière visible des étoiles est arrêtée.

«

Le paradoxe d’Olbers

Si les étoiles se succédaient sans fin, le fond du ciel s’offrirait à nous comme uniformément lumineux, comme le fait la Galaxie, puisqu’il ne pourrait y avoir absolument aucun point, dans tout cet arrière-plan céleste, sans une étoile. Edgar Allan Poe

»

Un univers grand public Ainsi, le seul fait d’observer que la nuit est noire nous permet de comprendre que l’Univers n’est pas infini. Il n’existe que depuis une durée limitée, sa taille est bornée et ses étoiles n’existent pas de toute éternité. La cosmologie moderne s’appuie sur ces idées. Les étoiles les plus anciennes que nous voyons ont environ 13 milliards d’années, ce qui signifie que l’Univers doit s’être formé auparavant. Le paradoxe d’Olbers suggère que ce ne doit pas être bien avant sinon nous devrions nous attendre à voir de nombreuses générations d’étoiles antérieures, ce qui n’est pas le cas. Les galaxies lointaines sont vraiment plus rouges que les plus proches à cause du décalage vers le rouge, ce qui les rend plus difficiles à voir avec des télescopes optiques et qui confirme que l’Univers est en expansion. Les galaxies les plus lointaines connues aujourd’hui sont si rouges qu’elles sont devenues invisibles et ne peuvent être dénichées qu’aux longueurs d’onde infrarouges. La période durant laquelle les premières étoiles se sont allumées et où les galaxies sont tellement rouges qu’elles disparaissent pratiquement a été surnommée par les astronomes l’« âge sombre » cosmique. Nous voulons découvrir ces premiers objets, comprendre ce qui les a fait se former à l’origine et la façon dont étoiles et galaxies se sont développées en partant de germes minuscules sous l’effet de la gravité. En exprimant son paradoxe, Olbers ne savait pas qu’il posait exactement les questions qui occupent les cosmologues d’aujourd’hui . Et tous ces arguments appuient l’idée du Big Bang, la théorie qui dit que l’Univers est né d’une énorme explosion il y a quelque 14 milliards d’années.

l’idée clé L’Univers est fini

47

48

50 clés pour comprendre l’astronomie

12 L a loi de Hubble L’astronome américain Edwin Hubble fut le premier à se rendre compte que les autres galaxies s’écartent toutes de la nôtre. Plus elles sont éloignées, plus vite elles s’éloignent, en suivant la loi de Hubble. Cette diaspora galactique a constitué la preuve première de l’expansion de l’Univers, une découverte ahurissante qui modifia notre façon de voir ce dernier et d’appréhender son destin. Lorsqu’au xvie siècle Copernic conclut que la Terre tourne autour du Soleil, cela fut accueilli avec consternation : les êtres humains ne demeuraient plus exactement au centre du Cosmos. Mais, dans les années 1920, Hubble réalisa au télescope des mesures encore plus troublantes : il montrait que l’ensemble de l’Univers n’était pas statique mais en expansion. Hubble releva les distances des autres galaxies et leurs vitesses relatives par rapport à notre Voie lactée et découvrit qu’elles nous fuyaient à toute vitesse. Nous étions tellement « cosmiquement » impopulaires que seules quelques voisines se dirigeaient tout doucement vers nous. Plus lointaine était une galaxie, plus vite elle nous fuyait, avec une vitesse proportionnelle à sa distance (loi de Hubble). Le rapport de la vitesse à la distance est toujours le même : c’est la constante de Hubble. Les mesures actuelles des astronomes donnent une valeur proche de 72 km par seconde et par mégaparsec (1 mégaparsec vaut 1 million de parsecs et équivaut à 3 262 000 années-lumière ou 3 × 1 022 m). Les galaxies s’écartent de nous en permanence à cette vitesse.

«

»

L’histoire de l’astronomie est une histoire d’horizons qui s’éloignent. Edwin Hubble

chronologie

1912

Vesto Slipher mesure le décalage vers le rouge des galaxies

1920

Débat entre Shapley et Curtis sur la taille de la Voie lactée

La loi de Hubble Le Grand Débat Avant le

xxe siècle, les astronomes comprenaient tout juste ce qu’était notre propre galaxie, la Voie lactée. Ils avaient effectué des mesures sur des centaines de ses étoiles mais avaient aussi remarqué qu’elle était striée de nombreuses taches floues, les nébuleuses. Certaines d’entre elles étaient des nuages de gaz associés à la naissance et à la mort des étoiles. Mais d’autres paraissaient différentes. Certaines présentaient des spirales ou étaient de forme ovale, ce qui laissait entendre qu’elles étaient plus régulières que des nuages. L’origine de ces nébuleuses fut, en 1920, l’objet d’un débat entre deux célèbres astronomes (voir page 40). Harlow Shapley affirmait que tout, dans le ciel, faisait partie de la Voie lactée ; Heber Curtis avançait que certaines de ces nébuleuses étaient d’autres galaxies, extérieures à la nôtre, la Voie lactée. Hubble montra que les nébuleuses spirales étaient vraiment d’autres galaxies extérieures à la nôtre. L’Univers s’élargissait subitement en une vaste toile.

Hubble utilisa le télescope de 2,50 mètres du Mont Wilson pour faire des mesures sur des étoiles variables de la nébuleuse d’Andromède – dont nous savons aujourd’hui qu’elle est une galaxie spirale très semblable à la Voie lactée et notre sœur dans le groupe de galaxies auxquelles nous sommes liés. Ces étoiles variables, nommées céphéides, sont, aujourd’hui encore, d’inestimables sondes pour les distances : l’intensité des éclats et leur fréquence sont liées à la luminosité intrinsèque de l’étoile si bien qu’une fois connues les variations de ses éclats on connaît sa luminosité et, partant, sa distance puisque la luminosité diminue avec elle. Hubble a ainsi mesuré la distance de la galaxie ­d’Andromède. Celle-ci se trouvait bien plus loin que la taille de la Voie lactée et devait donc être en dehors de notre galaxie. Cela mettait un terme au débat : d’autres galaxies existaient au-delà de la nôtre.

Fuite Hubble s’attaqua

ensuite au relevé des distances de nombreuses autres galaxies. Il découvrit aussi que leur lumière était la plupart du temps décalée vers le rouge, le décalage étant ­fonction de

1922

Publication par Alexander Friedman du modèle du Big Bang

1929

Hubble et Milton Humason découvrent la loi de Hubble

Temps

2001

Le télescope spatial Hubble permet d’obtenir une valeur précise de la constante de Hubble

49

50

50 clés pour comprendre l’astronomie la ­distance. Le décalage vers le rouge est semblable à l’effet Doppler d’un objet en mouvement (voir page 32). Le fait que des fréquences connues de lumière, y compris les raies spectrales, apparaissent toutes plus rouges que ce qu’on est en droit d’attendre signifie que ces galaxies s’éloignent de nous, comme de nombreuses ambulances dont le ton de la sirène baisse quand elles s’éloignent. Il était étrange de constater que toutes les galaxies s’éloignaient quand seul un petit nombre parmi les proches se rapprochaient. Qui plus est, plus on regardait loin, plus vite elles fuyaient. Hubble remarqua aussi que les galaxies ne se contentaient pas de s’éloigner de nous, ce qui aurait fait de l’endroit où nous nous trouvons un lieu très privilégié dans l’Univers. Elles se fuyaient aussi les unes les autres. Il en conclut que l’Univers lui-même était en expansion, comme un gigantesque ballon en train de gonfler : les galaxies sont comme des points sur ce ballon qui s’éloignent les uns des autres à mesure que l’air gonfle ce dernier.

Quelle vitesse, quelle distance ? De nos jours encore, les astronomes utilisent les étoiles variables, les céphéides, pour dresser la carte locale de l’expansion de l’univers. Mesurer avec précision la constante de Hubble a été un objectif majeur. Pour y parvenir, il faut connaître la distance d’un objet et sa vitesse, ou son décalage vers le rouge. Ce dernier peut être directement mesuré à partir des raies spectrales. La fréquence d’une transition atomique particulière peut être comparée à sa longueur d’onde connue, telle que mesurée en laboratoire : la différence fournit le décalage vers le rouge. Il est plus difficile

Le télescope spatial Hubble

Le télescope spatial Hubble est sans doute le satellite d’observation le plus populaire jamais lancé. Ses photographies époustouflantes de nébuleuses, de galaxies lointaines et de disques autour d’étoiles font la une des journaux depuis vingt ans. Lancé en 1990 par la navette spatiale Discovery, l’engin spatial a à peu près la taille d’un bus à impériale : de 13 mètres de long et 4 de large, il pèse 11 tonnes. Il embarque un télescope astronomique de 2,4  mètres de diamètre et un ensemble de caméras et détecteurs électro-

niques capables de prendre des images limpides, aussi bien dans le domaine visible que dans l’ultraviolet ou l’infrarouge. Les performances de Hubble proviennent du fait qu’il se trouve au-dessus de l’atmosphère : ses photos ne sont pas brouillées. Vieilli, son devenir est incertain. Ses instruments ont été mis à jour une dernière fois et, quand la NASA aura achevé son programme, elle pourra récupérer l’engin pour les générations futures ou bien le précipiter de façon sûre dans l’océan. 

«

La loi de Hubble

Plus petites, plus pâles, de plus en plus nombreuses : nous les découvrons, toujours plus loin dans l’espace jusqu’au moment où, avec la nébuleuse la plus blafarde, observée à travers le plus grand télescope, nous parviendrons à la frontière de l’univers connu. Edwin Hubble

»

de déterminer les distances : il faut repérer un objet au loin dans la galaxie dont on connaît exactement ou bien la distance ou bien la luminosité – une « chandelle standard ». Il y a différentes méthodes pour déterminer les distances astronomiques. On peut utiliser les céphéides quand les galaxies sont suffisamment proches pour qu’on puisse distinguer les étoiles individuelles. Mais, pour de plus grandes distances, il faut d’autres méthodes. Toutes les différentes techniques peuvent être regroupées pour construire une gigantesque règle étalon, une échelle de distances. Mais chaque méthode comportant ses spécificités, de nombreuses incertitudes demeurent quant à la précision de l’échelle étendue. La constante de Hubble est maintenant connue avec une précision de l’ordre de 10 %, essentiellement grâce aux observations de galaxies réalisées avec le télescope spatial Hubble et à celles du fond diffus cosmologique. L’expansion de l’univers a commencé avec le Big Bang, l’explosion qui a créé l’Univers, et c’est depuis que les galaxies ont commencé à dériver séparément. La loi de Hubble fixe une limite à l’âge de l’Univers : du fait de son expansion continue, si l’on remonte celle-ci jusqu’à son point de départ, on peut déterminer cet âge – il est d’environ 14 milliards d’années. Le rythme de cette expansion n’est fort heureusement pas suffisant pour que l’Univers vole en éclats. Au lieu de quoi, ce dernier se situe en fin de compte à un point d’équilibre entre l’éclatement complet et le fait de posséder une masse suffisante pour que tout finisse par un effondrement sur lui-même.

l’idée clé L’Univers est en expansion

51

52

50 clés pour comprendre l’astronomie

13 é chelle

des distances cosmiques

Les mesures de différentes distances astronomiques ont conduit à de grands changements de paradigme en astronomie. Nous nous sentons tout petits devant les distances qui nous séparent des étoiles. Le calcul de la taille de la Voie lactée et de l’éloignement des nébuleuses les plus proches nous a ouvert le monde des galaxies. Les échelles sont si vastes qu’aucune méthode ne suffit pour tout l’Univers. L’échelle des distances cosmiques est un patchwork obtenu en mettant bout à bout toute une série de techniques. L’Univers est si grand que mesurer des distances d’un bout à l’autre est un défi. Une règle-étalon adaptée à notre galaxie ne pourrait pas servir aux confins du cosmos. On a donc fait un paquet des différentes techniques, chacune s’appliquant à une échelle différente. Là où les méthodes se chevauchent, celles qui sont adjacentes peuvent être regroupées pour former les barreaux de ce qu’on appelle l’« échelle des distances cosmiques ». Ces barreaux crèvent toutes les frontières à travers l’Univers, permettant de laisser le voisinage de notre système solaire pour aller vers les étoiles les plus proches, de cheminer à travers la Voie lactée vers les autres galaxies, les amas galactiques et les confins de l’univers connu. Le premier barreau est le plus solide. Les étoiles proches peuvent être localisées avec précision en utilisant les calculs trigonométriques de la parallaxe. Tout comme un randonneur repère un sommet lointain sur sa carte en relevant plusieurs fois sa position pendant sa marche, un astronome installé sur la Terre en mouvement peut s’orienter sur une étoile en mesurant ses changements de position par rapport à l’arrière-plan d’étoiles plus lointaines ; le niveau du

chronologie

1784

Découverte des étoiles variables, les céphéides

1918

Calcul d’une échelle de distance à l’aide des céphéides

échelle des distances cosmiques décalage informe l’astronome sur la distance de l’étoile : celles qui sont plus proches se déplacent plus vite que celles qui sont au loin. Mais la distance des étoiles est si grande – la plus proche se trouve à quatre années-lumière – que les décalages sont minuscules et difficiles à mesurer. La parallaxe peut seulement s’appliquer à une partie de la Voie lactée. Pour aller plus loin, il faut de nouvelles méthodes.

Les céphéides Le barreau suivant est fait d’étoiles remarquables. C’est un

peu l’équivalent cosmique d’ampoules électriques de puissance connue, les « chandelles standards » : si vous connaissez exactement la luminosité intrinsèque d’une étoile, vous pouvez déterminer sa distance en mesurant la baisse de cette luminosité due à la distance – elle diminue comme le carré de cette dernière : une étoile qui se trouve deux fois plus loin qu’une étoile identique paraîtra quatre fois moins brillante. Le problème est de connaître la luminosité intrinsèque de l’étoile. Les étoiles se présentent sous diverses formes, tailles, couleurs, depuis les géantes rouges jusqu’aux naines blanches : on ne peut donc pas y parvenir directement. Mais, pour de rares sortes d’étoiles, il y a un moyen. Les étoiles variables, les céphéides, sont des chandelles standard très commodes. Le « nombre de watts » de l’étoile-ampoule, sa luminosité intrinsèque, est donné par le rythme avec lequel elle faiblit. Il suffit alors de comparer la luminosité intrinsèque avec la luminosité apparente dans notre ciel pour connaître la distance où elle se trouve. Les céphéides sont suffisamment

Poussière cosmique Un des problèmes rencontrés dans l’utilisation des chandelles standard pour de grandes distances est que leur lumière peut être tamisée par de la matière interposée. Les galaxies sont pleines de saletés – de nuages de gaz et de suie. Pour peu qu’une étoile ou une supernova se retrouve derrière un nuage bien polluant, elle peut très bien apparaître plus pâle qu’elle ne l’est réellement. Les astronomes tentent de contourner la difficulté en examinant soigneu-

1924

Hubble mesure la distance de la galaxie d’Andromède

1929

sement des traceurs de suie cosmique. Un signe évident est qu’elle change la couleur des étoiles alentour, les révélant plus rouges, comme les couchers de Soleil spectaculaires consécutifs à la saturation en poussières de l’atmosphère terrestre qui a suivi l’éruption volcanique, en 1991, du Pinatubo. Si les astronomes repèrent les indicateurs de poussière, ils peuvent en conséquence effectuer les corrections nécessaires dans les mesures de luminosité.

Hubble mesure l’expansion cosmique

1998

Les données sur les supernovae indiquent l’existence de l’énergie noire

53

54

50 clés pour comprendre l’astronomie ­ rillantes pour qu’on puisse les voir dans toute la Voie lactée et même au-delà, b dans d’autres galaxies. Voilà pourquoi on peut se servir d’elles pour scruter le voisinage de notre galaxie.

Supernovae Pour aller plus loin, il faut des chandelles standards encore plus

brillantes. Les plus brillantes des étoiles sont les supernovae, soleils agonisant dans une explosion effroyable. Une classe particulière, désignée comme étant de type 1a, est particulièrement intéressante et peut être décelée sur d’assez grandes étendues de l’Univers. La luminosité exacte d’une supernova de type 1a peut être déterminée par le rythme de son explosion – elle flamboie avant de s’éteindre. Une supernova est un événement rare – à peu près une tous les cinquante ans pour une galaxie de la taille de la Voie lactée –, aussi est-ce à des distances cosmiques qu’on utilise le plus de tels phénomènes : on y trouve de nombreuses galaxies, ce qui augmente les chances d’en voir une pendant une carrière d’astronome. Les supernovae des galaxies lointaines ont montré que l’expansion de l’Univers est affectée par un composant mystérieux appelé énergie noire – une sorte de terme anti-gravité dans les équations de la Relativité générale (voir page 92).

Décalage vers le rouge Aux échelles cosmiques, on utilise davantage

le décalage vers le rouge des raies spectrales comme marqueur des distances. Selon la loi de Hubble, plus une galaxie est lointaine, plus vite elle s’éloigne de nous du fait de l’expansion de l’Univers et plus important est le décalage vers le rouge de ses spectres d’émission et d’absorption chimiques. Mais, comme il indique seulement la vitesse brute globale d’une galaxie, un décalage vers le rouge peut être perturbé par le mouvement d’objets locaux. C’est pourquoi le

Étoiles proches

Voie lactée

Galaxies voisines

Amas galactiques

Système

Énergie radar utilisable à moins d’1 année-lumière

Naines blanches Parallaxe Supernovae utilisable à Position sur moins de Céphéides la séquence Critères de distance 100 parsecs utilisables à principale utilisables à moins (pc) utilisable à moins moins de 15 millions de pc de 200 millions de pc de 10 000 pc

Loi de Hubble utilisable au-delà de 150 millions de pc

échelle des distances cosmiques décalage vers le rouge est un bon indicateur de vitesses approximatives, mais est moins efficace pour déterminer les distances avec précision ainsi qu’au niveau local, là où les mouvements intrinsèques peuvent avoir une vitesse du même ordre que la vitesse d’expansion universelle. Aujourd’hui, on voit des galaxies dans une zone couvrant à peu près 80 % de l’Univers. Chaque année, les astronomes cherchent à améliorer ce résultat.

Méthodes statistiques Une gamme d’autres méthodes a été essayée.

Certaines sont géométriques, des « règles graduées » permettant de faire des comparaisons et dont la longueur exacte peut être déterminée en appliquant les théories physiques élémentaires aux échelles mesurées dans le ciel. Cela inclut les distances moyennes entre amas galactiques et les tailles caractéristiques des zones chaudes et froides dans le fonds diffus cosmologique.

Les méthodes statistiques donnent aussi des résultats. On connaît bien les cycles de vie des étoiles et certaines phases peuvent donc être utilisées comme indicateurs. De la même manière qu’une céphéide révèle une distance par sa luminosité et sa période, faire des moyennes statistiques peut permettre de pointer des changements clés dans la luminosité et la couleur de populations de milliers d’étoiles. Une autre technique utilisée pour déterminer la distance des galaxies revient à observer à quel point elles paraissent floues : une galaxie faite de milliards d’étoiles semble granulaire vue de près et plus lisse vue de loin, le grain des étoiles individuelles s’estompant. L’échelle des distances cosmiques repose sur des bases solides mais devient plus bancale à mesure que l’on s’éloigne dans l’espace. Mais l’immensité de l’espace fait que cela n’a pas une trop grande importance. Des étoiles les plus proches situées à quelques années-lumière aux confins de la Voie lactée, à 100 000  années-lumière, les distances sont bien connues. L’expansion cosmique met tout par terre au-delà de notre groupe local de galaxies, à plus de 10 millions d’années-lumière, et les distances deviennent plus difficiles à interpréter. Cependant, les chandelles standards ont permis non seulement de confirmer que notre univers est en expansion mais de montrer l’existence de l’énergie noire et ont mis l’ensemble en relation avec la physique fondamentale de l’Univers primitif. En fin de compte, tout cela n’est pas forcément si bancal !

l’idée clé Un patchwork d’échelles

55

56

50 clés pour comprendre l’astronomie

14 L e Big Bang La naissance de l’Univers s’est produite dans une explosion phénoménale qui a créé tout à la fois l’espace, la matière et le temps tels que nous les connaissons. Prédit par les mathématiques de la Relativité générale, le Big Bang est confirmé par la fuite précipitée des galaxies, les quantités d’éléments légers présents dans l’Univers et la lueur diffuse aux fréquences des micro-ondes qui emplit tout le ciel. Le Big Bang est l’explosion primordiale, la naissance de l’Univers. Tout autour de nous, nous trouvons des signes qui montrent que notre univers est en expansion, ce qui implique qu’il doit avoir été plus petit et plus chaud dans le passé. La conclusion logique en est que le cosmos tout entier serait issu d’un point unique. Au moment de l’embrasement, l’espace, le temps et la matière ont été créés tout à la fois dans l’éclair cosmique. Très lentement, pendant près de 14 milliards d’années, ce nuage chaud et dense a gonflé, s’est refroidi et a fini par se morceler pour créer étoiles et galaxies qui, aujourd’hui, parsèment le ciel.

Ce n’est pas drôle L’expression « Big Bang » elle-même a été tournée en

ridicule. L’éminent astronome anglais Fred Hoyle trouvait grotesque l’idée que l’Univers dans son ensemble puisse avoir grossi à partir d’un germe unique. Dans une série de conférences dont la diffusion commença en 1949, il railla comme farfelu le fait que le mathématicien belge Georges Lemaître eut trouvé une solution de ce type dans les équations de la Relativité générale d’Einstein. Hoyle préférait plutôt croire en une vision plus durable du cosmos. Dans son univers perpétuellement stationnaire, matière et espace étaient sans cesse créés et détruits et auraient donc pu exister depuis toujours. Malgré tout, les indices s’amoncelaient et, dans les années 1960, la description statique de Hoyle dut céder la place, le poids des preuves ayant fait pencher la balance vers le Big Bang.

chronologie

1927

Friedmann et Lemaître conçoivent la théorie du Big Bang

1929

Hubble découvre l’expansion de l’Univers

«

Le Big Bang

L’Univers en expansion Trois L’Univers obéit observations fondamentales sont à la à un plan cohérent base du succès du modèle du Big Bang. bien que je ne sache La première est celle qu’a faite Edwin pas où il mène. Hubble dans les années 1920 : la plupart des galaxies fuient la nôtre. Vues de loin, Fred Hoyle toutes les galaxies se fuient les unes les autres comme si la fabrique de l’espacetemps était en train de gonfler et de s’étirer selon la loi de Hubble. Une conséquence de cet étirement est que la lumière met légèrement plus longtemps à nous atteindre en traversant notre univers que si, dans ce dernier, les distances étaient fixes. Cet effet se traduit par un décalage dans la fréquence de la lumière appelé « décalage vers le rouge » du fait que la lumière reçue est plus rouge que lorsqu’elle a été émise par une étoile lointaine ou une galaxie. De ces décalages, on peut déduire les distances astronomiques.

»

Éléments légers Pour remonter le temps jusqu’aux premières heures de notre univers naissant, juste après le Big Bang, imaginons que tout était comprimé dans un chaudron brûlant. Durant les premières secondes, l’Univers était si chaud et dense que même les atomes n’étaient pas stables. Alors qu’il grossissait et refroidissait, une soupe de particules apparut, remplie de quarks, gluons et autres particules fondamentales. Une minute plus tard, les quarks s’assemblaient pour former protons et neutrons. Puis, avant que trois minutes fussent passées, la chimie cosmique regroupa protons et neutrons en différentes combinaisons pour former les noyaux atomiques d’autres éléments que l’hydrogène par fusion nucléaire. Une fois l’Univers refroidi en dessous de la température de fusion, aucun élément plus lourd que le béryllium ne put être fabriqué. C’est ainsi que l’Univers primordial fut inondé de noyaux d’hydrogène, d’hélium, de traces de deutérium (hydrogène lourd), de lithium et de béryllium créés par le Big Bang.

Dans les années 1940, Ralph Alpher et George Gamow calculèrent les proportions d’éléments légers produits par le Big Bang et ce tableau a été confirmé dans ses grandes lignes, y compris par les plus récentes mesures faites sur les étoiles à combustion lente et les nuages de gaz primitifs de notre Voie lactée.

1948

Prédiction de l’existence du fonds diffus cosmologique Les éléments de la nucléosynthèse primordiale sont calculés par Alpher et Gamow

1949

Hoyle forge l’expression Big Bang

1965

Penzias et Wilson détectent le fond diffus cosmologique

1992

Le satellite COBE cartographie le fond diffus cosmologique

57

58

50 clés pour comprendre l’astronomie Lueur aux fréquences des micro-ondes Un autre pilier de la théorie du Big Bang est la découverte, en 1965, de l’écho affaibli du Big Bang lui-même. Arno Penzias et Robert Wilson travaillaient sur un récepteur radio aux laboratoires Bell dans le New Jersey quand ils furent intrigués par un signal faible dont ils ne pouvaient pas se débarrasser. Il semblait provenir, dans toutes les directions du ciel, d’une source de micro-ondes, l’équivalent de quelque chose comme quelques degrés de température. Ils étaient tombés par hasard sur le fond diffus cosmologique, une mer de photons abandonnés par le tout jeune et brûlant univers. Dans la théorie du Big Bang, l’existence de ce fond diffus avait été prédite en 1948 par George Gamow, Ralph Alpher et Robert Hermann. Bien que les noyaux aient été synthétisés pendant les trois premières minutes, les atomes ne se sont pas formés avant 400 000 ans. En fin de compte, des électrons de charge négative s’associèrent avec les noyaux de charge positive pour former les atomes d’hydrogène et les éléments légers. Le dégagement des particules chargées, qui dispersent la lumière et font obstacle à son cheminement, a dissipé le brouillard et rendu l’Univers transparent. De là, la lumière a pu circuler librement, nous autorisant à regarder en arrière aussi loin. Bien que le brouillard originel fût, à l’origine, chaud – quelque 3 000 K (3 000 degrés au-dessus du zéro absolu) –, l’expansion de l’Univers a décalé vers le rouge sa lueur dont la température nous paraît aujourd’hui être inférieure à 3 K, ce que Penzias et Wilson avaient trouvé. Les trois principaux piliers de la théorie du Big Bang ont résisté jusqu’à aujourd’hui. Voilà pourquoi cette dernière est aujourd’hui largement acceptée par la plupart des astrophysiciens. Une poignée en reste toujours à la théorie de l’Univers stationnaire qui avait séduit Fred Hoyle mais il est difficile d’intégrer toutes ces observations dans tout autre modèle.

Destin et passé Qu’y avait-il avant le Big Bang ? L’espace-temps étant une conséquence du Big Bang, la question n’est pas très pertinente – un peu comme si l’on demandait : « Où la Terre commence-t-elle ? » ou « Qu’y a-t-il au nord du Pôle Nord ? » Cependant, les spécialistes de physique mathématique tentent de se figurer le déclenchement du Big Bang dans un espace multidimensionnel (souvent à 11 dimensions) à travers les mathématiques de la théorie M et de la théorie des cordes. Ils étudient la physique et les énergies des cordes et des membranes dans cet espace en y incorporant des concepts venant de la physique des particules et de la mécanique quantique pour essayer de comprendre comment un tel événement a pu se déclencher. En faisant des parallèles avec des idées de physique quantique, certains cosmologistes supputent aussi l’existence d’univers parallèles.

Le Big Bang

Chronologie du Big Bang

13,7 milliards d’années (après le Big Bang) : aujourd’hui (température T = 2,726 K) 200  millions d’années : réionisation ; la chaleur des premières étoiles ionise l’hydrogène (T = 50 K) 380 000 ans : recombinaison ; le refroidissement de l’hydrogène gazeux permet la formation de molécules 10 000 ans : fin de l’ère de domination du rayonnement (T = 12 000 K) 1 000 secondes : désintégration des neutrons isolés (T = 500 millions de K) 180 secondes : nucléosynthèse ; formation de l’hélium et d’autres éléments à partir de l’hydrogène (T = 1 milliard de kelvins)

10 secondes : annihilation des paires électrons-positrons (T = 5 milliards de kelvins) 1 seconde  : découplage des neutrinos (T = 10 milliards de kelvins) 100 microsecondes : annihilation des pions (T = 1 000 milliards de kelvins) 50 microsecondes : transition de phase QCD ; confinement des quarks en neutrons et protons (T = 2 000 milliards de kelvins) 10 picosecondes : transition de phase électrofaible ; interactions électromagnétique et faible se différencient (T =  1 à 2  millions de milliards de kelvins) Avant cette époque, la température était si élevée que nous ne sommes pas sûrs de nos connaissances…

Dans le modèle du Big Bang, l’Univers évolue, contrairement à ce qui se passe dans le modèle stationnaire. Le devenir du cosmos est en grande partie dicté par l’équilibre entre la matière qui, à travers la gravité, tend à le contracter et d’autres forces physiques qui poussent à son éclatement, y compris l’expansion de l’Univers. Si la gravité l’emporte, alors l’expansion de l’Univers finira par s’arrêter et ce dernier pourrait achever son existence dans un effondrement sur lui-même – un Big Bang à l’envers connu sous le nom de Big Crunch, le grand effondrement. Des univers pourraient suivre de nombreux cycles naissancemort de ce type. À l’inverse, si ce sont l’expansion et les autres forces répulsives (telle l’énergie noire) qui l’emportent, elles finiront par mettre en pièces tout lien entre étoiles, galaxies, planètes et notre univers pourrait connaître comme fin un désert sombre de trous noirs et de particules, un Big Chill, le grand gel. Enfin, il y a le « Goldilocks universe », un Univers Boucle d’Or, où forces attractives et répulsives sont en équilibre et où l’Univers poursuit son expansion à jamais, mais à un rythme qui va ralentissant. C’est la fin que la cosmologie moderne présente comme la plus probable. Nous vivons dans un univers juste comme il faut.

l’idée clé L’explosion primordiale

59

60

50 clés pour comprendre l’astronomie

15 F ond diffus

cosmologique

La découverte du fond diffus cosmologique a consolidé la théorie du Big Bang. Née dans la chaleur de l’Univers primordial, cette mer de faible rayonnement électromagnétique a pour origine les photons libérés il y a plus de 13 milliards d’années, quand l’espace devint transparent au moment de la formation des atomes d’hydrogène. En 1965, Arno Penzias et Robert Wilson découvrirent une lueur chaude inattendue dans le ciel. Alors qu’ils travaillaient aux laboratoires Bell, dans le New Jersey, sur une antenne radio dans le domaine des micro-ondes, ils enregistrèrent un signal faible provenant de toutes les directions et dont ils ne parvenaient pas à se débarrasser. Ils crurent d’abord qu’il s’agissait de quelque chose de banal – peut-être dû à de la fiente de pigeons obstruant le capteur. Après avoir entendu un exposé de Robert Dicke, un théoricien de la physique de Princeton, ils comprirent que le hasard les avait fait tomber sur quelque chose d’énorme : le bain de chaleur qu’ils avaient détecté ne provenait pas de la Terre mais avait une origine cosmique. Le rayonnement qu’ils avaient détecté représentait, conformément aux prévisions, les dernières lueurs du Big Bang. Dicke, qui avait construit une antenne similaire pour rechercher ce rayonnement, exultait un peu moins : « Les gars, nous avons été doublés », conclut-il de façon sarcastique.

Lueur chaude Le fond diffus cosmologique fait apparaître le ciel tout

entier comme un bain de chaleur d’une température d’environ 3 kelvins (3 °C au-dessus du zéro absolu). Ses caractéristiques sont exactement celles prédites par la physique de la théorie du Big Bang. Jeune, l’Univers était très chaud, atteignant des températures de plusieurs milliers de kelvins. Mais, au cours de son expansion, il s’est refroidi et devrait être aujourd’hui de 2,73 K – ce qui est ce que Penzias et Wilson avaient trouvé.

chronologie

1901

Max Planck explique le rayonnement de corps noir à l’aide des quanta

1948

La théorie de Ralph Alpher et Robert Herman prédit un fond cosmique à la température de 5 K

Fond diffus cosmologique

«

»

Le fond diffus cosmologique est la Le changement source dont la température est le est rarement agréable. mieux définie. Rien de ce qu’a pu fabriquer l’homme dans un laboratoire Arno Penzias n’a fait mieux. Le ciel émet des microondes sur une gamme de fréquences qui atteint son maximum autour de 160,2 GHz (soit une longueur d’onde de 1,9 mm). C’est un parfait exemple de « spectre de corps noir » – une échelle de fréquences caractéristiques émises par quelque chose qui absorbe et émet parfaitement la chaleur, comme une poêle d’un noir mat. En 1990, le satellite de la NASA Cosmic Background Exporer (COBE) montra que le fond diffus cosmologique offrait le plus parfait exemple jamais vu de spectre de corps noir, bien qu’il soit bien plus froid qu’un tisonnier chauffé au rouge.

Dipôle Quand on le regarde attentivement, le ciel n’est pas partout à la même température. Les micro-ondes apparaissent plus chaudes de 2,5 milli-kelvins dans un hémisphère, soit un rapport de 1 pour 1 000. Cette configuration de la chaleur, découverte peu après celle du fond cosmologique lui-même, est appelée « dipôle », à cause du fait qu’elle présente deux pôles, un chaud et un froid. Cette différence de température provient, par effet Doppler, du mouvement de la Terre : le système solaire se déplace à la vitesse de 600 km/s par rapport à l’Univers. Si l’on regarde de plus près encore, à un niveau de détail un million de fois plus précis, le ciel est tacheté de points chauds et froids. Ces rides présentent un grand intérêt pour les astronomes parce qu’elles ont été imprimées dans le ciel peu après le Big Bang. C’est en 1992 qu’elles ont été détectées pour la première fois par le satellite COBE qui a révélé de nombreuses taches de la taille de la pleine Lune. En 2003, une carte plus détaillée a été dressée par le satellite Wilkinson Microwave Anisotropy Probe (WMAP) qui montra que ces taches étaient elles-mêmes morcelées. Les observations les plus détaillées et les

1965

Penzias et Wilson observent le fond diffus cosmologique

1990

Le satellite COBE de la NASA permet de réaliser des mesures précises de la température du fond cosmologique

WMAP

COBE

1992

Le satellite COBE découvre des écarts de température dans le fond diffus cosmologique

2009

Lancement par l’Agence spatiale européenne du satellite Planck

61

62

50 clés pour comprendre l’astronomie plus précises du fond diffus cosmologique sont à porter au crédit de la sonde Planck de l’Agence spatiale Européenne en opération de 2009 à 2013.

Rides Ces rides du fond diffus cosmologique sont apparues quand l’Univers

était extrêmement chaud. Après le Big Bang, le cosmos se dilata et refroidit ; photons, particules subatomiques et, en fin de compte, protons et électrons se formèrent. Les noyaux des premiers éléments légers – hydrogène et de petites quantités d’hélium et de lithium – furent créés pendant les trois premières minutes. À ce moment-là, l’Univers était une soupe de protons et d’électrons filant dans tous les sens. Ces particules étaient ionisées, les protons possédant une charge positive et les électrons une charge négative. Les photons rebondissaient sur les particules chargées : l’Univers très jeune était un brouillard épais.

Puis l’Univers a refroidi. Protons et électrons se déplacèrent plus lentement et, 400 000 ans après, ils finirent par se lier pour former les atomes d’hydrogène. Plus tard encore, les particules chargées se groupèrent peu à peu, modifiant la nature de la soupe cosmique qui, de ionisée, devient neutre : l’Univers devint alors une mer d’hydrogène. Une fois les particules chargées résorbées, les photons purent circuler librement : la vue se dégagea d’un seul coup. Ce sont précisément ces photons, encore plus refroidis, qui composent le fond diffus cosmologique. À ce

Rayonnement de corps noir

Le charbon du barbecue ou les anneaux d’une plaque électrique deviennent rouge, orange puis jaune à mesure que leur température monte jusqu’à atteindre quelques centaines de degrés Celsius. Le filament de tungstène d’une ampoule électrique devient blanc lorsqu’il atteint 3 000  °C, température du même ordre que la surface d’une étoile. Lorsque la température augmente, les corps chauds émettent une lueur, d’abord rouge, puis orange et, finalement, bleue-blanche. Cet éventail de couleurs est qualifié de rayonnement de corps noir parce que les matériaux sombres sont les plus aptes à rayonner ou absorber la chaleur. Les physiciens du xixe siècle avaient du mal à expliquer cette configura-

tion qui ne dépendait pas du matériau testé. Wilhelm Wien, Lord Rayleigh et James Jeans mirent au point des solutions partielles. Mais celle de Rayleigh et de Jeans posait problème en ce qu’elle prédisait qu’une quantité infinie d’énergie serait libérée aux longueurs d’onde de l’ultraviolet et au-delà : c’était la « catastrophe ultraviolette ». C’est Max Planck qui résolut la question en 1901 en combinant la physique de la chaleur et celle de la lumière, divisant l’énergie électromagnétique en un ensemble de minuscules unités subatomiques du champ électromagnétique appelées « quanta ». L’idée de Planck fut le germe à partir duquel se développa un des domaines les plus importants de la physique moderne : la théorie quantique.

«

Fond diffus cosmologique

Découvertes et connaissances scientifiques sont la récompense de ceux qui ont mené leur quête sans aucun but pratique. Max Planck

»

moment-là, le décalage vers le rouge se situant autour de z = 1 000, la température de l’Univers était d’environ 3 000 K. Elle est maintenant 1 000 fois plus froide, autour de 3 K.

Paysage cosmique Les taches chaudes et froides qui parsèment ce bain de photons viennent de la matière de l’Univers. Certaines portions de l’espace contenaient davantage de matière que d’autres et les photons qui les traversaient furent ralentis de façon légèrement différente selon le chemin emprunté. Les motifs précis des rides de micro-ondes nous fournissent beaucoup d’informations sur les inégalités de distribution de la matière bien avant la formation de toute étoile ou galaxie. L’échelle caractéristique des points chauds est aussi parlante. La taille la plus répandue se situe autour d’un degré dans le ciel, deux fois le diamètre de la pleine Lune. C’est exactement ce que la théorie avait prédit en observant la répartition de la matière aujourd’hui et en effectuant une projection dans le passé en tenant compte de l’expansion de l’Univers. Ce jeu pratiquement égal entre échelles prévues et observées implique que la lumière doit voyager en ligne droite à travers l’Univers : les astronomes disent que l’Univers est « plat » parce que les rayons ne doivent pas s’incliner ou se courber à cause de distorsions de l’espace-temps. Par-dessus tout, l’histoire du fond diffus cosmologique a été un triomphe pour les théoriciens : jusqu’à maintenant, ils ont prédit ses caractéristiques presque à la lettre. Mais il reste une chance que les observations fournissent des distorsions porteuses d’une nouvelle physique : à partir des données sur les points chauds relevées par le satellite Planck ; ou encore à partir des signatures polarimétriques provenant d’expériences en cours menées au Pôle Sud, sur des ballons avec des radiotélescopes spécialisés embarqués.

l’idée clé Le bain chaud de photons de l’Univers

63

64

50 clés pour comprendre l’astronomie

16 B  ig Bang

et nucléosynthèse

Durant ses premières minutes, l’Univers jeune et chaud a créé les éléments les plus légers dans des proportions qui confirment les prédictions de la théorie du Big Bang. Les quantités d’hélium, de lithium et de deutérium détectées aujourd’hui dans les régions primitives de l’espace sont, en gros, celles prévues – ce qui explique pourquoi ces éléments sont, de manière surprenante, si répandus dans les étoiles. Mais la faible quantité de deutérium montre que l’Univers est rempli de formes exotiques de matière. Une observation fondamentale qui étaye la théorie du Big Bang est l’abondance d’éléments légers dans l’Univers. Les réactions nucléaires qui se sont déroulées dans la phase brûlante du Big Bang ont mijoté les quelques noyaux atomiques initiaux dans des proportions précises. Les noyaux plus lourds se sont formés plus tard, en brûlant ces combustibles initiaux au cœur des étoiles. C’est l’hydrogène qui est l’élément le plus abondant de l’Univers et le plus important sous-produit du Big Bang. C’est aussi l’élément le plus simple : un unique proton autour duquel tourne un électron. On le trouve parfois sous une forme plus lourde, appelée deutérium, qui se présente comme un atome ordinaire d’hydrogène auquel on a ajouté un neutron, ce qui le rend deux fois plus lourd. Une forme plus rare est le tritium, avec un second neutron. L’élément suivant est l’hélium, fait de deux protons, deux neutrons et deux électrons ; puis vient le lithium avec trois protons, la plupart du temps quatre neutrons, et trois électrons. Tous ces éléments ont été créés dans l’Univers primordial dans un processus appelé nucléosynthèse.

chronologie

1920

Arthur Eddington suggère que les étoiles sont le siège de réactions de fusion

Big Bang et nucléosynthèse

L’article d’Alpher, Bethe et Gamow

La théorie de la nucléosynthèse primordiale a été avancée dans un article paru en 1948 et qui avait une touche farfelue. Bien que ses fondements aient été initialement mis au point par Ralph Alpher et George Gamow, ces derniers ont demandé à Hans Bethe de les rejoindre, leurs trois noms de famille rappelant les trois premières lettres de l’alphabet grec – alpha, bêta, gamma. L’article fait toujours rire dans les milieux de physiciens.

Cuisine au gaz Immédiatement après le Big Bang, l’Univers était si chaud

qu’il n’était que soupe bouillante de particules fondamentales. Tandis qu’il se dilatait et refroidissait, différentes particules apparurent, finissant par produire les protons, neutrons et électrons, ces particules familières qui constituent tous les objets de notre monde. Quand l’Univers n’était vieux que de trois minutes, sa température d’un milliard de degrés était appropriée pour que se créent les noyaux des éléments les plus légers. Protons et neutrons pouvaient entrer en collision et se lier pour former le deutérium dont les noyaux avaient aussi la possibilité de se grouper pour former de l’hélium. De petites quantités de tritium pouvaient également apparaître, de même qu’un peu de lithium – dont le noyau était en mesure de se former par adjonction de deux noyaux de deutérium à un de tritium.

«

En admettant qu’un certain nombre de J’ai un petit proverbe : protons et de neutrons aient été dispoquand tout devient trop nibles dans cet univers primordial brûlant lourd, appelez-moi hélium, pour servir d’ingrédients à cette cuisine le gaz le plus léger cosmique, on peut prédire les proportions connu de l’homme. de chaque élément à partir des recettes de réactions nucléaires. Environ un quart Jimi Hendrix de la masse de la matière originelle pour former de l­’hélium, seulement 0,01  % pour le deutérium et encore moins pour le lithium. Le reste de l’hydrogène a subsisté en tant que tel. Et, en effet, ces proportions sont bien celles que nous voyons aujourd’hui, ce qui constitue un renfort de poids pour le modèle du Big Bang.

1948

Publication de l’article d’Alpher, Bethe et Gamow sur la nucléosynthèse primordiale

1946/54

Fred Hoyle explique la production d’éléments plus lourds

»

1957

Geoffrey et Margaret Burbidge, William Fowler et Fred Hoyle publient leur célèbre article sur la nucléosynthèse dans les étoiles

65

66

50 clés pour comprendre l’astronomie Deuterium

Tritium

Casse-tête élémentaires La théorie de la

nucléosynthèse, mise au point par les physiciens Ralph Alpher, Hans Bethe et George Gamow dans les années 1940, a fait plus qu’étayer le Big Bang. Elle a résolu les problèmes qui avaient surgi en comparant les quantités d’éléments légers présents dans les étoiles telles qu’elles étaient prévues par la théorie et telles qu’elles étaient mesurées. On savait depuis des années qu’on trouvait davantage d’hélium et, surtout, de deutérium que ne pouvaient l’expliquer les modèles stellaires de ce temps. Les éléments lourds sont fabriqués progressivement dans les étoiles par Hélium fusion nucléaire. L’hydrogène brûle pour former de Neutron l’hélium et d’autres réactions en chaîne fournissent du carbone, de l’azote, de l’oxygène et toute une gamme d’autres éléments. Mais l’hélium n’est créé que lentement et il faut une grande partie de la vie d’une étoile pour en produire une quantité notable. Quant au deutérium, il ne peut pas résulter du processus normal de fusion dans les étoiles : il ne peut qu’être détruit dans l’atmosphère stellaire. Mais, en ajoutant les quantités supplémentaires créées par le Big Bang, mathématiquement, ça tombait juste. Pour mesurer les proportions primordiales d’éléments légers, les astronomes pointent leurs instruments vers les régions les plus anciennes de l’Univers. Ils recherchent de vieilles étoiles à combustion lente dont le fonctionnement n’est pas perturbé par la production et le recyclage d’éléments postérieurs plus lourds. Ou alors, ils recherchent d’antiques nuages gazeux qui se sont peu modifiés depuis les premiers temps de l’Univers. Perdus dans de lointaines régions de l’espace intergalactique, loin des agents polluants galactiques, on peut détecter de tels nuages par le fait qu’ils absorbent la lumière provenant d’objets lointains comme les quasars brillants. L’empreinte spectrale du nuage de gaz nous donne alors sa composition chimique.

«

»

Les choses sont ce qu’elles sont parce qu’elles ont été ce qu’elles ont été. Fred Hoyle

Big Bang et nucléosynthèse Hans Bethe (1906-2005) Né à Strasbourg, en Alsace-Lorraine, Hans Bethe étudia et enseigna la physique théorique dans les universités de Francfort, Munich et Tübingen. À l’arrivée au pouvoir des nazis en 1933, il perdit son poste universitaire et émigra d’abord en Angleterre puis, en 1935, à l’université Cornell, aux États-Unis. Pendant la Deuxième Guerre mondiale, il dirigea le Département théorique du laboratoire de Los Alamos où il effectua des calculs déterminants pour l’élaboration de la première bombe atomique. Homme de science prolifique, Bethe travailla sur de nombreux

problèmes de physique. Il reçut le prix Nobel pour sa théorie de la nucléosynthèse stellaire et s’attaqua aussi à d’autres parties de l’astrophysique nucléaire et des particules. Plus tard, il fit campagne, avec Albert Einstein, contre les essais d’armes nucléaires. Il influa sur la Maison Blanche pour l’interdiction des essais nucléaires atmosphériques et la signature, en 1972, du traité anti missiles balistiques SALT I. Freeman Dyson appela Bethe « le plus grand solutionneur de problèmes » du xxe siècle.

Mesure de la matière La quantité de deutérium créée dans le Big Bang est une mesure particulièrement précieuse. Le deutérium ne se forme que dans des réactions nucléaires inhabituelles ; aussi son abondance dépend-elle étroitement du nombre original de protons et neutrons présents dans le jeune univers. Le fait que le deutérium soit si rare entraîne que la densité de ces premiers nucléons était faible, trop faible pour pouvoir affirmer que tout, dans l’Univers, vient de là. Il faut aussi la présence d’autres formes exotiques de matière. Les observations récentes de galaxies, d’amas galactiques et du fond diffus cosmologique nous font soupçonner qu’on y trouve d’autres sortes de matière qui sont faites d’autre chose que de protons et de neutrons. La matière exotique est « sombre » et ne luit pas. Elle représente la majorité de la masse de l’Univers. Elle pourrait être faite de particules inhabituelles, tels les neutrinos, voire de trous noirs. Les quantités d’éléments légers indiquent que la matière ordinaire ne représente qu’une toute petite partie de la masse totale de l’Univers.

l’idée clé Les premiers éléments légers

67

68

50 clés pour comprendre l’astronomie

17 Antimatière Les vaisseaux spatiaux de la science-fiction sont souvent propulsés à l’antimatière. Mais l’antimatière existe bel et bien et elle a été produite artificiellement sur Terre. Image en miroir de la matière dotée d’une énergie négative, l’antimatière ne peut pas longtemps coexister avec la matière – si elles entrent en contact, elles s’annihilent dans un éclair d’énergie. Le fait que l’Univers est plein de matière implique que l’antimatière est rare et renvoie à un déséquilibre pendant le Big Bang. En marchant dans la rue, vous rencontrez une réplique de vous-même. C’est votre jumeau d’antimatière. Allez-vous vous serrer la main ? L’existence de l’antimatière a été prédite dans les années 1920 et découverte expérimentalement dans les années 1930. C’est une image en miroir de la matière dans laquelle charges, énergie et autres propriétés physiques changent de signe. Ainsi, un anti-électron – on dit un positron – a la même masse que l’électron mais possède une charge positive. De même, les protons et autres particules ont leurs jumeaux d’antimatière.

Énergie négative En élaborant une équation pour l’électron en 1928, le

physicien britannique Paul Dirac remarqua qu’elle laissait la possibilité que les électrons aient une énergie négative aussi bien que positive. De la même façon que l’équation x ² = 4 possède les solutions x  = 2 et x = − 2, Dirac avait deux façons de résoudre le problème : l’énergie positive était le résultat escompté, associé à un électron normal, mais le concept d’énergie négative était dénué de sens. Ou alors, plutôt qu’ignorer ce terme embarrassant, suggérer que de telles particules pourraient bien exister en fin de compte, ce qu’il fit. C’est cet état complémentaire de la matière qu’on nomme « anti »-matière.

Antiparticules Le soupçon sur l’existence de l’antimatière vint rapide-

ment. En 1932, Carl Anderson confirma expérimentalement l’existence des positrons. Il suivait la piste d’une pluie de particules produites par les rayons cosmiques (particules énergétiques provenant de l’espace qui peuvent s’écraser

chronologie

1928

Dirac prédit l’existence d’antimatière

1932

Anderson détecte le positron

Antimatière dans l’atmosphère) quand il vit la trace d’une particule chargée positivement possédant la masse de l’électron, le positron. L’antimatière n’était donc plus désormais une idée théorique abstraite mais une réalité.

anti-hydrogène positron

électron

+





antiproton

Il fallut vingt ans de plus pour qu’une + autre antiparticule, l’antiproton, soit proton détectée. Les physiciens construisirent de nouveaux accélérateurs de particules hydrogène qui utilisaient des champs magnétiques pour accroître la vitesse des particules qui les traversaient. De puissants faisceaux de protons ainsi accélérés développaient suffisamment d’énergie pour révéler l’antiproton en 1955. Peu après, on trouva aussi l’antineutron. Sur Terre, les physiciens peuvent créer de l’antimatière dans des accélérateurs de particules, comme celui du CERN, en Suisse, ou le Fermilab, près de Chicago. Lorsque particules et antiparticules se rencontrent, elles s’annihilent mutuellement dans un éclair d’énergie pure. La masse est convertie en énergie selon l’équation d’Einstein E = mc2. Voilà pourquoi, si vous rencontriez votre jumeau d’antimatière, ce ne serait pas une très bonne idée de le prendre dans vos bras !

Asymétries universelles Si l’antimatière était répartie dans tout l’Uni-

vers, de tels épisodes d’annihilation se produiraient sans cesse. Matière et antimatière se détruiraient progressivement dans de petites explosions, s’absorbant l’une l’autre. Mais ce n’est pas ce que nous voyons : il ne doit donc pas y avoir beaucoup d’antimatière autour de nous. En fait, la matière normale est, dans une très large mesure, la seule forme de particule que nous voyons. Au début de la création de l’Univers, il y a donc nécessairement eu déséquilibre : plus de matière que d’antimatière.

«

En science, on essaye de dire aux gens quelque chose dont personne n’a jamais eu connaissance auparavant en des termes compréhensibles par tous. En poésie, c’est exactement le contraire. Paul Dirac

1955

Détection des antiprotons

»

1965

Production du premier anti-noyau

1995

Création d’atomes d’anti-hydrogène

69

70

50 clés pour comprendre l’astronomie Paul Dirac (1902-1984) Paul Dirac était un physicien britannique talentueux mais timide. Les gens se moquaient de sa façon de parler consistant à dire : « Oui », «  Non  » ou «  Je ne sais pas  ». Il a expliqué une fois : « On m’a appris à l’école à ne jamais commencer une phrase si je n’en connaissais pas la fin. » Ce qui lui faisait défaut en paroles était compensé par ses aptitudes mathématiques. Sa thèse de doctorat est célèbre pour sa concision et sa puissance remarquables, posant une nouvelle description mathématique de la mécanique quantique. Il a en

partie unifié cette dernière et la théorie de la Relativité mais a aussi marqué par son travail exceptionnel sur le monopôle magnétique et par sa prédiction de l’existence de l’antimatière. Quand il a reçu le prix Nobel en 1933, sa première pensée a été de le refuser pour éviter la publicité. Il ne l’a accepté qu’une fois convaincu que son refus ferait encore plus de bruit. Dirac n’invita pas son père à la cérémonie, peut-être à cause des relations tendues qui ont suivi le suicide de son frère.

Comme les images en miroir, particules et antiparticules sont liées par différentes sortes de symétries. L’une est le temps. Du fait de leur énergie négative, les antiparticules sont l’équivalent mathématique de particules normales mais se déplaçant en arrière dans le temps : un positron peut donc être vu comme un électron allant du futur vers le passé. La symétrie suivante met en jeu les charges et autres propriétés quantiques qui sont inversées. Une troisième symétrie a trait au mouvement dans l’espace. Les mouvements ne sont en général pas affectés par un changement de repère de l’espace. Une particule qui se déplace de la gauche vers la droite est semblable à la même particule se déplaçant de la droite vers la gauche ou si, au lieu de tourner dans le sens des aiguilles d’une montre, elle tourne en sens contraire. Cette symétrie « de parité » est vraie pour la plupart des particules mais il en existe un petit nombre pour lesquelles ce n’est pas toujours le cas. Les neutrinos n’existent que Le contraire d’une sous une seule forme, leur hélicité est gauche, affirmation vraie est ils ne tournent que dans une seule direction ; une affirmation fausse. un neutrino à hélicité droite n’existe pas. C’est l’inverse qui est vrai pour les antineutrinos, qui Mais le contraire d’une sont tous à hélicité droite. La symétrie de parité vérité profonde peut peut donc être parfois violée bien qu’une comtrès bien être une autre binaison d’inversion de charge et de parité soit vérité profonde. conservée, appelée symétrie charge-parité.

«

»

Niels Bohr

«

Antimatière

Pour un milliard de particules d’antimatière, il y avait un milliard et une particules de matière. à l’issue de l’annihilation mutuelle, il en est resté un milliardième : notre univers actuel. Albert Einstein

»

Les chimistes constatent que certaines molécules préfèrent exister dans certaines versions – comme les structures lévogyres ou au contraire dextrogyres. Dans le même ordre d’idée, nous constatons – et cela reste une énigme – que l’Univers contient pour l’essentiel de la matière et non de l’antimatière. Seule une minuscule fraction – moins de 0,01  % – de ce qui forme l’Univers est de l’antimatière. Mais l’Univers contient aussi d’autres formes d’énergie, par exemple une grande quantité de photons. Il est donc possible qu’une grande quantité de matière et d’antimatière ait été créée dans le Big Bang mais que l’essentiel se soit rapidement annihilé. Il ne reste aujourd’hui que la partie émergée de l’iceberg. Un minuscule déséquilibre en faveur de la matière suffirait à expliquer sa prédominance actuelle. Il suffirait qu’une particule sur 10 milliards ait survécu une fraction de seconde après le Big Bang, le reste ayant été annihilé. La matière en surplus a probablement été préservée par une légère asymétrie de charge et de parité. Les particules qui peuvent avoir été mises en jeu par cette asymétrie, appelées bosons X, n’ont toujours pas été trouvées. Ces particules massives se désagrègent d’une façon déséquilibrée d’où résulte une légère surproduction de matière. Les bosons X peuvent aussi interagir avec les protons et les faire se désagréger, ce qui serait une mauvaise nouvelle car cela signifierait que toute la matière finirait par disparaître dans un brouillard de particules encore plus subtiles. Mais la bonne nouvelle est que cela ne se produirait pas avant très longtemps. Nous sommes là et le fait que personne n’ait jamais vu un proton se désagréger signifie que les protons sont très stables et doivent avoir une durée de vie d’au moins 1 017 à 1 035 ans, soit des milliards de milliards de milliards d’années, durée monstrueusement plus longue que la durée de vie de l’Univers jusqu’ici. Mais cela laisse la possibilité que, si l’Univers devenait vraiment très vieux, alors même la matière normale pourrait bien disparaître un jour.

l’idée clé Matière en miroir

71

72

50 clés pour comprendre l’astronomie

18 M  atière noire 90 % de la matière de l’Univers ne luit pas : elle est sombre. On peut détecter cette matière noire par ses effets gravitationnels mais elle n’interagit presque pas avec les ondes lumineuses ou la matière. Les scientifiques croient qu’elle pourrait prendre la forme de MACHO, étoiles avortées ou planètes gazeuses, ou de WIMP, exotiques particules subatomiques (WIMP : mauviette en anglais). La chasse à la matière noire se déroule à l’orée de contrées sauvages de la physique. Matière noire : cela fait exotique, cela pourrait même l’être. Sa définition est cependant banale. Pour l’essentiel, ce que nous voyons dans l’Univers luit par émission ou réflexion de lumière. Les étoiles brillent par production massive de photons tandis que les planètes réfléchissent la lumière du Soleil. Sans cette lumière, nous ne les verrions tout simplement pas : quand la Lune passe dans l’ombre de la Terre, elle est sombre ; quand les étoiles s’épuisent, ce qui en reste scintille trop faiblement pour être vu ; même une planète aussi grosse que Jupiter serait invisible si elle dérivait librement, loin du Soleil. Il n’est donc, a priori, pas trop surprenant que la majeure partie de ce qui constitue l’Univers ne brille pas. C’est la matière noire.

Côté obscur Nous ne pouvons pas voir directement la matière noire mais

nous pouvons détecter sa masse par l’attraction gravitationnelle qu’elle exerce sur d’autres objets astronomiques et les rayons lumineux. Si nous ignorions la présence de la Lune, nous pourrions tout de même déduire son existence du fait que sa gravité tire et décale légèrement l’orbite terrestre. Ce sont d’ailleurs de telles oscillations qui nous ont permis de découvrir des planètes autour d’étoiles lointaines. Dans les années 1930, l’astronome suisse Fritz Zwicky se rendit compte qu’un amas géant de galaxies situé dans notre voisinage se comportait d’une façon telle que sa masse devait être beaucoup plus grande que celle de toutes les étoiles qui composaient ses galaxies. Il en déduisit qu’une matière sombre inconnue représentait 400 fois celle qui était visible – étoiles brillantes et gaz chaud – dans

chronologie

1933

Zwicky évalue la quantité de matière noire présente dans l’amas de Coma

1975

Vera Rubin montre que la rotation des galaxies est affectée par la matière noire

Matière noire l’amas. Une si grande quantité de matière noire constituait une très grosse surprise : cela impliquait que l’essentiel de l’Univers n’était pas fait d’étoiles et de gaz mais de quelque chose d’autre. Quelle est donc cette matière noire et où se cache-t-elle ?

Énergie noire : 73 %

Matière noire : 23 %

Les galaxies spirales individuelles ont aussi un défaut de masse. Le gaz des régions extérieures tourne Matière normale : 4 % plus vite qu’il ne le devrait si la masse des galaxies représentait seulement le total de celle des étoiles qui les composent. Les galaxies sont donc beaucoup plus lourdes que si l’on se contentait de compter ce qui est lumineux. Là encore, la matière noire doit être des centaines de fois plus abondante que les étoiles et le gaz visibles. Elle n’est pas seulement répartie partout dans les galaxies mais sa masse est si grande qu’elle représente le facteur dominant dans le mouvement de chacune de leurs étoiles. Elle s’étend même au-delà des étoiles, remplissant une sorte de halo ou de bulle autour du disque de chaque galaxie spirale.

Gain de poids Les astronomes ont désormais cartographié la matière noire et on la trouve non seulement à l’intérieur des galaxies mais encore dans les amas qui en contiennent des milliers, regroupées par leur attraction gravitationnelle mutuelle. Et aussi dans les superamas, ensemble d’amas galactiques formant un vaste réseau qui s’étend à travers tout l’espace. La matière noire se manifeste partout où la gravité est à l’œuvre, et ce à toutes les échelles. En faisant le bilan, on trouve qu’il y a des milliers de fois plus de substance noire que de matière visible. Le sort de l’Univers tout entier dépend de sa masse totale : l’attraction gravitationnelle et l’expansion de l’univers consécutive au Big Bang agissent en sens inverse l’un de l’autre. Il y a trois issues. Ou bien l’Univers est si lourd que c’est la gravité qui l’emporte et il finira par s’effondrer sur lui-même (cas d’un univers fermé s’achevant par un Big Crunch, un grand effondrement). Ou bien sa masse est trop petite et il poursuivra son expansion à jamais (cas d’un

1998

On parvient à la conclusion que les neutrinos sont dotés d’une petite masse

2000

Détection de MACHO dans la Voie lactée

73

74

50 clés pour comprendre l’astronomie

Bilan énergétique Nous pouvons dire aujourd’hui qu’il n’y a que 4 % de la matière de l’Univers qui est faite de baryons (la matière normale faite de protons et de neutrons). 23 % constituent la matière noire exotique. Nous sommes certains qu’elle n’est pas faite de baryons mais il est plus difficile de dire de quoi elle est faite, peut-être de particules comme les WIMP. Le reste du bilan énergétique de l’Univers est fait de quelque chose de tout autre : l’énergie noire (voir page 82).

univers ouvert). Ou encore il est parfaitement équilibré et la gravité ralentit lentement l’expansion qui se poursuit cependant pour toujours. C’est cette dernière possibilité qui semble correspondre le plus à notre univers : il possède précisément la quantité de matière nécessaire pour ralentir sans pour autant arrêter l’expansion.

Mauviettes et machos De quoi pourrait bien être faite la matière noire ? En premier lieu, elle pourrait être faite de nuages de gaz sombres, d’étoiles ternes ou de planètes. On appelle ces derniers objets des MACHO, pour Massive Compact Halo Objects, objets massifs et compacts du halo. Ou alors, ce pourrait être de nouvelles sortes de particules subatomiques : on les appelle les WIMP, pour Weakly Interacting Massive Particules, particules massives à interaction faible ; les autres formes de matière ou de lumière leur seraient insensibles. Les astronomes ont découvert des MACHO errant dans notre propre galaxie. Du fait que les MACHO sont grands, comme l’est notre planète Jupiter, on peut les repérer individuellement par les effets gravitationnels qu’ils créent : si une grande planète gazeuse ou une étoile avortée passe devant une étoile, sa gravité incurve les rayons de lumière tout autour d’elle, et l’étoile apparaît bien plus lumineuse pendant la durée de son passage. On parle alors de « lentilles gravitationnelles ».

«

L’Univers est esssentiellement constitué de matière et d’énergie noires et nous ne savons rien ni de l’une ni de l’autre. Saul Perlmutter

»

Matière noire Les environs d’une galaxie spirale tournent plus vite à cause de la matière noire

Observé

Vitesse de rotation

Dans le langage de la théorie de la Relativité, une planète MACHO déforme l’espace-temps, comme une balle appuyant sur une pièce en caoutchouc, ce qui recourbe le front d’ondes lumineuses devant elle (voir page 93). Les astronomes ont traqué ces flamboiements au passage d’une MACHO parmi des millions d’étoiles. Ils n’en ont trouvé que peu, trop peu pour expliquer toute la masse manquante de la Voie lactée.

Les MACHO sont faits de matière Attendu normale (comme les protons, les neutrons et les électrons). L’estimation la plus serrée de la quantité de baryons présents dans l’Univers est recherchée à partir de l’isotope lourd de l’hydrogène, le deutérium. Ce dernier Distance du centre de la galaxie ne se forme pas dans les étoiles – bien que celles-ci puissent le brûler – et il a donc été produit seulement par le Big Bang. Or, le mécanisme de la production de deutérium est parfaitement connu. C’est pourquoi la mesure de la quantité de deutérium présente dans l’espace dans des nuages primitifs de gaz permet aux astronomes d’estimer la quantité totale de protons et de neutrons fabriqués par le Big Bang. Il ne s’agit que de quelques pourcent de la masse totale de l’Univers. Le reste doit donc être présent sous une forme totalement différente, comme les WIMP. La quête des WIMP est aujourd’hui l’objet de toutes les attentions. Leur faible interaction avec les particules connues les rend intrinsèquement difficiles à détecter. Un candidat est le neutrino. Au cours des dix dernières années, les physiciens ont mesuré sa masse qui est très faible mais non nulle. Les neutrinos contribuent pour une part à la masse de l’Univers mais cela ne suffit toujours pas. Il reste donc de la place pour d’autres particules exotiques qui restent à découvrir, quelques-unes nouvelles venues en physique comme les axions et les photinos. Comprendre de quoi est faite la matière noire pourrait bien illuminer le monde de la physique.

l’idée clé La face obscure de l’Univers

75

76

50 clés pour comprendre l’astronomie

19 L’inflation cosmique

Pourquoi l’Univers a-t-il la même apparence dans toutes les directions ? Et pourquoi, en traversant l’espace, des rayons lumineux parallèles le restentils, ce qui nous permet de différencier des étoiles distinctes ? Nous pensons que la réponse est dans l’inflation cosmique, cette idée que le bébé univers a enflé si vite en une fraction de seconde que ses plis se sont défroissés et que l’expansion qui en a résulté a compensé exactement la gravitation. L’Univers dans lequel nous vivons a quelque chose de particulier. Quand nous levons les yeux, nous avons la vision claire de myriades d’étoiles et de lointaines galaxies sans aucune déformation. Mais il s’en fallait de peu que ce fût autrement. La Relativité générale d’Einstein donne de la gravité l’image d’une surface déformée de l’espace et du temps sur laquelle les rayons lumineux se déplacent en suivant des chemins incurvés (voir page 93). Il aurait donc été tout à fait envisageable que ces rayons se mêlent, donnant de l’Univers une image distordue comme celle que l’on a dans une galerie des glaces. Mais, globalement, en dehors de la déviation occasionnelle qu’ils subissent en contournant une galaxie, les rayons lumineux se déplacent plus ou moins en ligne droite à travers l’Univers : notre vue reste dégagée aussi loin qu’elle porte.

Platitude Bien que la Relativité conçoive l’espace-temps comme étant

une surface courbe, les astronomes parlent parfois d’un univers « plat » : cela signifie que les rayons parallèles le restent indépendamment de la distance qu’ils parcourent à travers l’espace, tout comme ils le feraient s’ils se déplaçaient le long d’un plan. On peut imaginer l’espace-temps comme une bande de caoutchouc : la gravité est représentée par le creux qu’y imprimerait un objet lourd. En réalité, l’espace-temps possède davantage de dimensions – au moins

chronologie

1981

Guss avance l’hypothèse de l’inflation cosmique

L’inflation cosmique quatre : trois pour l’espace et une pour le temps –, mais il est difficile de se les figurer. L’étoffe dont il est fait est aussi en expansion permanente depuis le Big Bang. La géométrie de l’Univers est telle que l’ensemble reste à peu près plat, comme un dessus de table qui aurait ici ou là des creux et des bosses, traduisant la distribution de la matière. En dehors des quelques détours autour des corps massifs, les trajectoires suivies par les rayons lumineux sont donc relativement peu perturbées.

Expansion régulière 1010 ans

10–35 s

Maintenant

Inflation

Big Bang

S’il y avait trop de matière, la toile de l’espace-temps se déformerait beaucoup sous le poids et, en fin de compte, se replierait sur elle-même, renversant l’expansion. Dans un tel scénario, des rayons lumineux parallèles finiraient par converger. Au contraire, s’il n’y avait pas assez de matière pour la déformer, la toile s’étirerait jusqu’à partir en morceaux : alors, les rayons initialement parallèles divergeraient. Notre univers semble se situer quelque part à mi-chemin, avec ce qu’il faut de matière pour assurer la cohésion de la toile pendant qu’elle s’étend régulièrement. Notre univers semble donc être parfaitement équilibré.

Similitude Une autre propriété de l’Univers est qu’il se présente comme étant approximativement semblable dans toutes les directions. Les galaxies ne sont pas concentrées à un seul endroit mais sont uniformément réparties. Vous n’y voyez peut-être rien d’extraordinaire mais c’est assez surprenant. En effet, l’Univers est si grand que ses bords opposés ne sont pas en mesure de communiquer, même à la vitesse de la lumière. Bien qu’il n’existe que depuis 14 milliards d’années, son diamètre dépasse 14 années-lumière et la lumière, même si elle voyage à la plus grande vitesse possible pour un signal, n’a pas disposé d’assez de temps pour aller d’un bord à l’autre. Comment un bord pourrait-il

«

»

On dit qu’un repas gratuit, ça n’existe pas. Mais l’Univers est le repas gratuit primordial ! Alan Guth

1992

Le satellite COBE de la NASA détecte des points chauds et des points froids dans le fond diffus cosmologique

2003

Le satellite WMAP cartographie le fond diffus cosmologique

77

78

50 clés pour comprendre l’astronomie

Géométrie de l’Univers Les physiciens ont pu déterminer la forme de l’espace-temps dans tout l’Univers à partir des dernières observations du fond diffus cosmologique, comme celles qu’a réalisées le satellite WMAP (Wilkinson Microwave Anisotropy Probe) en 2003 et 2006. La comparaison de la taille des parties chaudes et froides dans les

fréquences des micro-ondes du ciel avec celle prévue par la théorie du Big Bang montre que l’Univers est « plat ». Mêmes s’ils ont voyagé pendant des milliards d’années à travers l’Univers entier, des rayons lumineux initialement parallèles le restent.

savoir à quoi ressemble l’autre ? Ce problème est connu sous le nom de « problème de l’horizon », où l’horizon est la distance la plus grande parcourue par la lumière depuis la naissance de l’Univers, délimitant une sphère lumineuse. Il y a des régions de l’espace que nous ne pouvons pas voir et ne verrons jamais : la lumière qui en provient n’a pas eu assez de temps pour voyager jusqu’à nous.

Un univers lisse L’Univers est aussi pratiquement lisse : les galaxies se répartissent assez uniformément dans les cieux. Si vous plissez les yeux, vous verrez une lueur diffuse et non un petit nombre de grosses taches de lumière. Une fois encore, il aurait pu en être autrement. Les galaxies ont grandi peu à peu du fait de la gravité. À l’origine, elles n’étaient qu’étendues légèrement plus denses au sein du gaz issu du Big Bang. Sous l’action de la gravité, ces étendues se sont effondrées sur elles-mêmes, donnant naissance aux étoiles et, en fin de compte, aux galaxies. Ces embryons plus denses à l’origine des galaxies sont le résultat d’effets quantiques, de minuscules variations de l’énergie des particules composant le bouillant Univers naissant. Mais ces dernières auraient très bien pu être amplifiées pour former de grandes concentrations de galaxies, comme les taches de la peau des vaches, plutôt que cet océan bien dispersé qui s’offre à notre regard. La distribution des galaxies ressemble davantage à un ensemble de petits monticules qu’à un petit nombre de hautes chaînes de montagne. Brusque poussée de croissance Horizon, univers plat et lisse – tous ces problèmes peuvent être résolus par une seule idée : l’inflation. C’est en 1981 que le physicien Alan Guth proposa cette solution. La question de l’horizon – le fait que l’Univers soit semblable dans toutes les directions bien que trop large pour qu’on puisse communiquer d’un bout à l’autre – implique qu’il y a nécessairement eu une époque où il était suffisamment petit pour que la lumière ait pu le traverser de part en part. Et, puisqu’il n’en est plus ainsi aujourd’hui, c’est

L’inflation cosmique

«

Il est assez extraordinaire de se rendre compte que les lois de la physique peuvent décrire la façon dont tout a procédé de fluctuations quantiques aléatoires issues du néant. Alan Guth

»

qu’il a dû ensuite grossir très vite jusqu’aux proportions de l’Univers actuel. Mais l’inflation a dû être extraordinairement rapide, bien plus que la lumière. La taille de l’Univers a doublé, puis doublé encore et encore en une fraction de seconde et cette expansion fulgurante a étalé les petites variations créées par les fluctuations quantiques comme les motifs imprimés sur un ballon pâlissent à mesure que celui-ci gonfle : l’Univers est devenu lisse. Le déroulement de l’inflation a aussi ajusté l’équilibre qui s’installa ensuite entre gravité et expansion, celle-ci se poursuivant à un rythme bien plus paisible. L’inflation se produisit presque tout de suite après le déclenchement du Big Bang (10–35 seconde après).

0

10–32 secondes

3 minutes

380 000 ans

Premières galaxies

Premières étoiles

Premiers atomes

Formation des éléments légers (nucléosynthèse)

Inflation

Big Bang

Soupe de quarks

La théorie de l’inflation n’est pas encore démontrée et ses causes profondes ne sont pas bien comprises – il y a autant de modèles que de théoriciens ! Cette compréhension est l’un des objectifs des futures expériences cosmologiques, ce qui suppose dresser des cartes plus détaillées du fond diffus cosmologique et de sa polarisation.

200 millions d’années



1 milliard d’années

Âge de l’Univers

l’idée clé La croissance cosmique s’emballe

79

80

50 clés pour comprendre l’astronomie

20 L a constante

cosmologique

Albert Einstein était convaincu qu’ajouter une constante cosmologique aux équations de la Relativité générale avait été sa plus grosse erreur. Ce terme tenait compte de la variation du rythme de l’expansion de l’Univers pour compenser la gravitation. Einstein n’en avait pas besoin et l’abandonna. Mais, dans les années 1990, il fallut la réintroduire : les astronomes avaient découvert qu’une mystérieuse énergie noire provoquait une accélération de l’expansion de l’Univers, appelant une refonte de la cosmologie moderne. Einstein pensait que nous vivions dans un univers stationnaire plutôt qu’issu d’un Big Bang. En essayant de transcrire cette situation en équations, il rencontra une difficulté : s’il n’y avait que la gravitation, tout dans l’Univers devrait finir par s’effondrer en un point, par exemple un trou noir. Il était évident que l’Univers ne se comportait pas ainsi et Einstein rajouta un terme pour compenser la gravitation, une sorte de facteur «  anti-gravitationnel  ». Cette introduction n’était faite que pour rendre correctes les équations et pas parce qu’il avait rencontré une telle force. Mais cette formulation posa immédiatement des problèmes. De même qu’une gravitation sans entrave aurait dû provoquer un effondrement, s’il existait une force compensant la gravité, elle devrait pouvoir croître jusqu’à mettre en pièces des régions de l’Univers dont la cohésion ne serait pas assurée par un champ gravitationnel suffisant. Plutôt qu’autoriser un tel déchiquetage de l’Univers, Einstein préféra laisser de côté le second terme répulsif et admit s’être trompé en l’introduisant. D’autres physiciens préféraient aussi l’exclure et il fut relégué aux oubliettes. Du moins est-ce ce qu’ils croyaient. Le terme n’avait pas disparu : il figurait toujours dans les équations de la Relativité mais sa valeur, la constante cosmologique, était fixée à zéro.

chronologie

1915

Einstein publie la théorie de la Relativité générale

La constante cosmologique

«

81

Il faut cependant insister sur le fait que nos calculs fournissent une courbure positive de l’espace, même sans introduire de terme supplémentaire – la constante cosmologique. Cette dernière n’est nécessaire que pour permettre une distribution quasi statique de la matière. Albert Einstein

»

Un univers en accélération Dans les années 1990, deux groupes d’as-

tronomes observaient des supernovae dans des galaxies lointaines pour déterminer la géométrie de l’espace. Ils découvrirent que celles qui étaient lointaines brillaient plus faiblement qu’elles ne l’auraient dû. Il existe de nombreuses sortes de supernovae, ces étoiles en train de mourir dans une explosion de lumière. Celles du type 1a ont une luminosité prévisible et peuvent donc servir dans l’estimation des distances. Tout comme les étoiles variables, les céphéides, qui furent utilisées pour mesurer la distance des galaxies et établir la loi de Hubble, leur luminosité intrinsèque peut être déduite de leur spectre lumineux, ce qui permet de calculer leur distance. Cela a fonctionné à merveille pour les supernovae les plus proches ; en revanche, celles plus lointaines luisaient trop faiblement. Tout se passait comme si elles étaient plus éloignées de nous qu’elles n’auraient dû. On découvrait des supernovae toujours plus distantes, et la distribution de la baisse de luminosité avec la distance laissait penser que l’expansion de l’Univers n’était pas statique, comme l’affirmait la loi de Hubble, mais s’accélérait. Ce fut un choc pour le monde des cosmologues – ils ne s’en sont toujours pas remis.

1929

Hubble démontre que l’espace est en expansion et Einstein abandonne sa constante

Présent Expansion accélérée Supernovae les plus éloignées Expansion lente

Big Bang

1998

Des données sur les supernovae montrent la nécessité de la constante cosmologique

82

50 clés pour comprendre l’astronomie

«

Pendant 70 ans, nous avons essayé de déterminer le ryhtme du ralentissement de l’expansion de l’Univers. Et, quand nous y parvenons, c’est pour nous rendre compte qu’il accélère ! Michael S. Turner

Les résultats obtenus avec les supernovae s’accordaient bien avec les équations d’Einstein mais seulement une fois qu’on y eût ajouté un terme négatif en faisant passer la constante cosmologique de 0 à 0,7 environ. Ces résultats, joints à d’autres données cosmologiques telle la carte du fond diffus, montraient la nécessité d’une nouvelle force répulsive compensant la gravité. Mais il s’agissait d’une force relativement faible, la raison de cette faiblesse restant un mystère : il n’y a pas de raison particulière pour que sa valeur ne soit pas beaucoup plus grande jusqu’à être le facteur dominant de l’espace, plus que la gravité. Au lieu de quoi, elle est très proche de cette dernière en intensité et affecte l’espace-temps d’une façon subtile, comme nous pouvons le voir aujourd’hui. Ce terme d’énergie négative est désigné sous le nom d’« énergie noire ».

»

Énergie noire Il est difficile de dire d’où elle vient. Tout ce que nous en

Échelle de l’Univers

savons est qu’il s’agit d’une forme d’énergie associée au vide de l’espace, qui engendre une pression négative dans des régions dépourvues de matière, créant de l’attraction gravitationnelle et provoquant l’inflation des régions vides de l’espace. L’observation des supernovae fournit une évaluation grossière de son intensité, mais nous n’en savons guère plus. Nous ne savons pas si c’est réellement une constante : sa valeur est-elle toujours la même à travers l’Univers et à toute époque (comme s Grand c’est le cas pour la Déchirement constante de gravita(Big Rip) Constante tion ou la vitesse de d’énergie la lumière) ou bien sa noire valeur change-t-elle en fonction du temps, avec des valeurs difGrand férentes juste après le Effondrement Big Bang, de nos jours (Big Crunch) ou dans le futur ? Dans sa forme plus générale, on parle aussi de «  quintessence  » ou de cinquième force, englobant toutes les Big Bang Futur Présent changements posTemps sibles qu’elle pourrait

s

«

La constante cosmologique

[L’énergie noire] semble être une propriété de l’espace lui-même. Contrairement à la matière noire qui exerce une gravitation, elle a une action en quelque sorte contraire, anti-gravitationnelle, qui fait que l’Univers se repousse lui-même. Brian Schmidt

»

connaître au fil du temps. Mais nous ne savons toujours pas comment se manifeste cette force insaisissable ni comment elle apparaît dans la physique du Big Bang. C’est un sujet d’une actualité brûlante en physique. De nos jours, nous connaissons bien mieux la géométrie de l’Univers et sa composition. La découverte de l’énergie noire a équilibré le Grand Livre de la comptabilité cosmologique, compensant le déficit dans le bilan énergétique de tout l’Univers. Nous savons qu’il y a 4 % de matière baryonique normale, 23 % de matière exotique non baryonique et 73 % d’énergie noire. Tout cela additionné donne un résultat proche de l’exacte quantité de matière nécessaire pour un Univers « Boucle d’Or », proche de la masse critique fournissant un univers ni ouvert ni fermé. Mais les mystérieuses propriétés de l’énergie noire sont telles que, même en connaissant la masse totale de l’Univers, son évolution est difficile à prédire : tout dépend du fait que l’influence de l’énergie noire augmente ou non dans le futur. En cas d’accélération de l’expansion, alors nous sommes à un moment où l’énergie noire est seulement aussi importante que la gravitation. Mais le temps arriverait où l’accélération l’emporterait et où l’expansion plus rapide dominerait la gravitation. Le destin de l’Univers pourrait bien être une expansion éternelle de plus en plus rapide. Des scénarios catastrophe ont été élaborés : une fois la gravité passée au second plan, les structures massives les moins liées se désagrégeront : en fin de compte, les galaxies elles-mêmes éclateront et les étoiles elles-mêmes s’évaporeront en une poussière d’atomes. La pression négative pourrait finalement démanteler les atomes eux-mêmes, ne laissant subsister qu’un sinistre océan de particules subatomiques. Néanmoins, bien que les pièces du puzzle commencent à s’ajuster les unes aux autres et que nous ayons une bien meilleure connaissance de la géométrie de l’Univers, d’importantes questions restent sans réponse. Nous ne savons pas de quoi est constituée 95 % de la matière de l’Univers, pas plus que nous ne savons en quoi consiste exactement cette nouvelle force, la quintessence. Il n’est pas encore temps de nous reposer sur nos lauriers : l’Univers garde son mystère !

l’idée clé La cinquième force

83

84

50 clés pour comprendre l’astronomie

21 L e principe de Mach

Dans l’Univers, la gravitation fait que tout objet attire et est attiré par tout autre objet. Ernst Mach, physicien et philosophe autrichien, se pencha sur les raisons qui font que des objets distants influencent le mouvement et la rotation d’objets proches – comment les lointaines étoiles peuvent-elles tirer vers l’extérieur un enfant sur un manège. Son principe – qui dit que « les masses là-bas jouent sur l’inertie ici » – est né de la question : comment dire si une chose est en mouvement ou non ? Quiconque a déjà été assis dans un train en gare et a observé par la fenêtre un autre train s’éloignant du sien sait combien il peut être difficile de dire si c’est votre train qui part ou l’autre qui arrive. (C’est la même chose qui nous a amenés à penser, de façon erronée, que le Soleil tourne autour de la Terre.) Peut-on savoir de façon certaine quel est celui des deux trains qui est en mouvement ? Mach s’est débattu avec cette question au xixe siècle. Il marchait sur les pas de Newton qui, contrairement à lui, croyait que l’espace était un repère absolu. L’espace de Newton était comme du papier quadrillé : il contenait, comme en filigrane, un ensemble complet de coordonnées par rapport auquel tout mouvement pouvait être décrit. Mais Mach ne partageait pas ce point de vue et avançait au contraire que la notion de mouvement n’avait de sens que par rapport à un autre objet et non par rapport au repère : que signifie se déplacer si ce n’est par rapport à autre chose ? De ce point de vue, Mach – influencé par les idées plus anciennes du rival de Newton, Gottfried Leibniz – préfigurait Albert Einstein en affirmant que seule a du sens l’idée que les mouvements sont relatifs. Mach expliquait que, puisqu’une balle roule de la même manière en France ou en Australie, l’espace repère absolu n’est pas un concept pertinent. La seule chose dont on puisse dire qu’elle affecte la façon dont elle roule est la gravité. Sans doute roule-t-elle

chronologie

Vers 335 av. J.-C.

Pour Aristote, le mouvement des objets est dû à l’action de forces

1640

Galilée énonce le principe d’inertie

Le principe de Mach différemment sur la Lune parce que la force d’attraction gravitationnelle sur sa masse y est plus faible. Dans l’Univers, tout objet exerce une attraction sur tout autre objet et tous ressentent donc la présence des autres du fait de leurs attractions mutuelles. Tout mouvement dépend donc, en dernière analyse, de la façon dont la matière est distribuée, de sa masse, et non des propriétés de l’espace.

Masse Qu’entend-on au juste par masse ? C’est une mesure de la quantité de

matière que contient un objet. La masse d’un morceau de métal est égale à la somme des masses de tous les atomes qui le composent. D’une façon subtile, la masse n’est pas le poids : le poids est la mesure de la force de gravité qui attire une masse vers le bas : un astronaute pèse moins sur la Lune que sur la Terre – plus grosse qu’elle – du fait que la gravité y est moindre. Mais sa masse est la même : le nombre de ses atomes n’a pas changé. Albert Einstein a montré l’équivalence masse-énergie ; la masse peut donc être transformée en énergie pure et, en fin de compte, la masse, c’est de l’énergie.

Inertie L’inertie, du mot latin signifiant « inaction », est très semblable à la masse. Mais ce qu’elle décrit est la difficulté qu’il y a à déplacer un corps en lui appliquant une force : un objet possédant une grande inertie résiste au mouvement. Même dans l’espace interstellaire, il faut une force importante pour déplacer un objet massif : un gigantesque astéroïde rocheux qui risquerait de percuter la Terre exigerait une poussée phénoménale pour être dévié – qu’elle provienne d’une explosion nucléaire ou d’une force plus petite mais appliquée plus longtemps. À l’inverse, un vaisseau spatial, qui possède moins d’inertie que l’astéroïde, peut être manœuvré facilement à l’aide de minuscules moteurs à réaction. C’est l’astronome italien Galileo Galilei qui, au xviie siècle, a formulé le principe d’inertie : un objet isolé qui n’est soumis à aucune force conserve son état de mouvement. S’il se déplace, il continue à le faire, sans variation de sa vitesse ou de sa direction. S’il est au repos, il le reste. Newton en donna une version plus raffinée dans sa première loi du mouvement.

Le seau de Newton Newton a aussi développé une théorie de la gravitation. Il comprit que deux masses s’attirent l’une l’autre : une pomme tombe

1687

Newton publie son argument du seau

1893

Mach publie La Mécanique

1905

Einstein publie sa théorie de la Relativité restreinte

85

86

50 clés pour comprendre l’astronomie de l’arbre sur le sol parce qu’elle est attirée par la masse de la Terre ; mais, de la même façon, la Terre est attirée par la masse de la pomme, même si nous aurions du mal à mesurer son minuscule déplacement en direction de la pomme. Newton montra que l’intensité de la pesanteur décroît très vite en fonction de la distance : la force que la Terre exerce est bien plus faible si l’on se trouve loin au-dessus d’elle qu’au sol. Ce qui ne nous empêcherait pas de ressentir son attraction, même réduite. Plus on s’éloigne, plus cette force faiblit mais elle agit toujours sur notre mouvement. En fait, tous les objets de l’Univers exercent une minuscule attraction gravitationnelle qui peut, de façon ténue, affecter notre mouvement. Pour tenter de comprendre les relations entre objets et mouvements, Newton a imaginé la situation d’un seau d’eau en rotation. Quand le seau commence à tourner, l’eau reste immobile. Puis l’eau se met à tourner aussi. Sa surface se creuse : l’eau essaye de s’échapper en grimpant le long des parois mais celles-ci exercent des forces qui la maintiennent confinée dans le seau. Newton affirmait que la rotation de l’eau ne pouvait se comprendre que si on la regardait dans le référentiel fixe de l’espace absolu : ce qui nous permet de dire que le seau tourne est la simple observation de la concavité de la surface de l’eau créée par les forces à l’œuvre. Des siècles plus tard, Mach revint sur ce raisonnement. Que se passerait-il si le seau rempli d’eau était la seule chose existant dans l’Univers ? Comment savoir si le seau tourne ? Ne pourrait-on pas aussi bien dire que c’est l’eau qui tourne par rapport au seau ? Pour que cela ait un sens, il faudrait ajouter un autre objet dans l’univers du seau, par exemple les murs d’une pièce ou même une étoile lointaine. Ce n’est qu’alors qu’on pourrait dire que le seau tourne autour

Ernst Mach (1838-1916) Le physicien autrichien Ernst Mach est connu aussi bien pour le principe qui porte son nom que pour ses travaux en optique, en acoustique, sur la physiologie des perceptions sensorielles, en philosophie des sciences et, tout particulièrement, sur la vitesse supersonique. En 1877, il publia un article qui fit date où il décrivait la façon dont un projectile se déplaçant plus vite que le son produirait dans son sillage une onde de choc. C’est cette dernière qui est à l’origine du boom produit par un avion supersonique. Le rapport entre la vitesse du projectile – ou de l’avion supersonique – et celle du son est appelé le nombre de Mach : par exemple, Mach 2 représente deux fois la vitesse du son.

«

Le principe de Mach

L’espace absolu, par nature sans référence à quoi que ce soit d’extérieur, reste à jamais homogène et immuable. Isaac Newton, 1687

»

de cet objet. Sans le cadre représenté par la salle immobile ou les étoiles fixes, comment dire si c’est l’eau ou le seau qui tourne ? Nous rencontrons le même problème quand nous regardons la trajectoire du Soleil ou des étoiles dans le ciel. Qu’est-ce qui est en rotation : la Terre ? Les étoiles ? Comment savoir ? Pour Mach, et aussi pour Leibniz, le concept de mouvement, pour qu’il ait un sens, exige la référence à des objets extérieurs. En conséquence, celui d’inertie ne veut rien dire dans un univers réduit à un seul objet. Si l’Univers avait été dépourvu d’étoiles, nous n’aurions jamais su que la Terre tourne. Les étoiles nous apprennent que nous tournons autour d’elles. Les idées de mouvement relatif opposé au mouvement absolu contenues dans le principe de Mach ont été source d’inspiration pour de nombreux physiciens depuis, tout particulièrement Einstein qui a forgé l’expression « Principe de Mach ». Einstein a utilisé cette idée que tout mouvement est relatif comme base de la Relativité restreinte et de la Relativité générale. Il a aussi résolu un des problèmes que les idées de Mach avaient laissé en suspens : rotation et accélération doivent créer des forces supplémentaires, mais où sont-elles ? Einstein a montré que si tout l’univers tournait autour de la Terre, nous devrions ressentir une petite force qui se traduirait par un certain type d’oscillations. Cela fait des milliers d’années que la nature de l’espace intrigue les savants. De nos jours, les théoriciens de la physique des particules pensent que l’espace est un chaudron en ébullition de particules subatomiques sans cesse créées et détruites. Masse, inertie, forces et mouvement pourraient bien être, in fine, la façon dont se manifeste une bouillonnante soupe quantique.

l’idée clé La masse pèse sur le mouvement

87

88

50 clés pour comprendre l’astronomie

22 L a Relativité restreinte

En étudiant les mouvements relatifs, Albert Einstein montra, en 1905, que d’étranges effets apparaissent à de très grandes vitesses. En observant un objet dont la vitesse approcherait celle de la lumière, on le verrait devenir plus lourd, plus court et vieillir plus lentement. Rien ne pouvant aller plus vite que la lumière, le temps et l’espace compensent cette situation en se déformant à l’approche de cette limite universelle. Il est vrai que « dans l’espace, personne ne vous entendra crier » : les ondes sonores résonnent dans l’air, mais leurs vibrations ne peuvent traverser le vide parce qu’il ne contient aucun atome. Par contre, la lumière peut circuler dans le vide comme la vue du Soleil et des étoiles nous le confirme. L’espace est-il rempli d’un substrat particulier, une sorte d’air électrique, à travers lequel se propageraient les ondes électromagnétiques ? Les physiciens de la fin du xixe siècle le pensaient, croyant que l’espace baignait dans un gaz, « l’éther », dans lequel la lumière pouvait vibrer.

Vitesse de la lumière Cependant, en 1887, une expérience restée célèbre a prouvé que l’éther n’existait pas. La Terre tournant autour du Soleil, sa position dans l’espace change en permanence. Albert Michelson et Edward Morley conçurent une expérience ingénieuse qui permettrait de détecter son mouvement par rapport à l’éther, si du moins ce dernier existait. Ils comparèrent deux faisceaux de lumière parcourant des chemins différents, perpendiculaires l’un par rapport à l’autre et réfléchis par des miroirs situés à égale distance. Un nageur met moins de temps à effectuer un aller-retour en traversant une rivière d’une berge à l’autre qu’en parcourant la même distance en remontant le courant puis en le descendant. Ils attendaient un résultat semblable avec la lumière, le courant de la rivière jouant le rôle du mouvement de la Terre à travers l’éther. Mais ils n’enregistrèrent aucune différence : les ­faisceaux

chronologie

1887

Michelson et Morley ne parviennent pas à vérifier l’existence de l’éther

1893

Mach publie La Mécanique

La Relativité restreinte

«

L’introduction d’un éther se révèlera inutile dans la mesure où (…) aucun espace au repos doté de propriétés particulières ne sera introduit pas plus qu’un vecteur-vitesse ne sera associé à un point du vide qui serait le siège d’un processus électromagnétique. Albert Einstein

»

revinrent à leur point de départ exactement au même instant. Quelle que fût la direction de la lumière et de quelque façon que la Terre se déplaçât, la vitesse de la lumière demeurait inchangée : elle était insensible au mouvement. L’expérience prouvait que l’éther n’existait pas… mais ce fut Einstein qui s’en rendit compte. Cela allait dans le même sens que le principe de Mach (voir page 84) : cela signifiait qu’il n’y avait pas de coordonnées fixées en arrière-plan par rapport auxquelles les objets seraient en mouvement. Contrairement aux vagues ou aux ondes sonores, la lumière semblait se déplacer toujours à la même vitesse. C’était étrange et assez différent de ce qu’enseigne le sens commun pour lequel les vitesses s’ajoutent : si vous êtes en train de conduire à 50 km/h et qu’un véhicule roulant à 65 km/h vous dépasse, tout se passe comme si vous étiez immobile et que l’autre vous doublait en roulant à 15 km/h. Mais, quand bien même vous vous déplacez à plusieurs centaines de km/h, la lumière se déplacerait toujours à la même vitesse : 300 000 kilomètres par seconde, que vous allumiez une lampe assis dans un avion à réaction ou sur une bicyclette. Cette immuabilité de la vitesse de la lumière intriguait Einstein en 1905 et le conduisit à élaborer sa théorie de la Relativité restreinte. Alors obscur employé au Bureau suisse des brevets, Einstein mit au point ses équations à partir de rien pendant son temps libre. La Relativité restreinte était la découverte la plus importante depuis Newton et elle révolutionna la physique. Le point de départ d’Einstein fut l’hypothèse que la lumière se déplace à vitesse constante et apparaît de la même manière à tout observateur, quelle que soit sa vitesse propre. Mais, si la

1905

Einstein publie sa théorie de la Relativité restreinte

1915

Einstein publie sa théorie de la Relativité générale

10 % de la vitesse de la lumière

86,5 % de la vitesse de la lumière

1971

La dilatation du temps est vérifiée expérimentalement à l’aide d’horloges embarquées dans des avions

89

90

50 clés pour comprendre l’astronomie

Le paradoxe des jumeaux

Imaginons que des êtres humains soient soumis à la dilatation du temps. Pourquoi pas… Si votre jumeau partait dans l’espace à bord d’une fusée suffisamment rapide et pour suffisamment longtemps, il vieillirait plus lentement que vous sur Terre. À son retour, il vous trouverait bien plus vieux, lui-même étant resté jeune et fringant… Bien que cela puisse sembler impossible, il n’y a là aucun réel paradoxe : il aurait fallu que notre jumeau resquilleur de l’espace subisse des forces puissantes pour que de tels changements se produisent. Du fait de ce décalage du temps, des événements simultanés dans un référentiel peuvent ne pas l’être dans un autre. Quand le temps ralentit sa marche, les longueurs se contractent en même temps. Un objet ou une personne se déplaçant à pareille vitesse ne se rendrait compte de rien. Seul un autre observateur en percevrait les effets.

vitesse de la lumière ne change pas, il faut bien qu’il y ait autre chose qui le fasse, en compensation.

Espace et temps Dans la lignée des idées développées par Hendrik Lorenz, George Fitzgerald et Henri Poincaré, Einstein montra que l’espace et le temps doivent se déformer pour que soient cohérents les différents points de vue d’observateurs se déplaçant à des vitesses proches de celle de la lumière. Les trois dimensions de l’espace et celle du temps forment un monde quadridimensionnel dans lequel Einstein put donner libre cours à son imagination débordante. La vitesse est une distance divisée par une durée. Aussi, pour que la vitesse de la lumière ne soit pas dépassée, il faut, en compensation, une contraction des distances et un ralentissement du temps : une fusée qui s’éloignerait à la vitesse de la lumière vous paraîtrait plus ramassée et son temps s’écoulerait plus lentement. Einstein précisa la façon dont il faudrait réécrire les lois du mouvement pour des observateurs se déplaçant à des vitesses différentes. Il écarta tout repère absolu, tel l’éther, et affirma que tout mouvement est relatif, sans point de vue privilégié. En regardant un train tout en étant assis dans un autre, vous ne pouvez pas savoir lequel est en train de s’éloigner. Mais il y a plus : même si vous pouvez voir que votre train est immobile par rapport au quai, vous ne pouvez pas en déduire que vous êtes immobile mais seulement que vous n’êtes pas en mouvement par rapport au quai. Nous ne ressentons pas le mouvement de la Terre autour du

«

»

Ce qu’il y a de moins compréhensible concernant l’Univers, c’est qu’il soit tant soit peu compréhensible. Albert Einstein

La Relativité restreinte Soleil, pas plus que le chemin suivi par ce dernier à travers notre galaxie ou, plus loin encore, le déplacement de la Voie lactée en direction du superamas de la Vierge. Nous ne ressentons que les mouvements relatifs – nous par rapport au quai, la Terre par rapport aux étoiles. Einstein baptisa ces différents points de vue référentiels d’inertie. Il s’agit d’espaces en mouvement les uns par rapport aux autres à vitesse constante, sans subir d’accélération, ou de force. Si vous êtes assis dans une voiture circulant à 50  km/h, vous vous trouvez dans un référentiel d’inertie et vous ressentez les mêmes choses que dans un train lancé à 100  km/h – un autre référentiel d’inertie – ou dans un avion à réaction filant à 500 km/h – un autre encore. Einstein affirma que les lois de la physique sont les mêmes dans tous les référentiels d’inertie : votre stylo tomberait de la même manière dans la voiture, le train ou l’avion.

Plus lent, plus lourd Quant aux mouvements relatifs à des vitesses proches

de celle de la lumière, Einstein prédit que leur temps serait ralenti. La dilatation du temps exprime le fait que des horloges dans des référentiels d’inertie différents battraient à des rythmes différents. On le prouva en 1971 : quatre horloges atomiques identiques furent embarquées chacune sur un avion devant faire deux fois le tour de la Terre, deux allant vers l’Est et deux vers l’Ouest. La comparaison avec une horloge synchronisée restée au sol, aux États-Unis, montra que les horloges embarquées avaient perdu une fraction de seconde par rapport à cette dernière, conformément aux prédictions de la Relativité restreinte d’Einstein.

Autre obstacle qui empêche les objets de dépasser le mur de la vitesse de la lumière est que leur masse augmente, conformément à la formule E = mc2. Un objet deviendrait infiniment lourd s’il se déplaçait à la vitesse de la lumière, toute nouvelle accélération devenant impossible. Dès qu’un objet possède une masse, il ne peut atteindre la vitesse de la lumière mais seulement tendre vers elle : plus il s’en approche, plus il devient lourd et difficile à accélérer. Les photons qui constituent la lumière n’ont pas ce problème puisque leur masse est nulle. La Relativité restreinte d’Einstein a représenté un changement profond. L’équivalence masse – énergie a été déconcertante, comme l’ont été ses conséquences sur la dilatation du temps et de la masse. Einstein était un parfait inconnu quand il a publié sa théorie. Mais son article fut lu par Max Planck, un physicien de renom, et ce fut peut-être le soutien de ce dernier qui permit à ses idées de ne pas tomber aux oubliettes mais, au contraire, d’être acceptées. Planck vit la beauté des équations d’Einstein et le propulsa vers la célébrité.

l’idée clé Le mouvement est relatif

91

92

50 clés pour comprendre l’astronomie

23 L a Relativité générale

La théorie de la Relativité générale d’Einstein, en intégrant la gravitation à sa théorie de la Relativité restreinte, bouleversa notre vision de l’espace et du temps. Dépassant les lois de Newton, il nous a fait pénétrer dans un univers de trous noirs, de trous de ver et de lentilles gravitationnelles. Imaginez quelqu’un se jetant du haut d’un bâtiment très élevé, ou sautant en parachute depuis un avion, accéléré vers le sol par la gravité. Einstein se rendit compte que, en pareille situation de chute libre, on ne ressent pas la gravité. Autrement dit, on ne pèse rien ! C’est exactement ainsi que l’on fait de nos jours pour préparer les astronautes à l’absence de pesanteur ressentie dans l’espace : ils embarquent dans un avion pour un « vol parabolique » (en anglais, c’est l’avion qui est élégamment surnommé Vomit Comet, ce qu’on pourrait traduire par « la machine à vomir ») imitant les montagnes russes. Quand l’avion vole vers le haut, les passagers sont collés à leur siège parce qu’ils ressentent une gravitation encore plus intense. Puis quand il tombe en piqué, ils sont en impesanteur, libérés de la gravité, et peuvent flotter à l’intérieur de l’appareil.

Accélération Einstein remarqua qu’attraction gravitationnelle et accélération sont des notions équivalentes. La Relativité restreinte décrit ce qui se produit dans des référentiels d’inertie en mouvement à vitesse constante les uns par rapport aux autres. Mais la gravité se produit dans un référentiel en accélération. Einstein décrivit cette réflexion comme la plus heureuse de sa vie. Pendant les années qui ont suivi, Einstein en explora les conséquences. Il discuta de ces idées avec des collègues proches de lui et utilisa les formalismes mathématiques les plus avancées pour les exprimer : c’est ainsi qu’il élabora une théorie complète de la gravitation qu’il appela Relativité générale. Il publia son travail en 1915, année qui s’avéra particulièrement riche puisqu’il le révisa

chronologie 1687

Théorie de la gravitation de Newton

1905

Théorie de la Relativité restreinte d’Einstein

1915

Théorie de la Relativité générale d’Einstein

La Relativité Générale

«

»

Temps, espace et gravitation n’ont pas d’existence indépendante de la matière. Albert Einstein

plusieurs fois presque immédiatement. Cette œuvre impressionna ses pairs. La théorie fournissait même des prédictions curieuses, et vérifiables, comme le fait que la lumière était déviée par un champ gravitationnel et le fait que l’orbite elliptique de Mercure pivotait lentement en raison du champ gravitationnel du Soleil.

Espace-temps Dans la théorie de la Relativité générale, les trois dimensions de l’espace et celle du temps sont mêlées en un seul quadrillage spatio-temporel d’un espace quadridimensionnel – sa métrique. La vitesse de la lumière est toujours constante et rien ne peut la dépasser. Quand il y a mouvement et accélération, c’est la métrique de l’espace-temps qui se déforme pour la maintenir constante. On se représente mieux la Relativité générale en imaginant l’espace-temps comme étant une pièce de caoutchouc tendue sur un dessus de table percé. Les objets dotés d’une masse sont comme de lourdes boules posées sur le caoutchouc. Elles créent autour d’elles une dépression dans l’espace-temps.

1919

Des observations faites lors d’une éclipse confirment la théorie d’Einstein

Années 1960

Preuves de l’existence de trous noirs dans l’espace

2015

Détection d’ondes gravitationnelles émises lors de la fusion de deux trous noirs d’une trentaine de masses solaires chacun, confirmant la prédiction d’Einstein

93

94

50 clés pour comprendre l’astronomie Imaginez une boule représentant la Terre placée sur la pièce de caoutchouc. Elle crée une dépression sur le plan élastique. Si, maintenant, vous lancez une boule plus petite, par exemple un astéroïde, elle va Position suivre la dépression et descendre vers la Terre. Voilà apparente Soleil de l’étoile comment se fait sentir la gravité. Si la boule plus petite se déplace suffisamment vite et que le creux créé par la Terre est suffisamment profond, ce corps plus petit peut se maintenir sur une orbite circulaire semblable à celle de la Lune, tel un cycliste casse-cou qui peut rouler sur une piste inclinée. Tout l’Univers Terre peut être regardé comme une pièce de caoutchouc géante. Planètes, étoiles, galaxies : toutes créent des dépressions qui peuvent attirer ou dévier des objets plus petits, comme des balles sur un terrain de golf. Position actuelle de l’étoile

Einstein comprit que, du fait des déformations de l’espace-temps, la lumière devait être déviée en passant à proximité d’un corps massif comme le Soleil. Il avait prédit que la position d’une étoile située juste derrière le Soleil devrait être décalée un peu du fait que la lumière qui en provenait serait déviée par la masse solaire. Le 29 mai 1919, les astronomes du monde entier se réunirent pour mettre à l’épreuve les prédictions d’Einstein à l’occasion d’une éclipse totale de Soleil. Ce fut l’un de ses moments de gloire où sa théorie, que certains trouvaient absurde, se révéla en fait proche de la vérité.

Torsions et trous La déviation des rayons lumineux est aujourd’hui confirmée par la lumière qui a traversé l’Univers. La lumière provenant de galaxies très lointaines est manifestement déviée à proximité de zones très massives comme un amas géant de galaxies ou de très grosses galaxies. Le point lumineux d’origine est étalé en un arc. Cela ressemble à l’effet d’une lentille, aussi a-t-on nommé le phénomène « lentille gravitationnelle ». Si la galaxie source se trouve juste derrière l’objet massif qui s’interpose, la lumière est étalée en un cercle complet appelé anneau d’Einstein. Le télescope spatial Hubble a pris de nombreuses et magnifiques photos de ce spectacle. La théorie d’Einstein de la Relativité générale est aujourd’hui d’utilisation courante pour modéliser l’ensemble de l’Univers. L’espace-temps peut être vu

«

Un homme est assis avec une jolie fille pendant une heure qui lui paraît durer une minute. Il reste assis sur un poêle brûlant pendant une minute qui lui semble être une heure… Voilà ce qu’est la relativité. Albert Einstein

»

La Relativité Générale

Ondes gravitationnelles Un autre aspect de la Relativité générale est que des ondes peuvent apparaître à la surface de l’espace-temps, se propageant particulièrement à partir d’un système double d’astres denses et compacts (trous noirs, pulsars), en orbite l’un autour de l’autre. Dans certains couples de pulsars, les astronomes ont remarqué que la vitesse orbitale du système décroît et ils s’attendent donc à ce que l’énergie perdue ait été transformée en ondes gravitationnelles. Les physiciens ont construit sur Terre des détecteurs géants qui utilisent des rayons laser qui se réfléchissent sur des miroirs placés à des kilomètres les uns des autres pour détecter le passage de ces ondes. Ces ondes ont été observées

pour la première fois en septembre 2015, résultat annoncé par une conférence de presse tenue par les membres d’une équipe internationale de chercheurs le 11  février 2016, simultanément aux États-Unis à Washington, en France à Paris et en Italie à Cascina. Deux détecteurs LIGO distants de 3 000 kilomètres ont enregistré des signaux émis lors de la fusion de deux trous noirs, d’une trentaine de masses solaires chacun, situés à plus d’un milliard d’années-lumière de la Terre. La détection des ondes gravitationnelles a ainsi eu lieu un siècle après leur prédiction par Einstein, ce qui constitue un nouveau succès pour sa théorie de la Relativité générale.

comme un paysage avec ses collines, ses vallées, ses trous et ses bosses. Jusqu’à maintenant, la Relativité générale a passé avec succès tous les tests expérimentaux. Les zones de test sont parmi celles où la gravité est particulièrement grande, ou au contraire très faible. Les trous noirs (voir page 96) sont des puits très profonds de l’espace-temps. Ils sont si profonds et escarpés que tout ce qui s’en approche suffisamment y tombe, y compris la lumière. Ils forment des trous – des singularités – de l’espace-temps. Ce dernier peut aussi se tordre en trous de ver, ou tubes, mais cela n’a encore jamais été observé. À l’autre bout de l’échelle, là où la gravité est très faible, il est possible qu’elle finisse par se morceler en minuscules quanta, comme la lumière est faite de blocs formés par les photons individuels. Mais personne n’a jamais vu un quelconque « grain » de gravité. Des théories quantiques de la gravité ont été élaborées mais, en l’absence de preuves pour les étayer, l’unification de la théorie quantique et de la gravitation est insaisissable. Jusqu’à la fin, Einstein caressa l’espoir d’y parvenir mais même lui échoua. Le défi tient toujours !

l’idée clé Courbures de l’espace-temps

95

96

50 clés pour comprendre l’astronomie

24 T rous noirs Tomber dans un trou noir ne serait pas agréable : vous seriez écartelés tandis que tout ce que verraient vos amis est que vous êtes figé dans le temps alors même que vous tombez. Les trous noirs ont d’abord été vus comme des étoiles gelées dont la vitesse de libération dépasserait celle de la lumière. Aujourd’hui, on considère que ce sont des trous – des « singularités » – dans la toile de l’espace-temps d’Einstein. Loin d’être le fruit de notre imagination, des trous noirs géants occupent le centre des galaxies, y compris la nôtre, tandis que de plus petits parsèment l’espace – fantômes d’étoiles mortes. Une balle lancée en l’air atteint une certaine hauteur avant de retomber. Plus la vitesse initiale sera grande, plus haut elle montera. Avec une vitesse suffisante, elle pourra même échapper à l’attraction de la Terre et dériver dans l’espace. La vitesse nécessaire pour cela est appelée « vitesse de libération » ; elle est de 11 km/s. C’est donc la vitesse qu’il faut communiquer à une fusée pour qu’elle puisse quitter la Terre. La vitesse de libération est plus petite sur la Lune : 2,4 km/s. Mais, sur une planète plus massive, elle augmente. Si elle est suffisamment massive, la vitesse de libération peut atteindre, voire dépasser, celle de la lumière : même elle ne peut pas s’en échapper. Un tel objet si massif et si dense que même la lumière y reste piégée est appelé trou noir.

Horizon des événements Le concept de trou noir a été développé au xviiie siècle

par le géologue John Michell et le mathématicien Pierre-Simon de Laplace. Plus tard, après qu’Einstein eut avancé ses théories de la Relativité, Karl Schwarzschild étudia ce que pouvait être un trou noir. Dans la Relativité générale, espace et temps sont liés et se comportent ensemble comme un immense morceau de caoutchouc qui se déforme sous l’effet de la gravitation créée par la masse d’un objet. Une planète massive est maintenue dans un creux de l’espace-temps. Son attraction gravitationnelle est équivalente à la force subie par un objet qui glisse le long de la pente, objet dont la trajectoire peut être déformée et qui peut même être mis en orbite.

chronologie

1784

Michell prévoit la possibilité d’étoiles noires

Années 1930

Prédiction de l’existence d’étoiles figées

Trous noirs Dans ce contexte, qu’est-ce qu’un trou noir ? C’est un puits si profond et si escarpé que tout ce qui s’en approche suffisamment y tombe et ne peut en ressortir. C’est un trou dans la toile de l’espace-temps, comme un panier de basket qui ne vous rendrait jamais votre balle. En passant loin d’un trou noir, votre trajectoire pourrait s’infléchir dans sa direction mais vous n’y tomberiez pas. Mais, en passant trop près, vous n’y échapperez pas. Un photon subira le même sort. La distance critique qui sépare ces deux destins est appelée «  horizon des événements  ». Tout ce qui le franchit, y compris la lumière, plonge dans le trou noir. On a décrit la chute dans un trou noir comme étant une « spaghettification » : les parois en sont si escarpées qu’il y a un très fort gradient de gravitation ; s’il vous arrivait de tomber dans un trou noir les pieds les premiers – et souhaitons que cela ne vous arrive jamais –, vos pieds seraient attirés bien plus fort que votre tête et vous vous retrouveriez étiré comme dans le supplice du chevalet… Ajoutez à cela un zeste de rotation et vous seriez malaxé comme un chewinggum et transformé en spaghettis. Ce qui n’est pas une très belle fin. Certains scientifiques ont réfléchi aux moyens de protéger quelqu’un qui croiserait un trou noir. Il semble qu’une façon de faire pourrait être de porter une lourde ceinture de survie : si cette dernière est suffisamment lourde et dense, elle neutraliserait le gradient de gravité et vous conserverait votre forme – et votre vie !

Étoiles figées L’expression « trou noir » fut forgée en 1967 par John Wheeler comme façon plus parlante de décrire les « frozen stars », les étoiles figées. Leur existence avait été prédite par les théories d’Einstein et Schwarzschild dans les années 1930. Le comportement de l’espace et du temps à proximité de l’horizon des événements est étrange : un objet émettant de la lumière qui s’en approcherait donnerait l’impression de ralentir car les ondes lumineuses qu’il émet mettraient de plus en plus de temps à atteindre un observateur exté-

1965

Découverte des quasars

1967

Wheeler appelle trous noirs les étoiles figées

Années 1970

Hawking avance que les trous noirs s’évaporent

97

98

50 clés pour comprendre l’astronomie

évaporation

Aussi étrange que cela puisse paraître, les trous noirs finissent par s’évaporer. Dans les années 1970, Stephen Hawking avança qu’ils ne sont pas complètement noirs mais rayonnent des particules à cause d’effets quantiques. C’est ainsi que, peu à peu, leur masse diminue et que le trou noir rétrécit jusqu’à disparaître. L’énergie du trou noir crée en permanence des paires particule/antiparticule. Si cela se produit près de l’horizon des événements, il peut se faire qu’une des particules s’échappe

tandis que l’autre retombe. Vu de l’extérieur, le trou noir émet des particules : on appelle cela le rayonnement de Hawking. C’est cette énergie émise qui provoque le rétrécissement du trou noir. Ce concept demeure théorique et personne ne sait vraiment ce qu’il advient d’un trou noir. Le fait qu’on en détecte beaucoup laisse penser que ce processus d’évaporation est très long : en attendant, les trous noirs tiennent bon !

rieur. Ce dernier verrait, au moment où l’horizon est franchi, le temps propre de l’objet finir par s’arrêter : dès cet instant, l’objet apparaîtrait comme figé. Par conséquent, l’étoile paraît tout geler au point de chute dans l’horizon des événements, comme prédit. L’astrophysicien Subrahmanyan Chandrasekhar avait prédit qu’une étoile pesant plus de 1,4 fois la masse solaire finirait par s’effondrer pour former un trou noir. Mais nous savons aujourd’hui, de par les lois de la physique quantique, que les naines blanches et les étoiles à neutrons se maintiennent et il faut qu’une étoile atteigne trois fois la masse solaire pour former un trou noir. Il a fallu attendre les années 1960 pour que des éléments prouvant l’existence des trous noirs aient été découverts. Puisque les trous noirs aspirent la lumière, comment les observer ? Il existe deux manières. Tout d’abord, nous pouvons les repérer par leur attraction sur les autres corps. Ensuite, quand un gaz tombe dedans, il s’échauffe et luit avant de disparaître. On a utilisé la première méthode pour identifier le trou noir

«

Les trous noirs sont les objets macroscopiques les plus parfaits de l’Univers : leurs seuls éléments contitutifs sont nos concepts d’espace et de temps. Subrahmanyan Chandrasekhar

»

«

Trous noirs

»

Non seulement Dieu joue aux dés mais, parfois, il les lance là où nous ne pouvons pas les voir. Stephen Hawking

tapi au centre de notre propre galaxie : les étoiles qui passent près de lui sont comme fouettées et se retrouvent rejetées sur des orbites allongées. La masse du trou noir au centre de notre Voie lactée est de 3 millions de fois celle du Soleil, concentrée dans une région dont le rayon n’est que d’environ 10 millions de kilomètres (30 secondes-lumière). Les trous noirs qui se trouvent au centre des galaxies sont qualifiés de « supermassifs ». Nous ne savons pas comment ils se sont formés. Mais ils semblent influencer la façon dont croissent les galaxies et pourraient donc avoir été présents dès le début. Ou peut-être proviennent-ils de l’effondrement en un même point de millions d’étoiles. La deuxième façon de voir un trou noir provient de la lumière émise par le gaz dont la température s’élève à mesure qu’il tombe. Les quasars, les objets les plus lumineux de l’Univers, brillent à cause du gaz qui est aspiré par les trous noirs supermassifs situés au centre de galaxies lointaines. Des trous noirs plus petits, de quelques masses solaires, peuvent aussi être identifiés par les rayons X émis par le gaz qui y tombe.

Trous de ver Qu’y a-t-il au fond d’un trou noir dans le tissu de l’espace-

temps ? On suppose qu’ils se terminent par une pointe acérée, ou peut-être sont-ils vraiment des trous, déchirures du tissu. Mais certains théoriciens se sont demandé ce qui pourrait se produire s’ils rejoignaient un autre trou. On peut imaginer deux trous noirs voisins comme de longs tubes pendant sous le tissu de l’espace-temps. Si ces tubes se rencontraient, un trou de ver pourrait se former reliant les entrées des deux trous noirs. Muni de votre « ceinture de survie », vous pourriez sauter dans un trou noir et ressurgir dans l’autre. Cette idée a fait les choux gras de la science-fiction pour les voyages à travers le temps et l’espace. Mais peut-être un trou de ver conduit-il à un univers entièrement différent ? Les possibilités de réinventer l’Univers sont sans fin – mais n’oubliez pas votre ceinture de survie !

l’idée clé Pièges à lumière

99

100

50 clés pour comprendre l’astronomie

25 Astrophysique des particules

L’espace est rempli de particules que des champs magnétiques cosmiques accélèrent jusqu’à des énergies colossales. Les physiciens tentent, sur Terre, de reproduire cela avec leurs modestes machines. La détection des rayons cosmiques, neutrinos et autres particules exotiques nous sera d’un grand secours pour comprendre de quoi l’Univers est fait. Depuis l’Antiquité grecque, nous pensons que les atomes sont les briques élémentaires de l’Univers. Aujourd’hui, nous en savons davantage. Nous savons disséquer les atomes qui sont faits d’électrons légers chargés négativement tournant autour d’un noyau positif lui-même fait de protons et de neutrons. Mais ces particules elles-mêmes peuvent être décomposées : la physique moderne nous a ouvert les portes d’un véritable zoo de particules fondamentales créées dans le Big Bang et qui ont formé l’Univers.

Des atomes difficiles à décortiquer Les électrons furent les premiers à être extraits des atomes en laboratoire en 1887 par John Thomson qui fit passer un courant à travers un tube rempli de gaz. Peu après, en 1909, Ernst Rutherford découvrit le noyau – du mot latin désignant le cœur d’un fruit à coque. En projetant un faisceau de particules alpha (un rayonnement constitué de deux protons et deux neutrons) sur une mince feuille d’or, il fut surpris de constater qu’une petite partie avait rebondi, après avoir rencontré quelque chose de compact et dur à l’intérieur des atomes d’or. En 1918, en isolant le noyau d’hydrogène, Rutherford identifia les protons. Mais faire se correspondre charges et poids des autres éléments se révéla plus difficile. Au début des années 1930, James Chadwick découvrit l’ingrédient manquant : le neutron, une particule électriquement neutre possédant sensiblement la même

chronologie

400 av. J-C.

Démocrite avance le concept d’atome

1887

Thomson découvre l’électron

1909

Rutherford réalise l’expérience de la feuille d’or

Astrophysique des particules

«

C’était presque aussi incroyable que si vous aviez tiré un obus de cinquante centimètres sur un mouchoir et qu’il rebondissait  ! Ernst Rutherford

»

masse que le proton. Les différences de poids des éléments, y compris ceux qui avaient des poids curieux et qu’on appelle des isotopes, pouvaient désormais être expliquées. Un atome de carbone-12, par exemple, possède un noyau contenant six protons et six neutrons – ce qui lui confère une masse de 12 unités atomiques – autour duquel tournent six électrons tandis que le carbone-14 est plus lourd parce qu’il possède deux neutrons supplémentaires. Le noyau est minuscule. Cent mille fois plus petit que l’atome, soit seulement quelques femtomètres (10–15 mètres, un millième de milliardième de millimètre) de diamètre. Si l’on rapportait l’atome aux dimensions de la Terre, le noyau ne ferait que 10 kilomètres de large, à peu près Paris du nord au sud.

Le modèle standard La radioactivité nous en a appris davantage sur la façon dont les noyaux se brisent (la fission atomique) ou s’unissent (la fusion atomique). Mais d’autres phénomènes restaient à expliquer. La fusion de l’hydrogène pour donner l’hélium dans le Soleil mettait en jeu une autre particule, le neutrino, Électron qui permet la transformation des protons en neutrons. En 1930, l’existence du neutrino était une Neutron hypothèse destinée à expliquer la désagrégation du neutron en un proton et un électron – la désintégration radioactive bêta. Mais le neutrino lui-même, qui n’a pratiquement pas de masse, ne fut découvert qu’en 1956. Dans les années 1960, les physiciens se rendirent compte que les protons et les neutrons n’étaient pas les briques élémentaires : ils étaient composés de particules encore plus petites, les quarks. Dans le monde des quarks, les choses vont par trois. Il y en a de trois « couleurs » – rouge, bleu et vert – et de six « saveurs »,

1918

Rutherford isole le proton

1932

Chadwick découvre le neutron

1956

Détection du neutrino

Proton

1960

Hypothèse de l’existence des quarks

1995

Découverte du quark top

101

102

50 clés pour comprendre l’astronomie

u

c

Quarks

up

charm

d

s

down

strange

e

µ

Leptons

électron

muon

νe

νµ

ϒ

Vecteurs de force

W

boson W

Z

boson Z

g

gluon boson de Higgs

b

bottom

τ

tau

ντ

L’autre catégorie de particules élémentaires, les leptons, est liée aux électrons, qu’elle contient. À nouveau, on en trouve de trois catégories par ordre de masse : les électrons, les muons et les tauons. Les muons sont 200 fois plus lourds que les électrons, les tauons 3 700 fois. Les leptons ont tous une seule charge négative. Chaque lepton a un neutrino associé qui ne porte pas de charge : les neutrinos électronique, muonique et tauonique. Les neutrinos ont une masse très faible et interagissent très peu avec quoi que ce soit. Ils peuvent traverser la Terre entière sans qu’on les détecte et sont donc difficiles à piéger.

neutrino neutrino électronique muonique

photon

t

top

trois paires de masses croissantes. Les plus légers sont les quarks «  up  » et «  down  ». Ensuite viennent les quarks « strange » et « charm ». Enfin viennent les quarks « top » et « bottom », les plus lourds. Les physiciens ont choisi des noms inhabituels pour traduire des propriétés jamais rencontrées jusque-là. Les quarks ne peuvent pas exister longtemps à l’état solitaire et doivent toujours être confinés dans des combinaisons de « couleur » neutre (ne présentant aucune charge de couleur). Parmi ces dernières, on trouve le trio de baryons (de « barys », lourd) protons, neutrons et les paires quark-antiquark appelées mésons. Trois quarks forment un proton (2 up et 1 down) ou un neutron (2 down et 1 up).

neutrino taunonique

Le vecteur des interactions fondamentales est l’échange de particules. Une onde électromagnétique peut être vue comme un faisceau de photons. On peut, de la même façon, se représenter l’interaction nucléaire faible comme portée par des particules connues sous le nom de bosons W et Z, cependant que l’interaction nucléaire forte est transmise par l’intermédiaire des gluons. La gravitation ne fait toujours pas partie du modèle standard de la physique des particules décrit ici, malgré les efforts des physiciens.

Désintégration de particules On a comparé la physique des par-

ticules au fait d’écrabouiller une montre suisse avec un marteau, puis d’en étudier les débris pour comprendre comment elle fonctionnait. Nos accélérateurs de particules utilisent des aimants géants pour faire circuler des particules à des vitesses extrêmement élevées avant d’en projeter les faisceaux soit contre une cible soit contre un faisceau circulant en sens inverse. À faible vitesse, les particules se décomposent un peu seulement, libérant les particules les plus légères : qui dit masse, dit énergie et il faut donc des faisceaux plus énergétiques pour libérer les particules plus lourdes.

Astrophysique des particules

«

On reconnaît les particules produites à partir de Rien n’existe photographies de leurs trajectoires. En passant en dehors des atomes à travers un champ magnétique, les particules et du vide de l’espace : chargées sont déviées, positives d’un côté, négatout le reste n’est tives de l’autre. La masse des particules intervient qu’opinion. aussi, déterminant à quelle vitesse elles percutent le détecteur et l’ampleur de la déviation créée Démocrite par le champ magnétique. C’est ainsi que, fondamentalement, les particules légères voient leur trajectoire incurvée tandis que les plus lourdes peuvent tracer des boucles. En relevant leurs caractéristiques grâce aux détecteurs et en les comparant avec leurs prévisions théoriques, les physiciens sont capables de reconnaître chaque particule.

»

Rayons cosmiques Dans l’espace, les particules sont produites selon des processus analogues à ceux que nous mettons en œuvre dans nos accélérateurs. Partout où l’on trouve de puissants champs magnétiques – comme au milieu de notre galaxie, dans l’explosion d’une supernova ou dans les jets de matière accélérée au voisinage des trous noirs hyper massifs –, les particules peuvent atteindre des niveaux d’énergie extraordinaires, se déplaçant parfois à des vitesses proches de celle de la lumière. Des antiparticules peuvent aussi être créées, ce qui ouvre la possibilité d’observer leur annihilation quand elles entrent en contact avec de la matière ordinaire. Les rayons cosmiques sont des particules nées dans l’espace et qui s’écrasent sur notre atmosphère. Lors de leur collision avec les molécules de l’air, elles se fracassent et il s’ensuit une pluie de particules plus petites dont certaines atteignent le sol. L’analyse des caractéristiques énergétiques des rayons cosmiques et de leur trajectoire nous fait espérer en comprendre plus sur leur origine. Les neutrinos sont aussi recherchés avec une certaine fébrilité : on présume qu’ils contribuent au bilan de la matière noire de l’Univers. Mais ils n’interagissent presque pas et sont donc très difficiles à détecter. Pour y parvenir, les physiciens ont vu grand : ils utilisent la Terre entière comme détecteur. Occasionnellement, en traversant la Terre, les neutrinos peuvent être ralentis : de grands ensembles de détecteurs veillent, y compris les nouveaux implantés dans les glaces de l’Antarctique et ceux de Méditerranée. D’autres expériences souterraines profondément enfouies dans des mines sont destinées à piéger différents types de particules. Avec des moyens aussi inventifs, il se pourrait bien que les astronomes découvrent dans les prochaines décennies de quoi l’Univers est fait.

l’idée clé Accélérateur cosmique

103

104

50 clés pour comprendre l’astronomie

26 L a « particule de Dieu »

En 1964, alors qu’il se promenait dans les Highlands, en Écosse, le physicien Peter Higgs imagina une façon de conférer leur masse aux particules. Il appela cela sa « véritable grande idée ». Les particules paraissent avoir une masse parce qu’elles sont ralenties par un champ de forces, nommé depuis « champ de Higgs ». Le vecteur transportant la masse est le boson de Higgs, particule que le prix Nobel Leon Lederman a appelée « particule de Dieu » et dont l’existence a été confirmée expérimentalement au LHC en 2012. Le prix Nobel de physique a été attribué en 2013 à Peter Higgs conjointement avec le physicien belge François Englert. Pourquoi les objets ont-ils une masse ? Un camion est lourd des atomes qui le constituent. L’acier contient des atomes de fer qui se trouvent assez bas dans la classification périodique. Mais qu’est-ce qui rend lourd un atome ? Après tout, il est essentiellement fait de vide ! Pourquoi un proton est-il plus massif qu’un électron, un neutrino, un photon ? Les quatre interactions fondamentales étaient bien connues dans les années 1960. Elles se transmettent via des vecteurs de nature assez différente. Ce sont les photons qui se chargent de véhiculer l’information dans les interactions électromagnétiques, les gluons qui lient les quarks dans l’interaction nucléaire forte tandis que ceux qu’on appelle les bosons W et Z sont les médiateurs de l’interaction nucléaire faible. Mais les photons n’ont pas de masse alors que les bosons W et Z sont des particules très lourdes, des centaines de fois plus que le proton. Pourquoi tant de différences ? La contradiction était d’autant plus aiguë que les forces électromagnétiques et nucléaires faibles avaient pu être combinées dans la théorie des forces électrofaibles. Mais cette dernière ne fournissait aucune explication au fait que les bosons W et Z étaient très massifs. Ils auraient dû ne pas posséder

chronologie

1687

Dans ses Principia, Newton pose les équations de la masse

La « particule de Dieu » de masse, à l’instar des photons. Toutes les tentatives ultérieures de combiner les forces fondamentales, dans l’espoir de parvenir à la théorie de la Grande unification, se sont heurtées au même problème : les particules servant de vecteurs aux forces ne devraient avoir aucune masse. Pourquoi donc n’étaient-elles pas comme le photon ?

Ralentissement La grande idée de Higgs a été

d’imaginer que ces médiateurs des forces étaient ralentis en passant dans un champ de forces sousjacent. Ce champ, appelé depuis « champ de Higgs », Simulation agit aussi par transfert de bosons, appelés bosons de Higgs. Imaginez des traces qu’on lâche une perle dans un verre : elle mettra plus de temps à tomber de particules au fond si le verre est rempli d’eau que s’il est vide. Tout se passe comme si provenant de la désintégration la perle était plus massive à travers l’eau – il faut davantage de temps pour d’un boson de que la gravité la tire à travers le liquide. C’est la même chose lorsqu’on Higgs marche dans l’eau : les jambes paraissent plus lourdes et le mouvement est ralenti. La perle peut être encore plus ralentie si le verre est rempli de sirop où elle prendra un moment à toucher le fond. Le champ de Higgs agit à la façon d’un liquide visqueux. La force de Higgs ralentit les particules responsables des autres forces, leur conférant une masse. Et elle agit davantage sur les bosons W et Z que sur les photons, ce qui les fait paraître plus lourds.

Ce champ de Higgs se comporte à peu près comme un électron traversant un réseau cristallin de noyaux positifs, comme dans un métal. L’électron est légèrement ralenti par l’attraction exercée par toutes ces charges positives et il apparaît plus massif qu’en l’absence de ces ions : nous avons là la force électromagnétique en action, transmise par les photons. Le champ de Higgs fonctionne de façon semblable, à ceci près que c’est le boson de Higgs qui véhicule la force. On peut aussi imaginer l’électron comme une star de cinéma se déplaçant lors d’un cocktail plein de bosons de Higgs. La star trouvera difficile de traverser la salle du fait de toutes les interactions sociales qui la ralentissent. Le champ de Higgs, lui, confère leur masse aux autres bosons. Mais le boson de Higgs a lui-même une masse. Les expériences réalisées au LHC ont permis de la déterminer.

1964

Higgs a l’idée de ce qui confère leur masse aux particules

2009

Mise en route du Grand Collisionneur de Hadrons (Large Hadron Collider, LHC)

2012

Vérification expérimentale de l’existence du boson de Higgs au LHC.

105

106

50 clés pour comprendre l’astronomie

Confirmation expérimentale Le LHC (Large Hadron Collider, grand collisionneur de hadrons) au CERN, en Suisse, a donc permis de confirmer expérimentalement l’existence de la particule de Higgs. Le CERN (Conseil Européen pour la Recherche Nucléaire) est un énorme laboratoire de physique des particules situé près de Genève. Il abrite des anneaux souterrains dont le plus grand atteint 27 kilomètres de long et est enterré à 100 mètres de profondeur. Au LHC, des aimants géants accélèrent les protons créant un faisceau circulaire. Constamment accélérés pendant leur course, ils vont de plus en plus vite. Deux faisceaux tournant en sens contraire sont accélérés avant d’être dirigés l’un contre l’autre pour provoquer une collision frontale. Les énormes énergies qui en résultent permettent la libération provisoire de toute une gamme de particules massives. Ces dernières sont enregistrées par les détecteurs, ainsi que les produits de leur désintégration si elles ont une très courte durée de vie. La particule de Higgs a été détectée au milieu de la signature de milliards d’autres particules. Les physiciens ont beau savoir ce qu’ils cherchent, détecter cette particule était difficile !

Défauts et symétries brisées Pendant le premier centième de seconde qui a suivi le Big Bang, l’Univers est passé par quatre phases, chacune étant associée à la création d’une force fondamentale : l’interaction électromagnétique, les interactions nucléaires faible et forte et la gravité. Comme l’eau lorsqu’elle se passe de la vapeur à l’état liquide puis à la glace, la structure de l’Univers devient moins symétrique à mesure qu’il refroidit. Au passage de chacune de

ces transitions de phase, des imperfections ont pu apparaître, exactement comme ces altérations qui naissent dans l’agencement des molécules dans les cristaux de glace. Les théoriciens avancent que ces « défauts topologiques » de l’espace-temps pourraient être, entre autres, les « cordes cosmiques », les monopôles magnétiques et les formes spiralées appelées « textures ».

«

La « particule de Dieu »

Ce qui paraissait évident était de faire des tests sur la plus simple des théories de jauge, l’électrodynamique : briser sa symétrie et regarder ce qui s’était vraiment passé. Peter Higgs

»

Brisure de symétrie Le boson de Higgs est extrêmement lourd. Aussi ne peut-il se manifester qu’à de très grandes énergies et encore, du fait des règles quantiques, pendant un instant très bref. Les théories font l’hypothèse que, dans l’Univers tout à fait primordial, toutes les forces étaient unifiées en une seule super-force dont, à mesure que l’Univers refroidissait, sortirent les quatre forces fondamentales à travers un processus baptisé brisure de symétrie. Cela peut paraître difficile à imaginer mais, en fait, c’est assez simple. C’est l’instant où la symétrie d’un système est ôtée par un seul événement. Prenons une table ronde dressée avec couverts et serviettes. Elle possède une symétrie en ce sens que peu importe la place où vous vous asseyez, la table reste identique. Mais si quelqu’un prend sa serviette, la symétrie est brisée : vous pouvez préciser quelle position vous occupez par rapport à cette place. Il y a eu brisure de symétrie. Il se peut que cet unique événement ait déclenché une série d’effets : par exemple, chacun prendra la serviette qui se trouve à sa gauche comme l’a fait la première personne. Mais si cette dernière avait pris sa serviette de l’autre côté, c’est le contraire qui se serait produit. Le motif qui en ressort dépend de l’événement aléatoire qui lui a donné naissance. De la même manière, pendant que l’Univers refroidissait, des événements ont séparé les forces, une à une. Jusqu’à maintenant, le modèle standard – théorie au sein de laquelle a été prédite l’existence du boson de Higgs – a permis de nombreuses prédictions. Mais la masse du boson de Higgs restait un paramètre libre de la théorie. Désormais, cette masse a été mesurée et les expériences conduites au LHC permettront d’ajuster les prédictions de la théorie tout en les confrontant à l’expérience. Un écart significatif entre prédictions et résultats expérimentaux ouvrirait peutêtre les portes d’une nouvelle physique.

l’idée clé Nager à contre-courant

107

108

50 clés pour comprendre l’astronomie

27 L a théorie

des cordes

Alors que le modèle standard n’est ni confirmé ni infirmé, certains scientifiques recherchent une autre façon de décrire la matière dont est fait l’Univers. Un groupe de physiciens tente d’expliquer les structures des particules fondamentales en les considérant non comme des billes dures mais comme des ondes sur une corde. C’est cette idée qu’on désigne par théorie des cordes. Les théoriciens des cordes ne se satisfont pas du fait que les particules élémentaires, tels les quarks, les électrons ou les photons, sont des parcelles indivisibles de matière ou d’énergie. Les structures qui leur confèrent une masse, une charge ou la quantité d’énergie associée suggèrent l’existence d’un autre niveau d’organisation. Ces scientifiques considèrent que ces structures révèlent de profondes harmonies. Chaque masse ou quantum d’énergie représente une harmonique de la vibration de cordes minuscules. Les particules doivent donc être regardées non comme des gouttes solides mais comme des bandes vibrantes ou des boucles de corde. D’une certaine façon, cela redonne vie au penchant de Kepler pour les formes géométriques idéales. Ce serait comme si les particules formaient un motif musical suggérant un ensemble d’harmoniques jouées sur une seule corde.

Vibrations Les cordes de la théorie du même nom ne ressemblent pas à celles que nous connaissons, par exemple à celles d’une guitare. Une corde de guitare vibre dans les trois dimensions de l’espace – on peut peut-être restreindre à deux en supposant que tout se passe dans le plan des cordes. Les cordes subatomiques, elles, vibrent en dimension 1, plutôt qu’en dimension 0 comme les particules ponctuelles. Nous ne pourrions pas les voir en totalité : les mathématiques qu’utilisent les physiciens pour calculer les vibrations des cordes nécessitent davantage de dimensions – 10 ou 11. Dans notre propre monde, il y a trois dimensions pour l’espace et une pour le temps. Mais les

chronologie

1921

La théorie de Kaluza-Klein unifie l’électromagnétisme et la gravitation

1970

Yoishiro Nambu réalise une description de l’interaction nucléaire forte en utilisant des cordes quantiques

La théorie des cordes

«

Ces dimensions supplémentaires fournissent aux cordes de nombreuses façons de vibrer dans de multiples directions, ce qui se révèle la clé permettant de décrire toutes les particules que nous connaissons. Edward Witten

»

théoriciens des cordes pensent qu’il pourrait y en avoir bien d’autres que nous ne voyons pas, des dimensions enroulées – ce pour quoi elles nous échappent. C’est dans ces autres mondes que ces cordes vibrent. Les cordes peuvent avoir des extrémités libres ou se présenter en boucles fermées mais, en dehors de cela, elles sont identiques. C’est pourquoi les différences entre les particules élémentaires proviennent uniquement de la configuration des vibrations des cordes – leurs harmoniques – et non du matériau dont les cordes sont faites.

Une idée originale La théorie des cordes est entièrement mathématique.

Personne n’a jamais vu une corde et personne n’a la moindre idée sur la façon dont on pourrait s’y prendre pour vérifier si elles existent vraiment. Personne n’a donc jamais imaginé une expérience permettant de vérifier si la théorie est vraie ou non. Dans la communauté scientifique, cela place cette théorie dans une situation particulière.

Le philosophe Karl Popper estimait que la science procède essentiellement par falsification : partant d’une idée, on conçoit une expérience pour la tester et, si elle l’infirme, cela élimine quelque chose, on a acquis une nouvelle connaissance et la science a progressé ; si, à l’inverse, l’observation confirme le modèle théorique, vous n’avez rien appris de nouveau. La théorie des cordes n’est pas complètement développée et elle n’a pas encore défini un ensemble d’hypothèses qui soient falsifiables. La théorie comporte tant de variantes que certains scientifiques affirment que ce n’est pas de la science. Les polémiques sur le fait qu’elle est utile ou non remplissent les pages des revues, et même des journaux. Mais les théoriciens des cordes pensent que leur quête est utile.

Une théorie du tout En essayant de faire entrer tout le zoo des particules

et interactions dans un cadre unique, la théorie des cordes espère s’approcher d’une « théorie du tout », une seule théorie qui unifierait les quatre interactions

Milieu des années 1970 Mise au point d’une théorie de la gravitation quantique

1984-1986

La théorie des cordes connaît une rapide expansion et fournit une explication pour toutes les particules

Années 1990

Witten et d’autres physiciens développent la théorie M en 11 dimensions

109

110

50 clés pour comprendre l’astronomie fondamentales (l’électromagnétisme, la gravitation et les interactions nucléaires forte et faible) et expliquerait l’existence de la masse des particules et ses propriétés. Ce serait une théorie profonde qui serait universellement sous-jacente. Dans les années 1940, Einstein tenta d’unifier la théorie quantique et la gravitation sans y parvenir, pas plus que quiconque depuis. On se moqua de ses efforts, l’unification des deux paraissant chose impossible et une perte de temps. La théorie des cordes introduit la gravité dans ses équations et les possibilités que cela ouvre ont conduit certains à persévérer. Mais il reste un long chemin à parcourir avant qu’elle soit formulée avec précision – pis encore, vérifiée ! La théorie des cordes se révéla comme une théorie originale du fait de la beauté de ses mathématiques. Dans les années 1920, Theodor Kaluza employa les harmoniques comme approche alternative pour décrire certaines propriétés inhabituelles des particules. Les physiciens se rendirent compte que ces mêmes mathématiques pouvaient aussi décrire certains phénomènes quantiques. Fondamentalement, l’analyse harmonique fonctionne aussi bien en mécanique

La théorie M Les cordes sont, pour l’essentiel, des lignes. Mais, dans un espace à dimensions multiples, elles constituent un cas limite de géométries qui pourraient contenir des surfaces et d’autres formes multidimensionnelles. Cette théorie générale est appelée « théorie M », où le M ne représente pas un seul mot mais pourrait être mis pour membrane, ou mystère. Une particule se déplaçant dans l’espace gribouille une ligne : si la particule ponctuelle était trempée dans l’encre, nous verrions une trajectoire linéaire appelée ligne d’univers. Une corde, par exemple une boucle, dessinerait un cylindre – nous parlerons de sa surface d’univers. À l’intersection de ces surfaces, là où les cordes se rompent et forment de nouvelles combinaisons, il y a des interactions. En réalité, la théorie M est l’étude des formes de toutes ces surfaces d’un espace à 11 dimensions

«

La théorie des cordes

Je n’aime pas le fait qu’ils ne calculent rien. Je n’aime pas le fait qu’ils ne vérifient pas leurs idées. Je n’aime pas le fait que, pour chaque désaccord avec un résultat expérimental, ils concoctent une explication, un rafistolage qui leur permet de dire : “Eh bien quoi, ça marche encore !“ Richard Feynman

»

quantique que dans son extension à la physique des particules. C’est cela qui fut développé dans les premières théories des cordes. Mais il y a de nombreuses variantes et on est encore loin d’une théorie universelle. Une théorie du tout est le but de certains physiciens, généralement réductionnistes et convaincus que la compréhension des briques élémentaires permet d’appréhender l’univers dans son ensemble : avec la connaissance de l’atome, constitué de cordes vibrantes, on peut déduire toute la chimie, la biologie et ainsi de suite. D’autres scientifiques trouvent cette position ridicule. En quoi la compréhension de ce qu’est un atome pourrait-elle expliquer les théories sociales, l’évolution ou les impôts ? Tout ne se prête pas si facilement au passage à l’échelle macroscopique. Ils ne voient dans le monde que décrit cette théorie qu’un vain bruit d’interactions à l’échelle subatomique ; ils trouvent la théorie nihiliste et fausse. Le point de vue réductionniste ignore des comportements manifestement macroscopiques comme les ouragans, le chaos. Pour le physicien Stephen Weinberg, il est «  froid et impersonnel. Nous devons l’accepter tel qu’il est non parce que nous l’aimons mais parce que c’est ainsi que va le monde. » La théorie – il faudrait dire les théories – des cordes est toujours en perpétuel devenir. Aucune théorie stable n’a encore émergé. Cela pourrait prendre encore un certain temps, la physique étant devenue si complexe qu’il faut y incorporer énormément de choses. Voir l’Univers comme la vibration de nombreuses harmonies a du charme mais les partisans de ce point de vue en tiennent parfois pour des positions stériles, restant englués dans des détails subtils et dépréciant la signification des structures de plus grande échelle. C’est pourquoi il est bien possible que les théoriciens des cordes restent marginaux jusqu’à ce qu’une vision plus puissante apparaisse. Mais, étant donné la nature de la science, c’est une bonne chose qu’ils cherchent en dehors des sentiers battus.

l’idée clé Harmonies universelles

111

112

50 clés pour comprendre l’astronomie

28 L e principe

anthropique

Le principe anthropique stipule que l’Univers est ce qu’il est parce que, s’il était différent, nous ne serions pas là pour en parler. C’est une explication de la raison pour laquelle chaque paramètre de la physique prend telle valeur et non une autre, depuis la portée des forces nucléaires jusqu’à l’énergie noire et la masse de l’électron. Si l’un de ces paramètres venait à varier même légèrement, l’Univers ne serait plus habitable. Si l’interaction nucléaire forte était un peu différente, protons et neutrons ne pourraient s’accoler pour former les noyaux et les atomes n’existeraient pas. La chimie non plus, pas plus que le carbone, la biologie ou les êtres humains. Dans ce cas, qui « observerait » l’Univers, l’empêchant de n’être qu’une soupe quantique de probabilités ? De la même façon, même si les atomes existaient et que l’Univers avait évolué jusqu’à créer toutes les structures que nous connaissons aujourd’hui, il suffirait que l’énergie noire soit un peu plus forte pour que galaxies et étoiles aient déjà été démantelées. De minuscules modifications de la valeur des constantes physiques, de l’intensité des forces ou de la masse des particules pourraient ainsi produire des catastrophes. Dit autrement, l’Univers apparaît comme très bien réglé : les forces sont juste « comme il faut » pour que l’humanité ait pu se développer. Est-ce le fruit du hasard si nous vivons dans un univers vieux de 14 milliards d’années, où l’énergie noire et la gravitation s’équilibrent mutuellement et où les particules subatomiques ont la forme que nous leur connaissons ?

Parfait Plutôt que donner une place toute particulière à l’humanité et penser que l’Univers tout entier a été fait spécialement pour nous – ce qui serait peutêtre un point de vue un peu présomptueux – le principe anthropique explique qu’il n’y a rien de surprenant. Si l’une quelconque des forces avait été légère-

chronologie

1904

Alfred Wallace traite de la place de l’Homme dans l’Univers

Le principe anthropique

«

»

Pour faire une tarte aux pommes à partir de rien, il faut d’abord créer l’Univers. Carl Sagan

ment différente, nous ne serions tout simplement pas là pour en témoigner. De la même façon qu’il y a de nombreuses planètes mais, pour autant que nous le sachions, une seule qui possède les conditions propices à la vie, l’Univers pourrait s’être créé de bien des façons mais ce n’est que dans celle-ci que nous avons pu naître à la vie. De façon analogue, si le moteur à combustion n’avait pas été inventé quand il l’a été et si mon père n’avait pas été en situation de voyager vers le Nord où il a rencontré ma mère, je ne serais pas là. Cela ne signifie pas pour autant que l’Univers tout entier a évolué dans l’unique but de me permettre de naître. Mais le fait que j’existe nécessite, en fin de compte, parmi d’autres facteurs, que le moteur à explosion ait été inventé auparavant, restreignant ainsi la gamme d’univers où j’aurais pu exister. Bien qu’il se fût agi de quelque chose dont les philosophes étaient familiers, le principe anthropique a été utilisé comme argument en physique et en cosmologie par Robert Dicke et Brandon Carter. Une formulation – le principe anthropique faible – affirme que nous ne serions pas là si les paramètres étaient différents, le fait que nous existions restreignant les propriétés des univers physiques habitables où nous pourrions exister. Une autre version, plus forte, donne davantage d’importance à notre propre existence comme l’idée que la vie doit nécessairement apparaître pour que l’Univers existe lui-même. Par exemple, il faut la présence d’observateurs pour que la réalité de l’Univers prenne corps du fait même qu’il est observé. John Barrow et Franck Tipler ont déjà suggéré une autre version où le traitement de l’information est un but fondamental de l’Univers et donc que son existence devait produire des créatures capables de traiter l’information.

Des mondes nombreux Pour que des êtres humains aient pu être produits,

il faut un univers suffisamment vieux pour que le carbone ait pu être fabriqué par d’anciennes générations d’étoiles et les interactions nucléaires faible et forte doivent être « parfaites » pour autoriser la physique nucléaire et la chimie. La gravitation et l’énergie noire doivent aussi s’équilibrer pour pouvoir former les étoiles plutôt que mettre en pièces l’Univers. En allant plus loin, il faut que les étoiles soient durables, pour que les planètes puissent se former, et suffisamment grandes pour que nous puissions nous retrouver sur une planète située dans une

1957

Robert Dicke écrit que l’Univers est contraint par des facteurs biologiques

1973

Brandon Carter examine le principe anthropique

113

114

50 clés pour comprendre l’astronomie

Bulles anthropiques

Nous pouvons éviter le dilemme anthropique si nous admettons l’existence Interaction forte de nombreux univers paralVie sans trop faible : pas lèles, les univers-bulles, qui intelligence de fusion côtoient celui où nous Pas de Vie intelligente vivons. Dans chaque unimatière vers-bulle, les paramètres Interaction Pas de de la physique peuvent nucléaire faible liaisons être légèrement différents. trop forte : atomiques trop de Ces derniers déterminent la radioactivité Forte gravité : façon dont chaque univers que des évolue et le fait que, dans Gravité faible trous noirs : absence de un univers donné, puisse se Pas de planètes développer un cadre propice lumière à la vie. Pour autant que nous le sachions, la vie est quelque chose de complexe et cela ne se produira que dans un petit nombre d’univers. Mais, du moment qu’il y a de nombreux universbulles, c’est possible et notre existence n’est donc pas si improbable !

jolie banlieue tempérée favorisant la présence d’eau, d’azote, d’oxygène et de toutes molécules nécessaires à l’apparition de la vie. Les physiciens peuvent imaginer des univers où ces quantités sont différentes et certains ont donc suggéré que semblables univers pourraient être créés tout aussi facilement qu’un univers du genre du nôtre. Ils pourraient exister en tant qu’univers parallèles, ou multivers, et nous n’existerions que dans une seule réalisation. L’idée d’univers parallèles s’intègre au principe anthropique en ce qu’elle autorise d’autres univers où nous ne pourrions pas exister.

Alternatives Le principe anthropique a ses détracteurs. Pour certains, il s’agit

d’un truisme – il en est ainsi parce qu’il en est ainsi – qui ne nous apporte pas grand-chose de nouveau. D’autres se désolent de n’avoir que cet univers particulier comme champ d’investigations : ils préfèrent se tourner vers les mathématiques pour trouver des voies faisant sortir notre univers tout droit des équations simplement pour des raisons physiques. L’idée de multivers est proche de ce

«

Le principe anthropique

115

Les valeurs observées de toutes les quantités physiques et cosmologiques ne sont pas toutes également probables : leur éventail est limité par la contrainte qu’il faut qu’existent des lieux où une vie fondée sur la carbone puisse se développer et (…) un univers suffisamment vieux pour que cela se soit déjà produit. John Barrow et Frank Tipler

»

point de vue en permettant une infinité d’alternatives. D’autres théoriciens, y compris des théoriciens des cordes et des partisans de la théorie M, tentent d’aller au-delà du Big Bang pour ajuster au mieux les paramètres. Ils voient dans l’océan quantique qui a précédé le Big Bang une sorte de paysage d’énergie et se demandent où un univers s’arrêtera le plus probablement si on le laisse rouler et s’y déployer. Si, par exemple, vous lancez une bille le long d’une pente il y aura davantage de chances qu’elle s’arrête à certains endroits plutôt que d’autres – dans des creux. Il est donc tout à fait possible que, par économie d’énergie, l’Univers déniche tout à fait naturellement certaines combinaisons de paramètres, indépendamment du fait que nous en serions ou non un produit des milliards d’années plus tard. Les défenseurs du principe anthropique et d’autres qui recherchent des moyens mathématiques de parvenir à l’univers que nous connaissons ne s’accordent pas sur la façon dont nous en sommes arrivés là, ni même sur le fait de savoir si pareille question présente un intérêt. Une fois plongés, au-delà du Big Bang et de l’univers observable, au royaume des univers parallèles et des champs d’énergie préexistants, nous baignons en fait dans le domaine de la philosophie. Quelque chose a tout déclenché, qui nous a livré un univers paré comme il l’est aujourd’hui. Quoi que ce fût, il est heureux pour nous que ce chemin fût celui emprunté voici des milliards d’années. On peut comprendre que les mixtures chimiques nécessaires à la vie aient besoin d’un long temps de cuisson. Mais que nous soyons là, en cet instant précis de l’histoire de l’Univers où l’énergie noire équilibre de façon assez tranquille la gravité, cela, c’est plus que de la chance.

l’idée clé Un univers juste comme il faut

116

50 clés pour comprendre l’astronomie

29 L a séquence de Hubble

Les galaxies se présentent sous deux formes : elliptique et spirale. Les astronomes soupçonnent depuis longtemps que similitudes et différences – comme le bulbe central qu’on trouve dans les deux, et la  présence ou l’absence d’un disque aplati d’étoiles – étaient le signe d’une évolution. La preuve que les collisions galactiques sont responsables de cette « séquence de Hubble » nous est fournie par les images du ciel les plus profondes qu’on ait prises. Lorsqu’il fut de plus en plus admis, dans les années 1920, que les nébuleuses floues qui éclaboussent les cieux étaient des galaxies situées au-delà de la nôtre, les astronomes ont cherché à les classifier. Il y en a deux grandes catégories : certaines sont lisses et de forme ellipsoïdale, les autres superposent clairement des motifs spiraux. Elles sont respectivement qualifiées d’elliptiques et spirales. Edwin Hubble – l’astronome américain qui, le premier, prouva que des nébuleuses existent loin au-delà de la Voie lactée – avança l’idée qu’il y avait matière à classification et donna des noms aux diverses catégories. Sa « séquence » galactique est toujours en usage. Les galaxies elliptiques sont désignées par la lettre E suivie d’un nombre qui augmente (de 0 à 7) en fonction de l’élongation de la galaxie : une galaxie de type E0 est en gros circulaire ; une galaxie de type E7 a davantage la forme d’un cigare. Vues dans les trois dimensions de l’espace, les galaxies elliptiques ressemblent à un ballon de rugby. Dans le schéma de Hubble, les galaxies spirales sont désignées par la lettre S suivie d’une autre (a, b ou c) selon que l’enroulement des bras spiraux est plus ou moins resserré : une galaxie Sa est une spirale serrée ; une galaxie de classe Sc présente une spirale lâche. Vue en trois dimensions, les galaxies spirales sont

chronologie

1920

Le Grand Débat pose la question de l’existence de nébuleuses au-delà de la Voie lactée

1926

Diagramme en diapason de Hubble

La séquence de Hubble aplaties comme un frisbee ou une lentille. Une difficulté vient de ce que certaines galaxies spirales ont une « barre » à travers la région centrale : on dit qu’elles sont « spirales barrées » et on les désigne par les lettres SB plutôt que S. Il y a des galaxies qui ne rentrent dans aucune de ces catégories, parmi lesquelles celles qui ont une forme irrégulière – d’où leur nom d’« irrégulières » – ou celles qui se situent quelque part entre les elliptiques et les spirales – qu’on désigne par S0.

Le diapason de Hubble En y regardant de plus près, on trouve des similitudes entre les structures des deux catégories. Les spirales sont faites de deux composants : un bulbe central, qui ressemble beaucoup à une galaxie elliptique et le disque plat qui l’entoure. La taille relative du bulbe par rapport au disque est un autre moyen de classifier les galaxies. Hubble a même imaginé une classification partant des galaxies dont le bulbe est dominant, y compris les elliptiques, jusqu’à celles qui ne sont pratiquement que des disques. On se réfère parfois aux premières comme étant des galaxies « précoces » et aux secondes comme étant « tardives ». Hubble pensait que ces similitudes signifiaient que les galaxies pouvaient évoluer d’un type vers un autre. Hubble présenta sa classification des galaxies sur un diagramme en diapason. De la gauche vers la droite le long de la tige, il figura une suite de galaxies elliptiques, depuis les rondes jusqu’aux allongées. Clouée vers la droite, le long de la branche supérieure, une suite de galaxies spirales depuis celles aux spirales resserrées avec un gros bulbe et un petit disque jusqu’aux disques avec des spirales lâches et presque pas de bulbe. Les galaxies spirales barrées sont réparties le long de la branche inférieure. À travers ce diagramme célèbre – appelé le diapason de

galaxies spirales normales Sb Sa

galaxies elliptiques

Sc

SO E0

E3

E7

SBb

SBa

SBc

galaxies spirales barrées

1975

Vera Rubin découvre la matière noire dans des galaxies spirales

1995

Observation du champ profond de Hubble

117

118

50 clés pour comprendre l’astronomie Hubble (voir page 117) – ce dernier exprimait cette idée forte que les galaxies elliptiques pourraient voir leur disque grandir et finir par devenir spirales. Mais nous n’avons pas de preuve de semblables transformations. De nombreux chercheurs ont depuis consacré leur carrière tout entière à tenter de comprendre comment pouvait se faire l’évolution des galaxies d’un type vers un autre.

Rencontres galactiques Les collisions représentent une des situations où sont bouleversées les caractéristiques des galaxies. Pendant qu’ils cartographiaient le ciel avec leurs télescopes, les astronomes ont découvert de nombreuses paires de galaxies très proches et, à l’évidence, en interaction. Dans les cas les plus dramatiques, de longues trainées d’étoiles s’arrachent aux deux galaxies sous l’influence de leur gravité mutuelle, comme dans la paire en collision appelée «  galaxies des Antennes  ». D’autres galaxies ont pénétré droit au centre d’une compagne, éjectant des nuages d’étoiles et abandonnant des anneaux de gaz. Sous l’influence des perturbations qui s’ensuivent, les galaxies deviennent parfois très brillantes, tandis que de nouvelles étoiles se forment dans des nuages de gaz turbulents. Ces jeunes étoiles bleues peuvent être ensevelies dans de la suie cosmique, conférant à certaines zones une lueur rouge, comme la poussière met en valeur un lever de Soleil. Les rencontres galactiques peuvent être spectaculaires ! Mais nous ne connaissons toujours pas le détail de la formation des galaxies. Seule une collision catastrophique pourrait détruire un grand disque d’étoiles et ne laisser qu’un bulbe elliptique nu, tandis qu’une série d’accumulations tranquilles pourraient laisser une galaxie grossir doucement, sans interruption, jusqu’à obtenir un disque assez important. Les astronomes ne voient que peu de galaxies dans des états intermédiaires, aussi le tableau réel de la façon dont les galaxies sont modifiées par fusions risque-t-il fort d’être compliqué.

Ingrédients galactiques Les galaxies contiennent un nombre énorme

d’étoiles – de plusieurs millions à des milliers de milliards. Les galaxies elliptiques et le bulbe des galaxies spirales contiennent essentiellement des étoiles rouges, anciennes, qui se déplacent sur des orbites inclinées au hasard, ce qui leur donne leur forme boursouflée ellipsoïdale. Dans le disque des galaxies spirales, au contraire, on trouve essentiellement de jeunes étoiles bleues. Elles sont concentrées dans les bras spiraux qui, filant à travers les nuages de gaz du disque, offrent un environnement propice à la naissance d’étoiles. Le disque des galaxies spirales contient énormément de gaz, en particulier d’hydrogène. À l’inverse, les galaxies elliptiques n’en abritent que peu et ne donnent donc naissance qu’à un petit nombre d’étoiles.

«

La séquence de Hubble

Pointant vers l’ultime horizon blafard, nous cherchons, au sein d’erreurs d’observations fantomatiques, des points de repère guère plus tangibles. La quête se poursuivra : le désir remonte plus loin que l’histoire. Il n’est pas comblé et ne sera pas refoulé. Edwin Hubble

»

C’est aussi dans les disques galactiques que la matière noire a été découverte (voir page 72). La périphérie des galaxies spirales tourne trop vite pour que la masse de leurs étoiles et de leurs gaz suffise à l’expliquer : une autre forme de matière est présente. Cette matière supplémentaire n’est pas visible – elle n’émet ni n’absorbe de lumière –, ce pourquoi on l’appelle matière noire. Elle pourrait être constituée de particules exotiques difficiles à détecter parce qu’interagissant rarement, ou bien de lourds objets compacts, tels les trous noirs, des étoiles avortées ou des planètes gazeuses. La matière noire forme comme un cocon sphérique autour d’une galaxie qu’on désigne comme étant son « halo ».

Champ profond de Hubble On trouve ces mêmes sortes de galaxies

partout dans l’Univers. L’image la plus profonde du ciel jamais prise se trouve dans le Champ profond de Hubble. Pour avoir une idée de l’allure d’une bande moyenne de l’univers lointain, le télescope spatial Hubble a observé un petit bout du ciel (large de 2,5 minutes d’arc) pendant dix jours. La vue perçante de l’observatoire spatial porte bien plus loin que celle des télescopes terrestres, ce qui nous a ouvert des horizons nouveaux sur les galaxies lointaines. La lumière prenant du temps pour traverser l’étendue de l’espace, ces galaxies se montrent à nous telles qu’elles étaient il y a des milliards d’années.

Ce champ a été choisi car il était dégagé de toutes les étoiles au premier plan et à peu près la totalité des 3 000 objets observés dans ce cadre sont donc des galaxies éloignées, en majorité elliptiques et spirales. Ces deux types sont donc apparus il y a longtemps. On y trouve cependant davantage de galaxies bleues, petites et irrégulières, que dans l’univers proche. On y voit aussi que le rythme de formation des étoiles était dix fois plus rapide il y a 8 à 10 milliards d’années qu’aujourd’hui. Ces deux facteurs laissent entendre que des collisions plus fréquentes sont responsables de la croissance rapide des galaxies dans le jeune univers.

l’idée clé Transformateurs galactiques

119

120

50 clés pour comprendre l’astronomie

30 A  mas galactiques Les galaxies se regroupent pour former des amas – les plus gros objets de l’Univers qui soient liés par la gravité. Ensembles massifs de milliers de galaxies, les amas regroupent aussi des réservoirs de gaz très chauds et de la matière noire qui sont éparpillés entre les membres de l’amas. Au xviiie siècle, les astronomes se sont rendu compte que les nébuleuses n’étaient pas régulièrement réparties. Tout comme les étoiles, elles constituent des groupes ou des amas. L’astronome français Charles Messier fut l’un des premiers à étudier les nébuleuses les plus brillantes et à en dresser une liste qui comprend ce que nous savons aujourd’hui être non seulement des galaxies mais aussi des nébuleuses diffuses et des nébuleuses planétaires, des amas d’étoiles et des amas globulaires. La première version de son catalogue a été publiée en 1774 dans le journal de l’Académie des sciences ; il ne recensait que 45 des taches les plus spectaculaires. Une version ultérieure, parue en 1781, en dénombrait plus de cent. Les astronomes continuent à parler des objets de Messier, les désignant par la lettre M suivie d’une référence : par exemple, la galaxie d’Andromède est désignée par M 31. Le catalogue de Messier comprend quelques-uns des objets les plus étudiés en détail dans leur catégorie. Un catalogue beaucoup plus vaste des objets situés plus profondément dans le ciel – le New General Catalogue, le nouveau catalogue général – a été dressé et publié dans les années 1880. Johann Dreyer y a recensé presque 8 000 corps célestes dont presque un tiers vient des observations de William Herschel. On distingua divers types d’objets de différentes classes, depuis les nébuleuses brillantes jusqu’aux vagues amas d’étoiles. L’avènement de la photographie permit de trouver bien plus de corps et le catalogue fut étendu en 1905 avec l’addition de deux Catalogues Index comprenant plus de 5 000 objets. Ces corps célestes sont toujours désignés par NGC ou IC selon le catalogue où ils ont figuré. La galaxie d’Andromède, par exemple, est aussi NGC 224.

chronologie

1781

Messier repère l’amas de la Vierge

1924

Hubble mesure la distance de la galaxie d’Andromède

Amas galactiques

«

Qui sommes-nous ? Il se trouve que nous vivons sur une planète insignifiante tournant autour d’une étoile banale perdue dans une galaxie enfouie dans un recoin oublié de l’Univers où il y a davantage de galaxies que de gens ! Carl Sagan

»

Le Groupe local Dans les années 1920, les astronomes ont découvert que de nombreuses nébuleuses étaient des galaxies situées très loin de la nôtre. Utilisant les techniques de l’échelle des distances cosmiques, y compris les céphéides et les décalages vers le rouge, ils ont estimé leurs distances : par exemple, la galaxie d’Andromède est à 2 500 000 années-lumière. Il est vite apparu qu’Andromède et la Voie lactée sont les deux plus gros membres d’un groupe d’environ 30 galaxies, connu sous le nom de Groupe local.

65

Andromède et la Voie lactée sont très voisines par la taille et le type. Andromède est elle aussi une grande galaxie spirale – que nous ne voyons que sur le côté, avec une inclinaison d’environ 45°. Les autres galaxies du Amas de la groupe sont bien plus petites. Vierge Nos deux voisins les plus Lion 1 proches sont le Grand et le Petit Groupe M 66 Nuage de Magellan, à quelque 35 000 000 a.-l. 160  000 années-lumière et qui apparaissent comme deux 38 000 000 a.-l. taches de la taille du pouce dans le ciel du Sud, adjacents Groupe M 81 à la traînée de la Voie lactée. 11 000 000 a.-l. Groupe local Elles ont été nommées d’après l. Ferdinand Magellan qui rentra a.00 Groupe de la 0 de son périple autour de la Terre 55 0 Grande Ourse 00 00 e 0 0 4 au xvi  siècle avec des comptes00 0a .-l rendus de leur observation. Les . Groupe M 101 nuages de Magellan sont des 31 000 000 a.-l. galaxies naines irrégulières dont Groupe du Groupe M 51 la taille est un dixième de celle Dragon 31 000 000 a.-l. de la Voie lactée. 00

00

00

l.

a.-

1933

Zwicky évalue la matière noire dans l’amas de Coma

1966

Détection de rayons X en provenance de l’amas de la Vierge

121

122

50 clés pour comprendre l’astronomie L’amas de la Vierge Le Groupe local est l’un des nombreux ensembles de

galaxies. L’amas de la Vierge, bien plus riche, contient des milliers de galaxies, 16 d’entre elles étant suffisamment brillantes pour avoir été répertoriées comme formant un groupe dans le catalogue de Messier de 1781. C’est le grand amas galactique le plus proche de nous, à quelque 60 millions d’années-lumière. Il y a d’autres exemples de vastes amas, comme l’amas de Coma ou celui du Fourneau dont le nom vient, pour chacun, de la constellation où l’on peut les voir. En fait, le Groupe local et l’Amas de la Vierge font partie d’un ensemble encore plus important, le Superamas local.

C’est la gravité qui assure la cohésion des amas galactiques. De même que les étoiles parcourent des orbites à l’intérieur des galaxies, de même les galaxies suivent leur route autour du centre de masse de l’amas. Un grand amas galactique standard pèse en tout 1 015 (un million de milliards) masses solaires. De plus, tant de matière concentrée dans un petit espace provoque une distorsion de l’espace-temps. Dans l’analogie du morceau de caoutchouc, le poids des galaxies crée une dépression où toutes les galaxies sont logées. Mais, en plus des galaxies, du gaz vient aussi s’accumuler dans cette cavité de l’espace-temps.

Gaz intra-amas Les amas galactiques sont donc pleins de gaz brûlants. Ces océans de gaz sont si chauds – des millions de degrés Celsius – qu’ils brillent suffisamment pour émettre des rayons X que des satellites peuvent détecter. On parle de ce gaz chaud comme de gaz intra-amas. De la même façon, la matière noire s’accumule aussi dans le puits gravitationnel des amas. Les astronomes caressent l’espoir de voir la matière noire dans un nouvel environnement, en dehors des galaxies proprement dites : aussi scrutent-ils l’intérieur des amas pour tenter d’y

Charles Messier (1730-1817) Messier est né en France, en Lorraine, au sein d’une grande famille. Il s’est intéressé à l’astronomie après avoir vu l’apparition spectaculaire dans le ciel d’une comète à six queues en 1744. Il aurait ensuite été témoin, en 1748, dans sa ville natale, d’une éclipse de Soleil. Il rejoignit en 1751 la Marine en tant qu’astronome, décrivant avec soin ses observations, comme le passage de Mercure

devant le Soleil en 1753. Il a été largement reconnu par les institutions scientifiques européennes et fut élu, en 1770, à l’Académie des sciences. Messier a créé un catalogue célèbre, en partie destiné à venir en aide aux chasseurs de comète de ce temps. Il a découvert 13 comètes. Un cratère de la Lune et un astéroïde portent son nom.

Amas galactiques

«

L’image représente davantage que l’idée. C’est un tourbillon, un amas d’idées combinées doté d’énergie. Ezra Pound

»

repérer des signes inhabituels qui pourraient les aider à comprendre de quoi elle pourrait être faite. Par exemple, une étude a affirmé avoir trouvé un « boulet » de matière noire filant à toute allure et se déplaçant d’une façon différente de celle des gaz chauds en mouvement dans un amas précis. Mais l’origine de la matière noire reste un mystère. Les amas sont si massifs qu’ils peuvent aussi déformer la lumière des galaxies qui se trouvent derrière eux. En recourbant la lumière, ils agissent comme des lentilles géantes granuleuses, les « lentilles gravitationnelles » (voir page 148), brouillant l’image des galaxies lointaines en courbes et taches. On peut, de façon peu flatteuse, comparer les amas à des tas de détritus du cosmos parce qu’ils sont tellement gros que tout y tombe. Par suite, ce sont des hauts lieux d’investigation pour l’archéologie cosmique. Qui plus est, ce sont les plus grands objets gravitationnellement bornés et, à ce titre, ils devraient contenir de la matière normale et noire dans des proportions représentatives de l’Univers dans son ensemble. Si nous pouvions compter et peser tous les amas, cela nous donnerait une valeur approximative de la masse totale de l’Univers. Si nous pouvions en outre pister la façon dont ils grossissent au fil du temps, en repérant des amas très éloignés qui pourraient être observés au moment de leur formation, nous pourrions comprendre comment s’est développée la structure de l’Univers depuis le Big Bang.

l’idée clé Là où tout se rassemble

123

124

50 clés pour comprendre l’astronomie

31 S tructure à

grande échelle

Les galaxies sont éparpillées dans tout l’Univers en structures semblables à de la mousse. Les amas se trouvent à l’intersection de filaments et de feuilles enveloppant des régions vides. Ce réseau cosmique vient de milliards d’années d’action de la gravité, les galaxies s’attirant mutuellement. Dans les années 1980, les instruments des astronomes étaient devenus si sophistiqués qu’on put mesurer simultanément les décalages vers le rouge de nombreuses galaxies en enregistrant les spectres multiples des caractéristiques des rayons lumineux qui en proviennent. Un groupe d’astronomes du Harvard Center for Astrophysics (CfA) décida de relever systématiquement tous les décalages vers le rouge de centaines de galaxies pour tenter de reconstituer leurs positions dans l’espace à trois dimensions. Les résultats de leur étude, le CfA Redshift Survey, dévoila un nouveau paysage cosmique. Les astronomes ont cartographié le voisinage de la Voie lactée, depuis son Groupe local jusqu’aux plus proches amas et superamas en bordure desquels nous vivons. À mesure que leurs recherches s’étoffaient, on chercha plus loin. En 1985, un millier de décalages vers le rouge avaient été relevés sur une étendue de 700 millions d’années-lumière. En 1995, plus de 18 000 relevés de décalages de galaxies assez brillantes étaient effectués, sur une large étendue du ciel boréal.

Mousse cosmique Le premier relevé s’est révélé surprenant : il montrait que, même à des échelles aussi énormes, l’Univers n’est pas distribué au hasard. Les galaxies ne se répartissent pas de façon aléatoire mais semblent se raccrocher à d’invisibles filaments, formant des arcs suspendus à la surface de bulles autour de zones appelées vides. Cette structure ressemblant à de la mousse est appelée « réseau cosmique ». Les amas galactiques se sont formés aux endroits où les

chronologie

1977

Début du CfA (Center for Astrophysic) Redshift Survey

1985

Découverte du Grand Mur de galaxies

Structure à grande échelle

«

Il est impossible de bâtir une doctrine de la création sans prendre en compte l’âge de l’Univers et le caractère évolutif de l’histoire cosmique. John Polkinghorne

»

filaments se sont chevauchés. La plus grande structure apparue dans l’étude a été nommée le Grand Mur – un groupe de galaxies concentré dans une vaste zone de 600 millions d’années-lumière de long sur 250 millions de large et 30 millions d’épaisseur. Enchâssés dans cette bande, on trouve de nombreux amas galactiques, y compris le fameux amas de Coma, un des plus massifs de notre voisinage. Depuis, la technologie a encore facilité ce genre de relevés et nous avons aujourd’hui cartographié des millions de galaxies à travers la plus grande partie du ciel. Le programme de recherche le plus important est le Sloan Digital Sky Survey, dont les observations sont faites année après année à partir d’un télescope dédié de 2,5 m de diamètre de l’observatoire d’Apache Point au NouveauMexique. Depuis 2000, ce programme se propose de représenter 100 millions d’objets sur une étendue de 25 % du ciel et d’obtenir les décalages vers le rouge d’un million d’entre eux. Le télescope capture 640 spectres à la fois à l’aide de fibres optiques collées sur des trous percés sur une plaque. Chaque morceau du ciel a sa propre plaque fabriquée spécialement pour lui et, chaque nuit, on en utilise jusqu’à neuf.

Ségrégation galactique L’étude Sloan nous a donné une vue parfaite des structures galactiques de l’Univers. Les galaxies se regroupent en réseaux semblables à une toile à toutes les échelles. L’étude recueille à la fois des spectres et des images. Les astronomes peuvent donc distinguer différents types de galaxies. Les elliptiques ont tendance à être relativement rouges avec un spectre semblable à celui d’étoiles anciennes. Les spirales sont plus bleues et leur spectre révèle des étoiles plus jeunes qui se forment au sein de leur disque riche en gaz. L’étude Sloan montre que les différents types de galaxies s’assemblent de différentes façons. Les galaxies elliptiques préfèrent les amas et les régions denses de l’espace. Les spirales sont réparties plus largement et évitent les riches centres des amas. Bien que, par définition, ils ne contiennent à peu près rien, les vides peuvent receler une poignée de galaxies, généralement spirales. Cette ségrégation montre que les galaxies appréhendent leur environnement.

2000

Début du Sloan Digital Sky Survey

2015

Début de la construction du Large Synoptic Survey Telescope

125

126

50 clés pour comprendre l’astronomie Raies d’absorption des quasars Il est facile de pister les galaxies lumineuses mais on en sait moins sur la matière noire et les gaz éparpillés dans l’espace. On peut repérer des nuages de gaz quand ils absorbent la lumière provenant d’objets derrière eux. Les quasars sont des objets très brillants qu’on trouve généralement très loin et sont donc d’excellents « phares ». Comme l’hydrogène gazeux crée des raies spectrales de Fraunhofer (voir page 28) lorsqu’il absorbe la lumière solaire, sa signature est reconnaissable dans le spectre lumineux des quasars. Ainsi, les nuages d’hydrogène peuvent être repérés par les raies d’absorption qu’ils produisent. On peut aussi détecter les traces d’autres éléments à l’intérieur des nuages bien que ces raies d’absorption soient souvent ténues et plus difficiles à repérer. La raie d’absorption de l’hydrogène la plus nette apparaît dans la zone ultraviolette du spectre (à la longueur d’onde de 121,6 nanomètres). Décalée vers le rouge, elle apparaît alors à des longueurs d’onde plus grandes. On l’appelle la raie Lyman-alpha. Les nuages de gaz riches en hydrogène qui produisent cette raie d’absorption sont souvent appelés nuages Lyman-alpha. S’il y a de nombreux nuages devant le quasar, chacun produira un saut dans le spectre correspondant à son décalage vers le rouge. La séquence de lignes noires qui résulte de la capture de la lumière ultraviolette émise par le quasar est appelée forêt Lyman-alpha. Si l’on explore l’espace situé à l’avant de nombreux quasars lointains, on peut estimer la distribution des nuages d’hydrogène qu’il contient. Les astronomes constatent que, dans l’ensemble, les nuages de gaz s’organisent selon les mêmes structures que les galaxies. Nous en savons moins à propos de la matière noire qui n’interagit pas avec la lumière et ne peut donc être vue ni par émission ni par absorption. Mais les astronomes soupçonnent que, là aussi, elle préfère coloniser les conurbations galactiques.

études à venir

On espère que les études de demain pourront réaliser un « film » de l’ensemble du ciel dans diverses longueurs d’onde. Le Large Synoptic Survey Telescope, en construction au Chili, aura un diamètre de 8,4 mètres avec une caméra numérique de 3 milliards de pixels. Capable de couvrir en une seule prise une étendue de 49 fois l’aire de la Lune, il sera en état de fournir une image du ciel chaque semaine à partir de 2015. De tels télescopes permettront les investigations sur le mystère de la matière et de l’énergie noires et seront capables de détecter les objets qui se transforment ou se déplacent, comme les supernovae et les astéroïdes.

«

Structure à grande échelle

Une œuvre de fiction est comme une toile d’araignée, tissant des liens ténus, mais des liens tout de même, avec la vie aux quatre coins. Souvent, on les perçoit à peine. Virginia Woolf Attraction gravitationnelle Le réseau cosmique est, en fin de compte, créé par la gravité qui agit sur les galaxies depuis leur formation. Étoiles et galaxies se sont formées à partir de l’hydrogène primordial qui a baigné le jeune univers après le Big Bang. Les galaxies se rassemblèrent ensuite, ce qui permit la formation des filaments, des amas et des murs. Les astronomes connaissent à peu près la répartition de la matière 400 000 ans après le Big Bang car c’est là que le fond diffus cosmologique a été libéré. Les points chauds et froids qu’il contient nous permettent de savoir à quel point il était grumeleux en ce temps-là, l’étude des décalages vers le rouge nous disant à quel degré il l’est aujourd’hui. Les astronomes essayent à partir de là de relier les deux images : comme on cherche dans le visage d’un vieil homme l’enfant qu’il était, on étudie la façon dont l’Univers passe de la petite enfance à la maturité. Les motifs précis de la mousse cosmique dépendent étroitement de nombreux paramètres théoriques. En les peaufinant, les astronomes peuvent assujettir la géométrie de l’Univers, la quantité de matière qu’il contient mais aussi les caractéristiques de la matière et de l’énergie noires : ils lancent d’énormes simulations sur ordinateur ; après avoir entré toutes les données (galaxies, gaz, matière noire), on tourne la manivelle pour réaliser une estimation des paramètres. Même ainsi, la réponse n’est pas simple. Les choses sont très différentes selon la nature de la matière noire et, de cette nature, nous n’avons strictement aucune idée ! Les modèles avec une matière noire de type « froid » – mouvements lents de particules exotiques – conduisent à des mouvements de regroupements à large échelle plus importants qu’ils ne le sont. Par contre, avec des particules de matière noire se déplaçant rapidement – autrement dit avec une matière noire « brûlante » ou « chaude » –, on devrait voir davantage de structures à petite échelle qu’il n’y en a en réalité. Les données de regroupements des galaxies laissent donc entrevoir que la matière noire se situe quelque part entre ces deux schémas. De même, trop d’énergie noire neutraliserait la gravité et ralentirait l’accumulation de galaxies. Mieux vaut miser sur un compromis !

l’idée clé Réseau cosmique

»

127

128

50 clés pour comprendre l’astronomie

32 Radioastronomie Les ondes radio révèlent un univers de violences. Produites par des explosions d’étoiles et des jets de matière à proximité des trous noirs, elles permettent de reconnaître des particules se déplaçant rapidement dans de puissants champs magnétiques. L’exemple le plus démesuré est celui des radiogalaxies où des jets jumeaux alimentent des lobes en forme de bulles, bien au-delà des étoiles de la galaxie. Enfin, la répartition des radiogalaxies conforte le modèle du Big Bang. Le fond diffus cosmologique n’a pas été la seule découverte astronomique à être, dans la réception radio, confondue avec des parasites (voir page 60). Dans les années 1930, Karl Jansky, un ingénieur travaillant avec les Laboratoires Bell, essayait de comprendre d’où provenaient ceux qui perturbaient les transmissions par ondes courtes de voix des deux côtés de l’Atlantique. Il repéra un signal qui se répétait toutes les 24 heures. Il pensa d’abord que le Soleil en était à l’origine : plusieurs scientifiques, dont Nikola Tesla et Max Planck, avaient prédit que celuici devrait émettre des ondes électromagnétiques sur toute l’étendue du spectre. En poursuivant ses investigations, il remarqua que ce n’est pas de là qu’il venait. Sa période était de plus légèrement inférieure à 24 heures : elle correspondait à celle de la rotation quotidienne du ciel vu depuis la Terre tournant sur ellemême. Cela signifiait que le signal avait une origine sidérale. En 1933, Jansky découvrit que les parasites provenaient de la Voie lactée, pour l’essentiel de la constellation du Sagittaire, au centre de notre galaxie. Comme aucun ne provenait du Soleil, ils ne devaient pas non plus être émis par des étoiles mais plutôt par les gaz et les poussières interstellaires. Même si Jansky ne poursuivit pas ses travaux, il est considéré comme le père de la radioastronomie et une unité d’intensité des signaux radio (la densité de flux) a été appelée le jansky (Jy) en son honneur. Grote Reber, un radioamateur enthousiaste de Chicago, a lui aussi été pionnier : en 1937, il a construit dans son jardin le premier radiotélescope avec un miroir parabolique de plus de 9 mètres de diamètre et un récepteur radio fixé en son foyer, 6 mètres au-dessus. Le récepteur amplifiait des millions de fois les ondes

chronologie

1933

Jansky détecte la Voie lactée dans les fréquences radio

1937

Reber construit le premier radiotélescope

Radioastronomie

«

Une nouvelle trace d’activité radio au centre de la Voie lactée (…) Aucune preuve de transmission interstellaire. New York Times, 1933

»

radio cosmiques. Ces signaux électroniques étaient ensuite transmis à un traceur et enregistrés.

Radiotélescopes De nos jours, les radiotélescopes ne sont pas affectés par

la lumière solaire et peuvent donc fonctionner de jour. Mais Reber travaillait de nuit pour éviter la pollution des automobiles. Durant les années 1940, il étudia le ciel à travers les ondes radio. Il releva sa luminosité sous forme de courbes de niveau et obtint une esquisse de la forme de la Voie lactée, les émissions les plus brillantes provenant du centre de la galaxie. Il détecta aussi plusieurs sources d’ondes radio brillantes, en particulier dans les constellations du Cygne et de Cassiopée. Ce n’est qu’en 1942 que les recherches d’un officier de l’armée britannique, J. S. Hey, permirent la détection d’ondes radio en provenance du Soleil. C’est après la Deuxième Guerre mondiale que la radioastronomie a pris son essor : parmi les différents pays, ce fut alors à qui construirait le plus vite des systèmes radars. Ces radars – pour RAdio Detection And Ranging, détection et réglage radio – amorcèrent le développement de nombreux appareils à la base de la technologie actuelle.

Mesures Au début des années

1950, des physiciens britanniques et australiens ont réalisé des mesures du ciel dans les fréquences radio par la technique dite de l’interférométrie radio. Alors que le télescope de Reber n’utilisait qu’un seul miroir et un seul récepteur, comme le miroir d’un télescope optique, les interféromètres radio utilisent de multiples récepteurs répartis sur de plus grandes distances, ce qui revient à utiliser un grand miroir avec l’avantage que, en

1953

Découverte du fait que Cygnus A est une radiosource double

Lobe Jets Lobe

Point chaud Cœur Point chaud

1959

Publication du relevé radio 3C

129

130

50 clés pour comprendre l’astronomie

Chuchotements cosmiques

Vous pouvez détecter le chuchotement de la Voie lactée avec une petite radio. Réglez-la loin de toute station afin de n’entendre que les parasites. Ensuite, déplacez l’antenne tout autour : vous pourrez entendre que le chuchotement devient plus fort et moins brutal. Ce chuchotement supplémentaire est dû à la réception des ondes radio provenant de la Voie lactée.

combinant les signaux provenant de nombreux récepteurs, les images du ciel obtenues par les astronomes révèlent des détails plus fins. Une telle installation est idéale pour effectuer des mesures.

Les physiciens britanniques Anthony Hewish et Martin Ryle réalisèrent une série de relevés des sources radio les plus brillantes du ciel boréal à la fréquence de 159  MHz à l’aide d’un interféromètre radio à Cambridge. Travaillant à partir de deux listes antérieures, leur ensemble de mesures, le troisième relevé de Cambridge – 3C en abrégé –, était le premier à être d’une qualité suffisante et fut publié en 1959. Les versions précédentes étaient minées par des problèmes d’étalonnage et avaient mené à des discordances avec les mesures des astronomes australiens travaillant en parallèle sur le ciel austral. Entre 1954 et 1957, Bernard Mills, Eric Hill et Bruce Slee, travaillant sur le télescope Mills Cross en Nouvelle-Galles du Sud, ont répertorié plus de 2 000 radiosources dont ils ont publié la liste. Avec la publication de 3C, les différends entre chercheurs furent aplanis et l’on put se consacrer aux investigations du ciel aux fréquences radio dans les deux hémisphères. Quelle est la nature des radiosources ? C’est ce qu’on se demanda alors et l’on rechercha des spectres optiques. Mais la position des radiosources n’était connue que grossièrement et il s’est avéré difficile de déterminer quelle étoile ou galaxie en était responsable. Les sources finirent par livrer leurs secrets. À l’écart du centre de la Voie lactée, quelques-unes des sources les plus brillantes sont des objets insolites. Par exemple, Cassiopée A et la nébuleuse du Crabe sont des rémanents de supernovae, coquilles de gaz éjectés par l’explosion cataclysmique d’une étoile en fin de vie, la seconde possédant un pulsar en son centre.

Radiogalaxies Les autres sources sont d’une tout autre dimension. La source brillante dans la constellation du Cygne – Cygnus A –, est une galaxie lointaine. Elle fut découverte par Reber en 1939 et l’on montra, en 1953, qu’il s’agissait d’une source double. De telles sources sont caractéristiques de nombreuses galaxies émettant des ondes radio. Chaque extrémité de la galaxie est constituée d’un « lobe » diffus, vaste bulle gonflée par de fins jets de particules de haute énergie émises au centre de la galaxie. La symétrie des deux lobes – en général,

«

Radioastronomie

[Le Big Bang] est un processus irrationnel impossible à décrire en termes scientifiques (…) pas plus qu’on ne peut le soumettre à l’épreuve de l’observation. New York Times, 1933

»

ils sont équidistants du centre et ont des tailles et des formes semvblables – suggère qu’ils ont la même provenance. On pense que ce qui les engendre est un trou noir tapi au centre de la radiogalaxie. La matière aspirée vers le trou noir est déchiquetée et réduite aux particules qui la composent et qui sont éjectées par les jets à des vitesses proches de celle de la lumière. Les ondes radio viennent de l’interaction de ces particules avec de puissants champs magnétiques et du « rayonnement synchrotron » qui en résulte. La plupart des ondes radio de l’espace ont pour origine des interactions entre particules et champs magnétiques – dans le gaz chaud et diffus qui baigne notre galaxie ou les amas galactiques, à l’intérieur de jets de matière ou à proximité d’objets compacts où les champs magnétiques sont amplifiés, tels les trous noirs.

Ryle contre Hoyle Le nombre de radiosources de l’Univers s’est avéré crucial pour la théorie du Big Bang. Une controverse fameuse opposa Ryle, bouillant chef de file des radioastronomes de l’Université de Cambridge, à Fred Hoyle, astronome charismatique de l’Institut d’astronomie, de l’autre côté de la route. Ce dernier avait travaillé sur la nucléosynthèse, la création des éléments dans les étoiles et le Big Bang. Avant la découverte du fond diffus cosmologique, le modèle du Big Bang n’était pas reconnu – en fait, l’expression Big Bang a été forgée par Hoyle lui-même par dérision. Il préférait représenter un univers en « état stationnaire »sans commencement. Il s’attendait donc à ce que les galaxies soient réparties au hasard dans l’espace, s’étirant à l’infini. Mais Ryle avait découvert des preuves que les radiosources n’étaient pas uniformément réparties : il y a moins de radiosources brillantes qu’il y en aurait dans une distribution aléatoire. Il faut donc, disait-il, que l’Univers soit fini et le modèle du Big Bang exact. La découverte du fond diffus cosmologique confirma les dires de Ryle, ce qui n’empêcha pas les deux grands astronomes de continuer à se chamailler. L’histoire de ces hostilités a fait que, aujourd’hui encore, les deux groupes de chercheurs travaillent de façon farouchement indépendante.

l’idée clé Paysage radio

131

132

50 clés pour comprendre l’astronomie

33 Quasars Les quasars sont parmi les objets les plus lointains et les plus lumineux de l’Univers. S’ils brillent intensément, c’est que de la matière s’effondre en direction d’un trou noir à l’intérieur d’une galaxie. Leur géométrie leur confère une apparence très différente selon la direction d’où on les observe et ils peuvent avoir l’air de « galaxies actives » hors normes avec leurs étroites raies d’émission. Toutes les galaxies peuvent connaître une phase quasar, qui joue peut-être un rôle important dans leur création. Au cours des années 1960, une catégorie d’étoiles étranges a intrigué les astronomes. Leur spectre singulier montrait des raies d’émission brillantes mais qui ne semblaient pas correspondre à une longueur d’onde connue. De quoi s’agissait-il ? En 1965, un astronome hollandais, Maarten Schmidt, s’est rendu compte que ces raies correspondaient bien à des éléments connus, y compris la séquence caractéristique de l’hydrogène, mais considérablement décalées vers le rouge. Ces décalages montraient que ces « étoiles » se situaient à de grandes distances, bien au-delà de la Voie lactée, et relevaient du domaine des galaxies. Mais elles n’apparaissaient pas floues comme ces dernières : elles brillaient comme des sources ponctuelles. De plus, aux distances indiquées par le décalage vers le rouge, elles brillaient beaucoup trop. Le fait que quelque chose qui ressemblait à une étoile de notre galaxie soit en fait situé bien au-delà du Superamas local était surprenant. Comment un tel objet pouvait-il fonctionner ?

Quasars Les astronomes se rendirent compte que le seul phénomène capable de libérer suffisamment d’énergie pour alimenter ces objets extragalactiques – surnommés quasi-stellar objects, objets quasi stellaires, en abrégé QSO –, était une gravitation extrêmement intense, à savoir celle créée par la proximité de trous noirs. En tombant vers un trou noir, la matière peut s’échauffer sous l’effet de frottements et rayonner suffisamment pour expliquer l’énorme luminosité des QSO. La lumière provenant du centre éclipse le reste de la galaxie, ce qui explique pourquoi, de loin, elle apparaît comme une étoile. Environ 10 % des

chronologie

1965

Schmidt identifie les quasars

1979

Premier objet observé par effet de lentille gravitationnelle : le quasar jumeau

Quasars

«

Si une voiture était aussi performante énergétiquement que ces trous noirs, elle pourrait théoriquement parcourir plus d’un milliard de kilomètres avec deux litres de carburant. Christopher Reynolds

»

QSO émettent aussi des ondes radio : ce sont les quasi-stellar radio sources, quasars en abrégé, radiosources quasi stellaires. Mais c’est souvent à toute la catégorie qu’on se réfère en évoquant les quasars. Pendant que du gaz, des poussières voire QSO des étoiles s’effondrent en vrille dans un trou noir, la matière s’agrège en un disque, le «  disque d’accrétion  », en suivant les lois de Kepler. Tout comme les planètes de notre système solaire, la matière présente vers le centre du disque parcourt son orbite plus vite que celle située vers l’extérieur. Le frottement de paquets de gaz attenants les uns contre les autres fait monter la température à plusieurs millions de degrés et ce gaz finit par briller. Les astronomes ont prédit que les parties internes du disque d’accrétion sont chaudes au point d’émettre des rayons X tandis que les parties externes sont plus froides et émettent dans l’infrarouge. La lumière visible vient des régions intermédiaires.

AGN à raie étroite

tore jet d’ondes radio

trou noir

Cette étendue des températures produit des émissions sur une large gamme de fréquences, chaque température correspondant à un spectre caractéristique de corps noir qui culmine à une valeur d’énergie qui lui est propre. Les quasars rayonnent donc depuis l’infrarouge lointain jusqu’aux rayons X – une étendue bien plus grande que celle de n’importe quelle étoile. S’il y a de puissants champs magnétiques et des jets de particules, comme dans les radiogalaxies, le quasar émet aussi des ondes radio. La présence d’une source lumineuse aussi brillante et de haute énergie produit une autre composante caractéristique des quasars : les raies d’émissions larges. Les nuages de gaz flottant

1989

Peter Barthel propose les modèles unifiés

2000

Détection de quasars lointains par le Sloan Digital Sky Survey

133

134

50 clés pour comprendre l’astronomie juste derrière le disque peuvent être illuminés, les raies spectrales de leur lueur révélant leur composition chimique. Le trou noir central étant très proche, ces nuages se déplacent très rapidement ce qui élargit leurs raies d’émission à cause de l’effet Doppler. Les raies d’émission des quasars sont plus larges que celles de n’importe quelle autre sorte de galaxies où elles sont, d’ordinaires, étroites.

Galaxies actives Les quasars sont les exemples les plus démesurés d’une

catégorie de galaxies possédant un trou noir qui grossit, les galaxies à noyau actif, AGN pour Active Galactic Nuclei. La présence d’un trou noir est révélée par les raies d’émission caractéristiques montrant un état d’excitation difficile à atteindre sauf dans le gaz fortement ionisé qui apparaît aux températures élevées engendrées par la proximité du trou noir. Les raies larges nous sont visibles seulement si nous pouvons observer directement les régions proches du trou noir. Dans d’autres sortes d’AGN, les régions intérieures peuvent être cachées par des nuages denses de gaz et de poussières en forme de tore – comme une sorte de beignet – et, par suite, les raies larges sont occultées. Même si seules les raies étroites demeurent, leurs niveaux élevés d’ionisation révèlent la présence du monstre tapi au cœur de l’AGN. Le fait que nous distinguions différentes classes de quasars et de galaxies actives vient peut-être de ce que nous les observons sous des directions différentes. De nombreuses galaxies concentrent la matière écran, des traînées de poussière par exemple, dans leur plan de symétrie. C’est pourquoi, si de telles galaxies étaient vues par la tranche, cette matière supplémentaire et le tore de poussière occulteraient peut-être le champ de vision dans la direction d’un trou noir. Le long de l’axe le plus petit de la galaxie, la vue vers le centre peut être plus dégagée. Ainsi, il se pourrait que les quasars nous présentent leur petit axe tandis que le défaut de raies larges des AGN proviendrait du fait que nous les voyons par la tranche. La matière pourrait aussi être nettoyée plus facilement le long du petit axe par

L’environnement des quasars Les noyaux galactiques actifs peuvent se trouver aussi bien dans des galaxies elliptiques que dans des galaxies spirales. Mais certaines catégories d’AGN favorisent certains environnements. Les puissantes radiosources sont plutôt associées à de grandes galaxies elliptiques. Les galaxies elliptiques à noyau actif ont tendance à atténuer les émissions radio. On trouve fréquemment des galaxies actives dans les groupes et amas galactiques. Cela a conduit certains scientifiques à penser que les collisions pourraient être en cause dans l’activation des trous noirs. Si l’une des galaxies en fusion est spirale, elle pourrait fournir le carburant gazeux qui serait alors canalisé vers le trou noir, ce qui le ferait se dilater.

des écoulements qui, en donnant naissance à des cônes, rendrait la vue encore plus claire.

Quasars

«

Brille, brille, quasi-étoile Grand mystère du lointain Comme les autres n’es point Mais luis comme tant d’étoiles Brille, brille, quasi-étoile Sur qui tu es, lève le voile. George Gamow

Modèles unifiés Cette idée que ce sont les directions sous lesquelles les AGN se présentent à nous qui nous font en distinguer plusieurs types est connue sous le nom de « modèle unifié ». Cela cadre assez bien avec les propriétés à grande échelle – émission radio, luminosité – des quasars et autres galaxies actives. Mais il y a de nombreuses variantes d’AGN. La luminosité intrinsèque de l’AGN, à cause de la taille de son trou noir, joue probablement sur la façon dont la vue sur le centre est dégagée. Le centre des AGN les plus faibles peut être occulté davantage que celui des AGN plus puissantes. De jeunes AGN dont le trou noir central ne s’est constitué que récemment pourraient être bien moins visibles que de plus anciennes qui ont eu le temps d’évacuer la matière opaque. La présence ou l’absence de radio-émissions reste aussi inexpliquée – certains astronomes pensent que les jets d’émissions radio proviennent de trous noirs en rotation ou sont consécutifs à certains types de collision galactique, par exemple entre deux galaxies elliptiques massives.

»

Rétroaction Les astronomes en savent plus sur la façon dont la présence d’un disque d’accrétion au centre influe sur le développement de la galaxie. Quand cette dernière est active, le trou noir central peut évacuer du gaz hors de la galaxie, ne laissant que peu de carburant pour que se forment de nouvelles étoiles. Cela pourrait expliquer pourquoi, par exemple, les galaxies elliptiques contiennent peu de gaz et peu d’étoiles jeunes. Au contraire, si une AGN naît d’une collision, toute introduction de gaz peut se traduire par un jaillissement de formation d’étoiles – la galaxie passant alors par une phase où elle est très obscurcie et construit de nouvelles étoiles. Au cours du développement de l’AGN, cela balaye la poussière et éjecte le gaz extérieur, mais cela affame aussi le trou noir qui finit par s’éteindre. De tels cycles pourraient jouer un rôle majeur dans la façon dont se forment les galaxies, un peu comme un thermostat. Les astronomes soupçonnent aujourd’hui que toutes les galaxies traversent des phases d’activité qui représentent peut-être 10 % de leur durée de vie. La « rétroaction » qui en résulte pèse lourd sur l’évolution de la nature de la galaxie.

l’idée clé Thermostats galactiques

135

136

50 clés pour comprendre l’astronomie

34 F ond cosmique de rayons X

Les rayons X sont les messagers de la physique de l’extrême et les télescopes à rayons X qui évoluent dans l’espace révèlent des zones de violence, depuis le voisinage des trous noirs jusqu’aux gaz portés à un million de degrés dans les amas galactiques. De tels objets créent une faible lueur X dans tout le ciel, le fond cosmique de rayons X. Les progrès en astronomie viennent souvent d’une nouvelle ouverture sur l’Univers : Galilée observa le ciel à la lunette astronomique ; les radioastronomes découvrirent de nouveaux phénomènes, dont les trous noirs, grâce à l’usage de récepteurs radio pour recueillir les signaux du cosmos. À l’autre extrémité du spectre électromagnétique, il y a les rayons X. Des décennies après les débuts de la radioastronomie est née l’astronomie en rayons X. Les rayons X proviennent de régions du cosmos où règnent des conditions extrêmes, très chaudes ou envahies de champs magnétiques. Ce qui représente un grand pan de l’astronomie, depuis les amas galactiques jusqu’aux étoiles à neutrons. Mais chacun de leurs photons transporte une grande énergie, aussi les rayons X sont-ils difficiles à capturer au télescope. Nous savons, par leur utilisation en imagerie médicale, qu’ils traversent la plupart des tissus du corps. Projetés sur un miroir, ils ne s’y reflètent pas mais s’y incrustent, comme une balle de revolver tirée dans un mur. Les télescopes sont donc inutilisables pour concentrer les rayons X. Il en est de même des lentilles en verre et pour les mêmes raisons. La seule façon d’opérer est de les faire rebondir sur un miroir à partir d’un angle d’incidence rasant – ils sont alors déviés comme une balle de ping-pong et peuvent alors être concentrés. Les rayons X peuvent donc être emprisonnés à l’aide d’une série de miroirs déflecteurs à courbures spéciales, souvent recouverts d’or pour que la réflexion soit maximale.

chronologie

1895

Röntgen découvre les rayons X en laboratoire

Fond cosmique de rayons X Rayons X cosmiques Les rayons X

provenant de l’espace sont aussi absorbés par notre atmosphère. Les astronomes ont donc dû attendre l’ère des satellites pour pouvoir regarder l’Univers aux fréquences des rayons X. En 1962, l’astronome italo-américain Riccardo Giacconi et son équipe lancèrent dans l’espace un détecteur de rayons X. On vit alors la première source de rayons X en dehors du Soleil : Scorpion X-1, une étoile à neutrons. Un an plus tard, les mêmes lançaient le premier télescope à système d’imagerie X (coïncidence : il avait à peu près la même taille que la lunette de Galilée de 1610). Les astronomes firent de grossières observations sur les taches solaires et prirent des images de la Lune en rayons X.

Le ciel nocturne est plus brillant aux fréquences des rayons X que la face sombre de la Lune

Ces dernières montraient quelque chose de surprenant. La Lune ellemême était en partie éclairée, sombre d’un côté, brillante de l’autre comme on pouvait s’y attendre à cause de sa phase et de la lumière du Soleil réfléchie par sa surface. Mais, à l’arrière-plan, le ciel n’était pas sombre : il luisait également. Capturer les rayons X est si difficile que de telles images sont obtenues à partir de photons individuels : le fond du ciel révélait davantage de photons que la face sombre de la Lune qui le cachait. Giacconi avait découvert le fond cosmique de rayons X.

Fond cosmique de rayons X Bien qu’ils surgissent tous deux à des distances cosmiques, le fond cosmique de rayons X et fond diffus cosmologique sont différents. Le premier provient essentiellement de nombreuses étoiles individuelles et de galaxies, dont les images se mêlent de la même façon que celle de la Voie lactée qui, bien que faite de nombreuses étoiles, apparaît comme une traînée floue à l’œil nu. Le fond diffus cosmologique, lui, est dû au rayonnement fossile qui emplit l’espace et n’est pas associé à des galaxies précises. La quête pour la découverte de la provenance de ces rayons X cosmiques a duré des décennies et a occupé plusieurs missions. Les dernières mesures viennent de l’observatoire Chandra de la NASA dont la vision est assez fine pour pouvoir

1962

Giacconi lance un télescope spatial à rayons X

1999

Lancement du télescope spatial à rayons X Chandra

137

138

50 clés pour comprendre l’astronomie

Télescope spatial Chandra Le télescope spatial à rayons X Chandra a été lancé en 1999. Pour capturer par ricochet les photons X, ses miroirs ressemblent plus à des tonneaux qu’aux miroirs en forme de coupe des télescopes optiques. Les quatre paires de miroirs sont polies avec un tel soin que leur surface est lisse à la précision de quelques atomes – un peu comme si les plus hautes montagnes sur Terre avaient deux mètres de haut. Les rayons X sont ensuite conduits vers quatre instruments de mesure qui déterminent leur nombre, leur position, leur énergie et l’heure de leur arrivée.

­ isséquer le fond de rayons X. Les astronomes ont découvert plus de 80 % des d sources qui contribuent au fond cosmique de rayons X. Ils pensent que ce qui reste est produit de la même façon mais n’ont pas encore pu discerner les corps qui en sont à l’origine. Quarante ans après le travail de pionnier de Giacconi, plus de 100 000 sources X ont été détectées ; la plus lointaine est à 13 milliards d’années-lumière de la Terre.

Physique de l’extrême Une gamme de corps émet des rayons X qui sont

produits dans des gaz chauffés à des millions de degrés, dans des régions où règnent des champs magnétiques et gravitationnels intenses ou bien lors d’explosions. Parmi les plus gros, on trouve des amas galactiques : les gaz brûlants qui y sont répandus s’étendent sur des millions d’années-lumière et peuvent atteindre 1015 masses solaires. Les trous noirs émettent des rayons X : les quasars et les galaxies actives sont des sources très lumineuses qu’on trouve dans tout l’Univers. En réalité, la présence d’une source X quasi ponctuelle au centre d’une galaxie trahit la présence d’un trou noir. Chandra a permis d’ajouter les images en rayons X à celles des observations de galaxies à de multiples longueurs d’onde, dont celles du champ profond de Hubble et des éléments de divers programmes d’étude du ciel. L’observation en rayons X a permis de rechercher sur des milliards d’années le nombre de trous noirs dans l’Univers. Ces études laissent penser que les galaxies actives, avec trous noirs en expansion, étaient bien plus répandues dans le passé et que l’activité des trous noirs a décliné depuis lors. Cette tendance, comme le fait que les étoiles se formaient plus rapidement dans le passé, peut signifier que les collisions de galaxies étaient courantes dans l’Univers jeune. Certains types d’étoiles irradient aussi des rayons X. Les explosions d’étoiles et les vestiges de supernovae sont des sources puissantes, de même que les étoiles en train de s’effondrer – lorsque leurs réactions nucléaires faiblissent, les étoiles

s’effondrent sous l’effet de leur propre gravité jusqu’à devenir très denses, comme les étoiles à neutrons ou les naines blanches. Dans des cas extrêmes, l’effondrement de l’étoile fera naître un trou noir – des rayons X ont été détectés à des distances aussi proches que 90 km de l’horizon des événements d’un trou noir stellaire.

«

Fond cosmique de rayons X

Au début, on pouvait croire qu’il s’agissait d’une nouvelle sorte de lumière invisible. C’était à coup sûr quelque chose de nouveau, qu’on n’avait jamais décrit. Wilhelm Konrad Röntgen

»

Les jeunes étoiles, plus chaudes, diffusent davantage de rayons X que notre Soleil. Mais les couches externes du Soleil en émettent aussi, tout particulièrement sa couronne qui est très chaude et maillée par de puissants champs magnétiques. L’imagerie en rayons X est très utile pour observer les turbulences mais aussi l’échauffement des étoiles ainsi que les changements de comportement à mesure qu’elles vieillissent. Quelques-unes des plus puissantes sources X de notre galaxie sont proches des systèmes binaires – des paires d’étoiles – dont une étoile, voire les deux, est le résultat d’un effondrement. L’étoile compacte aspire souvent le gaz de l’autre, rendant ces systèmes très actifs.

Wilhelm Röntgen (1845-1923) Wilhelm Röntgen est né en Allemagne, dans le Bas Rhin, et, enfant, est parti en Hollande. Il a étudié la physique à Utrecht et Zürich et a enseigné dans de nombreuses universités avant de se fixer à Würzburg puis Munich. Les travaux de Röntgen ont porté avant tout sur la chaleur et l’électromagnétisme mais il est surtout connu pour sa découverte des rayons X en 1895. Il remarqua qu’un écran enduit de produits chimiques luisait lorsqu’un gaz sous

faible pression était traversé par un courant électrique, et cela même dans le noir complet. Ces nouveaux rayons traversaient de nombreux matériaux, y compris la chair de la main de son épouse placée sur une plaque photographique. Il les nomma rayons X parce que leur origine était inconnue. On montra plus tard qu’il s’agit d’ondes électromagnétiques comme la lumière mais d’une fréquence bien plus élevée.

l’idée clé Ouverture sur un univers violent

139

140

50 clés pour comprendre l’astronomie

35 T rous noirs

supermassifs

Tapi au centre des galaxies, se cache un monstre. Des millions ou des milliards de fois plus massif que le Soleil et tassé dans une région de la taille d’un système solaire, un trou noir supermassif détermine la croissance de la galaxie qui l’accueille. Sa taille est liée à celle du bulbe galactique, il est donc probable qu’il soit un composant indispensable. Il peut être source d’une débauche d’énergie s’il est activé pendant une collision galactique. Depuis la découverte des quasars et des galaxies actives dans les années 1960, les astronomes savent que des trous noirs géants – des millions ou des milliards de fois plus massifs qu’une étoile – peuvent exister au centre des galaxies. Ces dix dernières années, il est apparu clairement que toutes les galaxies pourraient abriter des trous noirs. Dans la plupart des cas, ils sont en sommeil ; dans certaines circonstances, quand de la matière est canalisée vers eux, ils s’échauffent. C’est ce qui se passe quand nous les voyons comme des quasars. Il y a plusieurs façons de savoir s’il y a ou non un trou noir au centre d’une galaxie. La première consiste à observer le mouvement des étoiles proches du cœur de la galaxie. Les étoiles d’une galaxie se déplacent autour de son centre de masse, comme les planètes le font autour du Soleil. Leurs orbites respectent les lois de Kepler et les étoiles qui sont près du centre se déplacent plus vite que celles qui s’en trouvent plus éloignées. La vitesse moyenne des étoiles nous indique la masse qui se trouve au centre. Plus la mesure est précise, mieux on connaît la masse et l’étendue de ce qu’entoure l’orbite des étoiles proches. Les astronomes ont découvert que les étoiles situées tout au centre de la plupart des galaxies se déplacent trop vite pour qu’étoiles, gaz et matière noire suffisent

chronologie

1933

Jansky détecte le centre de la Voie lactée par radio

1965

Découverte des quasars

Trous noirs supermassifs à l’expliquer. On le voit dans le décalage Doppler de leurs raies spectrales. Dans ces rapides mouvements stellaires, des trous noirs géants au cœur des galaxies sont en cause – ils sont des millions ou des milliards de fois plus massifs que le Soleil tout en étant contenus dans une région de la taille de notre système solaire.

Le centre de notre galaxie Il y a un trou noir au centre de la Voie lactée, lequel se trouve dans la constellation du Sagittaire, près d’une radiosource appelée Sag A*. Les astronomes ont suivi des dizaines d’étoiles près de lui et leurs Les trajectoires des mouvements prouvent clairement la présence d’un trou noir. Les étoiles proches du étoiles suivent leurs orbites sur plus d’une décennie, mais, quand elles centre de la Voie lactée révèlent la s’approchent du trou noir, elles le contournent brusquement à toute présence d’un trou allure et sont rejetées sur des orbites allongées. Certaines comètes de noir notre système solaire ont de telles orbites hors norme se déplaçant très vite près du Soleil et ralentissant dans les confins glacés du système solaire. Les étoiles du centre de la Voie Lactée nous indiquent la présence de quelque chose de massif, compact et invisible, dont la masse est quatre millions de fois celle du Soleil : un trou noir supermassif. De la même manière, les radioastronomes mesurent la vitesse des sources particulièrement brillantes au centre des galaxies, comme les masers H2O qui émettent de puissantes ondes radio engendrées par l’excitation des molécules d’eau. Dans plusieurs galaxies, l’existence d’un trou noir massif et compact a été déduite de la vitesse des masers, qui suivent les lois de Kepler.

Relation bulbe – masse On pensait, avant 2000, que la présence dans les galaxies de trous noirs supermassifs était l’exception. Il était clair qu’ils étaient présents dans les galaxies actives ; on en trouvait dans quelques autres galaxies plus calmes mais on ne voyait pas en eux des éléments clés. Cela changea rapidement lorsque l’observation du centre des galaxies est devenue plus aisée grâce aux nouveaux télescopes et à des instruments capables de mesurer la vitesse des étoiles proches du centre : toutes les galaxies semblent abriter des trous noirs. De plus, leur masse est proportionnelle à la masse du bulbe de la galaxie-hôte : telle a été la conclusion d’une étude portant sur des centaines de galaxies pour

1993

Les masers H20 révèlent la présence d’un trou noir dans la galaxie NGC 4258

2000

Découverte de la corrélation entre les masses du bulbe et du trou noir

141

142

50 clés pour comprendre l’astronomie lesquelles les astronomes ont mesuré les vitesses des étoiles du centre galactique – ce qui fournit la masse du centre – puis reporté ces valeurs sur un graphique en fonction de la masse du bulbe : on obtint un rapport proche de un pour un. Cette tendance est une surprise. Elle fait fi du type de galaxies, s’applique aussi bien aux elliptiques qu’aux spirales, ce qui est source de questions nouvelles sur les relations entre les différentes catégories de galaxies telles que décrites dans le diapason de la séquence de Hubble. La couleur et l’âge de leurs étoiles ne sont pas la seule chose que les bulbes galactiques et les galaxies elliptiques ont en commun : cette nouvelle corrélation laisse penser que ces structures se sont formées dans des conditions semblables. En fait, les disques sont peut-être des attributs supplémentaires développés ou détruits ensuite, selon le destin de la galaxie, à l’occasion de ses interactions avec d’autres. La proportionnalité était aussi une surprise dans la mesure où le trou noir ne représente qu’une partie – moins de 1 % – de la masse totale de la galaxie. Il n’a donc pas d’influence sur le champ gravitationnel hors de son environnement immédiat – une perle noire au cœur de la galaxie.

Graines ou vestiges ? Comment se forment les trous noirs supermassifs ? Nous savons que des petits trous noirs peuvent apparaître lors de l’effondrement d’étoiles massives en fin de vie – quand une étoile cesse de brûler, elle ne peut plus se maintenir contre sa propre gravité et se tasse en une coquille dense. Mais comment cela pourrait-il se produire sur une échelle des millions de fois plus grande ? Une possibilité est que les trous noirs supermassifs soient les vestiges des premières étoiles. Les premières étoiles à s’être formées étaient probablement très grandes et ont vécu très peu : elles ont rapidement épuisé leur énergie et se sont effondrées. Regroupées en amas, elles auraient été précipitées dans un unique trou noir géant. À l’inverse, les trous noirs des centres galactiques pourraient avoir existé avant les étoiles, dès la naissance de l’Univers ou peu après. Les trous noirs auraient été avant tout les germes des galaxies. Graines ou vestiges ? Les astronomes n’ont tout simplement pas la réponse à cette question !

«

[Les trous noirs] nous enseignent que l’espace peut être froissé comme une feuille de papier jusqu’à être réduit en un point infinitésimal, que le temps peut être éteint comme une flamme qu’on soufflerait et que les lois que nous considérons comme “sacrées” sont tout sauf immuables. John Wheeler

»

Trous noirs supermassifs La question qui vient ensuite est : comment la taille des trous noirs s’accroît-elle ? Les astronomes pensent que les galaxies grandissent par fusion, en cannibalisant les plus petites et en s’effondrant en de plus grosses. Mais il y a peu de galaxies pour lesquelles il est évident qu’elles abritent deux trous noirs ou davantage, même quand une fusion pourrait avoir eu lieu récemment. On peut penser que les trous noirs centraux fusionnent très vite – mais mathématiques et simulations nous disent autre chose : les trous noirs sont si denses qu’ils se comportent davantage comme des boules de billard que comme de la pâte à modeler ; lancés les uns contre les autres, ils rebondissent plutôt qu’ils ne s’agglutinent. Cet écart entre la théorie des trous noirs et l’observation reste un grand mystère.

Rétroaction En admettant qu’un trou noir puisse grandir tranquillement, de sorte que sa masse s’accroisse parallèlement à celle du bulbe qui l’abrite, comment influence-t-il la galaxie ? Nous savons que, dans au moins 10 % des galaxies, les trous noirs centraux sont actifs : nous les voyons comme des noyaux de galaxies actives. On peut penser qu’ils passent par des phases d’activité et de sommeil. En moyenne, ils doivent se mettre en marche en attirant des gaz pendant 10 % de la durée de vie de la galaxie. À l’évidence, les quasars sont affectés par l’énergie des explosions qui en résultent – de vastes éjections de gaz ionisés, des radiations et, parfois, des particules émettant des ondes radio sont créées à proximité d’un trou noir en même temps que de la matière y pénètre. Se pourrait-il que toutes les galaxies aient connu de telles phases d’activité ? Les astronomes le pensent. Ils soupçonnent que les trous noirs suivent des cycles d’activation dans le sillage des collisions de galaxie. Les fusions nourrissent les trous noirs en leur apportant de nouvelles réserves de gaz en provenance de l’autre galaxie. Le monstre se réveille, brillant et féroce aux longueurs d’onde des rayons X, recrachant des explosions de chaleur et de particules. L’accumulation de gaz déclenche aussi la formation de nouvelles étoiles et la galaxie passe par une phase de changements considérables. À la fin, la provision de gaz s’épuise et le trou noir, affamé, s’éteint. La galaxie redevient tranquille, jusqu’à la prochaine fusion. En fin de compte, les trous noirs supermassifs pourraient être les thermostats qui régulent la croissance des galaxies.

l’idée clé Perle noire galactique

143

144

50 clés pour comprendre l’astronomie

36 é volution

galactique

L’idée que les galaxies évoluent d’un type vers un autre était déjà présente dans la classification de Hubble où figurent à la fois les galaxies spirales et elliptiques. Mais on ne sait toujours pas comment cela se fait. Les astronomes ont caractérisé les différentes sortes de galaxies et dressé la carte de la distribution de millions d’entre elles dans l’Univers. Ils lancent désormais de grandes simulations informatiques afin de comprendre la façon dont elles se constituent et à quel point leurs caractéristiques dépendent étroitement des ingrédients élémentaires de l’Univers. Pour comprendre l’évolution des galaxies, il faut partir du fond diffus cosmologique qui est la première image disponible de l’Univers bébé. Les points chauds et froids qui parsèment sa surface indiquent les fluctuations de densité de la matière, 400 000 ans après le Big Bang, résultant de minuscules irrégularités. Ces racines ont poussé sous l’effet de la gravité. Des nuages d’hydrogène gazeux se sont attirés pour former les premières étoiles et galaxies. L’information suivante de l’Univers dont nous disposons est son important décalage vers le rouge. Il faut du temps à la lumière pour parvenir jusqu’à nous ; aussi voyons-nous les galaxies les plus lointaines telles qu’elles étaient il y a des milliards d’années. Les astronomes peuvent littéralement voir le passé en recherchant des objets plus loin encore. Les galaxies et quasars les plus lointains que nous avons repérés nous envoient l’image de ce qu’ils étaient il y a 13 milliards d’années. Nous savons donc que des galaxies s’étaient formées un milliard d’années après le Big Bang (l’Univers est vieux de 13,7 milliards d’années). Cela signifie que les galaxies se sont formées très rapidement, en bien moins de temps que la durée de vie d’une étoile moyenne comme le Soleil qui se chiffre en ­milliards d’années.

chronologie

1926

Diapason de Hubble

1965

Découvertes des quasars et du fond diffus cosmologique

évolution galactique

«

»

L’Univers est éternel car il ne vit pas pour lui-même : tandis qu’il se transforme, il insuffle la vie à d’autres. Lao Tseu Dès qu’on en arrive à la formation des galaxies, les astronomes se trouvent devant un problème du genre de l’œuf et la poule : les étoiles sont-elles apparues les premières avant de se grouper pour former les galaxies ? Ou bien des nuages de gaz de la taille d’une galaxie sont-ils apparus tout d’abord avant de se fragmenter en une myriade d’étoiles ? On décrit ces scénarios en parlant de la formation des galaxies « du plus petit au plus grand » – bottom up – ou au contraire « du plus grand au plus petit » – top down. Pour trancher, il nous faut remonter encore plus loin dans le temps afin de trouver des exemples de galaxies en formation. Mais il est difficile de voir l’Univers de cette époque qui était plongé dans le brouillard – on désigne cette période par « l’âge sombre ».

Réionisation Quand les photons qui composent le fond diffus cosmologique

ont été libérés, l’Univers est passé d’un état électriquement chargé et opaque (électrons et protons pouvaient disperser les photons) à un état neutre et transparent. Les atomes se sont formés quand l’Univers se fut suffisamment refroidi pour qu’électrons et protons se lient, avec pour résultat un océan d’hydrogène neutre avec, ici ou là, quelques poignées de particules lumineuses. Mais l’Univers que nous voyons aujourd’hui est presque entièrement ionisé. L’espace intergalactique est rempli de particules chargées tandis que l’hydrogène ne se trouve que dans les galaxies ou de rares nuages. Qu’est-il arrivé à l’hydrogène ? Il a été ionisé et dispersé lorsque les premières étoiles sont nées – une période désignée sous le nom de réionisation. Les étoiles étaient-elles isolées ou déjà regroupées au sein de galaxies ? Nous devrions pouvoir répondre si nous voyions les étapes qui ont conduit à l’ionisation. Mais enquêter sur l’âge sombre de l’Univers n’est pas aisé. Tout d’abord, nous n’avons rencontré que très peu d’objets présentant un si grand décalage vers le rouge. Les galaxies les plus lointaines sont très faibles, très rouges et essayer de les trouver c’est un peu chercher une aiguille dans une botte de foin ! Et, quand bien même on trouverait un objet avec des couleurs suggérant un fort décalage vers le rouge, sa distance ne pourra pas être déterminée facilement. Les raies caractéristiques de l’hydrogène sont décalées vers le rouge au-delà du visible, dans l’infrarouge, où leur détection est difficile. Qui plus est, la lumière ultraviolette décalée vers le rouge vers des longueurs d’onde du domaine visible est presque entièrement

1977

Début du CfA Galaxy Survey

1992

Détection de rides dans le fond diffus cosmologique par le satellite COBE

2000

Début du Sloan Galaxy Survey

2020

Le radiotélescope SKA, pour Square Kilometre Array, devrait être opérationnel

145

146

50 clés pour comprendre l’astronomie absorbée s’il y a beaucoup d’hydrogène devant la source. Malgré tout, les astronomes pensent qu’ils pourraient bien avoir vu une poignée de quasars à la limite de l’époque de réionisation, là où l’absorption est incomplète. Les astronomes espèrent trouver, dans la prochaine décennie, bien plus d’objets datant de l’âge sombre. L’hydrogène gazeux absorbe aussi les ondes radio à des longueurs d’onde caractéristiques : la raie spectrale en émission de longueur d’onde égale à 21 cm est très importante ; elle est décalée vers le rouge à des longueurs d’onde plus importantes selon la distance de l’objet. La construction d’un nouveau radiotélescope laisse espérer l’ouverture de fenêtres sur cette nouvelle vue de l’univers lointain en basse fréquence. Un projet international essentiel, le Square Kilometre Array, comprendra de nombreuses petites antennes radio réparties sur un domaine d’un kilomètre carré. Il aura une sensibilité jamais atteinte jusque-là et sera suffisamment puissant pour cartographier les structures d’hydrogène neutre dans l’univers lointain afin de localiser les premières galaxies.

Relevés Des centaines de galaxies lointaines ont été découvertes grâce à leurs

couleurs rouges caractéristiques. Certains types de galaxies apparaissent plus que d’autres : les galaxies elliptiques et celles riches en hydrogène brillent relativement faiblement dans le bleu et l’ultraviolet, ce qui crée un « saut » dans leur luminosité quand elles sont photographiées à travers une série de filtres de couleurs attenantes. Les galaxies qui présentent une rupture prononcée (due à l’absorption par l’hydrogène) sont appelées galaxies à discontinuité de Lyman. Pour les décalages vers le rouge moins importants, les relevés comme le Sloan Digital Sky Survey ont cartographié l’essentiel de l’univers proche. Nous avons donc une assez bonne perspective sur la dernière moitié de l’histoire de l’Univers, une vue plus sommaire dans les décalages vers le rouge plus importants, un trou dans notre savoir concernant l’âge sombre et enfin un cliché de l’univers jeune grâce au fond diffus cosmologique.

Trous noirs : quel bilan ? Le rôle des trous noirs supermassifs dans l’évolution galactique est une question essentielle non résolue. Les astronomes pensent que la plupart des grandes galaxies abritent des trous noirs dont la masse est proportionnelle à la taille du bulbe galactique. Mais les trous noirs sont affectés par les collisions – le gaz s’effondrant dedans

peut être à l’origine de rayonnements féroces et d’écoulements au cœur d’une galaxie. Et les collisions peuvent expulser les trous noirs au lieu de les ralentir suffisamment pour qu’ils fusionnent. Le bilan des trous noirs demande encore pas mal de mises au point.

«

évolution galactique

Munis de ces informations, les astronomes La hiérarchie, ça essayent de reconstituer la façon dont les fonctionne bien dans un galaxies et les structures de grande échelle environnement stable. se forment. À l’aide de superordinateurs, ils mettent au point de grands programmes Mary Douglas capables de faire croître les galaxies à partir des premières graines de la gravitation. Les éléments qu’ils y introduisent comprennent des gaz et différentes sortes de matière noire, les contraintes provenant des fluctuations initiales de densité détectées dans le fond diffus et dans les groupements de galaxies qui en sont proches.

Modèles hiérarchiques Le modèle actuellement le plus admis avance que se sont formées en premier de petites galaxies qui, au fil du temps, sont entrées en collision entre elles et ont fusionné pour donner de plus grandes galaxies. C’est ce qu’on appelle le modèle hiérarchique. Aujourd’hui, chaque galaxie a son arbre généalogique fait de nombreuses galaxies plus petites englouties. Les collisions galactiques peuvent être terribles ; elles peuvent facilement dérégler une galaxie au point d’en modifier la nature. Deux galaxies spirales peuvent se pénétrer l’une l’autre, ne laissant qu’un désordre qui se stabilise en galaxie elliptique. Puis cette dernière peut, ultérieurement, dérober un disque à une voisine riche en gaz. Des règles simples d’épousailles peuvent donner naissance à de nombreux types de galaxies. Mais, globalement, dans ce modèle, la taille des galaxies s’accroît. Les galaxies ne sont pas qu’étoiles et gaz : il y a aussi la matière noire dispersée dans un « halo » sphérique. La nature de cette matière noire influe sur la façon dont les galaxies entrent en collision et s’assemblent. Pour ajuster tout cela aux galaxies que nous voyons aujourd’hui, les simulations nous disent que la matière noire ne devrait pas être trop bourrée d’énergie : une matière noire « froide » en déplacements lents serait plus adaptée que son équivalent « chaud » filant à toute vitesse, ce qui empêcherait les galaxies de se coller entre elles. Outre la matière noire, il y a aussi l’énergie noire – une force qui agit à l’inverse de la gravité aux grandes échelles. Les meilleurs résultats sont obtenus avec des modèles utilisant une matière noire froide et une quantité modeste d’énergie noire.

l’idée clé Petite galaxie deviendra grande

»

147

148

50 clés pour comprendre l’astronomie

37 Lentilles

gravitationnelles

Il y a lentille gravitationnelle quand un objet massif fait converger la lumière provenant de sources situées derrière lui. Considérées comme les télescopes de la nature, les lentilles gravitationnelles amplifient la lumière des quasars, des galaxies et des étoiles qui se trouvent derrière elles, produisant des images démultipliées, des arcs et, à l’occasion, des anneaux. Il s’agit là d’un outil puissant pour l’astronomie : on peut l’utiliser pour rechercher la trace de matériaux sombres à travers l’Univers, en particulier la matière noire. En développant la Relativité générale, Albert Einstein se rendit compte que les objets massifs déforment l’espace-temps. Par suite, les rayons lumineux qui passent à proximité suivent des trajectoires courbes plutôt que droites. Il en résulte une inclinaison des rayons lumineux qui ressemble à celle due à l’action d’une lentille : de là le nom de lentille gravitationnelle. En 1919, pendant une éclipse totale de Soleil, le physicien Arthur Eddington confirma la prédiction d’Einstein : les rayons de lumière contournent les masses. Alors qu’il observait une étoile non loin du limbe du Soleil, Eddington remarqua que sa position était légèrement décalée lorsqu’elle était près du Soleil. Dans l’image de l’espace-temps comme étant une bande de caoutchouc, lorsque l’astre lourd qu’est Soleil y imprime une dépression, les rayons arrivant d’une étoile lointaine le contournent quand ils passent à côté de lui. Quand le rayon lumineux atteint nos yeux, après que sa trajectoire a été déviée par le Soleil, il paraît provenir d’une direction légèrement différente. En 1936, Einstein a développé la théorie des lentilles gravitationnelles. Un an plus tard, l’astronome Fritz Zwicky affirmait que les amas géants de galaxies

chronologie

1915

Théorie de la Relativité générale d’Einstein

1919

Eddington confirme la Relativité grâce à une observation lors d’une éclipse solaire

Lentilles gravitationnelles

«

»

Tout corps persévère dans son état de repos ou de mouvement rectiligne uniforme, sauf cas contraire. Arthur Eddington pourraient se comporter comme des lentilles, leur immense attraction gravitationnelle déformant les images des galaxies et des quasars situés derrière eux. Mais ce n’est qu’en 1979 que cet effet fut découvert : on a repéré l’image double d’un quasar – deux quasars attenants avec des spectres identiques.

Images démultipliées Une galaxie massive se tenant entre nous et un quasar peut donner plusieurs images de ce dernier. La masse de la galaxie dévie en les incurvant les rayons lumineux en provenance du quasar lorsqu’ils passent près d’elle. En général, de telles configurations géométriques produisent un nombre impair d’images – dans l’exemple de l’image double du quasar ci-dessus, par exemple, une troisième image plus vague serait aussi visible. L’intensité des images du quasar à travers cette lentille est aussi amplifiée : la déviation des rayons renvoie la lumière vers l’avant depuis toutes les directions, aussi bien les bords du quasar que l’avant, la canalisant vers nous. À travers une lentille gravitationnelle, l’image d’un objet peut être bien plus brillante que l’original.

Étirement en arcs par une lentille gravitationnelle des galaxies d’un amas lointain

1936-1937

Einstein et Zwicky prédisent l’existence de lentilles gravitationnelles

1979

Première image dédoublée par lentille gravitationnelle d’un quasar

2001

L’étude utilisant la microlentille gravitationnelle permet de découvrir des MACHO dans la direction des nuages de Magellan

149

150

50 clés pour comprendre l’astronomie Rayon réel du quasar Rayon image de quasar Image du quasar

Terre

Quasar Galaxie massive Image du quasar

Les lentilles ne sont d’ordinaire pas exactement alignées entre nous et un quasar lointain. Une telle disposition fournit plusieurs images, comme le montre le schéma ci-contre. Mais, si l’objet à l’arrière est, par rapport à nous, exactement dans l’alignement de la lentille, alors la lumière qui en provient s’étale de façon régulière en un cercle appelé anneau d’Einstein. Si la lentille est un tout petit peu décalée, l’anneau se brise en arcs et points multiples.

Par suite, les rayons lumineux provenant d’un objet à travers une lentille gravitationnelle nous parviennent légèrement décalés dans le temps : ils suivent des chemins différents. Si le quasar situé à l’arrière de la lentille connaît des embrasements fugitifs, l’image résultant du chemin le plus long s’enflammera avec un léger décalage qui, si la géométrie de la lentille est bien connue, peut servir à la détermination de la constante de Hubble, c’est-à-dire du rythme d’expansion de l’Univers. Si l’objet situé à l’arrière est une galaxie, qui est étendue et n’apparaît pas comme ponctuelle comme c’est le cas d’un quasar, chaque partie de la galaxie forme une image à travers la lentille et l’ensemble apparaît étalé et plus brillant. Les galaxies lointaines sont d’habitude très pâles ; aussi les lentilles gravitationnelles représentent-elles un outil puissant pour révéler l’univers primitif. Les galaxies dont l’image est amplifiée par des amas très massifs sont particulièrement intéressantes. Dans ce cas, il y a souvent des arcs brillants, chacun indiquant qu’à l’arrière il y a une galaxie dont l’image est étalée par la masse de l’amas. La géométrie de ces arcs permet aux astronomes non seulement de déterminer cette masse mais aussi d’analyser les caractéristiques de ces galaxies lointaines.

Lentilles de faible puissance Images multiples, arcs et anneaux apparaissent quand les lentilles sont de forte puissance, c’est-à-dire quand la masse de la lentille est concentrée et son action gravitationnelle importante. Mais on peut détecter des effets de lentille plus faibles, la masse étant plus étalée à travers l’espace. Aux bords des amas, par exemple, les galaxies ont tendance à être légèrement étirées. Chaque galaxie étant de forme elliptique, il est difficile de savoir si elle est étirée ou s’il s’agit de sa forme normale. Mais, dans l’ensemble, on réussit à faire des distinctions. Lorsque l’image des galaxies est légèrement étirée par

effet de lentille, cela se fait en suivant une tangente d’un cercle, un contour qui clôture la masse. Ainsi, pour un amas circulaire, les galaxies sont statistiquement étirées en sorte qu’elles tendent à former un anneau autour de lui.

«

Lentilles gravitationnelles

Quelque chose d’inconnu est en train de faire nous ne savons quoi. Arthur Eddington

»

De même, un champ de galaxies situé à l’arrière-plan peut être étiré et déformé par de la matière distribuée sur une plus vaste zone à l’avant. On voit alors l’univers lointain comme à travers une vieille fenêtre aux verres d’épaisseur inégale plutôt qu’à travers une lentille claire. Les astronomes ont découvert des motifs résultant de lentilles de faible puissance dans les images du ciel profond en recherchant des corrélations entre les directions de l’orientation de galaxies elliptiques. Si l’on suppose que ces corrélations sont dues à l’effet de lentille, ils peuvent déterminer la distribution de matière au premier plan et tenter ainsi de circonscrire celle de la matière noire dans l’espace.

Microlentilles Il y a aussi les microlentilles gravitationnelles. C’est un phénomène qui se produit quand des objets de petite échelle passent devant une source située à l’arrière-plan ou quand la masse de la lentille est voisine de celle de l’objet lointain, ce qui ne lui permet d’intercepter sa lumière que partiellement. Une telle technique a été utilisée pour rechercher des objets de la taille de Jupiter, candidats à être faits de matière noire : les MACHO (voir chapitre 9). Dans les années 1990, les astronomes ont observé des millions d’étoiles en direction du centre de la galaxie et des nuages de Magellan, pistant leur luminosité nuit après nuit pendant des années. Ils recherchaient des étoiles dont l’éclat s’intensifiait brusquement avant de baisser rapidement d’une façon caractéristique due à l’amplification causée par une masse au-devant. Une équipe travaillant en Australie découvrit des dizaines d’événements de cette sorte qu’ils attribuèrent à des étoiles mortes ou à des planètes gazeuses isolées ayant approximativement la même masse que Jupiter. La plupart furent observées vers le centre de la galaxie plutôt que dans les nuages de Magellan, ce qui suggérait qu’il y avait davantage de ces objets de la taille d’une planète dans notre galaxie que dans les régions extérieures à la Voie lactée. La contribution de ces MACHO au bilan de la matière noire de cette dernière était petite. On recherche toujours d’autres représentants de la matière noire.

l’idée clé Les télescopes de la nature

151

152

50 clés pour comprendre l’astronomie

38 C  lasser les étoiles La couleur d’une étoile nous livre les secrets de sa température et de sa composition chimique, toutes choses liées, en fin de compte, à sa masse. Au début du xxe siècle, les astronomes ont classé les étoiles selon la nuance de leur couleur et leur spectre : ils ont découvert des structures qui faisaient penser à une physique sous-jacente. La classification des étoiles a été l’œuvre d’un groupe remarquable de femmes astronomes qui travaillèrent à Harvard dans les années 1920. En y regardant de près, vous pourrez remarquer que les étoiles se montrent sous de nombreuses couleurs différentes. Notre Soleil est jaune, mais Bételgeuse est rouge, Arcturus jaune aussi et Véga bleu-blanc. L’astronome William Herschel a nommé un amas d’étoiles de l’hémisphère sud « La boîte à bijoux » parce qu’« il brillait comme un coffret de pierres précieuses de différentes couleurs » à travers son télescope.

Que nous disent les couleurs ? C’est la température qui est la cause

principale des nuances. Les étoiles les plus chaudes apparaissent en bleu et leur surface peut atteindre la température de 40 000 K ; les étoiles les plus froides luisent en rouge et ne font que quelques milliers de kelvins. Entre les deux, en allant vers des atmosphères de plus en plus froides, la couleur d’une étoile tend vers le blanc, le jaune, l’orange. Cette suite de couleurs reflète le rayonnement de corps noir des corps qui sont émetteurs et récepteurs tout prêts de chaleur. De l’acier en fusion au charbon des barbecues, la couleur dominante du rayonnement – la fréquence maximale des ondes électromagnétiques émises – suit la température. Les étoiles aussi émettent dans une gamme étroite de fréquences avec, en gros, un maximum du même ordre bien que leur température soit de loin supérieure à celle des morceaux de charbon.

Spectres d’étoiles À la fin du xixe siècle, les astronomes observèrent avec davantage d’attention la lumière des étoiles, la décomposant comme le fait un arc-en-ciel. De la même façon que le spectre du Soleil présente des sauts à cer-

chronologie

1880

Pickering embauche des femmes à Harvard pour répertorier les étoiles

Classer les étoiles

Les calculatrices de Harvard Les astronomes de Harvard qui réalisèrent cette classification à la fin du xixe siècle formaient un groupe inhabituel pour l’époque. Le responsable de l’observatoire, Edward Pickering, embaucha de nombreuses femmes pour assurer les tâches répétitives mais hautement qualifiées nécessaires à l’étude de centaines d’étoiles, allant de minutieuses mesures faites à partir de plaques photographiques jusqu’aux analyses numériques.

Pickering embaucha des femmes parce qu’elles étaient fiables et moins payées que des hommes. Plusieurs de ces « calculatrices de Harvard  » devinrent des astronomes célèbres par elles-mêmes, dont Annie Jump Cannon – qui publia les types spectraux stellaires OBAFGKM en 1901 – et Cecilia Payne Gaposchkin – qui établit en 1912 que la température était sous-jacente à cette classification.

taines longueurs d’onde – les raies de Fraunhofer –, celui des étoiles est strié de raies sombres correspondant à l’absorption de leur lumière par les gaz chauds qui les entourent. L’enveloppe extérieure, plus froide, absorbe la lumière produite par l’intérieur, plus chaud. L’hydrogène est l’élément le plus abondant dans les étoiles : ses raies d’absorption sont donc facilement visibles dans leur spectre. Les longueurs d’onde absorbées traduisent les niveaux d’énergie de l’atome d’hydrogène. Ces fréquences produisent des photons possédant l’exacte quantité d’énergie nécessaire pour permettre à l’électron périphérique de l’atome de passer d’un échelon à un autre. Les niveaux d’énergie sont, comme les frettes d’une guitare, plus rapprochés dans les hautes fréquences ; aussi les raies d’absorption qui en résultent – qui correspondent aux écarts entre les frettes – forment-elles une suite caractéristique. Par exemple, un électron au premier niveau d’énergie peut absorber un photon et passer ainsi au deuxième niveau ; en en absorbant un peu plus, il peut passer au troisième niveau, voire en absorber davantage et passer au quatrième, et ainsi de suite. Chacune de ces étapes impose la fréquence d’une raie d’absorption. Si les électrons sont déjà au deuxième niveau, les choses se passent de façon semblable mais avec un léger décalage vers les énergies plus élevées. Même chose pour le troisième niveau. Pour l’atome d’hydrogène, de telles séries de raies

1901

Publication des types spectraux stellaires OBAFGKM

1906

Identification de géantes et naines rouges

1912

Compréhension du lien entre température et couleur

153

154

50 clés pour comprendre l’astronomie sont nommées en hommage à de grands physiciens : la première des séries des plus hautes énergies, située dans l’ultraviolet, est appelée série de Lyman ; ses raies sont Lyman-alpha, LymanO B A F G K M bêta, Lyman-gamma, etc. La série suivante, située dans la partie visible du spectre, est la série de Balmer dont les raies primaires sont appelées, le plus souvent, H-alpha, H-bêta, etc. L’intensité de chacune des raies de l’hydrogène dépend de la température du gaz qui l’absorbe : en mesurant les intensités relatives des raies, les astronomes peuvent donc estimer la température de ce dernier. D’autres éléments chimiques de la couche externe de l’étoile absorbent la lumière et l’intensité de leurs raies peut aussi signaler la température. Les étoiles froides peuvent avoir des raies d’absorption intenses provenant d’autres éléments plus lourds, comme le carbone, le calcium, le sodium et le fer. Parfois, elles révèlent même la signature de molécules, comme le dioxyde de titane qu’on trouve fréquemment – le même produit chimique que celui qui est utilisé dans les crèmes solaires. Les éléments lourds – auxquels les astronomes se réfèrent sous le nom collectif de « métaux » – ont tendance à rendre les étoiles plus rouges.

Classification L’identification des espèces constitue pour les naturalistes un moyen de comprendre l’évolution. De la même manière, les astronomes ont classifié les étoiles d’après les caractéristiques de leur lumière. Au départ, les étoiles ont été classées d’après l’intensité de leurs différentes raies d’absorption mais une approche plus holiste a été développée aux États-Unis, à la fin du xixe siècle et au début du xxe, au Harvard College Observatory.

Magnitudes L’éventail des luminosités des étoiles est très étendu et, en astronomie, on les mesure sur une échelle logarithmique. On a attribué à l’étoile brillante Véga la magnitude 0 ; l’étoile la plus brillante, Sirius, a une magnitude de – 1,5. Les étoiles moins brillantes ont des magnitudes qui vont croissant : 1 puis 2,

etc. Le facteur multiplicatif est d’environ 2,5. Si les distances sont connues, la « magnitude absolue » d’une étoile peut être trouvée : il s’agit de sa luminosité à une distance fixée, généralement 10 parsecs (32,6 annéeslumière).

«

Classer les étoiles

Le système de Harvard est Une tentative d’étudier toujours en vigueur : il classe l’évolution des organismes vivants les étoiles en fonction de sans référence à la cytologie serait leur température. Des plus aussi vaine qu’une description chaudes, à presque 40 000 de l’évolution des étoiles qui K, aux plus froides, à 2 000 K, les étoiles sont réparties ignorerait la spectroscopie. dans des catégories nommées J.B.S. Haldane par les lettres OBAFGKM. Les étoiles de classe O sont chaudes et bleues ; celles de classe M sont froides et rouges. Le Soleil est une étoile de classe G, avec une température de surface d’environ 6 000 K. Cette suite apparemment aléatoire de lettres s’est imposée pour des raisons historiques, en remettant ensemble d’anciennes catégories spectrales qui avaient été nommées soit par types d’étoiles soit par ordre alphabétique. Les astronomes se rappellent cette suite de lettres à l’aide de moyens mnémotechniques, le plus connu étant : « Oh be a fine girl/guy kiss me ». Le système a depuis été affiné : des sous-catégories ont été créées, numérotées de 0 à 10 : une étoile de classe B5 est donc à michemin entre une étoile de classe B et une de classe A. Le Soleil est de classe G2.

»

La plupart des étoiles trouvent leur place dans le système OBAFGKM mais quelques-unes non. En 1906, l’astronome danois Ejnar Hertzsprung a remarqué que les étoiles les plus rouges ont des formes démesurées : les géantes rouges, comme Bételgeuse, brillent davantage que le Soleil et ont des rayons des centaines de fois plus grands que le sien ; les naines rouges sont bien plus petites et moins brillantes que le Soleil. D’autres catégories d’étoiles ont suivi, dont les naines blanches chaudes, les étoiles froides au lithium, les étoiles carbonées, les naines brunes. On a aussi identifié des étoiles bleues chaudes à raies d’émission et des étoiles Wolf-Rayet – des étoiles chaudes avec une puissante éjection de matière et que l’on voit dans des raies d’absorption étendues. Les catégories d’étoiles forment un véritable zoo, ce qui suggère l’existence de lois expliquant les étoiles aussi bien que leurs caractéristiques. Les astronomes ont dû déterminer leur évolution, c’est-à-dire comment elles passent d’un type à un autre au fil de leur combustion.

l’idée clé Les espèces d’étoiles

155

156

50 clés pour comprendre l’astronomie

39 é volution stellaire Les durées de vie des étoiles sont comprises entre quelques millions et des dizaines de milliards d’années. Le lien entre couleur et luminosité montre qu’elles ont une évolution similaire déterminée par leur masse. Leurs caractéristiques sont dues aux réactions de fusion nucléaire qui se déroulent en leur cœur. Tous les éléments qui nous entourent, comme ceux de notre corps, ont été produits par les étoiles. Nous sommes vraiment de la poussière d’étoiles ! La couleur des étoiles indique en général leur température : les étoiles bleues sont chaudes, les rouges froides. Mais la luminosité caractéristique d’une étoile varie aussi avec sa couleur. Les étoiles chaudes et bleues ont tendance à être plus brillantes que celles qui sont froides et rouges. Deux astronomes, le Danois Ejnar Hertzsprung en 1905 et l’Américain Henry Norris Russell en 1913, remarquèrent indépendamment l’un de l’autre ces liens entre couleur et luminosité dans les étoiles. Le nom des deux astronomes est aujourd’hui accolé pour désigner un diagramme qui représente la luminosité des étoiles en fonction de leur couleur : le diagramme de Hertzsprung-Russell – diagramme HR en abrégé.

Diagramme HR Sur ce dernier, 90  % des étoiles, y compris le Soleil, se

trouvent sur une bande diagonale qui part des étoiles bleues chaudes et brillantes et va vers les rouges froides et plus pâles. Cette bande est désignée sous le nom de séquence principale. En plus de la séquence principale, d’autres groupes d’étoiles ressortent clairement sur le diagramme HR. On note une branche de géantes rouges : des étoiles rouges de couleur semblable mais dont les luminosités s’échelonnent ; une population de naines blanches : des étoiles chaudes mais pâles ; une branche séparée de céphéides, aux couleurs qui s’échelonnent mais à la luminosité semblable. De telles configurations laissent entendre qu’il y a une cohérence dans la façon dont naissent et évoluent les étoiles. Mais ce ne fut que dans les années 1930 que les astronomes comprirent pourquoi les étoiles brillent.

chronologie

1905-1913

Publication par Hertzsprung et Russel d’un classement des étoiles par couleur et luminosité

Évolution stellaire

«

157

Je vous demande d’explorer les deux voies. Parce que le chemin de la connaissance des étoiles passe par l’atome. Et qu’une bonne connaissance de l’atome a pu être atteinte grâce aux étoiles. Sir Arthur Eddington

»

Fusion Les étoiles, y compris notre Soleil, brillent du fait de réactions de fusion

nucléaire – la fusion de noyaux atomiques légers qui en forme de plus lourds et libère de l’énergie. Quand ils sont suffisamment comprimés, les noyaux d’hydrogène peuvent fusionner pour produire de l’hélium, libérant une grande quantité d’énergie au passage. Progressivement, en bâtissant des noyaux de plus en plus lourds à travers une série de réactions nucléaires, tous les éléments que nous avons autour de nous peuvent théoriquement être créés dans les étoiles à partir de rien. Réaliser la fusion d’éléments, même les plus légers comme l’hydrogène, nécessite des températures et des pressions gigantesques. Pour que deux noyaux fusionnent, il faut triompher des forces qui assurent la cohésion de chacun d’eux. Les noyaux sont faits de protons et de neutrons liés ensemble par l’interaction nucléaire forte. Cette dernière, qui n’agit qu’à l’échelle minuscule des noyaux, est la glu qui surclasse les forces électriques de répulsion entre protons chargés positivement. L’interaction nucléaire forte n’ayant qu’une faible portée, les petits noyaux sont davantage soudés que les plus gros. Le bilan final est que, dans la fusion des noyaux, l’énergie moyenne nécessaire par nucléon croît avec le poids atomique jusqu’au nickel et au fer, qui sont très stables, et décroît ensuite pour les noyaux plus gros. Ces derniers sont plus facilement brisés par un choc peu important. La barrière énergétique à franchir pour la fusion la plus petite est celle des isotopes de l’hydrogène, qui ne contiennent qu’un seul proton. La réaction de fusion la plus simple se fait entre deux atomes d’hydrogène (un proton), ce qui donne du deutérium (un proton et un neutron), avec émission d’un positron et d’un neutrino isolé. Mais, pour amorcer ne serait-ce que cette réaction, il ne faut pas moins de 10 millions de kelvins !

1820

Arthur Eddington avance que le rayonnement des étoiles vient de réactions de fusion

1939

Hans Bethe découvre la physique de la fusion de l’hydrogène

1957

Article sur la nucléosynthèse publié par B2FH

50 clés pour comprendre l’astronomie Poussière d’étoiles Le phy-

106 Rigel

105

Bételgeuse

Deneb

10

4

Luminosité intrinsèque (Soleil = 1)

158

Supergéantes

Spica

103 Séquence principale

102

Véga

Capella

Sirius A

10

Altaïr

1

Aldébaran Arcturus Pollux

Procyon A Soleil

10–1 Naines blanches

10–2

Sirius B Procyon B

10–3 40,000

20,000 10,000 6,000 4,000 3,000 2,000 Température de surface des étoiles (K)

sicien allemand Hans Bethe, décrivit en 1939 la façon dont les étoiles brillent en convertissant les noyaux d’hydrogène (des protons) en noyaux d’hélium (deux protons et deux neutrons). Des particules supplémentaires (positrons et neutrinos) sont impliquées dans la transformation en sorte que deux protons de départ sont transformés en neutrons dans le processus. La fabrication d’éléments plus lourds se produit ensuite par étapes dans la cuisine nucléaire, mettant en œuvre des recettes explicitées en 1957 dans un important article de Geoffrey Burbidge, Margaret Burbidge, William Fowler et Fred Hoyle, connu sous le nom de B2FH.

Les noyaux plus gros se forment en fusionnant d’abord l’hydrogène, puis l’hélium, puis d’autres éléments plus légers que le fer et, dans quelques cas, des éléments plus lourds que le fer. Les étoiles telles que notre Soleil brillent parce qu’elles transforment par fusion essentiellement de l’hydrogène en hélium et cela se fait suffisamment lentement pour que les éléments lourds ne soient produits qu’en faible quantité. Dans les étoiles plus grosses, la réaction est accélérée par l’implication du carbone, de l’azote et de l’oxygène dans des réactions apparaissant plus tardivement. Plus d’éléments lourds sont alors produits plus vite. Une fois que l’hélium est présent, le carbone est fabriqué à partir de lui (trois atomes d’hélium-4 fusionnent, en passant par l’instable béryllium-8). Une fois qu’une certaine quantité de carbone s’est formée, il peut fusionner avec l’hydrogène pour former de l’oxygène, du néon et du magnésium. Ces transformations lentes se font pendant la plus grande partie de la vie de l’étoile.

«

»

Nous sommes des débris de matière stellaire ayant refroidi par accident, des débris d’étoile ratée. Sir Arthur Eddington

Évolution stellaire

Pas de panique !

Même si les réactions nucléaires au cœur du Soleil s’interrompaient aujourd’hui, comme il faut un million d’années aux photons produits pour atteindre la surface, nous ne remarquerions rien pendant un certain temps. Cela dit, il y a de nombreuses preuves historiques montrant que la puissance du Soleil reste pratiquement constante.

Les caractéristiques d’une étoile sont ensuite gouvernées par sa structure. Les étoiles doivent équilibrer trois forces : l’effondrement gravitationnel sous l’effet de leur propre masse ; la pression interne due aux gaz et au rayonnement qui a tendance à les faire gonfler ; et les moyens par lesquels la chaleur est transportée à travers les couches de gaz. Les deux premiers facteurs contrôlent la structure de l’étoile, une série de couches, comme dans un oignon, dont la densité décroît avec la distance au centre. Les réactions de fusion se produisent profondément enfouies à l’intérieur de l’étoile, là où la pression est la plus élevée. La chaleur produite doit alors traverser l’étoile pour s’échapper à sa surface. Cette chaleur peut être évacuée de deux façons : par rayonnement, comme pour la lumière solaire, ou par mouvements de convections, comme dans l’eau bouillante.

Durée de vie La durée de vie d’une étoile de la séquence principale est déterminée par le rythme des réactions de fusion dont elle est le siège et par sa masse. La vitesse de réaction est très sensible à la température et à la densité du cœur de l’étoile, nécessitant des températures dépassant 10 millions de degrés et des densités supérieures à 10 kg par cm3. Les étoiles massives ont des cœurs plus chauds et plus denses et épuisent leur carburant plus vite que les étoiles qui le sont moins. Une étoile semblable à notre Soleil vit sur la séquence principale environ 10 milliards d’années. Une étoile 10 fois plus lourde sera des milliers de fois plus brillante mais ne tiendra que 20 millions d’années. Une étoile ayant une masse dix fois plus petite que celle du Soleil peut être des milliers de fois moins brillante mais subsistera pendant environ 1 000 milliards d’années. Ce qui est beaucoup plus long que l’âge actuel de l’Univers… Nous ne sommes pas prêts de voir les plus petites étoiles mourir !

l’idée clé Le carburant des étoiles

159

160

50 clés pour comprendre l’astronomie

40 Naissances d’étoiles

Les étoiles naissent lorsque des nuages de gaz sont comprimés par la gravité en boules compactes. Pendant l’effondrement, la pression et la température du gaz augmentent jusqu’à devenir suffisantes pour soutenir l’étoile et empêcher son effondrement ultérieur. Si la masse de la boule de gaz est suffisamment grande, la pression au centre peut enclencher les réactions de fusion : l’étoile s’allume. La plupart des étoiles se forment au sein d’immenses nuages moléculaires, réservoirs de gaz dense à l’intérieur des galaxies. La Voie lactée abrite environ 6 000 nuages moléculaires, qui représentent environ la moitié de sa masse totale de gaz. Parmi les exemples proches, la nébuleuse d’Orion à quelque 1 300 annéeslumière (1,2 × 1 016 km) et le complexe nuageux Rhô Ophiuchi, à 400 annéeslumière. De telles régions peuvent faire plusieurs centaines d’années-lumière de diamètre et contenir suffisamment de gaz pour fabriquer des millions de soleils. Ils présentent une densité de gaz 100 fois plus grande que celle communément trouvée dans l’espace interstellaire où la norme est inférieure à un atome par cm3. L’espace interstellaire est composé à 70 % d’hydrogène, le reste étant de l’hélium et des traces d’éléments plus lourds. Les nuages denses peuvent être suffisamment froids pour abriter des molécules d’hydrogène (H2) aussi bien que des atomes. Souvent à une température de quelques degrés au-dessus du zéro absolu, les nuages moléculaires comprennent quelques-uns des points les plus froids de l’Univers. La nébuleuse du Boomerang, par exemple, a une température de 1 K, ce qui est moins que les 3 K du fond diffus cosmologique !

chronologie

1780

William Herschel observe des étoiles binaires

1902

Publication par James Jeans de la théorie de la formation de sphère par effondrement gravitationnel

Naissances d’étoiles

«

La lumière qui nous ferme les yeux ne nous est que ténèbres. Seul point le jour où nous nous éveillons. Il y a plus de jour à poindre. Le Soleil n’est qu’une étoile du matin. Henry David Thoreau

»

Protoétoiles Les étoiles naissent, à l’intérieur des nuages, là où la densité

de gaz dépasse la moyenne. On ne sait pas pourquoi cela se produit : peut-être simplement à cause des turbulences ou de la perturbation que crée l’explosion d’une supernova proche. Des champs magnétiques peuvent aussi y jouer un rôle.

Une fois qu’un nuage de gaz de taille suffisante est formé, la gravité entre en scène et s’occupe de la suite. La boule se concentre, sa pression augmente, sa chaleur aussi. L’énergie potentielle gravitationnelle est alors libérée, comme lorsqu’une balle accélère pendant qu’elle roule au bas d’une pente. Les deux actions – chaleur et pression – s’opposent à l’attraction gravitationnelle et s’efforcent d’arrêter l’effondrement de la sphère en la gonflant. La masse critique qui définit l’équilibre entre ces deux ensembles de forces est appelée masse de Jeans, d’après le nom du physicien James Jeans. Les nuages qui la dépassent continuent à évoluer, les autres non.

étoiles doubles Les étoiles doubles peuvent être identifiées de différentes façons : visuellement, en les recherchant avec un télescope ; par analyse spectrale, en observant les décalages Doppler dans les raies qui montrent qu’elles sont en orbite l’une autour de l’autre ; en observant les éclipses, quand l’une des étoiles occulte l’autre en passant devant elle ; enfin par astrométrie : quand une étoile paraît osciller légèrement, cela indique la présence d’une étoile compagnon. William Herschel, dans les années 1870, fut l’un des premiers à observer des paires d’étoiles, en recensant des centaines dans un catalogue.

1994

Le télescope spatial Hubble permet la découverte de disques autour d’étoiles en formation dans la nébuleuse d’Orion

2009

Lancement de l’observatoire spatial Herschel

161

162

50 clés pour comprendre l’astronomie

«

»

Il faut avoir du chaos en soi pour accoucher d’une étoile qui danse. Friedrich Nietzsche

Par gravité, la zone peut attirer davantage de matière provenant de son voisinage qui, en tombant vers elle, peut lui permettre de s’effondrer encore plus. Pendant que le nuage rétrécit, il s’échauffe et commence à luire. Quand sa température atteint environ 2 000 K, elle est suffisante pour briser les molécules d’hydrogène et ioniser les atomes dans le nuage hôte. Une nouvelle façon de libérer l’énergie thermique s’étant présentée, l’étoile s’effondre encore davantage jusqu’à atteindre le point où elle n’est plus soutenue que par sa propre pression interne. On parle alors de protoétoile. Les protoétoiles poursuivent leur croissance en agrégeant de la matière. Cela se fait à travers la formation d’un disque plat, appelé disque circumstellaire, qui canalise efficacement la matière. Une fois que la protoétoile a avalé toute la matière de son voisinage immédiat, sa croissance cesse et elle se contracte à nouveau. Elle finit par devenir suffisamment compacte pour amorcer la fusion de l’hydrogène dans son cœur dense : elle est devenue étoile. Pour une étoile de la taille du Soleil, ce processus dure 100 000 ans. Une fois qu’elle est soumise à la fusion, l’étoile acquiert une température et une couleur qui la situent sur la séquence principale où elle va évoluer en suivant les règles de la physique. Il est difficile d’observer des étoiles en formation : elles luisent faiblement et sont profondément enfouies dans les nuages moléculaires. Il faut observer dans l’infrarouge ou au-delà pour voir leur lueur, occultée par la poussière. On a pu observer des disques autour d’étoiles massives dans la nébuleuse d’Orion à l’aide du télescope spatial Hubble. D’autres observations faites avec des télescopes de

L’observatoire spatial Herschel L’observatoire spatial Herschel, de l’Agence spatiale européenne, lancé en 2009, s’efforce de voir les étoiles en formation et les galaxies lointaines aux longueurs d’onde infrarouges. Possédant un miroir unique, grand pour un télescope spatial (3,5 m de diamètre), il enquête sur les objets froids et obscurcis par les poussières, qui sont invisibles aux autres

télescopes. Herschel cible les premières galaxies, les nuages de gaz et de poussières où naissent les nouvelles étoiles, les disques à partir desquels les planètes se forment, ainsi que les comètes. Il a été nommé en hommage à William Herschel, qui identifia la lumière infrarouge en 1800.

Naissances d’étoiles 10 mètres ont révélé des disques semblables autour de jeunes étoiles individuelles, ce qui a confirmé que de tels disques sont communs. Mais on se demande toujours si de tels disques évoluent pour former des planètes, à l’instar de notre système solaire.

Étoiles binaires Il est aussi difficile d’ex-

écoulement bipolaire

enveloppe de poussières

protoétoile

pliquer la formation d’étoiles jumelles dans les systèmes doubles où les deux tournent autour de leur centre de masse commun. Environ un tiers des étoiles de la Voie lactée font partie de paires : un tel taux est trop important pour prodisque venir de la capture aléatoire d’étoiles errantes circumstellaire et signifie qu’il doit y avoir un mécanisme de formation des étoiles doubles. Les étoiles d’un amas pourraient s’être formées ensemble si elles se sont condensées à partir d’un même nuage, peut-être en même temps s’il a été altéré par un choc ou une perturbation qui aurait déclenché la concentration de masses. Une perturbation dans le nuage pourrait être l’explication la meilleure pour les paires isolées ou les paires multiples proches. Peut-être d’autres ont-elles tendance à quitter le système si se crée une configuration instable ou du fait de collisions. Le processus par lequel des étoiles massives sont créées est un autre mystère : elles devraient être bien plus brillantes que les protoétoiles de faible masse et on s’attendrait à ce qu’elles cessent de s’effondrer rapidement, ne parvenant pas à s’allumer. Mais, d’un autre côté, elles doivent se former facilement parce qu’on en trouve beaucoup, en particulier là où la formation de nouvelles étoiles est énergique, par exemple après une collision galactique. Peut-être sont-elles efficaces pour canaliser de la matière vers elles à l’aide d’un disque et en dissipant de l’énergie par des écoulements et des jets. Un nuage moléculaire donné pourrait produire des étoiles avec toute une gamme de masses différentes. Chaque étoile évoluant différemment, en fonction de sa masse, les étoiles d’une telle population finissent par être très différentes. Pour les astronomes qui tentent de comprendre comment les galaxies se forment et évoluent, les statistiques sur la formation des étoiles nous donnent une idée de l’apparence de la galaxie tout entière.

l’idée clé Une étoile est née

163

164

50 clés pour comprendre l’astronomie

41 M  orts d’étoiles Quand les étoiles ont épuisé leur combustible nucléaire, elles s’éteignent. L’équilibre entre gravité et pression qui les a fait vivre pendant des millions ou des milliards d’années est rompu. Pendant que leur moteur de fusion défaille, elles enflent et se dépouillent de leurs couches externes. Leur cœur s’effondre en une boule compacte, abandonnant une étoile à neutrons, une naine blanche ou un trou noir. Il arrive que l’étoile soit tellement déstabilisée qu’elle explose en supernova. La majorité des étoiles brillent pendant la plus grande partie de leur vie en réalisant la fusion de noyaux d’hydrogène en noyaux d’hélium. Ce faisant, elles acquièrent couleur et luminosité caractéristiques de leur masse. Une étoile du type du Soleil brille en jaune et se tient au milieu de la séquence principale, une relation entre luminosité et nuance adoptée par la plupart des étoiles. Elles restent ainsi pendant des millions d’années, brillant et ne gonflant qu’un peu avec l’âge. Mais elles finissent par épuiser la réserve d’hydrogène de leur cœur. Contrairement à ce que suggère l’intuition, ce sont les étoiles les plus massives à qui cela arrive en premier ; leur cœur subit des pressions et des températures bien plus grandes, aussi brillent-elles si vivement que les réactions nucléaires qui les font vivre se déroulent à un rythme rapide : elles transforment leur hydrogène en millions d’années. Au contraire, les étoiles de masse moindre brûlent bien plus lentement et il leur faut des milliards d’années pour consommer leur carburant primaire.

Phases ultimes Quand les réactions de fusion faiblissent au centre, le cœur

riche en hélium de l’étoile se contracte et l’étoile s’échauffe à mesure qu’est dissipée l’énergie potentielle de gravitation. Les couches situées juste au-dessus du cœur commencent à subir elles-mêmes la fusion de l’hydrogène et évacuent l’hélium qu’elles ont créé vers le cœur. Celui-ci devient si dense et chaud – atteignant 100 millions de degrés – qu’il commence à brûler son hélium, déclenchant un « flash d’hélium » brillant tandis que se réamorce la fusion. La fusion des noyaux d’hélium produit du carbone-12 à travers un ensemble de réactions, mais

chronologie

1572

Supernova de Tycho

1604

Supernova de Kepler

Morts d’étoiles

La supernova de Tycho

Début novembre  1572, une nouvelle étoile apparut dans le ciel boréal, dans la constellation de Cassiopée. Surveillée par l’astronome de la cour du Danemark Tycho Brahé et par bien d’autres, ce fut une des plus importantes observations de l’histoire de l’astronomie : elle montra que le ciel évoluait. Elle mena aussi à

des progrès dans la précision de la mesure de la position des objets astronomiques. La coquille résiduelle de la supernova ne fut découverte qu’en 1952 et sa contrepartie optique dans les années 1960. En 2004, une étoile compagnon de celle qui avait explosé a été discernée.

aussi de l’oxygène-16 à travers un autre. C’est là l’origine d’une grande partie du carbone et de l’oxygène qui nous entourent. Les étoiles comme le Soleil peuvent continuer à brûler de l’hélium pendant environ 100 millions d’années. Lorsque l’hélium est épuisé, un changement de vitesse semblable peut se produire, l’étoile brûlant alors dans son cœur l’élément suivant, le carbone, pendant que l’hélium et l’hydrogène sont brûlés dans des couches de plus en plus élevées. Mais la fusion du carbone demande des températures et des pressions encore plus importantes. Seules les étoiles les plus grosses, celles qui dépassent huit masses solaires, sont capables de connaître cette phase durant laquelle elles deviennent très lumineuses et gonflées. Les plus massives continuent en brûlant l’oxygène, le silicium et le soufre pour finir par atteindre le fer. Pour les étoiles les plus légères – de moins de huit masses solaires –, les choses s’interrompent lorsque l’hydrogène est épuisé. Pendant que le cœur se contracte, il y a toujours des réactions impliquant hydrogène et hélium dans les couches du dessus, ce qui apporte provisoirement du carburant au cœur de l’étoile. L’étoile passe par une série de flashs brillants à chaque fois que la fusion s’enclenche ou s’interrompt. Pendant que de l’hélium est déposé au centre, les couches externes se distendent puis se détachent. En s’étendant, le gaz qu’elles contenaient refroidit et ne peut pas être le siège de réactions de fusion. L’étoile commence ainsi à être ensevelie sous des couches de gaz diffuses. Ces bulles sont connues sous le nom de nébuleuses planétaires parce qu’avec la distance leurs voiles circulaires furent pris pour des planètes. Mais les nébuleuses planétaires ne subsistent pas bien longtemps : elles se dissipent en à peu près 2 000 ans. On en connaît quelque 1 500 dans notre galaxie.

1952

Découverte du rémanent de la supernova de Tycho

1987

Observation d’une brillante supernova dans les nuages de Magellan

1998-1999

Utilisation de supernovae comme indicateurs de distance pour en déduire l’énergie noire

165

166

50 clés pour comprendre l’astronomie Le cœur serré Une fois l’étoile dépouillée de ses couches

Terre

Naine blanche

extérieures, son cœur subsiste. Composé essentiellement de carbone et d’oxygène – tout le reste ayant brûlé ou s’étant envolé – le cœur dense et chaud s’étiole pour devenir une naine blanche. La pression vers l’extérieur due au rayonnement faisant défaut, la matière du cœur s’effondre en une sphère très dense, très compacte – l’équivalent de la masse du Soleil contenue dans une boule dont le rayon est de l’ordre de celui de la Terre. Cela conduit à une densité d’un million de fois celle de l’eau. Si les naines blanches ne deviennent pas des trous noirs, c’est seulement parce que leurs atomes ne peuvent pas être broyés, à cause de la pression quantique des électrons. Une naine blanche reste très chaude : entre 4 000 K et 40 000 K en surface pour la plupart. Cette chaleur ne peut pas être évacuée rapidement puisqu’elles n’offrent qu’une petite surface : elles peuvent donc survivre des milliards d’années.

Des étoiles plus massives peuvent être comprimées davantage. Si le rémanent dépasse 1,4 masse solaire (après la perte Étoile à neutrons des couches externes), la pression des électrons est insuffisante pour vaincre la gravité et l’effondrement va jusqu’à donner une étoile à neutrons. Cette limite de 1,4 masse Trou noir solaire est appelée la limite de Chandrasekhar, du nom de l’astrophysicien indien Subrahmanyan Chandrasekhar (1910–1995). Les étoiles à neutrons sont confinées dans un rayon d’à peu près 10 kilomètres, écrasant toute une masse solaire, ou plusieurs, dans une région de la taille de Paris du nord au sud. Elles sont si denses qu’un bout de la taille d’un morceau de sucre pèserait plus de 100 millions de tonnes ! Enfin, avec une gravité plus grande encore comme dans le cas des étoiles les plus grosses, l’effondrement finit par produire un trou noir.

Supernovae Quand des étoiles très massives – des dizaines de fois la taille du Soleil – meurent, elles peuvent exploser : ce sont les supernovae. Après avoir brûlé hydrogène et hélium, ces étoiles peuvent traverser une série de phases de réactions de fusion, passant d’un élément à un élément plus lourd jusqu’à finir par produire du fer. Le noyau de ce dernier a ceci de particulier qu’il est le plus stable de toute la classification périodique. C’est pourquoi, quand il est atteint, la fusion ne peut continuer à évacuer son énergie en construisant des éléments plus lourds. À ce stade, l’énergie est absorbée plutôt qu’émise et le cœur de l’étoile implose, passant par l’étape d’une naine blanche maintenue par la pression électronique pour finir comme étoile à neutrons. Mais les couches externes, en tombant sur ce noyau dur, rebondissent en une explosion de particules (des neutrinos) et de lumière.

«

Morts d’étoiles

Les supernovae que nous ne voyons pas à cause de nuages de poussières peuvent se produire dans notre galaxie aussi souvent qu’une fois tous les dix ans et nous fournir un moyen d’étudier les neutrinos qui en jaillissent. John N. Bahcall, 1987

»

En quelques secondes, une supernova libère de nombreuses fois plus d’énergie que le Soleil ne l’aura fait pendant toute sa durée de vie. La supernova est si brillante qu’elle éclipse brièvement toutes les autres étoiles de sa galaxie, restant visible des jours ou des semaines avant de disparaître. Les supernovae sont surtout de deux sortes, de types I et II. Les étoiles massives sont à l’origine des supernovae de type II. On les trouve généralement dans les bras des galaxies spirales, apparaissant à un rythme moyen d’une tous les 25 à 50 ans. Elles présentent de fortes raies d’émission de l’hydrogène du fait de la perte des couches externes de gaz. La dernière étoile à avoir fini ainsi dans notre galaxie a été observée par Kepler en 1604. Les supernovae de type I ne présentent pas de raies d’émission de l’hydrogène et on les rencontre dans les galaxies elliptiques comme spirales. On pense leur origine différente : elles viendraient d’explosions thermonucléaires dans des systèmes binaires qui se produiraient quand une naine blanche franchit la limite de Chandrasekhar de 1,4 masse solaire en agrégeant de la matière provenant de son compagnon. Les supernovae de type I ont une sous-classe très importante, dites de type Ia, dont la luminosité est prévisible à partir de leur explosion. De la façon dont elles s’illuminent puis s’éteignent on peut déduire leur luminosité intrinsèque, ce qui en fait des jalons commodes dans les mesures de distances (voir page 54). Comme elles éclipsent tout le reste de leur galaxie hôte, on peut les repérer dans tout l’Univers jusqu’à d’importants décalages vers le rouge. Les supernovae ont été utilisées pour établir la présence d’énergie noire. Dans la mort des étoiles massives, des noyaux de fer sont mis en pièces et de nombreux neutrons sont produits. Ils peuvent servir à fabriquer d’autres éléments, plus lourds que le fer, comme le plomb, l’or et l’uranium. Tous ces éléments présents sur Terre ont donc pour origine des supernovae. En dehors des produits synthétiques, le tableau périodique est l’œuvre de ce qui se passe dans les étoiles.

l’idée clé Bouquet final

167

168

50 clés pour comprendre l’astronomie

42 Pulsars

Les pulsars sont des étoiles à neutrons en rotation qui émettent des faisceaux d’ondes radio. Ce sont les rémanents compacts et denses d’étoiles massives qui tournent très vite : une révolution en quelques secondes. Leurs signaux réguliers – dont on a pu penser qu’il s’agissait d’un code Morse extraterrestre – en font des horloges précises qui jouent un rôle important dans les vérifications de la Relativité générale et la détection d’ondes gravitationnelles. En 1967, deux radioastronomes britanniques captèrent un signal cosmique qu’ils ne pouvaient expliquer. Leur radiotélescope était grossier mais n’en constituait pas moins une percée pour la science : il consistait en 200 kilomètres de fil et 2 000 capteurs tendus sur 1 000 poteaux de bois, comme un séchoir à linge géant étendu sur deux hectares dans le Cambridgeshire. Quand il a commencé à scruter le ciel en juillet de cette année-là, son traceur produisait 30 mètres de courbe par jour. Jocelyn Bell, une doctorante travaillant avec le physicien Tony Hewish, fouillait ses graphiques à la recherche de quasars qui scintillaient à cause des turbulences de notre atmosphère. Mais c’est quelque chose de différent qu’elle avait trouvé. Après deux mois d’observations, Bell remarqua une zone d’agitation dans les données : elle ne ressemblait à rien d’autre et provenait d’un endroit précis du ciel. En y regardant de plus près, elle vit que ce signal était éclaté en une série régulière d’impulsions radio apparaissant toutes les 1,3 seconde. Bell et Hewish s’efforcèrent de déterminer d’où provenait ce mystérieux signal. Bien que sa régularité d’horloge suggérât une origine humaine, ils ne parvenaient pas à identifier une telle émission. Cela ne ressemblait à aucune étoile ou quasar connus.

Petits hommes verts ? Les scientifiques se demandèrent un instant s’il

ne s’agissait pas d’une possibilité saugrenue : cela pourrait-il être une communication extraterrestre ? Ils pensaient qu’il était peu probable qu’il s’agisse d’un code Morse extraterrestre mais Bell se rappelle avoir été ennuyée que ses études soient ainsi dérangées : « J’essayais d’obtenir mon doctorat en travaillant sur une nouvelle technique et une bande de stupides petits hommes verts avaient choisi

chronologie

1967

Relevé du premier signal en provenance d’un pulsar

Pulsars ma zone et mes fréquences pour communiquer avec nous ! » Les astronomes se gardèrent de publier et approfondirent leurs observations. Bell découvrit bientôt une seconde source de pulsations – un pulsar double – avec une période de 1,2 seconde. En janvier 1968, elle et Hewish avaient identifié quatre sources de ce type. « Il était peu vraisemblable que deux bandes de petits hommes verts choisissent toutes les deux une identique et improbable fréquence, au même moment, pour tenter de se signaler à la planète Terre », remarque Bell. Confortés dans le fait qu’ils avaient découvert un nouveau phénomène astronomique, Bell et Hewish publièrent leur trouvaille dans la revue Nature.

Étoiles à neutrons Les astronomes se précipitèrent pour expliquer ce

que Bell et Hewish avaient découvert. Fred Hoyle, professeur d’astronomie à Cambridge, pensait qu’il était possible que les impulsions proviennent d’une étoile à neutrons, reste de l’explosion d’une supernova. Quelques mois plus tard, Thomas Gold, de la Cornell University, présenta une explication plus achevée : si l’étoile à neutrons était en rotation, un faisceau d’ondes radio pourrait balayer la zone d’observation d’un télescope à chaque rotation, tout comme la rotation de la lampe d’un phare donne l’impression qu’elle clignote. Néanmoins, qu’une étoile à neutrons puisse tourner sur elle-même en une seconde était quelque chose d’impressionnant. Gold affirmait que c’était possible dans la mesure où les étoiles à neutrons sont vraiment petites : seulement dix kilomètres de diamètre. Juste après l’explosion d’une supernova, leur contraction rapide entraînerait leur rotation très rapide de la même façon qu’un patineur sur glace tourne de plus en plus vite sur lui-même quand il ramène ses bras. Les étoiles à neutrons présentent aussi de très puissants champs magnétiques. Ce sont eux qui créent les faisceaux jumeaux d’ondes radio émanant de côtés

Polémiques sur des prix Nobel La découverte des pulsars a donné lieu à l’attribution de prix Nobel. Tony Hewish fut lauréat, en 1974, avec le professeur de radioastronomie Martin Ryle. De façon discutable, Jocelyn Bell ne fit pas partie du groupe malgré le fait que ce sont ses recherches de

1974

Découverte d’un pulsar binaire

thèse qui permirent la découverte du premier pulsar. En 1993, Joe Taylor et Russell Hulse furent aussi honorés d’un prix Nobel pour leur découverte du premier système binaire de pulsars.

1982

Découverte d’un pulsar milliseconde

169

170

50 clés pour comprendre l’astronomie étoile à neutrons en rotation

faisceau d’ondes radio

opposés de l’étoile. Tandis que l’étoile tourne, le faisceau balaye des cercles dans le ciel, donnant l’impression de flashs clignotants quand ils passent devant la Terre. Gold prédit ensuite que les pulsars devraient ralentir graduellement, à mesure qu’ils perdent de l’énergie : et, en effet, la vitesse de rotation des pulsars décroît d’environ un millionième de seconde par an.

Ondes gravitationnelles On trouva des centaines d’autres pulsars ce qui conduisit à de remarquables découvertes ultérieures. En 1974, les astronomes américains Joe Taylor et Russell Hulse découvrirent un pulsar binaire : lignes de un pulsar tournant très vite sur lui-même en champ magnétique même temps qu’autour d’une autre étoile à neutrons toutes les huit heures. Le système était très bien adapté à des vérifications de la Relativité générale d’Einstein. Les deux étoiles à neutrons étant très denses, compactes et proches l’une de l’autre, leurs champs de gravité sont extrêmement intenses et nous donnent une vue nouvelle sur les courbures de l’espace-temps. Les théoriciens prédirent que la contraction des orbites des deux étoiles qui tournent l’une autour de l’autre faisait que le système devait dissiper de l’énergie en émettant des ondes gravitationnelles. En cherchant les modifications dans les rythmes et les orbites des pulsars, Hulse et Taylor montrèrent que la prédiction était correcte. Les ondes gravitationnelles sont des contorsions dans le tissu de l’espace-temps qui se propagent comme des rides sur un étang. Les physiciens construisent des capteurs sur Terre capables de détecter la contraction de l’espace-temps qui est la signature du passage des ondes gravitationnelles, mais il s’agit d’observations

Carte

extraterrestre

Bien que les signaux en provenance des pulsars n’aient pas été envoyés par des extraterrestres, les pulsars ont été mis en vedette sur les deux plaques fixées aux vaisseaux spatiaux Pioneer et sur le Voyager Golden Record des sondes Voyager. Sur ces artefacts, qui

indiquent la présence d’une vie intelligente sur Terre à d’éventuelles civilisations galactiques qui pourraient les trouver un jour, la position de la Terre est repérée par rapport à 14 pulsars.

Pulsars

Tremblements d’étoiles Quand la croûte d’une étoile à neutrons très dense se craquèle brusquement, un «  tremblement d’étoile » s’ensuit, l’analogue de nos tremblements de terre. Sous l’effet des violents réarrangements de sa croûte rigide, la vitesse de rotation de l’étoile à neutrons varie brutalement. On a remarqué de tels tremblements

par des baisses soudaines – des pannes – dans la vitesse de rotation des pulsars. Les grands tremblements d’étoiles peuvent aussi déclencher des jaillissements de rayons gamma depuis les pulsars qui peuvent être captés par nos satellites, en particulier le télescope Fermi de la NASA.

extrêmement difficiles à réaliser. Tout ébranlement terrestre, depuis les secousses sismiques jusqu’aux vibrations ondulatoires des océans, peut perturber ces capteurs très sensibles. Dans le futur, des missions spatiales utiliseront plusieurs vaisseaux très éloignés les uns des autres et reliés par lasers qui seront capables de chercher les ondes gravitationnelles traversant notre système solaire.

Les pulsars milliseconde En 1982, une nouvelle démesure du monde des pulsars a été découverte : un pulsar d’une période d’une milliseconde (un millième de seconde) a été découvert par le radioastronome américain Don Backer ; il tournait sur lui-même 641 fois par seconde. Il était remarquable qu’une étoile tournât si vite. Les astronomes pensent que cela se produit dans des systèmes binaires où l’étoile à neutrons voit sa vitesse de rotation accélérée comme une toupie pendant qu’elle accrète de la matière en provenance de son compagnon. Les pulsars milliseconde sont des horloges très précises : les astronomes tentent de s’en servir pour détecter directement des ondes gravitationnelles qui passeraient devant un ensemble de telles étoiles. Les pulsars sont vraiment de bons instruments de la boîte à outils de l’astronome. Les pulsars seront un des principaux objectifs visés par le radiotélescope de nouvelle génération, le Square Kilometre Array (SKA), un gigantesque ensemble d’antennes liées qui débutera son travail d’observation dans la prochaine décennie. La découverte de dizaines de milliers de pulsars, en particulier la plupart de ceux de la Voie lactée, permettra aux radioastronomes de tester la Relativité générale et d’en savoir davantage sur les ondes gravitationnelles.

l’idée clé Les phares du cosmos

171

172

50 clés pour comprendre l’astronomie

43 S ursauts gamma Les sursauts de rayons gamma sont de brefs jaillissements de photons de haute énergie qui se produisent tous les jours dans le ciel. D’abord repérés par des satellites militaires, la plupart de ces sursauts indiquent les derniers soubresauts de l’agonie d’étoiles massives dans des galaxies lointaines. De loin plus brillants qu’une étoile normale située à des milliards d’annéeslumière, les sursauts gamma sont parmi les phénomènes les plus violents de l’Univers. Les pulsars et les quasars ne sont pas les seuls objets exotiques découverts dans les années 1960. Des sursauts de rayons gamma non identifiés – la forme la plus énergétique de rayonnement électromagnétique – ont été repérés en 1967 par des satellites de surveillance de l’armée américaine. Contrôlant le respect par l’Union soviétique du Traité d’interdiction partielle des essais nucléaires de 1963, qui proscrivait les essais nucléaires atmosphériques, les satellites Vela étaient équipés de capteurs destinés à détecter les rayons gamma produits par les explosions nucléaires. Mais les flashs repérés ne ressemblaient pas à ceux des essais atomiques. Les données sur ces sursauts ont été déclassifiées en 1973 et publiées dans un article universitaire sur Les Rayons gamma d’origine cosmique. Les énormes flashs de rayons gamma détectés par les satellites proviennent de toutes les directions. Cela se produit tous les jours et dure de quelques fractions de secondes à plusieurs minutes. Ces sursauts de rayons gamma sont des centaines de fois plus lumineux qu’une supernova et des millions de fois plus que le Soleil. Qu’est-ce qui engendre une telle débauche d’énergie ? Il a fallu des décennies pour trouver d’où viennent les sursauts gamma. Le lancement, en 1991, du satellite Compton Gamma-Ray Observatory a permis quelques progrès en détectant et localisant grossièrement des milliers de sursauts. Une représentation graphique de leurs positions dans le ciel montrait qu’ils étaient régulièrement répartis (propriété d’isotropie). Ils ne provenaient pas particuliè-

chronologie

1967

Premier sursaut de rayons gamma détecté par le satellite Vela

1991

Lancement de l’observatoire spatial en rayons gamma Compton

Sursauts gamma rement du centre de la Voie lactée ou de son disque et ne correspondaient pas à des objets extragalactiques connus. Cette uniforme répartition dans le ciel suggérait que les rayons gamma provenaient de sources ou bien très proches ou, au contraire, très éloignées. Ils ne sont pas créés par des étoiles explosant dans notre galaxie : dans ce cas, ils seraient concentrés dans son disque. Ils pourraient avoir été créés dans un voisinage très proche mais il paraissait plus probable que cela se soit fait au-delà de la Voie lactée. Mais le fait qu’ils n’étaient pas concentrés près de zones de fortes densités galactiques laissait penser qu’ils venaient de très loin. Ce qui en faisait les phénomènes les plus énergétiques de l’Univers. Le mystère ne faisait que s’épaissir ! Les sursauts gamma sont de deux types : de longue et de courte durées. Les sursauts longs durent habituellement quelques dizaines de secondes et les courts une fraction de seconde. Le fait qu’il y ait deux catégories distinctes laisse à penser qu’ils sont initiés par des processus différents. Mais, même aujourd’hui, les astronomes ne font qu’entrevoir ces derniers.

Queues de rayonnement optique En 1996, on a lancé un autre satel-

lite, BeppoSax, capable de réaliser des localisations plus précises. Le satellite n’était pas seulement capable de détecter les rayons gamma mais, grâce à une caméra embarquée, les rayons X : les astronomes pouvaient donc observer la luminosité à d’autres longueurs d’onde là où était apparu le sursaut gamma. Ils déclenchaient alors une alerte au sol pour que les télescopes partout dans le monde pointent rapidement dans cette direction afin de rechercher quelque réplique affaiblie. En 1997, une queue d e rayonnement optique fut repérée et +90 une galaxie très pale identifiée comme son origine probable. D’autres queues de rayonnement furent bientôt détectées. +180

Le lancement de nouveaux satellites – en particulier Swift et Fermi – permettra aux astronomes de recueillir toute une gamme d’exemples

1996

Lancement du satellite BeppoSax

1997

Premier enregistrement d’émission d’une queue de rayonnement gamma

–180

–90

2005

Premier enregistrement d’une queue de rayonnement consécutive à un sursaut gamma court

173

174

50 clés pour comprendre l’astronomie

L’astronomie en rayons gamma La plupart des rayons gamma observés en astronomie viennent de l’espace. Mais les rayons gamma, les photons les plus énergétiques, peuvent être détectés par des expériences basées au sol. Tandis qu’ils entrent en collision avec les molécules de l’air, ils produisent une pluie de particules et de flashs de lumière bleue, phénomènes qui peuvent tous deux être détectés. La lumière – appelée effet Tcherenkov – est captée le plus effica-

cement par des télescopes. Cette méthode a permis la détection de rayons gamma en provenance de la nébuleuse du Crabe, qui abrite un pulsar, et de très nombreuses autres sources dont des galaxies à noyau actif. L’astronomie gamma est difficile mais on construit quand même de plus grands télescopes pour sonder les étendues les plus violentes de l’espace.

de phénomènes allant avec les sursauts gamma. Des télescopes automatisés ont aussi été employés, réagissant immédiatement aux alertes gamma. Il est clair que ces sursauts gamma proviennent de galaxies lointaines très peu lumineuses situées à des milliards d’années-lumière. L’association entre un sursaut et le flamboiement d’une supernova implique que les sursauts gamma longs sont étroitement liés à l’agonie des étoiles massives.

«

Émission d’ondes Les astronomes pensent que les rayons gamma sont produits par un jet d’ondes créé lorsque le cœur de l’étoile achève son effondrement par la formation d’un trou noir. L’explosion qui s’ensuit éjecte une onde qui se déplace presque à la vitesse de la lumière, traverse le gaz résiduel autour de l’étoile, créant des rayons gamma au-devant du front de choc. Dans l’émission d’ondes, d’autres formes de rayonnement électromagnétique sont formées et produisent la queue de rayonnement qui peut persister pendant des jours ou des semaines.

Le génie et la science ont franchi les limites de l’espace ; quelques observations, développées par le raisonnement, ont dévoilé le mécanisme du monde. N’y aurait-il pas aussi quelque gloire pour l’homme à franchir les limites du temps, et à retrouver, au moyen de quelques observations, l’histoire de ce monde, et une succession d’événements qui ont précédé la naissance du genre humain ? Baron Georges Cuvier

»

«

Sursauts gamma

L’identification des sursauts courts Une observation bien faite, a été difficile parce que les queues de même que, souvent, de rayonnement pouvaient avoir une expérience bien conduite, disparu avant qu’un télescope ait pu être pointé dans sa direction. suffit à l’établissement Cependant, depuis 2005, nous disd’une loi. posons de quelques observations émile Durkheim de phénomènes associés aux sursauts courts. Mais ces observations ont été faites dans des régions pauvres en étoiles en formation, en particulier dans des galaxies elliptiques, ce qui suggère que les sursauts courts ne sont pas dus à la mort d’étoiles massives mais ont pour origine des phénomènes physiques différents. On ne sait pas exactement lesquels mais on pense qu’ils pourraient se produire lors de la fusion d’étoiles à neutrons ou dans d’autres systèmes de haute énergie. Les sursauts de rayons gamma sont dans l’ensemble des événements hors-série : ils ne se répètent que très rarement.

»

Faisceau de particules Les sursauts de rayons gamma émettent davan-

tage d’énergie qu’aucun autre objet astrophysique connu. Ils luisent de façon éphémère comme une étoile brillante, quand bien même ils se trouvent à des milliards d’années-lumière. Les astronomes peinent à expliquer comment autant d’énergie peut être dissipée en si peu de temps. Une réponse possible pourrait être que, dans certains cas, l’énergie n’est pas émise uniformément dans toutes les directions mais que, comme dans le cas des pulsars, les ondes électromagnétiques sont émises essentiellement dans un étroit faisceau. Quand ce dernier est dirigé vers nous, nous voyons un flash de haute énergie. Les rayons gamma peuvent aussi être amplifiés par des effets relativistes s’ils naissent au sein de particules rapides animées d’un mouvement hélicoïdal autour des lignes de force du champ magnétique, peut-être dans des versions à petite échelle des jets de particules émanant des radiogalaxies. Bref, les processus qui sont à l’origine des sursauts de rayons gamma font toujours l’objet d’une enquête ! Étant donné que les sursauts gamma se produisent à des milliards d’annéeslumière mais semblent aussi lumineux qu’une étoile proche, nous avons de la chance qu’ils soient si rares. S’il s’en produisait dans notre voisinage, cela pourrait bien faire frire la Terre !

l’idée clé Des flashs géants

175

176

50 clés pour comprendre l’astronomie

44 Variabilité Les astronomes sont en train de pratiquer de nouvelles ouvertures sur l’Univers en observant la façon dont un objet varie dans le temps. La plupart des étoiles luisent de façon constante. Mais il y en a d’autres – les étoiles variables – qui subissent des modifications physiques qui font varier leur luminosité. La manière dont se font ces fluctuations peut révéler beaucoup de choses sur l’étoile. Ça change dans le cosmos ! Malgré les visites impromptues des comètes et autres supernovae qui prirent au long des siècles les peuples par surprise, le ciel nocturne a généralement été considéré comme immuable. Ce caractère inaltérable a été remis en cause en 1638 par la découverte de Johannes Holwarda des pulsations de l’étoile Mira, qui brille et s’estompe sur un cycle de onze mois. À la fin du xviiie siècle, on connaissait un petit nombre d’étoiles variables, en particulier Algol. Dans la seconde moitié du xixe siècle, ce nombre augmenta rapidement, la photographie ayant beaucoup facilité la surveillance d’un grand nombre d’étoiles. Aujourd’hui, nous connaissons plus de 50 000 étoiles variables. La majorité se trouve dans notre galaxie mais beaucoup ont été repérées dans d’autres.

Pulsations Les étoiles variables se présentent sous de multiples formes.

Guetter la lumière émise par une étoile permet de déterminer comment sa luminosité augmente puis faiblit – autrement dit de tracer sa courbe de luminosité. Le cycle peut être périodique, irrégulier ou entre les deux. Par le spectre de l’étoile, nous connaissons son type, sa température et sa masse ; et nous savons si elle fait partie ou non d’un système binaire. Des modifications du spectre peuvent accompagner les fluctuations de la luminosité de l’étoile. Les raies spectrales peuvent montrer des décalages Doppler qui révèlent l’expansion ou la contraction de coquilles de gaz, ainsi que la présence de champs magnétiques. Une fois ces informations recueillies, on peut en déduire les raisons de la variabilité de l’étoile.

chronologie

1638

Première observation d’une étoile variable

1784

Découverte des céphéides

Variabilité

«

Le développement scientifique dépend en partie d’un processus de changement qui n’est pas une simple croissance mais une révolution. Thomas S. Kuhn

»

Environ deux tiers des étoiles variables ont des pulsations : elles gonflent et se contractent en cycles réguliers. Un tel comportement est en relation avec des facteurs d’instabilité de l’étoile qui la conduisent à osciller. L’un de ces facteurs, repéré par Arthur Eddington dans les années 1930, est régi par les modifications, elles-mêmes liées à la température, du degré d’ionisation des couches externes de l’étoile. Quand ces dernières gonflent, elles refroidissent et peuvent devenir plus transparentes. Par suite, l’étoile peut plus aisément dégager davantage d’énergie et elle se contracte, ce qui réchauffe le gaz et l’étoile gonfle à nouveau. Un tel cycle se répète.

Les céphéides Une telle structure explique les pulsations des céphéides, une

classe importante d’étoiles variables utilisées comme jalons dans le calcul des distances. Les cycles des céphéides sont en particulier régis par des modifications dans l’ionisation de l’hélium. L’hélium doublement ionisé est plus opaque que l’hélium simplement ionisé : les oscillations de la luminosité et de la température en résultent. La période de ces cycles est en relation étroite avec la luminosité de l’étoile.

Variabilité dans les quasars La variabilité n’est pas réservée aux étoiles. De nombreux quasars sont variables. Ce caractère, en même temps que leur luminosité uniforme dans tout le spectre électromagnétique, a été utilisé comme moyen pour les détecter. La variabilité des quasars est peut-être due à des modifications dans la quantité de matière accrétée à leur trou noir supermassif central ou à un point chaud

1908

La relation entre période et luminosité des céphéides est établie

1924

de leur disque d’accrétion dont la luminosité changerait. L’échelle de temps des variations les plus rapides nous informe sur la taille de la région d’origine. Par exemple, si cette échelle se mesure en jours, on peut alors estimer que la taille ne peut être inférieure à un jour-lumière, pour que la lumière puisse être transmise de façon cohérente sur cette distance.

La distance de la nébuleuse d’Andromède mesurée grâce aux céphéides

2015

Début de la construction du Large Synoptic Survey Telescope

177

178

50 clés pour comprendre l’astronomie

Taille et couleur Jaune

Jaune-vert

Orange

Jaune

Luminosité

Temps

Un cycle

Jaune-vert

Les céphéides sont des étoiles massives très lumineuses – elles sont le plus souvent 5 à 20  fois plus massives que le Soleil et jusqu’à 30 000 fois plus lumineuses. Leurs variations peuvent se faire sur des échelles de temps allant de quelques jours à quelques mois, période pendant laquelle leur rayon peut se modifier de presque un tiers. Leur luminosité et leur variabilité prévisible font qu’elles peuvent être vues sur des distances de 100 millions d’années-lumière. On peut donc les suivre dans les galaxies proches et leur luminosité peut être établie, ce qui en fait de bons indicateurs de distance.

Les céphéides ont été découvertes en 1784 et ont été ainsi appelées d’après leur prototype, l’étoile Delta Cephei. Un exemple mieux connu est Polaris, l’étoile polaire. La relation entre période et luminosité a été découverte en 1908 par Henrietta Swan Leavitt, une astronome de Harvard, qui s’était appuyée sur les observations des céphéides dans les nuages de Magellan. Les céphéides furent une pièce maîtresse du puzzle qu’a représenté la recherche de la taille de la Voie lactée et des distances aux galaxies au-delà de la nôtre. En 1924, Edwin Hubble les a utilisées pour déterminer la distance de la galaxie d’Andromède, ce qui montra clairement qu’elle se situait en dehors de la Voie lactée. Elles ont aussi joué un rôle clé dans les mesures du rythme d’expansion de l’Univers à travers la loi de Hubble.

«

Au cours du siècle passé [xixe], il y a eu davantage de changements qu’au cours du millénaire précédent. Ceux que connaîtra le siècle nouveau [xxe] les éclipseront. H. G. Wells

»

Variabilité

Films du ciel

L’observation de la variabilité en astronomie va devenir routinière dans le futur. Celle du ciel se fera par film plutôt que par des séries de photos instantanées. Les télescopes de la prochaine génération seront à la fois optiques et radio et conçus pour fournir un contrôle continu du ciel, recherchant de nouvelles catégories possibles d’objets variables – et nous réservant, espérons-le, de nombreuses surprises ! Un de ces télescopes est le Large Synoptic Survey Telescope dont la construction a commencé au Chili en 2015 et qui est

prévu pour être pleinement opérationnel en 2022. Avec un miroir de 8,4 m de diamètre et un large champ de vision, il réalisera une observation complète du ciel deux fois par semaine, prenant 800 clichés par nuit. En 10 ans, chaque recoin du ciel aura été visité 1 000 fois. Plusieurs milliards d’étoiles et de galaxies seront photographiées. Étoiles variables, quasars aussi bien que supernovae auront été repérés en nombre et nous pourrons faire des estimations sur l’énergie noire.

Les céphéides forment une catégorie d’étoiles à variabilité intrinsèque. La variabilité de telles étoiles provient de déformations physiques. Dans le cas des céphéides, cela se fait à travers des pulsations. D’autres étoiles peuvent se manifester comme variables à cause d’éruptions ou de flamboiements à leur surface. Pour d’autres, c’est le résultat de processus démesurés conduisant à des explosions, comme les étoiles à variabilité cataclysmique – novae et supernovae. Au contraire, les étoiles à variabilité extrinsèque peuvent être sujettes à éclipses provenant de la rotation d’une étoile compagnon, ou encore présenter des marques particulières sur leur surface, en particulier des taches solaires géantes, ce qui explique leur variabilité quand l’étoile tourne. La plupart des catégories d’étoiles variables sont dénommées d’après un prototype, comme les étoiles de type RR Lyrae, qui ressemblent aux céphéides, mais en moins brillantes, ou celles de type Mira, dont la pulsation est due à l’ionisation de l’hydrogène plutôt qu’à celle de l’hélium.

l’idée clé Tout le ciel filmé

179

180

50 clés pour comprendre l’astronomie

45 L e Soleil L’étoile la plus proche de nous, le Soleil, ne nous a pas livré tous ses secrets. Alors qu’il nous a dévoilé une grande partie du processus de fusion nucléaire et de la structure des étoiles, sa météo magnétique peut se révéler imprévisible. Le Soleil suit un cycle de 11 ans d’activités ; il est sujet à des embrasements erratiques et des émissions de vent solaire. Cela peut créer de splendides aurores boréales sur Terre, perturber nos systèmes de communications électroniques et affecter notre climat. Les Grecs de l’Antiquité savaient que le Soleil était une gigantesque boule de feu située loin de la Terre. Mais ce n’est qu’aux xvie et xviie siècles qu’on a démontré que c’est la Terre qui tourne autour du Soleil et non le contraire. L’arrivée de la lunette astronomique au xviie siècle a révélé des taches sombres se déplaçant à la surface du Soleil. Galilée les observa et se rendit compte qu’il s’agissait de tempêtes en surface et non de nuages ayant surgi. Au xixe siècle, on a établi la composition chimique du Soleil en identifiant les raies d’absorption sombres de son spectre – les raies de Fraunhofer. Mais ce n’est qu’au xxe siècle, quand la physique atomique a été développée, qu’on a compris ce qui fait fonctionner le Soleil : les réactions de fusion nucléaire. Le Soleil contient l’essentiel de la masse du système solaire (99,9 %) dans une boule dont le diamètre fait à peu près 100 fois celui de la Terre. Il est éloigné de nous d’environ 150 millions de kilomètres et sa lumière met huit minutes à nous parvenir. Approximativement, les trois quarts de sa masse sont constitués d’hydrogène, le reste d’hélium avec de petites quantités d’éléments plus lourds : oxygène, carbone, néon et fer. Son énergie provient de la fusion en son cœur de l’hydrogène en hélium. Avec une température en surface de 5 800 K, le Soleil est une étoile jaune de classe G2, de luminosité moyenne pour une étoile de la séquence principale. Il est enfin à peu près à mi-chemin des 10 milliards d’années de sa durée de vie.

La structure du Soleil C’est un peu celle d’un oignon. Son cœur, dont le rayon est le quart du rayon solaire, est brûlant et dense. C’est là que se produit la fusion, libérant à chaque seconde une énergie équivalant à la consommation de quatre millions de tonnes de gaz ; ou à l’explosion, toujours à chaque seconde,

chronologie

1610

Publication par Galilée d’observations à la lunette astronomique

1890

Joseph Lockyer découvre de l’hélium dans le spectre solaire

1920

Arthur Eddington avance que l’énergie du Soleil lui vient de réactions de fusion nucléaires

Le Soleil

«

La Terre, dans son mouvement rapide autour du Soleil, possède un tel degré de force vitale que, si on convertissait cette dernière en chaleur, sa température deviendrait au moins mille fois plus grande que celle du fer rouge et le globe sur lequel nous marchons brillerait, selon toute probabilité, autant que le Soleil lui-même. James Prescott Joule

»

de dizaines de milliards de mégatonnes de TNT. La température y atteint un brûlant 14 millions de kelvins… La couche suivante est la zone de radiation, qui se trouve entre 0,25 et 0,7 rayon solaire. L’énergie produite dans le cœur traverse cette zone comme rayonnement électromagnétique, c’est-à-dire sous forme de photons. La température y décroît vers l’extérieur, de 7 à 2 millions de kelvins. Au-dessus de la zone de radiation on trouve celle de convection, représentant les 30 % restants du rayon, jusqu’à la surface. La chaleur qui y monte depuis les couches inférieures fait que les gaz grimpent en bouillonnant jusqu’à la surface avant de replonger vers le bas, circulant comme de l’eau bouillante dans une casserole. La chaleur est rapidement évacuée de cette zone et la température à la surface tombe à 5 800 K. Une mince couche, la photosphère, enrobe le Soleil. Elle ne fait guère qu’une centaine de kilomètres d’épaisseur. Des gaz raréfiés forment, au-dessus de la surface, l’atmosphère solaire, qu’on peut voir lors d’une éclipse totale de Soleil. Elle comporte cinq parties : une couche froide de 500 km d’épaisseur, la plus froide de la zone ; la chromosphère, une partie chaude et ionisée de 2 000 km d’épaisseur ; une zone de transition de 200 km d’épaisseur ; la vaste couronne qui s’étire loin du Soleil, produit le vent solaire et est brûlante, atteignant des millions de degrés ; et l’héliosphère, une bulle façonnée par le vent solaire et dont le rayon vaut cent fois la distance Terre-Soleil. En 2004, la sonde Voyager I en a franchi la limite – le « choc terminal » – pour pénétrer dans l’héliogaine, une région de transition turbulente où les vents solaires ont été considérablement ralentis au passage du choc terminal. Les chercheurs estiment que Voyager I franchira vers 2020 la limite extérieure de l’héliogaine, l’héliopause, pour pénétrer dans l’espace interstellaire.

Météo de l’espace Le Soleil possède un puissant champ magnétique. Il change de sens tous les onze ans – indiquant le cycle solaire – et subit aussi des changements continuels. Augmentation du nombre des taches solaires,

1957

Burbidge et al. mettent au point la théorie de la nucléosynthèse stellaire

1959-1968

La sonde spatiale de la NASA Pioneer met en évidence un vent solaire et un champ magnétique

1973

2004

Lancement de la plateforme La sonde Genesis Skylab ; elle permet d’observer capture des particules la couronne solaire du vent solaire

181

182

50 clés pour comprendre l’astronomie







 



 

 1 – Cœur 2 – Zone de radiation 3 – Zone de convection 4 – Photosphère 5 – Chromosphère 6 – Couronne 7 – Taches solaires 8 – Granules 9 – Protubérances

é­ ruptions et jets de vent solaire se produisent quand le champ magnétique du Soleil est particulièrement actif. De telles explosions peuvent lancer à toute vitesse dans le système solaire des nuages de particules. Quand ils atteignent la Terre, ils sont canalisés par le champ magnétique propre de la Terre vers des zones de latitude élevée où ils se manifestent par de délicates lueurs connues sous le nom d’aurores boréales et australes. Ces puissances éruptions de particules peuvent être destructives : au Canada, dans la province de Québec, en 1989, elles ont mis hors service les télécommunications et le réseau électrique.

Les taches solaires sont les tourbillons d’un puissant champ magnétique qui se manifeste à la surface du Soleil. Atteignant des milliers de kilomètres de part en part, ils apparaissent sombres parce qu’ils sont plus froids que les gaz brûlants qui les entourent. Le nombre de taches solaires augmente quand l’activité magnétique est maximale, fluctuant tous les 11 ans ou à peu près. Des cycles solaires inhabituels peuvent affecter le climat de la Terre : le « petit âge glaciaire » qui a gelé l’Europe au xviie siècle a coïncidé avec l’arrêt, pendant plusieurs décennies, du cycle solaire. Un petit nombre de taches solaires furent observées durant toute cette période. Dans les années qui ont immédiatement précédé 2010, le Soleil a connu une phase de tranquillité : sa luminosité a légèrement baissé, de même que son champ magnétique, et le nombre de taches solaires ainsi que l’intensité du vent solaire sont, en moyenne, moins grands.

Mystères Le Soleil est un bon laboratoire pour travailler sur la physique des

étoiles. Bien que nous connaissions beaucoup de choses sur son fonctionnement, il reste toujours pas mal de mystères. L’un d’eux, qui a été récemment

Genesis

Seules les couches externes du Soleil absorbent la lumière : la chimie de l’intérieur est donc à peine connue. Une capsule spatiale, Genesis, a collecté des particules du vent solaire pour en déterminer la composition. En 2004, elle revint sur Terre avec, à son bord, les échantillons prélevés. Son parachute n’a pas fonctionné et la capsule s’est écrasée dans le désert du Nevada. Malgré cela, les astronomes ont pu assembler les débris de ses capteurs et analyser les particules provenant du Soleil.

«

Le Soleil

résolu, portait sur l’énigme Tu m’appris à nommer des neutrinos solaires manla grande et la petite lumière quants. La fusion nucléaire qui brûlent le jour et la nuit. de l’hydrogène en hélium a pour sous-produit des parWilliam Shakespeare ticules appelées neutrinos. Le Soleil devrait en créer en très grand nombre mais les physiciens ne pouvaient en voir que moins de la moitié du nombre attendu. Où était donc le reste ? Les neutrinos sont difficiles à détecter parce qu’ils interagissent très peu avec la matière. En 2001, le Sudbury Neutrino Observatory, au Canada, a fourni la réponse : la raison de cette insuffisance de neutrinos est qu’ils se transforment en d’autres types de neutrinos pendant leur voyage depuis le Soleil. Les physiciens ont détecté ces autres types de neutrinos (les neutrinos tau et mu) et ont démontré que les neutrinos « oscillaient » entre ces types ; ils ont aussi montré que, pour petite qu’elle soit, ils ont une masse – on pensait au contraire jusque-là qu’ils en étaient dépourvus. Le problème du manque de neutrinos était résolu.

»

Un deuxième mystère solaire subsiste : le mécanisme par lequel la couronne solaire est chauffée à des millions de degrés. La photosphère n’est qu’à 5 800 K et la couronne n’est donc pas chauffée par des rayonnements provenant de la surface. La meilleure hypothèse jusqu’ici est que l’énergie magnétique envahit le plasma de la couronne. Cela se produit quand les lignes du champ magnétique se cassent net par l’intermédiaire d’éruptions et d’ondes magnétiques qui traversent le gaz.

Le destin du Soleil Le Soleil est vieux d’environ 4,5 milliards d’années et

est à peu près à la moitié de sa vie. Dans 5 milliards d’années, tout l’hydrogène présent dans son cœur, son combustible, aura été épuisé. Il gonflera pour devenir une géante rouge. Ses couches externes boursouflées parviendront au-delà de l’orbite de la Terre : son rayon sera 250 fois plus grand que l’actuel. Même si le Soleil, en perdant une partie de sa masse, relâchera son étreinte sur les planètes qui pourront dériver vers des orbites plus lointaines, la Terre ne sera pas épargnée. L’eau des océans se sera évaporée et notre atmosphère se sera envolée. Même maintenant, le Soleil gagne en luminosité : environ 10 % par milliard d’années. La vie sur Terre pourrait donc s’éteindre d’ici un milliard d’années. Le Soleil finira ses jours comme naine blanche, après avoir perdu ses couches de gaz, pour apparaître quelque temps comme une nébuleuse planétaire. Seul le cœur restera.

l’idée clé L’étoile la plus proche de nous

183

184

50 clés pour comprendre l’astronomie

46 Exoplanètes

Nous connaissons désormais des centaines de planètes gravitant autour d’autres étoiles que le Soleil. Jusqu’à maintenant, la majorité sont des géantes gazeuses comme Jupiter – on les a découvertes par l’oscillation apparaissant à l’analyse spectroscopique de leur étoile. Les missions spatiales recherchent des planètes rocheuses plus petites pouvant être les analogues habitables de notre Terre. Une vingtaine de planètes telluriques confirmées situées dans la zone habitable de leur étoile ont été recensées à ce jour, certaines autour d’étoiles semblables à notre Soleil. La découverte de planètes autour d’étoiles autres que le Soleil – les exoplanètes – est un peu le Saint Graal de l’astronomie. Vu le nombre d’étoiles de la Voie lactée, il paraît improbable que notre système solaire soit unique. Mais détecter des corps pales en orbite autour d’étoiles brillantes et lointaines s’est révélé difficile. Aussi les exoplanètes ne furent-elles repérées que dans les années 1990, quand l’instrumentation des télescopes eut fait suffisamment de progrès. Les découvertes se succédèrent alors : plus de 400 exoplanètes sont aujourd’hui recensées. Quelques planètes furent localisées autour de pulsars par des techniques de radioastronomie. Mais la plupart d’entre elles le furent par leur signature dans le spectre des étoiles. En 1995, Michel Mayor et Didier Queloz, de l’Université de Genève, réalisèrent les premières détections quand ils eurent amélioré la méthode consistant à rechercher les légers décalages dans les longueurs d’onde de la lumière de l’étoile dus à la faible attraction d’une planète sur l’étoile.

Découverte de planètes Deux corps massifs tournent l’un et l’autre

autour de leur centre de masse commun, un point qui se trouve plus près de l’objet le plus lourd et non à mi-chemin entre les deux, ni au centre de l’un des deux. Par suite, la présence d’une planète fait que l’étoile décrit un petit cercle pendant que son compagnon lui tourne autour. Cette oscillation peut être repérée comme étant un décalage Doppler dans la lumière de l’étoile : quand l’étoile s’éloigne de nous, sa lumière est décalée vers le rouge mais, quand elle vient à notre ­rencontre, elle apparaît légèrement plus bleue. Même si nous ne

chronologie

1609

Publication par Kepler de la théorie des orbites elliptiques

1687

Newton explique les lois de Kepler à partir de la gravité

1781

Découverte d’Uranus par William Herschel

Exoplanètes

«

»

Un jour viendra où les hommes porteront leur regard plus loin. Ils pourront voir des planètes comme la Terre. Sir Christopher Wren pouvons pas voir la planète elle-même, nous pouvons la repérer parce que sa masse provoque ce pas de danse de l’étoile, vers l’arrière et vers l’avant (voir l’effet Doppler, page 32). Les premières exoplanètes identifiées ont été trouvées par la méthode Doppler. En théorie, nous pourrions chercher directement l’oscillation par le petit changement de sa position. Mais la précision des mesures qui seraient nécessaires est très difficile à atteindre parce que les étoiles sont situées très loin. Une autre méthode consiste à rechercher une diminution régulière de la luminosité de l’étoile due au transit d’une planète devant elle. Une planète de la taille de la Terre retiendrait une minuscule fraction, 0,01 %, de la lumière de l’étoile pendant plusieurs heures par jour. Pour que la détection soit attestée, cette baisse doit se répéter de façon fiable sur un cycle qui peut durer des jours, des mois ou des années. Une fois la période orbitale ainsi mesurée, la masse de la planète peut être déduite de la troisième loi de Kepler. Jusqu’ici, seules quelques planètes ont été trouvées de cette manière. Il y a différentes sortes de planètes, et donc différentes méthodes de détection : la méthode Doppler est mieux adaptée aux très grosses planètes, telle Jupiter, tournant près de leur étoile où elles exercent la plus forte attraction sur elle ; la méthode du transit peut dénicher des planètes plus distantes et plus petites, en particulier des cousines de la Terre, mais nécessite des mesures de la lumière de

La mission spatiale Kepler

Lancé en 2009, l’engin spatial de la NASA Kepler est destiné à trouver des planètes telles que la nôtre. Son télescope de 0,9  m de diamètre observe en permanence une vaste région du ciel (diamètre : 12°) qui englobe 100 000 étoiles. Une planète de la taille de la Terre, en passant devant une étoile, ferait baisser la luminosité de

1843-1846

Prédiction de l’existence de Neptune, trouvée par Adams et Le Verrier

1992

Première exoplanète découverte autour d’un pulsar

cette dernière. Kepler a permis de découvrir un millier d’exoplanètes confirmées dans plus de 400 systèmes planétaires. Parmi elles, une vingtaine de planètes semblables à la Terre se situent dans la zone habitable de leurs étoiles respectives, parmi lesquelles des étoiles semblables à notre Soleil.

1995

Première exoplanète découverte par la méthode Doppler

2009

Lancement de la mission Kepler

185

50 clés pour comprendre l’astronomie Nombre de masses solaires

186

l’étoile très fines sur de très longues périodes. Cela se fait plus efficacement depuis l’espace, au-dessus des turbulences de notre atmosphère. La méthode du transit est utilisée par plusieurs missions, en particulier par le satellite Kepler de la NASA, lancé en 2009.

Zone habitable

2

1 Mars Terre Vénus

0.5 0

0.1

1 10 U.A. (unités astronomiques)

40

Des Jupiters chaudes

Sur les centaines de planètes découvertes jusqu’ici, la plupart sont des géantes gazeuses situées très près de leur étoile mère. Elles ont des masses du même ordre que celle de Jupiter – et presque toutes ont plus de 10 fois la masse de la Terre – mais se déplacent sur des orbites très resserrées, bien plus proches de leur étoile que Mercure ne l’est du Soleil. D’habitude, ces « Jupiters chaudes » tournent autour de leur étoile en quelques jours et la température de leur atmosphère est élevée du fait de cette proximité. On a pu montrer que, sur l’une de ces planètes, il y a un côté jour plus chaud, atteignant 1 200 K quand il est face à l’étoile, et un côté nuit plus froid, la température descendant à environ 970 K. Les astronomes ont détecté de l’eau, du sodium, du méthane et du dioxyde de carbone dans le spectre de l’atmosphère d’exoplanètes. Ces dernières sont définies comme étant des corps en orbite possédant une masse trop faible pour que s’amorce la fusion du deutérium : elles ne sont pas assez grosses pour s’allumer et devenir des étoiles. En pratique, la taille la plus grande est environ 13 fois celle de Jupiter. Les boules de gaz plus grandes que cette limite de fusion et cependant inactives sont appelées naines brunes. Il n’y a pas de limite de masse inférieure autre que l’échelle ordinaire des planètes de notre système solaire. Les exoplanètes peuvent être des géantes gazeuses comme Jupiter et Saturne, ou des planètes telluriques comme la Terre et Mars. Les exoplanètes sont courantes : jusqu’ici, on en a trouvé autour d’environ 1 % des étoiles de la séquence principale ayant fait l’objet de recherches spécifiques. Si cette statistique est une sous-estimation, comme cela paraît probable étant donné le biais de l’observation (nous détectons surtout les Jupiters chaudes), cela implique l’existence de milliards de planètes dans la Voie lactée, qui contient 100 milliards d’étoiles. Certaines étoiles abritent des planètes plus probablement que d’autres. Les étoiles du genre de notre Soleil (de classes F, G ou K) sont les hôtes les plus probables. Les étoiles naines (de classe M) et les étoiles lumineuses

bleues (de classe O) le sont moins. Les étoiles dont le spectre révèle qu’elles contiennent relativement plus d’éléments lourds, comme le fer, ont plus de chances d’être entourées de planètes, a fortiori massives.

«

Exoplanètes

»

La planète des aliens, c’est la Terre. J.-G. Ballard

Les orbites de nombreuses exoplanètes détectées jusqu’ici présentent des caractères extrêmes. Celles qui sont parcourues le plus rapidement, en moins de 20 jours, sont quasi circulaires, semblables à celles de notre système solaire. Celles qui demandent davantage de temps ont tendance à être elliptiques, parfois très allongées. Le fait que cet étirement demeure, que les orbites ne tendent pas à devenir circulaires, est difficile à expliquer. Il est néanmoins remarquable que ce soit la même physique qui régisse ces planètes lointaines et celles de notre système solaire.

Zone habitable Pour dresser la carte du système planétaire d’autres étoiles, les astronomes s’efforcent de découvrir des planètes moins lourdes se situant plus loin de leur étoile hôte que les Jupiters chaudes. On cherche tout particulièrement des cousines de la Terre – des exoplanètes rocheuses de masse semblable à la sienne et dont la position par rapport à leur étoile est comparable à celle de notre planète par rapport au Soleil. Il y a, autour de chaque étoile, une « zone habitable » dans laquelle une planète pourrait avoir la bonne température pour receler de l’eau à l’état liquide, et donc pour pouvoir abriter la vie. Plus près, l’eau de surface serait bouillante ; plus loin, elle serait gelée. La bonne distance dépend de la luminosité de l’étoile : les planètes habitables se trouvent plus loin si l’étoile est brillante, moins sinon. Les astronomes ont vraiment beaucoup appris sur les planètes au cours des vingt dernières années. Nous avons beaucoup progressé dans la quête d’une planète analogue à la Terre autour d’une étoile lointaine. La technologie évolue, les observations sont de plus en plus précises et nous avons déjà obtenu des résultats significatifs. Cartographier un nombre toujours plus grand de systèmes d’exoplanètes, parmi lesquelles de proches parentes de la Terre, n’est qu’une question de temps.

l’idée clé D’autres mondes

187

188

50 clés pour comprendre l’astronomie

47 F ormation du

système solaire

Le Soleil s’est constitué à partir d’un nuage gazeux géant il y a 4,5 milliards d’années. Comme d’autres étoiles qui se forment par condensation à partir de nuages moléculaires, le Soleil est issu d’un effondrement gravitationnel d’une mer d’hydrogène, d’hélium et de traces d’autres éléments. Les planètes viennent des débris abandonnés. Agrégats et collisions ont fixé taille et position dans un jeu de billard cosmique. Quand le modèle héliocentrique a fini par être reconnu au xviiie siècle, les questions sur l’origine du système solaire ont commencé à se poser. L’idée que le Soleil et les planètes formaient un nuage de gaz géant – l’hypothèse de la nébuleuse – a été mise en avant par Emanuel Swedenborg en 1734, puis développée par Emmanuel Kant et Pierre-Simon de Laplace. Quoique vraie dans ses grandes lignes, l’hypothèse a été largement développée depuis lors. Comme d’autres étoiles se sont formées à partir de nuages moléculaires, telle la nébuleuse d’Orion, le Soleil a dû se condenser à partir d’un nuage riche en hydrogène, en hélium et avec des traces d’autres éléments. La nébuleuse pré-solaire se serait ainsi étendue sur de nombreuses annéeslumière et aurait contenu suffisamment de gaz pour pouvoir fabriquer des milliers d’étoiles. Le Soleil pourrait ne pas avoir été seul dans ce nuage – la présence de météorites contenant de grandes quantités d’isotopes lourds du fer (Fe-60) laisse penser que la nébuleuse avait été polluée par des rejets provenant d’une supernova proche. Le Soleil pourrait donc avoir grandi parmi d’autres étoiles qui, massives, auraient vécu brièvement et explosé avant la naissance du système solaire. Le Soleil se développa peu à peu dans une région de surdensité du nuage créée par la gravité. Il mit 100 000 ans à devenir une protoétoile – une boule de gaz

chronologie

1704

L’expression « système solaire » est utilisée pour la première fois

Formation du système solaire

Une comète s’écrase Entre le 16 et le 22 juillet 1994, la comète Shoemaker-Levy 9 s’est écrasée dans l’atmosphère de Jupiter. Il s’agit de la première collision observée de deux astres du système solaire. Elle a été suivie par la plupart des observatoires, tant sur Terre que dans l’espace. Alors que la comète s’approchait de Jupiter, son noyau se brisa en 21 morceaux au moins mesurant jusqu’à 2 km. Les astronomes ont regardé chaque morceau heurter l’atmosphère, déclenchant volutes et éclairs.

chaude et dense mais où la fusion ne s’est pas enclenchée. Il était entouré d’un disque circumstellaire de gaz et de poussières étendu sur plusieurs centaines de fois la distance de la Terre au Soleil. Après environ 50 millions d’années, la fusion s’enclencha et le Soleil devint une étoile de la séquence principale.

Formation de planètes Les planètes se sont formées à partir des débris

recueillis dans le disque. Les poussières se sont regroupées pour former des objets mesurant plusieurs kilomètres ; les collisions ultérieures entre eux les ont agglutinés. Les embryons de planètes sont devenus de plus en plus gros. En même temps, les planètes en formation ont fait le ménage autour d’elles dans le disque. Les régions intérieures du système solaire en formation étaient chaudes et il était impossible que des composés volatils comme l’eau s’y condensent. Les planètes telluriques, riches en métal, se sont formées, assises sur des corps chimiques à points de fusion élevés : composés du fer, du nickel et de l’aluminium, silicates – toutes les bases minérales des complexes ignés qu’on peut toujours voir sur Terre. Les planètes telluriques – Mercure, Vénus, la Terre et Mars – ont grossi régulièrement en agrégeant des corps plus petits. On pense que les planètes intérieures se sont formées plus loin du Soleil qu’elles ne le sont aujourd’hui et que leurs orbites se sont contractées alors que les planètes étaient ralenties par le frein opposé par le gaz restant dans le disque qui a fini par se dissiper. Les géantes gazeuses – Jupiter, Saturne, Uranus et Neptune – se sont formées plus loin, après la « ceinture de glace », là où les composés volatils restaient gelés. Ces planètes étaient assez grandes pour s’entourer d’une atmosphère d’hydrogène et d’hélium. À elles quatre, elles représentent 99 % de la masse de matière en orbite autour du Soleil. 10 millions d’années après, le jeune Soleil souffla le gaz résiduel du disque et les planètes cessèrent de croître.

1734

Swedenborg avance l’hypothèse de la nébuleuse

1994

Une comète s’écrase sur Jupiter

189

190

50 clés pour comprendre l’astronomie Temps Nébuleuse pré-solaire

On a pensé que les planètes s’étaient formées essentiellement où nous pouvons les voir aujourd’hui. C’est au xxe  siècle que les astronomes se rendirent compte qu’il n’en était pas ainsi. Ils développèrent de nouvelles théories avançant que les planètes avaient en fait beaucoup bougé du fait de collisions – un jeu de billard cosmique.

Impacts géants Quand les planètes inté-

rieures furent presque achevées, la zone était toujours encombrée par des centaines d’embryons planétaires de la taille de la Lune. Les chocs avec Formation du les planètes déjà constituées furent gigantesques. Soleil et des planètes Nous sommes certains que de tels événements se produisirent : c’est au cours d’une de ces collisions que la Terre s’est entourée de la Lune. À l’occasion d’une autre, Mercure a perdu de nombreuses couches externes. La raisons la plus Système probable de ces collisions est que les orbites des solaire planètes étaient plus allongées qu’aujourd’hui ce qui les a fait souvent croiser le chemin d’objets plus petits. Depuis lors, les orbites se sont régularisées et sont devenues quasi circulaires, peut-être à travers ces collisions successives ou à cause du frein provoqué par des débris. Les décombres de la ceinture d’astéroïdes, entre Mars et Jupiter, sont peut-être les restes d’une planète fracassée par de nombreuses collisions. La zone était particulièrement encline à perturbations du fait de l’attraction de Jupiter, la plus grosse planète du système solaire. Quand l’orbite de Jupiter s’est décalée, cela a provoqué une désorganisation sur une grande zone. Les résonnances orbitales ont bouleversé la région intérieure à son orbite. Les collisions qui s’en suivirent ont brisé la planète qui se trouvait là, ne laissant que les astéroïdes. Peut-être certains astéroïdes glacés ont-ils été précipités de là vers l’orbite de la Terre, fournissant de l’eau à notre jeune planète, eau qui a aussi pu nous venir des comètes. Jupiter et les autres planètes extérieures se sont beaucoup déplacées au cours des dernières étapes de leur formation. Le disque protoplanétaire aurait été trop froid et trop diffus à la distance où se trouvent les planètes extérieures pour que se forment des objets suffisamment gros. Uranus, Neptune, les objets de la ceinture de Kuiper, en particulier Pluton et les comètes, ont dû se former plus près du Soleil et avoir été éjectés plus loin par des interactions gravitationnelles. Il se peut même que Neptune se soit formée à l’intérieur de l’orbite d’Uranus avant d’avoir

Formation du système solaire

Météorites

Les météorites sont faits de débris cosmiques, en particulier de la matière abandonnée par le système solaire primitif et les débris des planètes. Il y en a essentiellement de trois sortes. Celles riches en fer proviennent du cœur d’astéroïdes brisés ; les météorites pierreuses sont surtout composées de silicates ; enfin les météorites métallo-pierreuses sont un mélange des deux. Les minerais de ces

été sortie en dehors. Une raison possible en est la danse orbitale entamée par Jupiter et Saturne 500 millions d’années après la formation du système solaire. Durant une certaine période, Jupiter a parcouru son orbite deux fois plus vite que Saturne la sienne, des phénomènes de marée engendrant des vibrations de résonance qui ont retenti dans tout le système solaire : Neptune a été repoussée et les petits corps glacés éparpillés dans la ceinture de Kuiper.

rochers sombres contiennent des isotopes dont les quantités peuvent servir d’horloges cosmiques en calculant l’époque où ils se sont formés à partir du taux de leurs résidus radioactifs. En mettant toutes ces informations bout à bout, on peut établir la façon dont les constituants du système solaire se sont distribués et regroupés.

«

Il a fallu moins d’une heure pour construire les atomes, quelques centaines de millions d’années pour bâtir étoiles et planètes mais cinq milliards d’années pour faire l’Homme ! George Gamow

»

Bombardement tardif Pendant la période où les planètes extérieures ont été repoussées, de nombreux astéroïdes ont été précipités dans le système solaire interne. Les orbites des planètes telluriques étaient alors relativement en place après la fin des plus grosses collisions. Une période de « grand bombardement tardif » a suivi pendant laquelle de nombreux impacts de cratères se formèrent sur la Lune tandis que d’autres planètes furent balafrées. Ce n’est qu’après la fin de ce bombardement, il y a 3,7 milliards d’années, que les premiers signes de vie sont apparus sur Terre.

l’idée clé Billards cosmiques

191

192

50 clés pour comprendre l’astronomie

48 Lunes En dehors de Mercure et Vénus, toutes les planètes du système solaire ont une ou plusieurs lunes. La beauté de la nôtre a inspiré plus d’un poète mais imaginez l’intensité de la scène si nous voyions plus de cinquante globes dans nos cieux, comme c’est le cas sur Saturne ou Jupiter ! Les lunes peuvent s’installer de trois façons : in situ, à partir d’un disque de gaz et de débris entourant une planète ; par la capture d’un astéroïde qui passait non loin ; ou arraché à la planète à l’occasion d’un impact violent avec un autre corps. Il se peut que notre Lune ait été formée à travers une telle collision. Les planètes extérieures géantes sont si grandes qu’elles retiennent en orbite les débris : Jupiter, Uranus et Neptune ont toutes des anneaux ; mais ceux de Saturne sont de loin les plus grands et ont été sondés depuis le xviie siècle, quand Galilée les a observés attentivement à la lunette. Des milliers d’anneaux entourent Saturne, à environ 300 000 km de la planète, tous dans un mince plan de seulement 1 km d’épaisseur. Les anneaux sont faits de milliards de morceaux de glace, allant de la taille d’un morceau de sucre à celle d’une maison. Saturne possède plus de 50 lunes et chacune d’elle est unique. Titan, la plus grande, a été découverte en 1655 par l’astronome hollandais Christiaan Huygens. Elle possède une épaisse atmosphère orangée essentiellement composée d’azote. Japet paraît brillante d’un côté et sombre de l’autre, de la glace recouvrant la partie qui fait face à la matière des anneaux quand elle la traverse ; Mimas présente un énorme cratère sur une face, résultat d’une collision ancienne ; enfin Encelade est actif sous sa surface, éjectant des colonnes de vapeur d’eau depuis ses volcans de glace. Des dizaines de lunes plus petites ont été détectées, beaucoup ayant taillé des trous dans le système d’anneaux alors qu’elles se formaient par accrétion d’éclats de glace. Les planètes intérieures sont trop petites pour avoir permis la formation de lunes à partir de débris d’anneaux : elles les ont capturées. On pense que les lunes de

chronologie

1655

Découverte de Titan par Huygens

1969

Les premiers pas de l’Homme sur la Lune grâce au programme Apollo

Lunes

193

Mars – Déimos et Phobos – sont des astéroïdes capturés. Dans le cas de la Terre, la création de la Lune a été plus violente. On pense que, dans le système solaire primitif, alors que de nombreux objets suffisamment grands s’écrasaient sur des embryons planétaires en formation, un astéroïde s’est directement écrasé sur la Terre. La Lune serait le résultat de ce choc.

L’hypothèse de l’impact géant L’origine de la Lune est une préoccupation ancienne. Elle est revenue au premier plan dans les années 1970, à l’occasion du programme Apollo. Les astronautes rapportèrent des pierres et des informations géologiques ; ils installèrent des capteurs à la surface de la Lune pour déceler les signaux d’une activité sismique et des faisceaux laser pour déterminer avec précision sa disIci, des hommes tance à la Terre. Ils ont découvert que la de la planète Terre posèrent Lune s’éloigne de la Terre à la vitesse de le pied sur la Lune en 38 mm par an et qu’elle a un cœur parjuillet 1969 de notre ère. tiellement en fusion. La composition de la croûte lunaire est très similaire à celle Nous sommes venus en paix des complexes ignés rocheux de la Terre. au nom de l’Humanité.

«

Plaque laissée sur la Lune, 1969 Pendant longtemps, les scientifiques ont cru que la Lune s’était formée en même temps que la Terre à partir d’une gouttelette de magma en fusion. Mais la petite taille du cœur de la Lune – 20 % de son rayon, à comparer avec les 50 % de celui de la Terre – laissait penser qu’il fallait trouver une autre explication : si la Lune s’était formée en même temps que la Terre, son cœur aurait dû être beaucoup plus gros. En 1975, William Hartmann et Donald Davis développèrent une autre hypothèse : un autre corps aurait été impliqué dans la création de la Lune à travers un impact quasi catastrophique.

»

Un astre de la taille de Mars, Théia, serait entré en collision avec la Terre à peu près 50 millions d’années après la formation du système solaire, il y a environ 4,5 milliards d’années. L’impact aurait été si violent qu’il aurait quasiment fracassé la toute jeune Terre, la chaleur dégagée provoquant la fusion des couches supérieures des deux corps. Le lourd cœur en fer de Théia aurait rejoint celui de la Terre, le manteau et la croûte plus légère de la Terre étant projetés dans l’espace. C’est ce matériau qui s’assembla pour former la Lune.

1975

Développement de l’hypothèse de l’impact géant

1996

Le satellite Clementine à la recherche d’eau sur la Lune

2009

LCROSS et Chandrayaan confirment la présence d’eau sur la Lune

194

50 clés pour comprendre l’astronomie

Marées et rotation synchrone La Lune présente la même face à nos regards chaque nuit. Cela est dû au fait qu’elle tourne autour de la Terre dans le même temps que celui qu’il lui faut pour tourner sur son axe (environ 29 jours). Ce synchronisme est conséquence des marées. La gravité de la Lune déforme la surface fluide de la Terre, faisant dessiner aux océans un renflement dans la direction du

satellite de même que sur le côté qui lui est opposé. Ces renflements sont, lorsqu’ils se forment, responsables des marées, qui sont modifiées quand la Lune tourne autour de la Terre. Mais ils agissent aussi comme des régulateurs de la Lune : si la planète et la Lune tournent à des vitesses différentes, l’effet gravitationnel du renflement ramènera la Lune au bon rythme.

L’hypothèse de l’impact géant explique pourquoi la Lune est si grande par rapport à la Terre tout en ayant un cœur si petit. La densité moyenne de la Lune plus basse (3,3 g/cm3) comparée à celle de la Terre (5,5 g/cm3) vient de ce que la Lune a perdu, avec le fer, quelque chose de lourd. Les roches de la Lune ont exactement les mêmes taux des différents isotopes de l’oxygène (des versions radioactives plus lourdes de l’oxygène) que celles de la Terre, ce qui implique qu’elles se sont formées dans le même voisinage. Les roches martiennes ont été formées dans d’autres parties du système solaire et elles ont, au contraire, une composition très différente. Les simulations informatiques sur la mécanique de l’impact confirment que ce scénario est plausible. Il y a des preuves supplémentaires du fait que la surface de la Lune a été en fusion, formant un océan de magma. Les minerais légers ont flotté à la surface de la Lune comme on s’y serait attendu s’ils avaient cristallisé en phase liquide. La surface s’est lentement refroidie, sa solidification prenant 100 millions d’années : cela est attesté par les quantités des différents isotopes radioactifs dont la durée de désintégration permet de mesurer l’âge des minéraux. Il y a aussi quelques incohérences : par rapport à la Terre, la Lune a des taux différents d’éléments volatils ; elle manque de fer. Allant dans le même sens, il n’y a aucun indice concernant Théia elle-même, sous la forme d’isotopes inhabituels ou de pierres inconnues qui resteraient. En fin de compte, il n’y a rien de flagrant.

Différenciation Tandis que la Lune refroidissait, les minerais cristallisaient à partir de l’océan de magma et prenaient place en profondeur conformément à leur poids. L’astre s’est différencié et a formé une croûte légère, un manteau intermédiaire et un cœur lourd. La croûte ne fait que 50 km d’épaisseur ; elle est riche en minerais légers, particulièrement le plagioclase (un feldspath qu’on

«

Lunes

Et, depuis ma fenêtre, à la lueur de la Lune ou des étoiles amies, je peux voir, à l’entrée de la chapelle, la statue de Newton tenant son prisme, silencieux, reflet de marbre d’un esprit voyageant pour toujours dans les étranges mers de la pensée, seul. William Wordsworth

»

trouve dans le granit). Elle est composée à 45 % d’oxygène et 20 % de silicium, le reste étant fait de métaux, en particulier de fer, d’aluminium, de magnésium et de calcium. Le cœur est petit, confiné dans un rayon de 350 km ou moins. Il est probablement en partie en fusion, riche en fer et en d’autres métaux. Entre les deux, il y a le manteau, qui déclenche des tremblements de lune tandis qu’il est déformé par les forces de marée. Nous pensons qu’il et aujourd’hui solide mais, au cours de la vie de la Lune, il a été en fusion, engendrant un volcanisme jusqu’il y a un milliard d’années. La surface de la Lune porte les cicatrices de nombreux cratères d’impact qui ont dispersé pierres et poussières à sa surface, sur une couche appelée régolithe.

Eau La surface de la Lune est aride mais la chute occasionnelle de comètes ou

de corps glacés a pu y apporter de l’eau. L’étude de la Lune comme celle des transferts de matière dans le système solaire rendent important le fait de savoir s’il y a de l’eau sur la Lune ou pas. L’eau s’évaporerait très vite à la lumière directe du Soleil mais certaines parties de la Lune restent en permanence à l’ombre, en particulier sur les parois des cratères situés près des pôles. Les physiciens pensent que de l’eau gelée pourrait subsister dans ces endroits sombres.

De nombreux satellites ont scruté la surface de la Lune avec des résultats mitigés. Les satellites Clementine et Lunar Prospector ont repéré, à la fin des années 1990, de l’eau gelée aux pôles mais les observations radio depuis la Terre n’ont pas réussi à le confirmer. Des missions récentes – la LCROSS (Lunar Crater Observation and Sensing Satellite) de la NASA, qui a lancé un projectile à la surface tandis que les instruments de bord analysaient la lumière issue de la matière projetée par l’impact ; ou la mission indienne Chandrayaan – ont affirmé avoir trouvé de l’eau dans l’ombre des cratères. Ainsi, les astronautes du futur pourront trouver de quoi boire à la surface desséchée de la Lune !

l’idée clé Un petit pas

195

196

50 clés pour comprendre l’astronomie

49 Exobiologie Cela fait longtemps que nous pensons que la vie existe au-delà de notre planète – depuis les canaux de Mars aux annonces d’observation de créatures volantes sur la Lune. Mais plus nous explorons notre système solaire, plus notre voisinage paraît être stérile. Pour robuste qu’elle soit, la vie a, semble-t-il, besoin de conditions particulières pour éclore. L’exobiologie tente de répondre à la question de savoir comment et où la vie apparaît dans le cosmos. La vie est apparue sur Terre très tôt après la formation de la planète, il y a 4,5 milliards d’années. Les stromatolites fossiles – des tapis organiques en forme de dôme – montrent que des cyanobactéries existaient il y a 3,5 milliards d’années. La photosynthèse – le processus chimique utilisant la lumière solaire pour transformer des produits chimiques en énergie – était en bonne voie. Les roches sédimentaires les plus anciennes connues, identifiées au Groenland, datent d’il y a 3,85 milliards d’années. La vie s’est donc élancée d’une étroite fenêtre de tir. Les théories sur l’origine de la vie sont anciennes et aussi variées que les espèces. Les micro-organismes comme les bactéries ou les protozoaires ont été identifiés au xviie  siècle, quand le microscope a été inventé. La simplicité apparente des bactéries a fait croire aux spécialistes que ces gouttes sont sorties spontanément de la matière inanimée. On les voyait ensuite se répliquer, ce qui laissait entendre que la vie provenait d’une génération spontanée. Louis Pasteur échoua dans sa tentative de créer des bactéries à partir d’un bouillon nutritif stérile. La construction des premiers organismes vivants était un problème. En 1871, Charles Darwin écrivit au botaniste Joseph Hooker sur cette question de l’origine de la vie qu’elle aurait pu naître dans un « petit étang chaud contenant toutes sortes de sels d’ammoniaque et de phosphore, de la lumière, de la chaleur, de l’électricité, etc., en sorte qu’un composé protéinique soit chimiquement préparé à déclencher des changements plus complexes encore ».

chronologie

1861

Louis Pasteur échoue à créer la vie à partir d’un bouillon nutritif

1871

Charles Darwin évoque un « petit étang chaud »

Exobiologie

«

De dire que, jusqu’à présent, la science ne jette aucune lumière sur le problème bien plus élevé de l’essence ou de l’origine de la vie n’est pas une objection valable. Qui peut expliquer ce qu’est l’essence de l’attraction ou de la pesanteur ? Nul ne se refuse cependant aujourd’hui à admettre toutes les conséquences qui découlent d’un élément inconnu, l’attraction (…). Charles Darwin

»

Soupe primordiale L’explication de Darwin est proche de ce que pensent les scientifiques aujourd’hui, avec toutefois un important élément supplémentaire : manquant de plantes et de sources biologiques d’oxygène, l’atmosphère primitive de la Terre était dépourvue de ce gaz, contrairement à aujourd’hui. Elle contenait du méthane, de l’ammoniac, de l’eau ainsi que d’autres gaz favorisant certaines sortes de réactions chimiques plutôt que d’autres. En 1924, Alexandre Oparine pensait que, dans ces conditions, une « soupe primitive de molécules avait pu se créer ». Ces mêmes processus seraient bloqués dans notre atmosphère actuelle riche en oxygène. Les conditions qui prévalaient sur la Terre primitive étaient infernales, comme l’atteste le nom donné à cette période géologique, l’Hadéen. Apparus très tôt, 200 millions d’années après la formation de la Terre, les océans étaient initialement bouillants et acides. Le grand bombardement tardif était encore à venir : des astéroïdes ont dû s’écraser souvent à la surface de la planète. Celle-ci était inhospitalière : climat chaotique, éclairs et déluges. Pourtant, ces conditions se sont avérées favorables à la vie. Les organismes qui grouillent autour des évents hydrothermaux des mers profondes prouvent que l’eau bouillante et l’obscurité ne sont pas des barrières, pourvu qu’il y ait suffisamment d’éléments nutritifs. Cela dit, il a bien fallu que, d’une façon ou d’une autre, les premiers organismes se développent à partir de molécules complexes. Les conditions hostiles de la Terre primitive ont convenu à la création de molécules organiques. En 1953, les expériences de Stanley L. Miller et Harold C. Urey ont montré que les petites molécules indispensables à la vie, tels les acides aminés, peuvent être créées à partir de mélanges gazeux – méthane, ammoniac et hydrogène – en y faisant passer des éclairs électriques. Mais les scientifiques n’ont fait que peu de progrès dans les décennies qui ont suivi. L’étape de construction des

Années 1950

Fred Hoyle met en avant la théorie de la « panspermie »

1953

Expérience de MillerUrey

2005

La sonde Huygens se pose sur Titan

2020

Lancement de la mission Europa

197

198

50 clés pour comprendre l’astronomie

La sonde Huygens

La sonde spatiale Huygens a atterri à la surface de Titan le 14  janvier 2005, après un voyage de sept ans. Placée à l’intérieur d’une coquille protectrice de quelques mètres, elle transportait une série d’expériences destinées à mesurer vents, pression atmosphérique, température et composition de la surface à mesure

qu’elle descendait à travers l’atmosphère avant d’atterrir sur une plaine de glaces. Titan est un monde étrange dont l’atmosphère et la surface baignent dans le méthane liquide. Huygens est le premier engin spatial à avoir atterri sur un astre du système solaire extérieur.

premières cellules à partir de molécules est stimulante : des structures en forme de cosse qui pourraient être formées par des lipides sont une piste. Le processus de la division cellulaire et de la mise en marche d’une machinerie chimique – le métabolisme – sont toujours loin d’être compris. Personne n’a encore fabriqué une proto-cellule convaincante à partir de rien.

Panspermie Une autre possibilité est que les molécules complexes, voire des organismes biologiques simples, soient venus de l’espace. À peu près à la même époque que l’expérience de Miller et Urey, l’astronome Fred Hoyle avançait l’idée de « panspermie » : la Terre aurait été ensemencée par des impacts de météorites et de comètes. Cela peut paraître tiré par les cheveux mais il est avéré que l’espace est plein de molécules, dont certaines sont complexes. De l’acide amino-acétique a été détecté en 2009 dans de la matière provenant de la comète Wild 2 dont la sonde de la NASA Starburst a recueilli un échantillon qu’elle a rapporté sur Terre. Pour en savoir davantage sur les conditions ayant pu permettre les premières formes de vie et la façon dont les molécules se sont disséminées, les exobiologistes sont impatients d’explorer des endroits clés de notre système solaire. La première cible est Mars. Sa surface actuelle est sèche mais on pense qu’il en a été autrement dans le passé. Il y a toujours de l’eau glacée à ses pôles et les images transmises par Mars Exploration Rover ont apporté la preuve qu’il y a eu présence d’eau à l’état liquide en surface, peut-être sous forme de petits cours d’eau ou due aux fluctuations de nappes souterraines. On a trouvé du méthane dans l’atmosphère de la planète rouge, ce qui laisse supposer une origine géologique, voire biologique.

Tourisme exobiologique La plus grande lune de Saturne, Titan, est un autre endroit pouvant mener à la vie : elle possède des ressemblances avec la Terre primitive. Bien que se trouvant dans la zone glacée du système solaire extérieur, elle est baignée dans une épaisse atmosphère d’azote qui contient de

Exobiologie

«

Combien cette antiquité du globe terrestre s’agrandira encore aux yeux de l’Homme lorsqu’il se sera formé une juste idée de l’origine des corps vivants ainsi que des causes du développement et du perfectionnement graduels de l’organisation de ces corps. Jean-Baptiste Lamarck

»

nombreuses molécules organiques, en particulier du méthane. Le vaisseau spatial Cassini, qui effectue des recherches sur Saturne, a lancé une sonde sur Titan. La capsule, appelée Huygens, du nom du physicien hollandais du xviie siècle qui la découvrit, est descendue à travers l’atmosphère nuageuse de Titan et a atterri sur un sol de méthane gelé. Titan a des continents, des dunes de sable, des lacs, peut-être des rivières, faits de méthane et d’éthane solides et liquides plutôt que d’eau. Elle pourrait abriter des formes de vie primitives comme des bactéries se nourrissant de méthane. Une autre des lunes de Saturne, Encelade, est une destination exobiologiste en vogue. Alors que la sonde Cassini dépassait ce satellite couvert de glaces, elle repéra une éjection de vapeur d’eau provenant de crevasses situées près de son pôle sud. Un point chaud situé en dessous laisse s’échapper de la vapeur à travers des évents : la proximité de Saturne provoque des effets de marée qui déforment la lune et créent ces fractures. Il est possible qu’il y ait des formes de vie sous la surface, là où l’eau est liquide. Mais la destination la plus probable pour la prochaine mission orientée vers l’exobiologie est la lune de Jupiter Europe qui abrite un océan d’eau liquide sous sa surface gelée. Comme Encelade, sa surface est lisse, ce qui indique qu’elle a récemment été en fusion. Elle est striée de fines fractures qui laissent penser qu’elle gagne en outre de la chaleur sous les déformations dues aux marées. Cet océan pourrait abriter la vie, dans des conditions parallèles à celles des grands fonds marins ou des lacs sous-glaciaires enfouis dans l’Antarctique. Les exobiologistes espèrent lancer une mission vers Europe en 2020 pour forer sous sa glace et rechercher des signes de vie.

l’idée clé Suivez l’eau

199

200

50 clés pour comprendre l’astronomie

50 L e paradoxe de Fermi

La détection de la vie ailleurs dans l’Univers serait la plus grande découverte de tous les temps. Le professeur de physique Enrico Fermi se demanda pourquoi, étant donnés l’âge et la taille de l’Univers, des milliards d’étoiles et de planètes existent depuis des milliards d’années sans que nous ayons été contactés par quelque civilisation extraterrestre. C’est bien d’un paradoxe qu’il s’agit. En bavardant à table avec des collègues en 1950, Fermi demanda, paraît-il : « Où sont-ils ? » Notre propre galaxie contient des milliards d’étoiles et il y a des milliards de galaxies dans l’Univers – et donc des milliards de milliards d’étoiles. Si une partie seulement héberge des planètes, cela fait beaucoup de planètes. Si une partie seulement de ces planètes abritent la vie, il devrait y avoir des millions de civilisations. Pourquoi donc ne les avons-nous pas rencontrées ? Pourquoi ne nous ont-ils pas contactés ?

Équation de Drake En 1961, Franck Drake élabora une équation sur la

probabilité qu’existe, sur une autre planète de la Voie lactée, une civilisation extraterrestre que nous puissions contacter. C’est l’équation de Drake. Elle affirme qu’il y a une chance que nous puissions coexister avec une autre civilisation, la probabilité d’une telle situation étant toujours passablement inconnue. Carl Sagan a avancé une fois que des millions de civilisations pouvaient peupler la Voie lactée, mais il revit ce nombre à la baisse. D’autres ont avancé que ce nombre est exactement de 1, à savoir l’humanité. Plus d’un demi-siècle après que Fermi eut posé la question, nous n’avons toujours rien entendu. En dépit de nos systèmes de communication, personne n’a appelé. Plus nous explorons notre environnement, plus nous paraissons être seuls. Aucun signe concret d’une vie quelconque, pas même la plus simple bactérie, n’a été découvert sur la Lune, Mars les astéroïdes ou sur les planètes et

chronologie

1950

Fermi lance la question de l’absence de contacts extraterrestres

1961

Drake met au point son équation

Le paradoxe de Fermi les lunes du système solaire extérieur. Aucune interférence dans la lumière des étoiles qui pourrait indiquer la présence de gigantesques machines en orbite recueillant leur énergie. Et ce n’est pas faute d’avoir cherché. Étant donnés les enjeux, nous sommes extrêmement attentifs à la recherche d’intelligence extraterrestre.

La recherche de la vie Comment vous y prendriez-vous pour détecter des

signes de vie ? La première voie est de rechercher des microbes à l’intérieur de notre système solaire. Les scientifiques ont examiné attentivement des pierres rapportées de la Lune – ce ne sont que basaltes inanimés. On a suggéré que des météorites venant de Mars pourraient receler des vestiges de bactéries – il n’est toujours pas démontré que les bulles ovoïdes de ces rocs aient abrité une vie extraterrestre et n’ont pas été contaminées après la chute sur Terre, voire produites par des processus géologiques naturels. Des caméras embarquées sur les vaisseaux et les modules d’atterrissage ont scruté les surfaces de Mars, des astéroïdes et même, désormais, d’une lune du système solaire extérieur, Titan, un satellite de Saturne. Mais la surface de Mars est desséchée et celle de Titan baigne dans du méthane liquide, jusqu’ici dépourvu de vie. Une lune de Jupiter, Europe, pourrait héberger des mers d’eau à l’état liquide sous sa surface glacée. L’eau à l’état liquide n’est donc pas une denrée si rare dans le système solaire extérieur, relançant l’espoir d’y découvrir un jour la vie. Mais les microbes ne vont pas nous passer un coup de fil. Qu’en est-il d’animaux ou de plantes plus sophistiqués ? Maintenant que des planètes ont été détectées autour d’étoiles lointaines, les astronomes se préparent à analyser la lumière qui en provient pour traquer des signes chimiques de vie. Les indices spectraux de l’ozone ou de la chlorophylle pourraient être découverts, mais cela nécessitera des observations précises, de celles qui seront rendues possibles par les prochaines générations de missions spatiales comme le Terrestrial Planet Finder de la NASA. Ces missions pourraient découvrir une sœur à notre Terre. Mais, si

«

Des êtres intelligents venus d’ailleurs et visitant le système solaire sans aucun préjugé enregistreraient vraisemblablement ceci dans leur rapport : étoile X, classe spectrale G2, 4 planètes et des débris. Isaac Asimov, 1963

»

1996

Des météorites dans l’Antarctique font penser à une vie primitive sur Mars

201

202

50 clés pour comprendre l’astronomie c’était le cas, serait-elle peuplée d’humains, de poissons, de dinosaures ? Ou ne présenterait-elle que des continents et des mers arides ?

Contact La vie sur d’autres planètes, y compris semblables à la Terre, peut avoir évolué différemment d’ici. Rien ne nous dit que les extraterrestres seraient capables de communiquer avec nous. Depuis que radio et télévision ont commencé leurs programmes, elles ont envoyé leurs signaux loin de la Terre, à la vitesse de la lumière. Un fan de télé d’Alpha Centauri, à quatre années-lumière, pourrait regarder une chaîne terrestre d’il y a quatre ans, appréciant peut-être une reprise du film Contact. Des films en noir et blanc pourraient être diffusés sur Arcturus tandis que Charlie Chaplin pourrait être la vedette de diffusions sur Aldebaran. La Terre envoie une multitude de signaux pour peu que vous ayez une antenne pour les capter. D’autres civilisations avancées n’en feraient-elles pas de même ? Les radioastronomes scrutent les étoiles proches à la recherche de signaux artificiels. Le spectre radio est vaste aussi se concentrent-ils sur les fréquences proches des transitions naturelles clés comme celles de l’hydrogène qui devraient être les mêmes partout dans l’Univers. Ils recherchent des signaux réguliers ou structurés mais qui ne peuvent être produits par aucun type d’astres connu.

L’équation de Drake N = N* × fp × ne × fl × fi × fc ×fL où : N est le nombre de civilisations de la Voie lactée dont les émissions électromagnétiques sont détectables ; N* est le nombre d’étoiles de la galaxie ; fp est la fraction de ces étoiles possédant un système planétaire ; ne est le nombre de planètes par système solaire avec un environnement favorable à la vie : fl est la fraction de ces planètes vivables où il y a aujourd’hui une vie effective ; fi est la fraction de ces planètes abritant la vie où une vie intelligente a émergé ; fc est la fraction de civilisations développant une technologie capable d’émettre des signes de leur activité qui soient détectables ; fL est la fraction de la durée de vie d’une planète où de telles civilisations émettent des signaux détectables dans l’espace (pour la Terre, elle est jusqu’ici très petite).

«

Le paradoxe de Fermi

Notre Soleil n’est qu’une des 100 milliards d’étoiles de notre galaxie qui n’est qu’une parmi les milliards de galaxies qui peuplent l’Univers. Il serait vraiment très présomptueux de penser que nous sommes les seuls êtres pensants dans cette immensité. Werner von Braun

»

En 1967, Jocelyn Bell, une étudiante britannique de Cambridge, eut une frayeur en découvrant des signaux réguliers d’ondes radio en provenance d’une étoile. Certains ont commencé à y voir un code Morse extraterrestre alors qu’il s’agissait en fait d’un nouveau type d’étoiles à neutrons, aujourd’hui appelées pulsars. Scruter des milliers d’étoiles prend beaucoup de temps : un programme spécial a donc été lancé aux États-Unis, appelé SETI, pour Search for Extra-Terrestrial Intelligence. En dépit du dépouillement d’années de données collectées, aucun signal curieux n’a été repéré. D’autres radiotélescopes se joignent parfois aux recherches mais n’ont pas plus trouvé quoi que ce soit qui ne soit pas banal.

Partis sans laisser d’adresse Étant donné que nous pouvons penser à de

nombreuses façons de communiquer et de détecter des signes de vie, pourquoi donc ne se trouve-t-il aucune civilisation pour nous répondre ou pour émettre ses propres signaux ? Pourquoi le paradoxe de Fermi tient-il toujours ? Il y a de nombreuses possibilités. Peut-être la vie n’existe-t-elle dans un état développé rendant la communication possible que pour une durée très brève. Pourquoi en serait-il ainsi ? Peut-être la vie intelligente s’élimine-t-elle toujours très vite elle-même. Peut-être est-elle autodestructrice, incapable de survivre longtemps : les chances d’être capables de communiquer et d’avoir quelqu’un d’assez proche pour le faire en retour seraient alors très faibles. Il y a aussi les scénarios plus paranoïaques : les extraterrestres ne veulent peut-être tout simplement pas entrer en contact avec nous et c’est délibérément que nous sommes laissés isolés. Ou alors ils sont trop occupés et ne s’y sont pas encore intéressés !

l’idée clé Y a-t-il quelqu’un ?

203

204

Glossaire

Glossaire Accélération Variation de la vitesse d’un corps en un temps donné. Âge de l’Univers Environ 14 milliards d’années ; déterminé par le rythme d’expansion de l’Univers. Atome La plus petite brique élémentaire de matière qui puisse exister de façon autonome. Baryons Catégories de particules formées de trois quarks, comme les protons et les neutrons. Céphéide Étoile variable dont la période est en relation avec la luminosité. Champ Cadre dans lequel peut se transmettre une force à distance. Il peut être électrique, magnétique, gravitationnel. Constante de Hubble Rythme l’expansion de l’Univers. Constellation Motifs reconnaissables formés par les étoiles dans le ciel. Décalage vers le rouge Baisse de la fréquence d’un objet qui s’éloigne du fait de l’expansion de l’Univers.

Diffraction Étalement des ondes au passage d’un bord acéré ou d’une fente. Dualité ondecorpuscule Comportement de ce qui se manifeste tantôt comme onde et tantôt comme particule ; c’est tout particulièrement le cas de la lumière. Éléments légers Les quelques éléments formés pendant le Big Bang : hydrogène, hélium, lithium. Énergie noire Forme d’énergie du vide de l’espace qui tend vers une expansion de l’espace-temps. Énergie Quantité qui détermine le potentiel de transformation en étant échangée. Espace-temps Fusion de l’espace géométrique et du temps dans la Relativité. Étoile à neutrons Ce qui reste après l’effondrement d’une étoile éteinte et est maintenu par la pression quantique.

Étoile Boule de gaz dont le centre est le siège de réactions de fusion. Exoplanète Planète en orbite autour d’une étoile autre que le Soleil. Fission Éclatement de noyaux lourds en noyaux plus légers. Fond diffus cosmologique Faible lueur aux fréquences des micro-ondes arrivant de tout le ciel et provenant du Big Bang. Force Attraction ou poussée modifiant le mouvement d’un corps. Fréquence Nombre de crêtes d’une onde passant par un point donné par unité de temps. Fusion Réunion de noyaux légers pour en former de plus lourds. Galaxie Assemblage d’étoiles et de gaz enchâssé dans un halo de matière noire, comme notre Voie lactée. Galaxie active Une galaxie qui montre des processus de haute énergie en son centre déterminés par un trou noir supermassif.

Gaz Nuage d’atomes ou de molécules non liés. Gravité Interaction fondamentale par laquelle les objets s’attirent mutuellement. Inertie Voir Masse Inflation Gonflement très rapide de l’Univers durant les toutes premières fractions de seconde. Interférence Superposition d’ondes de différentes fréquences et qui peuvent se renforcer ou s’annuler. Ion Atome présentant une charge électrique du fait de la perte ou du gain d’électrons. Isotope Forme d’un élément différent des autres par sa masse atomique du fait de la présence d’un nombre différent de neutrons. Isotropie Propriété de distribution uniforme, régulièrement répartie. Lentille gravitationnelle Déviation des rayons lumineux quand ils passent à proximité d’un objet massif.

Glossaire Longueur d’onde Distance entre deux crêtes d’une onde.

Nucléosynthèse Formation des éléments par fusion nucléaire.

Masse Quantité correspondant au nombre d’atomes et équivalente à la quantité d’énergie contenue.

Onde électromagnétique Transmet de l’énergie à travers des champs électrique et magnétique.

Matière noire Matière invisible détectable uniquement par ses effets gravitationnels. Mécanique quantique Les lois du monde subatomique, la plupart défiant l’intuition mais respectant des règles mathématiques.

Orbite Chemin en anneau emprunté par un astre, souvent de forme elliptique. Photon Forme corpusculaire de la lumière ou « paquet » d’énergie.

Modèle standard Théorie reconnue des familles de particules fondamentales.

Planète Corps en orbite, soumis à l’action de son propre champ gravitationnel et trop petit pour amorcer les réactions de fusion.

Molécule Groupe d’atomes liés entre eux par des liaisons chimiques.

Poussières Dans le cosmos, suies et particules qui absorbent et rougissent la lumière.

Multivers Système de nombreux univers parallèles mais séparés.

Pression Force exercée par unité d’aire.

Nébuleuse Nuage flou de gaz ou d’étoiles ; ancien nom pour galaxie. Noyau Partie centrale, dure, de l’atome faite de protons et de neutrons.

Pression quantique Pression qu’exercent certains types de particules – électrons, protons, neutrons – ne pouvant pas se trouver au même endroit dans le même état quantique.

Pulsar Étoile à neutrons tournant dans un champ magnétique et émettant des pulsations radio. Quantité de mouvement Produit de la masse par la vitesse et qui représente la difficulté qu’il y a à arrêter quelque chose qui se déplace. Quark Particule fondamentale ; ils s’assemblent par trois pour former protons et neutrons. Raie d’émission Raie brillante à une fréquence spécifique dans un spectre lumineux. Raie d’absorption Saut dans un spectre lumineux à une fréquence spécifique. Rayonnement de corps noir Lueur émise par un objet sombre à une certaine température.

Spectre Séquence des ondes électromagnétiques, depuis les ondes radio jusqu’aux rayons gamma. Supernova Explosion d’une étoile agonisante quand les réactions de fusion ont cessé. Température En kelvins, mesure relativement au zéro absolu (– 273 °C). Trou noir Zone d’attraction gravitationnelle extrême d’où la lumière ne peut pas s’échapper. Trou noir supermassif Un trou noir dont la masse est l’équivalent de millions d’étoiles. Univers Tout l’espace et le temps. Par définition, il englobe tout. Vide Espace vide, par définition ne contenant rien.

Réflexion Inversion du sens de propagation d’une onde qui se heurte à une surface qu’elle ne peut pénétrer.

Vitesse À la fois la vitesse au sens courant et la direction du déplacement.

Réfraction Déviation d’une onde qui ralentit en traversant un milieu plus dense.

Zéro absolu Une température de – 273° C ; la température la plus basse qu’on puisse atteindre.

205

206

Index

Index Aberration stellaire 39 accélération 16, 18, 91, 92, 204 âge de l’univers 204 âge sombre 47, 145 Alpher, Ralph 57, 65 amas galactiques 120-3 amas globulaires 40 Anderson, Carl 68 année-lumière 42 antimatière 68-71 antiparticules 68-9, 103 antiproton 69 Aristarque de Samos 8 astéroïdes, ceinture d’190 astronomie en rayon gamma 174 astrophysique des particules 100-3 atomes 100, 204 Backer, Don 171 Balmer, série de 154 Barrow, John 113 baryons 75, 102, 204 Bell, Jocelyn 168, 203 Bethe, Hans 67, 158 Big Bang 47, 56-9, 64-7 Big Chill 59 Big Crunch 59, 73 bombardement tardif, grand 191 bosons (W, X ou Z) 71, 102, 104 Brahé, Tycho 13, 165 Broglie, Louis-Victor de 22 Carter, Brandon 113 céphéides 42, 49, 50, 53, 121, 177-9, 204 Chadwick, James 101 chaleur 159 champ 204 chandelle standard 53 Chandra, télescope 138 Chandrasekhar, limite de 166-7 Chandrasekhar, Subrahmanyan 98 chromosphère 181 chute libre 92 classification stellaire 152-5 COBE 61 comètes 189

communications extraterrestres 168 constante cosmologique 80-3 constante de Hubble 204 constellations 36 convexion 159, 204 Copernic, Nicolas 9, 10 cordes, théorie des 58, 108-11 corpusculaires, idées 21 cosmique chuchotement 130 corde 106 inflation 76-9 rayon 103 rayons X 137 réseaux 124 couronne 181, 183 Curtis, Heber 41, 42, 49 Darwin, Charles 196 Davis, Donald 193 décalage vers le bleu 35 décalages vers le rouge 35, 121, 204 densité de flux 128 deutérium 57, 66 diagramme de HertzprungRussell 156 Dicke, Robert 113 diffraction 27, 204 Digges, Thomas 38 dioxyde de titane 154 Dirac, Paul, 68, 70 disque d’accrétion 133 distances cosmiques, échelle des 52-5, 121 Doppler, Christian 34 Drake, équation de 2001, 202 Drayer, Johann 120 dualité onde-copuscule 204 Eau 190, 195 Eddington, Arthur 148 effet photoélectrique 23 Einstein, Albert 21, 23, 80, 89, 90, 148 Einstein, anneau d’ 94 électrons 100, 102 éléments 28, 57, 62, 158 éléments légers 62, 66, 204 éléments lourds 154

énergie 204 énergie négative 68 énergie noire 55, 59, 82, 168, 204 épicycle 9 espace multidimensionnel 58 espace-temps 58, 74, 76, 90, 93-4, 204 éther 88 étoile 204 étoiles à neutrons 166, 204 étoiles binaires 161, 163 étoiles figées 97-8 étoiles variables 176-7 étoiles Wolf-Rayet 155 étoiles, scintillement d’27 évolution galactique 144-7 évolution stellaire 156-9 exobiologie 196-9 exoplanètes 33,184-7, 204 Fermi, paradoxe de 200-3 fission 101, 204 flash d’hélium 154 fond diffus cosmologique 57-8, 60-3, 82, 204 forces 16, 109, 204 Fraunhofer, Joseph von 30 fréquence 204 fusion 101, 157, 181, 204 Galaxie 41, 55, 116-20, 125-6, 204 galaxie active 204 Galilée 10, 11, 85 Gamow, George 57, 65 gaz 204 gaz intra-amas 122 géantes gazeuses 190 Giacconi, Riccardo 137 gluons 102 gravité 16, 17-8, 73, 84, 85-6, 161, 204 groupe local 121 Guth, Alan 78 Hartmann, William 193 Hawking, rayonnement de 98 Hawking, Stefen 98 héliocentrisme 8-11 héliopause 182 hélium 64, 165

Herschel, William 4, 6, 37, 120 Hewish, Tony 168 Higgs, boson de 106-7 Higgs, champ de 105 Higgs, Peter 104 Holwarda, Johannes 176 Hooke, Robert 17, 38, 39 horizon des événements 96 Hoyle, Fred 56, 131, 169 Hubble champ profond de 119 constante de 51, 150 diapason de 117, 118 Edwin 43, 48, 57, 116 loi de 48-51, 54, 57, 82, 178 séquence galactique de 116-19 télescope spatial de 27, 50, 94, 119 Hulse, Russell 170 Huygens, Christiaan 38, 192 Huygens, sonde spatiale 198 hydrogène 64, 66 raie d’absorption 28, 153 Inertie 85, 204 inflation 78-9, 204 infrarouge 22 interférences 30, 204 interférométrie radio 129 ion 204 ionisation 31 isotopes 101, 204 isotropies 204 Jansky, Carl 128 Jeans, masse de 161 Jupiters chaudes 186 Kaluza, Theodor 110 Kant, Emmanuel 37 Kepler, Johannes 11, 12-5, 18, 45 Laplace, Pierre-Simon 96 Large Hadron Collider (LHC) 106 le Grand Mur 125 lentilles 24 lentille gravitationnelle 205 leptons 102 Lipperhey, Hans 24

Index lithium 64 loi en inverse carré 17-8 loi universelle 18 longueur d’ondes 21, 205 lumière 21-2, 91 ultraviolette 21, 145-6 visible 21-2 vitesse de la 88-9 lunes 137, 190, 192-5 Lyman, série de 154 Lyman-alpha, nuages 126 Mach, Ernst 86 MACHO 74, 75, 161 magnitudes 154 marées 194 masse 16, 69, 73, 85, 104, 205 matière noire 72-5, 119, 205 mécanique quantique 205 mésons 102 Messier, Charles 120, 122 météo spatiale 182 météorites 191 méthode scientifique 15, 109 méthodes statistiques 55 Michell, John 96 Michelson, Albert 88 microlentilles 151 micro-ondes 22, 57-8, 60-3, 82 Miller, Stanley L. 197 modèles hiérarchiques 147 modèle standard 205 modèles unifiés 135 molécule 205 monopôles 106 Morley, Edward 88 morts d’étoiles 164-7 mouvement 87, 90 mouvement rétrograde 12, 13 M-théorie 58, 110, 115 multivers 114, 205 muons 102 Naines blanches 166 naissances d’étoiles 160-3 nébuleuse, hypothèse de la 188 nébuleuses 40, 49, 205 nébuleuses planétaires 165 nébuleuses spirales 42 néon 29 neutrinos 70, 75, 101, 103, 183

neutrons 101 Newton, Isaac 16-19, 20-3, 37, 85-6 noyau 100, 205 noyau de galaxie active 134 nucléosynthèse 64-7, 205 Obscurité de la nuit 46 observatoire spatial Herschel 162 Olbers, Heinrich 45 onde électromagnétique 205 ondes gravitationnelles 93, 95, 170 ondes lumineuses 21 ondes radio 22 ondes sonores 32 optique adaptative 27 orbites 14, 205 Panspermie 198 paradoxe des jumeaux 90 parallaxe 36-9, 52 parsecs 38, 48 particule accélérateurs de 69, 102 astrophysique des 100-3 de Dieu 104-6 tau 102 Penzias, Arno 57, 60 photons 22, 23, 104, 205 Planck, Max 91 planètes 4-7, 33, 205 planètes naines 7 poids 85 points chauds 63 polygones 12 Popper, Karl 109 positrons 68 poussières 205 poussières cosmiques 53 poussières d’étoiles 158 pression 205 pression quantique 205 prismes 20 problème de l’horizon 77 protoétoiles 160-2 protons 71, 100 Ptolémée 8 pulsars 168-71, 205 pulsars milliseconde 171 Quanta 23, 62 quantité de mouvement 205 quarks 101-2, 205 quasars 99, 126, 132-5, 149, 177

queue de rayonnement optique 173 quintessence 82 Radioastronomie 128-31 radiogalaxies 130-1 radiotélescopes 129 raie d’absorption 28-9, 31, 205 raie d’émission 29, 133, 205 raies spectrales 31 rayonnement 159 rayonnement de corps noir 205 Reber, Grote 129 Redshift Survey 124 réflexion 205 réfraction 25, 205 réionisation 145 relativité 19, 170 repères d’inertie 91 réseaux 29, 30 rides 62 Röntgen, William 139 rotation synchrone 194 Rutherford, Ernest 100 Ryle, Martin 130, 131 Schmidt, Maarten 132 Schwarzschild, Karl 96 scintillement d’étoiles 27 seconde d’arc 37 SETI 203 Shapley, Harlow 41, 49 Slipher, Vesto 35 Sloan Digital Sky Survey 125, 146 solaire, cycle 182 solaire, spectre 29 solaires, taches 182 Soleil 28-9, 41, 180-3 soupe primordiale 197 spectre 205 de corps noir 61, 62, 152 électromagnétique 21, 128 spectroscopie 29 Square Kilometre Array (SKA) 146, 171 supernovae 54, 81-2, 1667, 205 sursauts gamma 172-5 Swedenborg, Emanuel 188 symétries brisées 107 système solaire, formation du 188-91 Taches solaires 182

tau, particules 102 Taylor, Joe 170 télescopes 26-7 température 58, 60, 61, 63, 65, 133, 152, 156, 205 temps, dilatation du 91 textures 106 théorie des cordes 58, 108-11 théorie quantique 62, 95 Tipler, Franck 113 Titan 192, 198-9 Tombaugh, Clyde 5 tritium 64 trous de ver 99 trou noir 205 supermassif 205 Unification 109-10 unités astronomiques (UA) 43 univers 205 accélération 81-2 bulles 114 expansion 46, 50, 51, 57, 78-9 géométrie de l’ 78 lisse 78 ouvert 73 parallèles 114 platitude de l’ 76-7 poussée de croissance de l’ 78-9 similitudes dans l’ 77 stationnaire 56, 80, 131 température de l’ 58, 60, 61, 63, 65 univers-îles 43 Urey, Harold C. 197 Vides 124, 205 vitesse 90, 205 vitesse de libération 96 Voie lactée 36, 40-3, 49, 121 vol parabolique 92 Weakly Interactive Massive Particles (WIMPS) 74 Wheeler, John 97 Wilkinson Microwave Anisotropy Probe (WMAP) 61, 78 Wilson, Robert 58, 60 Wolf-Rayet, étoiles 155 Zéro absolu 160, 205 zone habitable 187 Zwicky, Fritz 72, 148

207

L’édition originale de cet ouvrage a été publiée en 2010 au Royaume-Uni par Quercus Publishing Plc sous le titre 50 Universe Ideas You Really Need to Know. © Joanne Baker 2010 Originally entitled 50 Universe Ideas You Really Need to Know. First published in the UK by Quercus Publishing Plc. Relecture scientifique de la traduction : Jacques Paul

© Dunod, pour la traduction française 2011, 2016 11, rue Paul Bert, 92240 Malakoff, www.dunod.com ISBN 978-2-10-075694-0 Une précédente version a été publiée en 2011 sous le titre « Juste assez d’astronomie pour briller en société »

Crédit des illustrations : p. 6 Farry 20092009/domaine public/http://en.wikipedia.org/wiki/File:Planets2008.jpg ; p. 9 Sara Nunan ; p. 13 Patrick Nugent ; p. 18 Patrick Nugent ; p. 21 Sara Nunan ; p. 25 Sara Nunan ; p. 26 Sara Nunan; p. 29 Sara Nunan ; p. 35 Sara Nunan ; p. 38 Sara Nunan ; p. 41 John Lanoue/domaine public/http:// en.wikipedia.org/wiki/File:M31_Lanoue.png ; p. 45 Patrick Nugent ; p. 49 Patrick Nugent ; p. 54 Sara Nunan ; p. 61 NASA 2008 ; p. 66 Patrick Nugent ; p. 69 Patrick Nugent ; p. 73 Patrick Nugent ; p. 75 Sara Nunan ; p. 77 Patrick Nugent ; p. 79 illustration Sara Nunan ; p. 81 Patrick Nugent ; p. 82 Sara Nunan ; p. 85 Sara Nunan ; p. 89 Patrick Nugent ; p. 93 Patrick Nugent ; p. 94 Patrick Nugent ; p. 97 Patrick Nugent ; p. 101 Patrick Nugent ; p. 105 The CMS home page http://cmsinfo.cern.ch/outreach/CMSmedia/CMSphotos.html ; p. 110 Patrick Nugent ; p. 110 Sara Nunan ; p. 114 Patrick Nugent ; p. 114 Sara Nunan ; p. 117 Sara Nunan ; p. 121 Sara Nunan ; p. 123 http://www.nasa.gov/ multimedia/imagegallery/image_feature_1004.html ; p. 129 Sara Nunan ; p. 133 Sara Nunan ; p. 137 NASA/ROSAT/J. Schmitt et al ; p. 141 Sara Nunan ; p. 149 Nasa http://hubblesite.org/newscenter/archive/releases/2003/01/image/a ; p. 150 Sara Nunan ; p. 154 Patrick Nugent ; p. 158 Sara Nunan ; p. 163 Sara Nunan ; p. 166 Patrick Nugent ; p. 170 Sara Nunan ; p. 173 NASA 2008 http://cossc.gsfc.nasa.gov/docs/cgro/cgro/batse_src.html ; p. 178 Sara Nunan ; p. 182 Sara Nunan ; p. 186 Sara Nunan ; p. 190 Sara Nunan ; p. 193 NASA/JPL−Caltech http://photojournal.jpl.nasa. gov/jpeg/PIA00001.jpg





.