Dunod - La Télévision Numérique [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

9782100520442-prelim.fm Page III Jeudi, 24. juin 2010 6:25 18

Hervé Benoit

La télévision numérique Satellite, câble, TNT, ADSL, TV mobile

5e édition

9782100520442-prelim.fm Page IV Jeudi, 24. juin 2010 6:25 18

Toutes les marques citées dans cet ouvrage sont des marques déposées par leurs propriétaires respectifs.

Couverture : Rachid Maraï Photo de couverture : SES ASTRA Illustrations intérieures : Alain et Ursula Bouteveille et Raphaëlle Danet

© Dunod, Paris, 1996, 1998, 2002, 2006, 2010 ISBN 978-2-10-055576-5

9782100520442-Livre.fm Page V Jeudi, 24. juin 2010 11:35 11

Table des matières AVANT-PROPOS

XI

INTRODUCTION

1

CHAPITRE 1 – LA TÉLÉVISION EN COULEURS : RAPPEL DES STANDARDS ANALOGIQUES

1.1 1.2

Les bases : le noir et blanc La couleur compatible

5 5 9

CHAPITRE 2 – LA NUMÉRISATION DES SIGNAUX VIDÉO

© Dunod. La photocopie non autorisée est un délit.

2.1 2.2

2.3

2.4

Numériser la vidéo, pour quoi faire ? Formats de numérisation (4.2.2, 4.2.0, SIF, CIF, 720p, 1080i, 1080p) 2.2.1 Le format 4:2:2 2.2.2 Les formats 4:2:0, SIF, CIF et quart de CIF 2.2.3 Les formats à haute définition 720p, 1080i, 1080p Problèmes de transport 2.3.1 Le codage de source 2.3.2 Le codage de canal Séquence des opérations à l’émission

17 17 18 20 21 23 24 25 25 25

CHAPITRE 3 – LA COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

3.1

Quelques principes généraux de compression de données 3.1.1 Codage RLC (Run Length Coding) 3.1.2 Codage à longueur variable ou entropique (VLC, Variable Length Coding)

27 28 28 28

V

9782100520442-Livre.fm Page VI Jeudi, 24. juin 2010 11:35 11

LA TÉLÉVISION NUMÉRIQUE

3.2 3.3 3.4

3.5

Cas particulier des images : la transformée en cosinus discrète (DCT) Application à la compression d’images fixes (JPEG) La compression d’images animées (MPEG) 3.4.1 Le codage vidéo MPEG-1 (applications multimédia) 3.4.2 Le codage vidéo MPEG-2 (applications broadcast) 3.4.3 La norme de compression MPEG-4.10 ou H264/AVC La compression des signaux audio 3.5.1 Principes de la compression audio MPEG 3.5.2 Les couches du codage audio MPEG-1 3.5.3 Format général de la trame MPEG audio 3.5.4 Autres codages audio : Dolby Digital (AC3, DTS, e-AC3)

CHAPITRE 4 – MULTIPLEXAGE DES SIGNAUX 4.1 4.2

VI

Organisation du multiplex MPEG-1 (couche système) Organisation du multiplex MPEG-2 (trains programme et transport) 4.2.1 Constitution du paquet transport MPEG-2 4.2.2 Organisation du multiplex transport ; les tables MPEG-2

30 34 37 38 46 53 56 56 61 63 65

69 69 73 76 79

CHAPITRE 5 – EMBROUILLAGE ET ACCÈS CONDITIONNEL

5.1 5.2 5.3

Principes de l’embrouillage de la norme DVB Mécanismes d’accès conditionnel Principaux systèmes d’accès conditionnel

CHAPITRE 6 – CODAGE DE CANAL 6.1 6.2 6.3 6.4 6.5

Dispersion d’énergie Codage de Reed-Solomon (codage externe) Dispersion temporelle des erreurs (entrelacement ou Forney convolutional interleaving) Codage convolutif (codage interne) Nouveaux algorithmes de codage de canal (BCH, LDPC)

87 88 90 93

95 96 98 98 100 102

CHAPITRE 7 – MODULATION DES SIGNAUX NUMÉRIQUES

7.1 7.2

Généralités sur la modulation par signaux numériques Les modulations en quadrature

103 104 107

9782100520442-Livre.fm Page VII Jeudi, 24. juin 2010 11:35 11

TABLE DES MATIÈRES

7.3 7.4 7.5

Modulations pour la télévision par câble (DVB-C) et satellite (DVB-S) 109 Télévision numérique terrestre (DVB-T) : la modulation OFDM 115 Les normes de transmission DVB de seconde génération (DVB-S2, DVB-T2, DVB-C2) 124 7.5.1 Adaptation de mode et de flux d’entrée et correction d’erreur de seconde génération 125 7.5.2 La norme de transmission par satellite DVB-S2 (ETSI EN 302 307) 128 7.5.3 La norme de transmission terrestre DVB-T2 (ETSI EN 302 755) 131 7.5.4 La norme de transmission par câble DVB-C2 (ETSI EN 302 769) 132

CHAPITRE 8 – RÉCEPTION DE LA TÉLÉVISION NUMÉRIQUE 8.1 8.2 8.3

8.4 8.5

135

Vue d’ensemble du processus d’émission/réception 135 Le récepteur/décodeur satellite 137 Le récepteur numérique « câble » 140 8.3.1 Le récepteur de base (sans voie de retour) 140 8.3.2 Le récepteur numérique câble interactif (avec voie de retour) 141 Le récepteur numérique terrestre (DVB-T) 143 Évolution de la set-top box 146 8.5.1 Intégration des fonctions 146 8.5.2 Évolutions fonctionnelles du décodeur 147

© Dunod. La photocopie non autorisée est un délit.

CHAPITRE 9 – ASPECTS LOGICIELS 9.1

9.2

10.1 10.2

ET INTEROPÉRABILITÉ

151

Les principaux moteurs d’interactivité propriétaires utilisés en Europe 9.1.1 MediaHighway 9.1.2 OpenTV Les middlewares européens ouverts 9.2.1 MHEG-5 9.2.2 DVB-MHP

155 155 156 157 157 159

CHAPITRE 10 – ÉVOLUTION : ÉTAT DE L’ART ET PERSPECTIVES

163

La télévision numérique terrestre La télévision à haute définition

163 167

VII

9782100520442-Livre.fm Page VIII Jeudi, 24. juin 2010 11:35 11

LA TÉLÉVISION NUMÉRIQUE

10.3

La télévision en relief (3DTV)

168

10.4

Le téléviseur numérique intégré (iDTV)

172

10.5

La télévision numérique sur IP (par exemple via ADSL et fibre optique) 10.5.1 Distribution de la télévision sur IP via un réseau domestique 10.5.2 Principaux éléments du protocole DVB-IP 10.5.3 Transport de la télévision numérique sur IP 10.5.4 Formats de codage de la télévision numérique sur IP 10.5.5 Interface utilisateur

174 176 177 178 180 180

10.6

La télévision mobile personnelle (TMP) 10.6.1 Le standard terrestre DVB-H 10.6.2 Le standard hybride terrestre-satellite DVB-SH 10.6.3 Autres standards de télévision mobile personnelle

181 181 183 187

10.7

Conclusion

190

ANNEXE 1 – DÉTECTION ET CORRECTION DES ERREURS DANS LES TRANSMISSIONS NUMÉRIQUES

VIII

191

A1.1

Un code détecteur d’erreurs : la parité

191

A1.2

Codes correcteurs d’erreur en blocs

192

A1.3

Le codage convolutif (ou convolutionnel)

196

ANNEXE 2 – CALCUL DE L’EFFICACITÉ SPECTRALE AVEC LES PARAMÈTRES DVB (CÂBLE ET SATELLITE)

199

ANNEXE 3 – LE BUS DISEQCTM (DIGITAL SATELLITE EQUIPMENT CONTROL) ET LE SYSTÈME USALS

203

A3.1

Les différents niveaux DiSEqC

203

A3.2

Fonctionnement de DiSEqC A3.2.1 Le ToneBurst A3.2.2 Format des messages DiSEqC 1.0 et supérieurs

204 205 206

A3.3

Les différents champs du message DiSEqC A3.3.1 Octet de framing A3.3.2 Octet d’adresse A3.3.3 Octet de commande A3.3.4 Octet(s) de données

207 207 207 209 210

A3.4

Les niveaux supérieurs de DiSEqC

211

A3.5

Le système d’aide au pointage d’antenne motorisée USALS

211

9782100520442-Livre.fm Page IX Jeudi, 24. juin 2010 11:35 11

TABLE DES MATIÈRES

ANNEXE 4 – LE BUS D’INTERCONNEXION AUDIOVISUEL SÉRIE À HAUTE VITESSE IEEE1394

213

ANNEXE 5 – LIAISONS DVI ET HDMI POUR LA CONNEXION NUMÉRIQUE DE DISPOSITIFS D’AFFICHAGE VIDÉO À HAUTE DÉFINITION 217 ANNEXE 6 – AUTRES SYSTÈMES DE TÉLÉVISION NUMÉRIQUE

A6.1 A6.2 A6.3 A6.4

Le Le Le Le

système système système système

DSS (satellite, USA) ATSC (terrestre, USA) ISDB-T (terrestre, Japon) DTMB (terrestre, Chine)

ANNEXE 7 – L’INTERFACE COMMUNE DVB-CI ET L’EXTENSION CI+

© Dunod. La photocopie non autorisée est un délit.

A7.1 A7.2

L’interface commune DVB-CI L’interface commune sécurisée CI+

223 223 225 227 229

231 231 234

GLOSSAIRE

237

BIBLIOGRAPHIE

255

INDEX

259

IX

9782100520442-Livre.fm Page X Jeudi, 24. juin 2010 11:35 11

9782100520442-Livre.fm Page XI Jeudi, 24. juin 2010 11:35 11

Avant-propos

Cet ouvrage n’a pas pour ambition de faire du lecteur un expert en télévision numérique, ce que l’auteur lui-même ne prétend pas être, mais de décrire et expliquer de manière aussi simple et complète que possible les différents aspects du problème très complexe qu’a posé la définition de systèmes de transmission de programmes de télévision numérique à usage grand public, et les solutions retenues pour le standard européen DVB (Digital Video Broadcasting), basé sur la norme de compression MPEG-2.

© Dunod. La photocopie non autorisée est un délit.

Il s’adresse à des lecteurs ayant des notions de télévision « classique », qu’un rappel des principes de base des standards actuels permettra néanmoins de rafraîchir au besoin. Le but principal de cet ouvrage est donc de permettre au lecteur de comprendre les principes et d’avoir une vue relativement globale de cette nouvelle technologie, et, s’il le désire, d’approfondir ses connaissances sur tel ou tel aspect par la lecture d’ouvrages spécialisés plus détaillés (ouvrages au demeurant souvent en anglais). Afin d’en faciliter l’accès, on trouvera en fin d’ouvrage une petite bibliographie ainsi qu’un glossaire de la terminologie (française et anglo-saxonne) et des abréviations utilisées. Pour une assimilation plus facile, la progression retenue dans cet ouvrage pour aborder les principaux éléments des standards de télévision numérique « grand public » suit tout d’abord l’ordre chronologique des principales étapes (de la numérisation brute utilisée dans les studios de télévision aux normes de compression MPEG-2, en passant par JPEG et MPEG-1) et ensuite celui des opérations de traitement de signal effectuées à l’émission (du codage MPEG vidéo et audio à la modulation en passant par le multiplexage et le codage de canal).

XI

9782100520442-Livre.fm Page XII Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Cette progression se termine par la description fonctionnelle d’un récepteur/ décodeur de télévision numérique (que les concepts acquis dans les chapitres précédents permettront, nous l’espérons, de démystifier) ainsi que sur quelques perspectives d’évolution. Cette cinquième édition comporte notamment une mise à jour importante sur les standards DVB de deuxième génération pour la transmission de la télévision numérique par satellite, terrestre ou câble (DVB-S2, DVB-T2, DVB-C2), pour la télévision mobile personnelle (DVB-H, DVB-SH), ainsi qu’une introduction à la télévision en relief (3DTV).

XII

9782100520442-Livre.fm Page 1 Jeudi, 24. juin 2010 11:35 11

Introduction

À la fin des années mille neuf cent quatre-vingt, la possibilité de diffuser des images de télévision sous forme numérique à destination du grand public paraissait encore très lointaine, et son introduction semblait ne pas pouvoir avoir lieu avant la fin du XXe siècle. Ceci était principalement dû au débit très important alors nécessaire à la transmission d’une image vidéo numérisée (de 108 à 270 Mb/s pour un système TV à 525 ou 625 lignes !).

© Dunod. La photocopie non autorisée est un délit.

D’autre part, à cette époque, il semblait plus important et plus urgent d’améliorer la qualité de l’image télévisée, et les trois principaux acteurs mondiaux (d’abord Japon puis Europe, enfin États-Unis) dépensèrent des sommes importantes pour la mise au point de systèmes de télévision à définition améliorée (IDTV, Improved Definition TeleVision) et à haute définition (HDTV, High Definition TeleVision) de 1 050 à 1 250 lignes. Simplement numérisées, les images HDTV auraient nécessité un débit environ quatre fois plus important qu’une image de qualité conventionnelle, soit de l’ordre du gigabit par seconde ! Les systèmes HD proposés alors furent donc analogiques (MUSE au Japon, HDMAC en Europe, ainsi que les premières propositions américaines), avec une « assistance » numérique que l’on peut considérer comme le prélude à la compression. À partir de la fin des années quatre-vingt, le développement très rapide d’algorithmes de compression vidéo efficaces (norme JPEG, pour images fixes puis MPEG, pour images animées), réduisant de façon très importante le débit nécessaire à la transmission des images, a changé radicalement cet état de fait en ramenant celuici à des valeurs beaucoup plus raisonnables (de 1,5 à 30 Mb/s selon la résolution pour les images animées), alors que les progrès spectaculaires de l’intégration

1

9782100520442-Livre.fm Page 2 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

permettaient simultanément d’envisager la réalisation pratique de circuits de décompression et des mémoires associées à un prix abordable. On s’est d’autre part rendu compte que le prix d’un récepteur haute définition ne pourrait pas atteindre rapidement un niveau compatible avec une diffusion vraiment « grand public », non pas tellement à cause du coût de l’électronique, mais principalement en raison de celui, très élevé, du dispositif de visualisation nécessaire (qu’il soit basé sur un tube 16/9 de grande dimension, un projecteur LCD ou tout autre dispositif connu). Ce même « grand public » semblait d’autre part beaucoup plus sensible à la qualité des programmes (et également à leur quantité…) qu’à celle de l’image, et la crise économique avait de plus tendance à tirer les achats de produits « bruns » vers le bas de gamme… Sous l’impulsion des États-Unis, qui retrouvaient là l’occasion de reprendre l’initiative en raison de leur prédominance dans le domaine du traitement de l’information numérique, les études se sont donc réorientées vers la mise au point de systèmes permettant la diffusion numérique d’images de qualité comparable ou légèrement supérieure à celle des systèmes actuels, mais avec bien d’autres possibilités nouvelles liées à la numérisation complète du signal. 2

Les premières émissions numériques à destination du grand public ont démarré aux États-Unis au milieu de l’année 1994 avec le projet DirecTV, et dont le succès a été immédiat (plus d’un million d’abonnés un an après son lancement). L’Europe ne s’est pas pour autant endormie, et à partir de fin 1991 s’est décidée à abandonner les études sur la HDTV analogique (HD-MAC) et a créé l’European Launching Group (ELG) pour l’étude et la normalisation de systèmes numériques de diffusion TV qui, en 1993, donneront naissance au projet DVB (Digital Video Broadcasting), basé sur la norme de compression MPEG-2. Le système proposé doit également permettre une évolution vers la haute définition, pour des applications principalement professionnelles dans un premier temps (transmission vers les salles de spectacle, applications médicales, etc.) et s’adapter à tout type de support de transmission (satellite, câble, terrestre, réseau local…). En Europe, c’est Canal+ qui a lancé les premières émissions régulières sur Astra 1 en 1996 suivie de près par TPS, AB-Sat sur Eutelsat (Hot Bird) et de nombreux autres opérateurs européens. C’est le bouquet numérique britannique BSkyB, qui n’a pourtant démarré ses émissions numériques sur Astra 2 que fin 1998, qui compte le plus grand nombre d’abonnés en Europe (au Royaume-Uni et depuis 2002 en Italie par l’acquisition et le développement du bouquet de Canal+ rebaptisé Sky Italia).

9782100520442-Livre.fm Page 3 Jeudi, 24. juin 2010 11:35 11

INTRODUCTION

Dans les dernières années du XXe siècle, d’autres formes de télévision numérique ont vu le jour : télévision numérique par câble, puis par transmission hertzienne terrestre (TNT), via la ligne téléphonique (IPTV sur ADSL) et plus récemment par fibre optique. C’est la conjonction de ces développements qui permet un arrêt rapide de la télévision analogique, déjà effectif dans certains pays (Allemagne, Suisse, États-Unis…) et qui le sera pratiquement partout en Europe dès 2012. D’autre part, la chute rapide du prix des téléviseurs à écran plat de grandes dimensions et de résolution compatible avec la haute définition (jusqu’à 1920 × 1 080) a rendu la disparition des écrans à tube cathodique (CRT) pratiquement effective en 2010. C’est ce développement coïncidant avec l’apparition de normes de compression (MPEG-4) et de transmission (DVB-S2, DVB-T2, DVB-C2) encore plus efficaces qui permet un réel développement à grande échelle de la télévision haute définition en Europe. La sophistication toujours croissante des téléphones mobiles, désormais munis d’écrans couleurs, souvent tactiles, de taille et de résolution relativement élevées, et le développement de normes de transmission adaptées à la mobilité (DVB-H, DVB-SH, T-DMB…) permettent le développement d’une télévision personnelle transportable virtuellement partout.

© Dunod. La photocopie non autorisée est un délit.

Enfin, le début de la décennie 2010 semble vouloir marquer le vrai départ de la télévision en relief, rendu possible par les progrès impressionnants des écrans plats, des normes de compression et de transmission, ainsi que par l’augmentation des capacités de la liaison HDMI.

3

9782100520442-Livre.fm Page 4 Jeudi, 24. juin 2010 11:35 11

9782100520442-Livre.fm Page 5 Jeudi, 24. juin 2010 11:35 11

Chapitre 1 La télévision en couleurs : rappel des standards analogiques

5

Tout d’abord, un peu (très peu) d’histoire…

1.1

Les bases : le noir et blanc

© Dunod. La photocopie non autorisée est un délit.

Il faut se rappeler que les normes actuellement en vigueur (NTSC, PAL, SECAM, D2MAC, PAL+) dérivent toutes, directement ou indirectement, des standards monochromes définis dans les années quarante et cinquante, qui en ont établi la « charpente ». Les premiers essais de télévision électromécanique utilisant le disque de Nipkow pour l’analyse et la reproduction de l’image remontent à la fin des années vingt, avec une définition initiale de… 30 lignes et 12,5 images par seconde ! Cette faible définition permettait la transmission des images sur un émetteur radio AM ordinaire (bande passante inférieure à 10 kHz)… La définition s’est rapidement accrue à 60, 90, 120 puis 180 lignes (Allemagne, France) et 240 lignes (Angleterre, USA) vers 1935. Ces définitions, limites pour le disque de Nipkow d’analyse, sont celles avec laquelle les premières émissions régulières ont eu lieu, le tube cathodique ayant fait son apparition pour la visualisation.

9782100520442-Livre.fm Page 6 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 1.1 – Représentation simplifiée du balayage progressif

Ces premières émissions utilisaient un balayage progressif (toutes les lignes de l’image sont balayées dans l’ordre, figure 1.1). 6

Pour des raisons pratiques (rayonnements dus aux fuites magnétiques des transformateurs d’alimentation, filtrages imparfaits), il est apparu indispensable d’utiliser une fréquence d’image liée à celle du secteur alternatif (60 Hz aux USA, 50 Hz en Europe) pour minimiser l’effet visuel de ces imperfections : la fréquence d’analyse fut donc de 25 images/s en Europe et 30 images/s aux USA. Outre leur définition spatiale très insuffisante, ces premières images souffraient d’un papillotement fort gênant (également appelé flicker de trame). Peu avant la deuxième guerre mondiale, la prise de vue était devenue électronique grâce à l’iconoscope, et les définitions utilisées atteignaient 405 lignes (Angleterre), 441 lignes (USA, Allemagne) ou 455 lignes (France) grâce au balayage entrelacé. Cette « astuce » géniale inventée en 1927 (transmission d’une première trame composée des lignes impaires de l’image, puis d’une seconde composée des lignes paires, figure 1.2) permettait en effet de doubler la fréquence de rafraîchissement de l’écran (50 ou 60 Hz au lieu de 25 ou 30 Hz) sans augmentation de bande passante pour un nombre de lignes total donné. Le maintien du lien entre la fréquence du secteur et la fréquence trame a cependant inévitablement conduit à différencier les standards entre les deux continents, même à nombre de lignes d’analyse égal (cas des systèmes à 441 lignes américain et allemand par exemple).

9782100520442-Livre.fm Page 7 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 1 – LA

TÉLÉVISION EN COULEURS

:

RAPPEL DES STANDARDS ANALOGIQUES

Figure 1.2 – Représentation simplifiée du balayage entrelacé (première trame en trait plein, seconde trame en tirets)

Tous ces systèmes avaient néanmoins déjà en commun les caractéristiques suivantes :

© Dunod. La photocopie non autorisée est un délit.

• un signal d’image composite unique (abrégé sous le sigle VBS, Video Baseband Signal : figure 1.3, combinant la vidéo proprement dite et les signaux de synchronisation) ; • un balayage entrelacé d’ordre 2, reconnu comme le meilleur compromis entre papillotement et bande passante nécessaire à la transmission du signal vidéo.

Figure 1.3 – Vue d’une ligne de signal monochrome

7

9782100520442-Livre.fm Page 8 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Peu après, compte tenu de l’accroissement de la dimension des tubes, de la résolution de l’œil et des conditions d’observation, la définition de ces systèmes est apparue encore insuffisante. Une analyse avec une définition verticale de 500 à 700 lignes réunissait la plupart des suffrages. Ce sont les caractéristiques principales suivantes qui ont été finalement retenues pour le standard monochrome américain (1941), devenu NTSC lors de sa « colorisation » (1952) : • 525 lignes, balayage entrelacé (2 trames de 262,5 lignes) ; • fréquence trame : Fv = 60 Hz (59,94 Hz depuis l’introduction de la couleur NTSC 1) ; • fréquence ligne : Fh = 15 750 Hz (60 × 262,5) ; 15 734 Hz depuis la couleur (59,94 × 262,5) ; • bande passante vidéo : 4,2 MHz ; • modulation vidéo négative, son FM (à + 4,5 MHz de la porteuse vision).

8

Après la guerre (1949), la majorité des pays d’Europe (à l’exception notable de la France et de la Grande-Bretagne…) adoptait le standard monochrome GERBER, plus connu sous l’appellation CCIR, avec une fréquence trame de 50 Hz, une fréquence ligne aussi proche que possible de celle du système américain et des modulations similaires, afin de pouvoir bénéficier au maximum de l’expérience américaine pour les concepts de base des récepteurs. Ceci impliquait donc un nombre de lignes supérieur (dans le rapport 60/50 environ), et par suite une bande passante vidéo plus large pour obtenir une résolution horizontale cohérente avec la résolution verticale, d’où les caractéristiques principales retenues : • • • • •

625 lignes, balayage entrelacé (2 trames de 312,5 lignes) ; fréquence trame : Fv = 50 Hz ; fréquence ligne : Fh = 15 625 Hz (50 × 312,5) ; bande passante vidéo : 5 MHz ; modulation vidéo négative, son FM (à + 5,5 MHz de la porteuse vision 2).

1. Ce léger changement de la fréquence ligne et trame a été décidé afin de minimiser l’effet visuel du battement entre la sous-porteuse couleur et la porteuse FM son au niveau du démodulateur des récepteurs, en utilisant celle-ci comme horloge de référence pour la fréquence ligne (15 734 = 4 500 000/286), d’où une structure de battement fixe moins gênante. 2. La France est le seul pays au monde à utiliser encore une modulation vidéo positive et un son AM (+ 6,5 MHz par rapport à la porteuse vision) !

9782100520442-Livre.fm Page 9 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 1 – LA

TÉLÉVISION EN COULEURS

:

RAPPEL DES STANDARDS ANALOGIQUES

C’est sur cette base qu’ont ensuite été définis les systèmes PAL, SECAM puis D2MAC et PAL+. Des systèmes différents ont été utilisés jusqu’au début des années quatre-vingt en Angleterre (405 lignes, lancé avant la guerre) et en France (819 lignes, système mis au point en 1949 par Henri de France, également inventeur du SECAM). L’avènement de la couleur a sonné le glas de ces systèmes en raison principalement de la quasi impossibilité d’échange d’images en couleur entre standards à normes de balayage différentes avec les moyens techniques de l’époque…

1.2

La couleur compatible Dès le début des années cinquante, les Américains avaient établi les spécifications d’un système de télévision en couleurs (NTSC, National Television Standard Committee) bâti sur l’a priori de départ de la compatibilité totale avec le système de TV noir et blanc alors en service et le parc de téléviseurs installés ; de la même manière, les téléviseurs couleur devaient pouvoir recevoir normalement les émissions monochromes, qui sont restées majoritaires aux USA jusqu’au milieu des années soixante. Les Européens ont suivi avec une bonne dizaine d’années de retard avec le SECAM et le PAL.

© Dunod. La photocopie non autorisée est un délit.

De longs travaux préalables sur la perception des couleurs, associés à beaucoup d’ingéniosité ont permis d’aboutir à ces standards, qui malgré leurs imperfections satisfont encore les téléspectateurs du monde entier après plus de 40 ans pour le plus ancien. Le triple signal vidéo « couleur » (rouge, vert, bleu) fourni par le dispositif de prise de vue devait être transformé en un signal qui d’une part soit visualisable sans défaut majeur sur un téléviseur monochrome, d’autre part « tienne » dans un canal de télévision existant, tout en assurant une image couleur de qualité satisfaisante… Quelle gageure ! L’idée de base fut donc de transformer par combinaison linéaire les 3 composantes RVB en 3 autres signaux équivalents Y, Cb, Cr (ou Y, U, V) : • Y = 0,587 V + 0,299 R + 0,114 B appelé « signal de luminance » ; • Cb = 0,564(B – Y) ou U = 0,493(B – Y), différence de couleur ou « chrominance » bleue ; • Cr = 0,713(R – Y) ou V = 0,877(R – Y), différence de couleur ou « chrominance » rouge.

9

9782100520442-Livre.fm Page 10 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

La combinaison choisie pour le signal de luminance représente bien la luminosité de l’image, ce qui permet à un téléviseur noir et blanc de la considérer comme un signal monochrome. Les signaux de chrominance, quant à eux, représentent la « coloration » de l’image monochrome véhiculée par Y, et permettent par combinaison linéaire avec Y de retrouver les signaux RVB dans le récepteur couleur. La résolution de l’œil étant moindre pour les transitions de couleurs que pour les transitions de luminosité, les signaux de chrominance pourront se satisfaire d’une bande passante réduite (entre le quart et la moitié de la bande passante luminance). Cet ensemble de signaux YUV ou YCbCr est le point commun à tous les systèmes de télévision couleur, y compris les systèmes numériques les plus récents : les choix initiaux des pionniers de la télévision couleur étaient sans aucun doute judicieux !

10

Pour pouvoir transporter ces 3 signaux dans un canal monochrome existant (6 MHz aux USA, 7 ou 8 MHz en Europe), on a eu l’idée d’ajouter au signal composite monochrome VBS (figure 1.3), formé de Y et de la synchro, une sous-porteuse modulée par les signaux de chrominance pour former un nouveau signal composite appelé CVBS (Colour Video Baseband Signal, figure 1.4).

Figure 1.4 – Ligne de signal couleur (PAL ou NTSC)

Afin de ne pas trop perturber les récepteurs noir et blanc du parc ni trop affecter la bande passante luminance tout en restant dans les limites de la bande passante vidéo existante (4,2 MHz en NTSC, 5 à 6 MHz en PAL ou SECAM), cette sousporteuse est située dans le haut du spectre vidéofréquence (figure 1.5).

9782100520442-Livre.fm Page 11 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 1 – LA

TÉLÉVISION EN COULEURS

:

RAPPEL DES STANDARDS ANALOGIQUES

Figure 1.5 – Spectre du signal PAL B/G

Jusqu’à ce point, il n’y a aucune différence de principe entre les trois standards NTSC, PAL et SECAM. Les différences entre ces systèmes portent essentiellement sur la manière de moduler cette sous-porteuse et sur la valeur de sa fréquence.



NTSC

© Dunod. La photocopie non autorisée est un délit.

Il utilise une sous-porteuse à 3,579545 MHz verrouillée sur la fréquence ligne F ( 455 × ----b ) et modulée en amplitude avec suppression de porteuse selon deux axes 2 orthogonaux (modulation d’amplitude en quadrature ou QAM) par deux signaux I (In phase) et Q (Quadrature). Ces deux signaux sont deux combinaisons linéaires de R – Y et B – Y correspondant à une rotation des axes de modulation de 33° par rapport à la phase de la salve de référence (axe B – Y). Il en résulte un vecteur dont la phase représente la teinte et l’amplitude l’intensité (ou saturation) de la couleur (figure 1.6). Une salve ou burst de référence (fsc = 3,579545 MHz, phase 180° par rapport à l’axe B-Y) sur le palier du noir permet de reconstituer dans le récepteur la sous-porteuse nécessaire pour démoduler ces signaux. Le choix d’un multiple de la demi-fréquence ligne pour la sous-porteuse fait que les spectres « luminance » et « chrominance » sont intercalés, ce qui permet une séparation quasi parfaite par un filtrage en peigne (comb filter, peu utilisé dans les récepteurs en raison de son coût).

11

9782100520442-Livre.fm Page 12 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Le NTSC s’est cependant révélé à l’usage très sensible aux rotations de phase dues à la transmission, provoquant des virages de teinte importants, en particulier dans les couleurs « chair » (d’où la fameuse expression « Never Twice the Same Colour »…). Ceci a conduit les Européens à chercher des palliatifs qui ont donné naissance (mais seulement dix ans plus tard !) aux systèmes SECAM et PAL.

12 Figure 1.6 – Le plan des couleurs en NTSC



SECAM (SÉquentiel Couleur À Mémoire)

Il évite cet inconvénient en utilisant pour la sous-porteuse la modulation de fréquence, insensible aux rotations de phase ; elle ne permet cependant pas la modulation simultanée par deux signaux comme la modulation en quadrature. Deux lignes consécutives étant jugées suffisamment semblables pour pouvoir être considérées comme identiques (c’est là toute l’astuce du système), on module donc séquentiellement de ligne à ligne la sous-porteuse alternativement par les signaux D¢b = 1,5(B – Y) et D¢r = – 1,9(R – Y) ; à charge pour le récepteur de récupérer les deux signaux simultanément. La fréquence de repos de la sous-porteuse est 4,250 MHz (272 × Fh) pour D¢b et 4,406250 MHz (282 × Fh) pour D¢r . Dans le récepteur, on utilise une ligne à retard de 64 µs (durée d’une ligne) et un circuit permutateur qui permettent de disposer simultanément du signal D¢b de la ligne en cours et D¢r de la ligne précédente (ou inversement).

9782100520442-Livre.fm Page 13 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 1 – LA

TÉLÉVISION EN COULEURS

:

RAPPEL DES STANDARDS ANALOGIQUES

Ce système est très robuste, mais il a pour inconvénients que la sous-porteuse, toujours présente même dans les zones non colorées de l’image, est plus visible qu’en NTSC ou en PAL et que le rendu des transitions entre couleurs saturées est médiocre en raison de la nécessité de tronquer les excursions maximales de fréquence pour ne pas trop « mordre » sur la bande de luminance. En outre, le filtrage en peigne n’est pas possible en raison du spectre continu du signal FM.



PAL (Phase Alternating Line)

C’est un proche cousin du NTSC, dont il corrige le principal défaut. Il utilise une sous-porteuse, verrouillée sur la fréquence ligne à 4,433619 MHz, soit 1 -⎞ 135- + -----⎛ 1---------F , et modulée en quadrature par les signaux U = 0,493(B – Y) et ⎝ 4 625⎠ b V = 0,877(R – Y). Pour éviter les inconvénients dûs aux rotations de phase, on inverse une ligne sur deux la phase de la porteuse V, ce qui permet, grâce à une ligne à retard de 64 µs dans le récepteur, d’annuler les éventuelles erreurs de phase en additionnant les signaux V de deux lignes successives (on reprend ici l’idée du SECAM considérant deux lignes consécutives comme identiques). La phase de la salve de référence est alternée d’une ligne à l’autre entre + 135° et – 135° par rapport à la phase de la porteuse U (0°) pour pouvoir synchroniser le démodulateur V dans le récepteur. Les autres caractéristiques du PAL sont très voisines de celles du NTSC.

© Dunod. La photocopie non autorisée est un délit.

Outre le PAL « standard » (dit PAL B/G), il existe deux autres variantes moins connues, utilisées en Amérique du Sud, où les canaux sont de 6 MHz, comme en NTSC : • le PAL M (Brésil, 525 lignes/60 Hz, s/p à 3,575611 MHz) ; • le PAL N (Argentine, 625 lignes/50 Hz, s/p à 3,582056 MHz).



D2MAC

Dans les années quatre-vingt, les Européens ont cherché à améliorer la qualité des images et du son pour les nouveaux services de télévision directe par satellite, en évitant les principaux inconvénients des systèmes « composites » (cross colour, cross luminance, bande passante réduite) et en adoptant un son numérique, ce qui a donné naissance aux systèmes MAC (Multiplexed Analog Components). Le D2MAC est le plus connu des systèmes MAC, même s’il n’a pas rencontré le succès escompté ; il remplace le multiplexage fréquentiel (partage de bande

13

9782100520442-Livre.fm Page 14 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

passante) entre luminance, chrominance et son par un multiplexage temporel (partage de temps), et peut être considéré comme une étape vers la transmission totalement numérique du signal TV. À l’émission, après échantillonnage (704 points par ligne pour Y, 352 pour U et V 1) et conversion A/N, les signaux Y, U et V sont comprimés dans le temps (facteur 2/3 pour Y et 1/3 pour U et V), éventuellement embrouillés, puis reconvertis en analogique de manière à pouvoir être transmis séquentiellement sur la ligne (figure 1.7).

14 Figure 1.7 – Une ligne de signal D2MAC

La période habituellement occupée par la synchro et la suppression ligne est remplacée par une salve de données codées en format « duobinaire ». Ces données transportent le son numérique, la synchronisation et d’autres informations (sous-titrage, télétexte, format 4/3 ou 16/9 de l’émission…), et en cas d’émission à péage, les données de contrôle d’accès du système Eurocrypt qui fait partie de la norme D2MAC. Comme en SECAM, on transmet alternativement la composante U sur une ligne et V sur la suivante, de manière à réduire la bande passante nécessaire, et à obtenir une résolution égale à la moitié de la résolution luminance suivant les 2 axes de l’image.

1. Le D2MAC est basé sur le format numérique 4:2:2 (720 points Y et 360 Cb ou Cr par ligne), mais pour des raisons pratiques, on est conduit à réduire légèrement ces nombres ; en effet 720 points à 13,5 MHz représentent une durée de 53,33 µs, supérieure à la durée utile normalisée du signal vidéo analogique (52 µs), ce qui entraînerait des problèmes de « clamp » dans le récepteur.

9782100520442-Livre.fm Page 15 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 1 – LA

TÉLÉVISION EN COULEURS

:

RAPPEL DES STANDARDS ANALOGIQUES

Cette résolution est pratiquement équivalente à celle du format 4:2:0 (voir le paragraphe 2.2 « formats de numérisation » au chapitre 2), et voisine de celle des systèmes professionnels au format 4:2:2 utilisés dans les studios des stations TV. Le multiplexage temporel se traduit par une absence totale de cross-colour et crossluminance après décodage dans le récepteur (traitement essentiellement numérique qui consiste pour la vidéo à décomprimer les signaux YUV) avec une bande passante luminance d’environ 5 MHz, ce qui se traduit par une résolution horizontale nettement améliorée par rapport au PAL ou au SECAM.



PAL+

C’est un développement récent, destiné à permettre la transmission d’images 16/9 à définition améliorée (sur un récepteur 16/9 approprié) de manière compatible avec les récepteurs PAL 4/3 du parc 1. Pour ce faire, lors d’émissions en 16/9, le codeur PAL+ produit une image 4/3 en format letterbox (format utilisé pour la diffusion des films cinéma à la télévision), dont la partie visible normalement sur un récepteur PAL ordinaire occupe 432 lignes (576 × 3/4). Cette image est obtenue par filtrage vertical passe bas à partir des 576 lignes de l’image 16/9 d’origine ; le résultat du filtrage complémentaire (passe-haut) est transmis sur la sous-porteuse à 4,43 MHz pendant les 144 lignes noires non utilisées, ce qui permet au récepteur PAL+ de reconstituer une image avec une pleine résolution verticale de 576 lignes avec une perturbation relativement faible des récepteurs 4/3.

© Dunod. La photocopie non autorisée est un délit.

D’autre part, afin de pouvoir disposer d’un maximum de bande passante luminance (5 MHz) et de réduire les effets de cross-colour et cross-luminance, la phase de la sous-porteuse des deux lignes contiguës des deux trames constituant une image est transmise en opposition de phase. Ceci permet d’annuler le cross-color dans le récepteur en ajoutant la partie haute du spectre des deux trames et d’annuler le cross-luminance en les soustrayant, d’où la nécessité d’une mémoire de trame, qui contribue au prix élevé des récepteurs PAL+. Une détection de mouvement permet d’éviter les défauts introduits par ce procédé connu sous le nom de « colorplus » sur les objets colorés en mouvement rapide. 1. Les études du PAL+ ont eu lieu de 1990 à 1992 ; après une période expérimentale de plus d’un an, les émissions officielles ont démarré en 1995 lors du salon de Berlin (IFA). Le PAL+ est officiellement adopté par la plupart des pays utilisant le système PAL. Le système de signalisation de format WSS peut toutefois être utilisé indépendamment du PAL+, notamment en PAL « ordinaire » et en SECAM pour signaler les émissions 16/9.

15

9782100520442-Livre.fm Page 16 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

On obtient ainsi une image 16/9 de qualité comparable à celle du D2MAC, à condition toutefois d’être dans de très bonnes conditions de réception (rapport signal/bruit élevé). Afin que le récepteur puisse être informé du format de l’émission en cours, des bits de signalisation de format (WSS, Wide Screen Signalling) ont été ajoutés sur la première moitié (inutilisée) de la ligne 23 (figure 1.8), pour permettre au récepteur d’adapter son format d’affichage.

16

Figure 1.8 – La ligne 23 PAL+ (WSS)

Ces bits peuvent également être utilisés par des récepteurs 16/9 ordinaires pour faire varier l’amplitude verticale du balayage, sans tirer profit des autres avantages du PAL+ ; c’est ce que l’on appelle parfois familièrement le « PAL plus du pauvre » (Poor man’s PAL+)... Après cette entrée en matière (un peu longue ?), nous allons tenter de décrire le plus simplement possible, sans rentrer dans des détails inutilement complexes, les principes qui ont permis la mise en service d’une nouvelle génération de télévision entièrement numérique, dont l’impact sur notre façon d’utiliser ces nouvelles images est encore difficile à imaginer aujourd’hui.

9782100520442-Livre.fm Page 17 Jeudi, 24. juin 2010 11:35 11

Chapitre 2 La numérisation des signaux vidéo

2.1

17

Numériser la vidéo, pour quoi faire ?

© Dunod. La photocopie non autorisée est un délit.

Depuis de nombreuses années déjà, les professionnels de la vidéo utilisent dans les studios des chaînes de télévision des formats numériques divers (par exemple D1 en « composantes », D2 en « composite ») pour l’enregistrement, la manipulation, le montage et la copie des signaux vidéo. Afin de faciliter l’interopérabilité des matériels et l’échange de programmes, le CCIR (Comité Consultatif International des Radiocommunications 1) a normalisé les conditions de numérisation (recommandation CCIR 601) et d’interface (recommandation CCIR 656) des signaux vidéo numériques en composantes (Y, Cb, Cr) au format 4:2:2. Les principaux avantages de ces formats numériques normalisés sont de permettre des copies multiples sans aucune dégradation de la qualité des images, de créer des effets spéciaux irréalisables en analogique, ainsi que de faciliter les montages de toute sorte et les échanges internationaux indépendamment du standard utilisé ensuite pour la diffusion (NTSC, PAL, SECAM, D2MAC, MPEG…). 1. Le CCIR (Comité Consultatif International de la Radiodiffusion), branche « Radiodiffusion » du CCITT (Comité Consultatif International du Télégraphe et du Téléphone), est devenu IUT-R lorsque le CCITT est devenu IUT (International Union for Telecommunications).

9782100520442-Livre.fm Page 18 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Le revers de la médaille, sans recours à la compression, est toutefois un débit très important, qui les rend pratiquement inutilisables pour la transmission vers les téléspectateurs.

2.2

18

Formats de numérisation (4.2.2, 4.2.0, SIF, CIF, 720p, 1080i, 1080p) En effet, pour numériser un signal analogique de bande passante Fmax, il faut tout d’abord l’échantillonner (prélever sa valeur) avec une fréquence d’échantillonnage Féch au moins égale à 2 fois la fréquence maximale du signal pour ne pas perdre d’information (théorème de l’échantillonnage de Shannon). Ceci permet d’éviter les effets néfastes du repliement de spectre (aliasing) : en effet, l’échantillonnage crée deux bandes « parasites » autour de la fréquence d’échantillonnage qui s’étalent de Féch – Fmax à Féch + Fmax, ainsi qu’autour de tous ses harmoniques (figure 2.1). Pour que le spectre d’entrée et la partie inférieure du spectre « parasite » ne se mélangent pas, il faut que Féch – Fmax > Fmax, ce qui est réalisé si Féch > 2Fmax : un filtrage suffisamment efficace est donc nécessaire avant conversion pour garantir que le spectre du signal d’entrée est limité à Fmax, avec en outre une atténuation aussi faible que possible de la bande passante utile. Compte tenu des courbes de réponse de filtres réalisables pratiquement, la fréquence d’échantillonnage devra être supérieure à la valeur minimale théorique de 2Fmax. Pour le cas d’un signal vidéo, dont la bande passante à la source est de 6 MHz environ, le CCIR préconise une fréquence d’échantillonnage de 13,5 MHz 1 verrouillée 1. Pour certaines applications « multimédia » (vidéo sur PC essentiellement), on utilise souvent d’autres fréquences d’échantillonnage pour obtenir ce que l’on appelle des pixels carrés, facilitant le mélange d’images vidéo et informatiques sans distorsion de rapport d’aspect. En effet, le rapport d’aspect (rapport largeur / hauteur) de l’image TV standard et des moniteurs informatiques est de 4/3, et pour que les résolutions horizontale et verticale soient identiques, ce qui est le cas des formats graphiques informatiques actuels, il faut que le nombre de pixels par ligne et le nombre de lignes utiles soient aussi dans le rapport 4/3, ce qui n’est le cas, avec un échantillonnage à 13,5 MHz, ni en 525 lignes (720/480 > 4/3), ni en 625 lignes (720/576 < 4/3). En 525 lignes (480 lignes utiles), les «pixels carrés» impliquent 640 pixels/ligne (640 = 480 × 4/3) ce qui est obtenu avec une fréquence d’échantillonnage de 12,2727 MHz. Ce n’est pas un hasard si ce format de 640 × 480 correspond à la résolution du mode graphique VGA de base (fréquence ligne 31 468 Hz / fréquence trame 59,94 Hz), qui est en fait une version non entrelacée (ou « progressive ») du standard de balayage NTSC… En 625 lignes (576 lignes utiles), il faut 768 pixels/ligne (768 = 576 × 4/3), ce qui requiert une fréquence d’échantillonnage de 14,75 MHz. Les formats à haute définition 720p et 1080i, dont le nombre de pixels horizontaux et verticaux est dans le même rapport que le format de l’‘image (16/9), sont des formats à « pixels carrés ».

9782100520442-Livre.fm Page 19 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 2 – LA

NUMÉRISATION DES SIGNAUX VIDÉO

Figure 2.1 – Spectre d’un signal échantillonné avec Féch > 2Fmax

sur la fréquence ligne Fh (864Fh pour les systèmes à 625 lignes, 858Fh pour les systèmes à 525 lignes). La partie utile de la ligne compte 720 échantillons dans les deux cas. Un tel échantillonnage, qui détermine une structure fixe des échantillons par rapport à l’image à la fois d’une ligne à l’autre et d’une image à l’autre, est dit orthogonal (figure 2.2) ; les échantillons, qui forment les pixels de l’image (ou pels en abrégé), se situent sur une grille rectangulaire. La manière la plus « économique » en bits, mais qui donnera au mieux une qualité équivalente à un bon signal composite analogique semble donc a priori de numériser celui-ci à 13,5 MHz.

© Dunod. La photocopie non autorisée est un délit.

La résolution minimum pour la quantification d’un signal vidéo avec une qualité suffisante pour sa diffusion vers un terminal de visualisation est de 8 bits (le rapport signal/bruit maximal est en effet d’environ 6 dB par bit de quantification, soit environ 48 dB pour 8 bits). Ceci donne donc un débit minimum de 13,5 × 8 = 108 Mb/s, ce qui est déjà considérable. Cependant, la forme « composite » du signal numérisé offre peu d’avantages par rapport au signal analogique lui-même au niveau de la production, si ce n’est la copie sans dégradation. C’est pourquoi cette manière de numériser le signal vidéo n’est pratiquement pas utilisée à la source dans les applications broadcast, le signal numérique composite s’adaptant assez mal aux différentes manipulations du signal vidéo (trucages, compression) ainsi qu’aux échanges internationaux.

19

9782100520442-Livre.fm Page 20 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

20 Figure 2.2 – Structure d’échantillonnage orthogonal

2.2.1 Le format 4:2:2 La recommandation CCIR 601, établie en 1982 définit donc pour ces applications les conditions de numérisation des signaux vidéo, basées sur un signal YCbCr au format dit 4:2:2 (4 échantillons Y pour 2 échantillons Cb et 2 échantillons Cr), avec une numérisation sur 8 bits, avec possibilité d’extension à 10 bits pour les applications les plus exigeantes. Quel que soit le standard de balayage, la fréquence d’échantillonnage est de 13,5 MHz pour la luminance Y et de 6,75 MHz pour les signaux de chrominance Cb et Cr , ce qui correspond à une définition de 720 échantillons par ligne en luminance et 360 échantillons par ligne en chrominance, dont la position correspond à celle des échantillons impairs de luminance (figure 2.3). Les signaux Cb et Cr étant disponibles simultanément à chaque ligne, la définition verticale est identique pour la luminance et la chrominance, et correspond au nombre de lignes utiles du standard d’analyse de départ (480 pour les standards à 525 lignes, 576 pour ceux à 625 lignes).

9782100520442-Livre.fm Page 21 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 2 – LA

NUMÉRISATION DES SIGNAUX VIDÉO

Figure 2.3 – Position des échantillons dans le format 4:2:2

Le débit brut résultant est donc : 13,5 × 8 + 2 × 6,75 × 8 = 216 Mb/s (270 Mb/s avec 10 bits). La numérisation de la partie utile du signal vidéo ne demande toutefois « que » 166 Mb/s si on tient compte de l’inutilité de numériser les intervalles de suppression (souvent appelés blanking) ligne et trame. On peut donc tirer profit de ces temps libres pour transporter des voies son numériques et des données de service ou autres. La recommandation CCIR 656, quant à elle, définit l’interface normalisée pour les échanges de signaux au format 4:2:2, et même les connecteurs associés pour les applications de studio.

© Dunod. La photocopie non autorisée est un délit.

Sans entrer dans les détails, disons que cette « norme » fournit les signaux Y Cb Cr obtenus en numérisant le signal selon CCIR 601 sous une forme mutiplexée dans le temps (Cr1Y1Cb1Y2Cr3Y3Cb3…) sur un même « bus » parallèle de 8 bits associé à une horloge synchrone de 27 MHz (une période par échantillon Y, Cb ou Cr). La synchronisation ainsi que la transmission de données pendant la période de suppression sont incluses dans le flux de données, et les connecteurs normalisés sont de type DB25. Il existe également une forme « série » de l’interface CCIR 656, plus simple au niveau de la connectique (BNC) et mieux adaptée à la transmission, mais générant un débit légèrement supérieur (243 Mb/s) en raison du codage des données sur 9 bits dans ce mode.

2.2.2 Les formats 4:2:0, SIF, CIF et quart de CIF Pour les applications moins exigeantes en résolution, et visant des débits de transmissions aussi faibles que possibles, certains « sous-produits » du format 4:2:2 ont été définis :

21

9782100520442-Livre.fm Page 22 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE



Le format 4:2:0

Il est obtenu à partir du standard 4:2:2 en utilisant la même chrominance pour « colorier » deux lignes successives, de manière à réduire le débit et la quantité de mémoire dans les circuits de traitement tout en procurant une résolution chrominance verticale équivalente à la résolution horizontale, donc suffisante. La figure 2.4 montre la position des échantillons dans le format 4:2:0.

Figure 2.4 – Position des échantillons dans le format 4:2:0

22

Afin d’éviter le sautillement désagréable observé lors des transitions horizontales très violentes en SECAM (où une chrominance provient de la ligne en cours de balayage alors que l’autre vient de la précédente), les échantillons Cb et Cr transmis sont obtenus en moyennant ceux des deux lignes successives qu’ils « colorieront » à la reproduction. La résolution luminance et la résolution horizontale chrominance sont identiques au 4:2:2. C’est ce format qui sert de base de départ aux codages D2MAC et MPEG2 (MP@ML).



Le format SIF (Source Intermediate Format)

Il a une résolution luminance de 360 × 240 à une fréquence image de 29,97 Hz ou 360 × 288 à 25 Hz selon le standard d’origine (525 ou 625 lignes). La figure 2.5 illustre la position des échantillons dans le format SIF. En luminance, il est obtenu en supprimant une trame sur deux (plus d’entrelacement) et en effectuant un filtrage horizontal réduisant d’un facteur 2 le nombre d’échantillons par ligne.

9782100520442-Livre.fm Page 23 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 2 – LA

NUMÉRISATION DES SIGNAUX VIDÉO

Figure 2.5 – Position des échantillons dans le format SIF

En chrominance, on effectue à partir de la trame d’origine un filtrage à la fois horizontal et vertical, ce qui donne une résolution de 180 × 144 ou 180 × 120 selon le standard. Cette résolution, à peu près équivalente à celle d’un magnétoscope VHS, est utilisée comme base de départ pour la compression MPEG1 que nous étudierons plus loin.



Le format CIF (Common Intermediate Format)

© Dunod. La photocopie non autorisée est un délit.

Il est un compromis entre les formats SIF européen et américain, défini pour servir de base aux applications de visiophonie : il reprend la résolution spatiale dérivée du 625 lignes (360 × 288) et la résolution temporelle du 525 lignes (29,97 Hz).



Le format QCIF (Quart de CIF)

Il divise encore cette résolution par quatre (deux selon chaque axe), en luminance comme en chrominance ; il est utilisé comme base pour la compression H261 dans les applications de type visiophone ou vidéo conférence sur RNIS. La résolution temporelle est également divisée par deux ou quatre (fréquence de rafraîchissement d’image de 15 ou 7,5 Hz pour le visiophone).

2.2.3 Les formats à haute définition 720p, 1080i, 1080p Après quelques faux départs (MUSE, HD-MAC…), les conditions nécessaires à un démarrage à grande échelle de la Télévision à Haute définition semblent enfin réunies.

23

9782100520442-Livre.fm Page 24 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Deux formats standard de départ ont été retenus pour les applications TVHD « broadcast », chacun décliné en deux variantes (59.94 / 60 Hz et 50 Hz selon le continent) : • Le format 720p : c’est un format à balayage progressif de résolution horizontale 1280 pixels et de résolution verticale 720 lignes (ou pixels). • Le format 1280i : ce format à balayage entrelacé offre une résolution horizontale de 1920 pixels et une résolution verticale de 1080 pixels. Pour ces deux formats, les résolutions horizontale et verticale sont équivalentes, car elles sont dans le même rapport que le rapport d’aspect de l’image (16/9). Un rapide calcul du débit nécessaire à la numérisation en format 4 :4 :4 de ces deux formats HD donne des débits de l’ordre de 1 à 1,5 Gb/s selon la fréquence de rafraîchissement et la résolution, soit 4 à 5 fois plus que qu’une image à définition standard. Le format 1080p (utilisé par exemple par le disque Blu-rayTM) est pour le moment jugé trop « gourmand » en bande passante pour les applications broadcast.

2.3 24

Problèmes de transport On conçoit qu’un débit de l’ordre de 200 Mb/s nécessité par la norme 4:2:2 telle quelle ne puisse être envisagée pour diffuser le signal vidéo vers l’utilisateur final, car il nécessiterait une bande passante au moins égale à 5 ou 6 fois celle occupée par un signal analogique PAL ou SECAM : de fait, avec une technique de modulation 64-QAM (adaptée au transport sur câble, avec des symboles de 6 bits) environ 40 MHz seraient nécessaires ; avec une modulation QPSK (adaptée au satellite, avec des symboles de 2 bits), c’est une largeur d’environ 135 MHz qui serait occupée ! (voir chapitres 6 et 7 consacrés au codage de canal et à la modulation). Ce serait bien entendu encore moins envisageable avec les débits 4 à 5 fois plus élevés générés par la numérisaton d’images à haute définition en 720p ou 1080i. C’est la conviction que l’on ne saurait résoudre avant longtemps ce problème de manière économique – notamment en raison du coût des mémoires nécessaires à la compression du signal vidéo – qui a retardé le démarrage de la télévision à diffusion 100 % numérique, et donné naissance dans les années quatre-vingt aux standards hybrides tels que D2MAC (vidéo analogique, son numérique) pour la transmission de qualité améliorée. Les progrès de la compression vidéo et de l’intégration dans la seconde moitié des années quatre-vingt ont précipité les événements, rendant ainsi ces standards pratiquement obsolètes aujourd’hui !

9782100520442-Livre.fm Page 25 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 2 – LA

NUMÉRISATION DES SIGNAUX VIDÉO

Les conditions sine qua non à remplir pour pouvoir envisager de lancer un service de diffusion de télévision numérique imposaient donc de trouver des solutions à des problèmes que l’on peut classer en deux grandes catégories :

2.3.1 Le codage de source Il s’agit ici de mettre au point des techniques de compression vidéo et audio visant à réduire le débit numérique – en terme de mégabits par seconde d’images animées de résolution donnée – à une valeur aussi faible que possible, mais compatible avec une dégradation pratiquement imperceptible du rendu de l’image télévisée en mouvement et du son associé. 2.3.2 Le codage de canal Il consiste à développer des algorithmes de correction d’erreurs associés à des techniques de modulation les plus efficaces possibles (en terme de Mb/s par MHz), compte tenu de la bande passante disponible et des défauts prévisibles du canal de transmission (bruit, échos...). Bien d’autres problèmes étaient également à résoudre, mais on peut en première analyse les considérer comme secondaires…

2.4

Séquence des opérations à l’émission

© Dunod. La photocopie non autorisée est un délit.

Plusieurs programmes pouvant être transmis sur un seul canal RF, la séquence des opérations à l’émission peut être illustrée schématiquement par la figure 2.6.

Figure 2.6 – Séquence des principales opérations à l’émission

Nous suivrons l’ordre des blocs fonctionnels de cette figure pour détailler ces différentes opérations dans les chapitres suivants.

25

9782100520442-Livre.fm Page 26 Jeudi, 24. juin 2010 11:35 11

9782100520442-Livre.fm Page 27 Jeudi, 24. juin 2010 11:35 11

Chapitre 3 La compression des signaux vidéo et audio

27

Nous avons laissé entendre dans le chapitre précédent que la compression était absolument indispensable à la transmission d’images vidéo dans un canal de largeur acceptable.

© Dunod. La photocopie non autorisée est un délit.

Une occupation spectrale comparable à celle d’une transmission analogique actuelle implique en effet un débit utile maximum de l’ordre de 30 à 40 Mb/s pour pouvoir « passer » sur un canal satellite de 27 à 36 MHz ou un canal câble de 6 à 8 MHz (avec les modulations et les dispositifs de correction d’erreurs adaptées à ces deux cas, que nous étudierons aux chapitres 6 et 7). Nous allons maintenant examiner les principes et les étapes de la compression permettant d’obtenir ce résultat (et même, en fait, aujourd’hui beaucoup mieux), et aux différentes normes actuellement ou prochainement utilisées. Ces méthodes de compression font appel à des procédés généraux de compression de données et exploitent en outre la redondance spatiale interne à une image (plages uniformes), la corrélation entre les points voisins et la moindre sensibilité de l’œil aux détails fins pour les images fixes (JPEG) et de plus, pour les images animées (MPEG), la redondance temporelle entre images successives.

9782100520442-Livre.fm Page 28 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

3.1

Quelques principes généraux de compression de données

3.1.1 Codage RLC (Run Length Coding) Lorsqu’une source d’information émet des éléments de message pouvant comporter des suites relativement longues d’éléments identiques, ce qui est le cas de la transformée DCT après seuillage et quantification (voir ci-après), il est intéressant de ne pas coder individuellement chaque élément, mais de coder plutôt le couple valeur/nombre de répétitions, ce qui donne un facteur de réduction de débit d’autant plus important que la suite est plus longue. Ce codage ne perd aucune information : il est dit réversible. Ce type de codage est couramment employé pour la compression en vue du stockage en informatique (compression de fichiers ZIP, etc.) ainsi que pour la télécopie. Il peut être combiné à un codage à longueur variable (VLC) pour en augmenter l’efficacité.

28

3.1.2 Codage à longueur variable ou entropique (VLC, Variable Length Coding) Ces systèmes de codage sont basés sur le fait que la probabilité d’apparition d’un élément (ou message) codé sur n bits généré par une source parmi les 2 puissances n possibles n’est pas équivalente pour tous les éléments. On aura donc intérêt à coder sur moins de bits les éléments d’apparition fréquente et sur plus de bits les éléments plus rares, pour obtenir une longueur moyenne inférieure à la longueur fixe, ce qui permet une réduction de débit. Ceci implique cependant soit une analyse préalable de la suite des éléments à transmettre, incompatible avec le « temps réel », soit la connaissance a priori obtenue statistiquement de la probabilité d’apparition de tous les éléments possibles (selon la nature de l’information transmise par la source). Par exemple, la fréquence d’apparition des différentes lettres de l’alphabet dans une langue donnée est connue, ce qui permet d’utiliser ce type de codage pour la compression de textes. Le cas des images vidéo transformées par DCT se prête bien à ce codage en raison de la concentration de l’information sur peu de coefficients, à l’inverse de la forme temporelle du signal vidéo dont tous les échantillons ont des valeurs équiprobables. On démontre que la quantité d’information Q (en bits) transmise par un élément est égale au logarithme (base 2) de l’inverse de sa probabilité d’apparition p : 1 Q = log 2 ⎛⎝ --⎞⎠ = – log 2 ( p ) p

9782100520442-Livre.fm Page 29 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

On appelle entropie H d’une source d’informations (exprimée en bits par message) la somme des produits de la quantité d’information de chaque message par sa probabilité d’apparition. H =

∑ pi log2 ⎛⎝ ---pi⎞⎠ 1

i

Le but du codage à longueur variable, dont le plus connu est celui de Huffman, est de s’approcher le plus possible du débit entropique (nombre de bits par élément aussi proche que possible de l’entropie de la source). L’algorithme de Huffman suppose la connaissance préalable de la probabilité de chaque élément, et permet d’approcher le débit entropique ; il fonctionne de la manière suivante :

© Dunod. La photocopie non autorisée est un délit.

• On reclasse d’abord chacun des éléments par ordre de probabilité décroissante pour constituer une « table des occurrences » (deux colonnes de gauche de la figure 3.1). • On prend ensuite les 2 éléments de probabilité la plus faible et on les regroupe en un seul élément de probabilité égale à la somme des deux probabilités ; on attribue le bit 0 à celui de plus faible probabilité et 1 à l’autre. On a ainsi réduit d’un élément la liste, et on recommence en regroupant ce nouvel élément avec celui de probabilité la plus faible restant, et ainsi de suite jusqu’à épuisement de tous les éléments de la liste (probabilité cumulée de 100 %). • On bâtit ainsi l’arbre de codage de Huffman (partie centrale figure 3.1) où l’on attribue à chaque élément le code obtenu en mettant bout à bout les bits rencontrés sur le chemin suivi pour l’atteindre, ce qui donne la table des codes finale (colonne de droite figure 3.1). Pour illustrer cette méthode (figure 3.1), nous avons supposé un message formé des 8 éléments A, B, C, D, E, F, G, H de probabilités respectives : p(A) = 40 %, p(B) = 5 %, p(C) = 20 %, p(D) = 2 %, p(E) = 10 %, p(F) = 3 %, p(G) = 14 %, p(H) = 6 %. Dans cet exemple, le calcul de la longueur moyenne des mots après codage (somme des produits du nombre de bits de chaque élément par sa probabilité) donne 1 2,51 bits, alors que l’entropie théorique ∑ p i log 2 ⎛ ---⎞ est de 2,44 bits : l’efficacité ⎝ p i⎠ i du codage de Huffman est donc très bonne.

29

9782100520442-Livre.fm Page 30 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 3.1 – Application de l’algorithme de codage de Hufmann. Les zones grisées matérialisent les correspondances horizontales non contiguës

Comme il y a 8 éléments différents dans la table, un codage binaire pur nécessiterait 3 bits par élément : le gain apporté par le codage de Huffmann est donc ici : 30

3,00 – 2,51- = 0,49 --------- = 16,3 % environ ----------------------3 3 Ce type de codage est réversible et peut s’appliquer aux signaux vidéo en complément d’autres méthodes permettant de générer des éléments dont la probabilité n’est pas uniforme (DCT par exemple) ; dans ce cas le gain de compression peut être beaucoup plus important.

3.2

Cas particulier des images : la transformée en cosinus discrète (DCT) La transformée en cosinus discrète (Discrete Cosine Transform, DCT) est un cas particulier, appliqué aux signaux discrets (échantillonnés), de la transformée de Fourier, qui décompose un signal périodique en une série de fonctions sinus et cosinus harmoniques. Nous ne nous étendrons pas sur les détails mathématiques, mais nous dirons simplement que, sous certaines conditions, la DCT décompose le signal en une série de fonctions uniquement cosinus harmoniques en phase avec le signal d’origine, ce qui réduit de moitié le nombre de coefficients nécessaires par rapport à une transformée de Fourier.

9782100520442-Livre.fm Page 31 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

Dans le cas d’une image, nous travaillons à partir d’un signal échantillonné bidimensionnel et nous aurons affaire à une DCT en deux dimensions (horizontale et verticale), qui transformera les valeurs de luminance (ou de chrominance) discrètes d’un bloc de N × N pixels en un autre bloc de N × N coefficients correspondant à l’amplitude de chacune des fonctions cosinus harmoniques. Dans le bloc transformé, les coefficients des fréquences horizontales croissantes vont de gauche à droite sur l’axe horizontal et ceux des fréquences verticales croissantes de haut en bas sur l’axe vertical. Afin de réduire la complexité et le temps de traitement par les circuits intégrés, on a choisi de découper l’image en blocs de 8 × 8 pixels (figure 3.2) que la DCT transforme en une matrice de 8 × 8 coefficients, dont le premier (en haut à gauche, coordonnées 0, 0) donne la composante continue (DC) représentant l’intensité moyenne du bloc, et le dernier (en bas à droite), la composante de fréquence spatiale la plus élevée selon les deux axes (figure 3.3). La figure 3.4 représente de façon visuelle la contribution de chacun des coefficients à l’aspect du bloc de 8 × 8 pixels d’origine (l’aspect du bloc pourrait être obtenu en pondérant chacune de ces cases par son coefficient et en additionnant l’ensemble).

© Dunod. La photocopie non autorisée est un délit.

Selon le nombre de détails contenus dans ce bloc, les coefficients de fréquence croissante seront plus ou moins élevés, mais ils diminuent en général très rapidement avec la fréquence en raison de la moindre énergie des fréquences spatiales élevées dans les images naturelles.

Figure 3.2 – Découpage en blocs de 8 × 8 pixels (les valeurs représentent l’intensité lumineuse d’un pixel)

31

9782100520442-Livre.fm Page 32 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 3.3 – Transformation du bloc de 8 × 8 pixels en matrice de 8 × 8 coefficients

32

Figure 3.4 – Illustration de la contribution de chacun des coefficients à l’aspect du bloc

9782100520442-Livre.fm Page 33 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

La DCT a donc la propriété remarquable de concentrer l’énergie du bloc sur peu de coefficients situés dans l’angle supérieur gauche ; d’autre part, les coefficients sont décorrélés les uns des autres. Ceci pourra être mis à profit dans les étapes ultérieures de la compression. Jusqu’à ce point, le traitement effectué par la simple DCT est réversible (sans perte d’information). Cependant, compte tenu des particularités psycho-physiologiques de la vision humaine (moindre sensibilité de l’œil aux fréquences spatiales élevées), on peut effectuer ensuite un seuillage fonction de la fréquence : les valeurs inférieures à un seuil déterminé, considérées comme peu ou non visibles, seront mises à 0 ; il y a là évidemment perte d’information (non réversibilité), mais avec peu d’incidence sur la qualité subjective de l’image. Les coefficients seront enfin quantifiés avec une précision de plus en plus faible lorsque la fréquence augmente, permettant ainsi une réduction supplémentaire de la quantité d’information nécessaire à coder un bloc ; là encore, il y a perte d’information, donc non réversibilité. Les paramètres de la quantification pourront être utilisés pour réguler le débit lors de la transmission d’images animées (nous verrons comment dans le cas de la compression MPEG plus loin).

© Dunod. La photocopie non autorisée est un délit.

Le résultat du processus seuillage/quantification est illustré par la figure 3.5.

Figure 3.5 – Résultat du processus : seuillage + quantification

La suite des coefficients obtenus est ensuite lue en balayant la matrice en zigzag (figure 3.6).

33

9782100520442-Livre.fm Page 34 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 3.6 – Lecture de la matrice en zigzag

Cette méthode permettant d’obtenir le plus rapidement possible des suites relativement longues de coefficients nuls, ceci augmente encore l’efficacité des traitements ultérieurs (codages RLC et VLC décrits ci-avant).

34

3.3

Application à la compression d’images fixes (JPEG) Les premières applications visant à réduire la quantité d’informations nécessaire au codage d’images fixes ont vu le jour il y a une dizaine d’années, avec comme principal objectif de réduire de façon significative la taille des fichiers graphiques, puis de photographies, en vue de leur stockage ou de leur transmission. L’ISO (International Standard Organization) a créé en 1990 un groupe de travail international baptisé JPEG (Joint Photographic Experts Group) pour élaborer une norme de compression d’images photographiques de résolutions variables, sous forme YCbCr ou RVB. Cette norme, publiée en 1993 sous la référence ISO/IEC 10918, est très ouverte et peut être considérée comme une « boîte à outils » pour la compression d’images fixes. Nous n’entrerons pas dans son détail, ce qui n’est pas l’objet de cet ouvrage, mais nous décrirons néanmoins ses principes, qui ont largement inspiré les normes MPEG. Il est à noter que la compression JPEG peut être avec ou sans pertes (réversible), selon le but et le taux de compression recherchés, mais les utilisations les plus

9782100520442-Livre.fm Page 35 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

courantes sont avec pertes, ce qui permet d’atteindre, selon la nature de l’image, des taux de compression supérieurs à 10 sans dégradation notable de qualité. Dans le cas du codage avec pertes, dont le processus sera repris en grande partie par MPEG pour les images animées, la compression JPEG se décompose en 6 étapes :



Décomposition en blocs

L’image d’origine sous forme YCbCr est découpée en blocs élémentaires de 8 × 8 pixels, (figure 3.2) soit, pour une image au format CCIR 601 de 720 × 576, un total de 6 480 blocs de luminance Y et 3 240 blocs pour chacune des composantes Cb et Cr . Chacun de ces blocs forme une matrice de 64 nombres de 0 à 255 (résultat de la numérisation sur 8 bits) pour la luminance et de – 128 à + 127 pour les composantes Cb et Cr .



Transformation DCT

Comme nous l’avons vu plus haut, cette transformation appliquée à chacun des blocs (Y, Cb, Cr) génère pour chacun d’eux une nouvelle matrice 8 × 8 (figure 3.3) composée des coefficients des composantes de fréquences spatiales de plus en plus élevées au fur et à mesure que l’on s’éloigne de l’origine (en haut à gauche) qui représente la composante continue (luminance moyenne) du bloc. La valeur de ces coefficients diminue rapidement en s’éloignant de l’origine de la matrice, qui se termine généralement par une série de 0. Ainsi, si un bloc est de luminance et de couleur uniformes, seul le premier coefficient ne sera pas nul, on aura donc un seul coefficient au lieu de 64 à transmettre.

© Dunod. La photocopie non autorisée est un délit.



Seuillage et quantification

Cette étape tient compte des particularités de la vision humaine (l’œil ne distingue pas les détails fins au-dessous d’un certain niveau de luminance) : elle consiste à mettre à 0 les coefficients inférieurs à une valeur prédéterminée et à coder les coefficients restants avec une précision décroissante quand la fréquence augmente. À la différence des 63 autres (AC), le coefficient de fréquence nulle (DC) est codé en DPCM (Differential Pulse Code Modulation : codage différentiel par rapport à celui du bloc précédent) ce qui permet d’augmenter la précision de quantification à nombre de bits donné, de manière à minimiser la visibilité des blocs sur l’image reconstituée, car l’œil, s’il est peu sensible aux détails fins, est au contraire très sensible à de faibles différences de luminance sur les plages uniformes.

35

9782100520442-Livre.fm Page 36 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE



Lecture en zigzag

À l’exception du coefficient DC traité séparément, les 63 coefficients AC sont lus en zigzag (figure 3.6) pour transformer la matrice en un flot de données série adapté aux prochaines étapes du processus (codage RLC et VLC).



Codage RLC

Afin de tirer parti au maximum des suites de coefficients nuls fournis par la quantification et la lecture en zigzag, on code le nombre d’occurrences des coefficients nuls et la valeur du prochain non nul, ce qui réduit le nombre de données à transmettre.



Codage entropique de Huffman (VLC)

Cette dernière étape consiste à coder les coefficients avec une longueur d’autant plus courte qu’ils sont plus fréquents statistiquement, comme nous l’avons vu plus haut. Ces deux dernières étapes (RLC + VLC) permettent à eux seuls un facteur de compression de l’ordre de 2 à 3.

36

Figure 3.7 – Décodage JPEG, schéma de principe

9782100520442-Livre.fm Page 37 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

Lorsque le temps de compression/décompression n’est pas primordial, ce qui est souvent le cas pour des images fixes, ces opérations peuvent être entièrement logicielles. Il existe cependant un certain nombre de processeurs spécialisés (surtout pour le décodage) permettant une accélération très importante de ces processus, dont le schéma de principe est visible à la figure 3.7. Nous ne décrirons pas le codage JPEG sans perte, car du fait qu’il utilise un codage de type prédictif à la place de la DCT, il est assez peu similaire au codage MPEG que nous allons aborder maintenant.

3.4

La compression d’images animées (MPEG) En 1990, le besoin de stocker sous forme numérique et de reproduire des images animées et le son stéréophonique associé sur diverses plates-formes a conduit à la formation par l’ISO d’un groupe d’experts (MPEG, Moving Picture Experts Group) venant de toutes les parties concernées par le problème (Informatique, Télécommunications, Électronique grand public, Semiconducteurs, Radiodiffusion, Universités). Le travail de ce groupe s’est concrétisé tout d’abord en 1992 par la norme ISO/IEC 11172, beaucoup plus largement connue sous le nom de MPEG-1. Le but principal était de permettre le stockage et la reproduction sur support CD-ROM (à l’époque à « simple vitesse » uniquement) ou CD-I, avec un débit de l’ordre de 1,5 Mb/s (image + son).

© Dunod. La photocopie non autorisée est un délit.

Outre la redondance spatiale intrinsèque d’une image fixe utilisée dans le codage JPEG, le codage d’images animées permet en effet d’exploiter la forte redondance temporelle des images successives qui constituent une séquence vidéo. Étant donné le taux de compression à atteindre (plus de 100 par rapport au format 4:2:2 de la norme CCIR 656 !), on réduit d’entrée de jeu la difficulté de la tâche en sacrifiant la résolution. Le format de départ des images sera donc le SIF (360 × 288 @ 25 Hz ou 360 × 240 @ 30 Hz), dont la résolution correspond à peu près à celle d’un magnétoscope grand public. Ces images pourront être éventuellement accompagnées d’un son stéréophonique haute-fidélité similaire à celui de la norme MUSICAM définie pour la radio numérique DAB (Digital Audio Broadcasting).

37

9782100520442-Livre.fm Page 38 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Nous examinerons les principes du codage audio dans le chapitre suivant qui lui est consacré. La norme MPEG-1 se compose de 3 parties distinctes : • MPEG system (ISO/IEC 11172-1) : définit la structure du multiplex MPEG-1 ; • MPEG video (ISO/IEC 11172-2) : définit le codage vidéo MPEG-1 ; • MPEG audio (ISO/IEC 11172-3) : définit le codage audio MPEG-1.

3.4.1 Le codage vidéo MPEG-1 (applications multimédia) Le principal objectif était d’atteindre un débit constant total de 1,5 Mb/s (débit d’un CD-ROM simple vitesse) dont 1,15 Mb/s pour la partie purement vidéo de MPEG-1, les 350 Kb/s restants étant utilisés par le son (stéréo) et des données auxiliaires. Le codage vidéo utilise les mêmes principes que JPEG avec pertes, auxquels sont adjointes de nouvelles techniques formant ensemble la « boîte à outils » MPEG-1 et permettant de réduire considérablement la quantité d’informations nécessaire à la transmission d’images successives fortement corrélées temporellement.

38

Ces techniques dites de « prédiction avec compensation de mouvement » consistent à permettre de déduire avec un minimum d’informations additionnelles la plupart des images de celles qui les précèdent (et même qui les suivent !), nous verrons comment plus loin. Ceci nécessite dans le codeur un dispositif d’estimation de mouvement, qui est la partie la plus complexe (cette fonction n’est heureusement pas nécessaire dans le décodeur). S’agissant d’images animées, le décodage devra pouvoir se faire en « temps réel » lors de la reproduction, donc presque obligatoirement en hardware… pour le moment du moins. Le codage, beaucoup plus complexe, pourra se faire éventuellement en plusieurs « passes » dans les applications où le temps réel n’est pas indispensable et où la qualité prime (par exemple gravure de disques) mais devra se faire en « temps réel » (ce qui ne veut pas dire nul) pour la plupart des applications, en particulier celles de transmission en « direct ». La réalisation pratique du codeur est donc un compromis entre rapidité, taux de compression, qualité et complexité… D’autre part, la nécessité d’un temps de synchronisation et d’une résolution d’accès aléatoire à une séquence pas trop longs (0,5 seconde maximum) limite le nombre d’images pouvant dépendre d’une même première à une dizaine ou une douzaine pour un système à 25 images par seconde.

9782100520442-Livre.fm Page 39 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA



COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

Les types d’images MPEG

MPEG définit 3 types d’images 1 qui s’enchaînent selon le schéma de la figure 3.8.

Figure 3.8 – Enchaînement des trois types d’images MPEG

© Dunod. La photocopie non autorisée est un délit.

39

• les images I (Intra) sont codées sans aucune référence à d’autres images, comme en JPEG, c’est-à-dire qu’elles contiennent tous les éléments nécessaires à leur reconstruction par le décodeur, et sont de ce fait le point d’entrée obligatoire lors de l’accès à une séquence. Le taux de compression des images I est relativement faible (comparable à celui de JPEG avec pertes) ; • les images P (Prédites) sont codées par rapport à l’image de type I ou P précédente, grâce aux techniques de prédiction avec compensation de mouvement. La compensation de mouvement n’étant pas parfaite, on ne pourra multiplier indéfiniment le nombre d’images P entre deux images I, car, étant utilisées pour coder d’autres images P ou B, elles propagent donc en l’amplifiant toute erreur de codage. Leur taux de compression est nettement plus important que celui des images I ; 1. Un 4e type d’images dites D (grossières et de décodage simple, car elles n’utilisent que le coefficient DC de la DCT) est prévu par la norme MPEG-1. Elles sont destinées à être utilisées pour se déplacer à grande vitesse à l’intérieur de la séquence.

9782100520442-Livre.fm Page 40 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

• les images B (Bidirectionnelles) sont codées par interpolation entre les deux images de type I ou P précédente et suivante qui les encadrent. Comme elles ne sont pas utilisées pour définir d’autres images, les images B ne propagent donc pas les erreurs de codage. C’est ce type d’images qui offre le taux de compression le plus fort. Selon la complexité du codeur utilisé, on pourra ne coder que des images I, des images I et P ou des images I, P et B, avec bien sûr des résultats très différents au niveau du taux de compression et des possibilités d’accès aléatoire (donc de montage également), mais aussi du temps de codage et de la qualité perçue. Deux paramètres M et N définissent la manière dont les images I, P et B s’enchaînent : • M est la distance (en nombre d’images) entre deux images P successives ; • N est la distance entre deux images I successives. Pour atteindre un débit vidéo de 1,15 Mb/s avec une qualité satisfaisante tout en gardant une résolution d’accès aléatoire acceptable (< 0,5 s), les paramètres les plus couramment utilisés sont M = 3 et N = 12 (figure 3.9). 40

Figure 3.9 – Exemple de groupe d’images M = 3, N = 12

Dans ce cas, une séquence vidéo est composée de 1/12 (8,33 %) d’images I, 1/4 (25 %) d’images P et 2/3 (66,66 %) d’images B : le taux de compression global est favorisé par le fait que ce sont les images les plus fréquentes qui ont le taux de compression le plus élevé. À l’affichage, après codage et décodage, les images de la séquence vidéo doivent naturellement être reproduites dans le même ordre que celui de la prise de vue. Avec les paramètres définis ci-avant (M = 3, N = 12), le mode de codage des images successives se traduit par la correspondance numéro ? (type d’image) ci-dessous :

9782100520442-Livre.fm Page 41 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

1(I) 2(B) 3(B) 4(P) 5(B) 6(B) 7(P) 8(B) 9(B) 10(P) 11(B) 12(B) 13(I) 14(B) 15(B) 16(P)… Cependant, pour coder ou décoder une image B (Bidirectionnelle), le codeur et le décodeur auront besoin de l’image I ou P qui la précède et de l’image P ou I qui la suit. L’ordre des images sera donc modifié avant le codage de sorte que codeur et décodeur disposent, avant les images B, des images I et/ou P nécessaires à leur traitement, soit : 1(I) 4(P) 2(B) 3(B) 7(P) 5(B) 6(B) 10(P) 8(B) 9(B) 13(I) 11(B) 12(B) 16(P) 14(B) 15(B)… L’augmentation du taux de compression procuré par les images B se paie donc par un temps de codage/décodage plus long (durée de deux images), et une augmentation de la taille mémoire nécessaire dans le codeur comme dans le décodeur (stockage d’une image supplémentaire).



Décomposition en couches d’une séquence vidéo MPEG

MPEG définit également une hiérarchie de « couches » (layers) à l’intérieur d’une séquence d’images, illustrée par la figure 3.10.

© Dunod. La photocopie non autorisée est un délit.

41

Figure 3.10 – Hiérarchie de couches de la séquence au bloc

On trouve en partant du niveau le plus haut : • séquence : couche la plus élevée, elle détermine le contexte dans lequel cette séquence est définie (paramètres vidéo de base tels que norme de balayage, etc.) ;

9782100520442-Livre.fm Page 42 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

• groupe d’images (Group Of Pictures ou GOP) : c’est la couche permettant l’accès aléatoire à la séquence, avec une première image de type I. Dans le cas décrit ci-avant, le groupe d’images en comporte 12 (1 × I, 3 × P et 8 × B) ; • image (picture), de type I, P ou B : c’est la couche d’affichage élémentaire ; • tranche (slice) : est définie comme une suite de macroblocs contigus ; l’ensemble des slices doit couvrir toute l’image, sans chevauchement entre elles. Une slice peut théoriquement aller d’un seul macrobloc à l’image entière, mais en pratique, il s’agira le plus souvent d’une rangée horizontale complète de macroblocs ; • macrobloc (macroblock) : de taille 16 × 16 pixels (4 blocs de luminance et 2 blocs de chrominance 1 × Cr et 1 × Cb, chacun de 8 × 8 pixels, figure 3.11) : c’est la couche où s’effectue la prédiction avec compensation de mouvement ; • bloc (block) : de 8 × 8 pixels ; c’est, comme en JPEG, la couche ou s’effectue la DCT.

42

Figure 3.11 – Composition d’un macrobloc 4:2:0. O : échantillons de luminance, * : échantillons Cb ou Cr

9782100520442-Livre.fm Page 43 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

En raison du découpage de l’image en un nombre entier de macroblocs de 16 × 16, la définition horizontale de MPEG-1 est réduite à 352 pixels en luminance (22 macroblocs) et non pas 360 comme pour l’image SIF d’origine (en effet, 360 n’est pas multiple de 16). La résolution de MPEG-1 est donc 352 × 288 @ 25 Hz (soit 22 × 18 = 396 macroblocs) pour les images dont l’origine est à 625 lignes et 352 × 240 @ 30 Hz (22 × 15 = 330 macroblocs) pour les images d’origine 525 lignes.



L’estimation et la compensation de mouvement

Entre deux images successives, les objets en mouvement entraînent une différence entre les zones correspondant au départ sur la première image et à l’arrivée sur la deuxième. Il n’y a pas de corrélation temporelle évidente entre ces zones. L’estimation de mouvement consiste donc à trouver un vecteur assurant la correspondance entre une zone d’arrivée sur la deuxième image et une zone de départ sur la première.

© Dunod. La photocopie non autorisée est un délit.

Cette recherche se fait au niveau du macrobloc (16 × 16 pixels), en déplaçant, à l’intérieur d’une fenêtre de recherche, un macrobloc de l’image en cours au voisinage de cette position dans l’image précédente de manière à trouver le plus ressemblant (Block Matching), ce qui donne un vecteur de mouvement (figure 3.12), qui s’appliquera à toutes les composantes du macrobloc (Y, Cb, Cr).

Figure 3.12 – Représentation schématique de la compensation de mouvement

43

9782100520442-Livre.fm Page 44 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Seuls les macroblocs différant d’une image à l’autre auront ainsi besoin d’être codés, d’où une réduction significative de la quantité d’information à transmettre. Cette comparaison se faisant entre une image P et une image I ou deux images P, les vecteurs de mouvement peuvent être d’amplitude relativement importante (en raison de la distance entre ces deux images, 3 dans le cas M = 3, N = 12). Pour les images B, les vecteurs intermédiaires sont obtenus par une interpolation qui tient compte de leur position temporelle entre les images I et/ou P (figure 3.12). On calcule ensuite la différence entre le bloc à coder et le bloc que l’estimation de mouvement a trouvé le plus proche, et cette différence est transmise après un codage similaire à celui des blocs des images I (DCT, quantification, VLC). La taille moyenne des objets étant supérieure au macrobloc, il y a généralement corrélation entre les vecteurs de mouvement associés à deux macroblocs contigus, d’où l’intéret d’utiliser une méthode de codage différentielle (DPCM) avec codage entropique pour transmettre ces vecteurs. Si pour un bloc donné la compensation de mouvement n’a pas donné de résultat exploitable, ce qui est relativement peu fréquent, le bloc est codé en Intra.

✦ 44

Régulation de débit

Pour s’adapter aux contraintes du canal (de transmission ou d’enregistrement/lecture) et du buffer d’entrée spécifié pour le décodeur MPEG de référence, le débit doit généralement être constant en sortie du codeur 1. Ceci n’est pas garanti par le processus que nous avons décrit jusqu’ici, étant donné la nature très diverse des images à coder et la variabilité des mouvements qu’elles contiennent. Pour réguler le débit en sortie du codeur, on utilise en fin de processus une mémoire tampon (FIFO) dont on surveille l’état de remplissage de manière à le

1. Dans le cas des émissions TV, plusieurs programmes sont transmis dans un seul canal (voir chapitre suivant « multiplexage des signaux »). Dans ce cas, le codage à débit constant dit CBR (Constant Bit Rate) est avantageusement remplacé par un codage à débit variable dit VBR (Variable Bit Rate) dans lequel le débit instantané alloué à un programme peut varier en fonction des besoins (mouvements dans l’image). L’allocation de débit instantané à chacun des programmes du multiplex doit bien sûr tenir compte des besoins en débit des autres programmes au même moment. Comme il est peu probable que tous les programmes nécessitent simultanément un débit maximum, ceci permet la plupart du temps d’accorder un débit plus élevé à un programme lors de mouvements importants dans la scène sans atérer la qualité des autre programmes. Ce type de codage est connu sous le nom de multiplexage statistique.

9782100520442-Livre.fm Page 45 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

maintenir entre certaines limites en jouant sur la résolution des coefficients de quantification, dont l’influence sur le débit est majeure. On peut ainsi obtenir un débit constant, avec une résolution qui variera en fonction du contenu de l’image (plus elle sera mouvementée, moins bonne sera sa résolution). La figure 3.13 donne un schéma synoptique du codeur MPEG (qui ne donne qu’une faible idée de sa complexité réelle).

45

Figure 3.13 – Schéma simplifié du codeur MPEG-1

© Dunod. La photocopie non autorisée est un délit.

Le décodeur quant à lui, n’ayant pas à accomplir d’estimation de mouvement, est beaucoup plus simple (figure 3.14), ce qui était l’un des objectifs essentiels lors de la définition de la norme.

Figure 3.14 – Schéma simplifié du décodeur MPEG-1

9782100520442-Livre.fm Page 46 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

3.4.2 Le codage vidéo MPEG-2 (applications broadcast) Les normes européennes qui couvrent la télédiffusion sont le résultat des travaux, démarrés en 1991, du groupe de travail ELG devenu DVB, dont l’objectif principal était la définition d’un système de télévision numérique pour diffusion par satellite, câble ou réseau terrestre. MPEG-2 constitue la norme pour le codage de source du système défini par le DVB. MPEG-2 peut être décrite comme une « boîte à outils » de compression plus complexe que MPEG-1, dont elle peut également être considérée comme un surensemble : en effet, elle en reprend tous les outils en y ajoutant d’autres. De plus, la norme prévoit en effet la compatibilité ascendante, ce qui signifie qu’un décodeur MPEG-2 doit pouvoir décoder des trains élémentaires à la norme MPEG-1. Comme pour MPEG-1, la norme se compose de 3 parties : • MPEG-2 System (ISO/IEC 13818-1) ; • MPEG-2 Video (ISO/IEC 13818-2) ; • MPEG-2 Audio (ISO/IEC 13818-3). 46



Profils et niveaux MPEG-2

MPEG-2 comporte 5 profils (profiles) qui déterminent le jeu d’outils de compression utilisé, donc le compromis entre taux de compression et coût du décodeur et 4 niveaux (levels) définissant la résolution de l’image, qui s’étage de la résolution SIF à la haute définition. Certaines combinaisons de profils et niveaux de peu d’intéret ne seront pas utilisées. La figure 3.15 illustre les différents niveaux et profils et leurs principales caractéristiques. Pour ce qui est des niveaux, leur signification est la suivante : • le niveau low (bas) correspond à la résolution SIF utilisée en MPEG-1 ; • le niveau main (principal) correspond à la résolution 4:2:0 « normale » (jusqu’à 720 × 576) ; • le niveau high-1440 (haut-1440) est destiné à la TVHD (jusqu’à 1 440 × 1 152) ; • le niveau high (haut) est optimisé pour la TVHD (jusqu’à 1 920 × 1 152). En ce qui concerne les profils, c’est un peu plus compliqué :

9782100520442-Livre.fm Page 47 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

© Dunod. La photocopie non autorisée est un délit.

Figure 3.15 – Niveaux et profils MPEG-2 (source : DVB Project Office)

• le profil simple est destiné à simplifier le codeur et le décodeur, au détriment du taux de compression, en n’utilisant pas de prédiction de type B (bidirectionnelle) ; • le profil main correspond actuellement au meilleur compromis qualité/taux de compression, en utilisant les 3 types d’images (I, P, B), au prix d’un codeur et d’un décodeur plus complexes ; • les profils scalable (codage hiérarchique) sont prévus pour des utilisations ultérieures et permettront de transmettre une image de base (base layer) en terme de résolution spatiale (spatially scalable profile) ou de quantification (SNR scalable profile) ainsi que des informations supplémentaires séparées (enhanced layer) permettant d’améliorer ses caractéristiques, par exemple pour transmettre la même émission en définition standard et HD ou permettre une réception de qualité acceptable en cas de réception difficile et de qualité optimale dans de bonnes conditions (par exemple pour la télévision numérique terrestre) ; • le profil high est prévu pour des applications de télédiffusion HDTV (format 4:2:0 ou 4:2:2). Il y a compatibilité ascendante entre les profils, et un décodeur d’un profil déterminé pourra décoder tous les profils inférieurs (à gauche sur la figure 3.15).

47

9782100520442-Livre.fm Page 48 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

La combinaison la plus importante à court terme, car c’est celle retenue pour les applications de télédiffusion numérique grand public en Europe, est dite main profile at main level (MP@ML). Elle correspond au codage d’images entrelacées au format 4:2:0, de résolution 720 × 480/30 Hz ou 720 × 576/25 Hz avec une « boîte à outils » permettant le codage d’images de type I, P et B. Selon le compromis qualité/débit recherché et la nature des images, le débit sera compris entre 4 Mb/s (qualité à peu près équivalente à celle d’une image codée en PAL ou SECAM) et 9 Mb/s (qualité voisine d’une image de studio CCIR 601). Tout le processus de codage des images animées décrit dans le paragraphe précédent pour MPEG-1 s’applique à MPEG-2 (MP@ML), notamment la hiérarchie de couches (du bloc à la séquence de la figure 3.10), mis à part la résolution d’origine et le traîtement des images entrelacées que nous verrons ci-dessous. Une différence est à noter pour les slices : en MPEG-2, elles ne couvrent pas nécessairement toute l’image, et elles doivent de plus se composer uniquement de macroblocs contigus situés sur la même ligne horizontale (figure 3.16). 48

Outre niveaux et profils, par rapport à MPEG-1, la principale nouveauté et complication supplémentaire vient du traîtement des images entrelacées. Celles-ci, pour un résultat optimum, pourront être traitées de manière différente selon l’importance des mouvements entre les deux trames d’une même image

Figure 3.16 – Exemple de tranches (slices) MPEG-2

9782100520442-Livre.fm Page 49 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

(les cas extrêmes sont d’un côté le télécinéma, où il n’y a pas de mouvement entre les deux trames TV qui proviennent de l’analyse de la même image cinéma, et de l’autre les images vidéo de manifestations sportives où l’on peut trouver des mouvements importants entre les deux trames d’une même image).



Modes de prédiction spécifiques à MPEG-2 (images entrelacées)

La figure 3.17 représente la séquence temporelle de la position verticale des lignes des trames successives dans un système entrelacé.

49

© Dunod. La photocopie non autorisée est un délit.

Figure 3.17 – Position des lignes de trames successives dans un système entrelacé

Pour le codage intra des images entrelacées, MPEG-2 permet de choisir entre deux structures d’images dites frame (structure image) ou field (structure trame) :



La structure image (appelée aussi « progressive »)

Elle est appropriée aux cas où il y a peu de mouvement entre deux trames successives. Les blocs et macroblocs sont découpés dans l’image complète (figure 3.18), et la DCT s’effectue donc sur des points verticaux distants de 20 ms dans le temps, ce qui ne pose pas de problème si les deux trames diffèrent peu. Dans ce cas, il reste toutefois possible de coder les blocs les plus animés en mode inter-trame, c’est-à-dire en les découpant dans une trame.

9782100520442-Livre.fm Page 50 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 3.18 – Découpage des blocs dans les macroblocs en mode image (frame)



La structure trame (appelée aussi « entrelacée »)

Elle est préférable lorsque le mouvement est important d’une trame à l’autre : dans ce cas, afin d’éviter un contenu en fréquences verticales élevées qui réduirait l’efficacité de la compression après DCT, le découpage des macroblocs est fait en considérant chacune des trames comme une image indépendante à l’intérieur de laquelle sont pris les blocs (figure 3.19). 50

En ce qui concerne l’estimation de mouvement, plusieurs modes sont également prévus. Un macrobloc peut être prédit en mode image, trame ou mixte. • Dans le mode image, un macrobloc formé dans la trame impaire sert à prédire un bloc correspondant dans la prochaîne trame impaire, et de même pour les blocs de la trame paire, et la prédiction se fait donc sur une durée de 40 ms (2 trames) ;

Figure 3.19 – Découpage des blocs dans les macroblocs en mode trame (field)

9782100520442-Livre.fm Page 51 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

• dans le mode trame, la prédiction d’un bloc est effectuée à partir d’un bloc de la trame précédente, et les vecteurs de mouvement correspondent alors à une durée de 20 ms ; • dans le mode mixte, les blocs sont prédits à partir de deux blocs appartenant à deux trames.



Description succincte du processus de codage MPEG-2

Tout comme en MPEG-1, la norme ne définit pas explicitement de méthode de codage, mais seulement la syntaxe régissant le train binaire en sortie du codeur, ce qui laisse une (trop ?) grande liberté à son concepteur. Le schéma-bloc de la figure 3.13 s’applique également au codeur MPEG-2. À partir de l’image numérisée au format 4:2:0 (cas du main profile), le codeur choisit pour chaque image son type (I, P ou B) et si elle doit être codée en mode frame ou field. Le codeur doit ensuite estimer les vecteurs de mouvement pour chaque macrobloc de 16 × 16 pixels. Le nombre de vecteurs dépend du type d’image et du mode de codage choisi pour chaque bloc. Dans le cas général où le codeur est capable de générer des images B (bidirectionnelles), il devra réordonner les images avant codage et transmission. L’unité de codage de base est le macrobloc, composé de 4 blocs de luminance de 8 × 8 pixels et (dans le cas du format 4:2:0) de 2 blocs de chrominance (un Cb et un Cr) de 8 × 8 pixels qui couvrent la même zone de l’image.

© Dunod. La photocopie non autorisée est un délit.

Tous les macroblocs de l’image sont codés en séquence de la gauche vers la droite et du haut vers le bas, et un mode de codage est choisi indépendamment pour chacun d’eux. Une fois le mode de codage choisi, la prédiction avec compensation de mouvement du contenu du bloc est faite à partir de l’image de référence (I ou P) passée (cas des images P) et éventuellement future (cas des images B). La prédiction est soustraite des données réelles du macrobloc, ce qui donne le signal d’erreur de prédiction. Dans une image à structure frame, le codeur devra choisir d’effectuer la DCT en mode frame ou field : ceci dépend principalement de l’amplitude du mouvement entre les deux trames de l’image. Le signal d’erreur est ensuite séparé en blocs de 8 × 8 auxquels la DCT est appliquée. Chaque bloc de coefficients résultant est quantifié et balayé en zigzag pour former une suite de coefficients. L’information auxiliaire nécessitée par le décodeur pour reconstruire le bloc (mode de codage, vecteurs de mouvement…) est codée et les coefficients quantifiés sont codés en utilisant une table VLC (codage de Huffman).

51

9782100520442-Livre.fm Page 52 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Une unité de contrôle de débit surveille l’état de remplissage du FIFO de sortie, et utilise cette information en retour pour contrôler le nombre de bits que le codeur générera pour les blocs suivants, en jouant principalement sur les coefficients de quantification. On obtient alors en sortie du codeur un train binaire complet utilisable par un décodeur. Pour augmenter la qualité de l’image décodée, le codeur lui-même stocke et décode (déquantification des coefficients puis DCT inverse) les images I et P, référence pour reconstruire d’autres images obtenues par prédiction avec compensation de mouvement dans le décodeur, et calcule un signal d’erreur qui est ajouté au signal de prédiction.



Description succincte du décodage MPEG-2

Comme nous l’avons déjà dit, le décodage est plus simple que le codage, car il n’a pas à effectuer d’estimation de mouvement qui est l’une des parties les plus complexes du codeur. Le schéma-bloc du décodeur de la figure 3.14 reste valable pour MPEG-2. 52

Le tampon (buffer) d’entrée reçoit les données du canal de transmission, et le décodeur lit le train binaire jusqu’à trouver le début d’une image, son type (I, P ou B) et sa structure (frame ou field). Il débute le décodage à la première image I qu’il doit stocker en mémoire, ainsi que l’image P suivante pour servir de référence aux images P ou B qui en dépendent. Pour les images I, le décodage proprement dit consiste à appliquer à chaque bloc le décodage VLC, la déquantification des coefficients et la transformation DCT inverse. Pour les images P ou B, il consiste à construire la prédiction de chaque macrobloc à partir de son type, des vecteurs de mouvement et des images de référence en mémoire. Le décodeur lit, décode et déquantifie les coefficients DCT de l’erreur de prédiction transmise pour chaque bloc de 8 × 8, et après transformation DCT inverse, ajoute le résultat à la prédiction. L’image est reconstruite lorsque tous les macroblocs ont été traités. La dernière étape du décodage est la remise des images dans l’ordre initial d’affichage. Comme on l’a vu plus haut, le besoin de mémoire pour le décodeur est d’environ 3 images (deux images de référence et l’image en cours de reconstruction), soit pour une image 4:2:0 environ 16 Mbits (sans « astuce » particulière : un peu plus en 625 lignes et un peu moins en 525) !

9782100520442-Livre.fm Page 53 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

3.4.3 La norme de compression MPEG-4.10 ou H264/AVC Cette nouvelle norme de compression vidéo est issue des travaux d’une équipe commune (JVT, Joint Video Team) composée de membres du Video Coding Expert Group (VCEG) de l’ITU-T et du Motion Pictures Expert Group (MPEG) de l’ISO-IEC, d’où sa double appellation de H264 et MPEG-4.10. L’appellation H264/AVC (Advanced Video Coding) est également souvent utilisée. Cette norme, enregistrée sous le N° ISO-IEC14496-10, présente l’avantage d’augmenter considérablement l’efficacité de la compression (gain d’au moins 50 % par rapport à MPEG-2), ce qui est particulièrement intéressant en vue de la télévision à haute définition (TVHD) qui en MPEG-2 demande une bande passante de 15 à 18 Mb/s. C’est pourquoi en Septembre 2004, le DVB a autorisé et défini son utilisation en alternative au MPEG-2 pour la télévision par satellite, câble, terrestre ou tout autre moyen de transmission à large bande (ADSL par exemple).

© Dunod. La photocopie non autorisée est un délit.

Le standard H264/AVC se compose de deux « couches » : une couche de codage vidéo (Video Coding Layer ou VCL) dont le rôle est de représenter de façon la plus compacte possible le contenu vidéo et une couche d’abstraction du réseau (Network Abstraction Layer ou NAL) qui formate la représentation VCL de manière la plus appropriée à sa destination (transport ou stockage). • La couche NAL formate les données issues du codage VCL en « unités NAL » qui contiennent un nombre entier d’octets. Selon la destination du stream généré (transport stream ou bitstream pur), les unités NAL sont ou non précédées d’un préfixe de démarrage. • La partie VCL représente le codage proprement dit de H264. Tout comme MPEG-1 et 2, c’est un hybride de prédiction inter-images, qui exploite les dépendances statistiques temporelles et les dépendances statistiques spatiales (intra image) au moyen d’un codage par transformée du résidu de prédiction. Comme MPEG-2, H264 supporte le codage d’images au format 4:2:0 entrelacées ou progressives, mais dans le cas de H264 une séquence peut comporter les deux types d’images. Les dernières extensions de la norme (FRExt) permettent aussi de coder des images au format 4:2:2 et 4:4:4 avec différents espaces de couleur (YCBCR, RGB, YCGCO) et autorisent une précision supérieure à 8 bits (10 ou 12) pour les échantillons vidéo. L’amélioration très importante de l’efficacité du codage H264 par rapport à MPEG-2 ne provient pas de l’adoption d’un algorithme « révolutionnaire » mais d’une somme d’améliorations relativement peu importantes prises séparément.

53

9782100520442-Livre.fm Page 54 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

C’est l’utilisation combinée : • de modes de prédiction plus sophistiqués, qui peuvent varier à l’intérieur même d’une image et se référer à un nombre plus important d’images successives, • d’une transformée entière au lieu de la DCT pouvant porter sur des blocs 4*4 ou 8*8, • d’un codage entropique adaptatif plus efficace (CAVLC et CABAC), qui permet d’atteindre ce résultat. Le codage entropique est « adapté au contexte » et peut utiliser deux modes dont l’un appelé CABAC (Context Adaptative Binary Arithmetic Coding) permet à lui seul de réduire d’environ 10 à 15 % le débit nécessaire au codage d’une image à qualité égale par rapport à l’autre dit CAVLC (Context Adaptative Variable Length Coding), qui est déjà plus performant que le simple VLC de MPEG-2. L’utilisation de nouveaux outils (PicAFF, Picture Adaptive Frame Field et MBAFF, MacroBlock Adaptive Frame Field) permet un meilleur traitement des images entrelacées. 54

Enfin, un filtre de « déblocage » permet de diminuer sensiblement la visibilité des blocs – un défaut commun à la plupart des systèmes de compression vidéo – et en conséquence de réduire d’environ 5 à 10 % le débit à qualité d’image subjective égale. Tout comme MPEG-2, H264/AVC comporte plusieurs profils et niveaux. Les profils définissent la complexité du jeu d’outils de codage utilisé, résumés dans le tableau 3.1. En ce qui concerne les niveaux, ils correspondent à la résolution et s’échelonnent de 1 (QCIF) à 5 (1k * 2k), avec de nombreux niveaux intermédiaires. La haute définition « grand public » (1080i ou 720p) correspond aux niveaux 4 et 4.1. Le tableau 3.2 caractérise les différents niveaux.

9782100520442-Livre.fm Page 55 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

Tableau 3.1 – Outils de codage des différents profils de la norme H264

© Dunod. La photocopie non autorisée est un délit.

55

Tableau 3.2 – Les différents niveaux de la norme H264

9782100520442-Livre.fm Page 56 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

3.5

La compression des signaux audio L’utilisation de l’audio numérique est devenue courante pour le grand public depuis l’apparition du disque compact (CD) au début des années 1980. Le but étant d’obtenir une qualité haute-fidélité, une bande passante d’au moins 20 kHz était nécessaire, ce qui impliquait donc une fréquence d’échantillonnage supérieure à 40 kHz ; c’est une valeur de 44,1 kHz qui a finalement été retenue. Il fallait également assurer un rapport signal/bruit et une dynamique élevés (supérieurs à 80 dB). La numérisation d’un signal analogique (Pulse Code Modulation, PCM), introduit un « bruit de quantification » correspondant à l’incertitude sur le bit de poids le plus faible, ce qui se traduit par un rapport signal/bruit de 6 dB par bit de quantification, soit 96 dB avec la numérisation sur 16 bits retenue. Il en résulte un débit de 44,1 × 16 × 2 = 1 411,2 Kb/s pour un signal stéréophonique ! Un tel débit est acceptable sans compression pour le Compact Disc audio, car sa capacité de 640 Mo permet d’assurer dans ces conditions environ 74 minutes de son stéréophonique haute-fidélité.

56

Deux autres fréquences d’échantillonnage sont couramment utilisées : 32 kHz (D2-MAC, NICAM, télécommunications…) et 48 kHz (enregistrement de studio, cassette audio numérique DAT…). Tout comme la cassette audio numérique DCC, les normes MPEG-1 et 2 prévoient la possibilité d’utiliser comme source des signaux audio échantillonnés à l’une des 3 fréquences ci-dessus. Les débits qu’elles procurent sont évidemment quelque peu différents, mais restent du même ordre de grandeur (de 1 à 1,5 Mb/s), bien trop élevés pour l’utilisation telle quelle en son d’accompagnement d’une image codée à la norme MPEG-1 ou MPEG-2. Comme pour la vidéo, on est donc confronté au besoin de comprimer les données issues de la numérisation du signal audio.

3.5.1 Principes de la compression audio MPEG À l’origine des travaux du groupe MPEG audio, il n’y avait pas moins de 14 propositions différentes, classées en 4 groupes, dont 2 seulement (MUSICAM et ASPEC) ont été retenues pour servir de base à la spécification finale.

9782100520442-Livre.fm Page 57 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

Là encore, on exploite les « faiblesses » de l’audition humaine pour réduire le nombre d’informations à transmettre sans détériorer de façon perceptible la qualité du signal audio. On a depuis très longtemps remarqué que l’oreille présentait un maximum de sensibilité entre 1 et 5 kHz. La courbe de sensibilité, qui représente le seuil d’audibilité d’un signal en fonction de sa fréquence en l’absence de signal « perturbateur », est représentée à la figure 3.20 où le signal A est audible puisqu’il dépasse le seuil de perception.

57

© Dunod. La photocopie non autorisée est un délit.

Figure 3.20 – Seuil d’audibilité en fonction de la fréquence

On a remarqué plus récemment que cette courbe était affectée en présence de signaux multiples : par exemple, dans le cas de deux signaux relativement proches en fréquence, le signal le plus fort fait remonter le seuil d’audibilité à son voisinage, ce qui a pour effet de rendre l’oreille moins sensible aux fréquences environnantes. La figure 3.21 représente ce cas, où le signal A, audible précédemment est maintenant masqué par le signal B voisin, plus puissant que A : on appelle cet effet masquage fréquentiel. Il existe également un effet de masquage temporel : un son de forte amplitude masque également des sons plus faibles le suivant ou le précédant immédiatement (figure 3.22). De nombreuses expérimentations ont permis de déterminer un modèle psychoacoustique de l’audition humaine, base de la conception d’un codeur dit « perceptuel »

9782100520442-Livre.fm Page 58 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 3.21 – Masquage fréquentiel (A masque par B)

58

Figure 3.22 – Masquage temporel

caractérisé par une courbe de masquage et une quantification variables en fonction des signaux à coder. Le principe du codage consiste à diviser la bande passante audio en 32 sousbandes de largeur identique au moyen d’un banc de filtres dits « polyphase ». Le signal de sortie d’un filtre de sous-bande, correspondant à une durée 32 échantillons PCM d’entrée est appelé échantillon de sous-bande. La figure 3.23 illustre le principe du codage perceptuel. Le modèle psycho-acoustique permet d’éliminer les signaux de sous-bande inférieurs au seuil du modèle psycho-acoustique (non perçus par l’auditeur) et définit

9782100520442-Livre.fm Page 59 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

Figure 3.23 – Principe du codage perceptuel

59

la précision de quantification nécessaire pour chacune des sous-bandes, de manière à ce que le bruit de quantification reste inférieur au seuil d’audibilité dans cette sous-bande. Les zones où l’oreille est la plus sensible peuvent ainsi être quantifiées avec plus de précision que les autres.

© Dunod. La photocopie non autorisée est un délit.

Les schémas-bloc très simplifiés d’un codeur et d’un décodeur MPEG audio sont représentés par la figure 3.24. L’analyse du signal pour déterminer la courbe de masquage et la quantification ne se fait pas à chaque échantillon PCM, mais dans un intervalle de temps appelé « trame » dont la durée est de 12 × 32 échantillons PCM (MPEG-1 couche I) ou 12 × 96 échantillons PCM (MPEG-1 couche II). Dans cet intervalle, le codeur évalue également l’amplitude du signal la plus élevée pour définir un facteur d’échelle (scaling factor) qui sera codé sur 6 bits (couvrant ainsi une plage dynamique de 128 dB par pas de 2 dB). Tous les éléments nécessaires au décodage du son seront fournis au niveau de la trame, qui constitue ainsi l’unité la plus petite pour l’accès aléatoire (comparable au groupe d’images en vidéo).

9782100520442-Livre.fm Page 60 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

60

Figure 3.24 – Schéma théorique du codeur MPEG audio (en haut) et du décodeur MPEG audio (en bas)

9782100520442-Livre.fm Page 61 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

3.5.2 Les couches du codage audio MPEG-1 Les normes MPEG audio définissent trois couches (layers) de codage, qui diffèrent par leur taux de compression pour une qualité audio perçue donnée. La norme de télévision numérique DVB prescrit pour le son l’utilisation des couches I et II de la spécification MPEG-1 audio 1 qui prévoit quatre modes de transmission principaux : • stereo : les voies G et D sont codées de manière complètement indépendante ; • joint_stereo : exploitation de la redondance entre les voies gauche et droite afin de réduire le débit (avec deux codages possibles : intensity_stereo ou MS_stereo 2) ; • dual_channel : deux voies son indépendantes (par exemple son bilingue) ; • mono : une seule voie son.



La couche I ou pré-MUSICAM

Elle utilise l’algorithme PASC (Precision Adaptive Subband Coding) développé par PHILIPS pour sa cassette audio numérique (DCC). Elle utilise un débit fixe parmi 14 possibles (de 32 à 448 Kb/s) ; la qualité hautefidélité nécessite 192 Kb/s par voie audio (384 Kb/s en stéréo). Son avantage principal est la relative simplicité d’implémentation du codeur et du décodeur.

© Dunod. La photocopie non autorisée est un délit.

La quantification des coefficients de sous-bande est définie pour toute la durée de la trame par un nombre de 4 bits permettant un codage sur 0 à 15 bits pour chaque sous-bande, ainsi que le facteur d’échelle sur 6 bits.

1. La norme MPEG-2 audio reprend l’essentiel de MPEG-1 et prévoit en outre une possibilité d’extension « multicanaux » permettant la transmission de son à voies multiples (par exemple « Surround sound » à 5 voies) tout en restant compatible avec le mode stéréo MPEG-1 de base, ce qui permet une évolution ultérieure de la spécification DVB. Des données supplémentaires « ancillary_data » se trouvent à la fin de la trame et font appel à des paquets d’extension avec des PID différents. Ces données sont ignorées par un décodeur MPEG-1 audio standard et traitées dans un décodeur MPEG-2 par une extension complémentaire. Le principe de codage/décodage surround compatible MPEG-1 est illustré à la figure 3.25. La norme MPEG-2 audio prévoit de plus la possibilité d’utiliser des fréquences d’échantillonnage égales à la moitié des valeurs standard (16 kHz / 22,05 kHz / 24 kHz), doublant ainsi la durée des trames et divisant le débit par deux, au prix bien sûr d’une bande passante réduite de moitié. 2. Pour les couches I et II, seul le codage « intensity_stereo » est autorisé en mode joint_stereo ; seule la couche III autorise les deux modes, éventuellement combinés.

61

9782100520442-Livre.fm Page 62 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

62 Figure 3.25 – Processus d’encodage/décodage surround compatible MPEG-1



La couche II

Son algorithme est connu sous le nom de MUSICAM, est le standard retenu pour la radio (DAB) et la télévision (DVB) numériques européennes. Elle permet d’obtenir une qualité équivalente avec un débit moindre (réduction de 30 à 50 %) que pour la couche I, au prix d’un accroissement modéré de la complexité du codeur et du décodeur. Le débit, fixe, peut être choisi de 32 à 192 Kb/s par voie, la qualité subjective « HiFi » étant obtenue à partir de 128 Kb/s par voie, soit 256 Kb/s en stéréo. Le modèle psycho-acoustique utilisé est le même que pour la couche I, mais la trame a une durée triple, ce qui réduit la proportion des bits « système », et la quantification des coefficients de sous-bande a une résolution dégressive (quantification définie sur 4 bits pour les bandes basses, 3 bits pour les moyennes, 2 bits pour les plus élevées) au lieu du format uniforme sur 4 bits de la couche I. D’autre part, 3 échantillons de sous-bande consécutifs peuvent éventuellement être regroupés en « granules » pour être codés par un seul coefficient, d’où la réduction de débit.

9782100520442-Livre.fm Page 63 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA



COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

La couche III

C’est le fameux format MP3, qui utilise un modèle psycho-acoustique différent dit « modèle 2 », un codage de Huffman et une analyse du signal basée sur la DCT au lieu du codage en sous-bandes des couches I et II. Les deux types de codages joint_stereo sont autorisés. Elle permet le débit variable et un taux de compression environ 2 fois plus élevé que la couche 2, au prix d’une complexité nettement supérieure du codeur et du décodeur, ainsi que d’un temps de codage/décodage plus long. La qualité HiFi est obtenue dès 64 Kb/s par voie (128 Kb/s en stéréo). Elle est principalement destinée aux applications sur réseaux à faible débit (par exemple RNIS) et son utilisation n’étant pas prévue actuellement par DVB, nous ne la détaillerons donc pas. Comme dans le cas des profils et niveaux MPEG video, les couches MPEG audio bénéficient d’une compatibilité ascendante entre elles, c’est-à-dire qu’un décodeur couche III pourra également décoder les couches I et II, et qu’un décodeur couche II décodera normalement la couche I.

3.5.3 Format général de la trame MPEG audio La trame constitue l’unité d’accès élémentaire à une séquence audio MPEG (les notions de séquence et d’unité d’accès seront développées au chapitre suivant). Une trame (couche I, II ou III) se décompose en 4 parties : • • • • © Dunod. La photocopie non autorisée est un délit.



en-tête de 32 bits (header) ; parité sur 16 bits (CRC) ; données audio (AUDIO), longueur variable ; données auxiliaires (AD, ancillary data), longueur variable.

Cas de la couche I

La trame MPEG audio couche I se compose de 384 échantillons PCM audio d’entrée. Le nombre d’échantillons PCM étant indépendant de la fréquence d’échantillonnage, la durée de la trame est inversement proportionnelle à la fréquence d’échantillonnage. Celle-ci est de : 12 ms à 32 kHz ; 8,7 ms à 44,1 kHz ; 8 ms à 48 kHz. Remarques

L’en-tête transporte la synchronisation et les informations système, détaillées au tableau 1.3. La parité (CRC) est d’utilisation facultative.

63

9782100520442-Livre.fm Page 64 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 3.26 – Représentation simplifiée de la structure d’une trame MPEG audio couche I

Le champ « allocation de bits/ESB » (32 entiers codés sur 4 bits) définit la résolution de codage (de 0 à 15 bits) des échantillons de chacune des 32 sous-bandes. Le champ « facteur d’échelle » (32 entiers codés sur 6 bits) indique pour chaque sous-bande le facteur multiplicatif des échantillons ainsi quantifiés.



Cas de la couche II

La trame se compose dans ce cas de douze « granules » de 3 × 32 = 96 échantillons audio PCM, soit 1 152 échantillons au total. Sa durée est donc triple de celle de la couche I. C’est-à-dire : 36 ms à 32 kHz ; 26,1 ms à 44,1 kHz ; 24 ms à 48 kHz.

64

La structure de la partie « audio » diffère de la couche I en raison d’une affectation de bits plus complexe due aux options de codage plus nombreuses.

Figure 3.27 – Représentation simplifiée de la structure d’une trame MPEG audio couche II

Remarques

L’en-tête transporte la synchronisation et les informations système, détaillées au tableau 3.1. La parité (CRC) est d’utilisation facultative. Le champ « allocation de bits/ESB » (32 entiers codés sur 2 à 4 bits selon la sousbande) définit la résolution de codage des échantillons de chacune des sousbandes et si ceux-ci sont ou non regroupés par 3. Le champ « SCFSI » (SCale Factor Selection Information) (32 entiers codés sur 2 bits) indique si le facteur d’échelle de sous-bande s’applique à toute la trame ou s’il y a 2 ou 3 facteurs d’échelle.

9782100520442-Livre.fm Page 65 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

Tableau 3.1 – Les champs de l’en-tête de trame MPEG audio (couches I à III)

Le champ « facteur d’échelle » (entiers codés sur 6 bits) indique le facteur multiplicatif des échantillons ainsi quantifiés pour la portion de trame définie par SCFSI.

3.5.4 Autres codages audio : Dolby Digital (AC3, DTS, e-AC3) Le son multicanal devenant plus important avec la généralisation des installations audio de type home cinéma (Home Theater), le DVB a ajouté à la norme la possibilité de transmettre un son de type 5.1 ou plus 1 utilisant le système Dolby Digital (AC3) ou DTS 2 et plus récemment Dolby Digital Plus (e-AC3).

© Dunod. La photocopie non autorisée est un délit.

Le son AC3, DTS ou e-AC3 est transmis sous forme de PES en tant que données privées et doit être signalisé s’il est présent. Des descripteurs DVB publics AC3 descriptor et DTS descriptor ont été définis à cet effet. L’e-AC3 est signalisé par certaines extensions au descripteur AC3. Pour les émissions en définition standard, le son de base MPEG-1 couche 2 (ISO/IEC11172-3) doit néanmoins toujours être transmis d’une part pour que le parc des récepteurs existants puisse recevoir en mono ou stéréo le son des programmes utilisant le son multicanal, d’autre part parce que le décodeur AC3 ou 1. 5.1 signifie 5 canaux à pleine bande passante (20 Hz à 20 kHz) : AV gauche, AR droite, AV centre, AR gauche et AR droite + 1 canal de basse à bande passante réduite (subwoofer, bande passante 3 Hz à 120 Hz) représenté par le chiffre 0.1. 2. Le DTS n’est pas utilisé actuellement en émission raison des débits élevés qu’il demande.

65

9782100520442-Livre.fm Page 66 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

DTS n’est en général pas inclus dans les récepteurs pour en réduire le coût et éviter d’avoir à payer deux fois les licences du système (ces décodeurs étant généralement inclus dans les amplificateurs home cinéma récents). Pour les émissions en HD de la TNT française, comme il n’y avait pas de contrainte de compatibilité avec un parc existant, le législateur a choisi de ne pas imposer la transmission du son MPEG et a laissé le libre choix aux chaînes qui, pour la plupart, ont choisi le nouveau format Dolby Digital Plus (e-AC3). De ce fait, les récepteurs TNT HD français doivent pouvoir décoder le son e-AC3 et pouvoir au minimum le fournir décodé sous forme stéréo analogique.



Dolby Digital (AC3)

Le Dolby Digital est un codage perceptuel basé sur les mêmes principes que le codage MPEG, qui offre l’avantage par rapport au MPEG-2 multicanal d’être utilisé depuis de nombreuses années dans les cinémas et plus récemment par les DVD vidéo, pour lesquels il est devenu le standard de fait. Il supporte des fréquences d’échantillonnage de 32, 44.1 et 48 KHz et des débits audio de 32 kb/s à 640 kb/s, et il peut coder l’audio sous forme mono, stéréo ou multicanal 5.1. 66

C’est également le codage audio unique retenu pour les standards américains ATSC (terrestre) et DSS (satellite). Son format très schématique est représenté ci-dessous : Sync

CRC1

Sy. info

BSI

Audio 1

Audio 2

Audio 3

Audio 4

Audio 5

Figure 3.28 – Vue schématique du décodeur AC3

Audio 6

Aux

CRC2

9782100520442-Livre.fm Page 67 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 3 – LA

COMPRESSION DES SIGNAUX VIDÉO ET AUDIO

La trame contient deux champs CRC (Cyclic redundancy Check) permettant de détecter les erreurs dans une trame. Le champ BSI indique la fréquence d’échantillonnage, le débit, le nombre de canaux codés, et les services disponibles (contrôle de dynamique, mode karaoke…). La « charge utile » (payload) se compose de six blocs audio de chacun 256 échantillons, soit un total de 1536 échantillons par trame. La durée effective de la trame dépend de la fréquence d’échantillonnage et du débit alloué.



Dolby Digital Plus (e-AC3)

Le Dolby Digital Plus (DD+), également appelé e-AC3 (enhanced AC3), est un nouveau format de compression audio numérique des laboratoires Dolby, incompatible avec le format antérieur AC3, par rapport auquel il apporte des améliorations visant à accroître la qualité pour un débit donné ainsi que le nombre de canaux audio. Il permet de transmettre jusqu’à 13 + 1 canaux audio avec un débit de pointe pouvant atteindre 6 144 Mb/s. Du fait de l’incompatibilité du flux e-AC3 avec la génération précédente de décodeurs et de sa bande passante potentiellement très élevée, la sortie SP-DIF des décodeurs e-AC3 vers un système home cinéma devra transcoder ce flux à un format antérieur (AC3, PCM ou DTS). Voici ses principales caractéristiques :

© Dunod. La photocopie non autorisée est un délit.

• Plage de débit codé : 32 kb/s à 6 144 Mb/s. • Configurations audio : de 1.0 à 13.1 (de la simple mono à 13 canaux + 1 canal de basse). • Fréquences d’échantillonnage : 32, 44,1 ou 48 kHz. • Précision d’échantillonnage : jusqu’à 24 bits. La spécification complète du système est publiée par l’ETSI sous la référence TS 102 366.

67

9782100520442-Livre.fm Page 68 Jeudi, 24. juin 2010 11:35 11

9782100520442-Livre.fm Page 69 Jeudi, 24. juin 2010 11:35 11

Chapitre 4 Multiplexage des signaux

4.1

Organisation du multiplex MPEG-1 (couche système)

© Dunod. La photocopie non autorisée est un délit.

Les codeurs audio et vidéo fournissent à leur sortie des trains élémentaires de données (Elementary Streams, ES) qui constituent la couche de compression (compression layer). Chaque train élémentaire se compose d’unités d’accès (Access Units, AU) qui sont les représentations codées des unités de présentation (Presentation Units, PU), c’est-à-dire les images ou les trames sonores décodées selon qu’il s’agit de vidéo ou d’audio. Ces trains de données, ainsi qu’éventuellement d’autres données dites privées (private data), doivent être combinés de façon ordonnée et augmentés de diverses informations permettant au décodeur de les séparer et d’assurer la synchronisation de l’image et du son à la reproduction. La partie 1 (système) de la norme ISO/IEC 11172 (MPEG-1) définit ainsi les règles pour la constitution d’une « couche système » (system layer) regroupant vidéo, audio et données privées en un seul train, ainsi que les contraintes sur les trains élémentaires permettant d’assurer cette combinaison. Les cinq fonctions de base de la couche système qui « entoure » (ou plutôt… empaquette) la couche de compression sont les suivantes : • synchronisation de trains élémentaires compressés multiples à la reproduction ; • combinaison de ces trains multiples en un seul train de données ;

69

9782100520442-Livre.fm Page 70 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

• initialisation des mémoires tampons (buffers) au début de la reproduction ; • gestion continue de ces buffers ; • enfin, identification du temps par des marqueurs (time stamps). Un ensemble de codage MPEG-1 « système » doit donc réaliser le codage des données vidéo et audio, puis le multiplexage de ces informations et des données privées, en ajoutant les informations nécessaires à leur synchronisation et d’autres relatives aux ressources nécessaires au décodage du train binaire MPEG-1 (telles que la taille des buffers nécessaires au décodage de chacun des trains élémentaires avec un décodeur de référence appelé System Target Decoder, STD). Chaque train élémentaire est découpé en paquets qui constituent ainsi un Packetized Elementary Stream (PES) ; un paquet est constitué d’un en-tête de paquet (packet header) suivi des données proprement dites. L’en-tête de paquet commence par un code de départ sur 32 bits dont les 8 derniers identifient le type (audio, vidéo ou données privées) et le numéro du train élémentaire auquel le paquet de données appartient. L’en-tête indique la longueur du paquet et la taille du buffer d’entrée nécessaire à son décodage par le STD.

70

Il peut contenir également un marqueur de décodage (Decoding Time Stamp ou DTS) indiquant le moment de décodage de la première unité d’accès (AU) du paquet et/ou un marqueur de présentation (Presentation Time Stamp ou PTS) indiquant l’instant où l’unité de présentation correspondante (PU) doit être « présentée » (visualisée ou sonorisée selon le cas).

Tableau 4.1 – Structure d’un paquet MPEG-1

9782100520442-Livre.fm Page 71 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 4 – MULTIPLEXAGE

DES SIGNAUX

Ces marqueurs servent ainsi à la synchronisation des fonctions de décodage audio et vidéo, et sont envoyés fréquemment (la norme spécifie un intervalle maximum de 0,7 s). Ils sont codés sur 33 bits, qui représentent un temps absolu exprimé en périodes d’horloge de référence à 90 kHz (voir ci-après). Un paquet peut contenir ensuite un nombre variable d’octets de données, fonction des caractéristiques du support d’enregistrement ou de transmission utilisé. La norme prévoit aussi la possibilité d’ajouter un train élémentaire d’ajustement (padding stream) pour obtenir un débit constant ou s’aligner sur les secteurs physiques d’un dispositif de stockage, ainsi que des octets de bourrage (stuffing bytes) à l’intérieur d’un paquet (maximum 16 par paquet). Les paquets sont regroupés en packs, dont l’en-tête (pack header) fournit les informations de timing et de débit au moyen des champs de référence d’horloge système (System Clock Reference, SCR) sur 33 bits et de débit du multiplex (mux_rate field). Les champs SCR sont utilisés pour synchroniser dans le décodeur une horloge système commune à 90 kHz (System Time Clock ou STC) qui sert de base de temps et d’unité de mesure aux champs DTS et PTS des paquets. L’en-tête de pack, dont le format est illustré par le tableau 4.2 débute par un code de départ sur 32 bits.

© Dunod. La photocopie non autorisée est un délit.

Le premier pack d’un train MPEG-1 contient obligatoirement un en-tête système (system header). C’est un paquet spécial qui résume l’ensemble des paramètres système utilisés au cours de ce train (débit maximum, identification des trains élémentaires audio, vidéo et données, taille minimale du buffer d’entrée…).

Tableau 4.2 – Structure de l’en-tête de pack MPEG-1

71

9782100520442-Livre.fm Page 72 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

L’en-tête système peut optionnellement être répété lors de tout nouveau pack au cours du train MPEG-1 pour faciliter l’accès à un point quelconque de ce train. Cet en-tête système commence lui aussi par un code de départ sur 32 bits.

72

Tableau 4.3 – Structure de l’en-tête système MPEG-1

Le nombre de trains élémentaires pouvant composer un train MPEG-1 est ainsi spécifié : • vidéo : 0 à 16 ; • audio : 0 à 32 ; • données privées : 0 à 2. Le train MPEG-1 se termine par un code de fin, également sur 32 bits (00 00 01 B9 hex). La figure 4.1 schématise le contenu d’un train MPEG-1 complet.

9782100520442-Livre.fm Page 73 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 4 – MULTIPLEXAGE

DES SIGNAUX

Figure 4.1 – Contenu d’un pack MPEG-1

4.2

Organisation du multiplex MPEG-2 (trains programme et transport) Comme en MPEG-1, les trains élémentaires (ES) sont organisés en paquets pour former les Packetized Elementary Streams (PES) vidéo, audio et données privées.

© Dunod. La photocopie non autorisée est un délit.

Comme en MPEG-1 également, les paquets PES débutent par un en-tête de paquet, dont le format est explicité par la figure 4.2 et le tableau 4.4.

Figure 4.2 – En-tête de PES MPEG-2

73

9782100520442-Livre.fm Page 74 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Tableau 4.4 – Structure de l’en-tête de paquet MPEG-2

74

Figure 4.3 – Schéma conceptuel de la génération des trains programme et transport MPEG-2

9782100520442-Livre.fm Page 75 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 4 – MULTIPLEXAGE

DES SIGNAUX

La partie « système » de MPEG-2 (ISO/IEC 13818-1), qui définit l’organisation du multiplex MPEG-2, prévoit deux manières différentes de multiplexer ces PES pour former deux types de trains selon l’application visée, comme l’illustre la figure 4.3.



Program Stream

Le train « programme » de MPEG-2 est créé à partir d’un ou plusieurs PES qui doivent obligatoirement partager la même horloge de référence. Ce type de train est destiné à des applications où le dispositif de stockage ou de transmission est susceptible de n’introduire que très peu d’erreurs (error free medium), comme c’est le cas par exemple dans les applications multimédia sur CD-ROM ou disque dur. Ses paquets peuvent donc être relativement longs (par exemple 2 048 octets), et il est organisé de manière similaire à un train « système » MPEG-1, nous ne le détaillerons donc pas (voir paragraphe 4.1). C’est ce type de multiplex MPEG-2 qui est utilisé sur le disque vidéo numérique (DVD).



Transport Stream

Le train « transport » de MPEG-2 – comme son nom l’indique – est principalement destiné au transport de programmes TV à longue distance sur des supports ou dans des milieux susceptibles d’introduire un taux d’erreurs assez élevé (error prone medium), la longueur des paquets doit être relativement courte pour permettre l’introduction de dispositifs de correction d’erreurs efficaces, que nous détaillerons plus loin dans le chapitre consacré au codage de canal. La longueur des paquets « transport » de MPEG-2 a donc été fixée à 188 octets, valeur retenue notamment pour les émissions par satellite, câble ou terrestres à la norme européenne DVB.

© Dunod. La photocopie non autorisée est un délit.

Ce type de train est destiné à combiner plusieurs programmes ne partageant pas forcément la même horloge système (STC) à l’intérieur d’un même multiplex. Les différents PES (vidéo, audio…) formant un programme donné doivent néanmoins partager la même horloge afin de pouvoir être synchronisés par le décodeur. La figure 4.4 illustre le processus de création d’un train « transport » MPEG-2, dont nous allons détailler maintenant la constitution.

75

9782100520442-Livre.fm Page 76 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 4.4 – Création d’un train transport MPEG-2 à partir des PES1 qui le composent

76

4.2.1 Constitution du paquet transport MPEG-2 Un paquet « transport » de 188 octets se compose d’un en-tête de paquet (packet header) de 4 octets et d’une « charge utile » (payload) de 184 octets maximum, éventuellement précédée d’un champ d’adaptation (adaptation field), voir figure 4.5. La « charge utile » est constituée des paquets des trains élémentaires (Packetized Elementary Streams, PES) composant les programmes TV transmis par le canal, ainsi qu’un certain nombre de données auxiliaires permettant au décodeur de se retrouver dans le train transport MPEG-2. Le format de l’en-tête de paquet « transport » est explicité par la figure 4.6 et le tableau 4.5. 1 La norme ISO/IEC 13818-1 précise qu’un paquet « transport » donné ne peut transporter que des données issues d’un seul paquet PES, et qu’un paquet PES débute obligatoirement au début d’un paquet transport et se termine obligatoirement à la fin d’un paquet transport. Du fait de la longueur beaucoup plus faible des paquets « transport » (184 octets utiles) par rapport à celle des paquets PES (par exemple 2 048 octets), ces derniers devront donc être découpés en tronçons de 184 octets. 1. PES1 est découpé entre les paquets transport PT1, PT3 et PT4 ; PES2 tient exactement dans le paquet PT6.

9782100520442-Livre.fm Page 77 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 4 – MULTIPLEXAGE

DES SIGNAUX

Figure 4.5 – Constitution du paquet transport (cas général)

77

© Dunod. La photocopie non autorisée est un délit.

Tableau 4.5 – Structure de l’en-tête de paquet transport MPEG-2

Figure 4.6 – Détail de l’en-tête de paquet transport

9782100520442-Livre.fm Page 78 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

La longueur des paquets PES n’étant en général pas multiple de 184 octets, le dernier paquet transport d’un paquet PES devra donc débuter par un champ d’adaptation (Adaptation Field, AF) dont la longueur sera le complément à 184 du nombre d’octets restant à transmettre pour terminer ce paquet PES (figure 4.7).

Figure 4.7 – Constitution du dernier paquet transport d’un PES

78

Outre ce rôle de remplissage, le champ d’adaptation sera également utilisé pour la transmission de la référence d’horloge du programme (Program Clock Reference, PCR), dont la cadence de répétition minimale est de 10 par seconde ainsi que divers types de données optionnelles. Un paquet « transport » pourra éventuellement n’être constitué que d’un champ d’adaptation, de 184 octets dans ce cas particulier (transport de données privées, de PCR, etc.). La figure 4.8 illustre le format général du champ d’adaptation dont le contenu est précisé par le tableau 4.6.

Figure 4.8 – Détail du champ d’adaptation

9782100520442-Livre.fm Page 79 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 4 – MULTIPLEXAGE

DES SIGNAUX

Tableau 4.6 – Constitution du champ d’adaptation MPEG-2

4.2.2 Organisation du multiplex transport ; les tables MPEG-2 Comme nous l’avons vu, un multiplex « transport » MPEG-2 peut transporter plusieurs programmes, composés chacun d’un ou plusieurs trains élémentaires en paquets (PES). Afin que le décodeur puisse se retrouver dans cette jungle, MPEG-2 a défini quatre types de tables dont l’ensemble constitue l’information spécifique des programmes (Program Specific Information, PSI). Program Association Table (PAT)

Cette table, dont la présence est obligatoire, est transportée par les paquets dont l’indicateur porte le numéro 0 (PID = 0 × 0000). Son rôle est d’indiquer, pour chaque programme convoyé par le multiplex « transport », le lien entre le numéro de programme (de 0 à 65 535) et le PID des paquets transportant une table indiquant la « carte » du programme (Program Map Table, PMT). La PAT est toujours transmise en clair, même si tous les programmes sont embrouillés.

© Dunod. La photocopie non autorisée est un délit.

Conditional Access Table (CAT)

Cette table doit être présente dès lors qu’un programme au moins est à accès conditionnel. Elle est transportée par les paquets de PID = 0 × 0001 et indique les PID des paquets transportant les EMM pour un ou plusieurs systèmes de contrôle d’accès (une des informations nécessaires au désembrouillage des programmes à accès conditionnel, voir chapitre suivant). Transport Stream Description Table (TSDT)

Cette table décrit le contenu du multiplex. Elle est transportée par les paquets de PID = 0 × 0002.

79

9782100520442-Livre.fm Page 80 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Program Map Table (PMT)

Il y a en a une par programme présent dans le multiplex. Elle indique principalement (en clair) les PID des trains élémentaires constituant le programme et optionnellement d’autres informations « privées » relatives au programme, qui peuvent être éventuellement embrouillées (par exemple ECM pour le contrôle d’accès, voir chapitre suivant). Elle peut être transportée par des paquets de PID arbitraire définis par l’émetteur dans la PAT (hors valeurs réservées). La norme DVB ajoute des tables complémentaires aux tables MPEG-2 dont une partie est facultative. Ces informations appelées DVB-SI (Service Information) permettant au récepteur de se configurer automatiquement et à l’utilisateur de « naviguer » dans les nombreux services offerts. Cette information se compose de quatre tables obligatoires et de trois tables facultatives (voir ETSI EN 300468, Digital Video Broadcasting [DVB], specification for service information (SI) in DVB systems) :



Tables obligatoires de DVB-SI

Ces tables concernent le multiplex courant (actual transport stream). 80

Network Information Table (NIT)

Cette « table d’information de réseau » transporte des informations spécifiques relatives à un réseau constitué de plusieurs canaux physiques (donc plusieurs trains transports indépendants), telles que (au minimum) les fréquences et/ou les numéros de canaux du réseau utilisés lors de la configuration du récepteur. Elle est transportée par le paquet de PID = 0 × 0010. Service description table (SDT)

Cette table liste les noms et d’autres paramètres associés à chaque service d’un même multiplex. Elle est transportée par le paquet de PID = 0 × 0011. Event Information Table (EIT) « present/following »

Cette table est utilisée pour la transmission d’informations relatives aux « événements » en cours ou à venir immédiatement à la suite de l’émission en cours dans le multiplex MPEG reçu. Elle est transportée par le paquet de PID = 0 × 0012.

9782100520442-Livre.fm Page 81 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 4 – MULTIPLEXAGE

DES SIGNAUX

Time and Date Table (TDT)

Cette table est utilisée pour la remise à l’heure de l’horloge interne du récepteur. Elle est transportée par le paquet de PID = 0 × 0014.



Tables facultatives de DVB-SI

Tables concernant le multiplex courant (actual transport stream). Bouquet Association Table (BAT)

Cette table (présente dans tous les multiplex constituant le bouquet) est utilisée pour grouper la présentation à l’utilisateur de « bouquets » de services associés. Un service particulier peut appartenir à un ou plusieurs bouquets. Elle est transportée par les paquets de PID = 0 × 0011. Event Information Table (EIT) « schedule »

Cette table est utilisée pour la transmission d’informations relatives aux programmes sur une période plus longue (journée, semaine) dans le multiplex MPEG reçu. Elle est transportée par les paquets de PID = 0 × 0012. Running Status Table (RST)

Cette table est transmise pour la mise à jour rapide d’un ou plusieurs événements, une seule fois, au moment où un changement se produit (à la différence des autres tables qui sont transmises de façon répétitive). Elle est transportée par les paquets de PID = 0 × 0013. Time Offset Table (TOT)

Cette table permet d’indiquer le décalage horaire par rapport à l’heure GMT.

© Dunod. La photocopie non autorisée est un délit.

Elle est transportée par les paquets de PID = 0 × 0014. Stuffing Tables (ST)

Ces tables de « remplissage » sont utilisées par exemple pour invalider des tables devenues inutiles. Elles sont transportées par les paquets de PID = 0 × 0010 à 0 × 0014.



Tables concernant d’autres multiplex (other transport stream)

Elles ont le même format et utilisent les mêmes PID que les tables « actual transport stream ». Network Information Table (NIT) Service description table (SDT)

81

9782100520442-Livre.fm Page 82 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Event Information Table (EIT) « present / following » et « schedule »

La fréquence de répétition des tables doit être suffisante pour permettre au décodeur d’accéder assez rapidement au programme recherché et d’accélérer la mise en service. Le document ETSI TR 101 290 définit les cadences de répétition maximales et minimales des tables selon leur type. Les informations « quasi statiques » (PAT, PMT) pourront éventuellement être stockées dans une mémoire non volatile du décodeur pour permettre un accès plus rapide après la première mise en service. Ultérieurement, cette mémoire devra être remise à jour lors des modifications éventuelles du contenu du multiplex. Chaque table est constituée, selon son importance, d’une ou plusieurs sections (au maximum 256, chacune de longueur maximale 1 024 octets, sauf pour la table private ou elle peut atteindre 4 096 octets). Les tableaux 4.7 à 4.10 montrent la structure et les différents champs des sections des 4 catégories de tables (PAT, CAT, PMT et private) définies par la norme MPEG-2. Les tables additionnelles de DVB ont un format similaire simplement adapté à leur contenu. 82

Tableau 4.7 – Description d’une section de la table d’allocation de programmes (PAT)

9782100520442-Livre.fm Page 83 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 4 – MULTIPLEXAGE

DES SIGNAUX

Tableau 4.8 – Tables de contrôle d’accès (CAT) et de description de multiplex (TSDT)

© Dunod. La photocopie non autorisée est un délit.

83

Tableau 4.9 – Table de carte de programme (PMT)

9782100520442-Livre.fm Page 84 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Tableau 4.10 – Description d’une section de données privées (private section) (*) la zone de données privées est représentée ici en format libre (syntax_indicator = 0). Si syntax_indicator = 1, le format données privées est similaire à celui de la CAT (sauf longueur).



Insertion des sections dans les paquets transport

Contrairement aux PES, les sections ne débutent ni ne finissent pas forcément avec un paquet transport. Lorsqu’une section (ou un PES) débute dans un paquet, l’indicateur payload_unit_start_indicator (PUSI) est mis à « 1 ».

84

S’il s’agit d’une section, le paquet peut débuter par la fin d’une autre section, précédée ou non d’un champ d’adaptation (adaptation_field). Le premier octet de la « charge utile » (payload), est un indicateur appelé pointer_field qui donne le décalage (offset) du début de la nouvelle section par rapport à cet octet. La figure 4.9 illustre le cas où une section débute dans un paquet transport, après un champ d’adaptation (AF) et la fin d’une section précédente.

Figure 4.9 – Cas général du début de section dans un paquet transport Le bit PUSI est à 1 lorsqu’il y a au moins un début de section dans un paquet transport. Les sections n’étant pas alignées sur le début du paquet, le premier octet de la charge utile (pointer_field) indique le décalage (offset) du début de section.

Au moment de l’installation, lors de la recherche, le récepteur bâtit au moyen des tables PAT (éventuellement NIT) et PMT une liste de services disponibles, qui peuvent atteindre plusieurs milliers en cas de réception multisatellite.

9782100520442-Livre.fm Page 85 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 4 – MULTIPLEXAGE

DES SIGNAUX

Un guide électronique des programmes (Electronic Program Guide, EPG) peut être bâti au moyen des informations EIT « schedule ». Il permet de connaître le contenu des émissions et de programmer un enregistrement jusqu’à une semaine à l’avance. Afin de faciliter l’accès aux chaînes les plus souvent regardées, les récepteurs nonpropriétaires permettent la constitution de listes de chaînes favorites que l’utilisateur peut regrouper à sa guise par genre, langue ou tout autre critère de son choix. S’il s’agit de récepteurs pour télévision à péage « propriétaires », les chaînes mémorisées peuvent être limitées à celles du bouquet (ou associées) au moyen des tables BAT et sont numérotées selon un ordre fixé par l’opérateur, modifiable ou non par l’utilisateur. La ou les listes ainsi constituées mémorisent les numéros de PID des éléments constituant chaque programme ou service et permettent d’y accéder rapidement sans consulter les tables PAT et PMT s’il n’y a pas eu de changement dans le multiplex. Ces changements peuvent être éventuellement détectés et pris en compte automatiquement par la consultation périodique des tables NIT, mais cette option n’est pas très simple à mettre en œuvre pour un récepteur satellite non propriétaire. Pour la télévision numérique terrestre, le nombre de programmes est beaucoup plus restreint et l’ensemble des multiplex d’un même pays constitue en général un seul réseau avec une NIT et une SDT communes contenant notamment un champ « logical channel number » (LCN) décrivant une numérotation des programmes définie par un organisme régulateur (en France, le CSA).

© Dunod. La photocopie non autorisée est un délit.

Si la fonction de suivi réseau est activée, le récepteur TNT pourra remettre à jour automatiquement sa liste de chaînes lors des changements de contenus de multiplex.

85

9782100520442-Livre.fm Page 86 Jeudi, 24. juin 2010 11:35 11

9782100520442-Livre.fm Page 87 Jeudi, 24. juin 2010 11:35 11

Chapitre 5 Embrouillage et accès conditionnel

87

La proportion d’émissions gratuites (à accès libre) est déjà de plus en plus réduite dans les nouveaux services analogiques proposés par câble ou satellite ; il est donc certain qu’au moins au départ la plupart des émissions numériques seront payantes.

© Dunod. La photocopie non autorisée est un délit.

Les formes de péage pourront être beaucoup plus diversifiées (abonnement classique, péage à la séance, vidéo « quasi à la demande »…) que celles que nous connaissons actuellement, ce qui sera grandement facilité par le débit de données élevé offert par le système. La norme DVB prévoit, comme nous l’avons vu dans le chapitre précédent, le transport de données d’accès conditionnel auxquelles on accède par la table d’accès conditionnel (CAT) ainsi qu’au moyen d’autres paquets de données privées indiqués par la PMT ; La norme définit aussi un algorithme commun d’embrouillage (Common Scrambling Algorithm, CSA) pour lequel le compromis coût/complexité a été choisi avec un objectif de durée de vie suffisamment long (temps pendant lequel il devrait pouvoir résister aux attaques des pirates…). En ce qui concerne l’accès conditionnel (Conditional Access, CA) lui-même, il n’est pas spécifié par la norme, car la plupart des opérateurs veulent jalousement avoir le sien, ce qui s’explique à la fois pour des raisons « commerciales » de contrôle des

9782100520442-Livre.fm Page 88 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

abonnés et pour des raisons de sécurité, car plus un système est ouvert, plus il a de chances d’être piraté rapidement. Cependant, afin d’éviter à l’utilisateur désirant avoir accès à plusieurs réseaux utilisant des systèmes d’accès conditionnel différents d’avoir à « empiler des boîtes », c’est-à-dire un décodeur par réseau, deux options au moins sont prévues par la norme : Simulcrypt

Possibilité d’accéder à une même émission par plusieurs systèmes d’accès conditionnel différents (technique nécessitant des accords entre réseaux). Dans ce cas, le multiplex transport devra comporter des paquets d’accès conditionnel correspondant à chacun des systèmes d’accès conditionnel utilisant le même algorithme d’embrouillage (celui normalisé par le DVB). Multicrypt

Utilisation d’un module d’accès conditionnel et de désembrouillage « détachable » au format mécanique PCMCIA inséré sur le chemin des données reçues au niveau « transport » via une interface normalisée (Common Interface, DVB-CI) qui comporte également un bus, permettant au module, qui peut comporter un lecteur de carte à puce, de communiquer avec le décodeur.

88

Dans cette approche, une même boîte peut disposer de plusieurs slots PCMCIA : l’utilisateur peut alors connecter un module pour chaque réseau utilisant un système d’accès conditionnel et/ou d’embrouillage différent (voir annexe 7). Cette interface pourra également être utilisée pour d’autres applications (transfert de données, etc.).

5.1

Principes de l’embrouillage de la norme DVB Étant donné la nature très… délicate de cette partie de la norme, seuls ses principes généraux sont publics, les détails d’implémentation n’étant accessibles qu’aux organisations opérant des réseaux de télévision à péage moyennant engagement de confidentialité. L’algorithme d’embrouillage, prévu pour résister le plus longtemps possible aux attaques des pirates, consiste en un chiffrement à deux couches indépendantes, dont chacune pallie les éventuelles faiblesses de l’autre : • une couche « blocs » de 8 octets (reverse cipher block chaining mode) ; • une couche « train » (générateur d’octets pseudo-aléatoires).

9782100520442-Livre.fm Page 89 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 5 – EMBROUILLAGE

ET ACCÈS CONDITIONNEL

L’algorithme d’embrouillage utilise deux mots de contrôle de 64 bits alternés (pair/impair) avec une fréquence de l’ordre de deux secondes, de manière à rendre le piratage plus difficile. Un mot de contrôle est transmis (crypté, dans les ECM) pendant que l’autre est utilisé ; les mots de contrôle doivent donc être stockés temporairement dans des registres du dispositif de désembrouilage. Il existe également un mot de contrôle « par défaut » (par exemple pour embrouillage à accès libre). La norme DVB prévoit de plus la possibilité d’embrouillage à deux niveaux, qui ne peuvent toutefois pas être utilisés simultanément :



Au niveau transport

Nous avons vu dans le chapitre précédent (figure 4.6) que l’en-tête du paquet « transport » comportait un champ de 2 bits appelés « transport_scrambling_flags ». Leur état indique si indique que le paquet est embrouillé et avec quel mot de contrôle selon le tableau 5.1.

89

© Dunod. La photocopie non autorisée est un délit.

Tableau 5.1 – Signification des bits transport_scrambling_flags

L’embrouillage au niveau transport est réalisé après multiplexage sur l’ensemble de la charge utile du paquet transport, les PES arrivant au multiplexeur étant « en clair ». Du fait qu’un paquet transport ne peut contenir que des données provenant d’un seul PES, il est néanmoins possible de n’embrouiller au niveau « transport » que tout ou partie des PES composant un ou plusieurs programmes du multiplex.



Au niveau PES

Dans ce cas, l’embrouillage a généralement lieu « à la source », avant multiplexage, et sa présence et son mot de contrôle sont indiquées par les 2 bits « PES_scrambling_control » dans l’en-tête de PES dont le format est indiqué au chapitre précédent (voir tableau 4.4).

9782100520442-Livre.fm Page 90 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Le tableau 5.2 précise le mot de contrôle utilisé selon l’état de ces deux bits.

Tableau 5.2 – Signification des bits PES_scrambling_flags

Les limitations suivantes s’appliquent à l’embrouillage au niveau PES : • l’en-tête lui-même n’est bien sûr pas embrouillé dans ce cas ; le désembrouilleur sait où commencer le désembrouillage grâce au champ PES_header_length (longueur d’en-tête PES) et où l’arrêter grâce au champ packet_length ; • l’embrouillage doit se faire sur des tronçons de 184 octets, et seul le dernier paquet transport d’un PES peut comporter un champ d’adaptation ; • l’en-tête de PES ne doit pas excèder 184 octets pour tenir dans un seul paquet transport ; • le mot de contrôle par défaut n’est pas autorisé en embrouillage PES.

90

5.2

Mécanismes d’accès conditionnel Les informations nécessaires au désembrouillage sont transmises dans des messages spécifiques appelés messages d’accès conditionnel (Conditional Access Messages, CAM), qui sont de deux types (ECM et EMM) et sont générés à partir de 3 données d’entrées : • un mot de contrôle (control word) destiné à initialiser la séquence de désembrouillage ; • une clé de service (service key) utilisée pour crypter le mot de contrôle, pour un groupe d’un ou plusieurs utilisateurs ; • une clé utilisateur (user key) utilisée pour crypter la clé de service. Le schéma de la figure 5.1 illustre le processus.

9782100520442-Livre.fm Page 91 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 5 – EMBROUILLAGE

ET ACCÈS CONDITIONNEL

Figure 5.1 – Processus de codage des ECM et EMM

Les ECM (Entitlement Control Messages) sont une fonction du mot de contrôle et de la clé de service et sont transmis toutes les 2 secondes environ. Les EMM (Entitlement Management Messages) sont une fonction de la clé de service et de la clé utilisateur et sont transmis toutes les 10 secondes environ. À la réception, le principe du décryptage consiste à retrouver la clé de service à partir des EMM et de la clé utilisateur contenue par exemple dans une carte à puce. Cette clé de service est ensuite elle-même utilisée pour décrypter les ECM afin de retrouver le mot de contrôle permettant l’initialisation du système de désembrouillage. Ce processus est très schématiquement illustré par la figure 5.2.

© Dunod. La photocopie non autorisée est un délit.

La figure 5.3 illustre le processus suivi pour retrouver les EMM et ECM nécessaires à désembrouiller un programme donné (ici le programme 3). La Table d’Association de Programmes (PID 0) indique le PID M du paquet où se trouve la Table de Carte de Programme (PMT) qui indique, outre les PID des PES audio, vidéo et des PCR du programme, ceux transportant les ECM qui permettront de retrouver le mot de contrôle de désembrouillage. La Table d’Accès Conditionnel (CAT, PID 0 × 0001) indique dans quels paquets se trouvent les EMM d’un ou plusieurs systèmes d’accès conditionnel. À partir de ces informations et de la clé utilisateur contenue dans la carte à puce, le système de désembrouillage peut reconstituer le mot de contrôle qu’il devra utiliser pour désembrouiller le prochain paquet (PES ou transport selon le cas). Le processus décrit ci-dessus est bien sûr très schématique et l’implémentation effective du système ainsi que le support contenant la clé utilisateur pourront varier d’un opérateur à l’autre, et il est bien évident que les détails de ces systèmes ne sont pas du domaine public.

91

9782100520442-Livre.fm Page 92 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 5.2 – Reconstitution des mots de contrôle à partir des ECM et EMM

92

Figure 5.3 – Processus suivi pour retrouver les EMM et ECM

9782100520442-Livre.fm Page 93 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 5 – EMBROUILLAGE

5.3

ET ACCÈS CONDITIONNEL

Principaux systèmes d’accès conditionnel Le tableau 5.3 indique les principaux systèmes d’accès conditionnel utilisés par les opérateurs de télévision numérique à péage. La plupart de ces systèmes utilisent la norme d’embrouillage DVB-CSA avec un désembrouilleur et un logiciel de contrôle d’accès intégrés au récepteur, les droits d’accès étant contenus dans une carte d’abonné à puce. Système

Origine

Opérateurs (exemples)

Conax

Conax AS (Norvège)

Divers opérateurs scandinaves

CryptoWorks

Philips

Viacom, MTV Networks…

IrDETO

Nethold

Multichoice…

Mediaguard

SECA (Kudelski S.A.)

Canal+, Canal Sat, Top Up TV…

Nagravision

Kudelski S.A.

Dish Network, Premiere

Viaccess

France Telecom

AB-Sat, SSR/SRG, Numéricable, TNTSAT, FRANSAT…

Videoguard

News Datacom (NDS)

BskyB, Sky Italia…

Tableau 5.3 – Principaux systèmes européens d’accès conditionnel

© Dunod. La photocopie non autorisée est un délit.

Afin de lutter contre le piratage, les systèmes d’accès conditionnel évoluent sans cesse, et les versions se sont multipliées ces dernières années (ce qui peut nécessiter un renouvellement périodique des cartes d’abonné). Le tableau 5.3 ne prétend donc pas être exhaustif ni à jour et n’est fourni qu’à titre indicatif.

93

9782100520442-Livre.fm Page 94 Jeudi, 24. juin 2010 11:35 11

9782100520442-Livre.fm Page 95 Jeudi, 24. juin 2010 11:35 11

Chapitre 6 Codage de canal

Une fois les opérations de codage de source effectuées (l’ensemble du processus étudié dans les précédents chapitres), on dispose donc d’un train « transport » constitué de paquets de 188 octets que l’on désire transmettre par voie radiofréquence (satellite, câble, émission terrestre) vers les utilisateurs.

© Dunod. La photocopie non autorisée est un délit.

Nous avons laissé entendre plus haut que ces « canaux » de transmission n’étaient malheureusement pas exempts d’erreurs, en raison de toutes sortes de perturbations qui viennent s’ajouter au signal utile (bruit, interférences, échos…). Or un signal numérique, en particulier lorsque l’on en a pratiquement supprimé toute redondance lors d’un processus de compression, exige un taux d’erreurs (BER ou Bit Error Rate) extrêmement faible pour obtenir des performances satisfaisantes (BER de 10–10 à 10–12, soit de l’ordre d’une erreur par heure pour un débit utile de 30 Mb/s). Un canal assurant ce taux d’erreurs est dit « quasi sans erreur » (QEF, Quasi Error Free) ; on utilise aussi l’expression de « super canal ». Il convient donc de prendre des mesures préventives avant modulation pour permettre la détection et la correction dans le récepteur de la plupart des erreurs apportées par le canal de transmission dans des conditions normales d’exploitation. Ces mesures, dont la principale consiste toujours à réintroduire une redondance calculée dans le signal (donc à diminuer l’efficacité du processus de compression), sont appelées Forward Error Correction (FEC) et constituent l’essentiel du codage de canal.

95

9782100520442-Livre.fm Page 96 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Elles devront être bien sûr adaptées aux spécificités du canal de transmission.

Figure 6.1 – Suite des opérations de correction d’erreur effectuées à l’émission

Ces opérations sont explicitées dans les paragraphes suivants, sans toutefois entrer vraiment en profondeur dans les arcanes des codes correcteurs d’erreurs sophistiqués utilisés. L’annexe A en fin d’ouvrage en expose cependant le principe en s’appuyant sur la description de codes plus simples et fournit quelques références bibliographiques au lecteur désireux de « creuser » ce sujet.

6.1 96

Dispersion d’énergie Cette partie du traitement n’est pas à proprement parler destinée à la correction des erreurs, mais elle est spécifiée comme devant la précéder à l’émission pour uniformiser le spectre RF. Les paquets transport ont une longueur de 188 octets, et le premier est un octet de synchronisation de valeur 47 hex. (01000111), les bits de poids fort étant transmis en tête (figure 6.2).

Figure 6.2 – Paquet « transport » avant correction d’erreur

Afin d’éviter les longues suites de 0 ou de 1, le signal doit être rendu quasi aléatoire (randomized) pour assurer la dispersion d’énergie du spectre radiofréquence rayonné (répartition uniforme de l’énergie dans le canal d’émission). Ceci est obtenu au moyen d’un embrouillage des données (ou brassage) par une séquence pseudo-aléatoire (PRBS, Pseudo Random Binary Sequence) de polynôme générateur 1 + X14 + X15.

9782100520442-Livre.fm Page 97 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 6 – CODAGE

DE CANAL

Le schéma correspondant du générateur pseudo-aléatoire, qui est le même pour l’embrouillage et le désembrouillage (ou débrassage), est relativement simple et représenté à la figure 6.3.

Figure 6.3 – Schéma correspondant du générateur pseudo-aléatoire (d’après prETS 300 421, European Telecommunication Standards Institute, 1995)

Le générateur pseudo-aléatoire est réinitialisé tous les 8 paquets transport par le chargement de la séquence « 100101010000000 » dans son registre. Afin de pouvoir repérer le début de la séquence, l’octet de synchronisation du premier paquet du groupe de 8 auquel s’applique l’embrouillage est inversé (47 hex devient donc B8 hex). Les octets de synchronisation ne sont pas affectés par l’embrouillage bien que la séquence ne soit pas interrompue pendant ce temps (seule l’entrée ENABLE qui valide la sortie du générateur n’est pas active pendant les octets de synchronisation).

© Dunod. La photocopie non autorisée est un délit.

La figure 6.4 illustre la structure des paquets transport ainsi « randomisés » à la sortie du dispositif de dispersion d’énergie.

Figure 6.4 – Paquets transport après dispersion d’énergie (d’après prETS 300 421, European Telecommunication Institute, 1995)

Celui-ci doit être actif même en l’absence de données ou en présence de données non conformes à MPEG-2 à son entrée pour éviter l’émission d’une porteuse pure en toutes circonstances.

97

9782100520442-Livre.fm Page 98 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

6.2

Codage de Reed-Solomon (codage externe) Afin de pouvoir corriger la majeure partie des erreurs introduites par le canal de transmission, nous avons indiqué précédemment qu’il était nécessaire d’introduire une redondance dans le signal permettant de détecter et, jusqu’à un certain point, corriger ces erreurs. Un codage dit externe (outer coding), par opposition au codage complémentaire interne (inner coding) décrit plus loin pour les cas du satellite et du terrestre, est spécifié par DVB pour tous les modes de transmission. C’est un code de Reed-Solomon RS (204, 188, T = 8), version raccourcie du code RS (255, 239, T = 8), voir annexe A. Il permet, en combinaison avec « l’entrelacement » qui le suit, la correction des erreurs « en rafale » introduites par le canal. Ce codage s’applique individuellement à chacun des paquets de la figure 6.4, y compris les octets de synchronisation. Il ajoute 16 octets de parité aux octets d’information des paquets transport, et permettra au décodeur de canal de corriger jusqu’à 8 octets erronés, d’où l’appellation RS (204, 188, T = 8). Au-delà de 8 octets en erreur, le paquet sera signalé comme erroné et non correctible par le décodeur de canal, laissant aux circuits suivants du récepteur le choix du sort à lui réserver…

98

La figure 6.5 indique le format des paquets transport protégés.

Figure 6.5 – Format des paquets transport protégés

6.3

Dispersion temporelle des erreurs (entrelacement ou Forney convolutional interleaving) Cette étape est destinée à augmenter l’efficacité du codage de Reed-Solomon. Afin de répartir dans le temps les erreurs introduites par le canal, qui se produisent souvent en rafales affectant plusieurs octets successifs, pouvant ainsi excéder la capacité de correction du codage Reed-Solomon seul (8 octets par paquet), on procède à un « entrelacement » temporel des octets en modifiant leur ordre de transmission.

9782100520442-Livre.fm Page 99 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 6 – CODAGE

DE CANAL

Ce processus illustré par la figure 6.6, est connu sous le nom de Forney convolutional interleaving.

© Dunod. La photocopie non autorisée est un délit.

Figure 6.6 – Forney convolutional interleaving (d’après prETS 300 421, European Telecommunication Standards Institute, 1995)

Il consiste schématiquement, au moyen d’une banque de 12 FIFOs et d’un dispositif d’aiguillage à 12 branches, à transmettre 12 octets successifs (d’indices j = 0 à 11) 204 L chacun à travers un FIFO de longueur M × j (avec M = -- = ------- = 17 , où L est 12 I la longueur du paquet protégé et I la « profondeur d’entrelacement », interleaving depth). Un octet se trouve donc décalé dans le temps de 0 à 187 (11 × 17) positions ; le processus inverse a lieu en synchronisme à la réception, l’octet retardé de j × 17 positions à l’émission est retardé de (11 – j) × 17 positions à la réception : tout le monde est donc au final retardé de (j + 11 – j) × 17, c’est-à-dire 187 positions et l’ordre initial est retrouvé. De cette manière, une rafale d’erreurs, après réarrangement temporel dans le récepteur, se trouvera répartie sur deux paquets successifs, et restera la plupart du temps en deçà des capacités de correction du codage de Reed-Solomon. L’octet de synchronisation, inversé ou non, suit toujours le chemin d’indice j = 0 pour permettre son repérage. Le traitement décrit jusqu’à ce point est commun à tous les modes de transmission RF prévus actuellement (satellite, câble, terrestre), quel que soit le type de modulation utilisée. Dans le cas du câble (modulation 64-QAM, voir chapitre suivant), la seule opération restant à effectuer avant filtrage et modulation sera la conversion du train de bits série en 2 signaux I et Q de 3 bits chacun représentant des symboles de 6 bits. Cette opération purement logique est appelée symbol mapping.

99

9782100520442-Livre.fm Page 100 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

La figure 6.7 représente schématiquement ce processus ; le processus réel est plus complexe en raison du codage différentiel des deux bits de poids fort (MSB) des symboles, voir chapitre suivant.

Figure 6.7 – Exemple de symbol mapping (cas de la modulation 64-QAM)

Pour le satellite et les émissions terrestres, le codage de canal comporte une opération supplémentaire, appelée codage interne. Elle est destinée à corriger un maximum d’erreurs aléatoires dues au faible rapport signal à bruit. 100

La correction d’erreur permise par ce codage de type convolutif est complémentaire de celle réalisée par l’ensemble entrelacement + codage de Reed-Solomon. Son objectif est d’obtenir, à partir d’un taux d’erreur (BER) d’environ 10–2 à la sortie du démodulateur QPSK, un taux d’erreur maximal de l’ordre de 10–4 à l’entrée du décodeur Reed-Solomon, pour garantir une réception « quasi sans erreur » (BER de l’ordre de 10–10 à 10–11 après décodage RS).

6.4

Codage convolutif (codage interne) Le principe de ce codage est décrit, dans ses grandes lignes, à l’annexe A.

Figure 6.8 – Codage convolutif (paramètres de base DVB)

9782100520442-Livre.fm Page 101 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 6 – CODAGE

DE CANAL

Le cas de la norme DVB est illustré schématiquement par la figure 6.8, pour les paramètres de base ci-dessous : • • • •

RC = 1/2 ; K=7; G1 = 171oct ; G2 = 133oct.

La forte redondance introduite par ce code (100 %) permet une correction d’erreurs très puissante, indispensable en cas de transmission à très faible rapport signal/bruit, mais elle réduit de moitié l’efficacité spectrale du canal : dans ce cas, les signaux X et Y obtenus en sortie du codeur sont directement appliqués respectivement aux entrées I et Q du modulateur QPSK, et le débit « utile » du canal (en bits par seconde) est la moitié de celui effectivement utilisé par la transmission. Le codage convolutif permet cependant de ne pas transmettre tous les bits des sorties X et Y en effectuant une opération dite de « poinçonnage » (puncturing) sur les trains de sortie, réduisant ainsi la redondance du code ; le principe consiste à supprimer un bit d’une des 2 sorties pendant que le bit simultané de l’autre sortie est transmis. Les signaux I et Q sont alors obtenus en alternant les sorties X et Y de manière à former deux trains binaires équilibrés. On obtient ainsi les valeurs poinçonnées du taux d’émission spécifiées par la norme (punctured rate Rc = 2/3, 3/4, 5/6 ou 7/8).

© Dunod. La photocopie non autorisée est un délit.

Ces chiffres représentent le rapport entre le débit utile et le débit effectif transmis. Ils sont le produit du code rate convolutif pur (1/2) et du taux de poinçonnage : par exemple, le code rate 2/3, est le produit de 1/2 (code convolutif) par 4/3 (le poinçonnage garde 3 bits sur 4). Cette opération augmente la capacité de transmission du canal au prix d’une réduction de la distance limite (dfree), donc de la capacité de correction des erreurs aléatoires dues au bruit. Le choix du code rate par le diffuseur sera donc un compromis entre le débit utile du canal et l’étendue de la zone de service recherchée pour une puissance d’émission et une dimension d’antenne de réception données. Le tableau 6.1 donne la distance limite dfree, le schéma de poinçonnage des sorties X et Y du codeur convolutif et la définition des signaux I et Q appliqués à l’entrée du modulateur QPSK (satellite), pour les cinq code rates prévus par la norme DVB.

101

9782100520442-Livre.fm Page 102 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Tableau 6.1 – Caractéristiques du codage convolutif DVB

Remarque : pour X et Y, 0 signifie bit non transmis, 1 signifie bit transmis. Pour le cas des émissions terrestres en modulation OFDM, après le codage interne, les opérations supplémentaires de sérialisation, d’entrelacement interne et de symbol mapping sont nécessaires pour adapter le train série au grand nombre de porteuses utilisées. La ligne SOFDM représente la sortie sérialisée appliquée à l’entrée du dispositif d’entrelacement interne utilisé uniquement dans le cas de la télévision terrestre en modulation OFDM. 102

6.5

Nouveaux algorithmes de codage de canal (BCH, LDPC) Afin d’augmenter significativement la capacité de transmission pour un rapport signal/bruit donné (et donc se rapprocher de la limite de la théorie de l’information de Shannon) et afin de ne plus limiter le format des données transportées au seul transport stream, de nouveaux algorithmes de codage ont été introduits pour les systèmes DVB de seconde génération. Ces algorithmes sont brièvement couverts au chapitre 7, section 7.5 « Les normes de transmission DVB de seconde génération (DVB-S2, DVB-T2, DVB-C2) ».

9782100520442-Livre.fm Page 103 Jeudi, 24. juin 2010 11:35 11

Chapitre 7 Modulation des signaux numériques

103

© Dunod. La photocopie non autorisée est un délit.

Une fois effectuées les différentes opérations constituant le codage de source (codage MPEG audio et vidéo, insertion de données, multiplexage, embrouillage éventuel), puis celles constituant le codage de canal (dispersion d’énergie, codage externe de Reed-Solomon, entrelacement et, pour le satellite et le terrestre, codage interne convolutif) on dispose d’un flux de données prêt à moduler une porteuse pour l’émission vers les utilisateurs. Selon le médium utilisé (satellite, câble, terrestre) on disposera d’une largeur de bande déterminée par des considérations à la fois techniques et administratives, ces dernières découlant en grande partie des premières. Les conditions techniques (rapport signal/bruit et échos principalement) sont en effet très différentes entre la réception de signaux provenant de satellites, stables mais faibles car provenant d’un émetteur peu puissant (quelques dizaines de watts) situé à 36 000 km de distance, de réseau câblé où l’on dispose généralement des signaux relativement puissants et stables sur la prise de l’abonné, et la réception hertzienne terrestre où les conditions peuvent être très variables. De ce fait : • le rapport signal/bruit (C/N ou CNR, Carrier to Noise Ratio) d’une réception satellite est très faible (de l’ordre de 10 dB), mais le signal reçu est pratiquement dépourvu d’écho ;

9782100520442-Livre.fm Page 104 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

• à l’inverse, en réception câble, le rapport signal/bruit est relativement élevé (supérieur à 30 dB), mais le signal peut être affecté d’échos courts dus à des désadaptations d’impédance de ligne ; • en réception hertzienne terrestre, les conditions sont plus difficiles que celles sur câble, surtout si l’on envisage la réception avec des antennes sommaires et la réception mobile (échos aggravés, interférences, variations de signal importantes). C’est pourquoi les techniques de modulation différeront pour s’adapter au mieux aux conditions imposées par le canal de transmission et à la cohabitation avec les émissions analogiques. • Sur satellite, les canaux sont en général de largeur 27 MHz (Astra par exemple) à 36 MHz (Télécom par exemple), ce qui résulte de la nécessité d’employer la modulation de fréquence (FM) pour la transmission d’une émission de télévision analogique (bande passante 6 à 8 MHz avec le ou les sons associés) dans les conditions de rapport signal/bruit très faible indiquées précédemment. • Sur câble ou en émission terrestre, la largeur des canaux s’étage de 6 MHz (USA) à 7 ou 8 MHz (Europe), en raison de l’emploi de la modulation d’amplitude à Bande Latérale Atténuée (BLA ou VSB, Vestigial Side Band) pour la vidéo, avec une ou plusieurs porteuses son associées.

104

Les émissions numériques héritent de cette situation et devront en général utiliser les mêmes largeurs de canaux que leurs homologues analogiques, en raison, entre autres, de la coexistence des deux types d’émissions sur un même satellite, réseau câblé ou hertzien et du souhait d’une certaine compatibilité avec les matériels d’émission et de distribution existants.

7.1

Généralités sur la modulation par signaux numériques Les signaux numériques sont des suites d’impulsions rectangulaires représentant des 0 et des 1. Selon les caractéristiques du canal, plusieurs bits peuvent être combinés pour former des symboles afin d’augmenter l’efficacité spectrale de la modulation. Toutefois, sans filtrage, le spectre des signaux numériques est infini, impliquant théoriquement une bande passante infinie pour leur transmission, ce qui n’est bien sûr pas envisageable. De ce fait, il convient de leur appliquer un filtrage pour limiter cette bande passante ; ce filtrage devra être choisi de manière à optimiser les performances de la chaîne de transmission.

9782100520442-Livre.fm Page 105 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

La limitation de bande passante se traduit en effet par un allongement théoriquement infini de la réponse temporelle, ce qui, sans précaution particulière, peut se traduire par des « chevauchements » entre symboles successifs, donc des erreurs de démodulation : c’est ce que l’on appelle l’interférence intersymbole (Inter Symbol Interference, ISI). Pour éviter ce problème, le filtrage doit satisfaire le premier critère de Nyquist, de sorte que la réponse temporelle présente des zéros aux temps multiples de la période de symbole. Le filtre le plus communément utilisé est dit en cosinus surélevé (raised cosine filter), plus connu sous le simple nom de filtre de Nyquist. Afin d’optimiser l’occupation de bande et le rapport signal/bruit, le filtrage est réparti également entre l’émetteur et le récepteur, chacun comportant un filtre « demi-Nyquist » (square root raised cosine filter). Ce filtrage est caractérisé par son facteur de roll-off a, qui détermine la raideur du filtre. Sa réponse en fréquence normalisée à la fréquence de symbole (symbol rate) 1/T est donnée par le tableau 7.1 (voir également figure 7.1). Pour un signal de période de symbole T la bande passante B occupée après filtrage est donc liée à la fréquence de symbole (symbol rate) 1/T et au facteur de roll-off a par la relation :

© Dunod. La photocopie non autorisée est un délit.

1 B = ( 1 + α ) × ----2T La figure 7.1 montre la courbe de réponse en fréquence du filtrage de Nyquist (normalisée à la fréquence de symbole 1/T) pour 3 valeurs de facteurs de roll-off (0,2 ; 0,35 ; 0,5), et la figure 7.2 la réponse temporelle correspondante (normalisée à la période de symbole T). La réponse temporelle fait bien apparaître des zéros situés à des multiples de la période de symbole : pour réduire l’interférence intersymbole à son minimum, il conviendra d’échantillonner le signal à ces instants (avec d’autant plus de précision que le facteur de roll-off sera faible).

Tableau 7.1 – Caractéristiques du filtrage de Nyquist

105

9782100520442-Livre.fm Page 106 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 7.1 – Caractéristiques du filtrage de Nyquist

106

Figure 7.2 – Réponse temporelle du filtre de Nyquist pour trois valeurs de roll-off α

9782100520442-Livre.fm Page 107 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

7.2

DES SIGNAUX NUMÉRIQUES

Les modulations en quadrature Les modulations numériques les plus simples modulent directement la porteuse par le train de bits série représentant l’information à transporter, en amplitude (ASK, Amplitude Shift Keying) ou en fréquence (FSK, Frequency Shift Keying). La faible efficacité spectrale de ces modulations les rend cependant inappropriées à la transmission de débits élevés sur des canaux de largeur aussi réduite que possible. Afin d’augmenter l’efficacité spectrale du processus de modulation, on utilise différentes formes de Modulation d’Amplitude en Quadrature (MAQ ou QAM), initialement développée pour transmettre deux signaux analogiques sur une seule porteuse (la première application importante connue a été, à la fin des années quarante, la modulation de la sous-porteuse couleur du système NTSC par les deux signaux de différence de couleur). Dans des conditions données de rapport signal/bruit, la modulation QAM est deux fois plus efficace que la simple modulation d’amplitude (AM) à porteuse supprimée.

© Dunod. La photocopie non autorisée est un délit.

La figure 7.3 représente le processus schématique de modulation/démodulation en quadrature.

Figure 7.3 – Processus modulation/démodulation en quadrature

Les symboles d’entrée (codés sur n bits) sont convertis en 2 signaux I (In phase) et Q (Quadrature) chacun codé sur n/2 bits, soit 2n/2 états pour chacun des signaux I et Q. Le signal I est utilisé pour moduler une sortie non déphasée de l’oscillateur local, et le signal Q module une sortie déphasée de π/2 (90°) de ce même oscillateur.

107

9782100520442-Livre.fm Page 108 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Il en résulte dans l’espace I, Q une « constellation » de points correspondant aux différentes valeurs que peuvent prendre les signaux I et Q. Le tableau 7.2 résume les caractéristiques des principaux types de modulation obtenus en fonction du nombre de bits pour chacun des signaux I et Q.

Tableau 7.2 – Caractéristiques de quelques modulations QAM

Les figures 7.4 et 7.5 représentent respectivement la constellation des modulations 4-QAM (connue sous le nom QPSK, Quadrature Phase Shift Keying) et 64-QAM à la sortie du modulateur. 108

On y remarque que chaque point est bien distinct de ses voisins, et qu’il n’y a donc pas d’ambiguïté sur la valeur du symbole transmis à ce niveau.

Figure 7.4 – Constellation QPSK

9782100520442-Livre.fm Page 109 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

109

© Dunod. La photocopie non autorisée est un délit.

Figure 7.5 – Constellation 64-QAM

7.3

Modulations pour la télévision par câble (DVB-C) et satellite (DVB-S) Afin de déterminer le meilleur choix possible pour ces modulations, un certain nombre d’études théoriques et d’essais pratiques ont été entrepris, tant sur satellite que sur câble.

9782100520442-Livre.fm Page 110 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

La figure 7.6 montre le taux d’erreurs (BER) théorique (donc dans des conditions idéales) en fonction du rapport Eb/N0 1 pour les modulations 4-QAM (QPSK) à 64QAM. On peut y remarquer une différence d’environ 12 dB pour un taux d’erreur donné en faveur de la modulation QPSK par rapport à la modulation 64-QAM.

110 Figure 7.6 – Taux d’erreur (BER) en fonction du rapport signal à bruit (SNR) pour différentes modulations en quadrature

1. Le rapport Eb/N0 (énergie moyenne par bit/densité de bruit) est préféré en modulation numérique au rapport C/N, car il tient compte du nombre d’états utilisés pour la modulation. Il y a bien sûr une relation entre ces deux rapports, qui recouvrent la même réalité physique. Eb/N0 est lié au rapport Es/N0 (énergie moyenne par symbole/densité de bruit) par la relation : Eb/N0 = Es/Nolog2M où M représente le nombre d’états de la modulation (par exemple 4 pour QPSK, 64 pour 64-QAM). Le rapport Es/N0 est lui-même lié à C/N par la relation : Es/N0 = (C/N)BeqT où Beq est la bande équivalente de bruit (≈ largeur de canal BW) et T la période symbole. D’où il vient la relation entre Eb/N0 et C/N (hors codage de canal) : Eb/N0 ≈ (C/N)BW·T/log2M C/N et Eb/N0 sont normalement exprimés en dB ; cette relation devient alors : Eb/N0 (dB) = C/N (dB) + 10log[BW·T/log2M] De plus, on spécifie habituellement la fréquence symbole RS = 1/T, d’où : Eb/N0 (dB) = C/N (dB) + 10log[BW/RSlog2M] et C/N (dB) = Eb/N0 (dB) + 10log[RSlog2M/BW] Pour le satellite on a M = 4 (QPSK) ; si BW = 33 MHz et RS = 27,5 Ms/s, on a alors : C/N = Eb/N0 + 2,2 (dB).

9782100520442-Livre.fm Page 111 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

Dans un récepteur réel, en raison de diverses imperfections (bruit de phase du tuner, dissymétrie entre I et Q…), ces courbes sont décalées vers la droite, ce qui signifie qu’il faut un rapport signal/bruit supérieur à la théorie pour obtenir un taux d’erreur (BER) donné. La différence (décalage vers la droite) entre la courbe théorique et la réalité obtenue est appelée perte d’implémentation (implementation loss) et s’exprime en dB (pour fixer les idées, elle ne doit pas atteindre 1 dB pour un bon récepteur). Compte tenu des rapports signal/bruit obtenus en réception satellite, une modulation QPSK (2 bits par symbole) s’avère être en pratique le nombre de bits par symbole le plus élevé possible, donc la meilleure efficacité spectrale possible, pour les émissions par satellite. Dans le cas du câble, une modulation jusqu’à 64-QAM (6 bits par symbole), beaucoup plus efficace, est utilisable (certaines propositions américaines envisagent même le 256-QAM). La figure 7.7 représente l’effet du bruit sur la constellation récupérée à la sortie du démodulateur après transmission dans le cas d’un signal QPSK en réception satellite bruitée.

© Dunod. La photocopie non autorisée est un délit.

111

Figure 7.7 – Effet du bruit sur la constellation QPSK en réception à faible niveau

9782100520442-Livre.fm Page 112 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

La figure 7.8 représente le cas d’une réception câble utilisant une modulation 64QAM avec un rapport signal/bruit assez faible (de l’ordre de 23 dB).

112

Figure 7.8 – Cas d’une réception câble 64-QAM avec S/B de 23 dB

On conçoit qu’à partir d’un certain niveau de bruit, le démodulateur ne pourra plus distinguer avec certitude un point de la constellation de ses voisins, il y aura donc ambiguïté sur le symbole reçu, et donc erreur potentielle ; ceci se produira pour un niveau de bruit d’autant plus faible qu’il y aura plus de points dans la constellation, les points étant plus proches les uns des autres. Nous avons indiqué au paragraphe précédent que la réception sur câble, si elle bénéficiait d’un rapport signal/bruit relativement élevé, pouvait par contre être affectée d’échos importants.

9782100520442-Livre.fm Page 113 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

La figure 7.9a montre l’effet de ces échos sur la constellation, où l’on ne distingue plus les différents points en raison d’une interférence intersymbole très élevée. L’utilisation dans le récepteur d’un égaliseur d’échos (echo equalizer) permet dans ce cas de retrouver une constellation pratiquement parfaite (figure 7.9b).

113 Figure 7.9 – Constellation 64-QAM avec échos importants : (a) avant égalisation ; (b) après égalisation

© Dunod. La photocopie non autorisée est un délit.

D’autres types de défauts de transmission ou d’imperfections dans les matériels d’émission et/ou de réception (courbe de réponse en fréquence imparfaite, interférences, intermodulation…) augmentent l’interférence intersymbole, et apparaissent comme du bruit sur la constellation, d’où la nécessité des dispositifs de correction d’erreurs décrits précédemment. Un autre problème que le récepteur doit résoudre avec ces types de modulation est dû au fait qu’il ne dispose pas de référence de phase absolue pour démoduler la constellation (contrairement au cas de la sous-porteuse NTSC ou PAL, où une salve de référence est envoyée régulièrement à chaque début de ligne). Il y a donc ambiguïté de phase de 90° (le circuit de récupération de porteuse peut se verrouiller selon 4 états de phase différents), qui se traduira par le fait que le récepteur ne pourra pas se synchroniser tant que la phase de la porteuse récupérée ne sera pas correcte. Dans le cas de la modulation 64-QAM retenue pour le câble, on évite ce problème en utilisant une modulation différentielle pour les 2 bits de poids fort (l’état de ces

9782100520442-Livre.fm Page 114 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

bits détermine un changement de phase et non une phase absolue), ce qui permet au récepteur de fonctionner quelle que soit la phase sur laquelle il est verrouillé (les bits de poids faible sont identiques dans les 4 quadrants). Le tableau 7.3 représente la table de vérité pour le codage des bits de poids fort (MSB) des signaux I and Q modulant la porteuse pour la modulation QAM utilisée en DVB-C.

Tableau 7.3 – Table de vérité du codage différentiel des MSB de I et Q en DVB-C

114

Dans le cas de la modulation QPSK du satellite (non différentielle), l’information d’absence de synchronisation pourra être utilisée pour modifier de 90° (jusqu’à 3 fois) la relation de phase entre la porteuse récupérée et le signal reçu jusqu’à ce que la synchronisation soit obtenue.

Tableau 7.4 – Les différents débits utiles en fonction de la largeur du canal et du code rate pour une modulation QPSK (satellite) (d’après prETS 300 421, © ETSI 1995)

9782100520442-Livre.fm Page 115 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

Les zones grisées indiquent les cas pouvant être transposés de façon « transparente », c’est-à-dire sans modification des paquets « transport », sur un canal câble (64-QAM) de largeur 8 MHz. Dans ce cas, le traitement en tête de réseau pourra se limiter à la démodulation QPSK et au décodage de canal satellite (Viterbi, désentrelacement, Reed-Solomon, débrassage) pour récupérer les paquets « transports » corrigés de 188 octets et à réeffectuer un codage de canal câble (brassage, Reed-Solomon, entrelacement) suivi d’une modulation 64-QAM.

7.4

Télévision numérique terrestre (DVB-T) : la modulation OFDM Ce type de modulation, dont le principe consiste à répartir un train binaire à haut débit sur un grand nombre de porteuses « orthogonales » (plusieurs centaines à plusieurs milliers) transportant chacune un faible débit, a été notamment retenu pour la radio numérique DAB. Son principal avantage est son excellent comportement en cas de réception à trajets multiples, ce qui est fréquent lors de la réception terrestre mobile ou portable, le retard des trajets multiples devenant dans ce cas très inférieur à la période d’un symbole. Le principe de la modulation OFDM également appelée COFDM (Coded Orthogonal Frequency Division Multiplexing) consiste à moduler (en QPSK ou QAM selon le compromis robustesse/débit recherché) un grand nombre N de porteuses par des symboles de durée Ts (égale à leur période), la fréquence de deux porteuses consécutives étant distante de 1/Ts .

© Dunod. La photocopie non autorisée est un délit.

Ceci détermine la condition d’orthogonalité entre ces porteuses, dont le spectre est visible à la figure 7.10 : pour la valeur centrale d’une porteuse donnée, on observe un passage par 0 du spectre des porteuses voisines. La relation entre la fréquence f0 de la porteuse la plus basse et celle fk d’une k porteuse de rang k (avec 0 ≤ k ≤ N – 1) est f k = f 0 + ---- . Ts Le spectre d’un tel ensemble de porteuses possède des lobes parasites secondaires, comme le montre la figure 7.11, ici pour N = 32 (la largeur de ces lobes est égale à 1/Ts). Cependant, dans les conditions de réception terrestres réelles, les signaux issus de trajets multiples s’ajoutant au signal direct font que les conditions d’orthogonalité entre porteuses ne sont plus respectées, ce qui a pour conséquence la présence d’interférence intersymbole.

115

9782100520442-Livre.fm Page 116 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

116

Figure 7.10 – Spectre des porteuses adjacentes en modulation OFDM (d’après la Revue de l’UER – Technique, n° 224, août 1987)

Figure 7.11 – Spectre d’un signal OFDM à 32 porteuses (d’après la Revue de l’UER – Technique, n° 224, août 1987)

9782100520442-Livre.fm Page 117 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

On s’affranchit de ce problème en faisant précéder la durée de symbole Ts d’un intervalle de garde ∆ pour obtenir une nouvelle période symbole T ′s = ∆ + Ts. Cet intervalle de garde est en général inférieur ou égal à Ts/4 et il est occupé par une copie de la fin du symbole utile. Pour simplifier le filtrage et éviter tout repliement de spectre lors de l’échantillonnage, on est conduit à réduire la bande passante à une valeur inférieure à la moitié de la fréquence d’échantillonnage, ce qui revient à supprimer un certain nombre de porteuses aux extrémités de la bande (par exemple N ′ = 28 au lieu de N = 32). En général, N est beaucoup plus grand que 32, et donc l’importance relative des lobes secondaires beaucoup plus faible que sur la figure 7.11.

Figure 7.12 – Formation de l’intervalle de garde



Télévision numérique terrestre (standard DVB-T)

© Dunod. La photocopie non autorisée est un délit.

Pour la télévision numérique terrestre, le module technique du DVB a retenu une modulation OFDM à 2 048 porteuses (2K) ou 8 192 porteuses (8K), pour laquelle on peut considérer que le spectre est virtuellement rectangulaire (figure 7.13).

Figure 7.13 – Spectre d’un signal DVB-T avec ∆ = TS/4

117

9782100520442-Livre.fm Page 118 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Le standard DVB-T est principalement utilisé sur des canaux (UHF) de 8 MHz, mais prévoit aussi les cas des canaux de 7 ou 6 MHz et peut donc s’adapter à toutes les situations existant au monde. Il a été conçu pour coexister avec la télévision analogique grâce à une bonne résistance aux interférences avec les canaux adjacents (Adjacent Channel Interference ou ACI) et à l’intérieur même du canal (Co-Channel Interference ou CCI). Le tableau 7.5 en résume les principaux paramètres (canaux européens de 7 ou 8 MHz).

118

Tableau 7.5 – Principaux paramètres des signaux terrestres DVB-T (modulation OFDM 2K ou 8K)

Afin d’adapter le train binaire à la modulation OFDM et d’augmenter encore la robustesse du système, après un codage de canal identique à celui du satellite, les données subissent un processus d’entrelacement complexe, en deux étapes : • tout d’abord, un premier entrelacement au niveau « bit » forme des matrices de 126 mots de 2, 4 ou 6 bits selon la modulation choisie pour les porteuses (QPSK, 16-QAM ou 64 QAM) ; • ces matrices sont ensuite regroupées par 12 (mode 2K) ou 48 (mode 8K) pour former des symboles de 1 512 × 2 bits (mode 2K en QPSK) à 6 048 × 6 bits (mode 8K en 64-QAM) qui serviront à moduler les 1 512 ou 6 048 porteuses utiles. Étant donné le grand nombre de porteuses, la modulation de celles-ci ne s’effectue évidemment pas individuellement pour chacune d’elles, mais au moyen d’une

9782100520442-Livre.fm Page 119 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

transformée inverse de Fourier rapide (iFFT) sur 2 048 points (mode 2K) ou 8 192 points (mode 8K) qui convertit les données complexes d’entrée du domaine temporel au domaine fréquentiel. En mode 8K, la longue période de symbole (896 µs avec des canaux de 8 MHz), combinée à l’intervalle de garde maximal (1/4 = 224 µs), autorise une réception satisfaisante même en présence d’échos très longs (différence de trajet de plusieurs dizaines de kilomètres) ce qui permet la création de réseaux à large couverture (nationale par exemple) à canal unique (Single Frequency Network ou SFN), avec des émetteurs pouvant être éloignés de plusieurs dizaines de kilomètres les uns des autres. Le mode 2K 1 est plus simple à réaliser au niveau du démodulateur, mais cette simplification se paie par une division par quatre de la distance d’écho admissible, ce qui rend ce mode inadapté aux réseaux SFN, ainsi que par une moindre immunité aux parasites impulsionnels. (allumage de moteurs à explosion, moteurs électriques, etc.). Cependant, l’écart quatre fois plus important qu’en mode 8K entre les porteuses divise par quatre les conséquences de l’effet Doppler qui se manifeste lors de la réception mobile et autorise ainsi en principe une réception mobile à vitesse élevée (environ 250 km/h en haut de la gamme UHF en mode 2K). La vitesse maximale est quatre fois plus faible en mode 8K qu’en mode 2K, et inversement proportionnelle à la fréquence

© Dunod. La photocopie non autorisée est un délit.

La norme DVB-T prévoit de plus une possibilité de codage hiérarchique au moyen d’une modulation QAM non uniforme caractérisée par une plus grande distance entre les états adjacents situés dans des quadrants différents qu’entre les états appartenant au même quadrant. Les configurations de constellations non uniforme sont définies par le paramètre a (qui peut prendre les valeurs 1, 2 ou 4). La figure 7.14 représente la constellation d’un exemple de modulation non uniforme. Ceci permet la diffusion simultanée d’un bitstream prioritaire modulant les deux bits de poids fort d’une émission 16 ou 64-QAM, ce qui permet de la considérer à la réception comme bruitée et modulée en QPSK, et d’un second moins prioritaire 1. Le Royaume-Uni, qui a démarré le premier service de TV numérique terrestre à la norme DVB-T fin 1998 (bouquet On Digital, rebaptisé ITV Digital), a choisi la variante à 2K porteuses parce que les premiers circuits alors disponibles ne supportaient que ce mode. Cette simplification se traduisait au départ par une économie non négligeable, qui a rapidement disparu car les circuits couvrent désormais toutes les possibilités de la spécification DVB-T.

119

9782100520442-Livre.fm Page 120 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

120 Figure 7.14 – Exemple de constellation 16-QAM non uniforme (α = 4)

modulant les bits de poids faible, autorisant une démodulation QAM moins robuste (nécessitant un bon rapport C/N) mais à débit plus élevé. Les applications peuvent être la diffusion sur un même canal de plusieurs programmes pouvant être reçus dans des conditions de réception différentes, ou d’un même programme avec des caractéristiques de résolution différentes selon les conditions de réception. La diffusion simultanée d’un bitstream QPSK très robuste à débit relativement faible permettant la réception mobile satisfaisante d’une émission à définition standard et d’un bitstream QAM à débit plus élevé transmettant une émission haute définition ou plusieurs à définition standard, destiné à la réception fixe, est ainsi possible. Le signal DVB-T est organisé en trames (frames) successives de 68 symboles. Quatre trames successives forment une super-trame (superframe) de 272 symboles qui permet la transmission d’un nombre entier de paquets protégés RS de 204 octets, ce qui évite d’avoir à insérer des octets de bourrage, quels que soient les paramètres de transmission utilisés.

9782100520442-Livre.fm Page 121 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

De manière à aider le récepteur à acquérir le signal et à l’informer des paramètres de modulation et de codage de canal, le signal OFDM inclut des porteuses qui ne sont pas modulées par le bitstream « utile » (voir tableau 7.5). On distingue les porteuses pilotes continues (continual pilot carriers) dont la position est fixe, les porteuses pilotes « dispersées » (scattered pilot carriers) qui se décalent de trois positions à chaque symbole et les porteuses TPS (Transmission Parameter Signalling). Les porteuses pilotes sont transmises avec une puissance supérieure aux autres porteuses et sont modulées par une séquence pseudo-aléatoire (PRBS) dont le polynôme générateur est X11 + X2 + 1. Elles permettent au récepteur de se synchroniser et de faire une estimation du canal (altération de réponse en fréquence due aux trajets multiples, etc.) en vue de sa correction. Les porteuses TPS transportent à faible cadence tous les paramètres de transmission au moyen d’une modulation BPSK différentielle (1 bit/symbole) très robuste. Elles permettent une acquisition accélérée du signal au récepteur, ainsi qu’une réponse rapide à un éventuel changement de mode. Toutes les porteuses TPS transportent à un moment donné le même bit d’information. Cette très forte redondance permet de décoder l’information TPS même lorsque le signal DVB-T est inexploitable pour une réception satisfaisante.

© Dunod. La photocopie non autorisée est un délit.

L’information TPS est transmise une fois par trame (68 symboles) ; sa longueur est donc de 68 bits.

Figure 7.15 – Structure de la trame TPS

Le tableau 7.6 donne le détail de l’affectation des bits TPS. La figure 7.16 donne un bloc-diagramme du processus codage de canal + modulation DVB-T (les blocs spécifiques au système DVB-T sont en gris plein). Ce bloc-diagramme, bien que très simplifié, montre que le processus est nettement plus complexe que pour le cas du câble ou du satellite.

121

9782100520442-Livre.fm Page 122 Jeudi, 24. juin 2010 11:35 11

TÉLÉVISION NUMÉRIQUE

122

Figure 7.18 – Les principales étapes de codage de canal et de modulation DVB-T

LA

9782100520442-Livre.fm Page 123 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

Tableau 7.6 – Détail de l’affectation des bits de l’information TPS

La spécification DVB-T a été normalisée en 1997 par l’ETSI sous la référence ETS 300 744.



Exercice : calcul du débit effectif d’un mode DVB-T courant (cas des émissions en France)

© Dunod. La photocopie non autorisée est un délit.

• • • • •

canal de 8 MHz ; mode 8K (paramètre indifférent pour le débit) ; modulation 64-QAM ; intervalle de garde 1/32 ; taux de poinçonnage (puncturing rate) : 2/3.

Nous avons 6 048 porteuses utiles modulées en 64-QAM (6 bits/symbole) avec une fréquence symbole de 1 116,0714 Hz, soit un débit brut de : 6 048 × 6 × 1 116,0714 = 40,500 Mb/s

Le calcul du débit utile doit prendre en compte l’intervalle de garde (soit 32/33 avec ∆ = 1/32) et le codage de canal (soit 2/3 pour le poinçonnage et 188/204 pour le codage RS) d’où le débit utile de : 32 2 188 40,500 × ----- × - × ------- = 24,188 Mb/s 33 3 204 Ce débit permet, selon le compromis qualité d’image/quantité de programmes choisi par l’opérateur, de transmettre 4 à 6 programmes TV.

123

9782100520442-Livre.fm Page 124 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Selon le compromis robustesse/débit de transmission choisi par l’opérateur, le système DVB-T permet d’obtenir les débits minimum et maximum suivants pour un canal de 8 MHz : • débit minimum : 4,98 Mb/s (modulation QPSK, intervalle de garde 1/4, code rate 1/2) ; • débit maximum : 31,67 Mb/s (modulation 64-QAM, intervalle de garde 1/32, code rate 7/8). On voit que le débit peut varier dans un rapport de 1 à 6 !

7.5

Les normes de transmission DVB de seconde génération (DVB-S2, DVB-T2, DVB-C2) Ces normes de seconde génération peuvent être considérées comme une extension des normes DVB-S, DVB-T et DVB-C qu’elles ne sont destinées à remplacer complètement qu’à très long terme en raison du parc important de récepteurs de première génération. Dans un premier temps, elles sont principalement – mais pas exclusivement – utilisées pour lancer de nouveaux services en haute définition.

124

Elles améliorent notablement leur flexibilité et leur efficacité en permettant d’approcher les limites absolues de capacités de transmission énoncées par Shannon dans sa théorie de l’information. Ce résultat remarquable a pu être obtenu principalement grâce au remplacement des codes de Reed-Solomon et convolutif utilisés dans la première génération par des codes correcteurs d’erreurs beaucoup plus souples et plus efficaces (concaténation de codes BCH et LDPC). À la différence des normes de première génération, elles ne sont plus limitées à un seul flux au format transport stream MPEG-2, mais peuvent aussi transmettre un ou plusieurs flux dits « génériques » au moyen d’une encapsulation spécifique (Generic Stream Encapsulation ou GSE) et elles incluent des modes permettant de transporter plusieurs flux avec des « priorités » (robustesses) différentes. De ce fait, la taille des blocs sur lesquels la correction d’erreur s’effectue a dû être rendue plus souple et indépendante du format du flux d’entrée. Elle ne porte donc plus directement sur les paquets de 188 octets du format transport stream mais sur des blocs de longueur optimisée. Nous n’entrerons pas dans les détails des opérations assez complexes nécessaires à l’adaptation des différents formats d’entrée possibles et nous contenterons d’en indiquer les grandes lignes.

9782100520442-Livre.fm Page 125 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

7.5.1 Adaptation de mode et de flux d’entrée et correction d’erreur de seconde génération

Selon le type de flux d’entrée, différentes opérations sont nécessaires à la formation d’un bloc de longueur adaptée au mode d’émission visé et aux performances recherchées pour la correction d’erreur, indépendamment du format du ou des flux d’entrée. C’est à ce bloc appelé BBFRAME (trame en bande de base) que le codage BCH s’appliquera. La figure 7.17 indique schématiquement comment est créée la BBFRAME dont la longueur peut aller de 3 072 à 58 192 bits selon le mode d’émission et les paramètres choisis pour le codage interne LDPC (figures 7.17 à 7.19).

125

© Dunod. La photocopie non autorisée est un délit.

Figure 7.17 – Format du flux à la sortie de l’adaptation de mode

La BBFRAME débute par un en-tête (BBHEADER) de longueur fixe (80 bits) qui décrit le format du champ de données (DATA FIELD) pour que le décodeur puisse reconstituer le flux d’origine.

Figure 7.18 – Formation de la BBFRAME

9782100520442-Livre.fm Page 126 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Un champ de padding optionnel peut être ajouté si nécessaire après le champ de données optionnel pour amener la longueur du bloc à 16 200 ou 64 800 bits après codage BCH et LDPC. La BBFRAME subit ensuite une randomisation au moyen d’une séquence pseudoaléatoire dont le polynôme générateur est 1 + X14 + X15.



Codage externe de DVB-S2, T2, C2 (codage BCH)

Les codes BCH (Bose-Chaudhuri, Hocquenghem) sont des codes correcteurs d’erreurs paramétrisés inventés indépendamment en 1959 par Hocquenghem et une année plus tard par Bose et Ray-Chaudhuri, d’où l’abréviation BCH qui leur a été donnée. Ils peuvent être décodés de manière simple au moyen d’une méthode algébrique connue sous le nom de décodage de syndrome. Cette simplicité se traduit par une circuiterie de décodage sans processeur, ce qui permet une taille et une consommation d’énergie modestes. Un code BCH est un code correcteur d’erreur cyclique multiniveau à longueur variable destiné à corriger des erreurs aléatoires multiples. Sa grande flexibilité permet d’adapter ses caractéristiques à l’application visée (longueur de bloc, seuil d’erreur tolérable).

126

C’est pourquoi le codage BCH a été choisi pour remplacer le codage de Reed-Solomon qui s’appliquait à des paquets taille unique (paquets transport de 188 octets). Dans les systèmes DVB de seconde génération, le codage BCH s’applique à des blocs appelés BBFRAME (littéralement « trame de bande de base ») dont la longueur peut aller de 3 072 à 58 192 bits selon la longueur de la FECFRAME (16 200 ou 64 800 bits) à obtenir après codage BCH puis LDPC et les paramètres choisis pour le codage interne LDPC. Seule la FECFRAME dite « normale » de 64 800 bits est utilisée pour les applications de diffusion vers le grand public. Selon le taux choisi pour le codage LDPC, le codage BCH ajoute 128, 160 ou 192 bits à la BBFRAME ce qui permet de corriger 8, 10 ou 12 bits erronés.



Codage interne de DVB-S2, T2, C2 (codage LDPC)

Ce codage a été inventé au début des années 1960 par Gallager mais son intérêt pratique n’est pas apparu à l’époque et il est resté dans l’oubli pendant près de trente ans. Il a été redécouvert dans les années 1990 et est apparu comme une

9782100520442-Livre.fm Page 127 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

alternative intéressante aux turbocodes, qui venaient de faire leur apparition, en raison de ses performances et du fait qu’il ne faisait l’objet d’aucun brevet. Un code LDPC (Low Density Parity Check, littéralement « contrôle de parité à faible densité ») est un code correcteur d’erreur linéaire construit en utilisant un graphe bipartite dit « épars » (sparse). Les codes LDPC permettent d’approcher la limite de Shannon pour la capacité de transmission d’un canal. Ils peuvent être décodés en un temps proportionnel à leur longueur de bloc en utilisant des techniques itératives dites « à propagation de croyance » (belief propagation). Le codage LDPC a été choisi en 2003 pour remplacer le codage convolutif dans le standard satellite de deuxième génération du DVB (DVB-S2) et par la suite pour les standards DVB-T2 et DVB-C2. Dans les systèmes DVB de seconde génération, le codage LDPC porte la longueur des blocs BBFRAME préalablement codés BCH à 16 200 (FECFRAME courte) ou 64 800 bits (FECFRAME normale). Pour la trame normale, le taux de codage peut aller de 1/4 à 9/10 selon la robustesse recherchée. La figure 7.19 illustre le résultat de la concaténation des codages BCH et LDPC. 127

© Dunod. La photocopie non autorisée est un délit.

Figure 7.19 – Concaténation des codes BCH et LDPC dans les normes DVB-x2



Entrelacement de bits (bit interleaving)

La sortie du codeur LDPC est entrelacée au niveau bit au moyen d’une matrice d’entrelacement écrite en colonnes et lue en ligne. La taille de la matrice dépend de la modulation utilisée. La figure 7.20 illustre ce processus dans le cas de DVB-S2 pour la FECFRAME normale (64 800 bits) et la modulation 8-PSK pour lequel la matrice est constituée de 3 colonnes de 21 600 lignes.

9782100520442-Livre.fm Page 128 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

128

Figure 7.20 – Principe de l’entrelacement bit de DVB-S2 (64 200, 8-PSK)

7.5.2 La norme de transmission par satellite DVB-S2 (ETSI EN 302 307) La norme DVB-S2, enregistrée sous la référence EN 302 307, couvre une gamme beaucoup plus large d’applications que DVB-S, d’une part vers les très hauts débits par l’utilisation de constellations de modulation jusqu’à 32 états (modulation 32-APSK à 5 bits par symbole), d’autre part vers les applications demandant une robustesse accrue, grâce notamment à l’utilisation de la modulation QPSK et de code rates très faibles. On peut ainsi atteindre une efficacité spectrale d’environ 4 bits/Hz (APSK32, code rate 9/10), soit un débit théorique de 135 Mb/s dans un canal de 33 MHz, si on peut garantir un C/N de l’ordre de 16 dB. On peut aussi privilégier la robustesse par l’utilisation de la modulation QPSK (2 bits par symbole) et un code rate faible de 1/4 : on peut ainsi maintenir le fonctionnement avec un C/N aussi faible que –3 dB (c’est-à-dire avec un signal deux fois plus faible que le bruit dans lequel il est noyé !), mais l’efficacité spectrale

9782100520442-Livre.fm Page 129 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

descend alors à moins de 0,5 bit/Hz, soit un débit d’environ 15 Mb/s dans un canal de 33 MHz. Un nombre très grand de possibilités intermédiaires est offert, avec l’utilisation des modulations 8-PSK (3 bits par symbole) et 16-APSK (4 bits par symbole) avec des code rates pouvant varier de 1/4 à 9/10. Pour les applications grand public, seules les modulations QPSK (déjà utilisée en DVB-S) et 8-PSK sont utilisées, et la gamme de code rates ne s’étend que de 1/2 à 9/10.

Figure 7.21 – Les constellations QPSK et 8-PSK de DVB-S2

Le facteur de roll-off, qui est fixé à 0,35 en DVB-S, peut en DVB-S2 prendre les valeurs de 0,20, 0,25 et 0,35, ce qui permet de tirer un meilleur parti de la bande passante du transpondeur.

© Dunod. La photocopie non autorisée est un délit.

Des codes correcteurs d’erreur plus performants portant sur des blocs de 64 800 ou 16 200 bits (codage BCH au lieu de Reed-Solomon et codage LDPC au lieu de Viterbi) permettent d’approcher la limite de Shannon qui fixe le rapport C/N théorique minimal pour une modulation donnée. L’utilisation combinée de ces innovations permet d’améliorer, à conditions de réception (C/N) identiques, l’efficacité spectrale d’au moins 30 % par rapport à DVB-S. C’est ce que montre la figure 7.22 si l’on compare par exemple DVB-S2 (8-PSK, code rate 1/2) à DVB-S (QPSK, code rate 3/4) pour un niveau de C/N de l’ordre de 7 dB. Cela permet soit d’augmenter la couverture d’un satellite à débit identique, soit d’augmenter le débit à couverture identique, par exemple pour introduire la TVHD. Le tableau 7.7 montre un gain de capacité respectif de 36 % et 32 % de DVB-S2 par rapport à DVB-S dans deux conditions de réception différentes.

129

9782100520442-Livre.fm Page 130 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 7.22 – Efficacité spectrale (bit/s par symbole/s) en fonction de C/N selon la modulation et le code rate. La ligne discontinue représente la limite théorique de Shannon (d’après ETSI, EN 302 307)

PIRE du satellite

130

51 dBW

53,7 dBW

Système

DVB-S

DVB-S2

DVB-S

DVB-S2

Modulation & codage

QPSK 2/3

QPSK 3/4

QPSK 7/8

8-PSK 2/3

Facteur de roll-off

0,35

0,2

0,35

0,25

Débit symbole (Mbaud)

27,5

30,9

27,5

29,7

C/N (dB) nécessaire

5,1

5,1

7,8

7,8

Débit utile (Mb/s)

33,8

46

44,4

58,8

Gain net



+36%



+32%

Tableau 7.7 – Comparaison des capacités de transmission entre DVB-S et DVB-S2 pour deux exemples de conditions de réception équivalentes (D’après EBU Technical Review 10/04)

C’est cette augmentation de capacité de DVB-S2 combinée à l’efficacité de la compression H264 qui permet de trouver la bande passante nécessaire à la multiplication rapide des chaînes de TVHD. La combinaison H264/DVB-S2 permet aussi un quasi-doublement du nombre de programmes SD transmis par transpondeur par rapport à MPEG-2/DVB-S. Le coût des composants pour DVB-S2 et H264 étant désormais abordable, certains bouquets utilisent également cette combinaison pour la télévision à définition standard.

9782100520442-Livre.fm Page 131 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

7.5.3 La norme de transmission terrestre DVB-T2 (ETSI EN 302 755) Comme la norme DVB-T, la norme DVB-T2, enregistrée sous la référence EN 302 755, est basée sur la modulation COFDM mais sa flexibilité a été considérablement augmentée par l’accroissement du nombre des tailles de FFT permises (nombre de porteuses) qui s’étend de 1k à 32k. Le nombre de modes de modulation des porteuses a été augmenté grâce à l’introduction du 256-QAM ainsi que le nombre d’intervalles de garde qui s’étend de 1/4 à 1/128. En ce qui concerne les codes correcteurs d’erreur, DVB-T2 fait appel au même couple BCH/LDPC que la norme satellite de seconde génération (DVB-S2), dont il résulte une excellente robustesse combinée à une grande efficacité. Cette efficacité est encore augmentée grâce à une réduction significative de la proportion des porteuses pilotes (de plus de 10 % du total à moins de 1,5 % dans le cas le plus favorable) ainsi que par l’utilisation du mode 32k qui permet de gagner environ 2 % d’occupation du canal grâce à un spectre plus « carré » que mode 8k. Une nouvelle option de « rotation de constellation » permet une augmentation supplémentaire de robustesse dans certains cas difficiles. Une technique comparable au time slicing de DVB-H permet à DVB-T2 d’ajuster individuellement la robustesse des services à des conditions de réception différentes (antenne extérieure ou intérieure par exemple) et de réduire la consommation des appareils en ne décodant qu’un seul service plutôt que l’ensemble du multiplex.

© Dunod. La photocopie non autorisée est un délit.

Le tableau 7.8 montre l’étendue des possibilités de paramétrage de DVB-T2 par rapport à DVB-T. Système

DVB-T

DVB-T2

Interface d’entrée

Transport stream unique (TS)

Transport stream multiple, flux générique encapsulé (GSE)

Correction d’erreurs

Convolution + RS

LDPC + BCH

Taux FEC

1/2, 2/3, 3/4, 5/6, 7/8

1/2, 3/5, 2/3, 3/4, 4/5, 5/6

Modulation porteuses

QPSK, 16-QAM, 64-QAM

QPSK, 16-QAM, 64-QAM, 256-QAM

Intervalle de garde

1/4, 1/8, 1/16, 1/32

1/4, 19/256, 1/8, 19/128, 1/16, 1/32, 1/128

Taille FFT

2k, 8k

1k, 2k, 4k, 8k, 16k, 32k

% Pilotes dispersées

8 % du total

1, 2, 4 ou 8 % du total

% Pilotes continues

2,6 % du total

0,35 % du total

Tableau 7.8 – Paramétrages possibles de DVB-T et DVB-T2 (d’après DVB project office)

131

9782100520442-Livre.fm Page 132 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Le standard DVB-T2 prévoit aussi l’émission en diversité au moyen d’un codage dit d’Alamouti, pour permettre d’améliorer la couverture des réseaux SFN de petites dimensions ainsi que des possibilités d’extension compatible du standard grâce à l’utilisation de « trames d’extension future » (Future Extension Frames ou FEF). Comme pour le DVB-T une dizaine d’années plus tôt, c’est le Royaume-Uni qui a été le pionnier de l’utilisation du DVB-T2 à la fin de 2009 pour le lancement de la haute définition sur le réseau numérique terrestre (Freeview). Le tableau 7.9 montre le gain de débit (+46,5 %) pouvant être obtenu au moyen de DVB-T2 par rapport à DVB-T à conditions de réception équivalentes (cas d’un réseau MFN).

132

DVB-T

DVB-T2

Taille FFT

2k ou 8k

32k

Taux FEC

2/3

3/5

Modulation porteuses

64-QAM

256-QAM

Intervalle de garde

1/32

1/128

Débit utile

24,13 Mb/s

35,4 Mb/s (+46,5 %)

Tableau 7.9 – Comparaison des capacités de transmission de DVB-T et DVB-T2 à conditions de réception équivalentes (d’après DVB project office)

7.5.4 La norme de transmission par câble DVB-C2 (ETSI EN 302 769)

Tout comme la diffusion par satellite et la diffusion terrestre, la transmission par câble a besoin de bénéficier des progrès dans les algorithmes de codage de canal afin de permettre une augmentation de capacité de transport significative nécessitée entre autres par l’apparition de la haute définition. Les travaux de DVB-C2 ont démarré plus tard que ceux de DVB-S2 et DVB-T2, c’est pourquoi le standard n’est pas encore officiellement enregistré comme une norme européenne à l’heure où nous écrivons ces lignes, mais il est pratiquement finalisé et publié dans le document DVB A138 (avril 2009). Afin d’augmenter significativement la capacité de transport par rapport à DVB-C, les constellations ont été augmentées jusqu’à 4 096 états, ce qui a nécessité une amélioration importante de la résistance aux échos (relativement courts dans un réseau câblé). La modulation COFDM 4k avec deux valeurs possibles d’intervalles de garde (1/64 ou 1/128) a été choisie de préférence à un système à porteuse unique avec égalisation d’écho.

9782100520442-Livre.fm Page 133 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 7 – MODULATION

DES SIGNAUX NUMÉRIQUES

Le tableau 7.10 montre les principales différences entre DVB-C et DVB-C2. Système

DVB-C

DVB-C2

Interface d’entrée

Transport stream unique (TS)

Transport stream multiple, flux générique encapsulé (GSE)

Mode

Codage et modulation constants

Codage et modulation variable et adaptatifs

Correction d’erreurs

Reed-Solomon

LDPC + BCH

Entrelacement

Bit

Bit, temporel et fréquentiel

Type de modulation

TDM (porteuse unique)

COFDM 4k (3 408 porteuses)

Modes

16-QAM, 64-QAM

16-QAM, 64-QAM, 256-QAM, 1024-QAM, 4096-QAM

Porteuses pilotes

NA

Dispersées + continues

Intervalle de garde

NA

1/64, 1/128

Tableau 7.10 – Comparaison entre les normes DVB-C et DVB-C2 (d’après DVB project office)

© Dunod. La photocopie non autorisée est un délit.

133

Figure 7.23 – Performances de bruit comparées de DVB-C et DVB-C2 par rapport à la limite théorique de Shannon (d’après DVB Project Office – DVB-C2 : the most advanced Digital Cable System)

Le tableau 7.11 résume les principales caractéristiques des émissions aux normes DVB selon le médium de transmission utilisé. On peut remarquer que le codage de source est entièrement commun, que le codage de canal est plus simple pour les émissions par câble et que les modulations diffèrent pour chaque médium.

BCH



Rendement de code (code rate)

6, 7 ou 8 MHz

Largeur du canal

N.A.

6, 7 ou 8 MHz

16 à 4 096-QAM

OFDM 4K

N.A.

1/128

Par blocs (8-PSK, 16 et 32-APSK)

1/4 à 9/10

LDPC

27-36 MHz

QPSK

TDM

35 %

N.A.

N.A.

1/2, 2/3, 3/4, 5/6, 7/8

Convolutif

Forney, profondeur 12

27-36 MHz

QPSK à 32-APSK

TDM

20, 25 ou 35 %

N.A.

Par blocs (8-PSK, 16 et 32-APSK)

1/4 à 9/10

LDPC

N.A.

BCH

6, 7 ou 8 MHz

QPSK à 64-QAM

OFDM 2k ou 8k

N.A.

1/32 à 1/4

N.A.

1/2, 2/3, 3/4, 5/6, 7/8

Convolutif

Forney, profondeur 12

Reed-Solomon (204,188, T = 8)

Tableau 7.11 – Principales caractéristiques des signaux TV numériques aux normes DVB

TDM 16 à 64-QAM

Mode

Facteur de roll-off

Modulation

N.A. 15 %

Intervalle de garde

N.A.

Absent

Codage interne

Entrelacement bits

Forney, profondeur 12

Entrelacement octets

Reed-Solomon (204,188, T = 8)

1 + X14 + X15

Brassage Reed-Solomon (204,188, T = 8)

188 octets

Codage externe

DVB-CSA (Common Scrambling Algorithm)

Embrouillage

Paquet transport

MPEG-2 ou MPEG-4 AVC (H264)

Terrestre (DVB-T)

MPEG-1 (couche II), Dolby Digital, Dolby Digital+ ou AAC

Satellite (DVB-S2)

Codage vidéo

Satellite (DVB-S)

Codage audio

Câble (DVB-C2)

134

Câble (DVB-C)

6, 7 ou 8 MHz

QPSK à 256-QAM

OFDM 1k à 32k

N.A.

1/128 à 1/4

Par blocs (16, 64 et 256-QAM)

1/2, 3/5, 2/3, 3/4, 4/5, 5/6

LDPC

N.A.

BCH

Terrestre (DVB-T2)

LA

Paramètre

9782100520442-Livre.fm Page 134 Jeudi, 24. juin 2010 11:35 11

TÉLÉVISION NUMÉRIQUE

9782100520442-Livre.fm Page 135 Jeudi, 24. juin 2010 11:35 11

Chapitre 8 Réception de la télévision numérique

8.1

135

Vue d’ensemble du processus d’émission/réception

© Dunod. La photocopie non autorisée est un délit.

Pour servir à la fois de synthèse aux notions développées dans les précédents chapitres, et d’introduction à la description d’un récepteur avec décodeur intégré, appelé IRD (Integrated Receiver-Decoder) ou plus familièrement set-top box (littéralement « boîte posée sur le poste ») par les Anglo-Saxons, nous récapitulerons rapidement de façon très simpliste la suite des opérations que subit le signal TV de sa source à sa visualisation par l’utilisateur. La partie supérieure de la figure 8.1 illustre la succession des étapes du processus à l’émission, dont le rôle est de fournir sur un seul canal RF un multiplex de programmes MPEG-2 :

① Les signaux vidéo et audio des programmes à transmettre attaquent autant de codeurs MPEG-2 ou MPEG-4 qui fournissent les PES vidéo et audio à l’entrée du multiplexeur. ② Ces PES sont utilisés par le multiplexeur pour former des paquets transport de 188 octets, éventuellement embrouillés (des paquets CAT transportant les informations de contrôle d’accès ECM et EMM sont alors insérés) ainsi que les informations des tables PAT et PMT, celles du guide de programme (EPG) ainsi que de la NIT.

9782100520442-Livre.fm Page 136 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 8.1 – Schéma simplifié de la chaîne d’émission / transmission / réception DVB

③ La correction d’erreur RS + convolution (DVB-S, DVB-T, DVB-C) ou BCH + LDPC (DVB-S2, DVB-T2, DVB-C2) augmente le débit d’un facteur qui dépend du compromis débit/robustesse recherché ; un reformatage des données suivi d’un filtrage et d’une conversion D/A fournit les signaux I et Q analogiques. 136

④ I et Q modulent en QPSK (DVB-S) ou 8-PSK (DVB-S2) ou QAM (câble) ou COFDM (DVB-T, DVB-T2). ⑤ Cette fréquence intermédiaire est transposée ensuite dans la bande de fréquence appropriée à sa transmission selon le médium utilisé. Dans le cas du satellite, le changement de fréquence amène celle-ci à la valeur requise pour la « voie montante » du satellite, où elle subira un nouveau changement de fréquence dans le transpondeur pour sa diffusion vers les téléspectateurs dans la bande 10,7 à 12,75 GHz. La diffusion directe sur câble est relativement rare en Europe, et passe le plus souvent par l’intermédiaire d’un satellite et d’une station de tête de réseau câblé qui assure la démodulation QPSK/remodulation QAM et la transposition sur le canal VHF ou UHF approprié. Côté récepteur, la partie basse de la figure 8.1 montre que les opérations, symétriques de celles de l’émission, s’effectuent, logiquement, dans l’ordre inverse de l’émission. ⑥ En cas de réception satellite, un premier abaissement de fréquence se fait dans la tête de réception de l’antenne qui amène la fréquence du signal entre 950 et 2 150 MHz (entrée du récepteur), où il subit un deuxième changement de fréquence (après sélection du canal). La réception câble et terrestre (40-860 MHz) ne nécessite qu’un changement de fréquence.

9782100520442-Livre.fm Page 137 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 8 – RÉCEPTION

DE LA TÉLÉVISION NUMÉRIQUE

⑦ Cette FI démodulée, fournit les vecteurs I et Q analogiques. ⑧ Après conversion analogique/numérique, filtrage et reformatage de I et Q, la correction d’erreur permet de retrouver les paquets « transport » de 188 octets. ⑨ Le démultiplexeur sélectionne les PES correspondant au programme choisi par l’utilisateur, éventuellement désembrouillés au préalable grâce aux ECM et EMM et à la clé privée de l’utilisateur (carte). ⑩ Le décodeur MPEG-2 ou MPEG-4 reconstruit les images et le son du programme sélectionné.

8.2

Le récepteur/décodeur satellite Le schéma-bloc de la figure 8.2 représente les blocs fonctionnels d’un IRD satellite, qui ne correspond pas forcément au découpage retenu par tous les fabricants pour l’intégration des circuits. Celui-ci peut varier considérablement selon les fournisseurs et le niveau d’intégration qui s’accroît très rapidement d’une génération de matériel à la suivante.

© Dunod. La photocopie non autorisée est un délit.

Les signaux en provenance du satellite (bande 10,7 - 12,75 GHz, voir annexe A2) sont amplifiés et convertis dans la gamme 950 - 2 150 MHz (en 2 bandes) par le convertisseur à faible bruit (LNC, Low Noise Converter) situé au foyer de la parabole, puis appliqués à l’entrée « antenne » de l’IRD. • Le tuner (ou front-end), le plus souvent commandé par un bus I2C, sélectionne le canal désiré dans la gamme 950 - 2 150 MHz. Dans le concept « traditionnel », il le transpose à une valeur FI de 480 MHz et effectue la sélectivité requise au moyen d’un filtre à onde de surface (FOS) ; le signal amplifié est démodulé de façon cohérente selon les axes 0 et 90° pour fournir les signaux I et Q analogiques en sortie. La récupération de la phase de la porteuse, nécessaire à une démodulation correcte, se fait en coopération avec les étages suivants qui asservissent par une boucle la fréquence et la phase de l’oscillateur du démodulateur (carrier recovery loop). Les tuners satellite sont actuellement de type zero IF (ZIF) : la démodulation I/Q se fait directement à la fréquence d’entrée, sans changement de fréquence, ce qui permet une réduction de coût sensible, notamment due à l’élimination du filtre à ondes de surface ; la sélectivité est assurée par un filtrage passe-bas intégré au circuit. • Les signaux I et Q sont appliqués chacun à un convertisseur analogique/numérique (ADC) fonctionnant au double de la fréquence symbole (de l’ordre de 30 MHz en Europe). Il s’agit le plus souvent d’un double convertisseur

137

9782100520442-Livre.fm Page 138 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

d’une résolution de 6 bits, capable d’échantillonner le signal à plus de 60 MHz. Là encore, la fréquence d’échantillonnage est asservie à la fréquence symbole au moyen d’une boucle à verrouillage de phase (clock recovery loop). • Le bloc QPSK, outre les fonctions de récupération d’horloge et de porteuse (boucles de verrouillage de phase mentionnées précédemment), réalise le filtrage demi-Nyquist complémentaire de celui appliqué à l’émission sur les signaux I et Q, fournis par exemple sur 2 × 3 ou 4 bits au bloc fonctionnel suivant (FEC). • Le bloc FEC distingue au moyen d’une logique majoritaire les « 0 » des « 1 » puis effectue l’ensemble de la correction d’erreurs, c’est-à-dire le décodage de Viterbi du code convolutif de l’émission, le désentrelacement, le décodage de Reed-Solomon et le débrassage ; les données en sortie (paquets transport de 188 octets) sont en général fournies sous forme parallèle (8 bits de données + signaux de contrôle dont l’un signale la présence éventuelle d’erreurs non correctibles).

138

Figure 8.2 – Blocs fonctionnels d’un IRD satellite

9782100520442-Livre.fm Page 139 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 8 – RÉCEPTION

DE LA TÉLÉVISION NUMÉRIQUE

© Dunod. La photocopie non autorisée est un délit.

Les trois blocs ADC, QPSK et FEC sont aujourd’hui intégrés en un seul et même circuit. • Les paquets « transport » attaquent le bloc DESCR (désembrouilleur) qui communique avec le processeur principal par un bus parallèle permettant le transfert rapide de données. Il assure la sélection et le désembrouillage des paquets du programme choisi, sous le contrôle du dispositif de contrôle d’accès. Il est parfois combiné avec le démultiplexeur. • Le bloc DEMUX (démultiplexeur) permet la sélection au moyen de « filtres » des PES correspondant au programme choisi par l’utilisateur. • Les PES audio et vidéo issus du démultiplexeur sont ensuite appliqués au bloc MPEG, généralement un décodeur combiné audio/vidéo, qui assure également les fonctions de générateur d’écran graphique nécessaire au guide de programmes (EPG). Le décodage MPEG-2 nécessite en général 16 Mbits de mémoire DRAM, (quelquefois plus en 625 lignes si la gestion mémoire n’est pas très efficace). • Les signaux vidéo issus du décodeur MPEG-2 (de forme YUV numérique au format CCIR 656) sont ensuite appliqués à un codeur vidéo (DENC) assurant leur conversion en signaux analogiques RVB + synchro pour une visualisation de qualité optimale via la prise péritel du téléviseur, et PAL ou SECAM (composite et Y/C) pour l’enregistrement sur magnétoscope. • Les signaux audio numériques sont appliqués via une liaison série I2S ou similaire à un double convertisseur numérique/analogique audio (DAC) de résolution 16 bits ou plus qui reconstitue les signaux analogiques gauche et droite. • L’ensemble du système est contrôlé par un processeur (µP) 32 bits assez puissant (RISC) qui commande tous les circuits précédents, interprète les ordres en provenance de la commande à distance, gère le ou les lecteurs de cartes à puces et les interfaces de communication généralement présents. Le logiciel représente plusieurs centaines de kilo-octets, dont tout ou partie est contenu en FLASH-EPROM pour permettre d’éventuelles remises à jour par la transmission au cours de la vie du produit. Les blocs DEMUX, MPEG, DENC et µP constituent désormais un monocircuit décodeur de source. • Le dispositif de contrôle d’accès comporte en général un ou deux lecteurs de carte à puce (le second étant alors prévu pour une carte bancaire). Dans le cas d’un module de contrôle d’accès détachable (utilisant le common interface, matérialisé par la présence d’un ou plusieurs slots PCMCIA), le dispositif de

139

9782100520442-Livre.fm Page 140 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

contrôle d’accès ainsi que le « désembrouilleur » sont situés dans un module au format PCMCIA. Le démultiplexeur, intégré à l’IRD, reçoit alors des paquets transport « en clair ». • Enfin, l’IRD peut communiquer avec le monde extérieur (PC, modem, etc.) par une ou plusieurs interfaces normalisées : série RS232 et/ou parallèle IEEE1284 (qui tendent à être remplacés par l’USB), ligne téléphonique (modem intégré), nécessaires pour l’interactivité et l’accès à de nouveaux services (téléchargement de fichiers ou de logiciels, téléachat, télépaiement, accès aux réseaux…)

8.3

Le récepteur numérique « câble »

8.3.1 Le récepteur de base (sans voie de retour) Il ne diffère en principe de son homologue pour réception satellite que par les parties « réception » et « décodage de canal », adaptées aux bandes de fréquences câble et à la modulation QAM prescrites par le DVB. Leur schéma-bloc est représenté à la figure 8.3. 140

Figure 8.3 – Schéma-bloc d’un décodeur de canal câble DVB-C

Nous nous limiterons donc à la description de ces blocs. • Le tuner sélectionne le canal désiré dans les gammes VHF/UHF (50 à 860 MHz), le transpose en une fréquence FIF de 36,15 MHz et effectue la sélectivité requise au moyen d’un filtre à onde de surface (FOS) ; le signal FI amplifié est transposé à la fréquence symbole (FS = 6,875 MHz) au moyen d’un oscillateur-mélangeur dont la fréquence (Fosc = FIF + FS = 43,025 MHz)

9782100520442-Livre.fm Page 141 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 8 – RÉCEPTION

DE LA TÉLÉVISION NUMÉRIQUE

© Dunod. La photocopie non autorisée est un délit.

et la phase sont contrôlées par une boucle d’asservissement (carrier recovery loop) en provenance du démodulateur QAM qui suit. Les circuits démodulateurs QAM récents (à partir de l’année 2000) acceptent directement la FI à 36,15 MHz, ce qui permet d’éviter l’étage de conversion ci-dessus. • Le signal QAM ainsi transposé est appliqué à un convertisseur analogique/numérique (ADC) d’une résolution de 9 ou 10 bits (< 256-QAM), et converti avec une fréquence d’échantillonnage égale par exemple à 4 fois la fréquence symbole FS (application avec double conversion). La fréquence d’échantillonnage est asservie à la fréquence symbole par une boucle à verrouillage de phase (clock recovery loop) en provenance du bloc suivant (démodulation/filtrage/égalisation). Dans le cas d’une application à simple changement de fréquence, le signal FI à 36,15 MHz est le plus souvent souséchantillonné à une fréquence de l’ordre de 20 MHz, qui n’est plus nécessairement liée à la fréquence symbole. • Le bloc suivant (QAM) est le principal élément du décodage de canal : il réalise à partir du signal QAM numérisé, la démodulation numérique et le filtrage demi-Nyquist, l’égalisation d’échos des signaux I et Q, et le reformatage des données en sortie sous une forme appropriée au circuit FEC suivant (généralement parallèle). Il effectue en outre les fonctions de récupération d’horloge et de porteuse (boucles à verrouillage de phase mentionnées ciavant), ainsi que la génération, à partir du signal d’entrée QAM numérisé, d’une tension de commande automatique de gain (AGC) appliquée à l’amplificateur FI du tuner. • Le bloc FEC effectue la correction des erreurs, qui inclut le désentrelacement, le décodage de Reed-Solomon et le débrassage ; les données en sortie (paquets transport de 188 octets) sont en général fournies sous le même format parallèle que dans le cas du satellite (8 bits de données + signaux de contrôle avec signalisation de la présence éventuelle d’erreurs non correctibles). Les trois blocs ADC, QAM et FEC sont désormais intégrés en un seul et même circuit. Le processeur, ainsi que les fonctions de contrôle d’accès, désembrouillage, démultiplexage, décodage MPEG-2 audio/vidéo et toutes les fonctions accessoires (OSD, interfaces, modem…) sont, à service équivalent, identiques à celles décrites ci-avant pour le cas du satellite.

8.3.2 Le récepteur numérique câble interactif (avec voie de retour) Le récepteur interactif ne diffère, en principe, du récepteur simple que par sa partie « interface réseau », en raison de la nécessité d’une voie montante ou upstream.

141

9782100520442-Livre.fm Page 142 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Celle-ci nécessite, en plus des circuits de réception usuels (voie descendante ou downstream) du récepteur câble décrit au paragraphe précédent, des blocs fonctionnels nécessaires à l’émission de données vers la station de tête de réseau. Afin que tous les récepteurs connectés puissent envoyer des données vers la tête de réseau, la bande allouée à la voie montante (en général de 5 à 65 MHz) est partagée en canaux sur lesquels le temps est découpé en tranches (slots), allouées dynamiquement aux récepteurs par la tête de réseau. La gestion de la communication avec la tête de réseau nécessite dans le récepteur un logiciel sophistiqué dit MAC (Media Access Control), ce qui nécessite des ressources (puissance processeur et taille mémoire FLASH et RAM) beaucoup plus conséquentes que pour un récepteur sans interactivité. Deux standards principaux existent à l’heure actuelle pour les liaisons bidirectionnelles sur câble :

142

• Le standard DOCSIS, d’origine américaine, est principalement destiné aux « modems câble » pour accès à Internet à haut débit. La voie montante utilise la modulation QPSK ou 16-QAM en salve (burst) dans la bande VHF basse (5 à 45 MHz). La voie descendante « données » utilise la modulation QAM dans des canaux de mêmes caractéristiques que ceux de la voie descendante TV, avec laquelle elle peut partager la plus grande partie de la bande VHF/UHF (70 à 860 MHz). Une version EURO-DOCSIS adaptée au plan de fréquence des canaux européens existe.

Figure 8.4 – Schéma-bloc d’un modem câble (DOCSIS)

9782100520442-Livre.fm Page 143 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 8 – RÉCEPTION

DE LA TÉLÉVISION NUMÉRIQUE

• Le standard DVB/DAVIC, (spec. ETSI ETS 300 800) d’origine principalement européenne, est destiné à apporter l’interactivité aux décodeurs de TV par câble. Il adjoint à la voie descendante TV classique QAM dite in band une deuxième voie descendante à débit plus réduit pour les données, dite out of band et utilisant la modulation QPSK. Cette voie utilise des canaux de 1 ou 2 MHz (débit de 1,5 ou 3 Mb/s) dans la bande VHF moyenne (70 à 130 MHz), mais peut également utiliser des canaux plus élevés. La voie montante utilise la modulation QPSK dans la bande VHF basse (5 à 65 MHz) avec des canaux de 200 kHz, 1 MHz ou 2 MHz.

143

© Dunod. La photocopie non autorisée est un délit.

Figure 8.5 – Schéma-bloc d’un récepteur câble interactif (DVB-DAVIC)

8.4

Le récepteur numérique terrestre (DVB-T) Son schéma-bloc ne diffère en principe de ses homologues pour réception satellite ou câble sans voie de retour que par les parties « réception » et « décodage de canal », adaptées aux bandes de fréquences VHF/UHF déjà utilisées par la télévision analogique et à la modulation COFDM prescrites par le DVB. Comme le montre la figure 8.6, cette fonction est beaucoup plus complexe que dans le cas du câble ou du satellite, du fait de la modulation utilisée. Nous nous limiterons donc là encore à la description de ces blocs. • Le bloc tuner + FI pour TV numérique terrestre est similaire à celui pour câble, mais il doit satisfaire des exigences encore plus sévères en ce qui

LA

144 Figure 8.6 – Schéma-bloc d’un décodeur de canal DVB-T (d’après doc. Philips Semiconductors)

9782100520442-Livre.fm Page 144 Jeudi, 24. juin 2010 11:35 11

TÉLÉVISION NUMÉRIQUE

9782100520442-Livre.fm Page 145 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 8 – RÉCEPTION





• •

© Dunod. La photocopie non autorisée est un délit.





DE LA TÉLÉVISION NUMÉRIQUE

concerne le bruit de phase du PLL et la sélectivité (en raison de la coexistence avec les émissions analogiques sur les canaux adjacents). Il sélectionne le canal désiré dans les gammes VHF/UHF (47 à 230 et 470 à 860 MHz), le transpose en une fréquence FIF de 36,15 MHz et effectue la sélectivité requise au moyen d’un filtre à onde de surface (FOS) ; le signal FI amplifié est soit transposé à une fréquence FS de l’ordre de 4,5 MHz, au moyen d’un oscillateur-mélangeur « supradyne » (Fosc = FIF + FS ≅ 40,65 MHz), soit appliqué directement au circuit démodulateur COFDM les plus récents (à partir de l’année 2001), qui acceptent la FI à 36,15 MHz, ce qui permet d’éviter un étage de conversion supplémentaire. Le signal COFDM, transposé ou non, est appliqué à un convertisseur analogique/numérique (ADC) d’une résolution de 9 ou 10 bits, et converti avec une fréquence d’échantillonnage de l’ordre de 20 MHz (sous-échantillonnage lorsqu’il s’agit du signal FI à 36,15 MHz). Le bloc démodulation COFDM est le principal élément de la démodulation. À partir du signal FI numérisé, des signaux I et Q sont reconstitués et le signal OFDM est démodulé au moyen d’une transformée de Fourier rapide (FFT) sur 2K ou 8K points, selon le nombre de porteuses du signal reçu. Le bloc correction de canal assure l’estimation du canal de transmission et sa correction et participe à la synchronisation temporelle et fréquentielle. Le bloc synchronisation assure, à partir des informations fournies par le bloc « correction de canal », la synchronisation temporelle et fréquentielle de la démodulation COFDM. Le bloc décodage de canal effectue le désentrelacement fréquentiel et le demapping des symboles COFDM puis la même correction d’erreurs que pour le satellite, c’est-à-dire le décodage de Viterbi, le désentrelacement, le décodage de Reed-Solomon et le débrassage. Les données en sortie (paquets transport de 188 octets) sont en général fournies sous forme parallèle (8 bits de données + signaux de contrôle dont l’un signale la présence éventuelle d’erreurs non correctibles). Un format série est également disponible sur les circuits récents.

L’ensemble des blocs inclus dans le grand rectangle grisé forme aujourd’hui un seul et même circuit intégré. Le processeur, ainsi que les fonctions de contrôle d’accès, désembrouillage, démultiplexage, décodage MPEG-2 audio/vidéo et toutes les fonctions accessoires (OSD, interfaces, modem…) sont, à service équivalent, identiques à celles décrites ciavant pour le cas du satellite ou câble sans voie de retour.

145

9782100520442-Livre.fm Page 146 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

8.5

Évolution de la set-top box

8.5.1 Intégration des fonctions Le schéma-bloc de la figure 8.2 représente pratiquement le découpage fonctionnel d’un récepteur/décodeur (IRD) européen de première génération (1996). À cette époque, chacun des blocs fonctionnels correspondait pratiquement à un circuit intégré majeur. La plupart de ces circuits étaient alors réalisés en technologie CMOS avec géométries de 0,5 µm. L’intégration avançant très rapidement dans ce domaine, on a assisté dans un premier temps (1997-1999) à un regroupement des fonctions au sein de circuits à géométries plus fines selon le schéma suivant (à fonctionnalité quasi constante) :

146

• intégration des interfaces externes (RS232, IEEE1284, etc.) et des fonctions démultiplexeur et désembrouilleur dans un processeur (en général de type RISC) fonctionnant à une fréquence d’horloge maximale de l’ordre de 50 MHz ; • intégration du codeur vidéo avec le décodeur MPEG audio/vidéo, auquel des capacités graphiques plus sophistiquées ont été ajoutées (8 bits par pixel ou plus, accélérateur 2D) ; • diminution du nombre de boîtiers (S)DRAM de 4 boîtiers 256K × 16 à un boîtier 1M × 16 commun au décodeur MPEG et au processeur graphique ; • intégration dans un circuit unique de décodage de canal (satellite puis câble et enfin terrestre) du démodulateur, de la correction d’erreur et du ou des ADC d’entrée ; • adoption progressive pour la partie tuner satellite de la technologie dite zero IF (fréquence intermédiaire nulle ou conversion directe) en vue à terme d’intégrer directement cette fonction sur la carte mère. L’intégration se poursuivant inexorablement grâce à l’arrivée de géométries toujours plus fines a rendu possible, à l’aube de l’an 2000, l’intégration du processeur (de type RISC 32 bits interne et externe), dont la fréquence d’horloge atteint ou dépasse 100 MHz et de ses périphériques avec le décodeur de source et le codeur vidéo, voire le DAC audio. Une architecture à mémoire unifiée 32 bits (UMA, Unified Memory Architecture) pour le processeur, le décodeur MPEG audio/vidéo et les fonctions graphiques permet de n’utiliser qu’un seul boîtier mémoire SDRAM de 8 Mo (2M × 32) pour les applications les plus courantes.

9782100520442-Livre.fm Page 147 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 8 – RÉCEPTION

DE LA TÉLÉVISION NUMÉRIQUE

La figure 8.7 illustre le schéma-bloc d’un tel décodeur, commercialisé à partir de 2001.

147

© Dunod. La photocopie non autorisée est un délit.

Figure 8.7 – Schéma-bloc d’un récepteur typique à accès conditionnel (à partir de 2001)

Cette architecture est restée pratiquement inchangée pour un récepteur à définition standard de base tout en continuant à bénéficier de réductions de coût importantes du fait de la réduction continue de la taille des puces.

8.5.2 Évolutions fonctionnelles du décodeur Parallèlement à l’intégration à fonctionnalité quasi constante dont le but essentiel est de réduire le coût du récepteur de base, on assiste à l’adjonction de nouvelles fonctions augmentant son attrait, tout au moins dans les versions milieu et haut de gamme. L’une des fonctionnalités faisant défaut depuis l’origine aux décodeurs de télévision numérique est la possibilité d’enregistrer un programme tout en en regardant un autre. Ceci est d’autant plus difficile à comprendre pour l’utilisateur que cette possibilité a toujours existé sur les magnétoscopes analogiques, qui intègrent

9782100520442-Livre.fm Page 148 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

tous leur propre tuner. Ce manque, associé à l’augmentation de capacité et à la diminution de prix phénoménales des disques durs depuis la fin des années 1990, a permis d’envisager leur intégration dans les set-top box de haut et milieu de gamme. Afin de pouvoir enregistrer un second programme faisant éventuellement partie d’un autre multiplex, une deuxième partie « réception » (tuner + décodage de canal) est nécessaire ainsi qu’un démultiplexeur pour pouvoir n’enregistrer que la partie du train transport intéressante. Cette fonctionnalité, qui consiste à regarder un programme et à en enregistrer un second, est souvent appelée watch and record dans la littérature anglo-saxonne.

148

Une fonctionnalité beaucoup plus innovante est permise par le disque dur (dont l’accès aléatoire à tout point est possible et sur lequel on peut lire et écrire « en même temps », ce qui n’est évidemment pas possible sur un magnétoscope) est ce que l’on appelle le time shift recording (TSR) qui permet d’interrompre le visionnage d’une émission (par exemple pour répondre au téléphone) et de reprendre l’émission là où on l’avait laissée. À partir du moment où l’on interrompt le visionnage (pause), le disque dur enregistre le programme ; au moment de la reprise, on lit le disque dur depuis le moment de l’interruption tout en continuant d’enregistrer l’émission en temps réel. On visionne donc à partir de ce moment l’émission avec un décalage temporel (time shift) égal à la durée de l’interruption. La figure 8.8 représente le schéma de principe d’un récepteur satellite à double tête de réception (que l’on appelle généralement Personal Video Recorder ou PVR), permettant à la fois le time shift recording du programme que l’on regarde et l’enregistrement d’un autre programme situé dans un multiplex quelconque. Cela nécessite bien sûr deux modules de réception (NIM), mais trois démultiplexeurs (demux) ainsi qu’un dispositif de reconstitution de train transport partiel (combineur TS) si l’on enregistre l’information sous forme « transport » la plupart du temps embrouillée pour des raisons de copyright. Les interfaces vers l’extérieur du décodeur évoluent également, même si la sortie analogique PAL ou SECAM pour l’enregistrement n’a pas encore été éliminée. Contrairement à ce qu’on aurait pu penser, c’est le port USB 2.0 (et non l’interface IEEE1394) qui a fait une percée pour la connexion de supports de stockage externes amovibles. Cela est largement dû au fait que c’est l’interface la plus répandue pour les disques durs externes pour ordinateurs et que les clés-mémoire USB de capacité relativement importante sont devenues abordables. Lorsqu’ils possèdent un port USB permettant l’enregistrement, les récepteurs HD des bouquets payants bloquent généralement cette fonctionnalité pour certaines émissions (films récents, sports…). Le port USB peut également être utilisé pour lire des vidéos, des photos et de la musique ainsi que pour la mise à jour du firmware.

9782100520442-Livre.fm Page 149 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 8 – RÉCEPTION

DE LA TÉLÉVISION NUMÉRIQUE

Figure 8.8 – Schéma de principe d’un récepteur à disque dur et double tête de réception

L’adoption par le DVB de la norme de compression H264 (ou MPEG-4 AVC) a permis d’augmenter l’efficacité de l’ensemble de la chaîne de transmission et a ouvert ainsi la porte au déploiement à grande échelle de la télévision à haute définition. Les premiers récepteurs-décodeurs à haute définition sont apparus en 2005 pour le satellite et en 2008 pour la TNT, sans changer fondamentalement l’architecture des récepteurs en dehors du remplacement du processeur-décodeur principal par des modèles beaucoup plus puissants capables de décoder les formats HD 720p, 1080i et 1080p en MPEG-4 AVC en plus du format SD en MPEG-2.

© Dunod. La photocopie non autorisée est un délit.

Pour ces modèles, la sortie HDMI avec protection HDCP est devenue incontournable mais elle s’accompagne toujours d’une ou deux prises péritel pour permettre le raccordement d’un écran et d’un enregistreur analogiques à définition standard. La sortie YUV analogique HD n’est pas toujours présente et peut être limitée au format 576p pour l’affichage de certains contenus. L’interface Ethernet RJ45 est apparue en premier sur les box de fournisseurs d’accès internet (FAI) pour leur permettre d’acheminer les émissions TV par leur réseau ADSL. Elle est désormais présente sur certains produits du commerce, ce qui leur permet d’accéder aux fichiers vidéo stockés sur un PC via le réseau domestique ou à partir de sites web.

149

9782100520442-Livre.fm Page 150 Jeudi, 24. juin 2010 11:35 11

9782100520442-Livre.fm Page 151 Jeudi, 24. juin 2010 11:35 11

Chapitre 9 Aspects logiciels et interopérabilité

151

© Dunod. La photocopie non autorisée est un délit.

L’importance des investissements nécessaires au démarrage des émissions de télévision numérique ainsi que l’augmentation vertigineuse du coût des « contenus » font que les émissions à péage en constituent la grande majorité dans tous les pays où elle est d’ores et déjà bien implantée (France, Italie, Espagne, Royaume-Uni, USA…). Même si la norme DVB, tout comme l’a fait avant elle la norme GSM dans le domaine du radiotéléphone, a joué un rôle de puissant fédérateur en Europe, elle n’a cependant pas pu imposer un système d’accès conditionnel ni une interface utilisateur uniques. Nous avons vu au chapitre 5 qu’il existait de nombreux systèmes d’accès conditionnel utilisant l’algorithme d’embrouillage DVB-CSA, différant entre eux essentiellement au niveau logiciel et par des particularités de la carte d’abonné. Outre le système d’accès conditionnel, la partie logicielle la plus déterminante pour l’intéroperabilité entre les différents opérateurs de bouquets de TV numérique (audelà de la simple réception des programmes TV conformes au standard DVB) est ce que l’on appelle en bon Français le moteur d’interactivité, mais on utilise le plus souvent le terme anglais middleware ou quelquefois celui d’API (Application Programming Interface).

9782100520442-Livre.fm Page 152 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

En fait le terme de middleware est très vague si on le sort de son contexte, car il ne signifie rien de plus que le fait qu’il se situe entre le matériel (hardware) et les logiciels d’application (software). L’API, quant à elle, ne désigne stricto sensu que l’interface entre l’application et la couche logicielle immédiatement inférieure. Elle consiste essentiellement en un ensemble clairement défini d’appels de fonctions du middleware. On peut ainsi comparer fonctionnellement cette partie logicielle à un système d’exploitation évolué pour ordinateur personnel avec interface utilisateur graphique tel que Windows (très différent d’un système d’exploitation temps réel de bas niveau Real Time Operating System ou RTOS tel que pSOS, vxWorks, Nucleus… pour n’en citer que quelques-uns), sur lequel le middleware s’appuie. Une des fonctions cruciales de la plupart des middlewares est de rendre les applications indépendantes de la plate-forme matérielle, dans la mesure où celle-ci dispose des ressources nécessaires (puissance et fonctionnalités), ainsi que du RTOS sur laquelle elles « tournent ».

152

Afin qu’une même plate-forme matérielle puisse supporter relativement aisément plusieurs middlewares (qui se différencient non seulement par leur API vers les applications, mais aussi par leur interface avec les couches basses du logiciel, que nous appellerons API middleware), les fabricants de set top box interfacent le plus souvent le middleware à travers une couche d’adaptation (Adaptation Layer) avec leur propre API, indépendante du middleware (que nous appellerons API plateforme). La figure 9.1 illustre les différentes couches logicielles d’une set-top box munie d’un middleware en comparaison à celles d’un micro-ordinateur de type PC.

Figure 9.1 – Comparaison des couches logicielles d’une set-top box et d’un PC * Windows inclut la fonctionnalité de DOS depuis la version Windows 95 ** correspond à la DLI de Canal+ Technologies pour Mediahighway

C’est le middleware qui détermine l’interface utilisateur, l’aspect et les possibilités du guide de programmes, les applications plus ou moins interactives mises à la disposition de l’utilisateur (émissions en paiement à la séance, jeux, services spéci-

9782100520442-Livre.fm Page 153 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 9 – ASPECTS

LOGICIELS ET INTEROPÉRABILITÉ

fiques faisant ou non appel à une voie de retour vers l’opérateur, fonctions spéciales telles que l’enregistrement sur disque dur…). L’ensemble des middlewares permet en général d’accéder à deux niveaux d’interactivité : • une interactivité locale ou hors ligne, dite de type caroussel, ce qui signifie que l’utilisateur ne peut accéder qu’à des données émises cycliquement, de manière similaire aux données Télétexte des émissions analogiques (c’est le cas par exemple du guide de programmes) ; • une interactivité en ligne, où l’utilisateur est connecté par l’intermédiaire d’une voie de retour (modem téléphonique ou autre) à un serveur, et peut donc accéder à des données distantes, de manière comparable au Minitel, voire même, dans une certaine mesure, à Internet. Ils disposent aujourd’hui tous également de fonctionnalités de téléchargement de données et de logiciels en mémoire FLASH par voie hertzienne, ce qui permet leur mise à jour (ajout de nouvelles fonctionnalités ou correction de bogues) ainsi que le chargement d’applications. Le tableau 9.1 liste quelques middlewares actuellement utilisés dans le monde de la télévision numérique (par ordre alphabétique).

© Dunod. La photocopie non autorisée est un délit.

Tableau 9.1 – Principaux middlewares propriétaires utilisés pour la TV numérique

Ils sont classés propriétaires (P) lorsqu’ils appartiennent à une société non liée à un opérateur ou verticaux (V) lorsque c’est un opérateur ou une société affiliée qui a développé un middleware spécifique et notés P/V s’ils sont également proposés sous licence à d’autres opérateurs. Toutefois, indépendamment du middleware proprement dit, les opérateurs de télévision à péage (dont les terminaux sont souvent en location) peuvent personnaliser leur propre version voire éventuellement la brider de manière à ce qu’elle ne puisse exécuter les applications non homologuées (par exemple celles d’un concurrent), même basées sur le même middleware…

153

9782100520442-Livre.fm Page 154 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

De même, les récepteurs en location sont quelquefois volontairement limités de façon à ne pas pouvoir recevoir les émissions, même à accès libre, d’opérateurs n’ayant pas conclu d’accord avec l’opérateur propriétaire du récepteur. Si cette situation est acceptable dans un contexte de télévision à péage (encore qu’elle conduise l’utilisateur à avoir autant de terminaux que d’opérateurs auxquels il doit s’abonner s’il désire accéder à tous les services offerts par ces derniers), on conçoit qu’elle ne soit pas souhaitable dans la perspective de la télévision numérique pour tous, c’est-à-dire avec une proportion importante d’émissions en clair, ce qui devrait être le cas de la télévision numérique terrestre dans beaucoup de pays. C’est pourquoi des solutions alternatives supposées couvrir les besoins de tous les opérateurs, à accès libre ou à péage, avec différents niveaux de fonctionnalité, ont été développées. Ces solutions sont dites horizontales par opposition aux solutions intégrées – de la fourniture de programmes à celle de récepteurs spécifiques – dites verticales des opérateurs à péage. Dans l’attente de leur disponibilité effective, on peut trouver sur le marché de détail des récepteurs estampillés DVB n’utilisant aucun middleware, communément qualifiés de « boîtes à zapper ». 154

Ces récepteurs sont munis d’un logiciel qui leur est propre et qui s’appuie directement sur les pilotes et le RTOS ; ils ne disposent généralement pas de modem. Leur logiciel, qui ne dispose généralement pas de fonctions interactives, peut néanmoins la plupart du temps être mis à jour via satellite ou au moyen d’un PC connecté sur un port série ou encore d’une clé USB contenant l’image du nouveau firmware. Ce logiciel assure essentiellement les fonctions nécessaires à la réception des programmes TV, avec souvent un mini-EPG limité aux informations sur l’émission en cours et la suivante (fonction dite now - next) lorsque ces informations sont transmises conformément au standard DVB-SI. Outre les émissions à accès libre (Free To Air ou FTA), certains récepteurs peuvent recevoir des émissions à péage soit au moyen d’un accès conditionnel embarqué (Viaccess est l’un des plus courants), soit au moyen d’un module DVB-CI approprié, à condition bien sûr de disposer de la carte à puce idoine disposant de droits valides pour les émissions à recevoir. Nous passerons tout d’abord rapidement en revue les deux principaux moteurs d’interactivité propriétaires établis en Europe avant d’examiner les solutions ouvertes et standardisées.

9782100520442-Livre.fm Page 155 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 9 – ASPECTS

9.1

LOGICIELS ET INTEROPÉRABILITÉ

Les principaux moteurs d’interactivité propriétaires utilisés en Europe

9.1.1 MediaHighway MediaHighway a été développé à partir de 1993 par Canal+ (département recherche et développement, devenu ensuite Canal+ Technologies), initialement pour le lancement du bouquet français Canal Satellite Numérique (avril 1996). MediaHighway est utilisé par toutes les déclinaisons nationales de Canal Satellite qui ont été lancées ensuite (Espagne, Italie, Pologne, etc.). Il a été également proposé à des opérateurs extérieurs au groupe Canal+ (On Digital devenu ITV Digital au Royaume Uni en 1998 et certains opérateurs satellite et câble en Europe, en Asie et aux USA). La phase de certification par Canal+ Technologies, indispensable pour avoir le droit de commercialiser des produits avec le label Mediahighway, inclut une suite importante de tests. Plusieurs versions de MediaHighway existent, caractérisées par un numéro de DLI (Device Layer Interface). La DLI est en fait l’interface du middleware « vers le bas », avec laquelle la plateforme matérielle munie de son système d’exploitation, de ses pilotes et d’une couche d’adaptation éventuelle doit être compatible. La DLI définit les fonctionnalités matérielles supportées par le middleware tout en assurant une indépendance du matériel et du RTOS.

© Dunod. La photocopie non autorisée est un délit.

MediaHighway supporte les applications de vidéo à la demande (Video-OnDemand ou VoD), achat impulsif (Impulse Pay-Per-View ou IPPV), et permet le téléchargement d’applications ou données. Il est la plupart du temps utilisé avec le système d’accès conditionnel « maison » Mediaguard, mais peut en principe être adapté à tout CA embarqué et supporte également l’interface DVB-CI pour module d’accès conditionnel détachable. Les versions de DLI actuellement en service : • versions 3.xx : utilisées par la plupart des opérateurs satellite du groupe Canal+ en raison de leur date de démarrage précoce. Elles ont été enrichies au moyen de téléchargements via satellite ; • versions 4.xx : OnDigital (devenu ITV Digital) en a été le premier utilisateur avec la version 4.1 qui supporte en outre l’API de MHEG-5, légalement obligatoire pour les services de télévision numérique terrestre au Royaume-Uni. D’autres variantes de la DLI 4.xx incluent désormais la navigation Internet et la gestion d’un disque dur pour l’enregistrement vidéo/audio.

155

9782100520442-Livre.fm Page 156 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Les versions actuelles de MediaHigway sont basées sur une « machine virtuelle MediaHighway » qui peut exécuter des applications développées sous différents langages standards au moyen du chargement de l’interpréteur correspondant (Java®, HTML, MHEG-5…). C’est ce qui a permis à MediaHighway d’être l’un des premiers middlewares propriétaire à pouvoir exécuter les applications au nouveau standard DVB-MHP, basées sur le langage Java® de Sun Microsystems. Site Internet : www.canalplus-technologies.com.

9.1.2 OpenTV OpenTV est le middleware proposé par la compagnie du même nom, aujourd’hui indépendante et à l’origine une filiale de Thomson MultiMedia et Sun (Sun Interactive Alliance formée en 1994). Le premier opérateur de télévision numérique à avoir utilisé OpenTV est TPS (fin 1996). OpenTV est maintenant utilisé par une trentaine d’opérateurs de télévision numérique dans le monde, et installé sur plus de 10 millions de set-top box en provenance de près de 30 fabricants. 156

De ce fait, OpenTV supporte d’ores et déjà de nombreux systèmes d’accès conditionnel ainsi que l’interface DVB-CI pour module d’accès conditionnel détachable. OpenTV supporte les applications de vidéo à la demande (VoD), achat impulsif (IPPV), et permet le téléchargement d’applications ou données. Plusieurs versions d’OpenTV existent, en fonction de la date de démarrage du service : • OpenTV 1.O.x est la version encore utilisée par les pionniers dont les opérateurs câble et satellite principalement français. Elle n’est plus proposée aux nouveaux clients depuis le début de l’an 2000. Elle a néanmoins été enrichie au cours du temps par de nombreux downloads ; • OpenTV 1.2 est un dérivé spécifique à l’opérateur satellite britannique BSkyB ; • OpenTV EN est la deuxième génération d’OpenTV ; • OpenTV EN2 est la troisième génération, qui hérite à la fois d’OpenTV EN et de la version 1.2.

9782100520442-Livre.fm Page 157 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 9 – ASPECTS

LOGICIELS ET INTEROPÉRABILITÉ

OpenTV EN2 est basé sur deux librairies : • les fonctions de base sont incluses dans une librairie baptisée « core », qui constitue le cœur du middleware et est compatible avec de nombreux systèmes d’exploitation temps réel ; • les fonctions optionnelles sont dans la librairie « extensions », qui permet aux opérateurs de personnaliser et d’étendre éventuellement la fonctionnalité par téléchargement. OpenTV EN2 exécute les applications OpenTV écrites en « O code » (comparable au byte code d’une machine virtuelle Java) au moyen d’une machine virtuelle (interpréteur). C’est pourquoi cette architecture permet un portage de MHP relativement aisé au moyen de l’adjonction d’une deuxième machine virtuelle (Java), ce qui permet au middleware d’être compatible à la fois avec des applications OpenTV et MHP. Les fonctionnalités d’OpenTV s’étendent également maintenant vers la gestion d’un disque dur et la navigation sur Internet, notamment grâce à l’acquisition en l’an 2000 de la société Spyglass. OpenTV est entièrement détenue par le groupe Kudelski S.A. depuis mars 2010, ce qui permet au groupe de proposer des solutions complètes incluant le middleware, l’accès conditionnel et la protection de contenu. Site Internet : www.opentv.com.

© Dunod. La photocopie non autorisée est un délit.

9.2

Les middlewares européens ouverts

9.2.1 MHEG-5 Le langage MHEG (Multimedia & Hypermedia Expert Group) est un langage descriptif de « présentations multimédia », comparable au langage HTML (HyperText Markup Language) pour les pages hypertexte. Il est basé sur un format d’échange multimédia « orienté objet » indépendant de la plate-forme matérielle et logicielle (Operating System) sur laquelle il tourne. C’est un langage déclaratif (par opposition à un langage procédural tel que Java). La version MHEG-5, standardisée sous la référence ISO/IEC 13522-5 est un sousensemble de MHEG-1 particulièrement destiné aux récepteurs de TV numérique (set-top box ou téléviseur intégré) dotés d’une puissance de calcul et d’une taille mémoire relativement modestes.

157

9782100520442-Livre.fm Page 158 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

C’est pratiquement la seule version de MHEG qui soit réellement utilisée. Dans le vocable MHEG, une présentation multimédia est une application MHEG ou une scène MHEG. Une application MHEG est un regroupement de scènes MHEG. Une scène MHEG est composée de trois groupes d’objets principaux ou ingrédients : • les objets interactifs tels que boutons, curseurs ou autres ; • les objets-liens (links) qui définissent les processus (actions) déclenchées par les actions de l’utilisateur sur les objets interactifs ; • les objets de présentation, commandés par les objets-liens ci-dessus. Il existe un certain nombre d’autres objets qui regroupent plusieurs objets de présentation Quand on démarre une application MHEG, celle-ci attend en général une action de l’utilisateur. Si celui-ci presse un bouton, l’application génère l’événement (event) « bouton sélectionné ». Sur cet événement, un lien peut avoir été défini par exemple pour démarrer une séquence vidéo (objet). 158

Les objets eux-mêmes peuvent à leur tour générer des événements qui peuvent déclencher des liens. Des applications relativement complexes (jeu vidéo, vente sur catalogue…) peuvent être réalisées de cette manière. Une application est normalement composée de scènes et de quelques objets et liens communs. Une scène n’est composée que d’objets et de liens. D’autres versions de MHEG existent : • MHEG 1 à 4 : (pour mémoire) les ancêtres de MHEG-5, peu utilisés ; • MHEG 5 : la plus importante, utilisée par le service de TV numérique terrestre au Royaume-Uni ; • MHEG 6 : extension de MHEG-5 au moyen d’une machine virtuelle permettant l’inclusion d’applications basées sur un langage procédural ; • MHEG 7 : définit les procédures de test et de conformité des applications MHEG-5 ; • MHEG 8 : projet visant à la combinaison de XML et MHEG. Le peu de ressources nécessaire à faire tourner MHEG en font un candidat intéressant pour les récepteurs numériques terrestres de base.

9782100520442-Livre.fm Page 159 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 9 – ASPECTS

LOGICIELS ET INTEROPÉRABILITÉ

9.2.2 DVB-MHP À partir de 1997, la normalisation du codage des signaux de télévision numérique étant acquise, le consortium DVB a décidé de s’attaquer au problème de l’interopérabilité logicielle entre les différents services et matériels utilisant le standard DVB pour la diffusion vers les utilisateurs. Outre le postulat initial d’interopérabilité, les principaux objectifs qui ont prévalu au développement de MHP (Multimedia Home Platform) ont été l’évolutivité (avec la possibilité d’étendre la fonctionnalité par téléchargement), la compatibilité ascendante, la modularité et la stabilité. L’ouverture vers l’Internet a également été prise en compte dès le départ, ainsi que l’intégration à un réseau local domestique comprenant des terminaux de natures diverses (PC, téléphones, appareils électro-ménagers…). Une des conditions nécessaires était que cette norme soit basée sur des standards « ouverts » afin de pouvoir garantir un accès non discriminatoire à quiconque désire la mettre en œuvre. Un autre souci a été d’utiliser un format efficace en terme d’utilisation de la bande passante tout en assurant une séparation complète des données et des applications. Enfin, la neutralité vis-à-vis des systèmes d’accès conditionnel éventuels devait être totale, que celui-ci soit embarqué ou réalisé au moyen de l’interface DVB-CI. MHP définit une interface logicielle (API) générique entre les applications interactives de différents opérateurs et les terminaux sur lesquels elles doivent s’exécuter, indépendamment des détails de leur implémentation matérielle et logicielle. Ces terminaux peuvent être de niveaux de performances relativement différents.

© Dunod. La photocopie non autorisée est un délit.

MHP peut supporter diverses applications, illustrées par quelques exemples typiques (par ordre d’interactivité croissante) : • guide électronique de programmes (EPG) ; • services informatifs comparables à un « super télétexte » ; • applications liées au programme TV en cours de diffusion (paris sur matches, jeux…) ; • commerce électronique (e-commerce) avec transactions bancaires sécurisées. L’architecture de MHP (figure 9.2) comporte trois niveaux : ressources, logiciel système et applications. • Les ressources incluent toutes les parties essentielles de la set-top box : décodage MPEG, organes d’entrée/sortie, processeur central et système graphique.

159

9782100520442-Livre.fm Page 160 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 9.2 – Architecture de MHP (© DVB 2000)

160

• Le logiciel système permet de présenter une vue abstraite de la plateforme aux applications. Il inclut un navigateur (ou application manager) qui assure le contrôle de la plateforme et des applications qui tournent sur elle. Le cœur logiciel de MHP s’appelle DVB-J (DVB-Java), basé sur la machine virtuelle Java (Java Virtual Machine) définie par Sun Microsystems. • Les applications MHP accèdent à la plateforme par l’intermédiaire de l’API MHP. Un certain nombre d’interfaces logicielles destinées à l’utilisation des spécificités de la plateforme matérielle sont implémentées au moyen d’extensions. Le rôle de toute implémentation pratique de MHP est d’assurer la correspondance entre ces API et les ressources matérielles et logicielles de la plateforme. Trois profils ont été définis pour la plateforme MHP, par ordre de fonctionnalité croissante, qui se traduisent bien sûr pour le matériel par un besoin de puissance et une complexité en rapport : un profil diffusion enrichie (enhanced broadcast), un profil diffusion interactive (interactive broadcast) et un profil permettant l’accès à Internet (Internet access). • Le profil enhanced broadcast est destiné aux services diffusés unidirectionnels. • Le profil interactive broadcast ajoute le support des services interactifs, utilisant par exemple le réseau téléphonique pour la voie de retour. • Le profil Internet access ajoute les fonctionnalités supplémentaires permises par l’accès à internet sur un écran de télévision.

9782100520442-Livre.fm Page 161 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 9 – ASPECTS

LOGICIELS ET INTEROPÉRABILITÉ

D’autres profils ou éléments de profils seront ajoutés par la suite, par exemple pour le support de fonction d’enregistrement sur disque dur. La figure 9.3 illustre les fonctionnalités et la compatibilité ascendante entre les trois différents profils de MHP. La version 1.0 de MHP inclut les deux premiers profils, et est désormais standardisée par l’ETSI sous la référence TS 101 812. Une version 1.1 couvre le profil Internet access et ajoute la fonctionnalité HTML. Elle est décrite dans le document ETSI TS 102 812. DVB-MHP semble le seul standard ouvert à pouvoir fournir une interface utilisateur unifiée avec différents niveaux de fonctionnalité et une évolutivité satisfaisante, ce qui serait une condition très favorable à un basculement complet de l’analogique au numérique. C’est pourquoi MHP a acquis le support de la plupart des acteurs du monde de la télévision en Europe, et même au delà, en vue du lancement généralisé de la télévision numérique terrestre. MHP n’a toutefois pas été rendu obligatoire dans les terminaux, en raison du surcoût significatif, que lui reprochent ses détracteurs, dû à la puissance nécessitée, entre autres, par le support de la machine virtuelle Java.

© Dunod. La photocopie non autorisée est un délit.

À l’heure où nous écrivons ces lignes (2010), MHP n’a pas rencontré le succès espéré dans la plupart des pays où la TNT a démarré, sauf au départ en Italie où la subvention des décodeurs TNT était conditionnée à l’utilisation de MHP pour accéder aux services interactifs. La plupart des récepteurs TNT vendus en Europe sont actuellement de simples « boîtes à zapper » dont l’interface utilisateur se limite à la configuration du récepteur, au choix des langues audio et des sous-titres et à l’accès aux informations sur l’émission en cours et à la suivante (now & next) ainsi qu’à un guide de programmes sur une semaine (EPG) s’il est émis par le réseau (ce qui n’est pas le cas sur la TNT française). Site Internet : http://www.dvb-mhp.org/.

161

9782100520442-Livre.fm Page 162 Jeudi, 24. juin 2010 11:35 11

TÉLÉVISION NUMÉRIQUE

162

Figure 9.3 – Fonctionnalité croissante des trois profils de MHP (© DVB 2000)

LA

9782100520442-Livre.fm Page 163 Jeudi, 24. juin 2010 11:35 11

Chapitre 10 Évolution : état de l’art et perspectives

© Dunod. La photocopie non autorisée est un délit.

163

Le numérique dans les applications vidéo grand public, qui a débuté au milieu des années 1990 par les premières émissions satellite aux États-Unis puis en France, fait désormais partie du paysage audiovisuel quotidien dans lequel figurent également le DVD, le disque à haute définition Blu-ray et les box d’opérateurs ADSL, sans parler de toutes les applications vidéo sur téléphone mobile et sur PC. La télévision numérique par câble et plus encore celles par voie terrestre (TNT) et sur IP (ADSL) ont conquis une part de marché significative. Les fonctionnalités des récepteurs, intégrés au téléviseur ou non, et les services proposés ont évolué de manière très rapide depuis le début du millénaire, et ce rythme ne semble pas devoir se ralentir de sitôt… Malgré le recul de près de quinze années depuis le début des émissions numériques, les prévisions d’évolution sont donc toujours hasardeuses… C’est néanmoins ce que nous allons essayer de faire dans les sections suivantes, en nous limitant toutefois à un horizon de trois ou quatre années.

10.1 La télévision numérique terrestre Le système de télévision numérique terrestre européen (normalisé sous la référence ETS 300 744) utilise la modulation OFDM (également appelée COFDM) déjà

9782100520442-Livre.fm Page 164 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

utilisée pour la radio numérique (DAB), avec deux variantes (2K et 8K) qui ont été décrites au chapitre 7. Le Royaume-Uni a été le premier pays européen à démarrer fin 1998 un service de télévision numérique terrestre, en majeure partie à péage, à la norme DVB-T (opérateur On Digital). Elle est de ce fait le seul pays européen à avoir utilisé la modulation COFDM à 2K porteuses, en raison de la non-disponibilité de circuits démodulateurs pour le mode 8K à l’époque. Le remplacement en 2003 du bouquet payant initial par un bouquet de chaînes gratuites baptisé Freeview a permis de transformer l’échec initial en véritable succès populaire. La plupart des récepteurs en service permettant la réception des deux modes de DVB-T, les multiplex de Freeview ont été finalement reconvertis en 8K pour augmenter leur résistance aux échos et diminuer leur sensibilité aux parasites impulsionnels. Fin 2009, le RoyaumeUni a continué d’assumer son rôle de pionnier de la télévision numérique terrestre en étant le premier pays au monde à utiliser la norme DVB-T2 pour le lancement du bouquet gratuit Freeview HD.

164

Au début de la décennie 2010, la télévision numérique terrestre s’est implantée pratiquement partout en Europe sur la base du standard DVB-T/MPEG-2 pour la télévision à définition standard, certains des pays ayant démarré le plus récemment ont toutefois choisi le standard MPEG-4 (H264) pour la définition standard comme pour la haute définition. En France, la TNT a démarré en mars 2005 et s’est considérablement développée depuis en termes de couverture et de pénétration. La couverture ne pourra toutefois atteindre l’objectif fixé par le gouvernement de 95 % de la population nationale et de 91 % au niveau départemental qu’après l’arrêt complet du réseau analogique. En 2010, la TNT diffuse sur l’ensemble du réseau 18 programmes en clair à définition standard et un programme à haute définition (Arte HD) répartis sur 5 multiplex (R1, R2, R3, R4, R6) ainsi qu’une dizaine de programmes payants dont un en haute définition (Canal+). Un sixième multiplex (R5) diffusant 3 programmes (TF1 HD, F2 HD, M6 HD) en haute définition (DVB-T/MPEG-4) a démarré en octobre 2008 avec une couverture limitée aux grandes métropoles et à quelques régions jusqu’à l’arrêt des émissions analogiques. Il existe de plus dans certaines régions un multiplex de chaînes locales ou régionales. Pour permettre la réception des chaînes de la TNT dans les zones non couvertes ou mal couvertes par le réseau terrestre, deux bouquets gratuits par satellite ont vu le jour (TNTSAT sur Astra à 19˚E et FRANSAT sur Atlantic Bird 3 à 5˚W).

9782100520442-Livre.fm Page 165 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 10 – ÉVOLUTION :

ÉTAT DE L’ART ET PERSPECTIVES

Les émissions de ces bouquets gratuits sont néanmoins cryptées pour des raisons de droits (limités à la France) et leur réception nécessite l’acquisition d’un matériel spécifique (kit récepteur + carte d’abonné). Le processus d’arrêt de l’analogique a démarré début 2010 en France par la région Alsace et la date d’extinction complète sur tout le territoire a été fixée à novembre 2011. Afin de ne pas trop pénaliser les usagers résidant dans des zones non couvertes par le réseau terrestre, une subvention pourra leur être allouée par l’État pour compenser le surcoût de l’installation satellite… Le passage au « tout-numérique » est déjà une réalité dans certains pays européens (Allemagne, Suisse, Pays-Bas…) et en bonne voie dans la plupart des autres, qui aura arrêté ses émissions analogiques terrestres en 2012. En 2015 la télévision analogique terrestre ne sera plus qu’un souvenir en Europe… Le système DVB-T a été choisi par de nombreux pays non européens (Afrique, Australie, Inde, Moyen-Orient, Vietnam et bien d’autres), mais pour les pays n’ayant pas encore fait leur choix, il se trouve désormais en concurrence avec d’autres systèmes, principalement le dérivé brésilien SBTVD, rebaptisé ISDB-T international, du système japonais ISDB-T. Également basé sur la modulation COFDM, ISDB-T apporte certaines améliorations visant à le rendre plus souple et plus robuste que DVB-T, surtout pour la réception mobile (voir annexe 6).

© Dunod. La photocopie non autorisée est un délit.

Le système brésilien ne diffère du système ISDB-T que par le codage de source (MPEG-4 AVC au lieu de MPEG-2). Après une longue période d’incertitude, les principaux pays d’Amérique du Sud (dont l’Argentine et le Chili) ont suivi le Brésil et ont choisi ce système. Les États-Unis quant à eux avaient démarré leurs émissions numériques terrestres au standard ATSC (voir annexe 6) en 1998 avec pour objectif initial l’arrêt des émissions analogiques NTSC en 2008. Cet objectif très ambitieux a finalement été atteint en juin 2009 notamment grâce à la subvention, au moyen de bons d’achat, de converter boxes permettant de recevoir les émissions numériques avec n’importe quel téléviseur NTSC existant. En dehors des voisins immédiats des États-Unis (Canada, Mexique), le système ATSC n’a été choisi que par la Corée du Sud et quelques pays d’Amérique centrale en raison de ses performances inférieures à celles de ses concurrents basés sur la modulation COFDM. La Chine a développé relativement récemment (2006-2007) son propre standard de télévision numérique terrestre appelé DTMB (Digital Terrestrial Multimedia

165

9782100520442-Livre.fm Page 166 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Broadcast) principalement pour s’affranchir des problèmes de propriété intellectuelle liés aux systèmes existants. Le standard DTMB prévoit un mode à porteuses multiples (4K à 3 780 porteuses) et un autre à porteuse unique (VSB). Les deux modes utilisent une correction d’erreurs performante à base de code LDPC. Le mode à porteuses multiples utilise une modulation dite TDS-OFDM (Time Domain Synchronized Orthogonal Frequency Division Multiplexing) qui permet une synchronisation rapide, une estimation précise du canal et une bonne efficacité spectrale. Pour le moment, seule la Chine et ses dépendances directes (Hong-Kong, Macao) utilisent le système DTMB mais un certain nombre de pays « non alignés » l’expérimentent. La figure 10.1 représente la répartition géographique des différents standards de TV numérique terrestre mondiaux. Même si le système DVB est assez largement dominant, il n’a pas pu s’imposer comme unique standard mondial.

166

Figure 10.1 – Les standards mondiaux de télévision numérique terrestre

9782100520442-Livre.fm Page 167 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 10 – ÉVOLUTION :

ÉTAT DE L’ART ET PERSPECTIVES

10.2 La télévision à haute définition

© Dunod. La photocopie non autorisée est un délit.

Les premières tentatives de normalisation de la télévision à haute définition en Europe remontent à la fin des années 1980 avec le HD-MAC, dérivé du D2MAC avec lequel il était compatible (un récepteur D2MAC pouvait recevoir et afficher un signal HD-MAC en définition standard). La définition verticale du HD-MAC était exactement double de la télévision standard (1 250 lignes entrelacées dont 1 150 « utiles ») à 50 Hz. Cependant, la nature hybride de ce standard, l’échec des satellites à haute puissance et le prix exorbitant des écrans capables d’afficher cette résolution ont fait qu’il n’a jamais été utilisé en dehors d’émissions expérimentales, dont la plus prestigieuse (et la dernière à grande échelle) fut la couverture des jeux olympiques d’Albertville et de Barcelone en 1992. Le premier système de télévision numérique à haute définition à avoir été standardisé en 1998 est le système américain ATSC, basé sur la norme de compression MPEG-2. Il comporte deux résolutions à haute définition : 720p (1 280 × 720 à balayage progressif, 60 images/s) et 1080i (1 920 × 1 080 à balayage entrelacé, 30 images/s). Ces deux résolutions sont devenues depuis le « standard de fait » pour la TV numérique à haute définition, la variante européenne en différant seulement par sa fréquence de rafraîchissement de 50 et 25 images/s respectivement. Les progrès des écrans plats (technologies LCD et plasma) ayant permis une baisse de prix spectaculaire des téléviseurs à haute résolution (1 280 × 720 et au-dessus) depuis l’an 2000, on assiste à un développement rapide et à grande échelle de la télévision à haute définition. Quelle que soit sa technologie d’affichage, un téléviseur ou un moniteur doit remplir certaines conditions minimales déterminées par l’EICTA pour la compatibilité avec la haute définition : • affichage minimal de 720 lignes en format large (16/9) ; • au moins une entrée HD analogique YPBPR ; • au moins une entrée HD numérique DVI ou HDMI avec système de protection HDCP ; • capacité d’accepter les formats 720p et 1080i à 50 Hz et 60 Hz sur toutes les entrées HD. Ces caractéristiques minimales sont nécessaires à l’obtention du logo « HD Ready » (figure 10.2), qui n’est toutefois plus suffisant aujourd’hui pour identifier clairement les caractéristiques d’un téléviseur à haute définition ; c’est pourquoi d’autres logos plus explicites et plus exigeants ont été développés (voir section 10.4 « Le téléviseur numérique intégré »).

167

9782100520442-Livre.fm Page 168 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure 10.2 – Le logo « HD Ready »

Le développement de la TV HD a été accéléré par la disponibilité concomitante de nouvelles normes de compression plus efficaces que le MPEG-2 (MPEG-4 AVC/H264, WM9/VC1), ainsi que de modulations et de correction d’erreurs qui permettent d’augmenter significativement le débit utile d’un transpondeur satellite (DVB-S2) ou d’un multiplex TNT (DVB-T2). La télévision à haute définition utilisant ces nouvelles normes a démarré sous la forme d’émissions à péage régulières du bouquet allemand Première en novembre 2005 suivis en 2006 par les autres grands opérateurs européens de bouquets satellite (BskyB, Canal+, Sky Italia…).

168

Les émissions à haute définition en clair sur satellite sont et resteront assez limitées du fait que les opérateurs de bouquet sont encore plus attentifs que pour les émissions à définition standard à limiter la couverture des programmes HD aux pays pour lesquels ils ont acquis les droits de diffusion. En France, la TNT, sur laquelle elle a été le premier pays européen à diffuser quatre chaînes en haute définition (en DVB-T/MPEG-4) à partir d’octobre 2008, en sera sans doute le support le plus populaire, avec toutefois un nombre de chaînes et une couverture limités tant que les émissions analogiques subsisteront. Le format utilisé par la TNT française est le 1080i/50 Hz mais avec une résolution horizontale limitée à 1 440 pixels afin d’assurer la meilleure qualité possible avec un débit d’environ 8 Mb/s par programme, ce qui permet de loger trois programmes HD par multiplex. Le Royaume-Uni a préféré attendre la maturité de la norme DVB-T2 pour démarrer ses émissions terrestres en HD à la fin de l’année 2009 afin de bénéficier d’une augmentation de capacité de 35 % environ, ce qui permet de loger quatre programmes HD en MPEG-4 par multiplex au lieu de trois.

10.3 La télévision en relief (3DTV) La télévision en relief n’est pas une nouveauté en soi, et quelques émissions expérimentales ont eu lieu un peu partout depuis le début de la télévision en couleurs,

9782100520442-Livre.fm Page 169 Jeudi, 24. juin 2010 11:35 11

© Dunod. La photocopie non autorisée est un délit.

CHAPITRE 10 – ÉVOLUTION :

ÉTAT DE L’ART ET PERSPECTIVES

mais elles sont pratiquement restées au stade de curiosité en raison de la mauvaise qualité des images monochromes résultant du principe même qui superposait deux images dites « anaglyptiques » prises par deux caméras décalées à travers deux filtres colorés rouge et vert et restituées séparément pour chaque œil du spectateur au moyen de lunettes équipées d’un verre rouge et d’un autre vert. La numérisation récente du cinéma a rendu possible d’atteindre une qualité d’image satisfaisante en utilisant un autre principe de séparation des images droite et gauche qui consiste à remplacer les filtres colorés par des filtres polarisateurs opposés pour les images droite et gauche. Afin que l’inclinaison de la tête ne soit pas critique, la polarisation circulaire est désormais utilisée pour projeter les images, évitant ainsi d’avoir à maintenir la tête parfaitement verticale comme ce serait le cas avec la polarisation linéaire. Le grand succès en salle de la plupart des films en relief a naturellement conduit les chaînes de télévision, en premier lieu les bouquets de télévision payante, à s’intéresser rapidement à cette technologie dont la mise en œuvre devenait économiquement envisageable pour le grand public avec la disponibilité concomitante d’émissions à haute définition et d’écrans à haute résolution de grandes dimensions. C’est toujours ce principe dit de « première génération » basé sur la prise de vue par deux caméras pour reproduire la vision binoculaire qui sera utilisé par les premières émissions en 3D, les systèmes plus sophistiqués et plus réalistes (caméras multiples, hologrammes) n’étant pas réalisables économiquement avant au moins une décennie. Pour la phase initiale du déploiement de la TV en relief, qui ne concernera dans un premier temps qu’une minorité de téléspectateurs car elle nécessite l’abonnement à un bouquet payant ainsi que l’achat d’un écran « 3D compatible » et d’autant de paires de lunettes spéciales que de spectateurs devant l’écran, il faut que la chaîne de transmission TV HD existante puisse être utilisée, y compris le décodeur haute définition existant. Ceci implique que les deux images droite et gauche soient codées et transmises comme une image HD unique, et donc que leur résolution effective soit la moitié d’une image HD conventionnelle. Cette image ne pourra donc pas être utilisée pour un affichage en 2D de haute qualité sur un téléviseur HD conventionnel, ce qui nécessitera éventuellement une duplication en 2D et exclut de fait à court terme l’utilisation de la TNT (à l’exception peut-être d’émissions expérimentales) pour des raisons de bande passante. Les moyens privilégiés de transmission seront donc ceux où la bande passante disponible est importante (satellite, fibre optique, câble, ADSL) et/ou pour des vidéos à la demande.

169

9782100520442-Livre.fm Page 170 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Il n’y a pas à l’heure où nous écrivons ces lignes de standardisation officielle du format des émissions en 3D, en particulier de la méthode de combinaison des deux images pour en former une seule pour la transmission parmi les principales ci-dessous :

170

• juxtaposition (side by side) : la résolution horizontale de chaque image est divisée par deux, et deux images de 960 × 1 080 sont juxtaposées pour former une image HD de résolution 1 920 × 1 080 pour le codage et la transmission ; • sous-échantillonnage (offset subsampling) : un pixel sur deux provient d’une caméra différente ; là aussi c’est la résolution horizontale qui est divisée par deux ; • superposition (top/bottom) : la division de l’image est ici dans le sens vertical : les deux images ont une résolution de 1 920 × 540 et sont superposées pour former une image de 1 920 × 1 080 ; • ligne à ligne (line by line) : une ligne sur deux correspond à l’image de gauche et l’autre à l’image de droite ; là aussi c’est la résolution verticale qui est divisée par deux ; • séquence de trame (frame sequential) : une image sur deux à pleine résolution provient de chaque caméra, dans ce cas c’est la résolution temporelle qui est réduite, ce qui aujourd’hui n’implique plus forcément l’inconvénient du papillotement grâce aux techniques de multiplication de la fréquence de rafraîchissement ; la fréquence de rafraîchissement minimale d’affichage pour une observation confortable est de 100 ou 120 Hz ; • image 2D unique + information de profondeur : l’information de profondeur est une information de différence entre les images gauche et droite qui permet de les reconstruire dans le récepteur. Un début de standard de fait semble toutefois émerger autour de la méthode side by side pour les premières émissions 3D européennes du bouquet britannique Sky et de Canal+. Sky a été le premier à lancer une chaîne 3D (Sky 3D) en avril 2010, tout d’abord à destination de la réception collective (pubs, etc.) puis à destination de tous ses abonnés HD au cours de l’année 2010. Canal+ a annoncé ses premières émissions 3D pour mi-2010. La spécification HDMI a été adaptée de façon à pouvoir supporter et signaliser au dispositif d’affichage les différents formats 3D possibles (version 1.4 de juin 2009). Le DVB a démarré fin 2009 les travaux pour la définition d’un standard pour les émissions en relief, mais il ne pourra s’appliquer aux premières implémentations « propriétaires », il vise plutôt le moyen terme et les émissions en clair.

9782100520442-Livre.fm Page 171 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 10 – ÉVOLUTION :

ÉTAT DE L’ART ET PERSPECTIVES

En ce qui concerne les disques Blu-ray, le codage choisi (annoncé en mars 2010) permet de conserver la pleine résolution 1080p pour la 3D. Le standard prévoit en effet de coder les vidéos en relief au format MPEG-4 MVC (Multiview Video Coding), une extension du codec H.264 AVC utilisé pour la plupart des contenus à haute définition. Le format MVC permet la compression coordonnée de plusieurs flux vidéo, deux dans ce cas, l’un destiné à l’œil gauche et l’autre à l’œil droit, tout en n’augmentant que de 50 % environ la quantité de données nécessaires par rapport au même contenu en 2D. Un autre avantage du codage MPEG-4 MVC est de permettre la lecture en 2D à pleine résolution des disques 3D en n’utilisant qu’une des deux pistes vidéo. Le firmware des lecteurs Blu-ray 2D pourra en principe être mis à jour pour les rendre compatibles 3D. En ce qui concerne la méthode d’affichage et de visualisation des images 3D, elle peut être théoriquement indépendante du format utilisé pour la transmission car le « décodeur 3D » du téléviseur ou du moniteur est capable d’accepter plusieurs formats d’entrée (indiqués par la signalisation HDMI 1.4) et de les convertir à celui utilisé pour l’affichage. La méthode d’affichage est par contre directement liée au type de lunettes choisies par le fabricant pour l’observation de l’écran.

© Dunod. La photocopie non autorisée est un délit.

Si le fabricant a opté pour des lunettes passives (polarisantes) similaires à celles des salles de cinéma 3D, la dalle d’affichage comporte un dispositif polariseur qui polarise une ligne de pixels sur deux dans un sens opposé. La circuiterie interne du téléviseur convertit alors le format d’entrée en un format d’affichage « ligne à ligne ». L’afficheur est plus coûteux qu’un afficheur 2D mais les lunettes nécessaires à la visualisation 3D sont très économiques. Les inconvénients de ce type d’affichage 3D sont qu’il réduit la résolution verticale même si le format d’origine ne le faisait pas, et que l’angle de vision vertical assurant l’effet 3D est réduit. Si le fabricant a opté pour des lunettes actives, ces lunettes sont commandées au moyen d’une liaison sans fil (infrarouge ou radio) par le téléviseur de manière à obturer séquentiellement la vision d’un œil une trame sur deux. La circuiterie du téléviseur convertit dans ce cas le format d’entrée en un format d’affichage frame sequential avec une fréquence de rafraîchissement d’au moins 100 Hz. L’afficheur est en principe identique à celui d’un téléviseur 2D et il suffit d’un petit émetteur infrarouge dans le téléviseur pour envoyer les signaux de synchronisation aux lunettes. Ces lunettes sont plus coûteuses et plus lourdes que des lunettes polarisantes car elles nécessitent une électronique et des batteries.

171

9782100520442-Livre.fm Page 172 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Il semble aujourd’hui que l’affichage à lunettes actives se développe plus que celui à lunettes polarisantes, notamment parce qu’il ne présente pas les inconvénients du système passif, mais il est encore trop tôt pour être vraiment affirmatif à l’heure où nous écrivons ces lignes.

10.4 Le téléviseur numérique intégré (iDTV) L’évolution du marché du téléviseur a été extrêmement rapide depuis 2005, et à l’heure où nous écrivons ces lignes on ne peut pratiquement plus trouver de téléviseur à tube cathodique dans le commerce, à l’exception de quelques rares modèles de 36 cm. Les téléviseurs sont désormais en très grande majorité à écran plat en format 16/9 de type LCD, le plasma déclinant rapidement depuis que les écrans LCD rivalisent en taille et en contraste avec lui, mais avec une consommation beaucoup plus raisonnable. Les résolutions les plus courantes sont de 1 366 × 768 pour les modèles de petite taille et d’entrée de gamme, et de 1 920 × 1 080 pour les modèles de haut de gamme ou/et de grande taille. 172

Le type de rétro-éclairage le plus courant est basé sur des lampes fluorescentes, mais on assiste à son remplacement progressif par un rétro-éclairage à diodes électroluminescentes (LED) sur les modèles de haut de gamme. Outre le fait qu’il permet de réduire considérablement l’épaisseur de l’appareil, le rétro-éclairage à base de LED apporte une amélioration du contraste dynamique de l’image et permet ainsi de compenser en partie le manque de contraste « natif » de l’affichage LCD. Il apporte également une réduction sensible de la consommation de l’appareil. Étant donné le développement rapide de la TNT et l’arrêt imminent de la télévision analogique, tous les téléviseurs vendus en France depuis le 1er mars 2008 doivent obligatoirement disposer d’un tuner TNT intégré et depuis le 1er novembre 2009 tous ceux dont la diagonale est égale ou supérieure à 66 cm doivent disposer d’un tuner TNT HD (DVB-T/MPEG-4). Ces appareils doivent bien sûr comporter au moins un connecteur HDMI avec protection HDCP et une entrée HD analogique en composantes YPbPr. La plupart des produits récents de grande taille disposent le plus souvent de 3 ou 4 entrées HDMI. Afin de dissiper la confusion introduite par différents logos utilisés en complément du logo « HD Ready » par certains fabricants pour mettre en valeur les caractéristiques d’affichage de leurs produits, deux logos ont été définis pour identifier les téléviseurs permettant la réception de la TNT HD (figure 10.3) et distinguer leur résolution d’affichage.

9782100520442-Livre.fm Page 173 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 10 – ÉVOLUTION :

ÉTAT DE L’ART ET PERSPECTIVES

Le logo de gauche s’applique aux téléviseurs avec tuner TNT HD intégré et une résolution d’écran au moins égale à 1 280 × 720 pixels (parfois dite 720p) et pouvant accepter une résolution jusqu’à 1080i au moins sur leurs connecteurs HDMI et composantes. Le logo de droite s’applique aux téléviseurs avec TNT HD intégrée, une résolution d’écran au moins égale à 1 920 × 1 080 (dite Full HD) et pouvant accepter un signal jusqu’à 1080p sur leurs connecteurs HDMI et composantes.

© Dunod. La photocopie non autorisée est un délit.

Figure 10.3 – Les logos permettant de différencier les téléviseurs HD avec récepteur TNT HD

Ces récepteurs permettent bien sûr de recevoir les émissions analogiques terrestres tant qu’elles continueront, mais on peut supposer que cette fonctionnalité disparaîtra assez rapidement après l’arrêt de ces émissions. Les entrées audio/vidéo analogiques (péritel ou autres) permettant la connexion d’appareils à définition standard resteront cependant encore longtemps nécessaires. Certains appareils permettent de recevoir également le standard DVB-C, ce qui permet de les connecter directement à un réseau câblé sans nécessiter de décodeur externe (si elles sont en clair ou s’il existe un module DVB-CI approprié homologué par l’opérateur de réseau). En dehors de leurs connexions purement audio/vidéo, tous les téléviseurs vendus en Europe doivent disposer obligatoirement d’un slot DVB-CI pour la connexion d’un module d’accès conditionnel, et les plus récents sont équipés d’un connecteur DVB-CI+ exigé par certains opérateurs de TNT payante et de réseaux câblés pour accéder à leur bouquet sans avoir à louer leur terminal propriétaire. Un port USB 2.0 maître est présent sur la plupart des appareils récents pour permettre la mise à jour du logiciel, lire des photos, de la musique et des vidéos à partir d’un disque ou d’une clé USB. Ce même port permet parfois également d’enregistrer l’émission que l’on regarde. Enfin, le dernier venu des connecteurs numériques sur les téléviseurs est le port Ethernet qui permet la connexion directe au réseau domestique et, selon le logiciel embarqué, de surfer sur le Web et de lire des contenus multimédias à partir d’Internet ou des ordinateurs connectés au réseau domestique. La certification DLNA (Digital Living Network Alliance) de l’appareil permet une connexion au réseau sans nécessiter de configuration complexe et garantit une interopérabilité des appareils.

173

9782100520442-Livre.fm Page 174 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

10.5 La télévision numérique sur IP (par exemple via ADSL et fibre optique) Un nouveau moyen de diffusion de la télévision numérique est devenu une réalité commerciale au début du XXIe siècle : la diffusion par ligne téléphonique (ADSL), avec un mode de transport particulier basé sur le protocole Internet (Internet Protocol, IP). L’augmentation des performances de la technologie ADSL pour la connexion à haut débit à Internet (ADSL 2+) et le succès qu’elle a rencontré à la suite de la réduction des coûts d’abonnement provoquée par l’ouverture à la concurrence, ont permis d’en faire un nouveau canal de diffusion de la télévision à destination du grand public. C’est ce qu’on appelle en général télévision sur IP (IPTV ou TVoIP en anglais). En France, c’est l’opérateur Free qui a lancé en 2003 le premier bouquet de télévision par ADSL à grande échelle au moyen de sa fameuse Freebox, terminal multimédia et multifonction qui permet l’accès Internet à haut débit (initialement jusqu’à 8 Mb/s, portés à 20 Mb/s en 2004 avec l’ADSL 2+), la téléphonie sur IP (VoIP) et l’accès à la télévision sur IP (IPTV). 174

France Telecom puis 9 Telecom (aujourd’hui SFR) ont suivi rapidement, avec une approche un peu différente, en séparant les fonctions d’accès aux services transportés par ADSL au moyen d’une passerelle ou gateway (respectivement Livebox et Neufbox) à laquelle se connectent l’ordinateur et une set-top box pour la télévision par Ethernet ou WiFi, ainsi qu’un poste téléphonique ordinaire. La Freebox 5 lancée en 2006 a suivi le même découpage en deux boîtiers. Au niveau de l’accès d’abonné, la technologie de télévision sur IP se distingue des moyens de diffusion traditionnels (terrestre, câble, satellite) par le fait que l’ensemble des chaînes accessibles n’est pas transmis simultanément jusqu’à l’abonné, en raison de la bande passante insuffisante de la ligne téléphonique. Si l’opérateur qui fournit le service ADSL (accès à Internet, téléphonie sur IP, télévision sur IP) n’est pas l’opérateur de télécommunications « historique » possédant la ligne de l’abonné, il est procédé à ce qu’on appelle le dégroupage de la ligne, qui peut être partiel (si l’abonné conserve un service de téléphonie classique chez l’opérateur historique) ou total (s’il abandonne ce service). D’un point de vue électrique, le dégroupage partiel consiste à séparer, au moyen d’un filtre sur la ligne d’abonné à son arrivée dans le central téléphonique, les basses fréquences (300-3 400 Hz de la téléphonie commutée classique) qui sont dirigées vers l’autocommutateur de l’opérateur historique et les fréquences élevées

9782100520442-Livre.fm Page 175 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 10 – ÉVOLUTION :

ÉTAT DE L’ART ET PERSPECTIVES

(au-dessus de 10 kHz) vers le DSLAM du fournisseur de service ADSL situé dans le central téléphonique de l’opérateur de télécommunications « historique » à qui appartient la ligne de l’abonné. La figure 10.4 illustre schématiquement la connexion de la ligne d’abonné côté central et côté abonné dans le cas où un service de téléphonie classique est maintenu (fourniture de tous services par l’opérateur historique ou dégroupage partiel).

175

© Dunod. La photocopie non autorisée est un délit.

Figure 10.4 – Vue schématique d’une connexion ADSL avec VoIP et IPTV

En cas de dégroupage total, la ligne est redirigée sans filtrage vers l’opérateur alternatif qui fournit alors l’intégralité des services de télécommunication fixes à son client (y compris quelquefois un service de téléphonie commutée). L’opérateur alternatif est dans ce cas le seul interlocuteur du client, également en cas de problème physique sur la ligne. Du côté abonné, on insère un filtre passe-bas sur tous les appareils téléphoniques « classiques » (téléphone, fax, modem) pour éviter qu’ils perturbent (et soient perturbés par) la liaison ADSL. Le modem ADSL (avec ou sans fonction de passerelle) dispose d’un filtre passehaut interne, ce qui permet de le relier directement à la ligne téléphonique.

9782100520442-Livre.fm Page 176 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

En ce qui concerne la télévision sur IP, on ne transmet donc à un moment donné sur la ligne de l’abonné que le programme qu’il veut regarder, la sélection se faisant au niveau du DSLAM. Le fait que l’on ne transmette sur la ligne de l’usager que le programme de télévision qu’il a demandé (grâce au caractère bidirectionnel de la liaison ADSL) permet en principe la souscription d’abonnements aux chaînes à péage sans nécessiter de système d’accès conditionnel ni de cryptage, puisque l’on peut s’assurer avant d’accéder à cette demande qu’il a bien les droits d’accès nécessaires. Certains bouquets de programmes exigent néanmoins que le terminal de TV sur IP soit muni d’un système d’accès conditionnel classique pour permettre de s’y abonner. La TV sur IP permet aussi la fourniture de programmes vidéo réellement à la demande (Video On Demand, VOD), puisqu’on peut n’envoyer un programme particulier qu’à un seul abonné au moment où il l’a demandé sans encombrer tout le réseau avec ce programme.

176

10.5.1 Distribution de la télévision sur IP via un réseau domestique Pour ce qui nous concerne ici, nous ne nous intéresserons qu’aux aspects d’interface logique entre le terminal de réseau (Home Network End Device ou HNED) de télévision et le fournisseur d’accès via un réseau domestique, que nous supposerons basés sur l’interface DVB-IPI (Internet Protocol Interface) du DVB et le home reference model définis dans le DVB Bluebook (document DVB A086, juillet 2004).

Figure 10.5 – Modèle de réseau domestique du DVB (home reference model)

9782100520442-Livre.fm Page 177 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 10 – ÉVOLUTION :

ÉTAT DE L’ART ET PERSPECTIVES

La figure 10.5 montre l’architecture d’un réseau domestique basé sur le home reference model du DVB. Les différents segments du réseau domestique peuvent utiliser différentes technologies (Ethernet, WiFi, IEEE1394…) tout comme les réseaux de distribution (câble, satellite ADSL…). Dans les cas les plus courants, c’est une version simplifiée de ce modèle qui sera mise en pratique, avec un seul type d’accès externe (la ligne ADSL) et une ou deux technologies de réseau domestique (Ethernet et WiFi dans la plupart des cas). Le terminal de réseau domestique (Home Network End Device, HNED) auquel nous nous intéressons ici – la set-top box de télévision sur IP – devra se conformer à l’interface logique DVB-IPI-1, le seul type qui nous intéressera ici. La plupart des solutions de TV sur IP françaises actuelles correspondent à ce schéma, à l’exception de la Freebox (versions 1 à 4) qui regroupe les fonctions de passerelle et de terminal de télévision dans un seul boîtier.

10.5.2 Principaux éléments du protocole DVB-IP Ce protocole obéit à l’organisation générale en couches de l’ISO. La couche la plus haute correspond aux services offerts par le fournisseur de service (programmes, informations sur les programmes, adresses IP multicast et/ou unicast). Le terminal de réseau domestique est un dispositif IP conforme aux exigences du document RFC1122, et les protocoles de réseau et de transport HTTP, TCP, UDP et IP sont supportés par le terminal.

© Dunod. La photocopie non autorisée est un délit.

Les informations nécessaires à la découverte et à la sélection des services disponibles sont assemblées selon un protocole baptisé Service Discovery and Selection (SD&S). Elles sont transportées selon le protocole DVBSTP pour les services multicast et selon le protocole HTTP pour les services unicast. Le protocole RTSP (Real Time Streaming Protocol) est utilisé pour le contrôle de la livraison de services de TV et radio, qu’elles soient de type broadcast ou à la demande. Les protocoles SD&S, DVBSTP et RTSP sont décrits et spécifiés dans le document DVB A086. Le même document spécifie que la forme transport stream doit être utilisée pour transmettre les informations audio et vidéo ainsi que les informations de service (SI). Leur encapsulation est détaillée ci-après.

177

9782100520442-Livre.fm Page 178 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

10.5.3 Transport de la télévision numérique sur IP Il est nécessaire que les données audiovisuelles se présentent sous forme de messages conformes au protocole Internet (Internet Protocol, IP). Il faut donc « encapsuler » ces données. La télévision numérique TV sur IP sous forme de transport stream, ne comporte le plus souvent qu’un seul programme TV en raison de la bande passante limitée de la liaison ADSL, mais la norme DVB autorise le transport d’un multiplex de plusieurs programmes si la bande passante le permet. En raison de la nature critique vis-à-vis du temps des données transportées, c’est le protocole « temps réel » (Real Time Transport Protocol, RTP) qui est utilisé. Chaque paquet ou datagramme IP est donc composé d’un certain nombre de paquets transport MPEG-2 de 188 octets, dont le nombre est limité par la longueur maximale d’un datagramme IP (65 535 octets dans le cas du protocole IPv4 actuellement le plus courant). Ce « contenu » est précédé d’un en-tête IP standard (20 octets) suivi d’un en-tête UDP (8 octets) et d’un en-tête RTP de 12 octets (figures 10.6 à 10.9). La figure 10.7 donne le détail de la structure de l’en-tête IP. 178

Figure 10.6 – Structure globale d’un paquet IP de TV numérique (IPv4)

Figure 10.7 – Détail de l’en-tête IP

L’en-tête UDP (8 octets) sert à préciser le numéro de port (toujours pair) utilisé par le protocole RTP ainsi que le nombre de paquets transport d’après le champ « longueur » (figure 10.8).

Figure 10.8 – Détail de l’en-tête UDP

9782100520442-Livre.fm Page 179 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 10 – ÉVOLUTION :

ÉTAT DE L’ART ET PERSPECTIVES

La longueur du datagramme IP est de fait limitée à une valeur inférieure à celle permise par le protocole IPv4 par la taille maximale de l’unité de transport du réseau (Maximum Transport Unit, MTU). Il convient de ne pas excéder cette limite afin d’éviter la fragmentation du paquet IP, ce qui conduirait à une augmentation significative du nombre de paquets perdus et à une surcharge des routeurs et des équipements terminaux contraints respectivement de fragmenter et de réassembler les paquets IP. Les réseaux Ethernet ont en général une MTU de 1 500 octets, ce qui conduit à un nombre maximum de 7 paquets transport (1 316 octets). En fonction de certaines options des en-têtes IP ou RTP, le nombre maximal de paquets transport peut être éventuellement inférieur à 7. Afin d’éviter une fragmentation RTP que certains terminaux pourraient ne pas supporter, il est recommandé aux opérateurs de mettre à 1 le bit don’t fragment (1 des 3 flags) de l’en-tête IP. Avec cette option, les routeurs retourneront un message d’erreur si la longueur du paquet IP non fragmentable excède la MTU du réseau destinataire, ce qui permettra au fournisseur d’ajuster la longueur de la charge utile à leur capacité. La MTU minimale qu’un réseau doit supporter est de 576 octets (ce qui ne permet que 2 paquets transport par paquet IP). La figure 10.9 montre la structure de l’en-tête RTP (12 octets).

© Dunod. La photocopie non autorisée est un délit.

Figure 10.9 – Détail de l’en-tête RTP Le champ V (2 bits) indique la version (RTP = 2). Le champ P (1 bit) indique s’il y a ou non padding. Le champ X (1 bit) indique une extension de l’en-tête (au-delà de 12 octets, ignorée pour IPTV). Le champ M (1 bit) est un bit de marquage. Le champ CRSC (4 bits) indique le nombre de sources contributrices (ignoré pour IPTV). Le champ Payload Type (7 bits) indique la nature de la « charge utile » ; il doit être à la valeur décimale 33 (correspondant à un transport stream MPEG-2). Le numéro de séquence (Sequence Number) permet au récepteur de réordonner les paquets qui ne seraient pas reçus dans l’ordre temporel et de détecter la perte de paquets et les paquets reçus en double. Le champ Timestamp est dérivé d’une horloge à 90 kHz qui peut être – mais pas nécessairement – asservie à l’horloge de référence d’un des programmes du transport stream MPEG-2. Qu’elle soit asservie ou non, elle doit respecter les spécifications (précision notamment) prescrites pour l’horloge système MPEG-2 par la norme ISO/IEC13818-1.

179

9782100520442-Livre.fm Page 180 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

10.5.4 Formats de codage de la télévision numérique sur IP Les premières réalisations de télévision sur IP par ADSL utilisent (ou ont utilisé) pratiquement toutes un codage vidéo MPEG-2 avec un débit de l’ordre de 3 Mb/s, ce qui permet, selon les caractéristiques de la ligne téléphonique, d’offrir le service de télévision jusqu’à une distance d’environ 2 500 à 3 000 m du DSLAM. Jusqu’à fin 2005, il n’y avait guère d’autre option économique en raison de la nondisponibilité de codeurs « temps réel » efficaces et de décodeurs abordables pour des formats de compression plus efficaces (H264, WMV9…). À partir de 2006, il est devenu possible de mettre en œuvre ces nouveaux formats de codage de façon économique, ce qui a permis de diviser par deux le débit nécessaire au codage vidéo à qualité égale (soit environ 1,5 Mb/s pour la définition standard). Cela permet d’offrir le service de télévision à la majorité des foyers raccordés au téléphone fixe (lignes de moins de 4 000 m environ). Pour les lignes de longueur relativement courte, donc principalement en ville, cette réduction de débit permet par exemple de transmettre simultanément plusieurs programmes à définition standard (deux ou trois) ou un programme en haute définition. 180

10.5.5 Interface utilisateur L’interface utilisateur la plus simple peut en principe se résumer à un navigateur (browser) HTML permettant d’envoyer des requêtes vers le DSLAM à partir des zones actives d’une page HTML. La sophistication et la fonctionnalité des set-top box IP augmentant (réception TNT, disque dur, accès conditionnel, fonctionnalité media center…), la plupart d’entre elles font en fait appel à un véritable système d’exploitation (Linux, Windows) permettant l’installation aisée d’un middleware et d’applications dérivées de celles du monde du PC. Chaque opérateur cherchant à se distinguer de ses concurrents par des fonctionnalités spécifiques, il n’y a évidemment pas d’interopérabilité logicielle entre leurs modèles respectifs, qui de toute façon sont fournis en location à l’abonné par l’opérateur. Le développement rapide de réseaux à fibre optique jusqu’au domicile de l’usager n’affecte pas directement l’architecture de la set-top box TV qui est généralement reliée par Ethernet (ou par l’intermédiaire de CPL ou WiFi) à un modem optique qui prend la place du modem ADSL. Ces décodeurs pourront bénéficier d’un débit atteignant 100 Mb/s qui permettra de recevoir plusieurs émissions HD simultanément sur plusieurs récepteurs.

9782100520442-Livre.fm Page 181 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 10 – ÉVOLUTION :

ÉTAT DE L’ART ET PERSPECTIVES

10.6 La télévision mobile personnelle (TMP) 10.6.1 Le standard terrestre DVB-H Le standard DVB-H est une extension du standard DVB-T sur lequel il s’appuie. Il est destiné à permettre la réception de programmes de télévision à destination de récepteurs portables et mobiles (le H de DVB-H signifie handheld qualifiant un appareil tenu à la main). Le plus souvent, il s’agira d’un téléphone mobile. En effet, DVB-H est principalement destiné à éviter la limitation du nombre de terminaux pouvant recevoir un programme TV donné qui existe en cas d’utilisation du réseau 3G, qui est un système de type unicast (chaque récepteur reçoit un flux qui lui est propre). Les principales extensions de DVB-H par rapport à DVB-T, dont l’utilisation est signalée au moyen de bits TPS spécifiques, sont les suivantes :

© Dunod. La photocopie non autorisée est un délit.

• addition d’un mode COFDM 4K mieux adapté à la réalisation de réseaux SFN de dimensions moyennes en permettant une réduction de la consommation du récepteur par rapport au 8K ; • addition d’un entrelacement temporel (time interleaving) double pour le mode 4k et quadruple pour le mode 2k qui permettent d’améliorer le comportement au fading et la résistance au bruit impulsionnel ; • émission d’un contenu donné en salve (time slicing) permettant de n’activer la partie réception du terminal qu’une fraction du temps (de l’ordre de 10 %) afin de réduire sa consommation et donc d’augmenter son autonomie ; • possibilité d’augmentation de la robustesse au moyen d’une correction d’erreurs supplémentaire facultative (MPE-FEC) pour améliorer la réception avec une antenne intégrée au terminal, aux performances nécessairement très limitées. Pour ce faire, les programmes TV ou autres services à destination des terminaux mobiles sont transmis sous forme de trains élémentaires (elementary streams, ES) formant des datagrammes IP (Internet Protocol), comme pour la télévision par ADSL. Ces datagrammes IP font l’objet d’une encapsulation dite multiprotocole (MultiProtocol Encapsulation, MPE) pour les insérer dans le flux transport (transport stream) MPEG. Cette opération consiste à encapsuler les datagrammes IP dans des sections DSM-CC par addition d’un en-tête et d’une terminaison CRC. Ces sections sont ensuite segmentées en paquets transport MPEG. Pour pouvoir réaliser le time slicing, les sections ne sont pas transmises immédiatement mais sont accumulées pour former des « enregistrements » de taille maximale 191 Ko qui correspondront à la durée d’une tranche de temps allouée à un service.

181

9782100520442-Livre.fm Page 182 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Ces enregistrements peuvent être représentés sous forme d’une table de 191 colonnes par 1 024 lignes (maximum) sur lequel on pourra appliquer une correction d’erreur optionnelle supplémentaire dite MPE-FEC (figure 10.10). Elle consiste en un codage de Reed-Solomon RS (255,191) portant sur des mots de 191 octets constitués par les lignes de cette table, qui donnera une seconde table constituée d’un mot RS de 64 octets pour chacune des lignes de la table. Le résultat sera une table de taille maximale 255 colonnes par 1 024 lignes qui sera lue colonne par colonne pour la transmission. Les mots de correction étant également lus par colonnes, chaque octet d’un mot RS sera distant du suivant du nombre de lignes du tableau, ce qui crée un entrelacement temporel de fait qui accroît leur probabilité de réception sans erreur et augmente l’efficacité de la correction RS.

182

Figure 10.10 – La correction d’erreur MPE-FEC RS (255,191)

Le pourcentage de temps de transmission alloué à chaque service, de l’ordre de 5 à 10 %, dépendra du nombre de services à transmettre, de leur débit individuel (de l’ordre de 500 kb/s) et du débit total du canal. Le standard DVB-H peut être utilisé dans la bande TV UHF avec les largeurs de canaux usuelles du DVB-T (6, 7 ou 8 MHz) ou dans d’autres bandes de fréquences (par exemple bande L aux alentours de 1,5 GHz avec d’autres largeurs de canaux, par exemple 5 MHz aux États-Unis).

9782100520442-Livre.fm Page 183 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 10 – ÉVOLUTION :

ÉTAT DE L’ART ET PERSPECTIVES

Figure 10.11 – Schéma-bloc simplifié de la partie réception DVB-H

Un des problèmes de l’utilisation de la bande UHF pour la réception TV dans un terminal GSM est la proximité des canaux UHF élevés (jusqu’à 862 MHz) de la fréquence d’émission du portable en mode GSM 900 (890 à 915 MHz). Compte tenu des possibilités de filtrage actuelles, cela interdit en pratique pour le moment l’utilisation des canaux élevés (> 700 MHz) de la bande UHF avec un récepteur TV intégré à un téléphone GSM en fonctionnement. Le standard DVB-H peut en théorie utiliser toutes les combinaisons de paramètres de modulation autorisées par le standard (QPSK à 64-QAM…) mais en pratique, compte tenu de la robustesse nécessaire, seules les modulations QPSK et 16-QAM avec des FEC de 1/2 ou 2/3 sont réellement utilisables pour cette application, ce qui autorise des débits bruts (hors correction MPE-FEC) de 5 à 11 Mb/s dans un canal de 8 MHz.

© Dunod. La photocopie non autorisée est un délit.

Le codage vidéo utilisé sera principalement le H264 avec une résolution CIF ou QCIF et des débits vidéo de l’ordre de 256 à 384 kb/s. Diverses expérimentations ont eu lieu en Europe à partir de 2004 à la fois pour tester les performances techniques et les exigences du système (configuration du réseau, etc.) et pour définir les attentes des consommateurs et le modèle économique à mettre en œuvre. Cependant, début 2010 il n’existe en Europe que peu de services de TV à destination des mobiles en DVB-H étant donné le coût élevé du réseau de diffusion nécessaire, qui handicape sérieusement le modèle économique d’un tel service. En France notamment, le démarrage d’un tel service a été retardé plusieurs fois et il n’est pas certain que DVB-H soit utilisé un jour…

10.6.2 Le standard hybride terrestre-satellite DVB-SH Le système DVB-H est relativement bien adapté à des zones de population dense mais la couverture entièrement terrestre de zones rurales serait très coûteuse à mettre en place si on voulait garantir une bonne qualité de service sur ces zones.

183

9782100520442-Livre.fm Page 184 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

184

C’est pourquoi un service hybride satellite-terrestre a été proposé par AlcatelLucent en 2006 au DVB qui a mis en place un groupe de travail pour définir un nouveau standard, dérivé de DVB-H. Ce système a été baptisé DVB-SH (Satellite Handheld) car c’est – officiellement – principalement un service par satellite (pour les zones « ouvertes ») avec une composante complémentaire terrestre (Complementary Ground Component, CGC) pour les zones urbaines où la vue directe du satellite ne peut être garantie ainsi que pour la réception à l’intérieur des bâtiments. La standardisation par l’ETSI est intervenue en 2008 sous la spécification ETSI EN 302 583. Les implementation guidelines constituent le document ETSI TS 102 584. Le système DVB-SH doit permettre la réception par un mobile (téléphone ou autre) statique ou en mouvement jusqu’à des vitesses de plus de 300 km/h. En Europe, il utilisera une partie de la bande S (de 2 170 à 2 200 MHz) qui présente l’avantage d’être immédiatement adjacente à la voie descendante du téléphone mobile de troisième génération (3G ou UMTS). La largeur des canaux prescrite dans cette bande est de 5 MHz. Du fait de la proximité de ces deux bandes, les émetteurs DVB-SH pourraient être colocalisés avec les stations 3G en partageant éventuellement leurs antennes d’émission, ce qui présente l’avantage supplémentaire d’une couverture très voisine pour les services TV et téléphoniques. Le système est néanmoins prévu pour s’adapter à d’autres bandes de fréquences au-dessous de 3 GHz et à d’autres largeurs de canaux afin de pouvoir être utilisé partout dans le monde. Les largeurs de canaux prévues sont 1,7 MHz (bande L), 5 MHz (bande S) et 6, 7 ou 8 MHz (UHF). Les modes COFDM prévus sont les mêmes que ceux de DVB-H (2K, 4K, 8K) pour les largeurs de canaux de 5, 6, 7 ou 8 MHz auquel s’ajoute un mode 1K pour des canaux de 1,7 MHz. En mode TDM, les modulations possibles sont QPSK, 8-PSK et 16-APSK. La figure 10.12 représente l’architecture d’un réseau DVB-SH où, outre le satellite de diffusion directe, on distingue plusieurs types d’émetteurs terrestres complémentaires : • TR (a) sont des émetteurs terrestres situés principalement en zone urbaine ou suburbaine pour couvrir les zones d’ombre du satellite causées par les bâtiments ou autres obstacles et assurer la réception à l’intérieur des bâtiments. • TR (b) sont de petits émetteurs « bouche-trou » (gap fillers) destinés à assurer une couverture à l’intérieur des bâtiments, principalement en zone couverte par satellite.

CHAPITRE 10 – ÉVOLUTION :

Figure 10.12 – Architecture schématique d’un réseau DVB-SH (d’après DVB)

© Dunod. La photocopie non autorisée est un délit.

9782100520442-Livre.fm Page 185 Jeudi, 24. juin 2010 11:35 11

ÉTAT DE L’ART ET PERSPECTIVES

185

9782100520442-Livre.fm Page 186 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

• TR (c) sont des émetteurs situés à l’intérieur de véhicules de transport public (trains, bus) pour permettre une réception de qualité sur mobile sans nécessité de connexion à une antenne externe. Le standard DVB-SH peut être mis en œuvre selon deux modes : • SH-A : la modulation COFDM est utilisée pour le signal satellite et les émetteurs terrestres, permettant ainsi que le réseau terrestre opère éventuellement en SFN avec le satellite. • SH-B : l’émission satellite utilise une modulation à porteuse unique (TDM, Time Division Multiplex) et les émetteurs terrestres de complément utilisent une modulation COFDM. Même dans ce cas le système est conçu pour permettre de développer des récepteurs combinant la réception satellite et la réception terrestre du même flux pour en améliorer la réception. Comme DVB-H, DVB-SH prescrit l’utilisation du time slicing afin de réduire la consommation d’énergie de la partie réceptrice, ce qui est d’autant plus important que la réception en diversité avec deux (voire plusieurs) récepteurs devrait être la règle pour la majorité des appareils DVB-SH. La correction d’erreurs de DVB-SH, innovante et performante, améliore considérablement les performances de la transmission par rapport à DVB-H.

186



Au niveau « couche physique » (transport stream)

Une correction d’erreur (FEC) à turbocodes déjà utilisés dans les systèmes de téléphonie cellulaire de troisième génération (3G) renforce considérablement la résistance aux erreurs introduites par la transmission, d’où une amélioration importante de la couverture à puissance d’émission et efficacité spectrale équivalentes. Un entrelacement temporel éventuellement très long (jusqu’à plus de 10 s) permet de supporter des « trous » importants occasionnés, particulièrement en réception satellitaire mobile, par exemple par le passage sous un pont – voire un tunnel – ou derrière des bâtiments ou des arbres. Le « prix à payer » pour cet entrelacement très long est un retard supplémentaire qui peut être quelque peu gênant lors de la réception d’émissions en direct (émissions sportives par exemple) et pour le changement de programme (zapping).



Au niveau « lien » (elementary stream)

Outre la correction d’erreurs au niveau physique, DVB-SH peut utiliser soit la correction d’erreur MPE-FEC de DVB-H, soit une correction plus performante dite MPE-IFEC destinée à améliorer le fonctionnement lors de pertes de signal pouvant s’étendre sur plusieurs salves de time slicing.

9782100520442-Livre.fm Page 187 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 10 – ÉVOLUTION :

ÉTAT DE L’ART ET PERSPECTIVES

Avec une surcharge de parité de 30 %, MPE-IFEC permet par exemple de compenser la perte de 3 salves successives alors que MPE-FEC ne permet même pas la récupération d’une salve complète. Pour ce faire, les données de parité de MPE-IFEC sont calculées sur plusieurs salves successives alors que pour MPE-FEC le calcul ne porte que sur une seule salve. Tout comme l’entrelacement long au niveau physique, cet « étalement » des opérations de parité se traduit par une latence supplémentaire mais il existe des possibilités qui permettent de ne pas trop allonger le temps de zapping, par exemple en n’attendant pas la réception de toutes les données de parité si les conditions de réception sont suffisamment bonnes. Ces améliorations se traduisent par un gain de 6 à 7 dB en C/N par rapport à DVB-H (figure 10.13) à efficacité spectrale équivalente.

187

© Dunod. La photocopie non autorisée est un délit.

Figure 10.13 – Performances relatives de DVB-H et DVB-SH (d’après Alcatel-Lucent)

Du fait de la multiplicité des possibilités d’utilisation de DVB-SH, un circuit capable de le démoduler sera aussi capable de démoduler la plupart des autres standards de télévision – mobile ou fixe – basés sur la modulation COFDM, sans surcoût significatif au niveau de la puce mais au prix d’un firmware de configuration relativement complexe.

10.6.3 Autres standards de télévision mobile personnelle



Standard T-DMB (Terrestrial Digital Multimedia Broadcasting)

C’est une extension du standard de radio numérique DAB issu du projet européen Eureka 147. Il en reprend notamment les caractéristiques de modulation (COFDM

9782100520442-Livre.fm Page 188 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

modulée en DQPSK), les bandes de fréquences (VHF et bande L) et les « blocs » de 1,7 MHz environ qui représentent un quart de la largeur d’un canal de télévision de 7 MHz. La bande VHF est destinée à une utilisation exclusivement terrestre alors que la bande L et subdivisée en deux sous-bandes, l’une terrestre (1 452-1 479 MHz) l’autre satellitaire (1 480-1 491 MHz). T-DMB a été standardisé par l’ETSI en juin 2005 sous les numéros TS 102 427 (DAB ; Data Broadcasting – MPEG-2 TS streaming) et TS 102 428 (DAB ; DMB video service – User Application Specification). Il a été choisi par la Corée du Sud, où son développement a été très rapide, ainsi que par l’Inde. La Chine qui l’avait choisi au départ a finalement développé son propre standard CMMB (China Mobile Multimedia Broadcasting). La France a choisi en 2007 le standard T-DMB pour lancer la radio numérique bien que la plupart de ses voisins aient opté pour un autre dérivé purement radio du DAB, le DAB+. Toutefois les récepteurs T-DMB pourront décoder le DAB et le DAB+, quel que soit leur profil. Le standard T-DMB utilise des codages audio et vidéo récents et performants (H264 pour la vidéo, AAC+ pour l’audio) et permet de diffuser des applications interactives (MPEG4-BIFS). Les composantes audio, vidéo et d’interactivité sont multiplexées dans un flux MPEG-2 TS. Le T-DMB permet de diffuser 3 services de télévision ou 9 services radio par multiplex ou une combinaison de services radio et télévision (par exemple 2 TV et 3 radio ou 1 TV et 6 radio).

188



Système américain MediaFLO (Forward Link Only)

Ce système propriétaire développé par Qualcomm est publié par l’ETSI sous la référence TS 102 589. Aux États-Unis, où il est en compétition avec le standard ATSC M/H, MediaFLO utilise une bande de 5,55 MHz à l’intérieur d’un canal de 6 MHz (716-722 MHz, ex-canal TV 55). Les émissions utilisent la modulation OFDM 4K avec un intervalle de garde de 1/8 (environ 92 µs), ce qui permet de constituer un réseau SFN avec une distance importante entre émetteurs. Les émetteurs utilisés sont de forte puissance (jusqu’à 50 kW) et permettent de couvrir une zone assez étendue mais il a fallu attendre l’extinction de l’analogique en juin 2009 pour pouvoir étendre les zones où le service est disponible et améliorer la couverture. Les émissions sont cryptées. Dans certaines grandes cités, Qualcomm a également obtenu une licence pour le canal adjacent 56 (722-728 MHz) afin de proposer plus de services, mais dans la majeure partie du pays ce canal est alloué à un service concurrent en clair utilisant le standard ATSC-M/H.

9782100520442-Livre.fm Page 189 Jeudi, 24. juin 2010 11:35 11

CHAPITRE 10 – ÉVOLUTION :

ÉTAT DE L’ART ET PERSPECTIVES

Paramètre

Valeur

Largeur de bande utile/canal

5,55/6 MHz

Nombre total de porteuses (FFT)

4 096

Porteuses de garde + pilotes

96 + 500

Nombre de porteuses utiles

3 500

Intervalle de garde

1/8 (92,25 µs)

Modulations utilisées

QPSK, 16-QAM

Tableau 10.1 – Quelques caractéristiques de MediaFLO



Standard américain ATSC-M/H (Mobile/Handheld)

Ce standard qui vise à une diffusion de services TV à destination de récepteurs mobiles est une extension compatible au standard ATSC, de la même manière que DVB-H l’est à DVB-T. Bien que les modulations soient très différentes, la philosophie globale est la même à savoir :

© Dunod. La photocopie non autorisée est un délit.

• transmission sous forme de datagrammes IP encapsulés au format TS, • augmentation de la robustesse au moyen d’une correction d’erreur supplémentaire au niveau IP, • utilisation du time slicing afin de réduire la consommation des récepteurs. Le standard ATSC-M/H permet d’ajouter des services de TV mobile à un émetteur ATSC conventionnel et est donc principalement diffusé en UHF dans des canaux de 6 MHz. Les services ATSC-M/H utilisent une ou plusieurs portions fixes de 917 kb/s de la bande passante totale d’un multiplex ATSC. Chacune de ces portions est appelée groupe M/H. Le standard ATSC-M/H définit une structure basée sur des trames M/H dont la position est fixe à l’intérieur des trames du train transport VSB pour permettre la réduction de consommation des récepteurs au moyen du time slicing. Les données M/H font l’objet d’une correction d’erreur supplémentaire (RS + code convolutif) pour augmenter leur robustesse, et un entrelacement temporel permet de supporter des trous de réception. Le signal ATSC-M/H comporte également des séquences d’entraînement permettant l’estimation du canal par le récepteur. Le codage vidéo utilisé est H264 (base profile v1.3), format 16/9, résolution 416 × 240. Le codage audio est HE AAC v2.0, mono ou stéréo. Le standard ATSC-M/H est spécifié dans le document ATSC A/153, parties 1 à 9. Les caractéristiques de transmission sont spécifiées dans la partie 2.

189

9782100520442-Livre.fm Page 190 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE



Standard CMMB (China Mobile Multimedia Broadcasting)

La philosophie de ce standard est voisine de celle de DVB-SH avec une diffusion satellitaire en bande S (2 635-2 660 MHz) et des répéteurs terrestres et des gap fillers dans la même bande et en UHF. Il peut également être utilisé dans d’autres bandes, UHF notamment. Les canaux sont de 8 ou 2 MHz et permettent respectivement un débit maximal d’environ 16 ou 3 Mb/s. Comme DVB-H et DVB-SH, le CMMB utilise le time slicing pour réduire la consommation des mobiles. La correction d’erreurs est une concaténation de codes Reed-Solomon et LDPC avec un entrelacement temporel de l’ordre de 1 s. La modulation est une modulation TDS-OFDM comme pour le standard terrestre chinois DMBT. Le codage vidéo est le H264 et le codage audio est un codage baptisé DRA (Dynamic Resolution Adaption) développé en Chine par la société DigiRise Technology.

190

Les différentes parties du standard CMMB font l’objet de publications de la forme GY/T220.x-20xx. Le tableau 10.2 indique les principales caractéristiques de ce standard. Modulation

TDS-OFDM

Correction d’erreurs Largeur de canal

RS + LDPC 2 MHz

8 MHz

FFT (nombre de porteuses)

1K

4K

Débit maximal

env. 3 Mb/s

env. 16 Mb/s

Codage vidéo/audio

H264/DRA

Entrelacement

1 s environ

Temps de zapping

2 s maximum

Tableau 10.2 – Quelques caractéristiques du standard CMMB

10.7 Conclusion Nous aurons atteint notre objectif si, à ce point, le lecteur a pu dégager une vue d’ensemble assez claire des techniques nouvelles mises en œuvre dans les systèmes de télévision numérique. Nous espérons que la lecture de cet ouvrage lui aura permis de se faire une bonne idée de leurs possibilités et lui donnera envie d’approfondir ce sujet en perpétuelle évolution.

9782100520442-Livre.fm Page 191 Jeudi, 24. juin 2010 11:35 11

Annexe 1 Détection et correction des erreurs dans les transmissions numériques 191

Depuis les origines des transmissions de données numériques, on s’est rendu compte de la nécessité de pouvoir détecter et si possible corriger les erreurs introduites par la transmission.

© Dunod. La photocopie non autorisée est un délit.

Diverses solutions plus ou moins complexes et fonction du type de liaison sont utilisées, mais elles consistent toujours à ajouter une redondance calculée au message original.

A1.1 Un code détecteur d’erreurs : la parité Le plus simple des moyens utilisés, encore très répandu dans les liaisons série à courte distance (RS232 par exemple), est le bit de parité, qui s’applique en général à des mots de 6 à 8 bits. Il consiste à l’émission à faire la somme de tous les bits du mot à transmettre, et à rajouter un bit supplémentaire dit bit de parité, qui vaut 0 si la somme de tous les bits est paire, 1 si elle est impaire (parité paire) ou le contraire (parité impaire). À la réception, le récepteur fait la même opération et compare son résultat au bit de parité transmis :

9782100520442-Livre.fm Page 192 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

• s’il n’y a pas d’erreur (ou un nombre pair d’erreurs), ces bits sont identiques ; • s’il y a une erreur (ou un nombre impair d’erreurs), ils sont différents. Ce système permet de détecter, sans pouvoir l’identifier ni le corriger, un bit en erreur dans un mot. La parité n’est vraiment utile que dans le cas où la probabilité de plus d’une erreur par mot est très faible, et lorsque le système de communication est bidirectionnel : le récepteur qui détecte une erreur peut alors demander à l’émetteur de ré-émettre le message corrompu. Ce principe de corrections d’erreurs est connu sous le nom de Feed-back Error Correction.

A1.2 Codes correcteurs d’erreur en blocs Les codes en blocs s’appliquent à des mots de longueur finie composés de k symboles (bits par exemple) auxquels ils ajoutent une redondance calculée amenant leur longueur à n bits (n > k). 192

L’algorithme de codage revient donc à ajouter après le mot d’origine n – k bits (appelés bits de contrôle ou de parité), en n’utilisant que 2k combinaisons parmi les 2n possibles du code résultant. On appelle rendement du code le rapport k/n (évidemment inférieur à 1). Les éléments du code résultant doivent être le plus « distants » possible les uns des autres de façon à pouvoir les distinguer en cas d’erreur. On appelle distance de Hamming entre deux éléments le nombre de bits situés à la même position et différents entre eux. Si d est la distance minimum de Hamming du code (nombre minimum de bits différents entre 2 mots quelconques du code), on montre que le nombre d’erreurs d – 1-. correctibles est t = ---------2 Toute la science du codage consiste, à longueur n et à distance d données à trouver le codage assurant le plus grand k, donc le meilleur rendement possible. Ce principe de correction des erreurs, ne nécessitant pas de liaison bidirectionnelle, est appelé Forward Error Correction (FEC), par opposition au cas précédent. Nous détaillerons deux exemples de codes simples (répétition et code de Hamming) qui n’ont pour objectif que de comprendre la philosophie des codes

9782100520442-Livre.fm Page 193 Jeudi, 24. juin 2010 11:35 11

ANNEXE 1 – DÉTECTION

ET CORRECTION DES ERREURS DANS LES TRANSMISSIONS NUMÉRIQUES

nettement plus sophistiqués utilisés en TV numérique (Reed-Solomon, codes convolutifs), dont le mécanisme fait appel à des concepts mathématiques ardus. Le lecteur intéressé trouvera cependant dans la bibliographie les références d’ouvrages spécialisés consacrés exclusivement à ce sujet…



La répétition

Un des moyens les plus simples de pouvoir corriger les erreurs de transmissions est la répétition des bits du message en ayant recours à la réception à une logique majoritaire (« vote ») pour décider si ce bit est un « 1 » ou un « 0 ». Par exemple avec une répétition de 3 (k = 1, n = 3), pour transmettre un bit, on codera :

Tableau A1.1

Dans le cas ci-dessus, on a 2 mots de 3 bits tous différents, la distance minimum de 3–1 Hamming est donc d = 3, et la capacité de correction est t = ----------- = 1 bit 2 erroné par mot.

© Dunod. La photocopie non autorisée est un délit.

À la réception, dans le cas où l’on suppose qu’une erreur maximum par mot est introduite par le canal, la logique majoritaire pourra la corriger en décidant selon le tableau A1.2, où les messages corrompus et correctibles (1 bit erroné sur 3) sont dans la zone grisée :

Tableau A1.2

Ce type de correction d’erreur à un rendement très médiocre puisqu’il triple la quantité d’information à envoyer (k/n = 0,33), mais il peut corriger des taux d’erreurs élevés (jusqu’à un bit sur trois).

193

9782100520442-Livre.fm Page 194 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE



Le code de Hamming (7, 4, d = 3)

C’est un code qui s’applique à des mots de 4 bits (k = 4, 24 = 16 éléments de code), auxquels il ajoute 3 bits de redondance (donc n = 7), d’où un rendement k/n = 4/7 = 0,57. Il est notamment utilisé pour la transmission des parties « critiques » des magazines de télétexte. Son principe est le suivant : • soit u le mot original de 4 bits composé des bits u1, u2, u3, u4 ; • soit c le code résultant de 7 bits composé des bits u1, u2, u3, u4, v1, v2, v3, obtenus au moyen de la matrice génératrice G, tableau A1.3.

Tableau A1.3

194

On voit que les bits de parité v1, v2, v3 suivent les relations (zone grisée de la matrice) : • v 1 = 0 + u 2 + u3 + u4 ; • v2 = u1 + 0 + u 3 + u4 ; • v3 = u1 + u2 + 0 + u4. À l’arrivée, le récepteur reçoit le message y composé des bits u’1, u’2, u’3, u’4, v’1, v’2, v’3 et fait le même calcul que le codeur à partir des bits u’1, u’2, u’3, u’4, ce qui donne les bits w1, w2, w3 : • w1 = 0 + u’2 + u’3 + u’4 ; • w2 = u’1 + 0 + u’3 + u’4 ; • w3 = u’1 + u’2 + 0 + u’4. Il calcule alors le syndrome S = s1, s2, s3 = v’1 – w1, v’2 – w2, v’3 – w3. On peut représenter le calcul du syndrome par la matrice de contrôle de parité H, tableau A1.4 :

9782100520442-Livre.fm Page 195 Jeudi, 24. juin 2010 11:35 11

ANNEXE 1 – DÉTECTION

ET CORRECTION DES ERREURS DANS LES TRANSMISSIONS NUMÉRIQUES

Tableau A1.4

Si l’on suppose qu’il y a au maximum une erreur par mot reçu, on a les résultats suivants : • S’il n’y a pas d’erreur on a S = 0, 0, 0. • Si le bit reçu u’4 est erroné, les 3 bits v’1, v’2, v’3 seront faux et le syndrome sera S = 1, 1, 1. • Si l’un des 3 bits reçus u’1, u’2, u’3 est faux, deux des trois relations calculant w1, w2, w3 seront fausses, (puisque chaque bit intervient dans 2 des 3 équations), le syndrome S aura donc 2 bits à « 1 » et un bit à « 0 » dont la position indiquera celle du bit en erreur parmi u’1, u’2, u’3. • Si l’erreur affecte un bit de parité, sa position sera indiquée par la présence d’un « 1 » dans le syndrome. On voit donc que ce code permet de détecter et de corriger une erreur dans le code reçu (t = 1), ce qui correspond à une distance minimum de Hamming d = 3.



Le codage de Reed-Solomon

© Dunod. La photocopie non autorisée est un délit.

C’est également un codage par blocs dont les symboles ne sont plus des bits mais des éléments à champ de bits fini (finite field elements), dont on pourra trouver la théorie mathématique dans certains ouvrages, tels ceux cités dans la bibliographie. L’explication du code Reed-Solomon nécessitant des développements mathématiques importants, nous nous bornerons donc à dire qu’il fait partie de la classe des codes cycliques, et que c’est un cas particulier de code dit BCH (du nom des auteurs : Bose, Ray-Chaudhuri, Hocquenghem). Comme les codes étudiés précédemment, il est caractérisé par les 3 paramètres (n, k, t) qui définissent la taille des blocs sur lesquels il agit et le nombre d’erreurs qu’il permet de corriger. • n est la taille du bloc après codage ; • k est la taille du bloc d’origine ; • t est le nombre d’octets correctibles.

195

9782100520442-Livre.fm Page 196 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Ce code est bien adapté à la correction des erreurs en rafale (burst errors) introduites par le canal, c’est pourquoi il a été choisi comme algorithme de codage dit « externe » pour la télévision numérique DVB, avec pour éléments de base des octets. Dans ce cas, la taille des blocs d’origine est celle des paquets « transport » (k = 188 octets) ; le codage Reed-Solomon spécifié augmente de 16 octets la taille des blocs (n = 204 octets), et sa distance minimum de Hamming est d = 17 octets d–1 ce qui permet de corriger jusqu’à t = ----------- = 8 octets erronés. 2 188 n Il est noté RS(204, 188, t = 8) et son rendement est -- = ------- = 0,92 . 204 k Le code RS(204, 188, t = 8) est une version « raccourcie » du code RS(255, 239, t = 8), obtenue en ajoutant 51 octets nuls avant les paquets de 188 octets, pour former des blocs de 239 octets appliqués à l’entrée d’un codeur RS(255, 239, t = 8). Ce codage ajoutant 16 octets de parité aux blocs incidents, il en résulte donc en sortie des blocs de 255 octets. Après le codage, on supprime les 51 premiers octets nuls ajoutés avant codage, donnant ainsi de nouveaux paquets transport « protégés » de 204 octets. 196

Le décodage fait appel à la Transformée de Fourier Rapide (FFT) du mot reçu pour calculer les syndromes et à un algorithme Euclidien pour trouver les polynômes de localisation et d’évaluation des erreurs. Les mots en erreur sont calculés au moyen de la formule de Forney et corrigés, dans la limite de 8 maximum par bloc.

A1.3 Le codage convolutif (ou convolutionnel) Nous ne ferons pas non plus la théorie de ces codes, qui est complexe et demanderait de longs développements, et nous renvoyons pour cela le lecteur intéressé à la bibliographie. Ce codage (appelé parfois improprement codage de Viterbi, du nom de l’auteur de l’algorithme de décodage généralement utilisé) agit au niveau de blocs de longueur non prédéterminée : (en pratique il s’agira le plus souvent d’un train binaire continu de longueur quelconque). Il est destiné à corriger des erreurs aléatoires relativement isolées, le plus souvent en complément d’un codage par blocs. Il transforme le train binaire entrant en n trains binaires sortants, qui sont autant de combinaisons de sommes (modulo 2) entre le train d’entrée et des sorties ou « prises » (taps) à chaque étage d’un registre à décalage à l’entrée duquel le train est

9782100520442-Livre.fm Page 197 Jeudi, 24. juin 2010 11:35 11

ANNEXE 1 – DÉTECTION

ET CORRECTION DES ERREURS DANS LES TRANSMISSIONS NUMÉRIQUES

également appliqué (le train progresse d’un étage à chaque nouveau bit appliqué à l’entrée). La figure A1.1 illustre le processus pour un cas simple, avec 2 sorties X et Y et 3 prises.

Figure A1.1 – Exemple de codage convolutif

Le codage est caractérisé par les paramètres suivants : • Rc taux d’émission (code rate) : rapport entre nombre de bits en entrée et en sortie (ici 1/2) ; • K longueur de contrainte (constraint length) : nombre de « prises » utilisables (ici 3) ; • G1 somme génératrice pour X (ici 101 bin) ; • G2 somme génératrice pour Y (ici 111 bin). Les sommes génératrices G1 et G2 sont décrites en affectant, de la gauche vers la droite, un « 1 » aux prises effectivement utilisées et un « 0 » à celles inutilisées. On code généralement le chiffre binaire ainsi obtenu en numération octale (base 8). © Dunod. La photocopie non autorisée est un délit.

Le codage défini ci-dessus est ainsi décrit par : • • • •

Rc = 1/2 ; K=3; G1 = 5oct ; G2 = 7oct.

On définit de plus un paramètre dfree (distance limite, ici égale à 5), qui est une mesure de la capacité de correction du code : plus ce chiffre est élevé, plus la correction est efficace.

197

9782100520442-Livre.fm Page 198 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Le décodage de ces codes est le plus souvent effectué au moyen d’un algorithme de Viterbi, du nom de son inventeur (1969). Pour ne pas nous lancer dans des explications très ardues, nous dirons simplement de cet algorithme qu’il consiste à trouver le chemin de vraisemblance maximale (maximum likelihood) sur un treillis représentant les différents états successifs possibles du codeur, de façon à retrouver le message original le plus probable compte tenu des erreurs qui ont pu l’affecter.

198

9782100520442-Livre.fm Page 199 Jeudi, 24. juin 2010 11:35 11

Annexe 2 Calcul de l’efficacité spectrale avec les paramètres DVB (câble et satellite) 199

© Dunod. La photocopie non autorisée est un délit.

La bande passante occupée par un signal modulé en amplitude est le double de celle du signal modulant, en raison des deux bandes latérales qu’elle génère. Dans le cas d’un signal numérique de période symbole 1/T ayant subi un filtrage de Nyquist de facteur de roll-off a, elle sera donc : 1 BW = ( 1 + α ) --T On se propose donc calculer la capacité du canal et l’efficacité spectrale :



Câble

Avec un facteur de roll-off a = 0,15, un canal européen de largeur BW = 8 MHz peut accepter une fréquence symbole maximale : 8 BW F s = --1- = ----------- = --------- ≅ 7 Mhz . 1,15 T 1+α La valeur de 6,875 MHz est le plus souvent utilisée, nous verrons pourquoi ciaprès. Le nombre détats de la modulation QAM dépendra de la qualité du réseau dont dépend Eb/No, mais sera le plus souvent de 64 sur les réseaux européens de qualité.

9782100520442-Livre.fm Page 200 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

• Dans le cas le plus défavorable, on devra utiliser la modulation 16-QAM (4 bits/symbole), d’où un débit brut Db = 6,875 × 4 = 27,5 Mb/s (hors codage de Reed-Solomon). Soit une efficacité spectrale brute de 27,5/8 = 3,437 b/s par Hz. Le débit utile Du est dans ce cas égal au produit du débit brut Db par le facteur rRS, soit : 188 D u = D b ⋅ r RS = 27,5 × ------- ≅ 25,34 Mb/s. 204 • L’efficacité spectrale utile est donc 25,34/8 = 3,16 b/s par Hz. • Dans le cas le plus favorable, on pourra utiliser la modulation 64-QAM (6 bits/symbole) d’où un débit brut Db = 6,875 × 6 = 41,25 Mb/s (hors codage de Reed-Solomon). Soit une efficacité spectrale brute de 41,25/8 = 5,156 b/s par Hz. • Le débit utile Ru est dans ce cas égal au produit du débit brut Rb par le facteur rRS, soit : 188 D u = D b ⋅ r RS = 41,25 × ------- ≅ 38,0 Mb/s. 204 • L’efficacité spectrale utile est donc 38,0/8 = 4,75 b/s par Hz.

200



Satellite

Avec un facteur de roll-off a = 0,35, un canal de largeur BW = 33 MHz supporte une fréquence symbole maximale théorique : 33 BW 1 F s = --- = ------------ = --------- ≅ 24,4 MHz. 1,35 1+α T Avec une modulation QPSK (2 bits/symbole) le débit brut est donc Db = 2Fs = 48,8 Mb/s (hors codages Reed-Solomon et convolutif). En pratique, cette capacité peut être significativement supérieure, un rapport BW/Fs de 1,20 entre bande passante (à – 1 dB) et fréquence symbole n’entraînant qu’une dégradation mineure du taux d’erreurs. Dans ces conditions, la fréquence de symbole maximale devient 33/1,20 = 27,5 MHz, soit un débit brut Db = 55 Mb/s et une efficacité spectrale brute de : 55/33 = 1,66 b/s par Hz. Le débit utile dépend du code rate Rc choisi pour le codage convolutif ; il est égal au produit du débit brut Db par Rc et le facteur rRS du codage de Reed-Solomon (soit 188/204).

9782100520442-Livre.fm Page 201 Jeudi, 24. juin 2010 11:35 11

ANNEXE 2 – CALCUL

DE L’EFFICACITÉ SPECTRALE AVEC LES PARAMÈTRES

DVB (CÂBLE

ET SATELLITE)

• Dans le cas le plus défavorable (C/N minimal) on devra utiliser Rc = 1/2 pour assurer un service satisfaisant (BER < 10–10) ; on a donc dans ce cas le débit utile suivant : 1 188 D u = D b ⋅ R c ⋅ r RS = 55 × - × ------- ≅ 25,34 Mb/s. 2 204 • L’efficacité spectrale utile est donc 25,34/33 = 0,76 b/s par Hz. • Dans le cas le plus favorable (rapport Eb/No maximal), on pourra assurer le même service avec Rc = 7/8 ; le calcul de débit utile donne alors : 7 188 D u = D b ⋅ R c ⋅ r RS = 55 × - × ------- ≅ 44,35 Mb/s. 8 204 • L’efficacité spectrale utile est alors 44,35/33 = 1,34 b/s par Hz. En pratique, à l’exception de quelques émissions dites SCPC (Single Channel Per Carrier), la plupart des émissions DVB « normales » (dites aussi MCPC, pour Multiple Channel Per Carrier) sur ASTRA et EUTELSAT utilisent actuellement une fréquence symbole de 27,5 MHz (canaux de 33 MHz) ou de 22 MHz (canaux de 26 MHz) avec un code rate Rc = 3/4. 3 188 Le premier cas correspond à un débit utile de 27,5 × 2 × - × ------- ≅ 38,0 Mb/s, qui 4 204 permet une redistribution « transparente » sur réseau câblé (c’est-à-dire sans modification du contenu) dans des canaux de 8 MHz, avec une modulation 64QAM et une fréquence symbole de 6,875 MHz.

© Dunod. La photocopie non autorisée est un délit.

L’efficacité spectrale du canal satellite est dans ce cas 38,0/33 = 1,15 b/s par Hz.

201

9782100520442-Livre.fm Page 202 Jeudi, 24. juin 2010 11:35 11

9782100520442-Livre.fm Page 203 Jeudi, 24. juin 2010 11:35 11

Annexe 3 Le bus DiSEqCTM (Digital Satellite Equipment Control ) et le système USALS 203

Proposé en 1995 par EUTELSAT et baptisé DiSEqCTM (Digital Satellite Equipment Control), c’est un « bus » de commande utilisant le câble coaxial d’antenne comme véhicule.

© Dunod. La photocopie non autorisée est un délit.

Il est compatible avec le système de commutation le plus répandu (14/18 V pour la polarisation et 22 kHz pour la bande) et est d’utilisation libre.

A3.1 Les différents niveaux DiSEqC La spécification DiSEqC prévoit plusieurs niveaux (« ToneBurst » ou mini-DiSEqC, DiSEqC 1.0, 1.1, 1.2, 2.0 et supérieurs) qui sont destinés à permettre une mise en œuvre progressive : • Le niveau « ToneBurst » (ou Mini-DiSEqC) est destiné principalement à être mis en œuvre à court terme dans des récepteurs ou des accessoires de commande externes pour permettre la réception « double bande » de deux satellites au maximum. • Le « ToneBurst » utilisé seul ne donne pas droit à un label comportant le logo spécifique DiSEqC, mais seulement à l’appellation « DiSEqC compatible ».

9782100520442-Livre.fm Page 204 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

• Les premiers niveaux (DiSEqC 1.0 à 1.2) utilisent une communication unidirectionnelle entre le récepteur et les périphériques DiSEqC et permettent une implémentation simple tant dans le récepteur (essentiellement logicielle) que dans les périphériques connectés. DiSEqC 1.1 ajoute des commandes supplémentaires par rapport au niveau 1.0 et assure la répétition des ordres. DiSEqC 1.2 permet la commande d’un positionneur alimenté par le câble coaxial. • Les niveaux supérieurs (DiSEqC 2.0 et au dessus) sont plus ambitieux et visent à terme à une installation pratiquement « plug and play » au moyen d’un dialogue entre le récepteur et les périphériques esclaves, et nécessitent donc une « voie de retour » entre ces périphériques et le récepteur.

204

Tableau A3.1

A3.2 Fonctionnement de DiSEqC C’est un système à un seul maître, qui est le seul à pouvoir prendre l’initiative d’une communication sur le bus (en général le récepteur satellite) et un ou plusieurs périphériques esclaves (situés en général à proximité de l’antenne) qui ne peuvent que répondre à une commande. Les messages DiSEqC sont obtenus en modulant en PWK (Pulse Width Keying, figure A4.1) le signal à 22 kHz avec un rapport cyclique qui peut prendre deux valeurs selon que le bit à transmettre est un « 0 » (rapport cyclique 2/3) ou un « 1 » (rapport cyclique 1/3). La période bit est constituée de 33 périodes de signal à 22 kHz (soit 1,5 ms ± 20 % compte tenu de la tolérance sur la fréquence de 22 kHz). Chaque message DiSEqC doit être suivi d’une période d’au moins 6 ms de « silence ». Le niveau du signal à 22 kHz superposé à la tension d’alimentation des LNB est nominalement de 650 mV crête-à-crête.

9782100520442-Livre.fm Page 205 Jeudi, 24. juin 2010 11:35 11

ANNEXE 3 – LE

BUS

DISEQC™ (DIGITAL SATELLITE EQUIPMENT CONTROL)

ET LE SYSTÈME

USALS

Figure A3.1 – Le bit de données DiSEqC

Afin de pouvoir recevoir les messages en retour des esclaves, le maître (pour les niveaux 2.0 et supérieurs) doit présenter une impédance de source de 15 Ω à 22 kHz. DiSEqC est spécifié de manière à être compatible avec les matériels existants : • Pour que les « anciens » périphériques (14/18 V, 0/22 kHz, ToneBurst) restent utilisables avec les nouveaux récepteurs, ceux-ci envoient tout d’abord la tension appropriée pour la polarisation et la tonalité 22 kHz pour la bande puis, après un court « silence », le message DiSEqC, suivi du ToneBurst, par exemple pour déterminer le satellite à recevoir (figure A4.2). • Pour que les nouveaux périphériques DiSEcQ puissent être commandés au moins partiellement par un récepteur existant (non DiSEqC), ils devront répondre également aux commandes « traditionnelles » (14/18 V, 0/22 kHz).

© Dunod. La photocopie non autorisée est un délit.

205

Figure A3.2 – Exemple d’un message DiSEqC compatible avec le LNB « universel »

A3.2.1 Le ToneBurst Cette addition tardive à la spécification DiSEqC est destinée à permettre la réalisation économique des commutateurs nécessaires à la réception de deux satellites, car la détection du signal peut se faire par une circuiterie analogique simple (sans microcontrôleur). Le processus consiste à envoyer une salve de signal à 22 kHz d’une durée nominale de 12,5 ms, soit continue pour la sélection du satellite A soit modulée par une suite de neuf « 1 » au rapport cyclique de 1/3 pour la sélection du satellite B (figure A4.3).

9782100520442-Livre.fm Page 206 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure A3.3 – Définition du ToneBurst

Le périphérique peut donc distinguer facilement ces deux cas par une détection du signal, qui après filtrage donnera une composante continue environ 3 fois plus importante dans le cas « satellite A » que dans le cas « satellite B ». L’utilisation exclusive du ToneBurst ne donne pas droit au label spécifique DiSEqC, mais seulement à l’appellation « DiSEqC compatible ».

206

A3.2.2 Format des messages DiSEqC 1.0 et supérieurs Les messages DiSEqC sont constitués d’un ou plusieurs octets (bit de poids fort en tête) suivis chacun d’un bit de parité impaire afin de permettre la détection des erreurs de transmission. • Les commandes du maître sont constituées d’un minimum de 3 octets (framing, adresse, commande), éventuellement suivis d’octets de données auxiliaires (voir tableau A4.2).

Tableau A3.2

• Un seul octet de données est prévu pour le niveau 1.0, et trois au maximum pour les niveaux supérieurs. Il est évident que le nombre d’octets de données est nécessairement limité en raison de la faible vitesse du bus pour que les commandes s’exécutent dans un temps acceptable. • La réponse d’un esclave est à la discrétion du maître, et n’a lieu en pratique que s’ils sont tous deux de niveau 2.0 ou supérieur. Elle est constituée d’un octet de framing servant d’acquittement, éventuellement suivi d’un certain nombre d’octets de données auxiliaires (voir tableau A4.3).

9782100520442-Livre.fm Page 207 Jeudi, 24. juin 2010 11:35 11

ANNEXE 3 – LE

BUS

DISEQC™ (DIGITAL SATELLITE EQUIPMENT CONTROL)

ET LE SYSTÈME

USALS

Tableau A3.3

La réponse de l’esclave doit intervenir dans les 150 ms suivant la fin de la commande du maître.

A3.3 Les différents champs du message DiSEqC A3.3.1 Octet de framing Il s’agit du premier octet d’une commande de maître ou d’une réponse d’esclave.

© Dunod. La photocopie non autorisée est un délit.

• Les 4 bits de poids fort servent à la synchronisation (run-in) et à la reconnaissance (framing) d’un message DiSEqC. Ils sont actuellement fixés à « 1110 », mais une affectation ultérieure éventuelle des deux derniers bits de ce groupe reste possible. • Le 5e bit est réservé (actuellement « 0 »), et pourra éventuellement être utilisé pour des extensions ultérieures. • Le 6e bit indique l’origine du message : « 0 » s’il vient du maître, « 1 » si c’est la réponse d’un esclave. • Le 7e bit est mis à « 1 » si une réponse est attendue et à « 0 » sinon. Dans le cas d’une réponse d’esclave, sa mise à « 1 » peut être utilisée pour demander une retransmission en cas d’erreur. • Le 8e bit est mis à « 1 » par le maître s’il s’agit d’une retransmission. Dans le cas d’une réponse d’esclave, il précise la raison de la non-exécution d’une commande : « 0 » en cas d’erreur de parité, demandant une retransmission, « 1 » si la commande demandée n’est pas supportée par l’esclave. Les octets de framing actuellement définis sont explicités par le tableau A4.4 ; seules les deux premières lignes concernent les appareils de niveau 1.0.

A3.3.2 Octet d’adresse Le deuxième octet envoyé par le maître indique à quel esclave le message est destiné ; il est subdivisé en deux groupes de 4 bits (demi-octets ou nibbles). Celui de poids fort indique la famille à laquelle l’esclave appartient (LNB, commutateur, positionneur, etc.) et celui de poids faible permet de diviser la famille en sousgroupes.

207

9782100520442-Livre.fm Page 208 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Tableau A3.4

Pour chacun des deux demi-octets, la valeur « 0000 » indique une commande qui s’adresse à toutes les familles (poids fort) ou tous les sous-groupes d’une famille (poids faible). L’adresse hex. 00 est reconnue par tous les périphériques. Les adresses définies actuellement sont données par le tableau A3.5 (les adresses à partir de hex. 20 ne concernent que les niveaux 2.0 et supérieurs). 208

Tableau A3.5

9782100520442-Livre.fm Page 209 Jeudi, 24. juin 2010 11:35 11

ANNEXE 3 – LE

BUS

DISEQC™ (DIGITAL SATELLITE EQUIPMENT CONTROL)

ET LE SYSTÈME

USALS

A3.3.3 Octet de commande Le codage des commandes sur un octet permet un maximum de 256 commandes de base, éventuellement complétées d’un ou plusieurs octets de données. La spécification DiSEqC (version 4.2 du 25 février1998) a déjà défini plus d’une cinquantaine de commandes, qui sont réparties en 3 catégories de « statut » : obligatoires (O), recommandées (R) et suggérées (S). Pour le niveau 1.0, seules quatre commandes sont prises en compte, dont une seulement est obligatoire « Write N0 »(38), la commande « reset » (00) ne l’étant que dans le cas où le récepteur dispose d’un passage d’antenne (loop-through).

Tableau A3.6

Les commandes « Write N0 » et « Write N1 » déterminent au moyen d’un octet de données supplémentaire l’état des sorties de commutation d’un microcontrôleur esclave défini par Eutelsat pour intégration dans les périphériques.

© Dunod. La photocopie non autorisée est un délit.

Les commandes 20 à 2F (facultatives) qui commandent chaque sortie de ce microcontrôleur individuellement et n’offrent que peu d’intérêt car elles font double emploi avec les commandes 38 et 39 suivies de l’octet de données approprié. Le niveau 1.1 rend obligatoire la commande « Write N1 » (39) ainsi que la commande « Write Frequency » (58) suivie de 3 octets représentant la fréquence du transpondeur en codage BCD. En mode SMATV (antenne collective satellite), ceci permet la commande à distance d’un transposeur situé en tête de colonne de distribution. DiSEqC 1.1 prévoit aussi la répétition des commandes (jusqu’à 2 fois après la première) pour pouvoir commander plusieurs commutateurs disposés en cascade. Le niveau 1.2 requiert de plus les commandes (60 à 6B) d’un positionneur normalement alimenté par le câble coaxial (dont le courant d’alimentation ne doit pas excéder 500 mA) et celles, facultatives d’un polariseur.

209

9782100520442-Livre.fm Page 210 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

A3.3.4 Octet(s) de données Certaines commandes doivent être complétées par un ou plusieurs octets de données. Par exemple, les commandes 38 et 39 doivent être suivies d’un octet dont chacun des bits du demi-octet de poids fort mis à « 1 » met à « 0 » (clear) sélectivement l’une des 4 sorties d’un des 2 ports du microcontrôleur esclave, ceux du demi-octet de poids faible servant ensuite de la même manière à leur mise à « 1 » (set). Comme le demi-octet de poids faible réécrit immédiatement après le demi-octet de poids fort, on mettra en pratique toujours celui-ci à « 1111 » (hex. F) de manière à ce que la valeur de chacun des quatre bits du demi-octet de poids faible détermine l’état de la sortie correspondante (tableau A3.7).

Tableau A3.7

210

Un message DiSEqC 1.0 destiné à commander un port de sortie du microcontrôleur esclave sera donc de la forme ci-dessous, tableau A3.8, (chaque case représente un octet suivi de sa parité).

Tableau A3.8

Pour la commande 38, trois des quatre sorties du port « assigné » du microcontrôleur esclave sont affectées à une fonction prédéfinie, la 4e étant d’utilisation libre. Le tableau A3.9 explicite l’affectation et l’effet des bits de poids faible correspondants.

1. Par exemple : α = groupe satellites ASTRA/EUTELSAT, β = groupe satellites TELECOM 2A/2B. 2. Par exemple : A = Astra, B = Eutelsat (option α) et A = Telecom 2A, B = Telecom 2B (option β).

Tableau A3.9

9782100520442-Livre.fm Page 211 Jeudi, 24. juin 2010 11:35 11

ANNEXE 3 – LE

BUS

DISEQC™ (DIGITAL SATELLITE EQUIPMENT CONTROL)

ET LE SYSTÈME

USALS

La fonctionnalité de la commande 39, quant à elle, dépend de l’utilisation faite par le constructeur des sorties du port « non assigné ».

A3.4 Les niveaux supérieurs de DiSEqC Ces niveaux, à partir du niveau 2.0, impliquent une communication bidirectionnelle entre le maître et le ou les esclaves, qui doivent toujours répondre par au moins un octet de framing servant d’acquittement, suivi pour certaines commandes d’un ou plusieurs octets de données. L’une des plus intéressantes est la possibilité pour le récepteur « d’interroger » la configuration d’antennes sur laquelle il est connecté, par exemple lors de l’installation. À titre d’exemple, nous citerons la commande hex. 51 qui permet de connaître les caractéristiques des LNB (fréquence de l’oscillateur local). D’autres commandes permettent d’interroger l’état des commutateurs assignés ou non, de lire des valeurs analogiques telles que la position d’une antenne motorisée, etc. À terme, si DiSEqC 1 se généralise à tous les périphériques (commutateurs, LNB, positionneurs, etc.), la rétro-compatibilité ne sera plus nécessaire ; on pourra alors envisager une « vraie » structure de bus (allocation normalisée des adresses, distribution permanente du bus et de l’alimentation à tous les périphériques qui disposeront d’une mise en veille, etc.).

A3.5 Le système d’aide au pointage d’antenne motorisée

© Dunod. La photocopie non autorisée est un délit.

USALS Le pointage d’une antenne motorisée, même commandée par DiSEqC 1.2, nécessite un réglage très précis de l’antenne qui n’est pas toujours très facile. Si ce réglage n’est pas parfait, le pointage des satellites sera en général d’autant moins précis que l’on s’éloignera du point de référence (Sud vrai). Afin de faciliter le réglage des antennes motorisées par des non spécialistes et le pointage précis de tous les satellites recevables à un endroit donné, le fabricant italien d’accessoires et de rotors d’antenne STAB a développé un logiciel baptisé USALS (Universal Satellite Automatic Location System) qui s’appuie sur le protocole DiSEqC 1.2 en le complétant. 1. Les spécifications DiSEqC sont disponibles sur le site Internet d’EUTELSAT (http://www.eutelsat.org).

211

9782100520442-Livre.fm Page 212 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Son principe est de calculer la rotation d’un moteur DiSEqC 1.2 à partir des coordonnées du lieu de réception et de la position des satellites sur la ceinture de Clarke. Ce logiciel s’implante dans les récepteurs satellites et STAB licencie gratuitement les fabricants qui désirent l’utiliser, mais ils doivent avant de le commercialiser et de pouvoir utiliser le logo Stab-USALS (figure A3.4) soumettre leur récepteur à des tests d’approbation par STAB. Les coordonnées des principaux satellites recevables sont stockées dans une table, et il est bien sûr possible à l’utilisateur d’en rajouter d’autres si besoin est. En ce qui concerne l’installation de l’antenne, le moteur-positionneur est fixé sur le mât (qui doit être absolument vertical) avec un angle qui dépend de la latitude du lieu de réception et l’antenne est fixée avec une élévation prédéterminée sur le tube du rotor (ces deux opérations se font au moyen de graduations gravées sur la fixation du rotor de l’antenne). Dans le menu d’installation « USALS » du récepteur, l’utilisateur doit entrer les coordonnées du lieu de réception (latitude, longitude) puis demander au logiciel de pointer vers un satellite proche du Sud vrai. Il suffit alors de régler l’azimut de l’antenne pour obtenir la meilleure réception. 212

Si le mât est bien vertical et si les préréglages ont été effectués avec suffisamment de précision, au moyen des graduations, l’ensemble rotor + antenne est alors réglé pour recevoir tous les satellites « visibles » depuis le lieu de réception (dans la limite permise par la taille de l’antenne bien sûr).

Figure A3.4 – Le logo Stab-USALS (document STAB Srl, Italie)

9782100520442-Livre.fm Page 213 Jeudi, 24. juin 2010 11:35 11

Annexe 4 Le bus d’interconnexion audiovisuel série à haute vitesse IEEE1394 213

L’interconnexion des nouveaux équipements audiovisuels numériques (IRD, magnétoscope, camescope, ordinateur multimédia…) rendra bientôt indispensable une liaison à haute vitesse entre ces équipements.

© Dunod. La photocopie non autorisée est un délit.

Destiné à opérer dans un environnement « grand public », il doit être aussi économique et facile d’utilisation que possible (plug and play, avec possibilité de branchement/débranchement en fonctionnement). Le bus série rapide récemment standardisé sous l’appellation IEEE1394-1995 répond à ces exigences. Il est basé sur le bus FireWireTM de Apple Computer® et permet des communications jusqu’à 400 Mb/s (une extension à plus de 1 Gb/s est en cours d’étude). Trois vitesses standards sont définies (100, 200 et 400 Mb/s), mais la plupart des premières réalisations ne permettront que les deux premières vitesses. L’architecture du bus IEEE1394 permet la constitution d’un mini-réseau comportant jusqu’à 63 participants appelé nœuds (nodes). Chaque nœud comporte trois composantes fonctionnelles principales : • une couche interface physique (physical layer ou « Phy ») qui réalise l’interfaçage avec le câble, l’arbitrage du bus et une fonction de répéteur actif ;

9782100520442-Livre.fm Page 214 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

• une couche contrôle de liaison (link layer controller ou « Link ») qui assemble et désassemble les paquets de données et s’occupe des procédures de handshaking et d’acquittement ; • un contrôleur hôte (MCU) qui gère les couches plus élevées du protocole de communication. La figure A4.1 représente un exemple de réseau IEE1394 à trois nœuds, où l’on distingue les trois composantes indiquées ci-avant.

214

Figure A4.1 – Structure d’un réseau IEEE1394 (exemple avec 3 nœuds)

La spécification IEEE1394 définit deux types de transferts de données qui peuvent coexister sur le bus : • les transferts isochrones sont réservés aux données dont le temps de transmission est critique, telles que les données de trains audio et vidéo qui exigent le « temps réel » ; en effet, des retards variables ne peuvent pas être tolérés pour les trames audio ou vidéo. Une bande passante bien définie est allouée et garantie à ce type de transfert grâce à une technique de multiplexage temporel ; • les transferts asynchrones sont réservés aux données dont le temps de transmision n’est pas critique, par exemple pour l’échange de données ou le stockage. Ces transferts utilisent un procédé plus classique (handshaking et acquittement). La proportion de la bande passante du bus réservée aux transferts isochrones est définie pendant la phase d’initialisation durant laquelle un nœud racine (root node)

9782100520442-Livre.fm Page 215 Jeudi, 24. juin 2010 11:35 11

ANNEXE 4 – LE

BUS D’INTERCONNEXION AUDIOVISUEL SÉRIE À HAUTE VITESSE

IEEE1394

qui inclut un gestionnaire de ressources isochrones (Isochronous Resource Manager ou IRM) est choisi. L’IRM est ensuite responsable de l’allocation des ressources isochrones pour toute la session, sur la base de cycles élémentaires de 125 µs sur le bus. Ceci n’est toutefois pas suffisant pour garantir le très faible niveau de jitter exigé pour transmettre par exemple un train transport MPEG-2 sur le bus (ce qui implique des variations de moins de 500 ns sur le temps de transport). Afin de permettre au récepteur de compenser les variations de temps de transmission introduites par le bus, une couche audiovisuelle (AV layer) a été définie ; elle est en cours de standardisation (spécification IEC1883). Elle ajoute un en-tête de 32 bits (ou quadlet dans la terminologie IEEE1394) aux paquets MPEG-2 de 188 octets, dont la longueur est donc portée à 192 octets : l’en-tête contient un marqueur temporel (time stamp) qui permet la resynchronisation dans le récepteur. De plus, si un paquet de 192 octets (= 48 quadlets) ne peut pas être transmis en un seul cycle de 125 µs, la couche AV permet de le découper en 2, 4 ou 8 parties égales (ou blocs) qui eux « tiennent » dans un cycle. Sur le plan électrique, le bus est constitué de deux signaux (DATA et STROBE) qui sont transportés en mode différentiel chacun sur une paire de conducteurs blindée. Une troisième paire (optionnelle) permet de distribuer l’énergie électrique sur le bus. Chaque branche du réseau entre deux nœuds peut atteindre 4,5 m à la vitesse maximale, et plus de 10 m à 100 Mb/s ; chaque terminaison est constituée de deux résistances de 56 Ω connectées à une référence commune.

© Dunod. La photocopie non autorisée est un délit.

Un connecteur économique (similaire à ceux utilisés dans les consoles de jeu Nintendo Game Boy®) ainsi qu’un câble spécifique sont également normalisés (voir figure A4.2). Une version du bus avec seulement deux paires (sans alimentation) est également normalisée.

215

9782100520442-Livre.fm Page 216 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure A4.2 – Câble et connecteur IEEE1394 (version à 6 broches, avec alimentation)

216

9782100520442-Livre.fm Page 217 Jeudi, 24. juin 2010 11:35 11

Annexe 5 Liaisons DVI et HDMI pour la connexion numérique de dispositifs d’affichage vidéo à haute définition 217

© Dunod. La photocopie non autorisée est un délit.

Si l’on veut tirer le meilleur parti des systèmes d’affichage à écran matriciel (LCD, plasma, projecteurs DLP), il est indispensable que la liaison entre la source vidéo numérique et le système d’affichage se fasse sous forme numérique afin d’éviter toute perte de qualité dans des conversions analogiques numériques et numériques analogiques inutiles. Avec l’avènement de la haute définition, cette liaison numérique de point à point doit être capable de transmettre des débits très élevés (au moins jusqu’à 2,2 Gb/s avec les résolutions 720p ou 1080i). De plus, les détenteurs de droits (studios d’Hollywood par exemple) exigent la mise en place d’un système évitant la copie des œuvres en qualité numérique à haute définition à au niveau de la liaison avec le dispositif d’affichage. La liaison DVI (Digital Visual Interface) utilisée dans les ordinateurs récents permet de remplir ces caractéristiques. Elle existe sous deux formes : DVI-I qui comporte 24 broches pour la partie numérique (à gauche) et 5 broches séparées permettant la compatibilité avec le connecteur VGA (à droite) et DVI-D qui ne comporte que les 24 broches numériques (voir photos).

9782100520442-Livre.fm Page 218 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Figure A5.1 – Connecteurs DVI-I et DVI-D (femelle)

Elle n’est toutefois pas vraiment optimisée pour une application « grand public », pour lesquelles des exigences spécifiques sont à prendre en compte : • utilisation de connecteurs compacts, faciles à manier et bon marché (la partie analogique de la liaison DVI-I n’est pas nécessaire est n’existe pas dans la liaison HDMI) ; • transport de l’audio et de la vidéo sur le même câble ; • échange d’informations de configuration et de commande… 218

La liaison HDMI (High Definition Multimedia Interface) répond à ces exigences. Elle reprend les principes et les caractéristiques électriques de la partie vidéo numérique de la liaison DVI, avec laquelle elle est compatible au moyen d’un simple adaptateur mécanique. C’est une liaison unidirectionnelle pour ce qui est des signaux audio et vidéo. Dans le vocable HDMI, le générateur des signaux (sortie HDMI) est appelé « source » et le receveur (entrée HDMI) « sink ». Comme la liaison DVI, HDMI utilise un protocole de transmission appelé TDMS (Transition Minimized Differential Signalling) utilisant quatre paires différentielles : • trois canaux (TDMS 0, 1 et 2) transmettent les signaux audio et vidéo et des données auxiliaires ; • un quatrième canal (TDMS clock channel) transmet le signal d’horloge pixel ; • un canal d’information de données d’affichage (VESA DDC channel) permet l’échange d’information entre la source et le receveur, pour informer la source des capacités d’affichage du receveur, selon la norme VESA (Enhanced Extended Display Identification Data ou E-DID). Une ligne supplémentaire optionnelle (CEC line) bidirectionnelle permet éventuellement l’échange d’informations de commande entre les différents appareils audiovisuels interconnectés.

9782100520442-Livre.fm Page 219 Jeudi, 24. juin 2010 11:35 11

ANNEXE 5 – LIAISONS DVI

ET

HDMI

POUR LA CONNEXION NUMÉRIQUE DE DISPOSITIFS D’AFFICHAGE VIDÉO À HAUTE DÉFINITION

Les quatre canaux TDMS sont transmis aux moyens de paires différentielles blindées. Le canal VESA DDC est transmis au moyen d’un bus I2C (Philips Semiconductors).

Figure A5.2 – Vue schématique d’une liaison entre source et receveur DVI ou HDMI

219

La vidéo est transmise comme une suite de pixels codés sur 24 bits sur les 3 canaux TDMS (8 bits par canal pour chacune des trois composantes, qui peuvent être sous forme RGB ou YCBCR).

© Dunod. La photocopie non autorisée est un délit.

Le codage TDMS protège au moyen d’un codage de correction d’erreur BCH ces 8 bits par canal qu’il convertit en une séquence (paquet) de 10 bits à transitions minimisées transmise en différentiel sur chacune des paires, au rythme de 10 bits par période d’horloge pixel. Les fréquences d’horloge pixel peuvent s’étendre de 25 MHz à 165 MHz selon la résolution de l’image (couvrant largement la gamme de 480p à 1080i). Des formats à fréquence d’horloge inférieure (par exemple, 13,5 MHz pour des images entrelacées 480i ou 576i) peuvent être transmis au moyen d’une répétition de chaque pixel, ce qui double la fréquence d’horloge apparente. Le codage pixel peut être de type RGB, YCBCR 4 :4 :4 ou YCBCR 4 :2 :2. Les données audio et auxiliaires sont transmises selon le même format de paquets de 10 bits et sont également protégées au moyen du codage BCH. Le flux audio d’origine peut être un simple flux stéréo de type IEC60958 échantillonné à 32, 44,1 ou 48 KHz, mais il est également possible de transmettre des

9782100520442-Livre.fm Page 220 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

flux audio multicanaux et/ou à fréquence d’échantillonnage plus élevée (jusqu’à 8 canaux audio échantillonnés à 96 KHz ou un flux stéréo à 192 KHz ). En ce qui concerne les connecteurs, ils sont de deux types : • Le connecteur dit de type A à 19 points (de loin le plus courant) permet le transport d’images de résolution jusqu’à 1080i (fréquence d’horloge pixel inférieure à 165 MHz), • Le connecteur dit de type B à 29 points permet le transport d’images de résolution supérieure (par exemple 1080p) nécessitant une fréquence d’horloge pixel supérieure à 165 MHz. C’est en pratique une double liaison HDMI pour la partie TDMS, les liaisons DDC et CEC n’étant bien sûr pas dupliquées. Ce connecteur n’est pas utilisé actuellement pour des applications grand public.

220

Figure A5.3 – Détails des réceptacles HDMI de type A et de type B

9782100520442-Livre.fm Page 221 Jeudi, 24. juin 2010 11:35 11

ANNEXE 5 – LIAISONS DVI

ET

HDMI

POUR LA CONNEXION NUMÉRIQUE DE DISPOSITIFS D’AFFICHAGE VIDÉO À HAUTE DÉFINITION

Tableau A5.1 – Brochage du connecteur HDMI de type A

Figure A5.4 – Le logo HDMI



Les différentes versions de la spécification HDMI

© Dunod. La photocopie non autorisée est un délit.

Depuis son origine, la fonctionnalité de la spécification HDMI a été étendue tout en restant compatible avec les versions antérieures. Les principales évolutions sont les suivantes. HDMI 1.0 : spécification initiale. HDMI 1.1 : ajout du support du format DVD Audio. HDMI 1.2 : • ajout du support du format audio « 1 bit » (format Direct Stream Digital du SACD) ; • amélioration du support des PC avec sortie HDMI (support des formats d’affichage et espace couleur RVB), compatibilité avec des sources à basse tension (par exemple issues de cartes PCI Express). HDMI 1.2a : • spécification des fonctions et du jeu de commandes du Consumer Electronic Control (CEC) ; • nouvelle spécification des tests de conformité pour la version 1.2a incluant entre autres un supplément pour les fonctions CEC et des tests additionnels pour les câbles et connecteurs.

221

9782100520442-Livre.fm Page 222 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

HDMI 1.3 : • augmentation de la fréquence d’horloge maximale à 340 MHz (soit un débit de 10,2 Gb/s) pour permettre des systèmes d’affichage à plus haute résolution, espace couleur plus profond (Deep Color) et vitesse de rafraîchissement trame plus élevée (profondeurs de couleur de 10, 12 et 16 bits au lieu de 8 bits et support du standard IEC 61966-2-4 pour le rendu de tout l’espace couleur visible) ; • nouveau mini-connecteur pour les appareils portables (camescopes HD et appareils photo notamment) ; • synchronisation audio/vidéo automatique (Lip sync) permettant de compenser les retards de traitement dans les appareils ; • support des formats audio sans perte à bande passante élevée (par exemple Dolby TrueHD et DTS-HD Master Audio™).

222

HDMI 1.4 : à l’heure où nous écrivons ces lignes, cette spécification n’est pas encore complètement définie. Toutefois, les principales nouveautés attendues sont : • un nouvel accroissement des résolutions maximales (jusqu’à 4 096 × 2 160) ; • le support des espaces couleur des appareils photo numériques ; • un nouveau « micro » connecteur encore plus petit et des connecteurs spécifiques pour automobiles ; • enfin, et c’est sans doute le plus important, le support de la télévision en relief (3DTV) avec la plupart des techniques proposées (Full side-by-side, Half side-by-side, Frame alternative, Field alternative, Line alternative, Left + Depth…) et une résolution pouvant atteindre 1080p.

9782100520442-Livre.fm Page 223 Jeudi, 24. juin 2010 11:35 11

Annexe 6 Autres systèmes de télévision numérique

223

Même si la plupart des pays du monde a adopté le système DVB (en particulier ceux utilisant les normes PAL ou SECAM), les États-Unis, le Japon et d’autres pays utilisant le NTSC ne les utilisent que partiellement ou pas du tout. D’autres systèmes sont donc également utilisés ou proposés, dont les principaux sont décrits succinctement ci-après.

© Dunod. La photocopie non autorisée est un délit.

A6.1 Le système DSS (satellite, USA) Le système DSS® (Digital Satellite System), lancé en 1994, est historiquement le premier système de télévision numérique directe par satellite déployé au monde, et le plus important aux États-Unis. Il a démarré avec le bouquet DirecTV® et fut complémenté rapidement sur la même position orbitale (110° Ouest) par le bouquet USBB®. Ensemble, ces deux bouquets totalisent plus de 200 programmes de télévision que l’on peut recevoir de tout le territoire des États-Unis au moyen d’une petite antenne (45 cm). D’autres satellites sont également positionnés sur 101° et 119° Ouest. À l’inverse du système DVB qui est un standard international, DSS® est un système propriétaire de la société Hughes Electronics Corporation, dont les spécifications détaillées ne sont pas publiques.

9782100520442-Livre.fm Page 224 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

De plus, il a été défini avant la finalisation des spécifications MPEG-2 et DVB, et utilise un codage vidéo quelquefois appelé MPEG-1.5 (à mi-chemin entre MPEG-1 et MPEG-2), un codage audio AC-3 (également appelé Dolby® digital) et un multiplexage spécifique. Le tableau A6.1 résume les différences principales entre les systèmes DVB-S et DSS.

224

Tableau A6.1 – Comparaison des systèmes DVB-S et DSS

Il est à noter que le principal concurrent de DirecTV®, le bouquet DISH® de la société Echostar utilise le système DVB dans la même bande (dite DBS) et avec les mêmes canaux. Le tableau A6.2 donne la fréquence de ces 32 canaux, de largeur 24 MHz. Ils utilisent la polarisation circulaire droite (D) ou gauche (G).

9782100520442-Livre.fm Page 225 Jeudi, 24. juin 2010 11:35 11

ANNEXE 6 – AUTRES

SYSTÈMES DE TÉLÉVISION NUMÉRIQUE

Tableau A6.2 – Fréquence des canaux satellite aux États-Unis

A6.2 Le système ATSC (terrestre, USA) Le système ATSC (Advanced Television System Committee) est issu de travaux entamés au milieu des années 1980, dont l’objectif initial était de définir un système de télévision à haute définition à diffusion terrestre pour concurrencer les systèmes MUSE japonais et HD-MAC européen.

© Dunod. La photocopie non autorisée est un délit.

Plusieurs groupements d’industriels furent mis en compétition, dont trois proposèrent des solutions numériques. En mai 1993, ces trois groupes, à l’incitation du comité ATSC acceptèrent de se regrouper sous le nom de « Grand Alliance » afin de fondre leurs propositions en un système unique, dont les spécifications ont été finalisées et publiées en 1995 (Document ATSC A/53). Ce système est basé sur la norme MPEG-2 pour le codage vidéo (MP@HL), et peut transmettre des images à haute définition (max. 1 920 × 1 080, 16/9), à définition améliorée (1 280 × 720, 16/9) et à définition standard (720 × 480, 4/3 ou 16/9). Un format 640 × 480, 4/3 est également défini en vue d’une compatibilité avec l’informatique. En tout, ce n’est pas moins de 18 formats d’affichage différents qui doivent être supportés… La compression audio utilise le procédé AC-3 des laboratoires Dolby® (Document ATSC A/52). Le multiplexage est conforme à la spécification MPEG-2 système (ISO/IEC 13818-1), et les paquets transport de 188 octets sont donc identiques à ceux du système DVB.

225

9782100520442-Livre.fm Page 226 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

En ce qui concerne le codage de canal et la modulation pour la diffusion terrestre, un procédé appelé VSB-8 (Vestigial Side Band with 8 states) a été retenu. À l’émission, après séparation de l’octet de synchronisation, les 187 octets restants subissent une dispersion d’énergie et un codage externe RS(207, 187, T = 10). Les paquets résultants de 207 octets subissent un entrelacement convolutif suivi d’un codage en treillis avec un poinçonnage de 2/3. Une opération de mapping forme alors des segments de 828 symboles de 3 bits (8 niveaux) qui sont regroupés en trames de 312 segments. Chaque trame débute par un segment de synchronisation formé à partir des octets de synchronisation des paquets transport et chaque segment commence par un symbole de synchronisation. La structure ainsi obtenue ressemble à une trame de télévision analogique, d’une durée de 24,2 ms, composée de 313 segments (comparables à une ligne TV) de 77,3 µs. Les trames sont regroupées par deux de manière similaire à une image analogique entrelacée.

226

Ce signal module une porteuse unique (modulation d’amplitude à porteuse supprimée), qui peut donc prendre 8 valeurs pendant la durée utile des segments.

Tableau A6.3 – Comparaison des systèmes DVB-T et ATS

9782100520442-Livre.fm Page 227 Jeudi, 24. juin 2010 11:35 11

ANNEXE 6 – AUTRES

SYSTÈMES DE TÉLÉVISION NUMÉRIQUE

Le signal subit un filtrage de Nyquist en cosinus surélevé (a = 0,1152) de manière à limiter la bande latérale supérieure à 5,69 MHz et la bande inférieure à 0,31 MHz. Une porteuse pilote à amplitude réduite est réinsérée à la place de la porteuse supprimée. On voit que ce processus n’a aucun rapport avec la modulation COFDM du standard DVB-T, mais il n’en a pas non plus la flexibilité (tous les paramètres codage de canal et de modulation sont fixes), et surtout pas les performances, notamment en présence d’échos multiples. Ces performances médiocres, associées à la complexité et au coût du système complet en raison des nombreux formats d’affichage spécifiés, font que son démarrage a été relativement laborieux et que la date d’arrêt de l’analogique a dû être repoussée et a finalement eu lieu en juin 2009.

A6.3 Le système ISDB-T (terrestre, Japon) Le Japon a proposé en 1999 un autre système de transmission numérique terrestre en vue de sa normalisation par l’ITU. Ce système, baptisé ISDB-T (Integrated Services Digital Broadcasting for Terrestrial transmission), est, comme DVB-T, basé sur la modulation COFDM, et il peut être vu comme une extension de celui-ci. Le format d’entrée (train transport MPEG-2) et le codage de canal sont identiques à ceux de DVB-T.

© Dunod. La photocopie non autorisée est un délit.

La philosophie de ce système est d’une part d’augmenter la flexibilité dans l’allocation des services par la division du canal en segments pouvant transmettre des services différents capables de supporter des conditions de réception différentes, d’autre part de pouvoir augmenter encore la robustesse du signal pour la réception mobile par l’adjonction d’un entrelacement temporel. Le canal TV de largeur 6, 7 ou 8 MHz est divisé en 14 segments, dont 13 (numérotés de 0 à 12) sont effectivement utilisés, le 14e étant un espacement de sécurité entre canaux adjacents. Trois modes COFDM sont prévus, qui se distinguent par le nombre de porteuses par segment : • 108 porteuses/segment (correspond à un mode 2K en segment unique) ; • 216 porteuses/segment (correspond à un mode 4K en segment unique) ; • 432 porteuses/segment (correspond à un mode 8K en segment unique).

227

9782100520442-Livre.fm Page 228 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Les segments sont associés en groupes (trois au maximum par canal), dont le rôle est équivalent aux modes hiérarchiques de DVB-T. La taille minimum d’un groupe est un seul segment. Afin d’assurer des conditions de réception différentes, chaque groupe de segments peut utiliser des paramètres de codage interne (taux de poinçonnage) et des ordres de modulation (dQPSK, QPSK, 16QAM, 64QAM) différents ainsi que des profondeurs d’entrelacement temporel différentes. Le système permet ainsi la réception partielle à bande étroite (un seul segment, qui doit impérativement être le segment central), par exemple pour la réception audio en mobile. Le tableau A6.4 représente les 13 segments et leur position dans le canal, avec 3 groupes, dont un en réception partielle composé du seul segment 0 centré sur le milieu du canal.

228

Tableau A6.4 – Les 13 segments du système ISDB-T

L’amélioration significative d’ISDB-T par rapport à DVB-T est la robustesse (en cas d’utilisation d’un entrelacement temporel relativement long, qui permet de supporter des trous de réception ou des parasites importants). Cependant, cela se traduit par un surcoût, dû principalement à la grande quantité de mémoire nécessitée par l’entrelacement temporel. Ce surcoût est devenu acceptable à partir des années 2000, ce qui a permis sa mise en exploitation commerciale au Japon fin 2003. Une variante en a été développée au Brésil (SBTVD, Sistema Brasileiro de Televisão Digital-Terrestre), adoptée officiellement en 2006. Elle diffère d’ISDB-T par son codage de source (MPEG-4/H264 pour la vidéo et HE-AAC pour l’audio) et fin 2009 elle était adoptée par les principaux pays d’Amérique du Sud (Argentine, Brésil, Chili, Équateur, Pérou, Venezuela…). Cette variante d’ISDB-T est en compétition, sous l’appellation ISDB-T International, avec DVB-T et DVB-T2 dans les pays qui n’ont pas encore choisi leur système de télévision numérique terrestre. La partie transmission d’ISDB-T est spécifiée dans les documents ARIB STDB31:2005 (Japon) et ABNT NBR 15601 (Brésil).

9782100520442-Livre.fm Page 229 Jeudi, 24. juin 2010 11:35 11

ANNEXE 6 – AUTRES

SYSTÈMES DE TÉLÉVISION NUMÉRIQUE

Le tableau A6.5 permet la comparaison des principaux paramètres de DVB-T et d’ISDB-T.

Tableau A6.5 – Comparaison des systèmes DVB-I et ISDB-T

A6.4 Le système DTMB (terrestre, Chine)

© Dunod. La photocopie non autorisée est un délit.

Le système DTMB (Digital Terrestrial Multimedia Broadcast) a été tout d’abord appelé DMB-T/H (Digital Multimedia Broadcast-Terrestrial/Handheld) et est le résultat de la fusion de deux systèmes développés par deux universités différentes (ADTB-T basé sur la modulation VSB, Université Jiaotong de Shanghai, et DMB-T basé sur la modulation COFDM, Université Tsinghua de Pékin). La spécification a été publiée en août 2006 sous la référence GB 20060-2006 et définitivement adoptée en août 2007. Il n’existe pas à notre connaissance de version publique en anglais de cette spécification, c’est pourquoi nous ne pourrons en indiquer que les grandes lignes. Le standard DTMB peut être opéré selon deux modes : • un mode TDM à porteuse unique modulée en 8-VSB comme le standard ATSC, • un mode OFDM (porteuses multiples, 3 780 dans ce cas) mais la modulation utilisée est dite TDS-OFDM (Time Domain Synchronous OFDM), elle diffère principalement de la modulation COFDM par le contenu de l’intervalle de garde.

229

9782100520442-Livre.fm Page 230 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

Dans le système DTMB, l’intervalle de garde est rempli par une séquence de « pseudo-bruit » qui sert également de séquence d’apprentissage pour l’estimateur de canal, ce qui permet de réduire le nombre de porteuses pilotes utilisées à cet effet en DVB-T et donc d’améliorer l’efficacité spectrale. La correction d’erreur est également plus efficace que dans DVB-T ou ISDB-T car elle fait appel aux codes BCH et LDPC utilisés dans les systèmes DVB de seconde génération. Les débits possibles de DTMB s’étendent de 4 813 à 32 486 Mb/s pour un canal de 8 MHz.

230

Paramètre

DTS-OFDM

TDM

Codage vidéo

Multiples

Multiples

Codage audio

Multiples

Multiples

Multiplexage

MPEG-2 transport

MPEG-2 transport

Paquet transport

188 octets

188 octets

Codage externe

BCH

BCH

Codage interne

LDPC

LDPC

Taux de poinçonnage

0,4/0,6/0,8

0,4/0,6/0,8

Nombre de porteuses

3 780

1

Constellations

64-QAM, 32-QAM, 16-QAM, 4-QAM, 4-QAM-NR

VSB-8

Largeur de canal

8 MHz

8 MHz

Tableau A6.6 – Comparaison des versions OFDM et TDM du système DTMB

9782100520442-Livre.fm Page 231 Jeudi, 24. juin 2010 11:35 11

Annexe 7 L’interface commune DVB-CI et l’extension CI+

231

A7.1 L’interface commune DVB-CI

© Dunod. La photocopie non autorisée est un délit.

Afin de permettre l’accès aux émissions cryptées de télévision au standard DVB avec un terminal non spécifique d’un opérateur, le DVB a défini une interface standardisée appelée DVB-CI (DVB Common Interface) permettant l’adjonction de modules d’accès conditionnel amovibles au format PC-CARD (ex PCMCIA), dont elle est une extension. Cette interface est définie dans le document européeen EN 50221 et l’extension ETSI TS 101699, ainsi que des complément (guides d’implémentation). L’interface commune peut en principe être utilisée à d’autres fins, par exemple pour augmenter la fonctionnalité de la set-top box au moyen de mémoire flash contenant une extension logicielle, pour adjoindre un NIM pour un autre médium de transmission, ou encore pour connecter certains autres modules du monde PC (modems ou autres) si le logiciel de la set-top box permet leur exploitation. L’accès conditionnel représente cependant de très loin l’utilisation principale, c’est pourquoi nous allons décrire brièvement son principe de fonctionnement. La figure A7.1 représente le schéma-bloc d’une set-top box munie d’un module DVB-CI, où l’on voit que le module reçoit le train transport embrouillé à son entrée et, s’il est bien sûr muni d’une carte d’abonné valide, le fournit en clair au décodeur

9782100520442-Livre.fm Page 232 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

de source ; le module communique avec le processeur central par un bus classique de données, d’adresses et de contrôle.

232 Figure A7.1 – Schéma-bloc d’un récepteur numérique muni d’une interface DVB-CI

La figure A7.2 représente une vue plus détaillée du module DVB-CI et de sa communication avec la set-top box et la carte à puce.

Figure A7.2 – Schéma-bloc simplifié d’un module DVB-CI

9782100520442-Livre.fm Page 233 Jeudi, 24. juin 2010 11:35 11

ANNEXE 7 – L’INTERFACE

COMMUNE

DVB-CI

ET L’EXTENSION

CI+

Il se compose essentiellement d’un circuit désembrouilleur DVB-CSA (ou pour un autre algorithme éventuellement) et d’un microcontrôleur exécutant le logiciel d’accès conditionnel, relié à un lecteur de carte à puce intégré et au microcontrôleur « hôte » de la set-top box via l’interface DVB-CI. Le fonctionnement du module est identique à celui d’un accès conditionnel embarqué (voir chapitre 5). Le microcontrôleur reçoit, après sélection par un filtrage de PID, les mots de contrôle cryptés transmis par les messages ECM du train transport et les retourne décryptés au désembrouilleur au moyen des clés contenues dans la carte à puce, sous réserve qu’elle contienne également des droits d’accès valides préalablement fournis par des messages EMM. Ceci permet au module de retourner au décodeur de source un train transport partiellement ou totalement désembrouillé selon le type d’embrouillage utilisé à l’émission. Plusieurs slots DVB-CI peuvent être présents dans une set-top box. Dans ce cas, les interfaces transport stream sont connectées en cascade (daisy chain). La circuiterie interne à la set-top box d’interface avec le slot DVB-CI comporte des commutateurs qui permettent le passage direct du transport stream lorsqu’il n’y a pas de module inséré dans un connecteur, ou lorsque l’émission est en clair ou embrouillée avec un système d’accès conditionnel incompatible avec le module.

© Dunod. La photocopie non autorisée est un délit.

Outre l’interface physique, la spécification DVB-CI définit également un protocole d’échange pour la communication entre le module et le processeur hôte, de manière à ce que, en principe, tous les modules soient compatibles avec toutes les boîtes (ce qui n’est malgré tout malheureusement pas toujours le cas). Le logiciel interne du module DVB-CI est essentiellement dépendant du système d’accès conditionnel visé, alors que la réalisation matérielle du module peut en principe être commune à la plupart des systèmes basés sur l’algorithme d’embrouillage DVB-CSA. Il existe aujourd’hui des modules pour la plupart des systèmes d’accès conditionnels utilisés en Europe, et la présence d’au moins un connecteur DVB-CI est obligatoire dans la set-top box pour TV numérique terrestre dans la plupart des pays où ces émissions sont disponibles. Cependant, l’utilisation de modules d’accès conditionnels DVB-CI n’a pas été acceptée par la plupart des opérateurs de bouquets payants en raison d’une sécurité insuffisante à leurs yeux, principalement due au fait que le signal transport stream qui transite sur le connecteur PCMCIA est en clair, ce qui permet une éventuelle utilisation frauduleuse.

233

9782100520442-Livre.fm Page 234 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

C’est pourquoi le DVB avait mis en place un module technique (DVB TM-CIT) pour définir une nouvelle version plus sécurisée de DVB-CI. Ce module technique n’ayant pas réussi à trouver un accord, il a été mis fin à sa mission en septembre 2006.

A7.2 L’interface commune sécurisée CI+ Moins d’un an après cet échec, six sociétés (Neotion, Panasonic, Philips, Samsung, SmarDTV et Sony) ont fondé un forum afin de reprendre ce travail sur de nouvelles bases dont il est résulté une première spécification (v1.0) en 2008 avec une interface cryptée vers le module d’accès conditionnel (CAM). Le forum CI+ a été ensuite dissous fin 2008 et remplacé par une organisation composée des mêmes partenaires et basée au Royaume-Uni, CI+ LLP (Limited Liability Partnership), pour la promotion de la spécification CI+ et la délivrance de licences. Elle pourrait à terme jouer le rôle d’autorité de confiance pour les aspects sécuritaires (certification). Par l’utilisation de certificats et d’une autorité de certification, CI+ crée un canal de communication sécurisé entre le CAM et le récepteur hôte (téléviseur ou boîtier externe). 234

Figure A7.3 – Les blocs en blanc représentent les parties ajoutées pour CI+

9782100520442-Livre.fm Page 235 Jeudi, 24. juin 2010 11:35 11

ANNEXE 7 – L’INTERFACE

COMMUNE

DVB-CI

ET L’EXTENSION

CI+

Afin que le contenu ne circule plus en clair sur l’interface CAM, une circuiterie de cryptage du flux désembrouillé par la partie « accès conditionnel » du CAM et des outils de cryptographie sont ajoutés au CAM. Une circuiterie de décryptage doit également être ajoutée dans le récepteur (figure A7.3). Le cryptage des données se fait soit selon le protocole DES-56-ECB (Data Encryption Standard, clé à 56 bits, Electronic Code Book) pour les contenus SD ou HD soit (optionnellement pour les contenus HD) avec le protocole AES-128-CBC (Advanced Encryption Standard, clé à 128 bits, Cipher Block Chaining). Les appareils conformes à la spécification CI+ doivent également être conformes à la spécification DVB-CI et peuvent donc utiliser des CAM à la norme DVB-CI. Les appareils conformes à la spécification CI+ sont identifiés par le logo « CI Plus » (figure A7.4).

© Dunod. La photocopie non autorisée est un délit.

Figure A7.4 – Le logo « CI Plus » est une marque commerciale de CI Plus LLP

235

9782100520442-Livre.fm Page 236 Jeudi, 24. juin 2010 11:35 11

9782100520442-Livre.fm Page 237 Jeudi, 24. juin 2010 11:35 11

Glossaire



Abréviations

1080i : 1080 interlaced (format haute définition avec 1 080 lignes en balayage entrelacé et 1 920 pixels/ligne). 1080p : 1 080 progressive (format haute définition avec 1 080 lignes en balayage progressif et 1 920 pixels/ligne). 720p : 720 progressive (format haute définition avec 720 lignes en balayage progressif et 1 280 pixels/ligne). AAC/AAC+ : Advanced Audio Codec (systèmes avancés de codage audio de MPEG-4). AC3 : système de compression audio proposé aux USA par la société Dolby®. ADSL : Asymetric Digital Subscriber Line (méthode exploitant les capacités de transmission des hautes fréquences de la ligne téléphonique pour établir une liaison à haut débit (jusqu’à 20 Mb/s dans le sens descendant et 1 Mb/s dans le sens descendant pour l’ADSL2+). © Dunod. La photocopie non autorisée est un délit.

AF (Adaptation Field) : champ de données complétant un paquet transport. API (Application Programming Interface) : interface de programmation d’un middleware vers les applications compatibles ; désigne quelquefois le middleware lui-même. APSK : Amplitude and Phase Shift Keying (modulation ou la phase et l’amplitude peuvent prendre plusieurs états). DVB-S2 autorise les modulations 16-APSK et 32-APSK pour les applications de point à point. ASK (Amplitude Shift Keying) : modulation d’amplitude numérique à 2 états. ATSC (Advanced Television System Commitee) : système de TV numérique terrestre américain supportant la TVHD. ATSC-M/H : Advanced Television System Commitee Mobile/Handheld (extension du système américain ATSC pour la télévision mobile personnelle).

237

9782100520442-Livre.fm Page 238 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

AU (Access Unit) : unité d’accès à une séquence codée MPEG : image ou trame sonore. AVC : Advanced Video Coding (autre appellation du système de compression MPEG-4.10 ou H264). B (Bidirectional picture) : image MPEG codée à partir de la précédente et de la suivante. BAT (Bouquet Association Table) : table facultative de DVB-SI. BBFRAME : BaseBand Frame (bloc de données servant d’objet de départ au codage de canal BCH + LDPC des systèmes DVB de deuxième génération). BCH : Bose-Chauduri, Hocquenghem (code correcteur d’erreur « externe » utilisé dans les systèmes DVB de seconde génération en remplacement du code de ReedSolomon). BER (Bit Error Rate) : taux d’erreurs binaires en valeur relative ; français : TEB. BPSK (Bi Phase Shift Keying) : modulation de phase à deux états, transportant un bit par symbole. CA (Conditional Access) : accès conditionnel. 238

CABAC : Context Adaptative Binary Arithmetic Coding (codage entropique le plus efficace de la norme H264), utilisé seulement dans les profils « main » et « high » et demandant des ressources de calcul importantes. CAM (Conditional Access Message) : message d’accès conditionnel : ECM ou EMM. CAT (Conditional Access Table) : table MPEG-2 contenant les PID des paquets de contrôle d’accès. CAVLC : Context Adaptative Variable Length Coding (codage entropique « standard » de la norme H264). CCIR (Comité Consultatif International de Radiodiffusion) : actuellement IUT-R. CCIR-601 : recommandation pour la numérisation des signaux vidéo (Fech = 13,5 MHz, format 4:2:2). CCIR-656 : recommandation pour le format de transmission des signaux CCIR-601. CCITT (Comité Consultatif International du Télégraphe et du Téléphone) : actuellement IUT. CIF (Common Intermediate Format) : 360 × 288 @ 30 Hz. CMMB : China Mobile Multimedia Broadcasting (système chinois de télévision mobile personnelle, hybride satellite-terrestre).

9782100520442-Livre.fm Page 239 Jeudi, 24. juin 2010 11:35 11

GLOSSAIRE

CNR (Carrier to Noise Ratio) : rapport porteuse à bruit ou C/N : rapport (en dB) entre la puissance reçue de la porteuse et la puissance de bruit dans la bande passante du canal. COFDM (Coded Orthogonal Frequency Division Multiplex) : système de modulation numérique sur un grand nombre de porteuses, utilisé en DAB et pour les émissions DVB terrestres. CPL : courants porteurs en ligne (système de transmission de données par courant porteur utilisant le câblage du secteur pour réaliser ou étendre un réseau domestique). CSA (Common Scrambling Algorithm) : algorithme d’embrouillage spécifié par DVB. CSA (Comité Supérieur de l’Audiovisuel) : organisme indépendant responsable de l’attribution des autorisations des stations de radiodiffusion et télévision en France et de leur contrôle. CVBS (Composite Video Baseband Signal) : signal vidéo composite couleur NTSC, PAL ou SECAM. D1 : format vidéo numérique professionnel en composantes utilisé pour l’enregistrement. D2 : format vidéo numérique professionnel composite utilisé pour l’enregistrement. D2MAC (Duobinary Multiplex Analog Components) : standard hybride utilisé sur satellite et câble.

© Dunod. La photocopie non autorisée est un délit.

DAB (Digital Audio Broadcast) : nouveau standard européen de radiodiffusion numérique. DAVIC (Digital AudioVIsual Council) : association sans but lucratif basée à Genève, dont les membres sont issus de toutes les parties prenantes aux techniques numériques appliquées à l’audiovisuel. L’un de ses principaux objectifs est la définition et la spécification d’interfaces ouvertes permettant une interoperabilité maximale entre les pays, les applications et les services. DBS (Direct Broadcast Satellite) : satellite dans la bande 11,7 - 12,5 GHz réservée à la télédiffusion. DC (Direct Current) : courant continu ; terme utilisé pour qualifier le coefficient DCT de fréquence 0. DCT (Discrete Cosine Transform) : transformée en cosinus discrète, utilisée en JPEG et MPEG. DiSEqC (Digital Satellite Equipment Control) : bus et protocole de commande d’antennes et accessoires proposé par EUTELSAT ; il utilise un signal à 22 kHz modulé véhiculé par le câble coaxial et se décline en deux versions (1.0 et 2.0).

239

9782100520442-Livre.fm Page 240 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

DLNA (Digital Living Network Alliance) : alliance de fabricants d’électronique, d’informatique et d’opérateurs pour établir un standard d’interopérabilité entre appareils, réseaux et contenus audiovisuels. DOCSIS (Data Over Cable Service Interface Specifications) : standard des modems câble US. DPCM (Differential Pulse Code Modulation) : codage numérique différentiel ; français : MICD. DRAM (Dynamic Random Access Memory) : mémoire à lecture/écriture nécessitant un rafraîchissement permanent de l’information stockée, la plus répandue car la plus économique. DSLAM : Digital Subscriber Line Access Multiplexer (multiplexeur de quelques centaines de lignes ADSL qu’il relie à l’internet par un lien à haut débit ; il est situé dans le central téléphonique). DSM-CC : Digital Storage Media-Command and Control (jeu d’outils pour développer des canaux de commande associées à des flux MPEG). Initialement destiné à la réalisation d’applications de contrôle de flux de type VCR, son champ d’applications a été considérablement étendu (spécifié dans ISO/IEC 13818-6). 240

DSNG : Digital Satellite News Gathering (système de liaison point à point par satellite temporaire, généralement transportable, destiné à la couverture médiatique d’événements). DSP (Digital Signal Processor) : processeur dédié au traitement des signaux analogiques numérisés. DSS (Digital Satellite System) : système de télévision directe par satellite utilisé aux USA. DTMB : Digital Terrestrial Multimedia Broadcasting (système de télévision numérique terrestre chinois). DTS (Decoding Time Stamp) : indicateur d’instant de décodage d’une unité d’accès MPEG. DTS-OFDM (Time Domain Synchronous OFDM) : variante de la modulation OFDM utilisée dans le système DTMB où l’intervalle de garde contient une séquence d’apprentissage pseudo-aléatoire pour l’estimation du canal. DVB : Digital Video Broadcasting (standard international de télédiffusion numérique défini par l’organisme basé à Genève qui porte le même nom). DVB-C : norme de transmission câble utilisant la modulation QAM (16 à 256 états). DVB-C2 : norme de transmission numérique par câble de deuxième génération ; utilise la modulation COFDM 4K et le même codage de canal que DVB-S2 (BCH + LDPC).

9782100520442-Livre.fm Page 241 Jeudi, 24. juin 2010 11:35 11

GLOSSAIRE

DVB-CI : Common Interface (interface pour module d’accès conditionnel au format PCMCIA) ; une extension visant à en augmenter la sécurité baptisée DVBCI+ a été publiée en 2009. DVB-H : norme de transmission terrestre à destination des mobiles utilisant la modulation COFDM 2k, 4k ou 8k et un découpage du temps permettant de réduire la consommation des mobiles. DVB-S : norme de transmission satellite utilisant la modulation QPSK. DVB-S2 : nouvelle norme de transmission satellite plus efficace que DVB-S grâce à la possibilité d’utilisation d’une modulation d’ordre supérieur (8-PSK à 32-APSK) et d’un codage de canal plus efficace (BCH + LDPC). DVB-SH : Satellite Handheld (standard de télévision numérique mobile hybride satellite-terrestre). DVB-SI (System Information) : groupe de tables d’informations facultatives DVB. DVB-T : norme de transmission terrestre utilisant la modulation COFDM 2k ou 8K. DVB-T2 : norme de transmission numérique terrestre de deuxième génération ; utilise le même codage de canal que DVB-S2 (BCH + LDPC). DVD (Digital Video Disk) : nouveau format de disque laser à haute capacité de 4,7 à 19 Go. DVI : Digital Visual Interface (interface numérique de connexion de moniteurs informatiques ; compatible électriquement à l’interface HDMI, avec un connecteur différent et sans support du son). e-AC3 (également appelé Dolby Digital+) : extension du système de compression AC3 augmentant le nombre de voies audio ; utilisé par les chaînes de la TNT française diffusées en HD.

© Dunod. La photocopie non autorisée est un délit.

Eb/N0 : rapport entre énergie moyenne par bit Eb et densité de bruit No, lié au rapport C/N. ECM (Entitlement Control Message) : premier type de message de contrôle d’accès DVB. EICTA : European Information & Communications Technology Association (association européenne dont la mission est la défense des intérets des industries de l’informatique, des télécommmunications et du matériel grand public). EIT (Event Information Table) : table facultative de DVB-SI indiquant le début d’un événement. ELG (European Launching Group) : groupe à l’origine du démarrage du projet DVB. EMM (Entitlement Management Message) : deuxième type de message de contrôle d’accès DVB.

241

9782100520442-Livre.fm Page 242 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

EPG (Electronic Program Guide) : interface utilisateur graphique pour l’aide au choix du programme. ES (Elementary Stream) : train binaire élémentaire en sortie de codeur MPEG audio ou vidéo. FEC (Forward Error Correction) : ensemble des dispositifs de correction d’erreur de transmission par adjonction de redondance calculée à l’émission ; synonyme : codage de canal. FECFRAME : Forward Error Correction Frame (bloc de données de longueur 16 200 ou 64 800 bits après codage de canal de la BBFRAME dans les systèmes DVB de deuxième génération). FFT (Fast Fourier Transform) : transformée de Fourier discrète, élément clé de la modulation et de la démodulation COFDM. FOS (Filtre à Onde de Surface) : filtre de bande fonctionnant en mode ultrasonique ; anglais : SAW. FRExt : Fidelity Range Extensions (extensions du jeu d’outils de codage de H264 utilisés seulement dans les profils « High »). FSK (Frequency Shift Keying) : modulation de fréquence numérique à 2 états. 242

FSS (Fixed Service Satellite) : satellite dans les bandes 10,7 - 11,7 GHz ou 12,5 12,75 GHz réservées à l’origine aux télécommunications. FTA (Free To Air) : expression désignant les émissions TV à accès libre. GOP (Group Of Pictures) : groupe d’images MPEG débutant par une image de type I. H261 : norme de compression utilisée pour le visiophone RNIS (débit de p × 64 kb/s). H264 : standard de compression retenu par le DVB comme alternative au MPEG-2 par rapport auquel il est plus efficace. Également connu sous l’abréviation AVC (Advanced Video Coding) ou MPEG-4 part 10. HDCP : High Definition Content Protection (cryptage des données vidéo transmises sur une liaison DVI ou HDMI pour éviter la copie illicite). HDMAC (High Definition MAC) : extension Haute Définition du standard D2MAC. HDMI : High Definition Multimedia Interface (interface numérique normalisée permettant de relier une source de signaux audiovisuels numériques à un dispositif d’affichage ; c’est une extension de l’interface DVI auquel il ajoute la transmission du son numérique et la protection du contenu HDCP). HDTV : High Definition TeleVision (TéléVision à Haute Définition ; désigne un système de télévision dont la résolution d’image est égale ou supérieure à 1 280 × 720).

9782100520442-Livre.fm Page 243 Jeudi, 24. juin 2010 11:35 11

GLOSSAIRE

HTML (Hypertext Markup Language) : langage permettant de définir des zones actives sur un document électronique avec des liens vers d’autres parties du document ou une adresse internet. I (In phase) : en modulation QAM, signal modulant la porteuse selon l’axe 0. I (Intra picture) : image MPEG codée sans référence à d’autres images. I2C (Inter Integrated Circuits) : bus série entre circuits intégrés développé par Philips. I2S (Inter Integrated Sound) : liaison série entre circuits audio numériques développée par Philips. iDTV (integrated Digital TV) : téléviseur hybride recevant les émissions analogiques et numériques. IDTV (Improved Definition TV) : télévision à définition améliorée, entre TV normale et HDTV. IEEEE 802.11(a, b, g, n…) : standards de réseau local sans fil (wireless LAN) à 2,4 GHz et 5,8 GHz. IEEE1284 : interface parallèle bidirectionnelle rapide (interface Centronics étendue). IEEE1394 : interface série rapide prévue entre autres pour les magnétoscopes numériques. IP : Internet Protocol (protocole utilisé pour l’acheminement de données sous forme de « datagrammes IP » au moyen d’une encapsulation assurant entre autres l’adressage de source et de destination). IRD (Integrated Receiver Decoder) : récepteur avec décodeur MPEG intégré ; synonyme familier : set-top box.

© Dunod. La photocopie non autorisée est un délit.

ISDB-T (Integrated Services Digital Broadcasting-Terrestrial) : système japonais pour la transmission d’émissions numériques de télévision et multimédia par voie terrestre. ISI (Inter Symbol Interference) : interférence entre symboles successifs en transmission numérique. ISO (International Standard Organization) : organisme de normalisation mondial dépendant de l’ONU. IUT (International Union for Telecommunications) : organisme international de réglementation des télécommunications, anciennement CCITT. JPEG (Joint Photographic Experts Group) : groupe ayant développé la compression d’images fixes. LDPC : Low Density Parity Code (code correcteur d’erreur « interne » dans les systèmes DVB de seconde génération en remplacement du code convolutif).

243

9782100520442-Livre.fm Page 244 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

LNB (Low Noise Blockconverter) ou LNC (Low Noise Converter) : convertisseur à faible bruit situé au foyer d’une antenne satellite. MAC (Media Access Control) : désigne les parties matérielles et logicielles d’un récepteur câble avec voie de retour destinées à gérer l’accès et le partage de la voie montante entre les usagers. MBAFF : MacroBlock Adaptive Frame Field (option de codage de MPEG-4.10 / H264 permettant un meilleur traitement des images entrelacées). MCPC (Multiple Channel Per Carrier) : plusieurs programmes par porteuse ; mode de transmission DVB « normal » de plusieurs programmes numériques multiplexés sur une porteuse RF, occupant en général toute la bande passante d’un transpondeur (débit de l’ordre de 20 à 45 Ms/s). MHEG5 (Multimedia and Hypermedia Expert Group version 5) : moteur d’interactivité simple basé sur le langage descriptif MHEG. MHP (Multimedia Home Platform) : moteur d’interactivité ouvert pour la télévision numérique proposé par le DVB. MP@ML (Main Profile at Main Level) : format vidéo principal du standard DVB. 244

MP3 (MPEG-1 niveau 3) : format de compression environ deux fois plus efficace que le niveau 2 du standard DVB. Le format MP3 a été popularisé par les échanges de musique sur Internet. MPEG : Motion Picture Experts Group (groupe ayant défini les standards de compression d’images animées MPEG-1 et MPEG-2, et plus récemment MPEG-4, dont la variante MPEG4.10 ou H264). MS/s (mégasymbole par seconde) : unité généralement utilisée pour spécifier le débit d’une transmission TV numérique (on utilise parfois le MHz ou le Mbaud, équivalents). MSB (Most Significant Bit) : bit de poids fort d’un nombre représenté sous forme binaire. MUSE : système japonais de télévision à haute définition (analogique avec assistance numérique). MUSICAM (Masking Universal Subband Integrated Coding And Multiplexing) : procédé de codage spécifié par MPEG-1 audio, couche 2 et utilisé par les systèmes radio DAB et télévision DVB. MVC : Multiview Video Coding (extension du H.264 au codage de flux multiples synchronisés utilisé par exemple pour la télévision en relief).

9782100520442-Livre.fm Page 245 Jeudi, 24. juin 2010 11:35 11

GLOSSAIRE

NICAM (Near Instantaneous Companded Audio Multiplexing) : système stéréophonique numérique pour TV analogique terrestre, avec sous-porteuse à 5,85 ou 6,55 MHz modulée en QPSK. NIT (Network Information Table) : information réseau, table facultative de DVB-SI. NTSC (National Television Standard Commitee) : système TV couleur utilisé aux USA et au Japon. NVOD (Near Video On Demand) : vidéo quasi à la demande ; possibilité pour l’utilisateur de choisir parmi un nombre de programmes important diffusés simultanément, généralement en multidiffusion. OFDM : voir COFDM. OOB (Out Of Band) : voie descendante additionnelle destinée aux données dans un système de télévision par câble avec voie de retour tel que DVB-DAVIC. P (Predictive picture) : image MPEG codée à partir d’une image précédente de type I ou P. PAL (Phase Alternating Line) : système TV couleur utilisé dans la plupart des pays européens. PAT (Program Allocation Table) : table DVB indiquant les PID des composantes d’un programme. PCM (Pulse Code Modulation) : résultat de la conversion analogique/numérique d’un signal ; français : MIC. PCMCIA ou PC-Card (Personal Computer Memory Card Association) : désigne le format proche d’une carte de crédit et l’interface électrique utilisé pour les modules d’extension des PC portables et spécifié par le DVB pour les modules d’accès conditionnel détachables utilisant le Common Interface.

© Dunod. La photocopie non autorisée est un délit.

PCR (Program Clock Reference) : référence d’horloge pour un programme en MPEG-2. PES (Packetized Elementary Stream) : train élémentaire MPEG sous forme de paquets. PID (Packet Identifier) : numéro d’identification d’un PES en DVB. PMT (Program Map Table) : table DVB indiquant les PID des PAT de tous les programmes d’un multiplex transport. PRBS (Pseudo Random Binary Sequence) : séquence issue d’un générateur pseudo-aléatoire. PSI (Program Specific Information) : tables obligatoires du standard DVB : CAT, PAT, PMT.

245

9782100520442-Livre.fm Page 246 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

PSK : Phase Shift Keying (modulation de phase à plusieurs états et à amplitude constante). DVB-S2 permet l’utilisation des modulations à 4 états (QPSK ou 4-PSK) et à 8 états (8-PSK) pour les applications de diffusion. PTS (Presentation Time Stamp) : indicateur d’instant de présentation d’une PU MPEG. PU (Presentation Unit) : unité de présentation MPEG : trame sonore ou image décodée. PVR : Personal Video Recorder (récepteur numérique équipé d’un disque dur permet-tant l’enregistrement et le « Time Shift Recording ») ; généralement équipé de deux tuners. Q (Quadrature) : en modulation QAM, signal modulant la porteuse selon l’axe 90°. QAM (Quadrature Amplitude Modulation) : modulation d’amplitude en quadrature ; français : MAQ. QCIF (Quarter Common Intermediate Format) : 180 × 144 @ 15 Hz, résolution du visiophone. QEF (Quasi Error Free) : se dit d’un canal virtuellement sans erreur, impliquant un BER < 10–10. 246

QPSK (ou 4-PSK) : Quadrature (ou Quaternary) Phase Shift Keying (modulation de phase à 4 états utilisée par les standards de TV numérique par satellite DSS, DVB-S et DVB-S2). RISC (Reduced Instruction Set Computer) : processeur à jeu d’instructions réduit. RLC (Run Length Coding) : méthode de compression de données tirant profit des répétitions. RNIS (Réseau Numérique à Intégration de Services) : réseau public numérique ; anglais : ISDN. RNT : radio numérique de Terre (dénomination française de la radio numérique). RS(204, 188, 8) : notation abrégée du codage de Reed-Solomon utilisé en transmission DVB. RS232 : interface série asynchrone normalisée (relativement lente). RST (Running Status Table) : table facultative de DVB-SI indiquant l’état des émissions en cours. RTP : Real Time Transfer Protocol (protocole utilisé pour transporter l’audio et la vidéo en TV sur IP). RVB (Rouge, Vert, Bleu) : composantes de base d’une image couleur ; anglais : RGB.

9782100520442-Livre.fm Page 247 Jeudi, 24. juin 2010 11:35 11

GLOSSAIRE

SBTVD : Sistema Brasileiro de Televisão Digital-Terrestre (dérivé brésilien du système japonais ISDB-T également appelé ISDB-T International ; utilise le MPEG4 pour le codage vidéo). SCPC (Single Channel Per Carrier) : un seul programme par porteuse ; mode de transmission à relativement bas débit (2 à 6 Ms/s) d’un seul programme numérique par porteuse RF, partageant en général un transpondeur de largeur conventionnelle avec un programme analogique ou d’autres programmes numériques transmis de la même manière. SCR (System Clock Reference) : référence d’horloge système en MPEG-1. SDT (Service Description Table) : table facultative de DVB-SI. SECAM (Séquentiel Couleur À Mémoire) : système TV couleur utilisé principalement en France. SFN (Single Frequency Network) : réseau d’émetteurs de TV numérique terrestre utilisant la même fréquence sur toute sa zone de couverture ; utilise la modulation OFDM 8K du standard DVB-T. SIF (Source Intermediate Format) : 360 × 288 @ 25 Hz ou 360 × 240 @ 30 Hz ; base de MPEG-1. ST (Stuffing Table) : table de bourrage facultative de DVB-SI. STD (Standard Target Decoder) : décodeur de référence utilisé dans les normes MPEG-1 et 2. TDM : Time Division Multiplex (système de modulation à porteuse unique, par opposition aux systèmes à porteuses multiples FDM ou OFDM).

© Dunod. La photocopie non autorisée est un délit.

T-DMB : Terrestrial Digital Multimedia Broadcasting (standard de télévision mobile personnelle et de radio numérique dérivé du DAB ; retenu par la France pour la radio numérique terrestre). TDT (Time and Date Table) : table facultative de date et heure de DVB-SI. TMP : télévision mobile personnelle (terme utilisé en France pour désigner les services de télévision à destination des terminaux portables, généralement individuels). TNT (Télévision Numérique de Terre) : dénomination officielle utilisée en France. TPS (Transmission Parameter Signalling) : information sur les paramètres de transmission OFDM véhiculée par les porteuses pilotes continues du système DVB-T. TSR (Time Shift Recording) : possibilité de regarder intégralement une émission malgré des interruptions grâce à la capacité d’enregistrement et de reproduction simultanés du disque dur.

247

9782100520442-Livre.fm Page 248 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

USALS : Universal Satellite Automatic Location System (logiciel développé par la société STAB et implanté dans un récepteur satellite pour calculer la rotation d’un moteur DiSEqC 1.2 à partir des coordonnées du lieu de réception et de la position orbitale du satellite). USB (Universal Serial Bus) : bus série rapide – jusqu’à 11 Mb/s pour la version 1.1 – remplaçant peu à peu les liaisons RS232 ou IEEE1284 dans les PC et les récepteurs TV numériques. VBS (Video Baseband Signal) : désigne un signal vidéo monochrome. VLC (Variable Length Coding) : méthode de compression de données codant la longueur d’un élément en fonction de sa probabilité d’apparition. VLIW (Very Long Instruction Word) : type de processeur à traitement parallèle. VSB (Vestigial Side Band) : modulation utilisée pour la vidéo en TV analogique ; français : BLA. WiFi : Wireless Fidelity (appellation usuelle des systèmes de réseau sans fil IEEE802.11x dans les bandes de 2,4 GHz et 5,8 GHz). WSS (Wide Screen Signalling) : bits de signalisation du format en PAL+. YUV : signal vidéo couleur en composantes (luminance Y et différences de couleur U et V).

248

ZIF : voir Zero IF.



Mots et expressions

aliasing : perturbation due au repliement de spectre lors de la conversion A/N d’un signal dont la bande passante dépasse la moitié de la fréquence d’échantillonnage. asynchrone : dans la terminologie du bus IEEE1394, désigne le mode utilisé pour transporter des données au timing non critique (par exemple commandes ou données audiovisuelles à enregistrer). balayage progressif (progressive scan) : analyse en une seule « passe » de toutes les lignes d’une image vidéo dans leur ordre numérique croissant (utilisé notamment pour les moniteurs informatiques). baud : (ou s/s = symbole/seconde ; 1 Mbaud = 1 Ms/s) unité de débit de transmission numérique en symboles/seconde (du nom du Français Baudot, inventeur du téléimprimeur). bitstream : train binaire ; désigne un train série continu d’informations numériques. bloc : en JPEG et MPEG, désigne une partie d’image de 8 × 8 pixels servant à effectuer la DCT.

9782100520442-Livre.fm Page 249 Jeudi, 24. juin 2010 11:35 11

GLOSSAIRE

Bluetooth : standard de communication à faible distance (environ 10 m) et à débit moyen (max. 1 Mb/s), utilisant une liaison radio à 2,4 GHz et permettant d’interconnecter jusqu’à sept participants, constituant ainsi un « picoréseau » (piconet). Les picoréseaux peuvent communiquer entre eux par l’intermédiaire de participants appartenant à deux picoréseaux. Blu-rayTM : disque optique numérique de haute capacité pour la vidéo à haute définition. codage de canal (channel coding) : ajout de redondance calculée destinée à permettre la correction d’erreurs de transmission affectée d’erreurs dues à la transmission (synonyme : FEC). codage de source (source coding) : ensemble des opérations de codage destinées à réduire le débit d’une source d’informations, plus communément appelé « compression ». composantes (vidéo en) : vidéo couleur sous forme de 3 signaux séparés (par exemple RVB ou YUV). composite (vidéo) : vidéo couleur sous forme d’un signal codé unique (NTSC, PAL ou SECAM). constellation : visualisation simultanée en coordonnées I/Q des points représentant les différents états que peut prendre un signal QAM ou QPSK. convolutif (codage) : partie « interne » du codage de canal satellite, consistant à obtenir deux trains binaires à partir du train d’origine ; corrige principalement les erreurs aléatoires dues au bruit.

© Dunod. La photocopie non autorisée est un délit.

couche (layer) : en MPEG-1 audio, le numéro de couche (1, 2 ou 3) définit l’algorithme employé (le taux de compression et la complexité de l’algorithme augmentent avec ce chiffre). cryptage (encryption) : action de coder un signal avec une clé pour en contrôler l’accès. dispersion d’énergie (energy dispersal) : multiplication d’un signal numérique par une séquence pseudo-aléatoire pour rendre son spectre uniforme après modulation. échantillon de sous-bande (subband sample) : en MPEG audio, signal de sortie d’un des 32 filtres de sous-bandes (durée : 32 échantillons PCM consécutifs, soit 1 ms à 32 kHz). échantillonnage (sampling) : prélèvement périodique de la valeur d’un signal analogique, en général en vue de sa conversion en numérique. efficacité spectrale (spectral efficiency) : rapport (exprimé en bits/s par Hz) entre le débit et la bande passante d’un signal RF modulé par un train numérique.

249

9782100520442-Livre.fm Page 250 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

égaliseur d’échos (echo equalizer) : dispositif destiné à annuler ou atténuer l’effet des réflexions dans un système de transmission (sur câble principalement). embrouillage (scrambling) : codage d’un signal destiné à empêcher sa réception sans un dispositif spécifique assurant la fonction inverse. entrelacé (interlaced) : qualifie le balayage d’une image TV en deux trames successives (lignes impaires puis paires) permettant de diviser par 2 la bande passante à résolution donnée. estimation de mouvement : (movement estimation) : détermination d’un vecteur permettant de reconstituer une zone de l’image courante à partir d’une autre de l’image précédente. Eurocrypt : système de contrôle d’accès utilisé principalement en D2MAC. facteur d’échelle (scaling factor) : en MPEG audio, coefficient multiplicateur codé sur 6 bits affecté à chaque coefficient de sous-bande pour la durée d’une trame.

250

filtre en peigne (comb filter) : filtre utilisé en NTSC ou en PAL pour la séparation optimale luminance/chrominance, dont la réponse en fréquence comporte des « dents » correspondant aux raies de la chrominance et des creux à celles de la luminance. flash EPROM : mémoire non volatile effaçable et réinscriptible électriquement (par blocs). granule : en MPEG audio (couche II), désigne un ensemble de 3 échantillons de sous-bande consécutifs (correspond à 96 échantillons PCM). groupe d’images (group of pictures) : en MPEG, suite d’images dépendant d’une même image Intra ; constitue l’unité d’accès élémentaire à une séquence vidéo MPEG. HD Ready : label accordé par l’EICTA aux téléviseurs ou moniteurs compatibles ave la télévision haute définition. homodyne : se dit d’un récepteur à conversion directe (voir aussi « zero IF »). isochrone : dans la terminologie du bus IEEE1394, désigne le mode « quasisynchrone » utilisé pour transporter des données au timing critique (audio et vidéo e temps réel par exemple). joint stereo : mode stéréophonique MPEG audio exploitant la redondance entre les voies gauche et droite soit par codage des signaux G + D et G – D (MS_stereo), soit par codage commun aux 2 voies des coefficients (sauf les facteurs d’échelle) des sous-bandes de rang élevé (intensity_stereo).

9782100520442-Livre.fm Page 251 Jeudi, 24. juin 2010 11:35 11

GLOSSAIRE

letterbox : appellation du format utilisé pour transmettre les films au format 16/9 (ou plus) sur un standard TV 4/3, en laissant deux bandes noires horizontales au dessus et au-dessous de l’image. macrobloc : ensemble de 16 × 16 pixels (4 blocs Y, 1 Cb et 1 Cr). masquage (masking) : occultation de la perception d’un son par un autre plus puissant et voisin en fréquence (masquage fréquentiel) ou dans le temps (masquage temporel). MediaFLO : système de télévision mobile personnelle développé par Qualcomm et utilisé aux États-Unis. FLO (Forward Link Only) signifie « lien descendant seulement ». Mediaguard : système d’accès conditionnel propriétaire développé par Canal+ Technologies. Mediahighway : moteur d’interactivité propriétaire développé par Canal+ Technologies. mini-DiSEqC : voir Toneburst. modèle psycho-acoustique : modèle mathématique du comportement du système auditif humain, notamment du phénomène de masquage d’un son faible par un son plus fort de fréquence proche. monobloc (LNB) : type particulier de LNB universel double pour la réception de deux satellites proches (par exemple Astra1 et Hotbird distants de 6,2°) avec une même parabole et un seul câble de descente.

© Dunod. La photocopie non autorisée est un délit.

multicrypt : une des possibilités de contrôle d’accès prévues par le système DVB, basée sur un module de contrôle d’accès détachable connecté via le « common interface ». multiplexage statistique : mode de multiplexage de plusieurs programmes affectant un débit variable à chaque programme du multiplex en fonction de son contenu, dans la limite du débit total admis par le canal RF. Son but est d’augmenter le nombre de programmes par canal en n’accordant un débit instantané élevé qu’aux passages les plus mouvementés d’un programme, aux dépens des autres programmes du multiplex suposés plus « calmes » à ces instants. Bien utilisé, ce système permet jusqu’à un doublement du nombre de programmes transmis sans dégradation sensible. niveau (level) : caractérise la résolution spatiale d’une émission MPEG-2. nœud : dans la terminologie du bus IEEE1394, désigne un participant connecté au bus. OpenTV : moteur d’interactivité propriétaire développé par la société du même nom, appartenant à la société suisse Kudelski S.A.

251

9782100520442-Livre.fm Page 252 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

orthogonal (échantillonnage) : orthogonal sampling ; méthode d’échantillonnage d’un signal vidéo au moyen d’une fréquence multiple entier de la fréquence ligne de manière à obtenir des échantillons situés sur une grille rectangulaire. orthogonalité : propriété d’un système à porteuses multiples lorsque l’écart entre porteuses consécutives est égal à l’inverse de la période symbole du signal modulant, de sorte que le spectre d’une porteuse s’annule pour la valeur des porteuses voisines (modulation OFDM). padding (ajustement) : méthode d’adaptation du débit d’un train binaire ou de la durée d’une trame audio par addition de bits non significatifs. papillotement (flicker) : variation périodique gênante de la luminosité d’une image lorsque sa fréquence de rafraîchissement est insuffisante (inférieure à 50 Hz environ). péritel : prise de Péritélévision à 21 broches (à l’étranger : SCART plug ou EUROCONNECTOR). perte d’implémentation (implementation loss) : différence de C/N (en dB) entre la courbe théorique BER = f (C/N) et celle mesurée dans un récepteur réel pour le taux d’erreur limite assurant une réception « quasi sans erreur » (BER = 10–4 avant correction de Reed-Solomon). 252

pixel (ou pel) : abréviation de picture element (élément d’image). Désigne le plus petit élément d’image d’un dispositif de prise de vue ou de visualisation. En TV numérique, correspond à la représentation visuelle d’un échantillon du signal vidéo. pixels carrés (square pixels) : mode d’échantillonnage d’une image vidéo assurant une résolution identique selon les deux axes (par exemple 640 × 480 pour une image au format 4/3). plug and play : littéralement « branchez et jouez » ; expression utilisée en informatique pour caractériser le fait qu’un périphérique est utilisable dès sa connexion sans avoir à reconfigurer manuellement le système. Un des objectifs des versions supérieures à 2.0 du bus DiSEqC pour la connexion des systèmes d’antennes satellite. poinçonnage (puncture) : opération consistant à ne prendre qu’une fraction des bits des trains binaires générés par un code convolutif pour réduire sa redondance, donc le débit, aux dépens de la robustesse (autre appellation : perforation). profil (profile) : caractérise la « boîte à outils » utilisée pour le codage MPEG-2. quantification (quantization) : définition d’une grandeur au moyen d’un nombre limité de valeurs, par exemple lors d’une conversion analogique/numérique ou d’un processus de compression.

9782100520442-Livre.fm Page 253 Jeudi, 24. juin 2010 11:35 11

GLOSSAIRE

Reed-Solomon (codage de) : partie « externe » du codage de canal, ajoutant 16 octets de parité aux paquets de 188 octets ; notation : RS(204, 188, 8) ; permet de corriger jusqu’à 8 octets. réversible : qualifie un codage ne perdant aucune information, permettant donc de retrouver l’information d’origine lors du processus inverse. roll-off (facteur de) : caractéristique du filtrage d’un signal numérique destiné à limiter sa bande passante (celle-ci sera égale au produit de la fréquence symbole par le facteur de roll-off + 1). scalable profile : qualifie certains « profils » MPEG-2 permettant d’obtenir plusieurs qualités (résolution spatiale ou rapport signal/bruit) de réception à partir du même bitstream. séquence : en MPEG, désigne une suite ininterrompue de groupes d’images (et de sons) définis avec les mêmes paramètres de base. set-top box (décodeur) : appellation anglo-saxonne familière d’un appareil périphérique de téléviseur (par exemple récepteur-décodeur MPEG ou IRD). seuillage (tresholding) : en compression vidéo, élimination des valeurs inférieures à un seuil prédéterminé considéré comme limite de perception pour réduire la quantité d’information. simulcast : transmission simultanée d’une émission selon deux standards (par exemple SECAM ou PAL et DVB), généralement pendant une période de transition entre ces standards.

© Dunod. La photocopie non autorisée est un délit.

simulcrypt : principe consistant à doter une émission à péage de messages ECM et EMM correspondant à plusieurs systèmes de contrôle d’accès afin d’en permettre la réception avec différents types de décodeurs. slice (tranche) : en MPEG, désigne une portion de l’image constituée de macroblocs horizontalement contigus (souvent une rangée complète) ; utilisée pour l’adressage intra-trame et la resynchronisation. suppression (intervalle de) : période inactive du signal vidéo (correspondant en gros au retour du spot sur l’écran), englobant les paliers avant et arrière et l’impulsion de synchronisation ligne. symbol rate (fréquence symbole) : nombre de symboles transmis par seconde. symbole : en transmission numérique, désigne l’élément d’information modulant, dont le nombre de bits dépend du type de modulation utilisée (par exemple 2 pour QPSK, 6 pour 64-QAM). table : ensemble d’informations de description permettant l’accès aux émissions DVB.

253

9782100520442-Livre.fm Page 254 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

ToneBurst : version de base du système DiSEqC permettant la commutation de deux antennes satellites. Elle consiste à envoyer une salve à 22 kHz de durée 12,5 ms, modulée ou non, au moment d’un changement de programme. trame audio (frame) : en MPEG audio, désigne la période élémentaire de 8 à 12 ms sur laquelle s’effectue le codage psycho-acoustique (correspond à 12 fois 32 échantillons PCM). trame vidéo (field) : désigne pour un signal vidéo entrelacé l’ensemble des lignes impaires (trame impaire) ou paires (trame paire) balayées successivement pour former une image. trame DVB-T : suite de 68 symboles OFDM. Quatre trames consécutives forment une supertrame. transpondeur (transponder) : dispositif d’un satellite de télécommunication diffusant vers les utilisateurs, après changement de fréquence et amplification, un canal de la « voie montante » en provenance de la station terrestre d’émission. universel (LNB) : se dit d’un LNB permettant de recevoir l’ensemble de la bande Ku au moyen de deux oscillateurs locaux à 9,75 et 10,60 GHz commutés par la présence ou l’absence d’un signal à 22 kHz superposé à la tension d’alimentation. 254

Viaccess : système d’accès conditionnel propriétaire développé par France Telecom et utilisé entre autres par TPS. zero IF (FI nulle) : technique dite de conversion directe, où la démodulation des signaux I et Q s’effectue directement à la fréquence à recevoir (l’oscillateur local est à la fréquence du signal reçu). Un récepteur utilisant cette technique est dit « homodyne » par opposition à la technique classique dite « hétérodyne ».

9782100520442-Livre.fm Page 255 Jeudi, 24. juin 2010 11:35 11

Bibliographie



Livres

© Dunod. La photocopie non autorisée est un délit.

BIC J.-C., DUPONTEIL D., Imbeaux J.-C. – Éléments de communication numérique. Dunod, 1986. Éléments of digital communication. Chichester, Wiley, 1991. BRIMAUD P. – Signal et Communications. Ellipses, 1995. CHAMBERS W.-G. – Basics of Communication and Coding. Oxford, Clarendon Press, 1985. COHEN et al. – Codes correcteurs d’erreur. Masson, 1992. HILL R. – A first course in coding theory. Oxford, Clarendon Press, 1986. MOREAU N. – Techniques de compression des signaux. Masson, 1995. PETERSEN D. – Audio, Video and Data Telecommunications. Mc Graw-Hill, 1992. POLI A., HUGUET L. – Codes correcteurs. Masson, 1989. REIMERS U. et al. – Digitales Fernsehtechnik. Berlin, Springer, 1995. RUIU D. et al. – Testing Digital Video. Amsterdam, Hewlett-Packard, 1997. SANDBANK C.-P. – Digital Television. Chichester, Wiley, 1990. ZIEMER A. et al. – Digitales Fernsehen. Heidelberg, R. v. Decker, 1994.



Articles de presse et autres publications

ALARD M., LASSALLE R. – Principes de modulation et de codage de canal en radiodiffusion numérique vers les mobiles. Revue technique de l’UER n° 224, août 1987. ASTRA Marketing – La télévision numérique par le système de satellites ASTRA. SES, avril 1996. BELLAÏCHE P., TICHIT B. – Compression numérique. Videobroadcast, mai et juillet 1994. BENOIT H. – Le bus DiSEqC. Le Haut Parleur n° 1855, décembre 1996. DVB project office – Going ahead with Digital Television. Mai 1995. DVB-H fact sheet : Broadcasting to Handhelds, avril 2009 (DVB project office). DVB-S2 fact sheet : 2nd generation satellite, avril 2009 (DVB project office). DVB-T2 fact sheet : 2nd generation terrestrial, avril 2009 (DVB project office). DVB-C2 fact sheet : 2nd generation Cable, avril 2009 (DVB project office).

255

9782100520442-Livre.fm Page 256 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

DVB-GSE fact sheet : Generic Stream Encapsulation, juillet 2009 (DVB project office). DVB IPTV fact sheet : Internet Protocol TV, juillet 2009 (DVB project office). FARIA Gérard (Teamcast, France), DVB-H: Digital TV in the hands ! (2005). MENIRI G. – Télévision Numérique : la réduction de débit. Videobroadcast, mars 1993 à avril 1994. MORELLO Alberto et MIGNONE Vittoria - DVB-S2 ready for take-off (EBU technical review, octobre 2004). SIENSTRA A., Technologies for DVB services on the Internet (IEEE Proceedings vol. 94, n° 1, janvier 2006). SCHÄFER Ralf et al., The emerging H.264/AVC standard, (EBU technical review, janvier 2003). SULLIVAN Gari G. et al., The H264/AVC Advanced Video Coding Standard, Overview and introduction to the Fidelity Range Extensions (SPIE conference, août 2004).



256

Documents officiels

ARIB STD-B31:2005, Transmission system for digital terrestrial television broadcasting. Brazilian Standard ABNT NBR 15601, Digital Terrestrial Television – Transmission system. BT 601 (ITU-R), Studio encoding parameters of digital television for standard 4:3 and wide screen 16:9 aspect ratios (Recommandation CCIR 601). BT 656 (ITU-R), Interfaces for digital component video signals in 525 lines and 625 lines television systems operating at the 4:2:2 level of Rec. 601 (Recommandation CCIR 656). CSA : Doc CTE-TTNT/GT3-03, v 1.0 (Juillet 2001) Services et profil de signalisation pour la TNT. DVB document A080 : IP Datacast Baseline Specification (specification of interface I_MT). DVB document A086 : DVB-IPI_handbook (Transport of DVB services over IP). DVB Document A 133, Implementation guidelines for a second generation digital terrestrial television broadcasting system (DVB-T2). EN 302 304 (ETSI) Transmission System for Handheld terminals (DVB-H). EN 302 307 (ETSI) Second Generation framing structure…etc…for satellite applications (DVB-S2). EN 302 583 (ETSI), Framing Structure, channel coding and modulation for Satellite Services to Handheld (SH) devices below 3 GHz. EN 50221 (CENELEC), Common Interface Specification for Conditionaal Access and other DVB decoder applications (DVB-CI). ETR154 (ETSI/UER), Implementation guidelines for the use of MPEG-2 systems, audio and video in satellite and cable broadcasting applications. ETR162 (ETSI/UER), Allocation of SI codes for DVB systems. ETR211 (ETSI/UER), Guidelines for implementation of DVB-SI. ETR289 (ETSI/UER), Common scrambling (DVB-CS) sytem description. ETS 300 421 (ETSI/UER), Framing structure channel coding and modulation for satellite services. ETS 300 429 (ETSI/UER), Framing structure channel coding and modulation for cable services. ETS 300 468 (ETSI/UER), Specification for Service Information (SI) in DVB systems. ETS 300 472 (ETSI/UER), Specification for conveying ITU-R system B Teletext in DVB bitstreams.

9782100520442-Livre.fm Page 257 Jeudi, 24. juin 2010 11:35 11

© Dunod. La photocopie non autorisée est un délit.

BIBLIOGRAPHIE

ETS 300 744 (ETSI/UER), Framing structure channel coding and modulation for terrestrial services. ETS 300 748 (ETSI/UER), Framing structure channel coding and modulation for MVDS at 10 GHz and above (norme basée sur ETS 300 421). ETS 300 749 (ETSI/UER), Framing structure channel coding and modulation for MMDS below 10 GHz (norme basée sur ETS 300 429). ETS 300 800 (ETSI/UER), DVB interaction channels for cable TV distribution systems (CATV). IEEE1394-1995 (IEEE/ISO), Standard for a high performance serial bus. HDMI Specification version 1.4 (HDMI). ISO 10918 (ISO/IEC), Digital compression and coding of continuous tone still images (JPEG). ISO 11172-1, 11172-2, 11172-3 (ISO/IEC), Coding of moving pictures and associated audio for digital storage media up to about 1.5 Mb/s (MPEG-1 system, video, audio). ISO/IEC 13818-1 Information technology -- Generic coding of moving pictures and associated audio information -- Part 1: Systems ISO/IEC 13818-2 Information technology -- Generic coding of moving pictures and associated audio information: -- Part 2: Video ISO/IEC 13818-3 Information technology -- Generic coding of moving pictures and associated audio information -- Part 3: Audio ISO/IEC 13818-4 Information technology -- Generic coding of moving pictures and associated audio information -- Part 4: Conformance testing ISO/IEC TR 13818-5 Information technology -- Generic coding of moving pictures and associated audio information -- Part 5: Software simulation ISO/IEC 13818-6 Information technology -- Generic coding of moving pictures and associated audio information -- Part 6: Extensions for DSM-CC ISO/IEC 13818-7 Information technology -- Generic coding of moving pictures and associated audio information -- Part 7: Advanced Audio Coding (AAC) ISO/IEC 13818-9 Information technology -- Generic coding of moving pictures and associated audio information -- Part 9: Extension for real time interface for systems decoders ISO/IEC 13818-10 Information technology -- Generic coding of moving pictures and associated audio information -- Part 10: Conformance extensions for Digital Storage Media Command and Control (DSM-CC) EUTELSAT, DiSEqC Bus functional specification (version 4.0, 22/03/96). EUTELSAT, DiSEqC Update and recommendations for implementation (version 1.0, 22/03/96). TR 101 190 (ETSI) Measurement guidelines for DVB systems. TR 101 200 (ETSI) A guideline for the use of DVB specifications. TR 102 376 (ETSI), User guidelines for the second generation system for Broadcasting, Interactive Services, News Gathering and other broadband satellite applications (DVB-S2). TR 102 377 (ETSI) Transmission to Handheld terminals ; DVB-H Implementation Guidelines TR 102 401 (ETSI) Transmission to Handheld terminals ; Validation Task Force Report TS 101 154 (ETSI) Implementation guidelines…etc… based on the MPEG-2 transport stream. TS 101 812 (ETSI), Multimedia Home Platform (revision 1.0).

257

9782100520442-Livre.fm Page 258 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

TS 102 034 (ETSI) Transport of MPEG-2 based DVB services over IP Based Networks. TS 102 539, Carriage of Broadband Content Guide (BCG) Information over Internet Protocol. TS 102 585, System Specifications for Satellite services to Handheld devices (SH) below 3 GHz.



258

Quelques adresses Internet

ARCEP : ASTRA : ATSC : Bluetooth : Cable Labs : CI Plus : CSA : DiBEG : Digitag : DLNA : DTG : DTV : DVB : EBU (UER) : EICTA : ETSI : EuroCable Labs : EUTELSAT : HDMI : IEC (CEI) : IEEE : ISO : Liberate : MediaFLO : OpenCable : OpenTV : SCTE : TDF : Tcom labs : Tenor : TNT : TV anytime :

http://www.arcep.fr http://www.ses-astra.com http://www.atsc.org http://www.bluetooth.org http://www.cablelabs.org http://www.ci-plus.com/index.php http://www.csa.fr http://www.dibeg.org/ http://www.digitag.org http://www.dlna.org/home http://www.dtg.org.uk http://www.dtv.org.br http://www.dvb.org http://www.ebu.ch http://www.eicta.org http://www.etsi.fr http://www.eurocablelabs.com http://www.eutelsat.com http://www.hdmi.org http://www.iec.org http://www.ieee.org http://www.iso.ch http://www.liberate.com http://www.mediaflo.com/ http://www.opencable.com http://www.opentv.com http://www.scte.org http://www.tdf.fr http://www.tcomlabs.com http://www.tenor.fr http://www.tnt-gratuite.fr http://www.tv-anytime.org

9782100520442-Livre.fm Page 259 Jeudi, 24. juin 2010 11:35 11

Index

1080p, 24 1280i, 24 3DTV, 168 4:2:0, 22 4:2:2, 20 720p, 24 A AC3, 66 ADSL, 174 aliasing, 18 API, 151 ATSC, 225 ATSC-M/H, 189 AU, 69 B balayage

© Dunod. La photocopie non autorisée est un délit.

entrelacé, 7 progressif, 6

BAT, 81 BBFRAME, 125 BCH, 126, 195 BER, 95, 110 bit de parité, 191 BLA, 104 bloc, 31, 35, 42, 137, 192 Blu-ray, 171 C CA, 87 CABAC, 54 CAM, 90 CAT, 79, 83, 91 CAVLC, 54 CI+, 234

CIF, 23 CMMB, 190 CNR, 103 Codage, 98 codage convolutif, 100, 196 de canal, 25 de Hamming, 194 de Huffman, 29, 36 de Reed-Solomon, 98, 195 de source, 25 perceptuel, 58

COFDM, 115, 145 constellation, 108, 111, 113, 119 couches, 41 CSA, 87 CVBS, 10 D D2MAC, 13 DAVIC, 143 DCT, 30, 35 DiSEqC, 203 dispersion d’énergie, 96 DLNA, 173 DOCSIS, 142 Dolby Digital, 65–66 Dolby Digital Plus, 67 DPCM, 35 DSS, 223 DTMB, 165, 229 DTS, 70 DVB, 88, 124, 134, 136 DVB-C, 109

DVB-C2, 124, 132 DVB-CI, 231 DVB-CI+, 173 DVB-H, 181 DVB-MHP, 159 DVB-S, 109 DVB-S2, 124, 128 DVB-SH, 183 DVB-SI, 80–81 DVB-T, 115, 117, 123, 143 DVB-T2, 124, 131 E e-AC3, 67 échantillon de sous-bande, 58 échantillonnage, 18, 20 orthogonal, 19 ECM, 91–92 efficacité spectrale, 104, 130, 199 égaliseur d’échos, 113 EIT, 80–82 embrouillage, 87 EMM, 91–92 entrelacement, 49, 98, 127 EPG, 85 ES, 69, 73 Eurocrypt, 14 F facteur d’échelle, 59 FEC, 95, 138, 192 FECFRAME, 126–127 FEF, 132 fibre optique, 174

259

9782100520442-Livre.fm Page 260 Jeudi, 24. juin 2010 11:35 11

LA

TÉLÉVISION NUMÉRIQUE

filtre de Nyquist, 105 frames, 50, 120 G GOP, 40, 42 granule, 62, 64 groupe d’images, 40, 42 GSE, 124 H H264/AVC, 53 HDTV, 167 HNED, 176 I-J iDTV, 172 IEEE1394, 213 image, 42, 49 IP, 174, 178 IPTV, 174 IRD, 135 ISDB-T, 227 ISI, 105 JPEG, 34 260

L LCN, 85 LDPC, 126 letterbox, 15 LNC, 137 lunettes actives, 171 passives, 171 M macrobloc, 42 masquage fréquentiel, 57 temporel, 57

MediaFLO, 188 MediaHighway, 155 MHEG-5, 157 MHP, 159 middleware, 151, 157 modèle psycho-acoustique, 57 MP@ML, 22, 48 MPE, 181 MPE-FEC, 181 MPEG, 37, 39, 56, 63 MPEG-1, 38, 61, 69

MPEG-2, 46, 73, 76 MPEG-4.10, 53 MSB, 114 Multicrypt, 88 multiplexage, 69 MUSICAM, 62 N NAL, 53 NIT, 80–81 niveaux, 46 NTSC, 11 O OFDM, 115 OpenTV, 156 orthogonalité, 115 P padding, 71 PAL, 13 PAL+, 15 PAT, 79, 82 PCR, 78 perte d’implémentation, 111 PES, 70, 73, 76, 78, 89, 135 PID, 91 PMT, 80, 83, 91 poinçonnage, 101, 123 PRBS, 96 profils, 46 PSI, 79 PTS, 70 PU, 69 PUSI, 84 PVR, 148 Q QAM, 11, 107, 141 QCIF, 23 QEF, 95 QPSK, 108, 110, 114, 128, 138 quadrature, 107 quantification, 19, 33, 35, 56 R rapport signal/bruit, 103, 110, 112, 130, 133 RLC, 28, 36 roll-off, 105 RST, 81

RTP, 178 S SCR, 71 SDT, 80–81 SECAM, 12 sections, 84 séquence, 25, 41 set-top box, 135, 146 seuillage, 33, 35 SFN, 119 SIF, 22 Simulcrypt, 88 slice, 42, 48 ST, 81 STC, 71 symbol mapping, 99 symboles, 24 T T-DMB, 187 TDMS, 218 TDS-OFDM, 166 TDT, 81 TMP, 181 TNT, 163 TNT HD, 172 ToneBurst, 203, 205 TOT, 81 TPS, 121 trame, 50, 120 tranche, 42 TSDT, 79, 83 TSR, 148 turbocodes, 186 TVHD, 24 TVoIP, 174 U-V-W USALS, 211 VBS, 7 VCL, 53 VLC, 28, 36 VSB, 104 WSS, 16 Z zero IF, 137 ZIF, 137 zigzag, 33, 36