38 0 489KB
2011 TP n°2: TELECOM
-CHARAF MOHAMED EL MEHDI -LAGRAWI HAMZA MASTER RESEAUX & TELECOMMUNICATIONS 2011/2012
TP n°2: TELECOM Pr. M BOUSMAH Pr. Mme LABOUIDYA Pr. M SABRI
Binôme :
LAGRAWI HAMZA
CHARAF Mohamed EL Mehdi
1. La commande permettant la saisie de cette matrice : Pxy=[1/15 3/15 1/15;8/27 7/27 1/27;1/27 4/135 1/135] 2. La commande permettant de vérifier que :
sum(sum(Pxy)) 3. Le programme permettant de vérifier que : s=0; for i=1:3 for j=1:3 s=s+Pxy(i,j); end end disp(s)
4. La commande permettant de calculer les probabilités P(xi): Px1=sum(Pxy(1,:)),Px2=sum(Pxy(2,:)),Px3=sum(Pxy(3,:))
• sum(Pxy(1,:)) = 0.3333 • sum(Pxy(2,:))= 0.5926 • sum(pxy(3, :))= 0.0741
5. Le programme permettant de calculer les probabilités P(xi): for i=1:3 s=0; for j=1:3 s=s+Pxy(i,j); end Px(i)=s; end disp(Px)
6. La commande permettant de calculer les probabilités P(yj): Py1=sum(Pxy(:,1)),Py2=sum(Pxy(:,2)),Py3=sum(Pxy(:,3))
• sum(Pxy( :,1)) = 0.4000 • sum(Pxy( :,2))= 0.4889 • sum(pxy( :, 3))= 0.1111 7. Le programme permettant de calculer les probabilités P(yj): for j=1:3 s=0; for i=1:3 s=s+Pxy(i,j); end Py(j)=s; end disp(Py)
8. la commande permettant de calculer l'entropie conjointe H(X,Y) : Hxy=-sum(sum(Pxy.*log2(Pxy))) =2.5652 9. le programme permettant de calculer l'entropie conjointe H(X,Y) :
Hxy=0; for i=1:3 for j=1:3 Hxy=-Pxy(i,j).*log2(Pxy(i,j))+Hxy; end end
disp(Hxy)
10. la commande permettant de calculer l'entropie H(X) : Hx=-sum(Px.*log2(Px)) 11. la commande permettant de calculer l'entropie H(Y) : Hy=-sum(Py.*log2(Py)) 12. Les deux sources sont-elles indépendantes ? Justifier votre réponse Non les deux sources ne sont pas indépendantes car : H(Y,X ) ˂ H(X). H(Y) 13. la commande permettant de calculer l'entropie H(Y/X ) : Hylx=hxy-Hx 14. la commande permettant de calculer l'entropie H(X/Y) : Hxly=hxy-Hy 15. la commande permettant de calculer la quantité d'information mutuelle I(X, Y) : Ixy=Hx+Hy-hxy 16. Conclusion :
Ixy est petit cela influence sur le canal
TP12 On considère une source binaire avec deux symboles "0" et "1" de probabilités respectives p et 1-p et une entropie H(S) :
1. le programme permettant de représenter l’entropie H(S) en fonction de p: P=0:1/100:1; H=-P.*log2(P)-(1-P).*log2(1-P); plot(P,H), grid on xlabel('P'),ylabel('H')
2. Représentation de résultat :
3. Conclusion : L’entropie est maximale pour P=0,5 et vaut zéro pour P=0 et P=1
TP13 On considère la chaîne de transmission suivante:
La capacité C du canal est atteinte lorsque les deux symboles de la source d'entrée sont équiprobables (voir cours) avec:
1. le programme permettant de représenter C en fonction de p:
P=0:1/100:1; C=1+P.*log2(P)+(1-P).*log2(1-P); plot(P,C),grid on xlabel('P'),ylabel('C')
2. Représentation de résultat :
3. Conclusion : Lorsque la probabilité d'erreur est de 50%, la capacité du canal est nulle, lorsqu'elle est égale à 0% ou 100% la capacité du canal est maximale (une erreur de 100% correspond à une simple inversion des bits "0" et "1" par le canal) TP14 Une source X génère des symboles à partir d’un alphabet à 8 lettres {A, B, C, D, E, F, G, H} avec des probabilités : P(A)=0.15, P(B)=0.15, P(C)=0.06, P(D)=0.1, P(E)=0.4, P(F)=0.1, P(G)=0.02, P(H)=0.02 1. la commande permettant de calculer l’entropie de la source
Hx= -sum((Px).*log2(Px)
2. Code Huffman a. Générez le code Huffman pour cette source en utilisant le programme huffman.m ci-joint.
symbole
A
B
C
D
E
F
G
H
code
010
001
00010
011
1
0000
000110
000111
b. Représenter l’arbre de ce codage
c. Générez manuellement le code Huffman pour cette source
d. Déduire son efficacité et sa redondance
Efficacité = 0.97777 Redondance = 0.022231 e. Conclusions Le codage de Huffman est un algorithme de compression de données sans perte.
3. Code Shannon-Fano
3
Code Shannon-Fano a) Générez manuellement le code Shannon-Fano pour cette source
symbole code
A 100
B 01
C 1110
D 101
c. Calculez son efficacité et sa redondance
E 00
F 110
G 11110
H 11111
d. Représenter l’arbre de ce codage