36 0 350KB
Appunti di Teoria dei Fenomeni Aleatori Ernesto Conte
Carmela Galdi
22 ottobre 2002
ii
Indice 1 Fondamenti 1.1 Esperimento aleatorio . . . . . . . . . . 1.1.1 Spazio dei campioni. Eventi . . 1.1.2 Operazioni tra eventi . . . . . . 1.1.3 Algebre e -algebre . . . . . . 1.1.4 Gli assiomi della probabilit`a . . 1.2 Esempi di spazi di probabilit`a . . . . . . 1.2.1 Lancio di una coppia di dadi . . 1.2.2 Sorgente binaria senza memoria 1.2.3 Spazio dei campioni discreto . . . . . . 1.2.4 Coppia di arrivi in 1.3 Definizioni alternative di probabilit`a . . 1.3.1 Definizione classica . . . . . . 1.3.2 Frequenza relativa . . . . . . . 1.4 Tecniche di conteggio . . . . . . . . . . 1.5 Eventi indipendenti . . . . . . . . . . . 1.6 Probabilit`a condizionata . . . . . . . . 1.7 Leggi Fondamentali . . . . . . . . . . . 1.8 Probabilit`a, incertezza ed informazione. 1.9 Esercizi . . . . . . . . . . . . . . . . . 2 Variabili e vettori aleatori 2.1 Variabili aleatorie . . . . . . . . . . . 2.2 Spazio di probabilit`a generato dalla
2.3 Funzione di Distribuzione Cumulativa 2.3.1 CDF empirica . . . . . . . . . 2.3.2 Propriet`a della CDF . . . . . 2.4 Variabili aleatorie discrete . . . . . . 2.5 Variabili aleatorie continue. . . . . . . 2.6 Distribuzioni e densit`a condizionate. . 2.7 Vettori aleatori . . . . . . . . . . . . 2.8 CDF congiunta di v.a. doppie. . . . . 2.9 Variabili aleatorie discrete doppie. . . 2.10 Variabili aleatorie continue doppie. . . iii
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
1 1 2 6 9 11 15 15 16 18 19 21 21 21 23 32 34 37 43 46
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
1 1 7 8 11 13 16 21 25 27 30 33 36
2.11 V.a. doppie: CDF, pmf e pdf condizionate. . . . . 2.11.1 Coppie di v.a. discrete: pmf condizionate. 2.11.2 Coppie di v.a.continue: pdf condizionate. 2.12 Caratterizzazione probabilistica di ve.a.. . . . . . 2.12.1 Distribuzioni e densit`a condizionate . . . 2.13 Variabili aleatorie indipendenti . . . . . . . . . . 2.14 Esercizi . . . . . . . . . . . . . . . . . . . . . .
iv
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
38 39 40 42 43 44 49
Capitolo 1
Fondamenti Nello studio dei fenomeni fisici e` di fondamentale importanza avere a disposizione un modello matematico che renda possibile la descrizione o la predizione di alcune caratteristiche di interesse. La relazione fornisce ad esempio il modello matematico per descrivere la velocit`a di un corpo in caduta libera nel vuoto. Questo e` un esempio di modello deterministico in quanto ripetendo pi`u volte lo stesso esperimento si osserveranno, essenzialmente, gli stessi valori di velocit`a in determinati punti dello spazio. In condizioni non ideali tuttavia, questa legge pu`o fornire risultati completamente inadeguati: si pensi, ad esempio, al moto di una particella di polvere soggetta, oltre all’accelerazione di gravit`a, anche all’azione di disturbi ambientali difficilmente predicibili, quali gradienti di temperatura, pressione e umidit`a.
Lo scopo della teoria della probabilit`a e` quello di fornire modelli matematici per trattare situazioni non predicibili in maniera deterministica. I primi studi sulla teoria della probabilit`a risalgono al 1650 quando il Cavalier de M´er´e chiese agli amici Pascal e Fermat di sviluppare un modello matematico per descrivere alcune “ricorrenze del gioco d’azzardo”. Pi`u avanti, verso gli inizi del 1900, basandosi sulle idee di Emile Borel circa la teoria della misura, Andr´e Kolmogorov elabor`o un insieme di assiomi tramite i quali la teoria della probabilit`a poteva essere formalizzata mediante la teoria della misura. Lo scopo del seguente capitolo e` di fornire i concetti fondamentali della teoria della probabilit`a insieme con le linee di guida per una sua corretta applicazione.
1.1 Esperimento aleatorio Scopo di questo paragrafo e` la definizione formale di un esperimento aleatorio: a tal fine e` necessario introdurre l’insieme dei possibili risultati dell’esperimento in esame, gli eventi e la legge di probabilit`a come verr`a illustrato nei sotto-paragrafi seguenti. 1
1.1.1 Spazio dei campioni. Eventi Ogni volta che si effettua un esperimento si osserva la risposta dell’ambiente ad una data sollecitazione e se ne ricava un risultato sperimentale. La singola esecuzione di un esperimento si chiama prova e ad ogni prova corrisponde un risultato, diciamolo . Per un dato esperimento l’insieme di tutti i possibili risultati si chiama spazio dei campioni o spazio delle prove e pu`o essere finito, infinito numerabile (cio`e indicizzabile mediante l’insieme degli interi positivi), o infinito non numerabile. Se lo spazio dei campioni e` finito o numerabile lo diremo anche discreto.
Esempio: sorgente binaria. Si consideri una sorgente che emetta simboli binari. Se l’esperimento consiste nell’emissione da parte della sorgente di un solo simbolo, lo spazio dei campioni e` l’insieme
Se invece si osserva l’emissione di un pacchetto di simboli, sinteticamente -pacchetto, il generico risultato e` un’ennupla ordinata di cifre binarie del tipo
cio`e l’insieme delle -ple binarie: anche caso lo spazio delle prove , einpu`questo e` finito, precisamente ha cardinalit`a o essere rappresentato in forma tabellare come illustrato in tabella 1.1 per . ed il corrispondente spazio dei campioni e` :
Se, infine, si osserva l’emissione della sorgente fino a quando non si ottiene un 1, il risultato e` del tipo
Il corrispondente spazio dei campioni e`
ed e` infinito numerabile. Esempio: lancio di dadi. Si consideri il lancio di un dado: per tale esperimento lo spazio dei campioni e` :
"! ! !"# !$ !"% !"&
2
#
#
$
% &
Tabella 1.1: Spazio dei campioni per pacchetti di lunghezza 3. cio`e l’insieme delle 6 facce del dado. Se poi si lancia il dado due volte o, equivalentemente, si lancia una coppia di dadi lo spazio dei campioni e` :
"! ! !"# !$ !"% !"&
ed e` illustrato in tabella 1.2.
! ! !"# !$ !"% !"&
! ! ! ! ! !
! ! !"# !$ !"% !"&
! ! ! ! ! !
! ! !"# !$ !"% !"&
!"# !"# !"# !"# !"# !"#
! ! !"# !$ !"% !"&
!$ !$ !$ !$ !$ !$
! ! !"# !$ !"% !"&
!"% !"% !"% !"% !"% !"%
! ! !"# !$ !"% !"&
!"& !"& !"& !"& !"& !"&
Tabella 1.2: Spazio dei campioni relativo al lancio di una coppia di dadi.
Esempio: coppie di arrivi in . Si consideri l’arrivo di un viaggiatore e di un treno in una certa stazione nell’intervallo . Il generico risultato e` la coppia
degli istanti di arrivo del viaggiatore e del treno ed il corrispondente spazio dei campioni e`
3
Pertanto, in questo caso, lo spazio delle prove e` il quadrato di figura 1.1.1 ed e` infinito non numerabile, precisamente e` continuo.
Figura 1.1: Lo spazio delle prove relativo ad una coppia di arrivi.
Considerato un esperimento siamo interessati a sapere se i risultati soddisfino o meno determinate condizioni: siamo cio`e interessati a conoscere se si verifichino o meno determinati eventi. Formalmente un evento e` una proposizione concernente i possibili risultati dell’esperimento: tale proposizione definisce un sottoinsieme di risultati, cio`e un sottoinsieme dello spazio dei campioni . L’evento si verifica in una generica prova dell’esperimento se il particolare risultato di tale prova appartiene ad , cio`e se .
Esempio: sorgente binaria (continuazione). Con riferimento all’emissione di un pacchetto di lunghezza 3 sono, ad esempio, eventi
“il numero di uno nel pacchetto e` pari o nullo”
“il numero di uno e` minore di due”
#
“il numero di uno e` uguale a due”
Se si effettua una prova il cui risultato e` verificano mentre non si verifica.
4
gli eventi
# ed
si
Esempio: coppie di arrivi in
(continuazione).
Analogamente sono eventi (fig. 1.1.1):
#
“il viaggiatore ed il treno arrivano contemporaneamente”
e ” “il viaggiatore arriva tra
“il viaggiatore arriva prima del treno”
#
Figura 1.2: Alcuni eventi relativi all’esempio 3.
Si noti che lo spazio dei campioni e` esso stesso un evento cos`ı come si include tra gli eventi anche l’insieme vuoto . L’evento si verifica in ogni prova, per cui viene
5
detto evento certo, mentre l’evento e` l’evento impossibile in quanto non si verifica mai. Infine gli eventi del tipo , costituiti cio`e da un unico risultato, sono detti eventi elementari.
1.1.2 Operazioni tra eventi Gli eventi sono sottoinsiemi dello spazio dei campioni e le operazioni sugli eventi corrispondono pertanto alle usuali operazioni tra sottoinsiemi. Cos`ı ad esempio, la
W
W
Figura 1.3: Diagrammi di Venn relativi alla disgiunzione e alla congiunzione di eventi
disgiunzione di due eventi e , cio`e l’evento o , e` l’evento che si verifica quando si verifica almeno uno tra i due eventi, eventualmente entrambi: essa coincide quindi con l’unione dei sottoinsiemi e , cio`e col sottoinsieme costituito dai risultati che appartengono ad oppure a , eventualmente ad entrambi, e sar`a pertanto denotata , oppure , (vedi figura 1.3). con Analogamente la congiunzione di due eventi e e` l’evento che si verifica quando si verificano sia che ; coincide quindi con l’intersezione dei sottoinsiemi e , cio`e col sottoinsieme costituito dai risultati che appartengono sia ad che a e la si denota pertanto con , oppure , (vedi figura 1.3). Due eventi e la cui intersezione e` non vuota si dicono compatibili in quanto, in una prova dell’esperimento in esame, possono verificarsi entrambi. Viceversa, due eventi e che non possono mai verificarsi contemporaneamente, cio`e per i quali , si dicono mutuamente esclusivi o incompatibili (figura 1.4). La negazione di un evento e` l’evento che si verifica ogni volta che non si verifica ; essa e` pertanto il complemento del sottoinsieme , cio`e il sottoinsieme costituito da tutti i risultati che non appartengono ad (figura 1.4). Ovviamente un evento ed il suo negato sono sempre mutuamente esclusivi.
6
W
W
Figura 1.4: Diagrammi di Venn relativi alla negazione di eventi e ad eventi mutuamente esclusivi.
Infine la differenza tra due eventi e` l’evento che si verifica ogni volta che si verifica , ma non ; essa e` pertanto il sottoinsieme costituito dai risultati che appartengono ad e non appartengono a ; in altri termini si ha:
Per comodit`a del lettore nella tabella 1.3 sono riportate le pi`u comuni propriet`a di unione, intersezione e complementazione. Esempio: sorgente binaria (continuazione). Con riferimento all’emissione di un pacchetto di lunghezza 3, si riprendano in esame gli eventi
#
“il numero di uno nel pacchetto e` pari o nullo”
“il numero di uno e` minore di due”
degli eventi ed e` l’evento La disgiunzione “il numero di uno nel pacchetto e` minore od uguale a due” e` l’evento mentre la loro congiunzione “il numero di uno nel pacchetto e` nullo” “il numero di uno e` uguale a due”
7
Idempotenza
Associativit`a
Commutativit`a
Distributivit`a
Leggi di De Morgan
Complementazione
e
Tabella 1.3: Principali propriet`a dell’unione e dell’intersezione
Quindi ed sono compatibili ed in ogni prova si verificano o meno entrambi . Analogamente la congiunzione di a seconda che il risultato sia o no ed e` l’evento
#
# # # # #
“il numero di uno nel pacchetto e` due”
Pertanto anche ed sono compatibili: in particolare se il risultato della prova e` (oppure o ) si verificano entrambi, mentre se il risultato e` si verifica e no; infine se il risultato e` (oppure , o ) non si verifica nessuno dei due.
Viceversa, avendosi
e
sono mutuamente esclusivi.
e` l’evento
La differenza
,
”ilnumero di uno nel pacchetto e` pari o nullo e non minore di due”
Infine l’evento
”ilnumero di uno nel pacchetto e` dispari” 8
e` il complemento di
.
Come e` noto le usuali operazioni insiemistiche possono essere eseguite anche su famiglie infinite, numerabili o pi`u che numerabili, di sottoinsiemi; inoltre, nel caso di spazi delle prove infiniti, occorre anche effettuare dei ragionamenti limite. A tal fine ricordiamo che si definiscono i limiti per successioni monotone di sottoinsiemi. Precisa crescente di sottoinsiemi, soddisfacente mente il limite di una successione cio`e la condizione:
e` per definizione
In alternativa e` anche utilizzata la notazione:
Analogamente il limite di una successione soddisfacente cio`e la condizione:
e` per definizione
o, con altra notazione:
decrescente di sottoinsiemi,
1.1.3 Algebre e -algebre Quando si sono introdotti gli eventi, volutamente, non si e` discusso se tutti i sottoinsiemi dello spazio delle prove siano eventi. Invero ci`o non e` sempre conveniente o possibile. Infatti non sempre e` conveniente considerare eventi tutti i possibili sottoinsiemi dello spazio delle prove; ad esempio, con riferimento alla sorgente binaria, se siamo interessati non alla struttura del pacchetto di bit ma solo alla sua parit`a, a sapere cio`e se il numero di bit costituenti il pacchetto e` o meno pari, e` conveniente limitarsi a considerare solo tale evento (pi`u in generale solo gli eventi di interesse) e quelli che si ottengono operando con le usuali operazioni insiemistiche a partire da tale evento. E` quindi necessario garantirsi che operando su tali sottoinsiemi si ottenga ancora 9
un evento: ci`o porta ad imporre alcuni condizioni sull’insieme degli eventi che si sintetizzano dicendo che deve essere un’algebra. Formalmente una famiglia non vuota di sottoinsiemi di e` un’algebra di eventi se
- A1: - A2:
Dalle condizioni A1 ed A2 segue che sono soddisfatte anche le seguenti propriet`a:
- P1: - P2:
- P3: - P4:
Un’algebra di eventi e` pertanto chiusa rispetto alle operazioni di complementazione, unione ed intersezione eseguite su un numero finito di eventi. Talvolta e` per`o necessario operare dei ragionamenti al limite per cui occorre prendere in esame successioni di eventi: in tal caso si richiede che comunque si operi su una successione di eventi si abbia ancora un evento. Ci`o porta ad imporre che non solo sia un’algebra, ma una -algebra. Precisamente un’algebra di eventi e` una -algebra se: - A2.b
In altri termini una -algebra e` chiusa rispetto alle operazioni di complementazione, unione ed intersezione eseguite su un numero finito o un’infinit`a numerabile di eventi; conseguentemente anche il limite di una successione monotona di eventi e` un evento. Infine si osservi che le famiglie
ove
denota l’insieme di tutti i sottoinsiemi di (insieme delle parti di ), costituiscono, rispettivamente, la pi`u piccola e la pi`u grande -algebra (algebra); inoltre la pi`u piccola -algebra (algebra) contenente un dato evento e`
10
1.1.4 Gli assiomi della probabilit`a
Ad ogni evento occorre associare un numero tal fine consideriamo la funzione:
che ne misura la probabilit`a; a
ove e` l’insieme degli eventi. Tale corrispondenza non pu`o essere arbitraria, ma deve soddisfare le seguenti condizioni (assiomi della probabilit`a): A1. Non negativit`a:
A2. Normalizzazione:
A3b: Numerabile additivit`a:
A3a. Finita additivit`a:
e
Gli assiomi della probabilit`a sono anche noti come assiomi di Kolmogorov dal nome del fondatore dell’approccio assiomatico. Essi affermano che la probabilit`a di un qualsiasi evento e` non negativa (A1), che l’evento certo ha probabilit`a uno (A2) ed inoltre la probabilit`a di due eventi mutuamente esclusivi e` la somma delle probabilit`a dei singoli eventi (A3a); tale propriet`a vale anche per un’infinit`a numerabile di eventi a due a due mutuamente esclusivi (A3b). Si noti che in alternativa all’assioma della numerabile additivit`a molti autori preferiscono considerare l’assioma di continuit`a:
A3b bis: Continuit`a della probabilit`a:
ove l’uguaglianza deve valere per ogni successione monotona, crescente o decrescente, di eventi. E` possibile dimostrare che l’assioma di continuit`a e` equivalente a quello della numerabile additivit`a. Dagli assiomi di Kolmogorov segue che la probabilit`a gode anche delle seguenti propriet`a: 11
P1:
P2:
P3: P4: P5:
(monotonicit`a)
(subadditivit`a)
ove le varie relazioni valgono qualunque siano gli eventi o . In altri termini la probabilit`a dell’evento impossibile e` nulla; la probabilit`a di una negazione e` semplicemente il complemento ad uno della probabilit`a dell’affermazione; la probabilit`a di una differenza e` la differenza tra la probabilit`a del primo evento e quella della congiunzione; la probabilit`a di una disgiunzione e` , per eventi non necessariamente mutuamente esclusivi, pari alla somma delle probabilit`a degli eventi costituenti meno quella della loro congiunzione; infine la probabilit`a e` crescente rispetto alla relazione d’inclusione.
W
W
Figura 1.5: Diagrammi di Ven per
La dimostrazione della prima propriet`a segue dall’applicazione dell’additivit`a all’uguaglianza
Analogamente, applicando l’assioma dell’additivit`a alla relazione
e tenendo presente l’assioma di normalizzazione si ricava la propriet`a P2. Per quanto concerne P3, consideriamo due eventi arbitrari e : come e` immediato verificare (vedi figura 1.5) si ha:
12
da cui, essendo gli eventi della probabilit`a si ha che:
e
mutuamente esclusivi, per l’additivit`a
onde la P3. Per quanto concerne la P4 innanzi tutto osserviamo che si ha (vedi figura 1.5):
con e probabilit`a si ha:
eventi mutuamente esclusivi. Pertanto, per l’additivit`a della
da cui, per la P3, segue l’asserto. Si noti che la P4 vale anche per un numero finito eventi, si ha cio`e:
o un’infinit`a numerabile di
(1.1)
Tale disuguaglianza prende il nome di numerabile subadditivit`a o maggiorazione dell’unione (Union Bound). Con ragionamento analogo a quello seguito per la dimostrazione della P4, e` possibile dimostrare anche la monotonicit`a della probabilit`a (P5). Precisamente, come illustrato in figura 1.6, risulta:
da cui, essendo gli addendi mutuamente esclusivi, segue che:
W
Figura 1.6: Diagramma di Ven di
13
Per comodit`a del lettore gli assiomi e le propriet`a della probabilit`a sono riassunte nella tabella 1.4.
A1
Non negativit`a
A2
Normalizzazione
A3a
Finita additivit`a
A3b
Numerabile additivit`a
Continuit`a
A3b bis
per ogni successione monotona di eventi.
P1 P2
Complemento
P3
Differenza
P4a
Unione
P4b
Subadditivit`a
P4c
Numerabile subadditivit`a
P5
Monotonicit`a
Tabella 1.4: Assiomi e propriet`a della probabilit`a.
In conclusione, un esperimento aleatorio o spazio di probabilit`a e` la terna dove: 1. e` l’insieme di tutti i possibili risultati sperimentali (spazio dei campioni). 2. e` la -algebra degli eventi. 3. e` la legge di probabilit`a soddisfacente gli assiomi di Kolmogorov.
La coppia
e` invece denominata spazio misurabile.
14
1.2 Esempi di spazi di probabilit`a In questo paragrafo riprendiamo in esame alcuni degli esempi gi`a considerati allo scopo di completarli mostrando come definire la legge di probabilit`a.
1.2.1 Lancio di una coppia di dadi Si riprenda in esame il lancio di una coppia di dadi: ricordiamo che lo spazio dei campioni e` l’insieme
"! ! !"# !$ !"% !"&
illustrato in tabella 1.2. Come famiglia di eventi consideriamo l’insieme delle parti di , cio`e:
In questo caso lo spazio dei campioni, e quindi anche l’insieme degli eventi, e` finito. Conseguentemente e` sufficiente assegnare le probabilit`a agli eventi elementari, per definire la probabilit`a di un qualunque altro evento. Infatti ogni evento pu`o sempre essere riguardato come l’unione degli eventi elementari che lo costituiscono secondo la relazione (1.2)
e, quindi, essendo gli eventi elementari mutuamente esclusivi e dovendo essere la probabilit`a additiva, si ha: (1.3)
"
Si noti esplicitamente che la relazione (1.2) vale sempre, cio`e sia se il numero di eventi elementari costituenti l’evento e` discreto, sia se tale numero e` pi`u che numerabile. Viceversa la relazione (1.3) vale se il numero di eventi elementari costituenti e` finito in virt`u della finita additivit`a (A3), o se e` numerabile, in virt`u della numerabile additivit`a (A3b). Nel caso in esame non vi e` alcuna ragione per cui alcuni risultati dovrebbero verificarsi preferenzialmente rispetto agli altri, a meno che i dadi non siano truccati; conseguentemente gli eventi elementari sono assunti equiprobabili (principio di ragion insufficiente), cio`e si pone:
! !
! ! "
Conseguentemente in virt`u della (1.3) la probabilit`a di un qualsiasi evento vale:
15
(1.4)
ove
denota la cardinalit`a di un insieme. La funzione cos`ı definita, come e` immediato verificare, e` una probabilit`a nel senso che soddisfa gli assiomi. Infatti essa e` non negativa (A1); inoltre si ha (A2):
Infine, avendosi
vale anche la finita additivit`a (A3). Definita la legge di probabilit`a calcoliamo la probabilit`a dei seguenti eventi:
“facce uguali” somma e` compresa fra 7 e 10, estremi inclusi” “la“la somma e` 2, 7 o 8” Tali eventi sono i seguenti sottoinsiemi di : ! ! ! ! !"# !"# !$ !$ !"% !"% !"& !"& ! !"& ! !"% !"# !$ !$ !"# !"% ! !"& ! ! !"& !"# !"% !$ !$ !"% !"# !"& ! !"# !"& !$ !"% !"% !$ !"& !"# !$ !"& !"% !"% !"& !$ ! ! ! !"& ! !"% !"# !$ !$ !"# !"% ! !"& ! ! !"& !"# !"% !$ !$ !"% !"# !"& !
le cui cardinalit`a sono
Conseguentemente le loro probabilt`a valgono:
1.2.2 Sorgente binaria senza memoria Nel caso in cui la sorgente binaria emetta un solo simbolo, lo spazio dei campioni e` :
mentre gli eventi sono gli elementi di:
16
Anche in questo caso l’insieme dei possibili risultati e quello degli eventi sono finiti. Conseguentemente, sulla scorta di quanto detto nel paragrafo precedente, per assegnare una legge di probabilit`a e` sufficiente definire la probabili`a dell’evento . Posto infatti , con , necessariamente deve aversi , ove . Conseguentemente resta definita la probabilit`a di tutti gli eventi elementari e quindi, per la (1.2) e la (1.3), la probabilit`a di un qualsiasi altro evento.
"
"
Consideriamo ora il caso in cui la sorgente emetta un pacchetto di lunghezza 3. Ricordiamo che in tal caso lo spazio dei campioni e` :
#
ed e` illustrato nella tabella 1.1. Come algebra degli eventi consideriamo di nuovo l’insieme delle parti, cio`e:
Pertanto, ancora una volta, e` sufficiente assegnare la probabilit`a degli eventi elementari . A tal fine assegper definire anche la probabilit`a di un qualsiasi altro evento namo un numero non negativo agli eventi elementari come illustrato nella tabella 1.5, cio`e con la legge:
# (0, 0, 0 ) (0, 0, 1 ) (0, 1, 0 ) # (0, 1, 1) $ (1, 0, 0 ) % (1, 0, 1 ) & (1, 1, 0 ) (1, 1, 1)
#
#
# (1.5) ove , , denota il numero di 1 presenti nella stringa ed denota il numero analogamente di 0. Si estenda poi la legge ad un qualsiasi sottoinsieme di con la relazione: " (1.6) Tabella 1.5: Probabilit`a dei pacchetti di lunghezza 3.
17
La funzione cos`ı definita e` una probabilit`a nel senso che soddisfa gli assiomi. Invero e` immediato verificare la non negativit`a (A1) e la additivit`a (A3); per quanto riguarda l’assioma di normalizzazione (A2), con l’ausilio della tabella 1.5 e` immediato verificare che si ha:
" #
#
#
onde l’asserto. Nel caso di pacchetti di lunghezza arbitraria si pu`o procedere in modo analogo, cio`e definendo la probabilit`a degli eventi elementari con la posizione
ed utilizzando poi la relazione (1.6) per estendere la legge ad un arbitrario evento. Anche in tal caso, come e` immediato verificare, la corrispondenza (1.6) soddisfa gli assiomi di Kolmogorov.
1.2.3 Spazio dei campioni discreto Si osservi che la procedura esposta negli esempi precedenti pu`o in generale essere utilizzata per definire la legge di probabilit`a nell’ipotesi che lo spazio dei campioni sia discreto. Precisamente e` sufficiente definire le probabilit`a degli eventi elementari con i vincoli
"
" "
(1.7) (1.8)
utilizzando poi la (1.6) per estendere la probabilit`a ad un evento arbitrario. Infatti la probabilit`a cos`ı definita e` certamente non negativa e, per la (1.8), normalizzata ad uno. Inoltre, tenendo presente che
e` immediato verificare che vale anche la finita additivit`a se gli eventi e sono disgiunti. Infine, in modo analogo, e` possibile dimostrare anche la numerabile additivit`a se e` infinito numerabile.
18
1.2.4 Coppia di arrivi in
Si riprenda in esame l’esperimento dell’esempio 3, relativo all’arrivo a caso di un vi , il cui spazio delle aggiatore e di un treno in una certa stazione nell’intervallo prove e` il quadrato:
di figura 1.1.1. Tale spazio e` infinito non numerabile, precisamente e` continuo. Nel caso di spazi continui, come famiglia di eventi, si considera la pi`u piccola algebra contenente gli intervalli (sotto-rettangoli del quadrato nel caso in esame): essa e` costituita dai sottoinsiemi misurabili, per i quali cio`e e` definita l’area, del quadrato .
Dai dati del problema, cio`e arrivi a caso, e` ragionevole ipotizzare che la probabilit`a di avere arrivi in un certo intervallo non dipenda dagli estremi dell’intervallo, ma solo dalla sua durata, e quindi, pi`u in generale, che la probabilit`a di un evento sia proporzionale alla sua area. In altri termini, nel caso in esame, una possibile legge di probabilit`a e` :
ove
denota l’area di
(1.9)
, ed e` illustrata in fig. 1.2.4, .
Figura 1.7: Legge di probabilit`a per lo spazio delle prove dell’esempio 3. La legge di corrispondenza definita dalla (1.9) e` una probabilit`a in quanto, come e` immediato verificare, e` non negativa ed e` normalizzata ad 1; inoltre la finita (rispettivamente numerabile) additivit`a segue dalla finita (rispettivamente numerabile) additivit`a dell’area: sono pertanto soddisfatti gli assiomi. In particolare, utilizzando la legge di probabilit`a (1.9), si veda anche la fig. 1.1.1, si 19
ha:
#
“viaggiatore e treno arrivano contemporaneamente”" “il viaggiatore arriva prima del treno” " “il viaggiatore arriva tra e ”"
Si noti che l’evento
“viaggiatore e treno arrivano contemporaneamente”
ha probabilit`a nulla pur non essendo l’evento impossibile, analogamente l’evento complementare
$
“viaggiatore e treno non arrivano contemporaneamente”
ha probabilit`a uno pur non essendo l’evento certo. Nel primo caso si dice che e` l’evento impossibile con probabilit`a uno (c.p.u.) o quasi con certezza (q.c.) e, sinteticamente si scrive c.p.u.
analogamente, nel secondo si dice che sinteticamente, si scrive
$
In generale si dice che se e solo se (sse): o, equivalentemente sse
$
c.p.u.
"
e` l’evento certo con probabilit`a uno e,
Conseguentemente, considerati due eventi eguali c.p.u., con riferimento ad una generica prova, la probabilit`a che uno dei due eventi si possa verificare e l’altro no e` nulla, mentre la probabilit`a che si verifichino entrambi gli eventi o che non si verifichi nessuno dei due e` uno. Si osservi infine che la corrispondenza definita dalla (1.9) e` una possibile legge di probabilit`a ogni volta che lo spazio delle prove e` un sottoinsieme di di misura finita. Qualora si utilizzi la probabilit`a definita dalla (1.9), si dice che la probabilit`a e` stata assegnata a caso; tale assegnazione e` l’equivalente, per spazi delle prove continui, dell’equiprobabilit`a degli eventi elementari considerata nel caso discreto.
20
1.3 Definizioni alternative di probabilit`a Storicamente, l’approccio assiomatico non e` l’unico utilizzato per definire la probabilit`a: nel presente paragrafo si considerano brevemente il cosiddetto approccio classico e quello frequentistico.
1.3.1 Definizione classica Si riprenda in esame la relazione (1.4) che definisce la probabilit`a nel caso del lancio di una coppia di dadi. Tale relazione la si interpreta dicendo che la probabilit`a di un evento e` il rapporto tra il numero di casi favorevoli al verificarsi dell’evento (numero degli eventi elementari costituenti ) ed il numero dei casi possibili (numero degli eventi elementari costituenti ). La legge di probabilit`a definita dalla (1.4) e` la cosiddetta definizione classica di probabilit`a. Essa per`o e` applicabile solo ad esperimenti il cui spazio dei campioni sia finito e implicitamente ipotizza che gli eventi elementari siano equiprobabili. Tale definizione e` pertanto circolare nel senso che nel dare la definizione utilizza il concetto che si vuole definire. Tuttavia, con riferimento a spazi delle prove finiti, l’equiprobabilit`a degli eventi elementari e` comunemente assunta quando dai dati del problema non risulti alcuna informazione che porti a considerare un evento elementare pi`u o meno probabile di un altro. In altri termini la perfetta simmetria tra gli eventi elementari giustifica l’assunzione della loro equiprobabilit`a: Principio di simmetria o Principio di ragion insufficiente.
1.3.2 Frequenza relativa In alternativa all’approccio assiomatico si pu`o definire la probabilit`a sulla scorta della frequenza relativa di un evento. A tal fine si definisce frequenza relativa di un evento in prove come il rapporto:
tra il numero di volte che si verifica l’evento ed il numero complessivo delle prove. La probabilit`a di e` poi definita come il limite della frequenza relativa in prove, indipendenti ed effettuate tutte in identiche condizioni, al divergere di (Legge empirica del caso): in altri termini, si pone:
(1.10)
Tale definizione per`o postula l’esistenza del limite ed e` circolare in quanto il concetto di indipendenza e` esso stesso un concetto probabilistico (vedi sezioni successive) cos`ı come l’effettuare le prove in identiche condizioni. 21
Nell’ambito dell’approccio assiomatico, come si vedr`a in un prossimo capitolo, e` possibile per`o dimostrare che la frequenza relativa, in opportune ipotesi che traducono in termini precisi l’affermazione “prove indipendenti ed effettuate in identiche condizioni”, converge alla probabilit`a (Legge dei grandi numeri). Si osservi per`o che la (1.10) ha notevole valore operativo in quanto, in ipotesi di norma soddisfatte in pratica, risulta:
Tale relazione fornisce la base per la stima di una probabilit`a. 1
0.9
0.8
Frequenza relativa
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0 0 10
1
2
10
10 Numero di lanci
Figura 1.8: Andamento della frequenza relativa dell’evento
3
4
10
10
“facce uguali” .
A scopo illustrativo si riprenda in esame il lancio di una coppia di dadi, precedentemente analizzato, ed in particolare l’evento:
la cui probabilit`a vale:
“facce uguali”
In figura 1.8 e` riportato l’andamento della frequenza relativa di tale evento in funzione del numero delle prove: l’andamento della frequenza di successo e` molto irregolare 22
se il numero delle prove e` basso, ma, mano a mano che tale numero cresce, lo scostamento dal valore precedentemente calcolato diventa trascurabile. Nella stessa figura l’andamento della frequenza di successo e` riportato per tre diverse serie di prove: i vari andamenti sono inizialmente molto diversi, ma la loro differenza e` trascurabile se il numero delle prove e` sufficientemente elevato. Si osservi infine che gli andamenti riportati in figura 1.8 si possono anche interpretare come la conferma sperimentale delle ipotesi che sono alla base dell’analisi precedentemente effettuata.
1.4 Tecniche di conteggio Dagli esempi precedenti risulta che, nel caso di esperimenti aleatori con insieme dei risultati finito, e` spesso possibile ipotizzare l’equiprobabilit`a degli eventi elementari dato che, nelle situazioni pi`u comuni, non si hanno ragioni sufficienti per poter ritenere che un qualsiasi evento elementare sia pi`u o meno probabile rispetto ad un altro. In tal caso la probabilit`a di un generico evento e` data dal rapporto tra il numero di casi favorevoli ed il numero dei casi possibili, secondo la (1.4), e quindi pu`o essere calcolata semplicemente contando il numero di elementi costituenti l’evento di interesse. Pi`u in generale, saper valutare la cardinalit`a di un sottoinsieme finito torna utile anche per spazi dei campioni finiti, ma con eventi elementari non equiprobabili, oltre che in contesti diversi da quello della probabilit`a. Il primo, fondamentale, risultato consiste nel delineare un metodo sistematico per poter contare il numero delle sequenze di lunghezza ( -ple ordinate) di elementi appartenenti, nel caso pi`u generale, ad insiemi diversi. Esempio: Si e` interessati a contare il numero di tutte le possibili sequenze di lunghezza 2 che si ottengono lanciando prima una moneta e poi un dado. A tal fine, come illustrato nella tabella 1.6 per ognuno dei 2 possibili risultati del lancio della
!
! !
!
! !
!"#
!"# !"#
!$
!$ !$
!"%
!"% !"%
!"&
!"& !"&
Tabella 1.6: Coppie ordinate per il lancio di una moneta e di un dado.
moneta bisogna considerare i 6 possibili risultati del lancio del dado, ottenendo cos`ı un insieme composto da coppie diverse.
Il risultato stabilito nell’esempio precedente e` un caso particolare del seguente: 23
Teorema fondamentale del conteggio (o Principio di moltiplicazione): La cardinalit`a dell’insieme definito dal prodotto cartesiano
e` un insieme finito, di cardinalit`a , e`: ove
ovvero:
In particolare si ha:
Prova:
e` costituito da tutte le -ple ordinate
Poich´e il primo elemento della -pla pu`o essere scelto in in modi diversi e cos`ı via, segue l’asserto.
modi diversi, il secondo Q.E.D.
Esempio: Detto alfabeto di una sorgente l’insieme di tutti i simboli differenti che essa pu`o emettere, si consideri la sorgente con alfabeto
# $
(1.11)
costituito da 4 simboli. Calcolare il numero di pacchetti di lunghezza 3 ( pacchetti) ed il numero di pacchetti sempre di lunghezza 3 costituiti da simboli tutti diversi tra loro.
#
I -pacchetti sono le terne ordinate di simboli dell’alfabeto , cio`e gli elementi dell’insieme la cui cardinalit`a, a norma del teorema fondamentale, vale:
#
#
# #
Detto poi il sottoinsieme dei -pacchetti, costituiti da simboli tutti diversi tra loro, la sua cardinalit`a la si ricava tenendo presente che, dovendo essere i simboli della terna tutti diversi, il primo simbolo, diciamolo , va scelto nell’alfabeto, cio`e nell’insieme
di cardinalit`a
24
Il secondo simbolo, diciamolo , va scelto nell’alfabeto precedentemente scelto e quindi nell’insieme
di cardinalit`a
privato del simbolo
ed, infine, il terzo, diciamolo , nell’alfabeto privato dei due simboli precedentemente scelti e quindi nell’insieme
#
di cardinalit`a
In definitiva si ha:
#
# #
Esempio: Si consideri l’estrazione di 4 carte da un mazzo di carte napoletane (40 carte), effettuata in due modalit`a differenti: a. dopo ogni estrazione la carta estratta viene reinserita nel mazzo di carte; b. dopo ogni estrazione la carta estratta non viene reinserita nel mazzo di carte. Calcolare il numero di tutte le possibili quaterne di carte nei due casi.
Nel primo caso, indicando con l’insieme costituito dalle 40 carte napoletane, si ottiene che, per ognuna delle 4 estrazioni, il risultato sar`a sempre un elemento di . Ci`o significa che l’insieme di tutte le sequenze di 4 carte cos`ı ottenute, che comprende anche quelle sequenze in cui la stessa carta si ripete pi`u volte, e` l’insieme
$
la cui cardinalit`a, per il principio di moltiplicazione, e` :
$ $ $
Nel secondo caso si esclude la possibilit`a che la stessa carta possa ripetersi e quindi, mentre la prima carta estratta apparterr`a ancora all’insieme , la seconda sar`a un elemento di cio`e dell’insieme meno il risultato della prima
25
$
estrazione e cos`ı via. Pertanto, detto il sottoinsieme delle sequenze di 4 carte tutte diverse tra loro, la sua cardinalit`a, a norma del teorema fondamentale, vale:
$ # $
Gli esempi precedenti mettono in evidenza due caratteristiche fondamentali delle -ple considerate: la prima e` la loro natura intrinseca di sequenze, cio`e gruppi costituiti da un insieme ordinato di elementi. Si parla quindi di -ple ordinate che, come risulta evidente dagli esempi, possono differire anche solo per l’ordine degli elementi che le compongono, cio`e non per il loro valore ma per la loro posizione all’interno della sequenza. La seconda caratteristica viene evidenziata dal fatto che, nel contare le sequenze, il conteggio d`a luogo a risultati diversi a seconda che gli elementi possano ripetersi o meno. Nei due casi si parla rispettivamente di conteggio con e senza ripetizione. Sulla scorta di quanto detto precedentemente, supposto di estrarre gli elementi cos , le -ple ordinate tituenti la -pla tutti da uno stesso insieme di cardinalit`a di elementi di , cio`e gli elementi di , sono . Viceversa le -ple ordinate, con , senza ripetizione di elementi di sono:
denota il fattoriale di 1 . Si noti che, mentre l’insieme delle -ple ordinate con ripetizione non e` mai vuoto . per ogni e naturali, quello delle -ple ordinate senza ripetizione e` vuoto per Le -ple ordinate di elementi di un insieme , finito e non vuoto, di cardinalit`a sono anche dette disposizioni, con o senza ripetizione, di elementi su posti. Pertanto il numero delle disposizioni, con ripetizione, di elementi su posti, denotato con , vale: ove
Analogamente, il numero delle disposizioni, senza ripetizione, di dette anche permutazioni di elementi su posti, denotato con
elementi su posti, , vale:
1 Ricordiamo che si definisce fattoriale di un numero naturale , e lo si denota appunto con , il prodotto dei primi numeri naturali, cio`e:
Il fattoriale pu`o anche essere valutato ricorsivamente con la relazione: ove, per convenzione, si assume
!"
#
.
26
In particolare, le disposizioni, senza ripetizione, di permutazioni ed il loro numero vale:
elementi su
posti sono dette
Esse sono le -ple ordinate, senza ripetizione, di tutti gli elementi dell’insieme , e quindi differiscono soltanto per la posizione dei singoli elementi all’interno della sequenza. Gli esempi precedenti si riferiscono a situazioni in cui l’ordine e` rilevante, ma esistono altre situazioni in cui l’ordine dei singoli elementi all’interno della -pla non rappresenta una caratteristica discriminante, come illustrato dal seguente:
Esempio: Supponiamo che siamo interessati a considerare i gruppi di 2 simboli diversi, estratti dall’alfabeto (1.11) di 4 simboli, ma questa volta senza essere interessati all’ordine. In altri termini siamo interessati a valutare il numero di tutti i possibili sottoinsiemi di di cardinalit`a 2. Tale numero pu`o ricavarsi da quello delle coppie ordinate di simboli diversi, identificando quelle che differiscono solo per l’ordine. Il numero delle coppie ordinate e`
$
Tra queste, quelle che differiscono solamente per l’ordine dei simboli, e che si ottengono l’una dall’altra permutando, cio`e scambiando di posizione, i simboli che le costituiscono, sono, per le considerazioni precedenti, in numero di 2!. Pertanto il numero di coppie non ordinate, estratte da un alfabeto di 4 simboli, e` :
$
$
Tali coppie sono dette combinazioni di classe 2 dei 4 elementi dell’alfabeto.
Pi`u in generale i sottoinsieme di cardinalit`a di un insieme , di cardinalit`a , sono dette combinazioni di classe degli elementi di . Sulla scorta delle considerazioni fatte nell’esempio precedente, si ha che il numero delle combinazioni di classe di elementi, denotato con , vale:
Ovvero,
ove si e` introdotto il coefficiente binomiale:
27
Ricordiamo che tali coefficienti possono essere valutati ricorsivamente con il triangolo di Tartaglia riportato in figura 1.9: in tale triangolo ogni riga inizia e termina con un 1, inoltre ogni elemento interno di una riga si ottiene sommando i due elementi che lo sovrastano nella riga precedente.
Figura 1.9: Triangolo di Tartaglia
Esempio: Si consideri l’estrazione contemporanea, cio`e senza criteri di ordinamento, di 5 carte da un mazzo di 52 carte francesi. Valutare la probabilit`a dell’evento:
“le 5 carte sono tutte dello stesso seme”
Per calcolare la probabilit`a richiesta occorre innanzitutto definire lo spazio dei campioni dell’esperimento considerato. Esso e` costituito da tutte le cinquine di carte differenti; inoltre, per simmetria, gli eventi elementari sono equiprobabili. Ci troviamo quindi in condizioni di poter applicare la regola (1.4) per il calcolo della probabilit`a per cui e` necessario calcolare le cardinalit`a sia dello spazio dei campioni che dell’evento . Poich`e nella situazione in esame non ha importanza l’ordine delle carte che costituiscono la generica cinquina, la cardinalit`a dello spazio dei campioni e` pari al numero di combinazioni di classe 5 di 52 elementi, cio`e
Per quanto riguarda il calcolo della cardinalit`a dell’evento d’interesse, si osservi prima che esso pu`o essere visto come l’unione dei seguenti 4 eventi mutuamente esclusivi: “si estraggono 5 carte di cuori” “si estraggono 5 carte di quadri” “si estraggono 5 carte di fiori” “si estraggono 5 carte di picche”
28
Tali eventi sono equipotenti e la cardinalit`a di ciascuno e` pari al numero di combinazioni di classe 5 di 13 elementi (il numero di carte dello stesso seme), cio`e
e quindi la cardinalit`a dell’evento di interesse, essendo l’unione di 4 eventi mutuamente esclusivi, e` pari alla somma delle cardinalit`a dei singoli addendi, cio`e
In definitiva la probabilit`a di estrarre 5 carte dello stesso seme e` :
Esempio: Si consideri l’emissione di un pacchetto di lunghezza 5 da parte di una sorgente binaria. Calcolare il numero di pacchetti contenenti 2 simboli 1. Per poter contare le sequenze con due 1 si consideri un alfabeto fittizio composto da tre 0 e due 1. Permutando i 5 simboli dell’alfabeto su tutte le possibili posizioni si ottengono sequenze con tre 0 e due 1. A causa della presenza di simboli uguali, per`o, alcune delle permutazioni cos`ı ottenute risultano indistinguibili; precisamente sono indistinguibili tutte le sequenze che si ottengono dalla permutazione di simboli uguali. Poich`e nell’alfabeto ci sono tre 0 e due 1, le permutazioni che, a partire da una certa disposizione dei simboli, danno . Ci`o significa che, per luogo a sequenze indistinguibili sono in numero di ottenere il numero di sequenze diverse in cui sono presenti tre 0 e due 1, bisogna dividere il numero iniziale per . In conclusione, il numero delle sequenze in cui sono presenti 2 simboli ”1” e` :
%
%
cio`e il numero delle combinazioni di classe 2 di 5 elementi. Allo stesso risultato si perviene se il problema viene riformulato come conteggio di tutte le possibili coppie delle posizioni dei simboli 1 estratte fra le 5 possibili posizioni all’interno della sequenza. In tal modo risulta evidente che si deve calcolare il numero delle coppie non ordinate (le posizioni degli 1) di elementi 29
appartenenti ad un insieme di cardinalit`a 5 (le possibili posizioni all’interno della sequenza) e cio`e il numero delle combinazioni di classe 2 di 5 elementi:
Il risultato ottenuto in questo esempio si pu`o ovviamente generalizzare al con teggio delle sequenze binarie di lunghezza in cui siano presenti simboli 1: il loro numero e` dato dalle combinazioni di classe di elementi, cio`e:
Le combinazioni di classe di elementi sono i sottoinsiemi di cardinalit`a di un insieme di cardinalit`a : gli elementi costituenti il sottoinsieme sono per`o tutti distinti. In alcuni casi invece si e` interessati a calcolare il numero di insiemi di cardinalit`a costituiti da elementi dell’insieme consentendo per`o che i singoli elementi possano ripetersi, come illustrato dal seguente
Esempio: Si riprenda in esame il lancio di una coppia di dadi: i possibili risultati sono le coppie ordinate di elementi di
"! ! !"# !$ !"% !"&
! !"#
!# !
Ovviamente e` implicito in tale assunzione la possibilit`a di distinguere la coppia dalla coppia e simili: ci`o e` ad esempio possibile se i due dadi sono di colore diverso. Se non e` possibile distinguere tali coppie allora l’insieme dei possibili risultati dell’esperimento e` l’insieme delle coppie non ordinate, con eventuale ripetizione degli elementi; precisamente e` l’insieme:
"! "! ""!"!$# "!"% "!"& di cardinalit`a
! " "! ! "! !"# "!"# !$ "!$ !"% "!"% !"& .
! " !"# !$ !"% !"&
" ! "! "!"# "!$
"! # !$ !"% !"&
" ! "! "!"#
! $ !"% !"&
" ! "!
"! % "! "! & !"&
Per contare gli insiemi di cardinalit`a costituiti da elementi appartenenti ad un insieme di cardinalit`a , con possibilit`a di ripetizione, si pu`o operare come segue. 30
Si supponga di aver a disposizione scatole numerate da 1 ad , rappresentanti gli elementi di , e biglie, una per ogni elemento da scegliere: ogni -pla non ordinata con ripetizione si pu`o ottenere ponendo le biglie nelle scatole; ovviamente porre pi`u biglie nella stessa scatola equivale a scegliere pi`u volte l’elemento corrispondente a tale scatola. A scopo illustrativo in figura 1.10 sono riportati alcuni insiemi di elementi , di elementi. Dalla figura e` evidente estratti dall’alfabeto
# # $ $ $
$
# $ # $ # $
Figura 1.10: Disposizioni non ordinate (combinazioni), con ripetizione di 4 elementi su 3 posti.
che ad ogni disposizione delle 3 barre (le barre denotano le pareti di separazione delle singole scatole mentre le doppie barre denotano le due pareti terminali che non vanno considerate) e delle 3 biglie corrisponde un sottoinsieme di elementi estratti, con ripetizione, dall’alfabeto e viceversa. Pertanto il numero di disposizioni non ordinate con ripetizione di 4 elementi su 3 posti coincide con il numero di sequenze binarie di lunghezza 6 costituite da 3 barre e 3 biglie, cio`e con le disposizioni non ordinate (combinazioni) di classe 3 di 6 elementi:
# $
Generalizzando il ragionamento esposto con riferimento al caso precedente, si ha che il numero delle disposizioni non ordinate con ripetizione di elementi su posti, dette anche combinazioni con ripetizione di classe di elementi, sono date da
in quanto coincidono con le possibili combinazioni di classe di barre pi`u biglie , cio`e di elementi. Si osservi esplicitamente che, cos`ı come per le disposizioni ordinate, anche nel caso delle combinazioni la ripetizione degli elementi permette di prendere in considerazione situazioni in cui il numero di posti risulta maggiore del numero di elementi, per cui la formula precedente e` valida anche per . 31
Disposizioni
con ripetizione
ordinate
non ordinate (combinazioni)
senza ripetizione
Tabella 1.7: Disposizioni di
elementi su
posti.
In tabella 1.7 sono riassunti i risultati stabiliti relativamente alle possibili dis posizioni, ordinate e non ordinate, con e senza ripetizione, di elementi su posti.
1.5 Eventi indipendenti Da un punto di vista intuitivo due eventi sono indipendenti se non si influenzano: se cio`e il verificarsi dell’uno non altera le aspettative che si hanno sul verificarsi o meno dell’altro. Tale punto di vista intuitivo, come sar`a meglio chiarito nel prossimo paragrafo quando verr`a introdotta la probabilit`a condizionata, viene formalizzato con la seguente definizione: due eventi e si dicono indipendenti se:
(1.12)
Si noti che tale definizione e` simmetrica nel senso che se e` indipendente da anche e` indipendente da . Eventi non indipendenti sono anche detti correlati. Si osservi che se e sono indipendenti lo sono anche e , e , e (vedi Ex. 1.22). Osserviamo esplicitamente che la definizione di indipendenza non va confusa con quella di eventi mutuamente esclusivi. Infatti se gli eventi e sono indipendenti allora la loro probabilit`a congiunta e` data dalla (1.12); conseguentemente possono essere anche mutuamente esclusivi solo se almeno uno dei due ha probabilit`a nulla. Pertanto eventi mutuamente esclusivi, aventi probabilit`a non nulla, sono correlati. Tale affermazione si giustifica anche intuitivamente: infatti se gli eventi sono mutuamente esclusivi il verificarsi dell’uno esclude il verificarsi dell’altro e quindi saper o meno che uno dei due si e` verificato influenza la nostra aspettativa sul verificarsi o meno dell’altro.
32
La definizione di indipendenza pu`o essere generalizzata ad un numero arbitrario di eventi: precisamente gli eventi si dicono statisticamente indipendenti se per ogni sottoinsieme di eventi
si ha:
In altri termini
eventi sono indipendenti se lo sono a coppie, terne, quaterne, etc..
Esempio: Sorgente binaria senza memoria (continuazione) Si riprenda in esame l’emissione di un pacchetto lungo 3 con l’assegnazione di probabilit`a definita dalla (1.5) e dalla (1.6) e valutiamo se gli eventi
sono indipendenti. Con l’ausilio della tabella delle probabilit`a degli eventi elementari (tabella 1.5) e tenendo presente la costituzione degli eventi di interesse illustrata nella tabella 1.8, e` immediato verificare che:
#
$ %
#
&
#
#
#
#
#
( 0, 1, 0)
( 1, 0, 1) ( 1, 1, 0)
#
( 1, 0, 0)
&
" " # "
( 1, 1, 0)
( 0, 1, 1) ( 1, 0, 1)
# . Tabella 1.8: Terne costituenti gli eventi ( 1, 1, 1)
( 0, 0, 1)
%
( 0, 1, 1)
( 1, 1, 1)
( 1, 1, 1)
" # " # "
# #
In modo analogo, con l’ausilio della tabella 1.9, si ha:
33
#
#
&
%
( 1, 1, 0)
#
#
( 1, 0, 1)
#
( 0, 1, 1)
# # Tabella 1.9: Terne costituenti gli eventi ( 1, 1, 1)
( 1, 1, 1)
( 1, 1, 1)
.
Pertanto gli eventi
sono indipendenti a coppie. Avendosi inoltre
# "
gli eventi
"
#
sono indipendenti. In modo del tutto analogo si pu`o verificare che gli eventi:
#
sono indipendenti. Ci`o si esprime sinteticamente dicendo che le coordinate del generico evento elementare sono indipendenti; in altri termini i bit sono emessi indipendentemente l’uno dall’altro. Invero l’assegnazione di probabilit`a agli eventi elementari riportata in tabella 1.5 e` stata effettuata ipotizzando l’indipendenza dei vari bit, e ci`o spiega anche l’attributo senza memoria dato alla sorgente binaria considerata.
1.6 Probabilit`a condizionata Spesso, con riferimento ad un determinato esperimento, le probabilit`a cambiano in relazione all’eventuale informazione disponibile in merito ai risultati dell’esperimento stesso. Intuitivamente la probabilit`a di ottenere “un due” lanciando un dado e` diversa dalla probabilit`a che si verifichi tale evento se e` noto che il risultato della prova e` pari. Tale considerazione viene formalizzata introducendo la probabilit`a condizionata. A tal fine, dato un evento , avente probabilit`a non nulla, si consideri la corrispondenza:
34
(1.13)
Tale corrispondenza soddisfa gli assiomi di Kolmogorov e, quindi, definisce una nuova legge di probabilit`a denominata la probabilita` condizionata. Invero si ha:
La definizione data di probabilit`a condizionata soddisfa le condizioni che intuitivamente sono richieste alla probabilit`a condizionata. Infatti, dalla (1.13) segue che:
La prima di tali relazioni afferma che, se il verificarsi di e` condizione sufficiente per il verificarsi di , allora la probabilit`a di condizionata a deve essere uno; la seconda asserisce che, se il verificarsi di e` condizione necessaria per il verificarsi di , allora la probabilit`a di condizionata a non deve diminuire; infine la terza relazione afferma che se e sono mutuamente esclusivi, allora il verificarsi dell’uno esclude il verificarsi dell’altro e, quindi la probabilit`a dell’uno condizionata all’altro deve essere nulla. Tali propriet`a sono illustrate in figura 1.11.
W
W
W
Figura 1.11: Propriet`a della probabilit`a condizionata
Si noti inoltre che, se
e
sono statisticamente indipendenti ed a probabilit`a non 35
nulla allora risulta:
In altri termini, per eventi statisticamente indipendenti, il verificarsi o meno dell’uno non muta la probabilit`a di verificarsi dell’altro. Viceversa per eventi correlati proba bilit`a a priori e probabilit`a condizionate differiscono. In tal caso, se si dice che e` positivamente correlato a , altrimenti si dice che e` negativamente correlato a . E` possibile dimostrare che se e` correlato positivamente a allora anche e` positivamente correlato ad (vedi esercizi). Si noti che oltre che probabilit`a di condizionata a e` anche numerica mente uguale alla verosimiglianza di per . Le due nozioni per`o sono diverse: invero , come gi`a detto e` una legge di probabilit`a, mentre la verosimiglianza, definita da , come e` facile verificare, non lo e` . In altri termini nel primo caso l’evento condizionante e` fisso, mentre varia quello condizionato; nel caso della verosimiglianza invece, e` l’evento condizionato a non variare, mentre quello condizionante varia. Il significato della probabilit`a condizionata e` ulteriormente chiarito dalla sua interpretazione frequentistica. Infatti, secondo tale interpretazione risulta:
ove e denotano rispettivamente il numero di volte che si verificano in prove gli eventi e, rispettivamente, . Pertanto la probabilit`a condizionata e` la frazione di volte che si verifica l’evento non pi`u in tutte le prove, ma limitatamente a quelle in cui si verifica . In altri termini le prove in cui non si verifica vanno scartate e non contribuiscono pi`u al calcolo della frequenza relativa. La definizione di probabilit`a condizionata e le sue propriet`a sono presentate sinteticamente nella tabella 1.10. Introdotta la probabilit`a condizionata, e` possibile estendere la definizione di eventi indipendenti ad eventi condizionalmente indipendenti. Precisamente, due eventi e si dicono condizionalmente indipendenti dato l’evento a probabilit`a non nulla ( ) se
(1.14)
Analogamente alla definizione (1.12), l’indipendenza equivale alla fattorizzazione della probabilit`a congiunta, ma, in questo caso, la probabilit`a considerata e` quella condizionata. 36
Propriet`a
Eventi indipendenti
Probabilit`a condizionata
Tabella 1.10: Probabilit`a condizionata e sue propriet`a.
Anche in questo caso, come e` immediato verificare, si ha
cio`e l’ulteriore condizionamento a (rispettivamente ad ) non ha alcun effetto sulla probabilit`a condizionata a . In modo del tutto analogo si estende la definizione di indipendenza condizionale a pi`u di due eventi.
1.7 Leggi Fondamentali Legge della probabilit`a congiunta: segue che:
Dalla definizione di probabilit`a condizionata
Tale relazione esprime la cosiddetta legge della probabilit`a congiunta (o composta): la probabilit`a di una congiunzione di eventi e` data dal prodotto della probabilit`a incondizionata dell’uno per la probabilit`a condizionata dell’altro. Pi`u in generale sussiste la seguente Regola della catena:
Legge di Bayes:
Dalla legge della probabilit`a congiunta segue che:
Tale relazione e` nota come legge o formula di Bayes e consente di scambiare i ruoli di evento condizionato e condizionante. 37
finita Legge della probabilit`a totale: Si consideri una partizione o numerabile dell’evento certo costituita da eventi aventi probabilit`a non nulla; in altri termini, gli eventi , sono a due a due mutuamente esclusivi e necessariamente in ogni prova si verifica uno ed uno solo di tali eventi. In tale ipotesi la probabilit`a di un qualsiasi evento pu`o calcolarsi con la seguente relazione, nota come legge della probabilit`a totale:
Invero, essendo
una partizione dell’evento certo, si ha:
come illustrato in figura 1.12 con riferimento ad una partizione finita dell’evento certo.
Essendo le congiunzioni , a loro volta a due a due mutuamente esclusive, per l’additivit`a della probabilit`a si ha:
da cui, per la legge della probabilit`a composta, segue l’asserto.
W
Figura 1.12: Partizione dell’evento certo ricoprente
Legge di Bayes, seconda formulazione. Esprimendo nella formula di Bayes la probabilit`a dell’evento condizionante a mezzo della legge della probabilit`a totale si ottiene la seguente formulazione alternativa della legge di Bayes
Per comodit`a del lettore la definizione di probabilit`a condizionata, le sue propriet`a e leggi fondamentali della probabilit`a sono riassunte nella tabella 1.11. 38
Legge della probabilit`a congiunta:
Regola della catena:
Legge di Bayes:
partizione discreta di
Legge di Bayes seconda formulazione
Legge della probabilit`a totale:
Tabella 1.11: Leggi fondamentali. Esempio: canale binario simmetrico (BSC) Si consideri il canale binario simmetrico (BSC) di figura ove: -
"
e
;
sono rispettivamente l’ingresso e l’uscita del canale;
"
" .
Dimostrare che:
"
assegnati e , e` definita la probabilit`a di ogni evento la probabilit`a d’errore temente dal valore di ; per
;
e` uguale a
indipenden-
ingresso ed uscita del canale sono indipendenti;
per i simboli d’ingresso e di uscita omonimi sono correlati, positivamente se e negativamente se ; se i simboli in ingresso sono equiprobabili lo sono anche in uscita. Calcolare inoltre la legge di probabilit`a sullo spazio d’ingresso condizionata al generico valore del simbolo d’uscita. Il BSC rappresenta un semplice modello di canale di comunicazione “rumoroso”. In tale canale, a causa del rumore, non sempre il simbolo di uscita coincide col simbolo d’ingresso, in quanto vi e` una probabilit`a di errore condizionata 39
0
0
1
1
Figura 1.13: Schemi del BSC pari ad . Il canale e` detto “simmetrico” perch´e le probabilit`a di ricevere un simbolo diverso da quello trasmesso, noto il simbolo trasmesso, non dipende dal particolare simbolo trasmesso. Si osservi che l’aleatoriet`a dei simboli di uscita scaturisce da una duplice casualit`a: l’incertezza sul simbolo d’ingresso, che e` aleatorio, e l’incertezza sull’aver il canale introdotto o meno un errore. Per poter separare gli effetti di questo duplice meccanismo aleatorio bisogna quindi condizionare al valore dell’ingresso e considerare le probabilit`a dei simboli di uscita, dato il simbolo d’ingresso.
Cominciamo con l’osservare che, in questo caso, come spazio campione possibile considerare l’insieme di tutte le possibili coppie
, ovvero
e come eventi tutti i sottoinsiemi di .
"
e`
Calcoliamo, ad esempio, la probabilit`a dell’evento elementare applicando la legge della probabilit`a congiunta si ha:
"
;
"
Dal momento che il calcolo della probabilit`a degli altri eventi elementari si svolge in maniera analoga si e` mostrato che la probabilit`a di ogni evento e` funzione di ed . La probabilit`a d’errore si pu`o calcolare con la legge della probabilit`a totale; infatti si ha:
" "
"
"
"
Tale probabilit`a e` quindi indipendente dal valore di . Si noti che questo risultato e` dovuto all’ipotesi di simmetria del canale e non e` pi`u valido nel caso in cui le 40
0
1
0
0
1
1
0
1
Figura 1.14: BSC non rumoroso
due probabilit`a di errore condizionate dipendano dal simbolo d’ingresso. Inoltre, si osservi che il caso pi`u sfavorevole corrisponde ad ; infatti, se invertendo il simbolo di uscita posso ottenere una probabilit`a di errore pari a . In particolare i valori ed corrispondono entrambi al caso di canale non rumoroso, in quanto l’uscita del canale specifica univocamente l’ingresso, come illustrato in fig. 1.14
Per stabilire in quali ipotesi i simboli in ingresso ed in uscita al BSC siano o meno indipendenti calcoliamo la probabilit`a di avere un certo simbolo di uscita. Applicando ancora la legge della probabilit`a totale si ottiene:
" " " " " ; in alternativa, e` sufficiente In modo analogo e` possibile valutare e` il complemento dell’evento ; si ha osservare che l’evento
"
pertanto:
"
"
Da tali relazioni si trae la conclusione che, per
"
"
e`
ossia i simboli di uscita sono equiprobabili indipendentemente dal valore della probabilit`a dei simboli di ingresso . Inoltre, nell’ipotesi si ha:
"
"
e quindi i simboli di uscita sono indipendenti dai simboli di ingresso. E’ evidente che in tal caso la trasmissione di simboli e` del tutto inutile: infatti, poich´e i simboli di uscita sono equiprobabili ed indipendenti dai simboli d’ingresso si possono ottenere le stesse prestazioni rinunciando alla trasmissione e generando localmente l’uscita del canale completamente a caso, ad esempio lanciando una moneta bilanciata. 41
Ora, si osservi che, dalle espressioni delle probabilit`a a priori dei simboli d’uscita segue che:
" "
Di conseguenza, ci si rende conto che:
" "
"
"
- Se allora
, , ossia i simboli d’ingresso e di uscita sono positivamente correlati quando assumono lo stesso valore;
- Se ingresso ed uscita sono indipendenti, qualsiasi sia il valore di , come gi`a discusso;
"
"
- Se allora
, , ossia i simboli d’ingresso e di uscita sono negativamente correlati quando assumono lo stesso valore, coerentemente con la precedente osservazione che per e` opportuno invertire i simboli di uscita.
Analogamente risulta:
Quindi:
" "
" "
"
"
"
"
- Se allora , , ossia i simboli d’ingresso e di uscita sono negativamente correlati se assumono valori diversi;
- Se allora , , ossia i simboli d’ingresso e di uscita sono positivamente correlati se assumono valori diversi.
Per verificare che i simboli di uscita sono equiprobabili se lo sono i simboli di ingresso e` sufficiente sostituire nelle espressioni generali delle loro probabilit`a, precedentemente calcolate, a il valore . Si noti che, in tale ipotesi, i simboli d’uscita sono equiprobabili indipendentemente dal valore di .
Infine, il calcolo della legge di probabilit`a sullo spazio di ingresso condizionata al generico valore del simbolo di uscita si esegue applicando la legge di Bayes:
"
"
"
42
"
Ad esempio, supposto, per semplicit`a, e di aver osservato in uscita il valore , le probabilit`a dei simboli d’ingresso sono date da:
"
"
Si pu`o quindi notare come l’osservazione di un simbolo in uscita modifichi la legge di probabilit`a dei simboli di ingresso in maniera dipendente dal valore di . In particolare, per o per , tale distribuzione e` fortemente asimmetrica, il che e` indice del fatto che il canale pu`o operare con prestazioni soddisfacenti.
1.8 Probabilit`a, incertezza ed informazione. La definizione quantitativa del contenuto informativo di un evento e` legato alla probabilit`a di tale evento. Invero si considerino le seguenti affermazioni: - Domani, 15 agosto, sar`a una bella giornata. - Domani sera il capo del governo e quello dell’opposizione si esibiranno in uno spogliarello in piazza. e chiedamoci quale delle due ha un maggior contenuto informativo. L’ovvia risposta e` la seconda delle due, in quanto la prima e` scontata, mentre la seconda e` sorprendente. In altri termini, da un punto di vista intuitivo, ha un elevato contenuto informativo un’affermazione molto imprevedibile. Ci`o e` in accordo con un noto luogo comune del giornalismo: notizia non e` un cane che morde una persona, ma una persona che morde un cane. Quindi, anche nel linguaggio comune, il contenuto informativo di un’affermazione e` legato alla sua probabilit`a di verificarsi: precisamente pi`u un evento e` improbabile maggiore e` l’informazione che fornisce, una volta che si sia verificato. Considerato uno uno spazio di probabilit`a , ci proponiamo di definire quantitativamente l’informazione associata all’evento . A tal fine, osserviamo che dalla discussione precedente segue che e` ragionevole richiedere che il contenuto informativo di un evento , diciamolo , debba essere una funzione decrescente della , vale a dire
(1.15)
Allo scopo di stabilire ulteriori propriet`a da imporre alla si consideri una sorgente binaria senza memoria, cio`e che emette i simboli (bit) indipendentemente l’uno dall’altro, e si prendano in esame i seguenti eventi: 43
“Il primo simbolo emesso e` 1” “Il secondo simbolo emesso e` 1”
“Il primo ed il secondo simbolo emessi sono 1” le cui probabilit`a valgono:
poich`e le emissioni sono indipendenti. Inoltre da quanto detto precedentemente risulta:
Dal momento che le emissioni sono indipendenti, e` ragionevole imporre che:
(1.16)
cio`e che l’informazione sia additiva per eventi indipendenti. Infine, in aggiunta alle condizioni (1.15) e (1.16), si richiede anche che l’informazione sia non negativa, si impone cio`e:
(1.17)
E` possibile dimostrare che l’unica funzione che soddisfi le tre condizioni desiderate, che sia cio`e decrescente con la probabilit`a dell’evento (1.15), additiva per eventi indipendenti (1.16) e non negativa (1.17), debba essere del tipo:
(1.18)
Si osservi che la definizione (1.18) garantisce anche che ad un evento a probabilit`a uno, in particolare all’evento certo, e` associato un contenuto informativo nullo, come deve intuitivamente essere dal momento che il verificarsi di un tale evento non aggiunge alcuna informazione supplementare. Inoltre, si noti che avendosi:
le costanti ed concorrono a fissare l’unit`a di misura dell’informazione. La scelta di gran lunga pi`u comune per definire il contenuto informativo associato ad un evento e` : (1.19)
e l’informazione espressa dalla (1.19) e` misurata in bit. Il significato di tale scelta e` illustrato dal seguente esempio. Si consideri una sorgente binaria che emetta un simbolo tra due simboli equiprobabili; in tal caso l’informazione associata ai singoli simboli vale:
"
44
"
Pertanto 1 bit e` l’informazione associata ad una scelta tra due alternative equiprobabili. Si osservi che usualmente il termine bit e` di solito utilizzato con due diversi significati: il primo, quello introdotto in questo paragrafo, cio`e come unit`a di misura dell’informazione (bit=binary information unit); il secondo come sinonimo di cifra binaria (bit=binary digit). I due concetti sono per`o profondamente diversi e non vanno confusi; in particolare, una cifra binaria ha l’informazione di un bit se e solo se le due cifre sono equiprobabili.
45
1.9 Esercizi Ex. 1.1 Un esperimento aleatorio consiste nel provare il funzionamento di una lampadina osservando la sua durata. Definire il corrispondente spazio dei campioni, specificando se e` di tipo continuo o di tipo discreto. Si individuino inoltre i seguenti eventi:
”la durata della lampada e` superiore a 10” ”la durata della lampada e` non inferiore a 5” ”la durata della lampada e` compresa tra 5 e 30”
Ex. 1.2 Si determini lo spazio dei campioni relativo al doppio lancio di un dado. Si individuino inoltre i seguenti eventi:
”la somma dei due lanci e` 5” ”primo lancio pari” ”primo lancio pari e la somma dei due lanci e` 5” ”primo lancio pari oppure la somma dei due lanci e` 5”
Ex. 1.3 Si consideri un canale binario, cio`e un mezzo di trasmissione che accetta in ingresso simboli “0” e “1” e fornisce in uscita simboli “0” e “1”. A causa dei disturbi presenti sul canale, per`o, non sempre il simbolo in uscita e` uguale a quello che viene effettivamente trasmesso, e` cio`e possibile che si verifichi un errore di trasmissione. Per tale motivo, il funzionamento del canale binario pu`o essere correttamente descritto come un esperimento aleatorio. Si individuino lo spazio dei campioni relativo alla trasmissione di un solo simbolo e gli eventi:
”si e` verificato un errore nella trasmissione del simbolo 1” ”si e` verificato un errore di trasmissione” ”si e` ricevuto il simbolo 0” ”si e` trasmesso il simbolo 1”
Ex. 1.4 Un esperimento aleatorio consiste nell’estrarre tre carte da un mazzo di carte napoletane. Considerato l’evento le carte estratte sono tutte di coppe” , stabilire in quali delle seguenti estrazioni si verifica l’evento :
$
#
(2 di bastoni, 5 di coppe, asso di denari) (asso di spade, 7 di denari, 10 di spade) (asso di spade, 6 di coppe, 10 di spade) (asso di coppe, 2 di coppe, 3 di coppe)
46
Ex. 1.5 Si considerino i quattro gruppi sanguigni 0, A, B e AB. Una qualsiasi persona pu`o ricevere il sangue da un donatore del suo stesso gruppo ed anche da un donatore del gruppo 0, mentre una persona del gruppo AB pu`o ricevere il sangue da uno qualsiasi dei quattro gruppi. Un esperimento aleatorio consiste nel determinare il gruppo sanguigno per ogni coppia di donatori che arriva in una banca del sangue. 1. Si determini lo spazio dei campioni relativo a quest’esperimento.
”il secondo donatore pu`o ricevere il sangue dal primo” ”ciascuno dei due donatori puo` ricevere il sangue dall’altro” ”nessuno dei due donatori puo` ricevere il sangue dall’altro”
2. Si individuino i seguenti eventi:
3. Nell’ipotesi che gli eventi elementari siano equiprobabili, si calcolino le probabilit`a dei tre eventi individuati. Ex. 1.6 Una moneta non truccata viene lanciata quattro volte. Si determini lo spazio dei campioni e si calcoli la probabilit`a dei seguenti eventi:
”si ottengono esattamente tre teste” ”si ottiene almeno una testa” ”il numero di teste e` uguale al numero di croci” ”il numero di teste e` maggiore del numero di croci”
Ex. 1.7 Dati due eventi
e
si mostri che:
Ex. 1.8 Calcolare le seguenti probabilit`a:
b.
c.
d. e.
;
a.
; ; ;.
sapendo che:
e
Ex. 1.9 e sono due eventi tali che sono mutuamente esclusivi. Pi`u in generale mostrare che e
esclusivi se le loro probabilit`a soddisfano la relazione 47
. Stabilire se non sono mutuamente .
Ex. 1.10 Dimostrare la seguente disuguaglianza di Bonferroni:
Ex. 1.11 Due persone, Tizio e Caio, tentano di telefonarvi a caso tra le 17 e le 18 indipendentemente l’una dall’altra. Tizio, avendo un unico gettone prevede una telefonata di tre minuti, mentre Caio, che ha due gettoni, prevede una telefonata di sei minuti. Ipotizzando che ognuno faccia un solo tentativo, calcolare: - la probabilit`a che Tizio o Caio riescano a parlarvi; - la probabilit`a che Tizio e Caio riescano a parlarvi.
Ex. 1.12 L’esperimento in esame consiste nel valutare la durata di un componente. Verificare che lo spazio delle prove e` e che la corrispondenza:
e` una legge di probabilit`a per l’esperimento in esame.
Ex. 1.13 Un esperimento ha risultati possibili. Dimostrare che si possono eventi distinti relativi a tale esperimento. individuare al pi`u
Ex. 1.14 Siano e due eventi a probabilit`a non nulla. Dimostrare che se sono indipendenti non sono mutuamente esclusivi e viceversa. Ex. 1.15 Relativamente all’esperimento del lancio di una coppia di dadi non truccati, si considerino gli eventi
”facce uguali” ”la somma e` compresa fra 7 e 10 (inclusi)” ”la somma e` 2, 7 o 8”
Si verifichi se i tre eventi sono indipendenti.
Ex. 1.16 Si consideri l’esperimento in cui i possibili risultati sono le terne
c’`e una
Assunti equiprobabili gli eventi elementari, si verifichi se gli eventi in posizione
sono indipendenti. 48
Ex. 1.17 Gli eventi nare la probabilit`a che:
sono indipendenti. Posto
, determi-
a) non se ne verifichi nessuno; b) se ne verifichi almeno uno; c) se ne verifichi esattamente uno, non importa quale. Ex. 1.18 Un generatore deve alimentare 5 carichi intermittenti connessi in parallelo; ciascun carico e` collegato per un quarto del tempo, indipendentemente dagli altri, ed assorbe 2W. Determinare un appropriato spazio di probabilit`a atto a descrivere il problema in esame. Sapendo che il generatore pu`o al pi`u erogare 6W, determinare inoltre con che probabilit`a non si possa soddisfare la richiesta di potenza. Ex. 1.19 Dimostrare che e` pi`u facile ottenere almeno un 6 lanciando un dado 4 volte che un 12 lanciando due dadi 24 volte. Ex. 1.20 Si lancia un dado finch`e non esce la stessa faccia due volte consecutive. Valutare la probabilit`a di lanciare il dado N volte. Ex. 1.21 Due giocatori, A e B, lanciano alternativamente una moneta e vince chi per primo ottiene testa. Si assuma che A inizi il gioco. Determinare la probabilit`a che vinca A supposta la moneta ben bilanciata. Ripetere il calcolo per una moneta arbitraria.
Ex. 1.22 Dimostrare che se , e , lo sono.
e
sono eventi indipendenti, allora anche
Ex. 1.23 Siano e due eventi. Dimostrare che se sono statisticamente indipendenti.
e
,
allora
e
e
Ex. 1.24 Dimostrare che se e` positivamente (rispettivamente negativamente) corre lato a allora anche e` positivamente (rispettivamente negativamente) correlato a .
Ex. 1.25 Dimostrare la regola a catena della probabilit`a, cio`e che
49
Ex. 1.26 Sia per ogni evento
risulta
una partizione discreta dell’evento
. Dimostrare che
Ex. 1.27 Da un mazzo di carte francesi (senza jolly) si sottrae una carta senza guardarla. Poi si gira un’altra carta: con quale probabilit`a quest’ultima e` di fiori?
"
Ex. 1.28 Una moneta non truccata viene lanciata 10 volte e gli esperimenti (lanci) sono tutti indipendenti. Calcolare: teste teste e 1 croce in ordine qualsiasi . Dire se testa al decimo lancio 9 teste nei primi 9 lanci e` minore, uguale o maggiore di 0.5. Stabilire se e` pi`u facile avere N teste e N croci su 2N lanci o N+1 teste e N+1 croci su 2N+2 lanci.
"
"
Ex. 1.29 Un treno arriva a caso in una stazione nell’intervallo e vi sosta minuti. Un viaggiatore, a sua volta, arriva alla stazione in un istante qualsiasi dello stesso intervallo di tempo, indipendentemente dal treno. Determinare: quanto deve valere
affinch`e il viaggiatore prenda il treno con probabilit`a 0.68.
la probabilit`a di prendere il treno senza aspettare;
la probabilit`a di prendere il treno senza aspettare, sapendo che il treno e` arrivato dopo . Ex. 1.30 Alle elezioni, il signor K vota per la lega (evento ). Stabilire con quale probabilit`a vive nel nord ( ), centro ( ) o sud ( ) dell’Italia sapendo che:
, ,
,
Ex. 1.31 Uno studente pu`o sostenere l’esame di Economia con uguale probabilit`a con i professori A, B e C, i quali bocciano con probabilit`a 0.1, 0.3 e 0.2 rispettivamente. Sapendo che uno studente e` stato bocciato, qual e` la probabilit`a che abbia sostenuto l’esame con A?
Ex. 1.32 Un giocatore disonesto trucca un dado in modo da ottenere il numero 6 in un lancio con probabilit`a e un qualsiasi altro risultato con probabilit`a . Sfortunatamente (per lui) al momento del lancio il dado truccato si trova mescolato con altri 50
due dadi non truccati. Il giocatore sceglie un dado a caso, lo lancia, e ottiene 6. Valutare la probabilit`a che sia stato lanciato il dado truccato. Ripetere il calcolo sapendo che, lanciato una seconda volta lo stesso dado, si e` ottenuto ancora 6.
# $ # $
Ex. 1.33 Due terminali, A e B, sono connessi tra loro tramite quattro interruttori ; precisamente e sono connessi in serie tra loro e in parallelo a ed a . Nell’ipotesi che gli interruttori possano essere aperti o chiusi con uguale probabilit`a indipendentemente l’uno dall’altro, determinare: un appropiato spazio di probabilit`a atto a descrivere il problema in esame;
la probabilit`a che i terminali A e B siano connessi; la probabilit`a che i terminali A e B siano connessi, sapendo che l’interruttore e` chiuso; la probabilit`a che l’interruttore connessi.
$
sia chiuso, sapendo che i terminali sono
Ex. 1.34 Tre sorgenti binarie indipendenti emettono il simbolo 1 con probabilit`a e sono connesse tramite un interruttore ad un BSC di parametro . L’interruttore e` connesso per il 50% del tempo alla prima sorgente, e per il 25% del tempo a ciascuna delle altre due sorgenti indipendentemente dallo stato della sorgente.
Determinare: le probabilit`a dei simboli in uscita al BSC; la probabilit`a che il canale sia connesso alla prima sorgente avendo osservato uno zero in uscita al BSC.
51