L’aggettivo aleatorio deriva dal latino alea: dado, l’oggetto casuale per eccellenza.
Prima di riprendere alcuni concetti fondamentali legati alla teoria della probabilità, è opportuno parlare di densità spettrale di potenza.
Elementi Fondamentali
Lo spazio campioneΩ è insieme di tutti i possibili risultati di un esperimento aleatorio. I suoi elementi sono gli ωi,i=1,… e possono essere di numero finito o infinito numerabile.
Un evento è un sottoinsieme dello spazio campione che soddisfa le condizioni:
dato un evento A, anche il suo complemento A è un evento rispetto Ω,
dati gli eventi A e B, anche la loro unione è un evento.
Dato un evento A, l’insieme A∪A≡Ω è detto evento certo. L’insieme A∩A≡∅ è detto evento impossibile.
Gli eventi di uno spazio campione formano la classe degli eventiS. La descrizione della legge di probabilitàPr(⋅) associa ad ogni evento un valore della sua probabilità di accadere. Lo spazio di probabilità è la terna (Ω,S,Pr(⋅)).
Ne derivano alcuni assiomi e le conseguenti proprietà:
Pr(A)≥0,Pr(A)=1−Pr(A)
Pr(Ω)=1, assioma di normalizzazione
A∩B=∅⟹Pr(A∪B)=Pr(A)+Pr(B)
Pr(A∪B)=Pr(A)+Pr(B)+Pr(A∩B)
Si osservi che Pr(A∪B)≡Pr(A+B) e Pr(A∩B)≡Pr(AB).
Dato Pr(B)=0, la probabilità del verificarsi di A condizionata al verificarsi dell’evento B è definita dalla formula di Bayes:
Pr(A∣B):=Pr(B)Pr(AB)=Pr(B)Pr(B∣A)
Ne consegue che A e B sono eventi indipendenti se Pr(A)=Pr(A∣B), ovvero se Pr(AB)=Pr(A)⋅Pr(B)
Costruendo una partizione di Ω con N eventi Bk di S si ha Bi∩Bk=∅ se i=k e:
k=1⋃NBk=Ω
Si può quindi enunciare il teorema della probabilità totale:
Pr(A)=i=1∑NPr(A∣Bk)Pr(Bk)
Esempio: Si definisca un esperimento aleatorio che modelli il lancio di un dado a sole 3 facce (per brevità). Lo spazio campione è dato dai risultati possibili:
Ω={ω1,ω2,ω3}
con ωi che rappresenta la riuscita dell’esperimento con il dado posto sulla i-esima faccia. La classe degli eventi S è data da tutti i sottoinsiemi di Ω compreso l’insieme vuoto ∅ e l’insieme stesso. Gli elementi della classe degli eventi sono 23=8:
Considerando due diversi esperimenti aleatori caratterizzati da differenti spazi campione Ω1 e Ω2, si può definire un esperimento composto: i risultati sono formati da una coppia ordinata dei risultati dei singoli esperimenti aleatori. Lo spazio campione dell’esperimento composto è il prodotto cartesiano Ω=Ω1×Ω2.
Dato un evento A1 definito in Ω1, un evento A2 definito in Ω2, date le corrispondenti leggi di probabilità Pr1(⋅) e Pr2(⋅), allora:
A=A1×A2⟹Pr(A)=Pr1(A1)⋅Pr2(A2)
Prove di Bernulli
Le prove di Bernulli sono note anche come prove ripetute e indipendenti. L’esperimento composto è dato da n esperimenti identici ed indipendenti aventi ognuno uno spazio campione costituito da due soli elementi.
Ωi={ω0;ω1}i=1,…,n⟹Ω=Ω1×⋯×Ωn
Date le probabilità p=Pr({ω0}) ed il suo complemento q=Pr({ω1})=1−p.
Definito l’evento A come: ω0 si presenta k volte in n prove ripetute. Ne consegue la formula di Bernulli, o binomiale:
Pr(A)=(kn)pkqn−k=k!(n−k)!n!⋅pkqn−k0≤k≤n
L’operatore fattoriale di un generico m è definito come la produttoria di tutti i numeri da 1 ad m:
m!:=i=1∏mi
Dati i valori iniziali 0!=1 ed 1!=1 che fungono da exit conditions si può anche definire la “versione” ricorsiva di tale operatore:
m!=m⋅(m−1)!
Variabile Aleatoria
Dato lo spazio di probabilità (Ω,S,Pr(⋅)) con Pr(⋅) numerabile. La corrispondenza X(ωi) che associa ad ogni ωi ad un numero univoco e reale è una variabile aleatoria e se l’insieme per i quali è verificata X(ω)≤a è un evento. Si può omettere la dipendenza da ω (omega) in modo da rendere più snelle le notazioni: X(ωi)⟶X.
Risulta significativo calcolare la probabilità che i valori di tale variabile aleatoria siano racchiusi in un intervallo come a<X≤b. Ciò equivale ad identificare tutti e soli gli elementi di Ω compresi tra a e b che forniscono valori della variabile aleatoria. Questo insieme di risultati è a sua volta un evento a cui si può associare una probabilità.
Distribuzione di probabilità
Dato un generico x∈R si definisce la funzione distribuzione di probabilità (detta anche di ripartizione) di una variabile aleatoria:
FX(x):=Pr({X≤x})
La quale gode delle seguenti probabilità:
limitata in [0,1], ovvero 0≤FX(x)≤1
il suo limite per x→∞ vale 1, ovvero FX(+∞)=1
il suo limite per x→−∞ vale 0, ovvero FX(−∞)=0
è monotona non decrescente, ovvero x1<x2⟹FX(x1)≤FX(x2)
è continua da destra
Densità di probabilità
La derivata della funzione distribuzione di probabilità è detta funzione densità di probabilità:
Per una variabile aleatoria tempo-discreto la probabilità non è distribuita in maniera continua, bensì è discretizzata negli xk∈R. Grazie alla formulazione seguente si può evitare di enunciare due diverse formule per la densità di probabilità:
fX(x)=k∑pkδ(x−xk)
A margine del paragrafo è opportuno parlare del teorema fondamentale per la trasformazione di una variabile aleatoria. Data la trasformazione Y=g(X), la sua distribuzione di probabilità è:
fY(y)=i∑∣g′(xi)∣fX(xi)
Indici caratteristici
Non è sempre possibile conoscere la funzione distribuzione di probabilità di una variabile aleatoria, la cui conoscenza permetterebbe uno studio completo sul comportamento statistico dei valori assunti dalla variabile in oggetto. Si devono quindi prendere in esame degli indici caratteristici (parametri statistici semplificati) relativi alla distribuzione di probabilità.
Valore atteso
Il valore atteso (speranza o attesa) di una variabile aleatoria è definito con la lettera greca eta avente X in pedice:
ηX:=∫−∞+∞xfX(x)dx=E{X}
Se la variabile è discreta, l’integrale viene sostituito da una sommatoria ed il valore atteso diventa:
ηX=∫−∞+∞xk∑pkδ(x−xk)=k∑pkxk
La stima del valore atteso è essa stessa una variabile aleatoria.
Valore medio
Quando si deve gestire la trasformazione di una variabile aleatoria Y=g(X) si utilizza l’operatore di valore medio:
E{g(X)}:=∫−∞+∞g(x)fX(x)dx⟹ηX=E{X}
Tale operatore gode della proprietà di linearità:
E{α⋅g(X)+β⋅h(X)}=α⋅E{g(X)}+β⋅E{h(X)}∀α,β
Il valore atteso e il valore medio coincidono.
Deviazione Standard & Varianza
La deviazione standardσX (sigma) è una misura della dispersione che la variabile aleatoria presenta attorno al suo valore medio E{X}.
Il suo quadrato è detto varianza:
σX2:=E{(X−ηX)2}=∫−∞+∞(x−ηX)2fX(x)dx
Una variabile aleatoria con una varianza nulla, ovvero con valori che non si disperdono attorno al suo valore medio, presenta una densità di probabilità:
fX(x):=δ(x−ηX)
La variabile aleatoria “decade” in un valore deterministico.
La deviazione standard viene spesso utilizzata al posto della varianza perché è dimensionalmente coerente con la variabile aleatoria che si sta valutando.
Valore quadratico medio
Si definisce infine l’operatore di valore quadratico medio (o potenza):
mX2:=E{X2}=∫−∞+∞x2fX(x)dx
Poiché l’operatore di valore medio gode della proprietà di linearità:
σX2=mX2−ηX2
Altri Indici caratteristici
Media Aritmetica
Riprendendo il concetto che la stima del valore atteso è essa stessa una variabile aleatoria. Se si hanno N realizzazioni della variabile aleatoria X, si può stimare il valore atteso mediante la media aritmetica:
ηX=E{X}=N1[i=1∑Nxi]
Varianza Empirica
Se si hanno N realizzazioni della variabile aleatoria X, si può stimare la varianza mediante la varianza empirica:
Var{X}=σX2=N−11[i=1∑N(xi−ηX)2]
La deviazione standard è la radice quadrata della positiva della varianza (in questo caso empirica):
σX=Var{X}=N−11[i=1∑N(xi−ηX)2]
Variabile aleatoria Gaussiana
Una variabile aleatoria è Gaussiana o normale se la sua funzione densità di probabilità è:
fX(x)=2πσX21e−2σX2(x−ηX)2
Per indicare i valori di varianza e valore atteso, si può scrivere in modo sintetico:
X∈N(ηX,σX2)
Una variabile N∈N(0,1) è detta variabile normale standard:
fN(n)=2π1e−n2/2
Si definisce la funzione di distribuzione Φ(x) per una variabile aleatoria normale standard:
Φ(x):=FN(x)=∫−∞x2π1e−n2/2dn
Da questa definizione si può ricavare la formula per FX(x) relativa ad X:
FX(x)=Φ(σXx−ηX)
Correlazione e Covarianza
Una coppia di variabili aleatorie (X,Y) può essere caratterizzata da alcuni parametri che ne fanno comprendere il comportamento statistico congiunto.
La covarianza determina se tra due variabili aleatorie esiste una relazione di dipendenza lineare. Questo indice misura la tendenza di variazione congiunta (co-varianza, per l’appunto) delle due variabili.
Se cXY=0, le variabili sono dette incorrelate.
Se cXY=±1, le variabili sono pienamente correlate.
Allo stesso modo, si può usare il coefficiente di correlazione:
Perché la deviazione standardσX è una misura della dispersione che la variabile aleatoria presenta attorno al proprio valore medio.
Quando le variabili aleatorie X e Y sono indipendenti:
rXYcXY=E{XY}=ηXηY=0
Dunque l’indipendenza implica incorrelazione, ma non viceversa.
La covarianza può essere stimata avendo N coppie di realizzazioni di X ed Y.
cXY=N−11i=1∑N[(xi−ηX)⋅(yi−ηY)]
Sistemi di n variabili aleatorie
Dato un sistema di n variabili aleatorie, si ottene una variabile aleatoria n-dimensionale. Si può dunque definire la funzione distribuzione di probabilità congiunta:
FX1,…,Xn(x1,…,xn):=Pr({X1≤x1,…,Xn≤xn})
Assieme alla relativa funzione densità di probabilità congiunta:
Grazie a questa funzione, come facilmente intuibile, si può ricavare la densità marginale di ciascuna variabile o le densità congiunte di un sottoinsieme del sistema.
Dato l’operatore di trasposizione[⋅]T, si può introdurre la notazione di vettore aleatorio X (in grassetto):
X=X1X2⋮Xn=[X1,X2,…,Xn]T
Per semplicità di notazione, tutti gli indici caratteristici di un sistema di n variabili aleatorie possono essere rappresentate in notazione vettoriale.
Sulla diagonale maggiore di tale matrice quadrata sono posti i valori quadratici medi delle variabili aleatorie che compongono il sistema: mXi2=rXiXi=E{XiXi}
Matrice di covarianza
In modo analogo è costituita anche la matrice di covarianza. Si osserva che sulla diagonale maggiore di tale matrice quadrata sono posti i valori delle varianze σXi2: