Skip to content

Teoria della Probabilitร 

Lโ€™aggettivo aleatorio deriva dal latino alea: dado, lโ€™oggetto casuale per eccellenza.

Prima di riprendere alcuni concetti fondamentali legati alla teoria della probabilitร , รจ opportuno parlare di densitร  spettrale di potenza.

Lo spazio campione ฮฉ\Omega รจ insieme di tutti i possibili risultati di un esperimento aleatorio. I suoi elementi sono gli ฯ‰i,โ€…โ€Ši=1,โ€ฆ\omega_i,\;i=1,\dots e possono essere di numero finito o infinito numerabile.

Un evento รจ un sottoinsieme dello spazio campione che soddisfa le condizioni:

  1. dato un evento A, anche il suo complemento Aโ€พ\overline{A} รจ un evento rispetto ฮฉ\Omega,
  2. dati gli eventi A e B, anche la loro unione รจ un evento.

Dato un evento A, lโ€™insieme AโˆชAโ€พโ‰กฮฉA \cup\overline{A} \equiv \Omega รจ detto evento certo. Lโ€™insieme AโˆฉAโ€พโ‰กโˆ…A \cap\overline{A} \equiv \empty รจ detto evento impossibile.

Gli eventi di uno spazio campione formano la classe degli eventi S. La descrizione della legge di probabilitร  Pr(โ‹…)\text{Pr}( \cdot ) associa ad ogni evento un valore della sua probabilitร  di accadere. Lo spazio di probabilitร  รจ la terna (ฮฉ,โ€‰S,โ€‰Pr(โ‹…))(\Omega,\,S,\,\text{Pr}( \cdot )).

Ne derivano alcuni assiomi e le conseguenti proprietร :

  • Pr(A)โ‰ฅ0,โ€…โ€ŠPr(Aโ€พ)=1โˆ’Pr(A)\text{Pr}(A) \geq 0, \; \text{Pr}(\overline{A}) = 1-\text{Pr}(A)
  • Pr(ฮฉ)=1\text{Pr}( \Omega )=1, assioma di normalizzazione
  • AโˆฉB=โˆ…โ€…โ€ŠโŸนโ€…โ€ŠPr(AโˆชB)=Pr(A)+Pr(B)A\cap B=\empty \implies \text{Pr}(A \cup B) = \text{Pr}(A)+\text{Pr}(B)
  • Pr(AโˆชB)=Pr(A)+Pr(B)+Pr(AโˆฉB)\text{Pr}(A \cup B)=\text{Pr}(A)+\text{Pr}(B)+\text{Pr}(A \cap B)

Si osservi che Pr(AโˆชB)โ‰กPr(A+B)\text{Pr}(A \cup B) \equiv \text{Pr}(A+B) e Pr(AโˆฉB)โ‰กPr(AB)\text{Pr}(A \cap B) \equiv \text{Pr}(AB).

Dato Pr(B)โ‰ 0\text{Pr}(B)\neq 0, la probabilitร  del verificarsi di A condizionata al verificarsi dellโ€™evento B รจ definita dalla formula di Bayes:

Pr(AโˆฃB):=Pr(AB)Pr(B)=Pr(BโˆฃA)Pr(B)\text{Pr}(A|B) := \frac{\text{Pr}(AB)}{\text{Pr}(B)} = \frac{\text{Pr}(B|A)}{\text{Pr}(B)}

Ne consegue che A e B sono eventi indipendenti se Pr(A)=Pr(AโˆฃB)\text{Pr}(A) = \text{Pr}(A|B), ovvero se Pr(AB)=Pr(A)โ‹…Pr(B)\text{Pr}(AB)=\text{Pr}(A)\cdot\text{Pr}(B)

Costruendo una partizione di ฮฉ\Omega con N eventi BkB_k di SS si ha BiโˆฉBkโ‰ โˆ… se iโ‰ kB_i\cap B_k \neq \empty \text{ se } i \neq k e:

โ‹ƒk=1NBk=ฮฉ\Large \bigcup_{k = 1}^{N} B_k = \Omega

Si puรฒ quindi enunciare il teorema della probabilitร  totale:

Pr(A)=โˆ‘i=1NPr(AโˆฃBk)Pr(Bk)\text{Pr}(A) = \sum_{i = 1}^N \text{Pr}(A|B_k) \text{Pr}(B_k)

Esempio: Si definisca un esperimento aleatorio che modelli il lancio di un dado a sole 3 facce (per brevitร ). Lo spazio campione รจ dato dai risultati possibili:

ฮฉ={ฯ‰1,ฯ‰2,ฯ‰3}\Omega = \{\omega_1, \omega_2, \omega_3\}

con ฯ‰i\omega_i che rappresenta la riuscita dellโ€™esperimento con il dado posto sulla i-esima faccia. La classe degli eventi S รจ data da tutti i sottoinsiemi di ฮฉ\Omega compreso lโ€™insieme vuoto โˆ…\empty e lโ€™insieme stesso. Gli elementi della classe degli eventi sono 23=82^3=8:

S={โˆ…โ€…โ€Š;{ฯ‰1}โ€…โ€Š;{ฯ‰2}โ€…โ€Š;{ฯ‰3}โ€…โ€Š;{ฯ‰1,ฯ‰2}โ€…โ€Š;{ฯ‰2,ฯ‰3}โ€…โ€Š;{ฯ‰1,ฯ‰3}โ€…โ€Š;{ฯ‰1,ฯ‰2,ฯ‰3}}\eq{ S=\bigg\{ & \emptyset \; ; \{\omega_1\}\; ; \{\omega_2\}\; ; \{\omega_3\}\; ;\{\omega_1,\omega_2\}\; ; \{\omega_2,\omega_3\}\; ; \{\omega_1,\omega_3\}\; ;\{\omega_1, \omega_2, \omega_3\} \bigg\}}

Si puรฒ affermare che ogni faccia abbia la stessa probabilitร  di essere il risultato di un lancio:

Pr({ฯ‰1})=Pr({ฯ‰2})=Pr({ฯ‰3})=1/3\text{Pr}( \{ \omega_1 \} )=\text{Pr}( \{ \omega_2 \} )=\text{Pr}( \{ \omega_3 \} )=1/3

Dato lโ€™evento A ={=\{ la faccia del dado รจ dispari }\}, la sua probabilitร  รจ:

Pr(A)=Pr({ฯ‰1}โˆช{ฯ‰3})==Pr({ฯ‰1})+Pr({ฯ‰3})==13+13=23\eq{ \text{Pr}(A) &= \text{Pr}( \{ \omega_1 \} \cup \{\omega_3\}) =\\ &= \text{Pr}( \{ \omega_1 \} ) + \text{Pr}( \{ \omega_3 \} ) =\\ &= \frac{1}{3}+\frac{1}{3} = \frac{2}{3} }

Considerando due diversi esperimenti aleatori caratterizzati da differenti spazi campione ฮฉ1\Omega_1 e ฮฉ2\Omega_2, si puรฒ definire un esperimento composto: i risultati sono formati da una coppia ordinata dei risultati dei singoli esperimenti aleatori. Lo spazio campione dellโ€™esperimento composto รจ il prodotto cartesiano ฮฉ=ฮฉ1ร—ฮฉ2\Omega = \Omega_1 \times \Omega_2. Dato un evento A1A_1 definito in ฮฉ1\Omega_1, un evento A2A_2 definito in ฮฉ2\Omega_2, date le corrispondenti leggi di probabilitร  Pr1(โ‹…)\text{Pr}_{1}(\cdot) e Pr2(โ‹…)\text{Pr}_{2}(\cdot), allora:

A=A1ร—A2โ€…โ€ŠโŸนโ€…โ€ŠPr(A)=Pr1(A1)โ‹…Pr2(A2)A=A_1\times A_2\implies\text{Pr}(A)=\text{Pr}_{1}(A_1)\cdot\text{Pr}_{2}(A_2)

Le prove di Bernulli sono note anche come prove ripetute e indipendenti. Lโ€™esperimento composto รจ dato da n esperimenti identici ed indipendenti aventi ognuno uno spazio campione costituito da due soli elementi.

ฮฉi={ฯ‰0;โ€…โ€Šฯ‰1}i=1,โ€‰โ€ฆโ€‰,โ€‰nโ€…โ€ŠโŸนโ€…โ€Šฮฉ=ฮฉ1ร—โ‹ฏร—ฮฉn\eq{ \Omega_i = \{\omega_0;\;\omega_1\} \quad i = 1,\,\dots\,,\,n \implies \Omega & = \Omega_1 \times\dots\times\Omega_n }

Date le probabilitร  p=Pr({ฯ‰0})p=\text{Pr}( \{ \omega_0 \} ) ed il suo complemento q=Pr({ฯ‰1})=1โˆ’pq=\text{Pr}( \{ \omega_1 \} ) = 1-p. Definito lโ€™evento A come: ฯ‰0\omega_0 si presenta k volte in n prove ripetute. Ne consegue la formula di Bernulli, o binomiale:

Pr(A)=(nk)pkqnโˆ’k=n!k!(nโˆ’k)!โ‹…pkqnโˆ’k0โ‰คkโ‰คn\text{Pr}(A) = \binom{n}{k}p^k q^{n-k}=\frac{n!}{k!(n-k)!}\cdot p^k q^{n-k}\quad 0 \leq k\leq n

Lโ€™operatore fattoriale di un generico m รจ definito come la produttoria di tutti i numeri da 11 ad m:

m!:=โˆi=1mi\large m! := \prod_{i = 1}^{m}i

Dati i valori iniziali 0!=10!=1 ed 1!=11!=1 che fungono da exit conditions si puรฒ anche definire la โ€œversioneโ€ ricorsiva di tale operatore:

m!=mโ‹…(mโˆ’1)!\large m! = m \cdot (m-1)!

Dato lo spazio di probabilitร  (ฮฉ,โ€‰S,โ€‰Pr(โ‹…))(\Omega,\,S,\,\text{Pr}( \cdot )) con Pr(โ‹…)\text{Pr}( \cdot ) numerabile. La corrispondenza X(ฯ‰i)X(\omega_i) che associa ad ogni ฯ‰i\omega_i ad un numero univoco e reale รจ una variabile aleatoria e se lโ€™insieme per i quali รจ verificata X(ฯ‰)โ‰คaX(\omega)\leq a รจ un evento. Si puรฒ omettere la dipendenza da ฯ‰\omega (omega) in modo da rendere piรน snelle le notazioni: X(ฯ‰i)โŸถXX(\omega_i) \longrightarrow X.

Risulta significativo calcolare la probabilitร  che i valori di tale variabile aleatoria siano racchiusi in un intervallo come a<Xโ‰คba<X\leq b. Ciรฒ equivale ad identificare tutti e soli gli elementi di ฮฉ\Omega compresi tra a e b che forniscono valori della variabile aleatoria. Questo insieme di risultati รจ a sua volta un evento a cui si puรฒ associare una probabilitร .

Dato un generico xโˆˆRx \in \R si definisce la funzione distribuzione di probabilitร  (detta anche di ripartizione) di una variabile aleatoria:

FX(x):=Pr({Xโ‰คx})F_X(x):=\text{Pr}(\{X \leq x\})

La quale gode delle seguenti probabilitร :

  1. limitata in [0,โ€‰1][0,\,1], ovvero 0โ‰คFX(x)โ‰ค10\leq F_X(x) \leq 1
  2. il suo limite per xโ†’โˆžx \to \infty vale 1, ovvero FX(+โˆž)=1F_X(+\infty)=1
  3. il suo limite per xโ†’โˆ’โˆžx \to -\infty vale 0, ovvero FX(โˆ’โˆž)=0F_X(-\infty)=0
  4. รจ monotona non decrescente, ovvero x1<x2โ€…โ€ŠโŸนโ€…โ€ŠFX(x1)โ‰คFX(x2)x_1<x_2 \implies F_X(x_1) \leq F_X(x_2)
  5. รจ continua da destra

La derivata della funzione distribuzione di probabilitร  รจ detta funzione densitร  di probabilitร :

fX(x):=dFX(x)dxf_X(x) := \frac{d F_X(x)}{dx}

Da cui derivano le seguenti proprietร :

fX(x)โ‰ฅ0Pr({a<Xโ‰คb})=FX(b)โˆ’FX(a)=โˆซabfX(x)dxโˆซโˆ’โˆžโˆžfX(x)dx=1โŸถprobabilitaโ€™ evento certo\eq { & f_X(x) \geq 0 \\ & \text{Pr}(\{a<X\leq b\}) = F_X(b)-F_X(a)=\int_a^b f_X(x)dx \\ & \int_{-\infty}^\infty f_X(x)dx = 1 \longrightarrow \text{probabilita' evento certo} }

Per una variabile aleatoria tempo-discreto la probabilitร  non รจ distribuita in maniera continua, bensรฌ รจ discretizzata negli xkโˆˆRx_k \in \R. Grazie alla formulazione seguente si puรฒ evitare di enunciare due diverse formule per la densitร  di probabilitร :

fX(x)=โˆ‘kpkฮด(xโˆ’xk)f_X(x)=\sum_k p_k \delta(x-x_k)

A margine del paragrafo รจ opportuno parlare del teorema fondamentale per la trasformazione di una variabile aleatoria. Data la trasformazione Y=g(X)Y=g(X), la sua distribuzione di probabilitร  รจ:

fY(y)=โˆ‘ifX(xi)โˆฃgโ€ฒ(xi)โˆฃ\large f_Y(y) = \sum_i \frac{f_X(x_i)}{|g'(x_i)|}

Non รจ sempre possibile conoscere la funzione distribuzione di probabilitร  di una variabile aleatoria, la cui conoscenza permetterebbe uno studio completo sul comportamento statistico dei valori assunti dalla variabile in oggetto. Si devono quindi prendere in esame degli indici caratteristici (parametri statistici semplificati) relativi alla distribuzione di probabilitร .

Il valore atteso (speranza o attesa) di una variabile aleatoria รจ definito con la lettera greca eta avente X in pedice:

ฮทX:=โˆซโˆ’โˆž+โˆžxfX(x)dx=E{X}\eta_X := \int_{-\infty}^{+\infty} x f_X(x)dx=E\{X\}

Se la variabile รจ discreta, lโ€™integrale viene sostituito da una sommatoria ed il valore atteso diventa:

ฮทX=โˆซโˆ’โˆž+โˆžxโˆ‘kpkฮด(xโˆ’xk)=โˆ‘kpkxk\eta_X = \int_{-\infty}^{+\infty} x \sum_k p_k \delta(x-x_k) = \sum_k p_k x_k

La stima del valore atteso รจ essa stessa una variabile aleatoria.

Quando si deve gestire la trasformazione di una variabile aleatoria Y=g(X)Y=g(X) si utilizza lโ€™operatore di valore medio:

E{g(X)}:=โˆซโˆ’โˆž+โˆžg(x)fX(x)dxโ€…โ€ŠโŸนโ€…โ€ŠฮทX=E{X}E\{g(X)\}:= \int_{-\infty}^{+\infty} g(x) f_X(x)dx \implies \eta_X=E\{X\}

Tale operatore gode della proprietร  di linearitร :

E{ฮฑโ‹…g(X)+ฮฒโ‹…h(X)}=ฮฑโ‹…E{g(X)}+ฮฒโ‹…E{h(X)}โˆ€ฮฑ,ฮฒE\{\alpha\cdot g(X)+\beta \cdot h(X)\}=\alpha\cdot E\{g(X)\}+\beta\cdot E\{h(X)\}\quad \forall \alpha, \beta

Il valore atteso e il valore medio coincidono.

La deviazione standard ฯƒX\sigma_X (sigma) รจ una misura della dispersione che la variabile aleatoria presenta attorno al suo valore medio E{X}E\{X\}.

Il suo quadrato รจ detto varianza:

ฯƒX2:=E{(Xโˆ’ฮทX)2}=โˆซโˆ’โˆž+โˆž(xโˆ’ฮทX)2fX(x)dx\sigma_X^2 := E\{(X-\eta_X)^2\} = \int_{-\infty}^{+\infty} (x-\eta_X)^2 f_X(x)dx

Una variabile aleatoria con una varianza nulla, ovvero con valori che non si disperdono attorno al suo valore medio, presenta una densitร  di probabilitร :

fX(x):=ฮด(xโˆ’ฮทX)f_X(x) := \delta(x-\eta_X)

La variabile aleatoria โ€œdecadeโ€ in un valore deterministico.

La deviazione standard viene spesso utilizzata al posto della varianza perchรฉ รจ dimensionalmente coerente con la variabile aleatoria che si sta valutando.

Si definisce infine lโ€™operatore di valore quadratico medio (o potenza):

mX2:=E{X2}=โˆซโˆ’โˆž+โˆžx2fX(x)dxm_X^2 := E\{X^2\} =\int_{-\infty}^{+\infty} x^2 f_X(x)dx

Poichรฉ lโ€™operatore di valore medio gode della proprietร  di linearitร :

ฯƒX2=mX2โˆ’ฮทX2\sigma_X^2 = m_X^2-\eta_X^2

Riprendendo il concetto che la stima del valore atteso รจ essa stessa una variabile aleatoria. Se si hanno N realizzazioni della variabile aleatoria X, si puรฒ stimare il valore atteso mediante la media aritmetica:

ฮทX^=E^{X}=1N[โˆ‘i=1Nxi]\widehat{\eta_X} = \widehat{E}\{X\} = \frac{1}{N}\bigg[ \sum_{i=1}^N x_i \bigg]

Se si hanno N realizzazioni della variabile aleatoria X, si puรฒ stimare la varianza mediante la varianza empirica:

Var^{X}=ฯƒX2^=1Nโˆ’1[โˆ‘i=1N(xiโˆ’ฮทX^)2]\widehat{\text{Var}}\{X\} =\widehat{\sigma_X^2} = \frac{1}{N-1}\bigg[ \sum_{i=1}^N \Big(x_i-\widehat{\eta_X}\Big)^2 \bigg]

La deviazione standard รจ la radice quadrata della positiva della varianza (in questo caso empirica):

ฯƒX^=Var^{X}=1Nโˆ’1[โˆ‘i=1N(xiโˆ’ฮทX^)2]\widehat{\sigma_X} = \sqrt{\widehat{\text{Var}}\{X\}} =\sqrt{\frac{1}{N-1}\bigg[ \sum_{i=1}^N \Big(x_i-\widehat{\eta_X}\Big)^2 \bigg]}

Una variabile aleatoria รจ Gaussiana o normale se la sua funzione densitร  di probabilitร  รจ:

fX(x)=12ฯ€ฯƒX2eโˆ’(xโˆ’ฮทX)22ฯƒX2\Large f_X(x) = \frac{1}{\sqrt{2\pi\sigma_X^2}}e^{-\frac{(x-\eta_X)^2}{2\sigma_X^2}}

Per indicare i valori di varianza e valore atteso, si puรฒ scrivere in modo sintetico:

XโˆˆN(ฮทX,ฯƒX2)X \in \mathcal{N}(\eta_X, \sigma_X^2)

Una variabile NโˆˆN(0,1)N \in \mathcal{N}(0,1) รจ detta variabile normale standard:

fN(n)=12ฯ€eโˆ’โ€…โ€Šn2/2\Large f_N(n)= \frac{1}{\sqrt{2\pi}}e^{-\;n^2/2}

Si definisce la funzione di distribuzione ฮฆ(x)\Phi(x) per una variabile aleatoria normale standard:

ฮฆ(x):=FN(x)=โˆซโˆ’โˆžx12ฯ€eโˆ’โ€…โ€Šn2/2dn\Phi(x) := F_N(x) = \int_{-\infty}^x \frac{1}{\sqrt{2\pi}}e^{-\;n^2/2} dn

Da questa definizione si puรฒ ricavare la formula per FX(x)F_X(x) relativa ad X:

FX(x)=ฮฆ(xโˆ’ฮทXฯƒX)F_X(x) = \Phi\bigg(\frac{x-\eta_X}{\sigma_X}\bigg)

Una coppia di variabili aleatorie (X,Y)(X,Y) puรฒ essere caratterizzata da alcuni parametri che ne fanno comprendere il comportamento statistico congiunto.

La densitร  di probabilitร  congiunta รจ:

fXY(x,y)=โˆ‚โˆ‚y(โˆ‚โˆ‚x(FXY(x,y)))โˆ‚2FXY(x,y)โˆ‚xโˆ‚yf_{XY}(x,y) = \frac{\partial}{\partial y}\bigg( \frac{\partial}{\partial x}\Big( F_{XY}(x,y) \Big)\bigg) \frac{\partial^2 F_{XY}(x,y)}{\partial x \partial y}

La distribuzione di probabilitร  congiunta รจ:

FXY(x,y)=PrXY{Xโ‰คx,โ€…โ€ŠYโ‰คy}==โˆซโˆ’โˆžxโˆซโˆ’โˆžyfXY(x,y)dxdy\eq{ F_{XY}(x,y) &= \text{Pr}_{XY}\{X \leq x, \; Y \leq y\} =\\ &= \int_{-\infty}^x \int_{-\infty}^y f_{XY}(x,y)dxdy }

La correlazione tra X e Y รจ:

rXY:=E{XY}=โˆซโˆ’โˆž+โˆžโˆซโˆ’โˆž+โˆžxyfXY(x,y)โ€…โ€Šdxโ€…โ€Šdyr_{XY} :=E\{XY\} = \int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}x y f_{XY}(x,y)\;dx\;dy

La covarianza tra X e Y รจ:

cXY:=E{(Xโˆ’ฮทX)โ‹…(Yโˆ’ฮทY)}==โˆซโˆ’โˆž+โˆžโˆซโˆ’โˆž+โˆž(xโˆ’ฮทX)(yโˆ’ฮทY)fXY(x,y)โ€…โ€Šdxโ€…โ€Šdy\eq { c_{XY} &:= E\{(X-\eta_X)\cdot(Y-\eta_Y)\} = \\ & = \int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty} (x-\eta_X)(y-\eta_Y) f_{XY}(x,y)\;dx\;dy }

Tali indici sono legati dalla relazione:

cXY=rXYโˆ’ฮทXฮทYc_{XY} = r_{XY}-\eta_X \eta_Y

La covarianza determina se tra due variabili aleatorie esiste una relazione di dipendenza lineare. Questo indice misura la tendenza di variazione congiunta (co-varianza, per lโ€™appunto) delle due variabili.

Se cXY=0c_{XY}=0, le variabili sono dette incorrelate. Se cXY=ยฑ1c_{XY}=\pm 1, le variabili sono pienamente correlate.

Allo stesso modo, si puรฒ usare il coefficiente di correlazione:

ฯXY:=E{Xโˆ’ฮทXฯƒXโ‹…Yโˆ’ฮทYฯƒY}==(rXYโˆ’ฮทXฮทY)ฯƒXฯƒY==cXYฯƒXฯƒY\eq{ \rho_{XY} &:= E\bigg\{\frac{X-\eta_X}{\sigma_X}\cdot\frac{Y-\eta_Y}{\sigma_Y} \bigg\}=\\ &= \frac{(r_{XY}-\eta_X \eta_Y)}{\sigma_X \sigma_Y}=\\ &= \frac{c_{XY}}{\sigma_X \sigma_Y}\\ }

Perchรฉ la deviazione standard ฯƒX\sigma_X รจ una misura della dispersione che la variabile aleatoria presenta attorno al proprio valore medio.

Quando le variabili aleatorie X e Y sono indipendenti:

rXY=E{XY}=ฮทXฮทYcXY=0\eq{ r_{XY} &= E\{XY\} = \eta_X \eta_Y \\ c_{XY} &= 0 }

Dunque lโ€™indipendenza implica incorrelazione, ma non viceversa.


La covarianza puรฒ essere stimata avendo N coppie di realizzazioni di X ed Y.

cXY^=1Nโˆ’1โˆ‘i=1N[(xiโˆ’ฮทX^)โ‹…(yiโˆ’ฮทY^)]\widehat{c_{XY}} = \frac{1}{N-1} \sum_{i=1}^N \bigg[\Big(x_i-\widehat{\eta_X}\Big) \cdot \Big(y_i-\widehat{\eta_Y}\Big) \bigg]

Dato un sistema di n variabili aleatorie, si ottene una variabile aleatoria n-dimensionale. Si puรฒ dunque definire la funzione distribuzione di probabilitร  congiunta:

FX1,โ€‰โ€ฆ,โ€‰Xn(x1,โ€‰โ€ฆ,โ€‰xn):=Pr({X1โ‰คx1,โ€‰โ€ฆ,โ€‰Xnโ‰คxn})\Large F_{X_1,\,\dots,\,X_n}(x_1,\,\dots,\,x_n) := \text{Pr}(\{X_1 \leq x_1,\,\dots,\,X_n \leq x_n\})

Assieme alla relativa funzione densitร  di probabilitร  congiunta:

fX1,โ€‰โ€ฆ,โ€‰Xn(x1,โ€‰โ€ฆ,โ€‰xn):=โˆ‚nFX1,โ€‰โ€ฆ,โ€‰Xn(x1,โ€‰โ€ฆ,โ€‰xn)โˆ‚x1,โ€‰โ€ฆ,โ€‰xn\Large f_{X_1,\,\dots,\,X_n}(x_1,\,\dots,\,x_n) := \frac{\partial^n F_{X_1,\,\dots,\,X_n}(x_1,\,\dots,\,x_n)}{\partial x_1,\,\dots,\,x_n}

Grazie a questa funzione, come facilmente intuibile, si puรฒ ricavare la densitร  marginale di ciascuna variabile o le densitร  congiunte di un sottoinsieme del sistema.

Dato lโ€™operatore di trasposizione [โ‹…]T[\cdot]^T, si puรฒ introdurre la notazione di vettore aleatorio X\bold{X} (in grassetto):

X=[X1X2โ‹ฎXn]=[X1,โ€…โ€ŠX2,โ€…โ€Šโ€ฆ,โ€…โ€ŠXn]T\bold{X}=\begin{bmatrix}X_1\\X_2\\\vdots\\X_n\end{bmatrix}=[X_1,\; X_2,\;\dots,\; X_n]^T

Per semplicitร  di notazione, tutti gli indici caratteristici di un sistema di n variabili aleatorie possono essere rappresentate in notazione vettoriale.

ฮทX:=E{X}=[ฮทX1,โ€‰โ€ฆ,โ€‰ฮทXn]TFX(x):=Pr({X1โ‰คx1,โ€‰โ€ฆ,โ€‰Xnโ‰คxn})fX(x):=โˆ‚nFX(x)โˆ‚x\large \eq{ \eta_{\bold{X}} & := E\{\bold{X}\} = [\eta_{X_1},\,\dots,\,\eta_{X_n}]^T \\ \\ F_{\bold{X}}&(\bold{x}) := \text{Pr}(\{X_1 \leq x_1,\,\dots,\,X_n \leq x_n\}) \\ \\ f_{\bold{X}}&(\bold{x}) := \frac{\partial^n F_{\bold{X}}(\bold{x})}{\partial \bold{x}} }

Le correlazioni tra tutte le variabili aleatorie possono essere raccolte nella matrice di correlazione:

RX:=E{XXT}=[rX1X1rX1X2โ€ฆrX1XnrX2X1rX2X2โ€ฆrX2Xnโ‹ฎโ‹ฎโ‹ฑโ‹ฎrXnX1rXnX2โ€ฆrXnXn]\bold{R}_{\bold{X}} := E\Big\{\bold{XX}^T\Big\} = \begin{bmatrix} r_{X_1 X_1} & r_{X_1 X_2} & \dots & r_{X_1 X_n} \\ r_{X_2 X_1} & r_{X_2 X_2} & \dots & r_{X_2 X_n} \\ \vdots & \vdots & \ddots & \vdots \\ r_{X_n X_1} & r_{X_n X_2} & \dots & r_{X_n X_n} \\ \end{bmatrix}

Sulla diagonale maggiore di tale matrice quadrata sono posti i valori quadratici medi delle variabili aleatorie che compongono il sistema: mXi2=rXiXi=E{XiXi}m_{X_i}^2 = r_{X_i X_i} = E\{X_i X_i\}

In modo analogo รจ costituita anche la matrice di covarianza. Si osserva che sulla diagonale maggiore di tale matrice quadrata sono posti i valori delle varianze ฯƒXi2\sigma_{X_i}^2:

CX:=E{(Xโˆ’ฮทX)(Xโˆ’ฮทX)T}==[cX1X1cX1X2โ€ฆcX1XncX2X1cX1X2โ€ฆcX2Xnโ‹ฎโ‹ฎโ‹ฑโ‹ฎcXnX1cXnX2โ€ฆcXnXn]==[ฯƒX12cX1X2โ€ฆcX1XncX2X1ฯƒX22โ€ฆcX2Xnโ‹ฎโ‹ฎโ‹ฑโ‹ฎcXnX1cXnX2โ€ฆฯƒXn2]==RXโˆ’ฮทXโ‹…ฮทXT\eq{ \bold{C}_{\bold{X}} &:= E\Big\{(\bold{X}-\eta_{\bold{X}})(\bold{X}-\eta_{\bold{X}})^T\Big\} =\\ \\ &=\begin{bmatrix} c_{X_1 X_1} & c_{X_1 X_2} & \dots & c_{X_1 X_n} \\ c_{X_2 X_1} & c_{X_1 X_2} & \dots & c_{X_2 X_n} \\ \vdots & \vdots & \ddots & \vdots \\ c_{X_n X_1} & c_{X_n X_2} & \dots & c_{X_n X_n} \\ \end{bmatrix} = \\ \\ &=\begin{bmatrix} \sigma_{X_1}^2 & c_{X_1 X_2} & \dots & c_{X_1 X_n} \\ c_{X_2 X_1} & \sigma_{X_2}^2 & \dots & c_{X_2 X_n} \\ \vdots & \vdots & \ddots & \vdots \\ c_{X_n X_1} & c_{X_n X_2} & \dots & \sigma_{X_n}^2 \\ \end{bmatrix}=\\ \\ &= \bold{R}_{\bold{X}} - \eta_{X}\cdot \eta_{X}^T }