Sezione 5.4: Trasformazione di variabile aleatoria e cambio di variabili Su  Capitolo 5: Probabilità, processi, statistica Sezione 5.6: Elementi di statistica 

5.5  Gaussiana multidimensionale

Questo termine individua una v.a. vettoriale X ottenuta a partire da n v.a. marginali xi,  i  = 1, 2, ⋯, n tutte gaussiane. La d.d.p. congiunta in questo caso è espressa in modo formalmente simile a quello del caso unidimensionale, come
(10.16) pX(x) = (1)/(((2π)ndet(Σx)))exp  − (1)/(2)(  x − mx)Σ − 1x(x − mx)
in cui x = [x1,  x2, ⋯, xn] è il vettore riga che rappresenta le n v.a. marginali, mx è il vettore dei rispettivi valori medi, Σx è la matrice di covarianza (vedi § 6.1.2↓) i cui n  × n elementi risultano pari a σxi,  xj = E{(xi − mxi)(xj  − mxj)}, e rappresenta l’operatore di trasposizione. In tal caso le v.a. marginali xi vengono dette congiuntamente gaussiane, e la conoscenza di mx e Σx ne definisce in modo completo la densità di probabilità.

5.5.1  Indipendenza statistica per v.a. gaussiane incorrelate

Affrontiamo la dimostrazione di quanto affermato in fondo al § 6.1.2↓, ovvero che, unicamente nel caso di v.a. congiuntamente gaussiane, il sussistere di incorrelazione tra le stesse ne implica l’indipendenza statistica. Osserviamo infatti che nel caso in cui le v.a. marginali siano incorrelate, ossia σxi,  xj = 0 con i  ≠ j, la matrice di covarianza Σx risulta essere diagonale, così come la sua inversa, i cui elementi risultano in tal caso essere pari a 1σ2xi; inoltre, si ottiene che det(Σx)  = ni = 1σ2xi. Pertanto in questo caso la (10.16↑) si esprime come
p(x)  = (1)/(((2π)n)ni = 1σxi)exp − (1)/(2)ni = 1((xi − mxi)2)/(σ2xi)
che evidentemente equivale al prodotto delle singole d.d.p. marginali[161] [161] Si verifichi per esercizio che nel caso di una coppia di v.a. congiuntamente gaussiane, a media nulla ed uguale varianza, si ottiene l’espressione (16.2↓) di pag. 1↓.
p(xi) = (1)/((2π)σxi)exp − (1)/(2)((xi − mxi)2)/(σ2xi)
Ma dato che questo risultato è proprio la definizione di indipendenza statistica (§ 6.1.2↓) tra le v.a. marginali, abbiamo ottenuto la dimostrazione cercata.

5.5.2  Trasformazione lineare di v.a. gaussiane

Un’altra importante proprietà di questo tipo di v.a. è la sua invarianza ripetto alle operazioni di combinazione lineare. Se infatti indichiamo con X una v.a. gaussiana multivariata, e con Y = XA un secondo vettore aleatorio ottenuto mediante moltiplicazione di X per una matrice A, fornendo yj = ni = 1aijxi, possiamo mostrare che anche Y risulta descrivere una v.a. gaussiana. In accordo con la trattazione svolta al § 5.4.2↑, scriviamo la trasformazione inversa come X =  YB in cui B = A − 1, mentre per la d.d.p. della nuova v.a. Y, in base alla (10.15↑) otteniamo pY(y) = pX(x  = yB)det(B), in quanto la matrice jacobiana J(X ⁄ Y) corrisponde alla trasposta della matrice B stessa[162]  [162] Infatti, potendo scrivere xi  = nj  = 1bjiyj, l’elemento i, j della matrice J risulta pari a jij = (xi)/(yj) = bji.; inoltre, risulta che mx  = myB. Sostituendo questi risultati nella (10.16↑) si ottiene pertanto
pY(y)  =  (det(B))/(((2π)ndet(Σx)))exp  − (1)/(2)(  yB − myB)Σ − 1x(yB − myB)  =  (det(B))/(((2π)ndet(Σx)))exp  − (1)/(2)(  y − my)BΣ − 1xB(y − my)
che è nuovamente l’espressione di una d.d.p. gaussiana multivariata y, con media my  = mxB − 1 =  mxA e covarianza Σy = AΣxA[163] [163] Infatti risulta (BΣ − 1xB) − 1 = (  B) − 1  ΣxB − 1 che, essendo B − 1 =  A, fornisce il risultato per Σy..

5.5.3  Processo gaussiano

Una importante classe di segnali aleatori è costituita da un processo stazionario in senso lato, la cui d.d.p. di primo ordine è gaussiana, e dai cui membri è possibile estrarre ad istanti diversi una o più v.a. gaussiane, che indichiamo collettivamente con il vettore aleatorio x, descritto dalla d.d.p. multivariata (10.16↑).
processo gaussiano
La stazionarietà garantisce che il corrispondente vettore dei valori medi mx presenti tutti gli elementi uguali e pari a mx  = E{x(t)}, e che la matrice di covarianza Σx presenti elementi ottenuti valutando la covarianza σ2x(τ) = E{(x(t) − mx)(x(t + τ)  − mx)} del processo (vedi eq. 10.20↓) in corrispondenza degli intervalli temporali τij tra gli istanti di campionamento nei quali sono estratte le coppie di v.a. marginali che descrivono la gaussiana multidimensionale.
Essendo il processo gaussiano, le due grandezze mx e Σx lo descrivono completamente, e se si verifica anche l’ipotesi di ergodicità, possono essere stimate a partire da una qualunque realizzazione.
  Sezione 5.4: Trasformazione di variabile aleatoria e cambio di variabili Su  Capitolo 5: Probabilità, processi, statistica Sezione 5.6: Elementi di statistica 
x Logo

Trasmissione dei Segnali e Sistemi di Telecomunicazione

http://infocom.uniroma1.it/alef/libro/

Un esperimento divenuto nel tempo un riferimento culturale. Scopri come effettuare il download, ricevere gli aggiornamenti, e contribuire!