Capitolo 6: Densità spettrale e filtraggio Su  Capitolo 6: Densità spettrale e filtraggio Sezione 6.2: Spettro di densità di potenza 

6.1  Correlazione e covarianza

Al § 5.3.5↑ abbiamo discusso come la caratterizzazione statistica del primo ordine pX(x) di un processo {x(t,  θ)} stazionario ed ergodico consenta il calcolo del suo valor medio mx e della varianza σ2X, nonché della potenza PX  = EX{x2} = σ2X + (mx)2, valida per una qualunque realizzazione θ del processo. Definiamo ora una statistica del secondo ordine che permetterà di determinare anche lo spettro di densità di potenza delle realizzazioni del processo.
figure f7.1.png
figure f7.2.png
Figura 6.1 Estrazione di due variabili aleatorie da un membro di processo, e loro possibile d.d.p. congiunta
La statistica di secondo ordine si basa sulla considerazione di 2 istanti t1 e t2, in corrispondenza dei quali estraiamo due variabili aleatorie x1  = x(t1), x2 = x(t2) a partire da una realizzazione θ di un processo x(t,  θ), come mostrato a sinistra di fig. 6.1↑. Al variare della realizzazione θ  ∈ Θ, tutte le coppie di valori campionati sono altrettante determinazioni di una variabile aleatoria bidimensionale, descritta da una densità di probabilità congiunta pX1X2(x1x2;t1t2), che dipende anche dagli istanti t1 e t2, ed è esemplificata nella parte destra di fig. 6.1↑, che mostra come questa sottenda un volume unitario, e descriva con il suo andamento le regioni del piano x1x2 in cui cadono un maggior numero di coppie (ovvero dove la probabilità è più densa).

6.1.1  Correlazione tra variabili aleatorie

Per definire questo importante strumento di descrizione statistica, approfondiamo il concetto di momento misto, espresso da un valore atteso (§ 5.2.2↑) in cui, a differenza del caso monodimensionale, i possibili valori sono ponderati mediante la d.d.p. congiunta delle v.a. x1 e x2. Si definisce quindi momento misto di ordine (i,  j) il valore
m(i,  j)XX(t1,  t2) = EX1X2{xi1xj2} = xi1xj2pX1X2(x1x2;t1t2)dx1dx2
Nel caso in cui i = j = 1, questo momento misto prende il nome di correlazione tra le v.a., e si indica come
(10.18) X(x(t1),  x(t2)) = m(1,  1)XX(t1,  t2)
Prima di proseguire, soffermiamoci un istante per meglio comprendere il significato di m(1, 1)XX(t1,  t2). Il valore di correlazione fra due variabili aleatorie è indicativo del legame che esiste tra le due[175] [175] Intese qui nel senso più generale, per esempio come temperatura e pressione in un punto ben preciso di un cilindro di un motore a scoppio, oppure come pressione e velocità in un circuito idraulico, o pneumatico... astraendo cioè dal caso particolare di due v.a. estratte da una stessa forma d’onda., nel senso di quanto l’una ha un valore che dipende da quello dell’altra, ed ha un valore assoluto tanto più elevato quanto più i valori di x1 e x2 sono legati in modo deterministico[176] [176]  Può tornare utile pensare m(1,  1)X1X2 come una media pesata dei possibili valori del prodotto x1x2; i termini di eguale ampiezza e segno opposto possono elidersi se equiprobabili. Negli esempi che seguono, riportiamo dei diagrammi di scattering per sei diversi casi di distribuzione delle coppie di valori x1 e x2, assieme ai valori di correlazione x1x2 (corr), covarianza σx1x2 (cov), e coefficiente di correlazione ρ (vedi § 6.9.1↓ per quest’ultimo parametro)
figure f7.3.png figure f7.6.png figure f7.5.png
           Correlazione elevata               Correlazione media          Correlazione nulla  
figure f7.4.png figure f7.7.png figure f7.8.png
           Correlazione elevata             Correlazione media                   Correlazione nulla   
 
In A) e F) le coppie di valori sono legate da una legge pressoché deterministica, mentre in B) e D) c’è più variabilità, ma si nota ancora una certa dipendenza tra le due. Infine nei casi C) ed E), osserviamo due v.a. statisticamente indipendenti, dato che pX1X2(x1, x2) è fattorizzabile come pX1(x1)pX2(x2), e per le quali risulta quindi X(x1x2) = mx1mx2.
: in effetti però, seguendo gli esempi riportati nella nota, non sempre questo accade, e pertanto è opportuno basarsi sull’uso di momenti centrati come descritto al punto successivo.

6.1.2  Indipendenza statistica e incorrelazione

Nel caso in cui le due v.a. siano statisticamente indipendenti, e cioè si possa scrivere pX1X2(x1, x2;t1,  t2) = p(x1)p(x2)([177] [177] Omettiamo per brevità di indicare la variabile aleatoria a pedice della densità di probabilità.), l’integrale che definisce la correlazione si fattorizza, e pertanto
(10.19) X(x1,  x2)  =  x1x2p(x1)p(x2)dx1dx2  = x1p(x1)dx1x2p(x2)dx2  =   =  E{x1}E{x2} = mX1mX2
Covarianza
E’ indicata come σ(x1,  x2) e rappresenta il momento misto centrato tra le due v.a., di espressione[178] [178] L’uguaglianza si ottiene ricordando che un valore atteso è in realtà un integrale, ed sfruttando la proprietà distributiva di quest’ultimo.
(10.20) σ(x1, x2)  =  E{(x1  − mX1)(x2  − mX2)} =   =  E{x1x2} − E{x1mX2} − E{mX1x2} + E{mX1mX2} =   =  E{x1x2} − mX1mX2  = ℛX(x1,  x2) − mX1mX2
Incorrelazione
Combinando i risultati (10.19↑) e (10.20↑) possiamo verificare che
Se due variabili aleatorie x1 ed x2 sono statisticamente indipendenti, queste si dicono incorrelate, in quanto la covarianza σ(x1x2) è nulla[179]  [179] Notiamo immediatamente che il termine più corretto sarebbe “incovarianzate”; l’uso (ormai storico e consolidato) dell’espressione incorrelate deriva probabilmente dal considerare usualmente grandezze a media nulla, per le quali le due espressioni coincidono..
La proprietà esposta ha valore in una sola direzione, in quanto se due v.a. esibiscono σ(x1,  x2) = 0 non è detto che siano statisticamente indipendenti[180]  [180] Vedi ad esempio il caso F) della nota (6.1.1↑), in cui le variabili aleatorie risultano incorrelate, ma non sono per nulla indipendenti, in quanto l’una dipende strettissimamente dall’altra, dato che le coppie di valori si dispongono su di un cerchio.. L’unico caso in cui l’incorrelazione tra variabili aleatorie ne implica l’indipendenza statistica, è quello relativo a v.a. congiuntamente gaussiane, come mostrato al § 5.5.1↑.

6.1.3  Correlazione di processo ergodico

Nel caso in cui il processo da cui si estraggono x1 e x2 sia stazionario almeno in senso lato (§ 5.3.4↑), per la correlazione (10.18↑) otteniamo
(10.21) m(1,  1)XX(t1, t2) = E{x1x2} = ℛX(x(t1),  x(t2 = t1  + τ))  = m(1,  1)XX(τ)
ovvero dipende solo dall’intervallo τ  = t2 − t1 (vedi fig. 6.1↑), in quanto per un processo stazionario le proprietà statistiche non dipendono da traslazioni temporali.
Nel caso in cui il processo sia anche ergodico (§ 5.3.5↑), le medie di insieme hanno lo stesso valore delle corrispondenti medie temporali, e dunque la correlazione (media di insieme) m(1,  1)XX(τ) può essere calcolata in base alla corrispettiva media temporale equivalente, a partire da una qualunque realizzazione θi del processo
(10.22) m(1,  1)XX(τ) = ℛx(τ) = limT → ∞(1)/(T)T ⁄ 2 − T ⁄ 2x(t, θi)x(t + τ, θi)dtθi ∈ Θ
Sotto le medesime condizioni è vero anche l’inverso, ovvero: la media temporale (10.22↑) del prodotto tra due campioni estratti a distanza τ a partire da una qualunque realizzazione, ha un valore pari a quello ottenibile come media di insieme (10.21↑) a partire dalla conoscenza della densità di probabilità congiunta pX1X2(x1, x2;t1,  t1 + τ).

6.1.4  Autocorrelazione e intercorrelazione

La media temporale x(τ) espressa dalla (10.22↑) viene indicata anche come integrale di autocorrelazione se calcolata su segnali deterministici, e nel caso di segnali di energia ha espressione
(10.23) x(τ) =   − ∞x*(t)x(t  + τ)dt
in cui l’operatore di coniugato generalizza l’operazione anche al caso di segnali complessi. Simile, ma diversa, è la definizione di integrale di intercorrelazione, che esprime lo stesso calcolo ma ne generalizza l’applicazione a due diversi segnali x(t) ed y(t):
(10.24) xy(τ) =   − ∞x*(t)y(t  + τ)dt
valida per segnali di energia, mentre per segnali di potenza l’epressione è simile alla (10.22↑). La (10.24↑) può essere interpretata come prodotto scalare o energia mutua (vedi § 3.2↑) tra x(t) e una copia di y(t) traslata nel tempo.
L’integrale (10.23↑) è anche detto funzione di autocorrelazione, in quanto il suo argomento è un tempo (l’intervallo tra due campioni) e dunque x(τ) può essere visto come un segnale (funzione di τ anziché di t). Nello studio abbiamo già incontrato un integrale (di convoluzione) il cui risultato è una funzione del tempo; la somiglianza tra i due è più profonda di una semplice analogia, in quanto si può scrivere
(10.25) x(τ) =   − ∞x*(t)x(t  + τ)dt  = x*( − t)*x(t)
in cui * è il consueto simbolo di convoluzione[181] [181] Il risultato (10.25↑) si basa sul cambio di variabile θ = t  + τ che permette di scrivere
x(τ)  =   − ∞x*(θ  − τ)x(θ)dθ  =  − ∞x*(  − (τ  − θ))x(θ)dθ  = x*( − t)*x(t)
.
Autocorrelazione di un rettangolo
Figura 6.2 Autocorrelazione di un rettangolo
In base a quest’ultima osservazione otteniamo la costruzione grafica mostrata in fig. 6.2↑, che fornisce il risultato dell’integrale di autocorrelazione, e che è del tutto simile alla costruzione grafica già illustrata per la convoluzione (vedi § 3.5.3↑), con la differenza che ora non si effettuano ribaltamenti di asse. L’esempio mostrato ne illustra l’applicazione ad un caso noto, per il quale x(t) = x*(  − t), e che fornisce quindi lo stesso risultato di x(t)*x(t).
Notiamo infine che se i segnali x(t) ed y(t) utilizzati nella (10.24↑) sono membri di due processi congiuntamente ergodici, l’intercorrelazione risultante può essere calcolata come momento misto m(1,  1)XY(τ) a partire dalla d.d.p. congiunta pXY(x(t), y(t  + τ)), e stimata con un circuito del tipo di quello mostrato al § 6.6.3↓.

6.1.4.1  Proprietà dell’autocorrelazione

Elenchiamo ora alcuni aspetti che caratterizzano la funzione di autocorrelazione:
Traslazioni temporali
Se consideriamo i segnali x(t) e y(t) = x(t  + θ), le rispettive autocorrelazioni x(τ) ed y(τ) sono identiche[182]  [182] Infatti otteniamo:
y(τ)  =   − ∞y(t)y(t + τ)dt  =  − ∞x(t + θ)x(t + θ + τ)dt  =   − ∞x(α)x(α  + τ)dα  = ℛx(τ)
. Ciò che accomuna x ed y è che le loro trasformate hanno uguale modulo |X(f)| = |Y(f)|, mentre l’andamento della fase differisce per un termine lineare (pag. 1↑), ed in effetti l’invarianza rispetto alle traslazioni temporali è un aspetto di un risultato più generale, ossia che l’autocorrelazione non tiene conto dell’informazione legata alla fase dei segnali. Infatti x(t) e y(t) hanno anche la stessa densità spettrale di energia x(f) = ℰy(f) = |X(f)|2, come approfondiremo tra breve al § 6.2.1↓.
Durata limitata
La funzione di autocorrelazione di un segnale di durata limitata è anch’essa a durata limitata, e di estensione doppia rispetto alla durata del segnale originario.
Segnali periodici
L’autocorrelazione di un segnale periodico di periodo T è anch’essa periodica, con lo stesso periodo. Infatti per τ  = nT il secondo fattore integrando è traslato di un numero intero di periodi.
 
In particolare, le due proprietà seguenti sono da ritenersi fondamentali perché consentono di interpretare l’autocorrelazione in senso energetico, come approfondiremo subito appresso:
Massimo nell’origine
La x(τ) calcolata in τ  = 0 fornisce il valore di x(τ) più grande di quello ottenibile per qualunque altro valore di τ. In particolare, x(τ  = 0) è uguale alla potenza del segnale x(t), od all’energia se x(t) è di energia, ossia
0 ≤ ℛx(0)  =  |x(t)|2dt  =  x > |x(τ ≠ 0)|  se x(t) è di  energia limT → ∞(1)/(T)(T)/(2) − (T)/(2)|x(t)|2dt  =  Px ≥ |x(τ ≠ 0)|  se x(t) è di  potenza
e in particolare, se x(t) è periodico, l’ultimo segno   ≥  è una eguaglianza per τ multiplo di un periodo.
Simmetria coniugata
 E’ possibile verificare[183] [183] x(  − τ) =  − ∞x*(t)x(t  − τ)dt =  − ∞x*(α  + τ)x(α)dα = R*x(τ), avendo operato il cambio di variabile t  − τ = α, da cui t  = α + τ e dt =  dα. che risulta x( − τ) =  ℛ*x(τ), e ciò consente (vedi § 46↑) di affermare che {x(τ)} è reale. Nel caso in cui x(t) sia reale, si ottiene x( − τ) =  ℛx(τ), ovvero l’autocorrelazione di un segnale reale è reale pari, alla stregua (come mostreremo ora) della sua trasformata di Fourier.
  Capitolo 6: Densità spettrale e filtraggio Su  Capitolo 6: Densità spettrale e filtraggio Sezione 6.2: Spettro di densità di potenza 
x Logo

Trasmissione dei Segnali e Sistemi di Telecomunicazione

http://infocom.uniroma1.it/alef/libro/

Un esperimento divenuto nel tempo un riferimento culturale. Scopri come effettuare il download, ricevere gli aggiornamenti, e contribuire!