TP501 – Processos Aleatórios
Notas de aula
Prof. Dr. Dayan Adionel Guimarães
2007-2011
1
TP501 – Processos Aleatórios – Aula 1
Conteúdo
Processos estocásticos: Processo Aleatório – definição. Processo aleatório estacionário. Média de um
processo estocástico. Função de auto-correlação de um processo estocástico. Principais propriedades da
função de auto-correlação.
A natureza aleatória de muitos fenômenos observados em Engenharia se manifesta temporal ou
espacialmente. Uma família de variáveis aleatórias que se manifesta desta maneira recebe o nome de
processo estocástico ou simplesmente processo aleatório (p.a.).
Deste ponto em diante no nosso curso utilizaremos os conceitos já estudados para caracterizar e
analisar processos aleatórios comumente encontrados em problemas de Telecomunicações. Devido à
grande importância dos conceitos sobre processos estocásticos no estudo desta área, várias partes destas
notas foram baseadas na referência: HAYKIN, Simon, Communication Systems, 4th Edition, John
Wiley and Sons, Inc.: New York, USA, 2001, Capítulo 1. Versão em Português disponível.
Sendo assim, recomenda-se fortemente que esta referência seja incluída como material de estudo.
Processo Aleatório - definição
Como exemplo, seja um sinal aleatório de tensão ou corrente e o conjunto de suas possíveis realizações
X(t, ζ1) ... X(t, ζ4) ilustradas na figura a seguir. A um conjunto como este se dá o nome de processo
aleatório X(t) ou processo estocástico X(t). A cada uma das realizações citadas dá-se o nome de
função amostra x(t) do processo X(t). Se amostrarmos X(t) em, por exemplo, t1 e t2, o conjunto de
amostras comporá as variáveis aleatórias X(t1) ≡ X1 e X(t2) ≡ X2 com valores x1 e x2.
2
A seguir têm-se algumas observações sobre a definição de processos aleatórios:
Um processo aleatório é um conjunto de valores aleatórias indexados temporal ou espacialmente.
Em outras palavras, um p.a. pode ser visto como um conjunto de variáveis aleatórias cujos valores
específicos surgem ao longo do tempo ou em diferentes pontos do espaço. Por exemplo, um sinal
de voz é um processo aleatório com variações temporais. Já o ângulo de inclinação de um edifício
quando sujeito a ação do vento é um processo aleatório que se manifesta espacialmente.
Se o índice mencionado é discreto tem-se um processo aleatório discreto; se o índice é contínuo
tem-se um processo contínuo. Os possíveis valores do processo aleatório também podem ser
discretos ou contínuos. Tem-se então quatro combinações: 1) p.a. discreto no tempo e discreto nos
valores; 2) p.a. discreto no tempo e contínuo nos valores; 3) p.a. continuo no tempo e discreto nos
valores e 4) p.a. contínuo no tempo e contínuo nos valores;
No caso de uma v.a. o resultado de cada experimento aleatório é um número chamado amostra.
Para um processo estocástico o resultado de cada experimento é uma “forma de onda” chamada
função amostra.
O número de formas de onda no conjunto pode ser finito ou infinito.
---------------------------------------------------------------------------------------------------------------------------Exemplo: A saída de um gerador de pulsos binários de duração T, se analisada em períodos de 10T, é
um conjunto com 210 possíveis formas de onda. A figura a seguir ilustra quatro realizações deste
conjunto. Neste caso temos um exemplo em que o número de formas de onda no conjunto é finito, da
forma como o processo aleatório foi definido.
Se analisássemos trechos de duração equivalente em um sinal de saída de transmissor ao longo da
transmissão de um programa de rádio qualquer, perceberíamos infinitas possibilidades para as funções
amostra observadas. Neste caso temos um exemplo em que o número de formas de onda no conjunto é
infinito.
---------------------------------------------------------------------------------------------------------------------------3
Processo aleatório estacionário
Em sendo aleatório, um processo estocástico é analisado com ferramentas estatísticas. Sendo assim, ao
analisarmos um p.a., obtemos dele propriedades estatísticas. Um processo aleatório é dito estacionário
se possuir propriedades estatísticas independentes do instante de tempo em que a observação do
processo se inicia. Isto significa que se um processo aleatório é dividido em várias seções, estas seções
exibirão propriedades estatísticas idênticas.
Normalmente um processo aleatório estacionário origina-se de fenômenos físicos estáveis, como na
maior parte dos casos que encontraremos em Telecomunicações.
---------------------------------------------------------------------------------------------------------------------------Exemplo: Seja determinar a probabilidade de se obter uma função amostra x(t) de um p.a. X(t) que
passe pelas janelas de amplitude mostradas na figura a seguir. Isto equivale a se determinar a
probabilidade do evento conjunto: A = {ai < X(ti) ≤ bi}, para i = 1, 2, 3.
Se o p.a. X(t) em questão for estacionário, a probabilidade do suas funções amostra passarem pelas
janelas de amplitude na parte (a) da figura a seguir é igual à probabilidade de suas funções amostra
passarem pelas janelas de amplitude na parte (b) desta figura.
4
---------------------------------------------------------------------------------------------------------------------------Como estamos tratando de processos aleatórios, as ferramentas que utilizaremos para analisá-los nos
fornecerão informações estatísticas e não determinísticas. Dentre estas informações destacam-se as
médias estatísticas, as quais já foram estudadas no contexto de variáveis aleatórias. Vamos a seguir
estudar as principais médias estatísticas de análise de um processo aleatório.
Média de um processo estocástico
A média de um processo aleatório X(t) observado no instante ti é dada por:
∞
µ X (ti ) = E[ X (ti )] = ∫ xf X ( t ) ( x )dx
−∞
i
Interpreta-se esta expressão da seguinte maneira: a média de um processo aleatório X(t) observado no
instante ti é a média da variável aleatória obtida pela amostragem do processo X(t) no instante ti. A
função densidade de probabilidade desta v.a. é f X ( ti ) ( x ) .
Para um processo aleatório estacionário a média independe de t, ou seja:
µ X (t ) = µ X para qualquer t
Isto significa que se amostrarmos um processo aleatório em qualquer instante de tempo, teremos
variáveis aleatórias sempre com a mesma média.
A média pode ser estimada via média amostral se colhermos um número suficientemente grande de
amostras do p.a. analisado. Em outras palavras, a média pode ser determinada por meio de:
1
N →∞ N
µ X (ti ) = lim
N
∑X
j
(ti )
j =1
onde Xj(ti) é o valor da amostra da j-ésima função-amostra no instante de tempo ti.
As estatísticas de primeira ordem, ou seja, aquelas que envolvem apenas uma variável aleatória obtida
a partir de amostras um processo aleatório, podem não ser suficientes para caracterizá-lo. Como
5
exemplo, o p.a. Y(t) ilustrado na figura a seguir é simplesmente o p.a. X(t) comprimido no tempo.
Ambos têm a mesma FDP (de primeira ordem), mas Y(t) tem componentes de freqüência mais
elevadas, pois varia mais rapidamente. Como podemos levar isso em conta nas estatísticas do processo?
A resposta reside no estudo de estatísticas de segunda ordem, aquelas que envolvem duas variáveis
aleatórias obtidas a partir de amostras do processo aleatório sob análise em dois instantes de tempo
quaisquer.
A função de auto-correlação, que é o nosso próximo assunto, é a estatística de segunda ordem de maior
interesse no estudo de processos estocásticos comumente encontrados em Telecomunicações.
Função de auto-correlação de um processo estocástico
A função de auto-correlação de um p.a. X(t) é o valor esperado do produto de duas v.a. X(t1) e X(t2),
obtidas pela observação do p.a. nos instantes t1 e t2 , respectivamente, ou seja:
RX (t1 , t2 ) = E [ X (t1 ) X (t2 )] = ∫
∞
∫
∞
−∞ −∞
x1 x2 f X ( t1 ), X ( t2 ) ( x1 , x2 )dx1dx2
Trata-se de uma função, pois o valor específico da correlação entre as variáveis aleatórias
correspondentes depende dos instantes de tempo em que foram geradas.
Perceba que a função de auto-correlação revela a taxa de variação de um processo aleatório, posto que
se o processo é “lento”, amostras espaçadas de um determinado intervalo levarão a valores de
correlação maiores entre as v.a. correspondentes que aqueles obtidos a partir de amostras de um
processo “rápido”, para o mesmo espaçamento entre tais amostras.
A função de auto-correlação também pode ser estimada via média amostral se colhermos um número
suficientemente grande de amostras do p.a. analisado, ou seja:
1
N →∞ N
RX (t1 , t2 ) = lim
N
∑X
j
(t1 ) X j (t2 )
j =1
6
Para um processo estocástico estacionário a função de auto-correlação independe do momento em que
as amostras são colhidas, dependendo somente do espaçamento temporal entre elas. Assim teremos:
RX (t1 , t2 ) = RX (t2 − t1 ) = RX (τ )
para qualquer valor de t1 e de t2
Principais propriedades da função de auto-correlação
A função de auto-correlação é uma função par:
RX (τ ) = RX ( −τ ) .
O seu máximo valor ocorre em τ = 0, ou seja:
| RX (τ ) | ≤ RX (0) .
O valor quadrático médio do p.a. é dado por:
E[ X 2 (t )] = RX (0) .
A figura a seguir ilustra estas propriedades e mostra que a função de auto-correlação de um processo
aleatório está intimamente ligada com o conteúdo de freqüências deste processo. Um p.a. que tem
flutuações mais rápidas e que, portanto, tem componentes de freqüência mais elevadas, tem uma
função de auto-correlação mais “aberta”. Um p.a. que tem flutuações mais lentas e que, portanto, não
tem componentes de freqüências altas, tem uma função de auto-correlação mais “estreita”. Veremos
mais adiante no nosso curso que, de fato, a forma como as componentes de freqüência de um sinal
aleatório de tensão se distribuem será determinada pela Transformada de Fourier da função de autocorrelação do processo aleatório correspondente.
---------------------------------------------------------------------------------------------------------------------------Exemplo: A função amostra x(t) dada na figura a seguir pertence ao p.a. X(t) referente a uma seqüência
binária aleatória tal que: bit 1 ⇒ +A, bit 0 ⇒ −A. Os pulsos não são sincronizados: o instante de início
td do primeiro bit completo pode estar entre 0 e T com FDP uniforme. Bits consecutivos têm valores 0
ou 1 igualmente prováveis ⇒ E[X(t)] = 0, e cada bit tem seu valor independente de qualquer valor
anterior ou posterior. Vamos determinar a função de auto-correlação do p.a. X(t).
7
Inicialmente vamos considerar | tk – ti | ≥ T. Neste caso X(tk) e X(ti) ocorrem em diferentes intervalos de
pulso e são, portanto, independentes:
E[ X (tk ) X (ti )] = E [ X (tk )]E[ X (ti )] = 0, | tk − ti | ≥ T
Agora vamos considerar |tk – ti| < T, com ti < tk. Neste caso X(tk) e X(ti) vão ocorrer no mesmo intervalo
de pulso somente se td < T – |tk – ti|. Então:
 A2 , td < T − | tk − ti |
E[ X (tk ) X (ti )| td ] = 
0, caso contrário
Para eliminar o condicionamento ao valor de td aplicamos a Lei da Esperança Total que diz que:
E[ X ] = E {E[ X | Y ]}
Assim, realizando a média sobre todos os possíveis valores de td, obtemos:
E[ X (tk ) X (ti )] = ∫
T − |tk − ti |
0
A2 fTd (td )dtd = ∫
T − |tk − ti |
0
A2
 |t −t |
dtd = A2  1 − k i 
T
T 

E finalmente, fazendo τ = tk – ti tem-se a função de auto-correlação desejada
 2  |τ | 
A 1−

RX (τ ) =  
T  , |τ |< T ,
 0, | τ | ≥ T

cujo esboço é mostrado na figura a seguir.
8
---------------------------------------------------------------------------------------------------------------------------Na prática muitas vezes é suficiente verificar se somente as estatísticas de primeira e de segunda ordem
não variam com o tempo. Um p.a. cuja média independe do tempo e a função de auto-correlação
depende somente da diferença entre os instantes de observação, não do valor específico destes
instantes, é denominado processo aleatório estacionário no sentido amplo (Wide-Sense Stationary,
WSS), ou simplesmente estacionário.
---------------------------------------------------------------------------------------------------------------------------FIM DA AULA
9
TP501 – Processos Aleatórios – Aula 2
Conteúdo
Processos estocásticos: Função de correlação cruzada para dois processos estocásticos estacionários.
Função de auto-covariância para um processo estocástico. Função de covariância cruzada para dois
processos estocásticos estacionários. Processos estocásticos ergódicos.
Função de correlação cruzada para dois processos estocásticos estacionários
A função de correlação cruzada para os processos estocásticos estacionários X(t) e Y(t) é:
RXY (τ ) = E [ X (t )Y (t + τ )] e RYX (τ ) = E[Y (t ) X (t + τ )]
Esta função é par e mede a correlação entre a variável aleatória gerada por amostragem do processo
X(t) em um instante t qualquer e a variável aleatória gerada por amostragem do processo Y(t) em um
instante t + τ. Sua principal aplicação reside na verificação do grau de ortogonalidade entre processos
aleatórios: dois processos estocásticos são ditos ortogonais se a função de correlação cruzada é nula.
---------------------------------------------------------------------------------------------------------------------------Exemplo: Em sistemas de comunicação é comum encontrarmos o que é chamado de modulação em
quadratura. Neste tipo de modulação tem-se
X 1 (t ) = I (t ) cos(2π f c t + Θ) e X 2 (t ) = Q (t )sin(2π f ct + Θ) ,
onde I(t) e Q(t) são sinais relacionados à informação que se deseja transmitir e Θ é uma fase aleatória
uniformemente distribuída em (0, 2π]. Vamos determinar a função de correlação cruzada entre os
processos X1(t) e X2(t):
R12 (τ ) = E [ X 1 (t ) X 2 (t − τ )]
= E [ I (t )Q (t + τ ) cos(2π f c t + Θ)sin(2π f c t − 2π f cτ + Θ)]
= E [ I (t )Q (t + τ )]E [cos(2π f c t + Θ)sin(2π f ct − 2π f cτ + Θ)]
= 12 RIQ (τ ) E[sin(4π f c t − 2π f cτ + 2Θ) − sin(2π f cτ )]
= − 12 RIQ (τ )sin(2π f cτ )
onde fizemos o uso do fato que Θ é independente de I(t) e Q(t) e da identidade sin(a)cos(b) = ½sin(a –
b) + ½sin(a + b).
Note que para τ = 0 teremos R12(τ) = 0. Isto significa que se os processos X1(t) e X2(t) forem
amostrados simultaneamente, serão obtidas variáveis aleatórias ortogonais. De um ponto de vista mais
relacionado às telecomunicações, isto significa ainda que os sinais I(t) e Q(t) não se interferirão quando
transmitidos por portadoras em quadratura.
----------------------------------------------------------------------------------------------------------------------------
10
Função de auto-covariância para um processo estocástico
A função de auto-covariância de um p.a. X(t) é a covariância das v.a. X(t1) e X(t2), obtidas pela
observação do p.a. nos instantes t1 e t2 , respectivamente. Pode ser interpretada como a função de autocorrelação do processo centralizado (retirando-se a média) e é definida por:
K X (t1 , t2 ) = E {[ X (t1 ) − µ X (t1 )][ X (t2 ) − µ X (t2 )]} = RX (t1 , t2 ) − µ X (t1 ) µ X (t2 )
Para um p.a. estacionário, a função de auto-covariância vale:
K X (t1 , t2 ) = RX (t2 − t1 ) − µ X2
Fazendo t2 – t1 = τ, podemos escrever:
K X (τ ) = R X (τ ) − µ X2
Se a função de auto-covariância de um processo aleatório é nula, significa que as variáveis obtidas por
amostragem deste processo nos instantes t1 e t2 são descorrelacionadas. Neste caso a correlação entre
estas variáveis passará a ser determinada pelo produto das médias do processo em questão, avaliadas
nos instantes t1 e t2.
Da mesma forma que no estudo de variáveis aleatórias, a covariância é uma medida da “amarração
estatística” entre os processos aleatórios analisados. Assim, se a função de auto-covariância tem um
valor elevado a um dado τ = t2 – t1, as estatísticas obtidas da variável aleatória X(t1) têm grande
probabilidade de ser observadas também na variável aleatória X(t2). Como exemplo, se X(t1) tem média
elevada, X(t2) provavelmente o terá.
Função de covariância cruzada para dois processos estocásticos estacionários
Em se tratando de dois processos aleatórios, pode-se definir a função de covariância cruzada que, para
processos estacionários, vale:
K XY (τ ) = RXY (τ ) − µ X µY
Se os processos X(t) e Y(t) são descorrelacionados, KXY(τ) = 0 e a função de correlação cruzada entre
os processos passa a ser determinada pelo produto das suas médias, ou seja:
RXY (τ ) = µ X µY
Observe que para processos ortogonais RXY(τ) = 0. Estes processos serão também descorrelacionados se
a média µX ou a média µY for nula, ou ambas forem nulas.
11
Processos estocásticos ergódicos
O conceito de processos estocásticos ergódicos é um dos mais úteis ao estudo de sistemas de
comunicação e, por esta razão, daremos a este estudo uma grande importância.
As médias de um p.a. são, por definição, médias estatísticas tomadas “através” do processo, ou seja,
operando no conjunto de funções amostra. Para os processos ergódicos, as médias estatísticas podem
ser obtidas por meio de medias temporais realizadas a partir de uma única função amostra, ou seja, “ao
longo” do processo. Felizmente, em telecomunicações os processos aleatórios podem ser considerados,
em sua maioria, ergódicos.
A classe de processos ergódicos compreende uma classe especial de processos aleatórios estacionários.
A figura a seguir, praticamente uma réplica daquela utilizada quando definimos processos aleatórios,
ilustra o conceito de obtenção de amostras “através” e “ao longo” de um processo aleatório.
Para um processo ergódico X(t), considere um intervalo de observação T de uma de suas funções
amostra, x(t). A média e a função de auto-correlação podem ser determinadas pelas médias temporais:
µ X (T ) =
1
T
∫
T /2
−T / 2
x (t )dt
lim [ µ X (T )] = µ X
RX (τ , T ) =
∫
T /2
−T / 2
x (t + τ ) x (t )dt
lim [ RX (τ , T )] = RX (τ )
T →∞
T →∞
lim {var [ µ X (T )]} = 0
T →∞
T →∞
1
T
lim {var [ RX (τ , T )]} = 0
Em termos da função de correlação cruzada, para dois processos aleatórios ergódicos teremos:
12
RXY (τ , T ) =
1
T
∫
T /2
−T / 2
x (t + τ ) y (t )dt
lim [ RXY (τ , T )] = RXY (τ )
T →∞
lim {var [ RXY (τ , T )]} = 0
T →∞
Em outras palavras, se o processo aleatório é ergódico, as médias estatísticas podem ser calculadas
temporalmente, ou seja, em vez de realizar os cálculos “através” do processo, por meio do
operador E[⋅], realizam-se os cálculos “ao longo” de uma única função amostra do processo, por
meio de médias temporais.
As expressões complementares envolvendo limites significam que à medida que o intervalo de
observação T aumenta, maior a convergência da média temporal em relação ao valor real da
média estatística e menor é a variância da média temporal em relação ao valor real da média
estatística.
As médias temporais pressupõem o conhecimento da representação matemática para x(t). Entretanto,
como x(t) é aleatório, na prática as integrais que fazem parte da definição da média e da função de autocorrelação de um p.a. ergódico são aproximadas por somatórios das amostras de uma função amostra
do processo sob análise. Em outras palavras, em situações práticas as médias temporais de processos
estocásticos ergódicos podem ser estimadas por meio de médias amostrais dos processos em questão:
µX ( N ) =
1
N
N
∑ x(ti )
RX (τ , N ) =
i =1
lim [ µ X ( N )] = µ X
1
N
N
∑ x(t ) x (t + τ )
i
i
i =1
lim [ RX (τ , N )] = RX (τ )
N →∞
N →∞
lim {var [ µ X ( N )]} = 0
lim {var [ RX (τ , N )]} = 0
N →∞
N →∞
Em termos da função de correlação cruzada, para dois processos aleatórios ergódicos teremos:
RXY (τ , N ) =
1
N
N
∑ x (t ) y (t
i
i
+τ )
i =1
lim [ RXY (τ , N ) ] = RXY (τ )
N →∞
lim {var [ RXY (τ , N )]} = 0
N →∞
---------------------------------------------------------------------------------------------------------------------------FIM DA AULA
13
Exercício de fixação
---------------------------------------------------------------------------------------------------------------------------Suponha que um dado gerador de forma de onda aleatória possa ser programado para gerar diferentes
tipos de processos aleatórios. Utilizando este gerador, pede-se:
a) Proponha um experimento que lhe permita estimar a média e a função de auto-correlação de um
p.a. qualquer de saída.
b) Proponha um experimento que lhe permita determinar se o processo aleatório de saída do
gerador é ou não é ergódico.
c) Sabendo que os p.a. gerados são ergódicos, proponha um experimento que lhe permita estimar a
média e a função de auto-correlação de um p.a. qualquer de saída.
d) Sabendo que os p.a. gerados são ergódicos, proponha um experimento que lhe permita
determinar de forma aproximada a função densidade de probabilidade de um p.a. qualquer de
saída do gerador.
----------------------------------------------------------------------------------------------------------------------------
14
TP501 – Processos Aleatórios – Aula 3
Conteúdo
Processamento de sinais aleatórios: Principais médias estatísticas envolvendo sistemas lineares.
Densidade espectral de potência (DEP) de um processo aleatório. Algumas propriedades da DEP.
No estudo de sistemas de comunicação é comum encontrarmos problemas que envolvem a passagem
de sinais aleatórios por sistemas lineares, tais como filtros de transmissão e recepção, multiplicadores,
integradores, etc. Nesta parte do curso utilizaremos de forma combinada os conceitos sobre processos
aleatórios e sobre sistemas lineares, objetivando caracterizar os processos aleatórios de entrada e de
saída destes sistemas.
Mais uma vez, devido à grande importância dos conceitos sobre processos estocásticos no estudo de
sistemas de comunicações, várias partes destas notas foram baseadas na referência: HAYKIN, Simon,
Communication Systems, 4th Edition, John Wiley and Sons, Inc.: New York, USA, 2001, Capítulo 1.
Sendo assim, recomenda-se fortemente que esta referência seja incluída como material de estudo.
----------------------------------------------------------------------------------------------------------------------------
Principais médias estatísticas envolvendo sistemas lineares
A figura a seguir mostra um sistema linear invariante no tempo com resposta ao impulso h(t), tendo
como entrada o processo aleatório X(t) e como saída o processo Y(t).
O processo aleatório de saída do sistema linear, embora não possa ser determinado em termos de uma
expressão matemática, continua sendo dado pela convolução do processo de entrada com a resposta ao
impulso do sistema, ou seja:
∞
∞
−∞
−∞
Y (t ) = X (t ) ∗ h (t ) = ∫ h (u ) X (t − u )du = ∫ X (u )h(t − u )du
A média do processo aleatório de saída é dada por:
∞
∞
−∞
−∞
µY (t ) = E [Y (t )] = ∫ h(u ) E[ X (t − u )]du = ∫ h(u ) µ X (t − u)du
Se o processo X(t) for estacionário, teremos como média de saída:
∞
∞
−∞
−∞
µY = µ X ∫ h (t )dt = µ X ∫ h(t )e − j 2π ft dt
f =0
= µ X H (0)
15
A função de auto-correlação do processo de saída é dada por:
∞
∞
RY (t ,τ ) = E [Y (t )Y (t + τ )] = E  ∫ h (u ) X (t − u )du ∫ h( v ) X (t + τ − v )dv 
−∞
 −∞

=∫
∞
∫
∞
−∞ −∞
h(u )h(v ) E [ X (t − u ) X (t + τ − v )]dudv
Se o processo X(t) for estacionário, teremos como função de auto-correlação do processo de saída:
RY (τ ) = ∫
∞
∫
∞
−∞ −∞
h(u )h (v ) RX (τ − v + u )dudv
Esta expressão, embora de resolução difícil razoavelmente, permite que a função de auto-correlação do
processo de saída do sistema linear seja determina conhecendo-se a resposta ao impulso do sistema e a
função de auto-correlação do processo de entrada.
Densidade espectral de potência (DEP) de um processo aleatório
A densidade espectral de potência descreve como a potência de um sinal X(t), seja ele aleatório ou
determinístico, se distribui na freqüência e, por esta razão, é medida em watts/Hertz (W/Hz). Trata-se
de um parâmetro de extrema importância no estudo de sistemas de comunicação, pois permite que
conheçamos o conteúdo de freqüência de um sinal qualquer.
Quando temos um sinal determinístico, o conteúdo de freqüências pode ser determinado por meio da
conhecida transformada de Fourier. Entretanto, com processos aleatórios não é possível realizar o
cálculo teórico da transformada, posto que tais processos não podem ser descritos com expressões
matemáticas determinísticas. Felizmente existe uma forma simples de contornar este problema,
utilizando a função de auto-correlação do processo estocástico sob análise. A densidade espectral de
potência e a função de auto-correlação de um p.a. estacionário formam um par na transformada de
Fourier, ou seja:
∞
S X ( f ) = ∫ RX (τ ) e − j 2π f τ dτ
−∞
∞
RX (τ ) = ∫ S X ( f ) e j 2π f τ df
−∞
Algumas propriedades da DEP
O valor quadrático médio, ou segundo momento de um p.a. é dado pela área sob a curva de densidade
espectral de potência:
∫
∞
−∞
S X ( f ) df = RX (0) = E[ X 2 (t )]
Em outras palavras, se estivermos analisando um sinal de tensão, a potência média deste sinal, dada
pelo valor quadrático médio, poderá ser determinada pela integral da função que descreve a DEP do
sinal.
16
A densidade espectral de potência é uma função par, ou seja: S X ( f ) = S X ( − f ) .
---------------------------------------------------------------------------------------------------------------------------Exemplo: Retornemos ao exemplo referente a uma seqüência binária aleatória, apresentado na primeira
aula sobre processos estocásticos, de onde obtivemos a função de auto-correlação:
 2  |τ | 
A 1−
 , | τ |< T
RX (τ ) =  
T 
0,
|τ |≥ T

De uma tabela de transformada de Fourier podemos obter:
 |t |
sin 2 (π fT )
1 − , | t | < T Transformada
de Fourier
←
→T
 T
(π fT )2
 0,
| t |≥ T
Então, a DEP de uma seqüência binária aleatória de pulsos de duração T e amplitudes {± A} será:
S X ( f ) = ℑ [ RX (τ )] = A2T
sin 2 (π fT )
= A2T sinc2 ( fT )
2
(π fT )
A DEP em questão é mostrada na figura a seguir em escala linear (linha cheia) e em escala logarítmica
(linha tracejada). Em telecomunicações é comum o uso de escala logarítmica para que, visualmente, as
grandes discrepâncias entre baixas e altas intensidades sejam diminuídas. Perceba que o uso deste
recurso nos permitirá visualizar com maior precisão lobos espectrais de intensidade bastante pequena.
17
Vamos estimar o valor quadrático médio E[X2(t)] por meio da área sob SX( f ) e comparar com RX(0).
Podemos fazer isto calculando de forma aproximada a área do lobo principal, posto que ela nitidamente
é maior que a área dos demais lobos. Aproximando-a pela área de um triângulo de base 2/T e altura
A2T, temos que E[X2(t)] ≅ A2, que é de fato o valor da função de auto-correlação para τ = 0, RX(0).
---------------------------------------------------------------------------------------------------------------------------O valor de SX( f ) encontrado no exemplo anterior pode ser escrito envolvendo a densidade espectral de
energia (DEE) de um pulso g(t) retangular, de amplitude A e duração T. A DEE de um pulso g(t) nada
mais é que o módulo ao quadrado da transformada de Fourier de g(t). Assim teremos:
SX ( f ) =
| G ( f ) |2 E g ( f )
=
T
T
que para o exemplo anterior vale S X ( f ) = A2T 2 sinc 2 ( fT ) / T = A2T sinc 2 ( fT ) .
Este importante resultado pode ser generalizado: uma onda binária aleatória composta por
pulsos +g(t) e −g(t) tem densidade espectral de potência SX(f) dada pela divisão da densidade
espectral de energia Eg(f) do pulso “formatador” g(t) pela duração do pulso, T.
---------------------------------------------------------------------------------------------------------------------------Desafio: Como desafio para casa, determinar a densidade espectral de potência para a seqüência binária
aleatória x(t) ilustrada a seguir, correspondente a uma função amostra do processo X(t). O formato de
pulso g(t) é um semi-ciclo senoidal de amplitude unitária e duração T.
---------------------------------------------------------------------------------------------------------------------------Exemplo: Uma situação que ocorre tipicamente em sistemas de comunicação é o processo de
modulação de uma portadora por um sinal de informação aleatório, conforme abaixo:
Y (t ) = X (t ) cos(2π f c t + Θ)
onde Y(t) é o p.a. modulado, X(t) é o p.a. modulador associado à informação e cos(2πfct + Θ) é o p.a.
correspondente à portadora de freqüência fc e fase aleatória Θ uniformemente distribuída em (0, 2π].
Seja determinar a DEP do sinal modulado Y(t) a partir da DEP do sinal modulador X(t).
Inicialmente identificamos que o sinal modulador X(t) é independente da fase da portadora, Θ. Então
podemos escrever:
18
RY (τ ) = E[Y (t )Y (t + τ )]
= E[ X (t ) cos(2π f c t + Θ) X (t + τ ) cos(2π f c t + 2π f cτ + Θ)]
= E[ X (t ) X (t + τ )] E[cos(2π f c t + Θ) cos(2π f c t + 2π f cτ + Θ)]
Usando a identidade cos(a)cos(b) = ½cos(a – b) + ½cos(a + b), tem-se:
RY (τ ) = 12 RX (τ ) E [cos(2π f cτ ) + cos(4π f ct + 2π f cτ + 2Θ)]
= 12 RX (τ ) cos(2π f cτ )
Tomando a transformada de Fourier de ambos os lados e sabendo que a transformada de um produto de
funções no tempo é a convolução das correspondentes transformadas, tem-se:
SY ( f ) =
1
2
{S
=
1
4
[SX ( f
X
( f ) ∗ [ 12 δ ( f − f c ) + 12 δ ( f + f c )]}
− f c ) + S X ( f + f c )]
De acordo com este resultado, para determinarmos a DEP de um sinal modulado Y(t) basta
replicar a DEP SX( f ) do sinal modulador X(t) em torno de ± fc e multiplicar o resultado por ¼.
---------------------------------------------------------------------------------------------------------------------------FIM DA AULA
19
TP501 – Processos Aleatórios – Aula 4
Conteúdo
Processamento de sinais aleatórios: Estimando a DEP de um processo aleatório ergódico.
Estimando a DEP de um processo aleatório ergódico
Estimar a DEP de um processo aleatório nem sempre é uma tarefa fácil, na maior parte das vezes por
dificuldade de tratamento matemático na obtenção da função de auto-correlação. Uma tentativa de
driblar este problema poderia fazer uso de estimativas aproximadas desta função. Vamos analisar este
problema à luz de um exemplo.
---------------------------------------------------------------------------------------------------------------------------Exemplo: Vimos que a densidade espectral de potência para um processo aleatório estacionário X(t)
pode ser determinada pela transformada de Fourier do processo, ou seja:
∞
S X ( f ) = ∫ RX (τ ) e − j 2π f τ dτ
−∞
Vários livros trazem expressões para as funções de auto-correlação para processos aleatórios
conhecidos. Nestes casos torna-se bastante simples obter a DEP para estes processos, pois nos restará
“apenas” fazer um cálculo de transformada de Fourier.
Vamos supor que temos um processo aleatório ergódico para o qual a função de auto-correlação não é
encontrada nos livros e o cálculo exato desta é complexo. Vamos verificar como faríamos para estimar
a função de auto-correlação do processo sob análise para posteriormente estimarmos a sua DEP.
Recordando, a função de auto-correlação de um processo X(t) é dada por:
RX (τ ) = E[ X (ti ) X (ti + τ )]
para qualquer ti se o p.a. for estacionário. Vamos analisar o processo de estimação de RX(τ) por média
amostral. Teríamos que calcular:
RX (τ , N ) =
1
N
N
∑ x(t ) x (t + τ ) ,
i
i
i =1
fazendo N tão grande quanto possível para que a estimativa convirja para RX(τ). Para tanto colheríamos
N amostras de uma função amostra do processo sob análise, mais N amostras espaçadas de τ das
primeiras, multiplicaríamos cada par de amostras, somaríamos os N resultados e dividiríamos por N.
Teríamos que fazer isto para um conjunto de espaçamentos τ que fosse suficiente para que tivéssemos
uma boa estimativa de RX(τ). Isto corresponderia a um trabalho imenso!
20
Imagine agora que o processo não fosse ergódico. Teríamos que realizar as médias com amostras
tomadas “através” de N funções amostra do processo, o que dificultaria ainda mais nossa tarefa.
---------------------------------------------------------------------------------------------------------------------------Então, por dificuldade de tratamento matemático na obtenção da função de auto-correlação de um
processo aleatório específico, algumas vezes temos que nos contentar com estimativas da DEP obtidas
pela observação de uma função amostra do processo aleatório em um intervalo T, assim como fazemos
para obter médias estatísticas de um processo ergódico por meio de médias temporais. Nestes casos
teremos:
1 
2
E X ( f ,T ) 


T →∞ T
S X ( f ) = lim
onde |X( f,T )| é a magnitude da transformada de Fourier de uma função amostra observada em T
segundos. Diz-se que tal função amostra foi “janelada”. Na prática diferentes tipos de janela e
diferentes formas de cálculo de média são empregados. Tais janelas são chamadas de window type e as
médias são muitas vezes associadas a certo tipo de alisamento (smoothing) do resultado.
Na figura a seguir temos um exemplo de como o aplicativo VisSim/Comm trata esta questão de
estimativa da DEP de um processo aleatório. Esta figura corresponde a uma cópia da tela do aplicativo.
Segue a descrição sucinta dos principais blocos da figura:
1 – O bloco random binary wave gera uma função amostra do processo correspondente a uma
seqüência binária aleatória. Outro tipo de p.a. poderia ser gerado para análise.
2 – O bloco trigger apenas habilita o início de cálculo da DEP do sinal sob análise.
3 – É neste bloco que a estimativa da DEP é realizada por meio da última expressão dada. O
cálculo de |X( f,T )|, a magnitude da transformada de Fourier de uma função amostra observada
em T segundos, é realizado por meio da chamada transformada rápida de Fourier (FFT – Fast
Fourier Transform) que opera em um vetor com as amostras do sinal colhidas no intervalo T.
Esta transformada nada mais é do que uma versão discreta da transformada de Fourier que
permite que se obtenha o resultado da transformada sem que se tenha que operar com uma
expressão matemática do sinal analisado.
4 – O resultado da estimativa da magnitude da DEP é então apresentado num gráfico, tendo a
freqüência como variável no eixo das abscissas e a DEP, em dBm/Hz, no eixo das ordenadas.
O bloco 3 da figura em questão tem como principais parâmetros:
a – O tipo de janela (window type) é escolhido aqui. Na janela retangular (rectangular)
determina-se apenas o tamanho do intervalo em que as amostras do p.a. sob análise serão
coletadas para cálculo da FFT. Nos outros tipos as amostras da parte mais externa da janela são
ponderadas de acordo com regras específicas que estão além do escopo deste texto. Cada janela
tem suas vantagens e desvantagens em termos da precisão na estimativa da DEP, um assunto
abordado de forma aprofundada no estudo de processamento digital de sinais aleatórios.
21
b – O intervalo de observação é traduzido em um número de amostras processadas pela FFT,
número este que é determinado pela divisão do intervalo T pelo inverso da freqüência de
simulação (freqüência de amostragem) utilizada pelo aplicativo. Para o exemplo o número de
amostras é de 2k = 2.048.
c – É aqui que se configura como o operador E[.] é processado no aplicativo. Para o caso ele
corresponde à média aritmética entre 10 resultados de estimativa de DEP, obtidos em 10
intervalos consecutivos contendo 2.048 amostras cada um.
d – Este parâmetro especifica a resistência de carga simulada, de tal sorte que os valores de
DEP sejam corretamente determinados.
e – Aqui se especifica que unidade se deseja para a representação da DEP, sendo a última
(dBm/Hz) a mais utilizada tanto em cálculos teóricos como em equipamentos de análise
espectral.
A teoria que acaba de ser descrita e exemplificada é uma forma muito usual de se estimar a DEP de um
processo aleatório e é adotada em muitos softwares de simulação ou de cálculo matemático e
analisadores de espectro digitais, nos quais se opera com amostras do processo aleatório analisado de
forma muito similar àquela ilustrada na figura anterior.
---------------------------------------------------------------------------------------------------------------------------FIM DA AULA
22
TP501 – Processos Aleatórios – Aula 5
Conteúdo
Processamento de sinais aleatórios: DEP na entrada e na saída de um sistema linear. Densidades
espectrais cruzadas para p.a. estacionários. Processo aleatório Gaussiano.
DEP na entrada e na saída de um sistema linear
Seja um processo estocástico estacionário X(t) aplicado à entrada de um sistema linear invariante no
tempo cuja resposta em freqüência é H(f). A densidade espectral de potência do processo aleatório de
saída Y(t) é determinada por meio de:
SY ( f ) = S X ( f ) H ( f )
2
---------------------------------------------------------------------------------------------------------------------------Exemplo: A magnitude da resposta em freqüência de um filtro passa-baixas tipo RC é dada por:
| H ( f ) |=
1
1 + (2π fRC )2
,
À entrada deste filtro aplica-se um processo aleatório X(t) cuja densidade espectral de potência é
constante e vale SX(f) = 1×10–3 watts/Hz. Vamos calcular a potência média do processo aleatório Y(t) de
saída deste filtro, dado que R = 5 kΩ, C = 1 µF e
∫a
2
1
1
x
dx = tan −1   .
2
+x
a
a
∞
∞
∞
∞
1
−∞
−∞
−∞
−∞
1 + (2π fRC )2
PY = ∫ SY ( f ) df = ∫ S X ( f ) | H ( f ) |2 df = 1 × 10−3 ∫ | H ( f ) |2 df = 1 × 10−3 ∫
df
Escrevendo esta integral na forma da diretiva dada, temos:
PY =
1 × 10−3
4π 2 R 2C 2
∞
1
−∞
1
+ f2
2 2 2
4π R C
∫
df =
1 × 10−3
4π 2 R 2C 2
∞
1
−∞
 1 
2

 +f
 2π RC 
∫
2
df
∞
1 × 10−3
 2π RC × tan −1 (2π fRC ) 
2 2 2 
−∞
4π R C
−3
−3
−3
1 × 10 
1 × 10
 π π   1 × 10
= 2 2 2  2π RC  +   =
=
⇒ PY = 0,1watts
4π R C 
2 RC
2 × 5 × 103 × 1 × 10−6
 2 2 
que resolvendo resulta em: PY =
----------------------------------------------------------------------------------------------------------------------------
23
Densidades espectrais cruzadas para p.a. estacionários
Embora tenham significados menos intuitivos que a DEP de um único p.a., as densidades espectrais
cruzadas estabelecem certa dependência entre as componentes de freqüência de processos X(t) e Y(t)
quaisquer. Elas são definidas por:
∞
∞
−∞
−∞
S XY ( f ) = ∫ RXY (τ ) e − j 2π f τ dτ e SYX ( f ) = ∫ RYX (τ ) e − j 2π f τ dτ
Um exemplo pode melhor ilustrar uma aplicação do conhecimento das densidades espectrais cruzadas.
---------------------------------------------------------------------------------------------------------------------------Exemplo: Suponha que os processos X(t) e Y(t) têm média nula e são individualmente estacionários.
Seja o p.a. Z(t) = X(t) + Y(t), para o qual se deseja determinar a densidade espectral de potência.
RZ (τ ) = E[ Z (t ) Z (t + τ )]
= E{[ X (t ) + Y (t )][ X (t + τ ) + Y (t + τ )]}
= E[ X (t ) X (t + τ )] + E[ X (t )Y (t + τ )] + E[Y (t ) X (t + τ )] + E [Y (t )Y (t + τ )]
= RX (τ ) + RXY (τ ) + RYX (τ ) + RY (τ )
Tomando a transformada de Fourier de ambos os lados, tem-se:
S Z ( f ) = S X ( f ) + S XY ( f ) + SYX ( f ) + SY ( f )
Desse resultado concluímos que as densidades espectrais cruzadas SXY(f) e SYX(f) representam as
componentes de freqüência que precisam ser adicionadas às DEPs dos processos X(t) e Y(t) para que a
DEP da soma Z(t) = X(t) + Y(t) seja corretamente obtida.
Observe que se os processos X(t) e Y(t) forem ortogonais as correlações cruzadas serão nulas e neste
caso teremos, como esperado:
S Z ( f ) = S X ( f ) + SY ( f ) ,
ou seja, se os processos X(t) e Y(t) forem ortogonais, a DEP da soma destes processos será igual à
somas de suas DEPs. Assim podemos interpretar as densidades cruzadas como parcelas da DEP que
levam em conta o grau de ortogonalidade entre os processos aleatórios envolvidos.
----------------------------------------------------------------------------------------------------------------------------
Processo aleatório Gaussiano
Em uma forma simples de definição, um processo aleatório é dito Gaussiano se a função densidade de
probabilidade (FDP) de uma variável aleatória gerada por amostragem do citado processo for
Gaussiana. Se o processo em questão for ergódico, tais amostras podem ser coletadas temporalmente,
ou seja, ao longo de uma das funções amostra do processo, em vez de colhidas através do processo,
envolvendo as suas várias funções amostra.
24
Numa definição mais formal e estatisticamente mais correta, seja uma variável aleatória Y definida a
partir de uma relação funcional linear com um processo aleatório X(t), conforme expressão a seguir,
onde g(t) é uma função qualquer e T é um intervalo de observação arbitrário:
T
Y = ∫ g (t ) X (t )dt
0
Se a v.a. Y é Gaussiana independente da escolha da função g(t) e do intervalo de tempo T na relação
funcional dada, dizemos que o p.a. X(t) é Gaussiano. Em outras palavras, se um processo aleatório X(t)
for processado linearmente segundo a expressão acima e se Y for uma v.a. Gaussiana
independentemente da escolha arbitrária de g(t), dizemos então que X(t) é um p.a. Gaussiano.
Perceba que se revisitarmos a expressão de convolução de um processo aleatório de entrada de um
sistema linear com sua resposta ao impulso, visualizaremos um exemplo de relação funcional. Então,
desta definição formal de um processo Gaussiano obtemos o importante resultado:
Um processo aleatório Gaussiano, ao atravessar um sistema linear, gera como saída um processo
aleatório também Gaussiano.
---------------------------------------------------------------------------------------------------------------------------Exemplo: Em receptores de sistemas de comunicação é usual que seja inserido logo na entrada um
filtro de recepção, cujo objetivo é reduzir a influência do ruído na recuperação da informação
transmitida. Como veremos mais adiante, este ruído é normalmente um p.a. Gaussiano. Portanto, na
saída do filtro de recepção teremos também um p.a. Gaussiano, o que nos permitirá analisar
matematicamente o comportamento do sinal a partir do qual recuperaremos a informação. Esta
conclusão é extensivamente utilizada na concepção e no projeto de receptores em sistemas de
comunicação sujeitos à influência desse ruído.
---------------------------------------------------------------------------------------------------------------------------Exemplo: Sistemas celulares, por exemplo, fazem parte de uma família mais abrangente de sistemas
que englobam todos os tipos de sistemas de comunicação móvel. Em um sistema como este, devido à
mobilidade relativa entre transmissor e receptor, o sinal recebido sofre variações de fase e de
magnitude, às quais damos o nome de desvanecimento. Experimentos demonstram que a magnitude
R(t) e a fase Θ(t) do desvanecimento em um canal de comunicação móvel são processos aleatórios que
tipicamente variam com distribuição de Rayleigh e Uniforme, respectivamente. Podemos então definir
o chamado processo Gaussiano Complexo R(t)e jΘ(t), no qual a parte real X(t) e a parte imaginária Y(t)
são p.a. Gaussianos de média nula. Tal processo gaussiano pode ser obtido por meio de:
R (t ) =
X 2 ( t ) + Y 2 (t )
Θ(t ) = arctan [Y (t ) X (t )]
Sendo assim, se quisermos gerar este p.a. Gaussiano complexo por simulação, com o atributo de
permitir o ajuste da velocidade de variação do desvanecimento, poderemos implementar o esquema da
figura seguinte. Nele, filtros controlam a taxa de variação dos processos Gaussianos componentes e,
assim, controlam a taxa de variação da magnitude e da fase do desvanecimento. A freqüência de corte
desses filtros é diretamente proporcional à velocidade relativa entre o transmissor e o receptor que se
25
deseja simular. Em outras palavras, quanto mais lento se desejar o desvanecimento, mais lentamente
deverão variar os processos Gaussianos componentes X(t) e Y(t). Isto é conseguido estreitando-se a
largura de faixa dos citados filtros. Numa simulação, X(t) e Y(t) poderiam ser gerados pelo método de
Box-Muller, por exemplo, e filtrados utilizando-se modelos matemáticos de filtros digitais.
As figuras a seguir ilustram o aspecto das variações de magnitude do sinal recebido por um terminal
móvel para duas diferentes velocidades de movimento.
A título de complementação ou de curiosidade, faça uma breve pesquisa procurando entender como se
implementa um modelo de um filtro digital, como funciona a estrutura correspondente e como amostras
de um sinal aleatório ou determinístico são processadas por este filtro digital.
---------------------------------------------------------------------------------------------------------------------------FIM DA AULA
26
TP501 – Processos Aleatórios – Aula 6
Conteúdo
Ruído. Ruído térmico. Ruído branco. Largura de faixa equivalente de ruído. Correlação entre o ruído
branco e uma portadora co-senoidal.
Ruído
Em sistemas de comunicação damos o nome de ruído a qualquer sinal aleatório indesejado que
comprometa a transmissão e o processamento de recepção da informação. Dentre os tipos mais comuns
destacam-se o ruído impulsivo e o ruído térmico. Daremos mais atenção ao ruído térmico, devido à
sua presença em todos os sistemas de comunicação e à sua importância para o correto
dimensionamento destes sistemas.
O ruído impulsivo, embora menos freqüente, pode ser muito danoso, por exemplo, em sistemas de
recepção de TV Digital. Já o ruído térmico é o grande limitador de desempenho de qualquer sistema de
comunicação, principalmente quando a intensidade do sinal recebido é pequena, ou seja, quando o
sistema opera com baixa relação sinal-ruído.
Ruído térmico
O ruído térmico é causado pelo movimento aleatório dos elétrons em um condutor qualquer. Pode-se
mostrar que o valor quadrático médio da tensão VTN do ruído térmico nos terminais de um resistor,
medido em uma banda de B Hertz, é:
E VTN2  = 4kTBR volts2
onde k é a constante de Boltzmann, que vale 1,38×10−23 Joules/ºKelvin (J/K), T é a temperatura
absoluta em graus Kelvin (K) e R é a resistência em ohms (Ω). A figura a seguir apresenta o circuito
equivalente de Thévenin para este processo de geração do ruído térmico.
Na condição de máxima transferência de potência a carga conectada aos terminais do circuito dado
deve ter resistência igual a R. Neste caso a potência média de ruído térmico sobre esta carga será:
(
N=
E[VTN2 ] 2
R
) =(
2
4kTBR 2
R
)
2
= kTB watts
27
Sendo grande o número de elétrons em um resistor, com movimentos aleatórios independentes, o
teorema do limite central indica que o ruído térmico é Gaussiano de média nula. Em outras palavras, o
movimento aleatório e independente de um número muito elevado de elétrons, em direções também
aleatórias, produz um efeito conjunto de ruído que, pelo teorema do limite central, terá FDP Gaussiana
de média nula.
Ruído branco
Em sistemas de comunicação o ruído térmico tem a seguinte forma idealizada: sua densidade espectral
de potência é constante para qualquer freqüência. Daí o nome ruído branco, em alusão à composição da
luz branca por componentes de freqüência correspondentes a toda faixa espectral da luz.
O processo aleatório ruído branco W(t), de função amostra w(t), tem então uma densidade espectral de
potência bilateral constante com componentes em −∞ ≤ f ≤ +∞ , ou seja:
SW ( f ) =
N0
W/Hz
2
onde N0 = kTe é a densidade espectral de potência de ruído produzida na entrada do receptor de um
sistema de comunicação cuja temperatura equivalente de ruído é Te. Esta temperatura equivalente de
ruído é a temperatura a que um resistor deve ser submetido para que, ao conectá-lo à entrada de uma
versão sem ruído do sistema, produza a mesma potência média de ruído que aquela produzida por todas
as fontes de ruído do sistema real.
A temperatura equivalente de ruído Te depende somente dos parâmetros e componentes do sistema, ou
seja, o que vai determinar na prática a intensidade do ruído térmico é a temperatura (obviamente) e a
qualidade do projeto do sistema e de seus componentes, almejando reduzir a potência de ruído gerada
pelo movimento aleatórios dos elétrons dos condutores do sistema.
O ruído branco se manifesta de forma aditiva ao contaminar um sinal e, por esta razão, poderá ser
denominado daqui em diante de ruído aditivo Gaussiano branco (AWGN – Additive White Gaussian
Noise).
Como a densidade espectral de potência e a função de auto-correlação de um processo aleatório se
relacionam através da transformada de Fourier, para o ruído branco temos que:
SW ( f ) =
N0
2
⇒ RW (τ ) =
N0
δ (τ )
2
A densidade espectral de potência e a função de auto-correlação para o ruído branco são ilustradas nas
figuras a seguir.
28
Perceba que este modelo idealizado do ruído branco é a “última palavra” em termos de aleatoriedade,
ou seja, duas amostras de W(t) tomadas em instantes diferentes, não importando o quão próximas
estejam no tempo, têm correlação nula.
O ruído branco tal como foi definido é um modelo fisicamente irrealizável, pois sua potência média,
que é a integral de SW(f), é infinita. Entretanto, pode-se modelar o ruído como sendo aproximadamente
branco sempre que a largura de faixa de ruído for significativamente maior que a largura de faixa do
sistema sob análise e, nesta faixa, a DEP do ruído for aproximadamente plana.
---------------------------------------------------------------------------------------------------------------------------Exemplo: Seja o ruído branco W(t) aplicado a um filtro passa-baixas ideal de banda B Hz e de
magnitude da resposta em freqüência unitária. A DEP do ruído N(t) de saída será então:
B N
 N0
0
RN (τ ) = ∫
exp( j 2π f τ )df
 , −B< f <B
−B 2
⇒
SN ( f ) =  2
= N 0 B sinc(2 Bτ )
| f |> B
 0,
As figuras a seguir ilustram a densidade espectral de potência e a função de auto-correlação para o
ruído de saída do filtro em questão. Perceba que a ação do filtro de reduzir a banda do processo
aleatório de entrada é refletida tanto pelo “estreitamento” da DEP do processo de saída quanto pelo
“alargamento” da função de auto-correlação deste processo. Isto fará com que o processo aleatório de
saída tenha variações mais lentas que o processo de entrada.
A figura a seguir ilustra o efeito de filtragem de um processo aleatório Gaussiano correspondente ao
ruído branco. Perceba que, sendo W(t) um p.a. Gaussiano, N(t) também o será, mas o processo de saída
terá variações mais suaves ou lentas que o processo de entrada.
29
Neste exemplo, se N(t) é amostrado a 2B amostras por segundo, tais amostras serão Gaussianas, mas
terão correlação nula, conforme se pode notar na função de auto-correlação obtida.
As amostras em questão terão média µY = µXH(0) = 0 e variância igual a N0B. Este último valor
correspondente ao segundo momento de um processo aleatório de média nula. O valor N0B também
corresponde a RN(0), conforme função de auto-correlação obtida.
Adicionalmente, como a covariância KY (τ ) = RY (τ ) − µY2 , seu valor será também nulo. Portanto, as
amostras em questão serão descorrelacionadas. Por fim, tais variáveis ainda serão estatisticamente
independentes, pois a FDP conjunta será o produto das suas FDPs marginais.
----------------------------------------------------------------------------------------------------------------------------
Largura de faixa equivalente de ruído
Em grande parte dos problemas envolvendo sistemas de comunicação é preciso considerar o ruído
como sendo branco na faixa de operação do sistema, mas muitas vezes tal sistema não pode ser
considerado com tendo resposta em freqüência ideal, ou seja, banda B Hz e |H( f )| constante. A solução
consiste em considerar o ruído como sendo branco numa largura de faixa equivalente de ruído. Isto é
feito substituindo-se a resposta em freqüência do filtro ou sistema por uma resposta ideal de tal forma
que ambas produzam e mesma potência média de ruído em suas saídas. Vejamos como isto é feito.
Considere as respostas dos filtros real e ideal mostradas na figura a seguir. A potência média do ruído
de saída do filtro real será:
∞ N
0
−∞ 2
N =∫
∞
| H ( f ) |2df = N 0 ∫ | H ( f ) |2df
0
Para o mesmo ruído conectado à entrada de um filtro ideal de banda B Hz e |H( f )| constante, teremos:
N=
N0
2
H 2 (0) 2 B
30
Igualando-se os dois resultados anteriores, temos:
∞
N 0 ∫ | H ( f ) |2df =
0
N0 2
H (0) 2 B
2
de onde obtém-se a largura de faixa equivalente de ruído:
∫
B=
∞
0
| H ( f ) |2df
H 2 (0)
Correlação entre o ruído branco e uma portadora co-senoidal de energia unitária
Seja o ruído branco W(t) de densidade espectral de potência N0/2 W/Hz aplicado a um CORRELATOR
que efetua a correlação entre W(t) e uma portadora co-senoidal de energia unitária. Este dispositivo tem
utilização muito freqüente em receptores de sistemas de comunicação, dando importância ao seu estudo
no contexto de processos aleatórios. A estrutura de um correlator é mostrada na figura a seguir.
Inicialmente vamos comprovar o valor de energia unitária para a portadora co-senoidal:
E=
2
T
∫
T
0
T
T
cos2 (2π f c t )dt = T2  ∫ 21 dt + 21 ∫ cos(4π f ct )dt  = 1, CQD.
 0

0
onde admitiu-se que a freqüência da onda co-senoidal é um múltiplo inteiro de 1/T, o que levou a
integral da direita na expressão anterior a se anular.
De acordo com a definição de processo estocástico Gaussiano, o processo de saída N(t) é Gaussiano,
pois estamos aplicando um processo Gaussiano W(t) à entrada de um sistema que estabelece uma
relação funcional de W(t) com a função cos(2πfct). Revisite a definição de um processo aleatório
Gaussiano para relembrar este conceito.
Amostrando o processo N(t) em t = T tem-se:
N (T ) =
2
T
∫
T
0
W (t ) cos(2π f c t )dt
Portanto N(T) é uma v.a. Gaussiana com média E[N(T)] = 0 e variância calculada por meio de:
31
2
σ 2 = E ( N (T ) − E[ N (T )]) 


Desenvolvendo a expressão da variância obtemos:

σ2 = E

(
= E  T2 ∫
 0
T
=
2
T
∫ ∫
T
T
0
0
=
2
T
∫ ∫
T
T
0
0
)
2

W
(
t
)
cos(2
π
f
t
)
dt
c

∫0

T
2
T
∫
T
0
W (t ) cos(2π f c t ) W (u ) cos(2π f c u )dtdu 
 ,
E[W (t )W (u )]cos(2π f c t ) cos(2π f c u )dtdu
RW (t , u ) cos(2π f c t ) cos(2π f c u )dtdu
onde foi feito o uso da função de auto-correlação do ruído branco: RW (t , u ) =
Então: σ 2 =
N0
T
T
T
0
0
∫ ∫
N0
δ (t − u) .
2
δ (t − u ) cos(2π f ct ) cos(2π f c u )dtdu
A propriedade sifiting (ou sampling) da função δ(t) diz que
∫
∞
−∞
x (t )δ (t − t0 )dt = x(t0 ) .
Aplicando esta propriedade à presente análise teremos:
T
T
0
0
σ2 =
N0
T
∫ ∫
=
N0
T
∫
=
N0
T
∫[
T
0
T
0
δ (t − u ) cos(2π f ct ) cos(2π f cu )dtdu
cos2 (2π f c t )dt
1
2
+ 21 cos(4π f c t )] dt =
σ2 =
N0
T
[ T2 + 0] ⇒
N0
2
Este é um importante resultado que diz que se aplicarmos ruído branco de densidade espectral de
potência N0/2 W/Hz a um correlator alimentado com uma portadora co-senoidal de energia
unitária, obteremos como resultado um processo de saída cujas amostras terão variância N0/2.
Como os processos de entrada e de saída têm média nula, então podemos dizer que a potência média de
ruído contida nas amostras do processo de saída do correlator é igual a N0/2 watts. Este resultado será
extensivamente utilizado no estudo de sistemas de comunicação em períodos posteriores a este.
---------------------------------------------------------------------------------------------------------------------------FIM DA AULA
32
TP501 – Processos Aleatórios – Aula 7
Conteúdo
Exercícios de fixação.
1 – Sejam os p.a. contínuos X(t) e V(t), onde X(t) = 10 + V(t). Encontre a média e a variância da
variável aleatória NT definida a seguir, para T = 5 e para T = 100. Dados: E[V(t)] = 0 e RV(τ) = 2δ(τ).
Solução
A média é independente de T e vale E[NT] = 10.
A variância para T = 5 será 1/5 e para T = 100 será 1/100.
Perceba que a variância é reduzida com o aumento de T, algo esperado, pois quanto maior T, mais a
média amostral definida para NT se aproximará da média real.
---------------------------------------------------------------------------------------------------------------------------2 – Seja um ruído branco W(t) com densidade espectral de potência N0/2 watts/Hz aplicado a um filtro
passa-baixas ideal de banda B Hz e de magnitude da resposta em freqüência unitária. Pede-se:
33
a) Calcule e esboce SN(f), a densidade espectral de potência do ruído N(t) de saída do filtro.
 N0
N0
 , −B≤ f ≤B
S N ( f ) = SW ( f ) H ( f ) =
× 1 − B≤ f ≤B =  2
2
 0,
| f |> B
2
(
)
b) Calcule e esboce RN(τ), a função de auto-correlação do processo N(t) de saída do filtro.
∞
N0
exp( j 2π f τ )df = N 0 B sinc(2 Bτ )
−B 2
RN (τ ) = ∫ S N ( f ) exp( j 2π f τ )df = ∫
−∞
B
c) Calcule N, a potência do ruído de saída do filtro.
∞
N = ∫ S N ( f )df = RN (0) = N 0 B watts
−∞
---------------------------------------------------------------------------------------------------------------------------3 – Seja um p.a. estacionário Z(t) = Acos(2πfct + Θ), correspondente a uma portadora co-senoidal de
amplitude A, freqüência fc e fase aleatória Θ uniformemente distribuída em (0, 2π]. Pede-se:
a) Determine e esboce a função de auto-correlação RZ(τ ).
RZ (τ ) = E[ Z (t ) Z (t + τ )]
= E[ A cos(2π f c t + Θ) A cos(2π f ct + 2π f cτ + Θ)]
= E[ A2 ] E [cos(2π f c t + 2π f cτ + Θ) cos(2π f c t + Θ)]
Usando a identidade cos(a)cos(b) = ½cos(a – b) + ½cos(a + b), tem-se:
34
A2
E[cos(2π f cτ ) + cos(4π f c t + 2π f cτ + 2Θ)]
2
A2
cos(2π f cτ )
=
2
RZ (τ ) =
RZ (τ )
b) Determine e esboce a densidade espectral de potência SZ( f ).
A densidade espectral de potência é a transformada direta de Fourier da função de autocorrelação, ou seja:
 A2
 A2
A2
S Z ( f ) = ℑ{RZ (τ )} = ℑ  cos(2π f cτ )  =
δ ( f − fc ) + δ ( f + fc )
4
 2
 4
SZ ( f )
c) Calcule o valor quadrático médio E[Z 2(t)].
E[ Z 2 (t )] = E [ Z (t ) Z (t )] = RZ (0) =
A2
. Um cálculo alternativo seria:
2
E[ Z 2 (t )] = E[ A2 cos2 (2π f c t + Θ)] = A2 E [cos2 (2π f c t + Θ)]
2
1 1

1
 A
= A2 E  + cos(4π f c t + 2Θ)  = A2  + 0 =
2 2

2
 2
d) Sendo Z(t) independente de um processo aleatório X(t), determine a função de auto-correlação do
processo Y(t) = X(t)Z(t).
e) Determine SY( f ), a densidade espectral de potência de Y(t). Compare o resultado com aquele obtido
no exemplo de modulação de uma portadora por um sinal aleatório.
35
f) Esboce SY( f ), considerando que X(t) é uma seqüência binária aleatória de pulsos equiprováveis de
duração T e amplitudes {±1}.
----------------------------------------------------------------------------------------------------------------------------
4 – A figura ao lado mostra a magnitude da resposta
em freqüência de um filtro passa-baixas RC, dada por:
1
| H ( f ) |=
1 + (2π fRC )2
, onde R = 5 kΩ e C = 1 µF.
À entrada deste filtro aplica-se um ruído Gaussiano
branco com densidade espectral de potência de N0/2 =
1×10–3 watts/Hz. Pede-se:
a) Calcule a largura de faixa equivalente de ruído para o filtro em questão, dado que:
∫a
2
1
1
x
dx = tan −1  
2
+x
a
a
2


1
∞

 df
2
∫
2
0
| H ( f ) | df
∞
fRC
1
(2
)
+
π
1


∫
B= 0
df
= 
=∫
2
2
0 1 + (2π fRC ) 2
H (0)
H (0)
∞
∞
1
1
1
1
df = 2 2 2 ∫
df
= 2 2 2∫
2
0
0
1
R
C
4π R C
2
4
π
1


2
+f

 +f
4π 2 R 2C 2
 2π RC 
∞
∞
1
1
 2π RC × tan −1 (2π fRC )  = 2 2 2
2 2 
0
4π R C
4π R C
1
1
Então: B =
=
= 50 Hz
4 RC 4 × 5 × 103 × 1 × 10−6
Da integral dada:
2
π


 2π RC 2 − 0
b) Calcule a potência média do ruído de saída deste filtro.
∞
N0
N
1
 2π RC × tan −1 (2π fRC ) 
| H ( f ) |2 df = 0
2
2
2
−∞
−∞ 2
−∞
2 4π R C
N
1
N 1
1

 π π 
= 0
2π RC  +   ⇒ N = 0
= 1 × 10−3
= 0,1watts
2 2 2 
2 4π R C 
2 2 RC
2 × 5 × 103 × 1 × 10−6
 2 2 
∞
N = ∫ S N ( f ) df = ∫
∞
Vejamos outra solução, levando em conta o conceito de largura de faixa equivalente de ruído:
36
∞
∞
−∞
−∞
N = ∫ S N ( f ) df = ∫
=∫
B
−B
B N
N0
0
| H '( f ) |2 df = ∫
H 2 (0) df
−
B
2
2
N0
df = N 0 B = 2 × 10−3 × 50 = 0,1watts
2
c) Sobre a figura dada, esboce a magnitude da resposta em freqüência de um filtro ideal que forneça em
sua saída a mesma potência média de ruído calculada no item “b”.
De acordo com o conceito de largura de faixa equivalente de ruído, o filtro ideal terá banda B =
50 Hz e H2(0) = 1. Veja esboço na figura.
---------------------------------------------------------------------------------------------------------------------------5 – Determine e esboce a densidade espectral de potência do código de linha Manchester mostrado na
figura a seguir, gerado pela seqüência de bits aleatória também mostrada na figura. Dica: interprete o
código Manchester como uma seqüência de pulsos ±g(t). Apenas a título de curiosidade, o código
Manchester é utilizado em redes locais de computadores com fio, tais com as que temos no Inatel.
---------------------------------------------------------------------------------------------------------------------------6 – Suponha que um ruído Gaussiano branco, após filtrado por um filtro passa-baixas ideal de banda B
Hz, seja amostrado a uma taxa de 2B amostras por segundo:
a) Justifique porque as amostras resultantes serão Gaussianas.
b) Justifique porque a correlação entre tais amostras será nula.
c) Justifique porque a média da variável aleatória composta por essas amostras será nula.
d) Justifique porque a variância da variável aleatória composta por essas amostras será N0B.
e) Justifique porque a covariância para essa variável aleatória será também nula.
f) Justifique porque tais amostras serão descorrelacionadas.
g) Em que condições tais amostras também serão estatisticamente independentes?
---------------------------------------------------------------------------------------------------------------------------FIM DA AULA
37
Download

TP501_Notas_Processos_Aleatorios