TP501 – Processos Aleatórios Notas de aula Prof. Dr. Dayan Adionel Guimarães 2007-2011 1 TP501 – Processos Aleatórios – Aula 1 Conteúdo Processos estocásticos: Processo Aleatório – definição. Processo aleatório estacionário. Média de um processo estocástico. Função de auto-correlação de um processo estocástico. Principais propriedades da função de auto-correlação. A natureza aleatória de muitos fenômenos observados em Engenharia se manifesta temporal ou espacialmente. Uma família de variáveis aleatórias que se manifesta desta maneira recebe o nome de processo estocástico ou simplesmente processo aleatório (p.a.). Deste ponto em diante no nosso curso utilizaremos os conceitos já estudados para caracterizar e analisar processos aleatórios comumente encontrados em problemas de Telecomunicações. Devido à grande importância dos conceitos sobre processos estocásticos no estudo desta área, várias partes destas notas foram baseadas na referência: HAYKIN, Simon, Communication Systems, 4th Edition, John Wiley and Sons, Inc.: New York, USA, 2001, Capítulo 1. Versão em Português disponível. Sendo assim, recomenda-se fortemente que esta referência seja incluída como material de estudo. Processo Aleatório - definição Como exemplo, seja um sinal aleatório de tensão ou corrente e o conjunto de suas possíveis realizações X(t, ζ1) ... X(t, ζ4) ilustradas na figura a seguir. A um conjunto como este se dá o nome de processo aleatório X(t) ou processo estocástico X(t). A cada uma das realizações citadas dá-se o nome de função amostra x(t) do processo X(t). Se amostrarmos X(t) em, por exemplo, t1 e t2, o conjunto de amostras comporá as variáveis aleatórias X(t1) ≡ X1 e X(t2) ≡ X2 com valores x1 e x2. 2 A seguir têm-se algumas observações sobre a definição de processos aleatórios: Um processo aleatório é um conjunto de valores aleatórias indexados temporal ou espacialmente. Em outras palavras, um p.a. pode ser visto como um conjunto de variáveis aleatórias cujos valores específicos surgem ao longo do tempo ou em diferentes pontos do espaço. Por exemplo, um sinal de voz é um processo aleatório com variações temporais. Já o ângulo de inclinação de um edifício quando sujeito a ação do vento é um processo aleatório que se manifesta espacialmente. Se o índice mencionado é discreto tem-se um processo aleatório discreto; se o índice é contínuo tem-se um processo contínuo. Os possíveis valores do processo aleatório também podem ser discretos ou contínuos. Tem-se então quatro combinações: 1) p.a. discreto no tempo e discreto nos valores; 2) p.a. discreto no tempo e contínuo nos valores; 3) p.a. continuo no tempo e discreto nos valores e 4) p.a. contínuo no tempo e contínuo nos valores; No caso de uma v.a. o resultado de cada experimento aleatório é um número chamado amostra. Para um processo estocástico o resultado de cada experimento é uma “forma de onda” chamada função amostra. O número de formas de onda no conjunto pode ser finito ou infinito. ---------------------------------------------------------------------------------------------------------------------------Exemplo: A saída de um gerador de pulsos binários de duração T, se analisada em períodos de 10T, é um conjunto com 210 possíveis formas de onda. A figura a seguir ilustra quatro realizações deste conjunto. Neste caso temos um exemplo em que o número de formas de onda no conjunto é finito, da forma como o processo aleatório foi definido. Se analisássemos trechos de duração equivalente em um sinal de saída de transmissor ao longo da transmissão de um programa de rádio qualquer, perceberíamos infinitas possibilidades para as funções amostra observadas. Neste caso temos um exemplo em que o número de formas de onda no conjunto é infinito. ---------------------------------------------------------------------------------------------------------------------------3 Processo aleatório estacionário Em sendo aleatório, um processo estocástico é analisado com ferramentas estatísticas. Sendo assim, ao analisarmos um p.a., obtemos dele propriedades estatísticas. Um processo aleatório é dito estacionário se possuir propriedades estatísticas independentes do instante de tempo em que a observação do processo se inicia. Isto significa que se um processo aleatório é dividido em várias seções, estas seções exibirão propriedades estatísticas idênticas. Normalmente um processo aleatório estacionário origina-se de fenômenos físicos estáveis, como na maior parte dos casos que encontraremos em Telecomunicações. ---------------------------------------------------------------------------------------------------------------------------Exemplo: Seja determinar a probabilidade de se obter uma função amostra x(t) de um p.a. X(t) que passe pelas janelas de amplitude mostradas na figura a seguir. Isto equivale a se determinar a probabilidade do evento conjunto: A = {ai < X(ti) ≤ bi}, para i = 1, 2, 3. Se o p.a. X(t) em questão for estacionário, a probabilidade do suas funções amostra passarem pelas janelas de amplitude na parte (a) da figura a seguir é igual à probabilidade de suas funções amostra passarem pelas janelas de amplitude na parte (b) desta figura. 4 ---------------------------------------------------------------------------------------------------------------------------Como estamos tratando de processos aleatórios, as ferramentas que utilizaremos para analisá-los nos fornecerão informações estatísticas e não determinísticas. Dentre estas informações destacam-se as médias estatísticas, as quais já foram estudadas no contexto de variáveis aleatórias. Vamos a seguir estudar as principais médias estatísticas de análise de um processo aleatório. Média de um processo estocástico A média de um processo aleatório X(t) observado no instante ti é dada por: ∞ µ X (ti ) = E[ X (ti )] = ∫ xf X ( t ) ( x )dx −∞ i Interpreta-se esta expressão da seguinte maneira: a média de um processo aleatório X(t) observado no instante ti é a média da variável aleatória obtida pela amostragem do processo X(t) no instante ti. A função densidade de probabilidade desta v.a. é f X ( ti ) ( x ) . Para um processo aleatório estacionário a média independe de t, ou seja: µ X (t ) = µ X para qualquer t Isto significa que se amostrarmos um processo aleatório em qualquer instante de tempo, teremos variáveis aleatórias sempre com a mesma média. A média pode ser estimada via média amostral se colhermos um número suficientemente grande de amostras do p.a. analisado. Em outras palavras, a média pode ser determinada por meio de: 1 N →∞ N µ X (ti ) = lim N ∑X j (ti ) j =1 onde Xj(ti) é o valor da amostra da j-ésima função-amostra no instante de tempo ti. As estatísticas de primeira ordem, ou seja, aquelas que envolvem apenas uma variável aleatória obtida a partir de amostras um processo aleatório, podem não ser suficientes para caracterizá-lo. Como 5 exemplo, o p.a. Y(t) ilustrado na figura a seguir é simplesmente o p.a. X(t) comprimido no tempo. Ambos têm a mesma FDP (de primeira ordem), mas Y(t) tem componentes de freqüência mais elevadas, pois varia mais rapidamente. Como podemos levar isso em conta nas estatísticas do processo? A resposta reside no estudo de estatísticas de segunda ordem, aquelas que envolvem duas variáveis aleatórias obtidas a partir de amostras do processo aleatório sob análise em dois instantes de tempo quaisquer. A função de auto-correlação, que é o nosso próximo assunto, é a estatística de segunda ordem de maior interesse no estudo de processos estocásticos comumente encontrados em Telecomunicações. Função de auto-correlação de um processo estocástico A função de auto-correlação de um p.a. X(t) é o valor esperado do produto de duas v.a. X(t1) e X(t2), obtidas pela observação do p.a. nos instantes t1 e t2 , respectivamente, ou seja: RX (t1 , t2 ) = E [ X (t1 ) X (t2 )] = ∫ ∞ ∫ ∞ −∞ −∞ x1 x2 f X ( t1 ), X ( t2 ) ( x1 , x2 )dx1dx2 Trata-se de uma função, pois o valor específico da correlação entre as variáveis aleatórias correspondentes depende dos instantes de tempo em que foram geradas. Perceba que a função de auto-correlação revela a taxa de variação de um processo aleatório, posto que se o processo é “lento”, amostras espaçadas de um determinado intervalo levarão a valores de correlação maiores entre as v.a. correspondentes que aqueles obtidos a partir de amostras de um processo “rápido”, para o mesmo espaçamento entre tais amostras. A função de auto-correlação também pode ser estimada via média amostral se colhermos um número suficientemente grande de amostras do p.a. analisado, ou seja: 1 N →∞ N RX (t1 , t2 ) = lim N ∑X j (t1 ) X j (t2 ) j =1 6 Para um processo estocástico estacionário a função de auto-correlação independe do momento em que as amostras são colhidas, dependendo somente do espaçamento temporal entre elas. Assim teremos: RX (t1 , t2 ) = RX (t2 − t1 ) = RX (τ ) para qualquer valor de t1 e de t2 Principais propriedades da função de auto-correlação A função de auto-correlação é uma função par: RX (τ ) = RX ( −τ ) . O seu máximo valor ocorre em τ = 0, ou seja: | RX (τ ) | ≤ RX (0) . O valor quadrático médio do p.a. é dado por: E[ X 2 (t )] = RX (0) . A figura a seguir ilustra estas propriedades e mostra que a função de auto-correlação de um processo aleatório está intimamente ligada com o conteúdo de freqüências deste processo. Um p.a. que tem flutuações mais rápidas e que, portanto, tem componentes de freqüência mais elevadas, tem uma função de auto-correlação mais “aberta”. Um p.a. que tem flutuações mais lentas e que, portanto, não tem componentes de freqüências altas, tem uma função de auto-correlação mais “estreita”. Veremos mais adiante no nosso curso que, de fato, a forma como as componentes de freqüência de um sinal aleatório de tensão se distribuem será determinada pela Transformada de Fourier da função de autocorrelação do processo aleatório correspondente. ---------------------------------------------------------------------------------------------------------------------------Exemplo: A função amostra x(t) dada na figura a seguir pertence ao p.a. X(t) referente a uma seqüência binária aleatória tal que: bit 1 ⇒ +A, bit 0 ⇒ −A. Os pulsos não são sincronizados: o instante de início td do primeiro bit completo pode estar entre 0 e T com FDP uniforme. Bits consecutivos têm valores 0 ou 1 igualmente prováveis ⇒ E[X(t)] = 0, e cada bit tem seu valor independente de qualquer valor anterior ou posterior. Vamos determinar a função de auto-correlação do p.a. X(t). 7 Inicialmente vamos considerar | tk – ti | ≥ T. Neste caso X(tk) e X(ti) ocorrem em diferentes intervalos de pulso e são, portanto, independentes: E[ X (tk ) X (ti )] = E [ X (tk )]E[ X (ti )] = 0, | tk − ti | ≥ T Agora vamos considerar |tk – ti| < T, com ti < tk. Neste caso X(tk) e X(ti) vão ocorrer no mesmo intervalo de pulso somente se td < T – |tk – ti|. Então: A2 , td < T − | tk − ti | E[ X (tk ) X (ti )| td ] = 0, caso contrário Para eliminar o condicionamento ao valor de td aplicamos a Lei da Esperança Total que diz que: E[ X ] = E {E[ X | Y ]} Assim, realizando a média sobre todos os possíveis valores de td, obtemos: E[ X (tk ) X (ti )] = ∫ T − |tk − ti | 0 A2 fTd (td )dtd = ∫ T − |tk − ti | 0 A2 |t −t | dtd = A2 1 − k i T T E finalmente, fazendo τ = tk – ti tem-se a função de auto-correlação desejada 2 |τ | A 1− RX (τ ) = T , |τ |< T , 0, | τ | ≥ T cujo esboço é mostrado na figura a seguir. 8 ---------------------------------------------------------------------------------------------------------------------------Na prática muitas vezes é suficiente verificar se somente as estatísticas de primeira e de segunda ordem não variam com o tempo. Um p.a. cuja média independe do tempo e a função de auto-correlação depende somente da diferença entre os instantes de observação, não do valor específico destes instantes, é denominado processo aleatório estacionário no sentido amplo (Wide-Sense Stationary, WSS), ou simplesmente estacionário. ---------------------------------------------------------------------------------------------------------------------------FIM DA AULA 9 TP501 – Processos Aleatórios – Aula 2 Conteúdo Processos estocásticos: Função de correlação cruzada para dois processos estocásticos estacionários. Função de auto-covariância para um processo estocástico. Função de covariância cruzada para dois processos estocásticos estacionários. Processos estocásticos ergódicos. Função de correlação cruzada para dois processos estocásticos estacionários A função de correlação cruzada para os processos estocásticos estacionários X(t) e Y(t) é: RXY (τ ) = E [ X (t )Y (t + τ )] e RYX (τ ) = E[Y (t ) X (t + τ )] Esta função é par e mede a correlação entre a variável aleatória gerada por amostragem do processo X(t) em um instante t qualquer e a variável aleatória gerada por amostragem do processo Y(t) em um instante t + τ. Sua principal aplicação reside na verificação do grau de ortogonalidade entre processos aleatórios: dois processos estocásticos são ditos ortogonais se a função de correlação cruzada é nula. ---------------------------------------------------------------------------------------------------------------------------Exemplo: Em sistemas de comunicação é comum encontrarmos o que é chamado de modulação em quadratura. Neste tipo de modulação tem-se X 1 (t ) = I (t ) cos(2π f c t + Θ) e X 2 (t ) = Q (t )sin(2π f ct + Θ) , onde I(t) e Q(t) são sinais relacionados à informação que se deseja transmitir e Θ é uma fase aleatória uniformemente distribuída em (0, 2π]. Vamos determinar a função de correlação cruzada entre os processos X1(t) e X2(t): R12 (τ ) = E [ X 1 (t ) X 2 (t − τ )] = E [ I (t )Q (t + τ ) cos(2π f c t + Θ)sin(2π f c t − 2π f cτ + Θ)] = E [ I (t )Q (t + τ )]E [cos(2π f c t + Θ)sin(2π f ct − 2π f cτ + Θ)] = 12 RIQ (τ ) E[sin(4π f c t − 2π f cτ + 2Θ) − sin(2π f cτ )] = − 12 RIQ (τ )sin(2π f cτ ) onde fizemos o uso do fato que Θ é independente de I(t) e Q(t) e da identidade sin(a)cos(b) = ½sin(a – b) + ½sin(a + b). Note que para τ = 0 teremos R12(τ) = 0. Isto significa que se os processos X1(t) e X2(t) forem amostrados simultaneamente, serão obtidas variáveis aleatórias ortogonais. De um ponto de vista mais relacionado às telecomunicações, isto significa ainda que os sinais I(t) e Q(t) não se interferirão quando transmitidos por portadoras em quadratura. ---------------------------------------------------------------------------------------------------------------------------- 10 Função de auto-covariância para um processo estocástico A função de auto-covariância de um p.a. X(t) é a covariância das v.a. X(t1) e X(t2), obtidas pela observação do p.a. nos instantes t1 e t2 , respectivamente. Pode ser interpretada como a função de autocorrelação do processo centralizado (retirando-se a média) e é definida por: K X (t1 , t2 ) = E {[ X (t1 ) − µ X (t1 )][ X (t2 ) − µ X (t2 )]} = RX (t1 , t2 ) − µ X (t1 ) µ X (t2 ) Para um p.a. estacionário, a função de auto-covariância vale: K X (t1 , t2 ) = RX (t2 − t1 ) − µ X2 Fazendo t2 – t1 = τ, podemos escrever: K X (τ ) = R X (τ ) − µ X2 Se a função de auto-covariância de um processo aleatório é nula, significa que as variáveis obtidas por amostragem deste processo nos instantes t1 e t2 são descorrelacionadas. Neste caso a correlação entre estas variáveis passará a ser determinada pelo produto das médias do processo em questão, avaliadas nos instantes t1 e t2. Da mesma forma que no estudo de variáveis aleatórias, a covariância é uma medida da “amarração estatística” entre os processos aleatórios analisados. Assim, se a função de auto-covariância tem um valor elevado a um dado τ = t2 – t1, as estatísticas obtidas da variável aleatória X(t1) têm grande probabilidade de ser observadas também na variável aleatória X(t2). Como exemplo, se X(t1) tem média elevada, X(t2) provavelmente o terá. Função de covariância cruzada para dois processos estocásticos estacionários Em se tratando de dois processos aleatórios, pode-se definir a função de covariância cruzada que, para processos estacionários, vale: K XY (τ ) = RXY (τ ) − µ X µY Se os processos X(t) e Y(t) são descorrelacionados, KXY(τ) = 0 e a função de correlação cruzada entre os processos passa a ser determinada pelo produto das suas médias, ou seja: RXY (τ ) = µ X µY Observe que para processos ortogonais RXY(τ) = 0. Estes processos serão também descorrelacionados se a média µX ou a média µY for nula, ou ambas forem nulas. 11 Processos estocásticos ergódicos O conceito de processos estocásticos ergódicos é um dos mais úteis ao estudo de sistemas de comunicação e, por esta razão, daremos a este estudo uma grande importância. As médias de um p.a. são, por definição, médias estatísticas tomadas “através” do processo, ou seja, operando no conjunto de funções amostra. Para os processos ergódicos, as médias estatísticas podem ser obtidas por meio de medias temporais realizadas a partir de uma única função amostra, ou seja, “ao longo” do processo. Felizmente, em telecomunicações os processos aleatórios podem ser considerados, em sua maioria, ergódicos. A classe de processos ergódicos compreende uma classe especial de processos aleatórios estacionários. A figura a seguir, praticamente uma réplica daquela utilizada quando definimos processos aleatórios, ilustra o conceito de obtenção de amostras “através” e “ao longo” de um processo aleatório. Para um processo ergódico X(t), considere um intervalo de observação T de uma de suas funções amostra, x(t). A média e a função de auto-correlação podem ser determinadas pelas médias temporais: µ X (T ) = 1 T ∫ T /2 −T / 2 x (t )dt lim [ µ X (T )] = µ X RX (τ , T ) = ∫ T /2 −T / 2 x (t + τ ) x (t )dt lim [ RX (τ , T )] = RX (τ ) T →∞ T →∞ lim {var [ µ X (T )]} = 0 T →∞ T →∞ 1 T lim {var [ RX (τ , T )]} = 0 Em termos da função de correlação cruzada, para dois processos aleatórios ergódicos teremos: 12 RXY (τ , T ) = 1 T ∫ T /2 −T / 2 x (t + τ ) y (t )dt lim [ RXY (τ , T )] = RXY (τ ) T →∞ lim {var [ RXY (τ , T )]} = 0 T →∞ Em outras palavras, se o processo aleatório é ergódico, as médias estatísticas podem ser calculadas temporalmente, ou seja, em vez de realizar os cálculos “através” do processo, por meio do operador E[⋅], realizam-se os cálculos “ao longo” de uma única função amostra do processo, por meio de médias temporais. As expressões complementares envolvendo limites significam que à medida que o intervalo de observação T aumenta, maior a convergência da média temporal em relação ao valor real da média estatística e menor é a variância da média temporal em relação ao valor real da média estatística. As médias temporais pressupõem o conhecimento da representação matemática para x(t). Entretanto, como x(t) é aleatório, na prática as integrais que fazem parte da definição da média e da função de autocorrelação de um p.a. ergódico são aproximadas por somatórios das amostras de uma função amostra do processo sob análise. Em outras palavras, em situações práticas as médias temporais de processos estocásticos ergódicos podem ser estimadas por meio de médias amostrais dos processos em questão: µX ( N ) = 1 N N ∑ x(ti ) RX (τ , N ) = i =1 lim [ µ X ( N )] = µ X 1 N N ∑ x(t ) x (t + τ ) i i i =1 lim [ RX (τ , N )] = RX (τ ) N →∞ N →∞ lim {var [ µ X ( N )]} = 0 lim {var [ RX (τ , N )]} = 0 N →∞ N →∞ Em termos da função de correlação cruzada, para dois processos aleatórios ergódicos teremos: RXY (τ , N ) = 1 N N ∑ x (t ) y (t i i +τ ) i =1 lim [ RXY (τ , N ) ] = RXY (τ ) N →∞ lim {var [ RXY (τ , N )]} = 0 N →∞ ---------------------------------------------------------------------------------------------------------------------------FIM DA AULA 13 Exercício de fixação ---------------------------------------------------------------------------------------------------------------------------Suponha que um dado gerador de forma de onda aleatória possa ser programado para gerar diferentes tipos de processos aleatórios. Utilizando este gerador, pede-se: a) Proponha um experimento que lhe permita estimar a média e a função de auto-correlação de um p.a. qualquer de saída. b) Proponha um experimento que lhe permita determinar se o processo aleatório de saída do gerador é ou não é ergódico. c) Sabendo que os p.a. gerados são ergódicos, proponha um experimento que lhe permita estimar a média e a função de auto-correlação de um p.a. qualquer de saída. d) Sabendo que os p.a. gerados são ergódicos, proponha um experimento que lhe permita determinar de forma aproximada a função densidade de probabilidade de um p.a. qualquer de saída do gerador. ---------------------------------------------------------------------------------------------------------------------------- 14 TP501 – Processos Aleatórios – Aula 3 Conteúdo Processamento de sinais aleatórios: Principais médias estatísticas envolvendo sistemas lineares. Densidade espectral de potência (DEP) de um processo aleatório. Algumas propriedades da DEP. No estudo de sistemas de comunicação é comum encontrarmos problemas que envolvem a passagem de sinais aleatórios por sistemas lineares, tais como filtros de transmissão e recepção, multiplicadores, integradores, etc. Nesta parte do curso utilizaremos de forma combinada os conceitos sobre processos aleatórios e sobre sistemas lineares, objetivando caracterizar os processos aleatórios de entrada e de saída destes sistemas. Mais uma vez, devido à grande importância dos conceitos sobre processos estocásticos no estudo de sistemas de comunicações, várias partes destas notas foram baseadas na referência: HAYKIN, Simon, Communication Systems, 4th Edition, John Wiley and Sons, Inc.: New York, USA, 2001, Capítulo 1. Sendo assim, recomenda-se fortemente que esta referência seja incluída como material de estudo. ---------------------------------------------------------------------------------------------------------------------------- Principais médias estatísticas envolvendo sistemas lineares A figura a seguir mostra um sistema linear invariante no tempo com resposta ao impulso h(t), tendo como entrada o processo aleatório X(t) e como saída o processo Y(t). O processo aleatório de saída do sistema linear, embora não possa ser determinado em termos de uma expressão matemática, continua sendo dado pela convolução do processo de entrada com a resposta ao impulso do sistema, ou seja: ∞ ∞ −∞ −∞ Y (t ) = X (t ) ∗ h (t ) = ∫ h (u ) X (t − u )du = ∫ X (u )h(t − u )du A média do processo aleatório de saída é dada por: ∞ ∞ −∞ −∞ µY (t ) = E [Y (t )] = ∫ h(u ) E[ X (t − u )]du = ∫ h(u ) µ X (t − u)du Se o processo X(t) for estacionário, teremos como média de saída: ∞ ∞ −∞ −∞ µY = µ X ∫ h (t )dt = µ X ∫ h(t )e − j 2π ft dt f =0 = µ X H (0) 15 A função de auto-correlação do processo de saída é dada por: ∞ ∞ RY (t ,τ ) = E [Y (t )Y (t + τ )] = E ∫ h (u ) X (t − u )du ∫ h( v ) X (t + τ − v )dv −∞ −∞ =∫ ∞ ∫ ∞ −∞ −∞ h(u )h(v ) E [ X (t − u ) X (t + τ − v )]dudv Se o processo X(t) for estacionário, teremos como função de auto-correlação do processo de saída: RY (τ ) = ∫ ∞ ∫ ∞ −∞ −∞ h(u )h (v ) RX (τ − v + u )dudv Esta expressão, embora de resolução difícil razoavelmente, permite que a função de auto-correlação do processo de saída do sistema linear seja determina conhecendo-se a resposta ao impulso do sistema e a função de auto-correlação do processo de entrada. Densidade espectral de potência (DEP) de um processo aleatório A densidade espectral de potência descreve como a potência de um sinal X(t), seja ele aleatório ou determinístico, se distribui na freqüência e, por esta razão, é medida em watts/Hertz (W/Hz). Trata-se de um parâmetro de extrema importância no estudo de sistemas de comunicação, pois permite que conheçamos o conteúdo de freqüência de um sinal qualquer. Quando temos um sinal determinístico, o conteúdo de freqüências pode ser determinado por meio da conhecida transformada de Fourier. Entretanto, com processos aleatórios não é possível realizar o cálculo teórico da transformada, posto que tais processos não podem ser descritos com expressões matemáticas determinísticas. Felizmente existe uma forma simples de contornar este problema, utilizando a função de auto-correlação do processo estocástico sob análise. A densidade espectral de potência e a função de auto-correlação de um p.a. estacionário formam um par na transformada de Fourier, ou seja: ∞ S X ( f ) = ∫ RX (τ ) e − j 2π f τ dτ −∞ ∞ RX (τ ) = ∫ S X ( f ) e j 2π f τ df −∞ Algumas propriedades da DEP O valor quadrático médio, ou segundo momento de um p.a. é dado pela área sob a curva de densidade espectral de potência: ∫ ∞ −∞ S X ( f ) df = RX (0) = E[ X 2 (t )] Em outras palavras, se estivermos analisando um sinal de tensão, a potência média deste sinal, dada pelo valor quadrático médio, poderá ser determinada pela integral da função que descreve a DEP do sinal. 16 A densidade espectral de potência é uma função par, ou seja: S X ( f ) = S X ( − f ) . ---------------------------------------------------------------------------------------------------------------------------Exemplo: Retornemos ao exemplo referente a uma seqüência binária aleatória, apresentado na primeira aula sobre processos estocásticos, de onde obtivemos a função de auto-correlação: 2 |τ | A 1− , | τ |< T RX (τ ) = T 0, |τ |≥ T De uma tabela de transformada de Fourier podemos obter: |t | sin 2 (π fT ) 1 − , | t | < T Transformada de Fourier ← →T T (π fT )2 0, | t |≥ T Então, a DEP de uma seqüência binária aleatória de pulsos de duração T e amplitudes {± A} será: S X ( f ) = ℑ [ RX (τ )] = A2T sin 2 (π fT ) = A2T sinc2 ( fT ) 2 (π fT ) A DEP em questão é mostrada na figura a seguir em escala linear (linha cheia) e em escala logarítmica (linha tracejada). Em telecomunicações é comum o uso de escala logarítmica para que, visualmente, as grandes discrepâncias entre baixas e altas intensidades sejam diminuídas. Perceba que o uso deste recurso nos permitirá visualizar com maior precisão lobos espectrais de intensidade bastante pequena. 17 Vamos estimar o valor quadrático médio E[X2(t)] por meio da área sob SX( f ) e comparar com RX(0). Podemos fazer isto calculando de forma aproximada a área do lobo principal, posto que ela nitidamente é maior que a área dos demais lobos. Aproximando-a pela área de um triângulo de base 2/T e altura A2T, temos que E[X2(t)] ≅ A2, que é de fato o valor da função de auto-correlação para τ = 0, RX(0). ---------------------------------------------------------------------------------------------------------------------------O valor de SX( f ) encontrado no exemplo anterior pode ser escrito envolvendo a densidade espectral de energia (DEE) de um pulso g(t) retangular, de amplitude A e duração T. A DEE de um pulso g(t) nada mais é que o módulo ao quadrado da transformada de Fourier de g(t). Assim teremos: SX ( f ) = | G ( f ) |2 E g ( f ) = T T que para o exemplo anterior vale S X ( f ) = A2T 2 sinc 2 ( fT ) / T = A2T sinc 2 ( fT ) . Este importante resultado pode ser generalizado: uma onda binária aleatória composta por pulsos +g(t) e −g(t) tem densidade espectral de potência SX(f) dada pela divisão da densidade espectral de energia Eg(f) do pulso “formatador” g(t) pela duração do pulso, T. ---------------------------------------------------------------------------------------------------------------------------Desafio: Como desafio para casa, determinar a densidade espectral de potência para a seqüência binária aleatória x(t) ilustrada a seguir, correspondente a uma função amostra do processo X(t). O formato de pulso g(t) é um semi-ciclo senoidal de amplitude unitária e duração T. ---------------------------------------------------------------------------------------------------------------------------Exemplo: Uma situação que ocorre tipicamente em sistemas de comunicação é o processo de modulação de uma portadora por um sinal de informação aleatório, conforme abaixo: Y (t ) = X (t ) cos(2π f c t + Θ) onde Y(t) é o p.a. modulado, X(t) é o p.a. modulador associado à informação e cos(2πfct + Θ) é o p.a. correspondente à portadora de freqüência fc e fase aleatória Θ uniformemente distribuída em (0, 2π]. Seja determinar a DEP do sinal modulado Y(t) a partir da DEP do sinal modulador X(t). Inicialmente identificamos que o sinal modulador X(t) é independente da fase da portadora, Θ. Então podemos escrever: 18 RY (τ ) = E[Y (t )Y (t + τ )] = E[ X (t ) cos(2π f c t + Θ) X (t + τ ) cos(2π f c t + 2π f cτ + Θ)] = E[ X (t ) X (t + τ )] E[cos(2π f c t + Θ) cos(2π f c t + 2π f cτ + Θ)] Usando a identidade cos(a)cos(b) = ½cos(a – b) + ½cos(a + b), tem-se: RY (τ ) = 12 RX (τ ) E [cos(2π f cτ ) + cos(4π f ct + 2π f cτ + 2Θ)] = 12 RX (τ ) cos(2π f cτ ) Tomando a transformada de Fourier de ambos os lados e sabendo que a transformada de um produto de funções no tempo é a convolução das correspondentes transformadas, tem-se: SY ( f ) = 1 2 {S = 1 4 [SX ( f X ( f ) ∗ [ 12 δ ( f − f c ) + 12 δ ( f + f c )]} − f c ) + S X ( f + f c )] De acordo com este resultado, para determinarmos a DEP de um sinal modulado Y(t) basta replicar a DEP SX( f ) do sinal modulador X(t) em torno de ± fc e multiplicar o resultado por ¼. ---------------------------------------------------------------------------------------------------------------------------FIM DA AULA 19 TP501 – Processos Aleatórios – Aula 4 Conteúdo Processamento de sinais aleatórios: Estimando a DEP de um processo aleatório ergódico. Estimando a DEP de um processo aleatório ergódico Estimar a DEP de um processo aleatório nem sempre é uma tarefa fácil, na maior parte das vezes por dificuldade de tratamento matemático na obtenção da função de auto-correlação. Uma tentativa de driblar este problema poderia fazer uso de estimativas aproximadas desta função. Vamos analisar este problema à luz de um exemplo. ---------------------------------------------------------------------------------------------------------------------------Exemplo: Vimos que a densidade espectral de potência para um processo aleatório estacionário X(t) pode ser determinada pela transformada de Fourier do processo, ou seja: ∞ S X ( f ) = ∫ RX (τ ) e − j 2π f τ dτ −∞ Vários livros trazem expressões para as funções de auto-correlação para processos aleatórios conhecidos. Nestes casos torna-se bastante simples obter a DEP para estes processos, pois nos restará “apenas” fazer um cálculo de transformada de Fourier. Vamos supor que temos um processo aleatório ergódico para o qual a função de auto-correlação não é encontrada nos livros e o cálculo exato desta é complexo. Vamos verificar como faríamos para estimar a função de auto-correlação do processo sob análise para posteriormente estimarmos a sua DEP. Recordando, a função de auto-correlação de um processo X(t) é dada por: RX (τ ) = E[ X (ti ) X (ti + τ )] para qualquer ti se o p.a. for estacionário. Vamos analisar o processo de estimação de RX(τ) por média amostral. Teríamos que calcular: RX (τ , N ) = 1 N N ∑ x(t ) x (t + τ ) , i i i =1 fazendo N tão grande quanto possível para que a estimativa convirja para RX(τ). Para tanto colheríamos N amostras de uma função amostra do processo sob análise, mais N amostras espaçadas de τ das primeiras, multiplicaríamos cada par de amostras, somaríamos os N resultados e dividiríamos por N. Teríamos que fazer isto para um conjunto de espaçamentos τ que fosse suficiente para que tivéssemos uma boa estimativa de RX(τ). Isto corresponderia a um trabalho imenso! 20 Imagine agora que o processo não fosse ergódico. Teríamos que realizar as médias com amostras tomadas “através” de N funções amostra do processo, o que dificultaria ainda mais nossa tarefa. ---------------------------------------------------------------------------------------------------------------------------Então, por dificuldade de tratamento matemático na obtenção da função de auto-correlação de um processo aleatório específico, algumas vezes temos que nos contentar com estimativas da DEP obtidas pela observação de uma função amostra do processo aleatório em um intervalo T, assim como fazemos para obter médias estatísticas de um processo ergódico por meio de médias temporais. Nestes casos teremos: 1 2 E X ( f ,T ) T →∞ T S X ( f ) = lim onde |X( f,T )| é a magnitude da transformada de Fourier de uma função amostra observada em T segundos. Diz-se que tal função amostra foi “janelada”. Na prática diferentes tipos de janela e diferentes formas de cálculo de média são empregados. Tais janelas são chamadas de window type e as médias são muitas vezes associadas a certo tipo de alisamento (smoothing) do resultado. Na figura a seguir temos um exemplo de como o aplicativo VisSim/Comm trata esta questão de estimativa da DEP de um processo aleatório. Esta figura corresponde a uma cópia da tela do aplicativo. Segue a descrição sucinta dos principais blocos da figura: 1 – O bloco random binary wave gera uma função amostra do processo correspondente a uma seqüência binária aleatória. Outro tipo de p.a. poderia ser gerado para análise. 2 – O bloco trigger apenas habilita o início de cálculo da DEP do sinal sob análise. 3 – É neste bloco que a estimativa da DEP é realizada por meio da última expressão dada. O cálculo de |X( f,T )|, a magnitude da transformada de Fourier de uma função amostra observada em T segundos, é realizado por meio da chamada transformada rápida de Fourier (FFT – Fast Fourier Transform) que opera em um vetor com as amostras do sinal colhidas no intervalo T. Esta transformada nada mais é do que uma versão discreta da transformada de Fourier que permite que se obtenha o resultado da transformada sem que se tenha que operar com uma expressão matemática do sinal analisado. 4 – O resultado da estimativa da magnitude da DEP é então apresentado num gráfico, tendo a freqüência como variável no eixo das abscissas e a DEP, em dBm/Hz, no eixo das ordenadas. O bloco 3 da figura em questão tem como principais parâmetros: a – O tipo de janela (window type) é escolhido aqui. Na janela retangular (rectangular) determina-se apenas o tamanho do intervalo em que as amostras do p.a. sob análise serão coletadas para cálculo da FFT. Nos outros tipos as amostras da parte mais externa da janela são ponderadas de acordo com regras específicas que estão além do escopo deste texto. Cada janela tem suas vantagens e desvantagens em termos da precisão na estimativa da DEP, um assunto abordado de forma aprofundada no estudo de processamento digital de sinais aleatórios. 21 b – O intervalo de observação é traduzido em um número de amostras processadas pela FFT, número este que é determinado pela divisão do intervalo T pelo inverso da freqüência de simulação (freqüência de amostragem) utilizada pelo aplicativo. Para o exemplo o número de amostras é de 2k = 2.048. c – É aqui que se configura como o operador E[.] é processado no aplicativo. Para o caso ele corresponde à média aritmética entre 10 resultados de estimativa de DEP, obtidos em 10 intervalos consecutivos contendo 2.048 amostras cada um. d – Este parâmetro especifica a resistência de carga simulada, de tal sorte que os valores de DEP sejam corretamente determinados. e – Aqui se especifica que unidade se deseja para a representação da DEP, sendo a última (dBm/Hz) a mais utilizada tanto em cálculos teóricos como em equipamentos de análise espectral. A teoria que acaba de ser descrita e exemplificada é uma forma muito usual de se estimar a DEP de um processo aleatório e é adotada em muitos softwares de simulação ou de cálculo matemático e analisadores de espectro digitais, nos quais se opera com amostras do processo aleatório analisado de forma muito similar àquela ilustrada na figura anterior. ---------------------------------------------------------------------------------------------------------------------------FIM DA AULA 22 TP501 – Processos Aleatórios – Aula 5 Conteúdo Processamento de sinais aleatórios: DEP na entrada e na saída de um sistema linear. Densidades espectrais cruzadas para p.a. estacionários. Processo aleatório Gaussiano. DEP na entrada e na saída de um sistema linear Seja um processo estocástico estacionário X(t) aplicado à entrada de um sistema linear invariante no tempo cuja resposta em freqüência é H(f). A densidade espectral de potência do processo aleatório de saída Y(t) é determinada por meio de: SY ( f ) = S X ( f ) H ( f ) 2 ---------------------------------------------------------------------------------------------------------------------------Exemplo: A magnitude da resposta em freqüência de um filtro passa-baixas tipo RC é dada por: | H ( f ) |= 1 1 + (2π fRC )2 , À entrada deste filtro aplica-se um processo aleatório X(t) cuja densidade espectral de potência é constante e vale SX(f) = 1×10–3 watts/Hz. Vamos calcular a potência média do processo aleatório Y(t) de saída deste filtro, dado que R = 5 kΩ, C = 1 µF e ∫a 2 1 1 x dx = tan −1 . 2 +x a a ∞ ∞ ∞ ∞ 1 −∞ −∞ −∞ −∞ 1 + (2π fRC )2 PY = ∫ SY ( f ) df = ∫ S X ( f ) | H ( f ) |2 df = 1 × 10−3 ∫ | H ( f ) |2 df = 1 × 10−3 ∫ df Escrevendo esta integral na forma da diretiva dada, temos: PY = 1 × 10−3 4π 2 R 2C 2 ∞ 1 −∞ 1 + f2 2 2 2 4π R C ∫ df = 1 × 10−3 4π 2 R 2C 2 ∞ 1 −∞ 1 2 +f 2π RC ∫ 2 df ∞ 1 × 10−3 2π RC × tan −1 (2π fRC ) 2 2 2 −∞ 4π R C −3 −3 −3 1 × 10 1 × 10 π π 1 × 10 = 2 2 2 2π RC + = = ⇒ PY = 0,1watts 4π R C 2 RC 2 × 5 × 103 × 1 × 10−6 2 2 que resolvendo resulta em: PY = ---------------------------------------------------------------------------------------------------------------------------- 23 Densidades espectrais cruzadas para p.a. estacionários Embora tenham significados menos intuitivos que a DEP de um único p.a., as densidades espectrais cruzadas estabelecem certa dependência entre as componentes de freqüência de processos X(t) e Y(t) quaisquer. Elas são definidas por: ∞ ∞ −∞ −∞ S XY ( f ) = ∫ RXY (τ ) e − j 2π f τ dτ e SYX ( f ) = ∫ RYX (τ ) e − j 2π f τ dτ Um exemplo pode melhor ilustrar uma aplicação do conhecimento das densidades espectrais cruzadas. ---------------------------------------------------------------------------------------------------------------------------Exemplo: Suponha que os processos X(t) e Y(t) têm média nula e são individualmente estacionários. Seja o p.a. Z(t) = X(t) + Y(t), para o qual se deseja determinar a densidade espectral de potência. RZ (τ ) = E[ Z (t ) Z (t + τ )] = E{[ X (t ) + Y (t )][ X (t + τ ) + Y (t + τ )]} = E[ X (t ) X (t + τ )] + E[ X (t )Y (t + τ )] + E[Y (t ) X (t + τ )] + E [Y (t )Y (t + τ )] = RX (τ ) + RXY (τ ) + RYX (τ ) + RY (τ ) Tomando a transformada de Fourier de ambos os lados, tem-se: S Z ( f ) = S X ( f ) + S XY ( f ) + SYX ( f ) + SY ( f ) Desse resultado concluímos que as densidades espectrais cruzadas SXY(f) e SYX(f) representam as componentes de freqüência que precisam ser adicionadas às DEPs dos processos X(t) e Y(t) para que a DEP da soma Z(t) = X(t) + Y(t) seja corretamente obtida. Observe que se os processos X(t) e Y(t) forem ortogonais as correlações cruzadas serão nulas e neste caso teremos, como esperado: S Z ( f ) = S X ( f ) + SY ( f ) , ou seja, se os processos X(t) e Y(t) forem ortogonais, a DEP da soma destes processos será igual à somas de suas DEPs. Assim podemos interpretar as densidades cruzadas como parcelas da DEP que levam em conta o grau de ortogonalidade entre os processos aleatórios envolvidos. ---------------------------------------------------------------------------------------------------------------------------- Processo aleatório Gaussiano Em uma forma simples de definição, um processo aleatório é dito Gaussiano se a função densidade de probabilidade (FDP) de uma variável aleatória gerada por amostragem do citado processo for Gaussiana. Se o processo em questão for ergódico, tais amostras podem ser coletadas temporalmente, ou seja, ao longo de uma das funções amostra do processo, em vez de colhidas através do processo, envolvendo as suas várias funções amostra. 24 Numa definição mais formal e estatisticamente mais correta, seja uma variável aleatória Y definida a partir de uma relação funcional linear com um processo aleatório X(t), conforme expressão a seguir, onde g(t) é uma função qualquer e T é um intervalo de observação arbitrário: T Y = ∫ g (t ) X (t )dt 0 Se a v.a. Y é Gaussiana independente da escolha da função g(t) e do intervalo de tempo T na relação funcional dada, dizemos que o p.a. X(t) é Gaussiano. Em outras palavras, se um processo aleatório X(t) for processado linearmente segundo a expressão acima e se Y for uma v.a. Gaussiana independentemente da escolha arbitrária de g(t), dizemos então que X(t) é um p.a. Gaussiano. Perceba que se revisitarmos a expressão de convolução de um processo aleatório de entrada de um sistema linear com sua resposta ao impulso, visualizaremos um exemplo de relação funcional. Então, desta definição formal de um processo Gaussiano obtemos o importante resultado: Um processo aleatório Gaussiano, ao atravessar um sistema linear, gera como saída um processo aleatório também Gaussiano. ---------------------------------------------------------------------------------------------------------------------------Exemplo: Em receptores de sistemas de comunicação é usual que seja inserido logo na entrada um filtro de recepção, cujo objetivo é reduzir a influência do ruído na recuperação da informação transmitida. Como veremos mais adiante, este ruído é normalmente um p.a. Gaussiano. Portanto, na saída do filtro de recepção teremos também um p.a. Gaussiano, o que nos permitirá analisar matematicamente o comportamento do sinal a partir do qual recuperaremos a informação. Esta conclusão é extensivamente utilizada na concepção e no projeto de receptores em sistemas de comunicação sujeitos à influência desse ruído. ---------------------------------------------------------------------------------------------------------------------------Exemplo: Sistemas celulares, por exemplo, fazem parte de uma família mais abrangente de sistemas que englobam todos os tipos de sistemas de comunicação móvel. Em um sistema como este, devido à mobilidade relativa entre transmissor e receptor, o sinal recebido sofre variações de fase e de magnitude, às quais damos o nome de desvanecimento. Experimentos demonstram que a magnitude R(t) e a fase Θ(t) do desvanecimento em um canal de comunicação móvel são processos aleatórios que tipicamente variam com distribuição de Rayleigh e Uniforme, respectivamente. Podemos então definir o chamado processo Gaussiano Complexo R(t)e jΘ(t), no qual a parte real X(t) e a parte imaginária Y(t) são p.a. Gaussianos de média nula. Tal processo gaussiano pode ser obtido por meio de: R (t ) = X 2 ( t ) + Y 2 (t ) Θ(t ) = arctan [Y (t ) X (t )] Sendo assim, se quisermos gerar este p.a. Gaussiano complexo por simulação, com o atributo de permitir o ajuste da velocidade de variação do desvanecimento, poderemos implementar o esquema da figura seguinte. Nele, filtros controlam a taxa de variação dos processos Gaussianos componentes e, assim, controlam a taxa de variação da magnitude e da fase do desvanecimento. A freqüência de corte desses filtros é diretamente proporcional à velocidade relativa entre o transmissor e o receptor que se 25 deseja simular. Em outras palavras, quanto mais lento se desejar o desvanecimento, mais lentamente deverão variar os processos Gaussianos componentes X(t) e Y(t). Isto é conseguido estreitando-se a largura de faixa dos citados filtros. Numa simulação, X(t) e Y(t) poderiam ser gerados pelo método de Box-Muller, por exemplo, e filtrados utilizando-se modelos matemáticos de filtros digitais. As figuras a seguir ilustram o aspecto das variações de magnitude do sinal recebido por um terminal móvel para duas diferentes velocidades de movimento. A título de complementação ou de curiosidade, faça uma breve pesquisa procurando entender como se implementa um modelo de um filtro digital, como funciona a estrutura correspondente e como amostras de um sinal aleatório ou determinístico são processadas por este filtro digital. ---------------------------------------------------------------------------------------------------------------------------FIM DA AULA 26 TP501 – Processos Aleatórios – Aula 6 Conteúdo Ruído. Ruído térmico. Ruído branco. Largura de faixa equivalente de ruído. Correlação entre o ruído branco e uma portadora co-senoidal. Ruído Em sistemas de comunicação damos o nome de ruído a qualquer sinal aleatório indesejado que comprometa a transmissão e o processamento de recepção da informação. Dentre os tipos mais comuns destacam-se o ruído impulsivo e o ruído térmico. Daremos mais atenção ao ruído térmico, devido à sua presença em todos os sistemas de comunicação e à sua importância para o correto dimensionamento destes sistemas. O ruído impulsivo, embora menos freqüente, pode ser muito danoso, por exemplo, em sistemas de recepção de TV Digital. Já o ruído térmico é o grande limitador de desempenho de qualquer sistema de comunicação, principalmente quando a intensidade do sinal recebido é pequena, ou seja, quando o sistema opera com baixa relação sinal-ruído. Ruído térmico O ruído térmico é causado pelo movimento aleatório dos elétrons em um condutor qualquer. Pode-se mostrar que o valor quadrático médio da tensão VTN do ruído térmico nos terminais de um resistor, medido em uma banda de B Hertz, é: E VTN2 = 4kTBR volts2 onde k é a constante de Boltzmann, que vale 1,38×10−23 Joules/ºKelvin (J/K), T é a temperatura absoluta em graus Kelvin (K) e R é a resistência em ohms (Ω). A figura a seguir apresenta o circuito equivalente de Thévenin para este processo de geração do ruído térmico. Na condição de máxima transferência de potência a carga conectada aos terminais do circuito dado deve ter resistência igual a R. Neste caso a potência média de ruído térmico sobre esta carga será: ( N= E[VTN2 ] 2 R ) =( 2 4kTBR 2 R ) 2 = kTB watts 27 Sendo grande o número de elétrons em um resistor, com movimentos aleatórios independentes, o teorema do limite central indica que o ruído térmico é Gaussiano de média nula. Em outras palavras, o movimento aleatório e independente de um número muito elevado de elétrons, em direções também aleatórias, produz um efeito conjunto de ruído que, pelo teorema do limite central, terá FDP Gaussiana de média nula. Ruído branco Em sistemas de comunicação o ruído térmico tem a seguinte forma idealizada: sua densidade espectral de potência é constante para qualquer freqüência. Daí o nome ruído branco, em alusão à composição da luz branca por componentes de freqüência correspondentes a toda faixa espectral da luz. O processo aleatório ruído branco W(t), de função amostra w(t), tem então uma densidade espectral de potência bilateral constante com componentes em −∞ ≤ f ≤ +∞ , ou seja: SW ( f ) = N0 W/Hz 2 onde N0 = kTe é a densidade espectral de potência de ruído produzida na entrada do receptor de um sistema de comunicação cuja temperatura equivalente de ruído é Te. Esta temperatura equivalente de ruído é a temperatura a que um resistor deve ser submetido para que, ao conectá-lo à entrada de uma versão sem ruído do sistema, produza a mesma potência média de ruído que aquela produzida por todas as fontes de ruído do sistema real. A temperatura equivalente de ruído Te depende somente dos parâmetros e componentes do sistema, ou seja, o que vai determinar na prática a intensidade do ruído térmico é a temperatura (obviamente) e a qualidade do projeto do sistema e de seus componentes, almejando reduzir a potência de ruído gerada pelo movimento aleatórios dos elétrons dos condutores do sistema. O ruído branco se manifesta de forma aditiva ao contaminar um sinal e, por esta razão, poderá ser denominado daqui em diante de ruído aditivo Gaussiano branco (AWGN – Additive White Gaussian Noise). Como a densidade espectral de potência e a função de auto-correlação de um processo aleatório se relacionam através da transformada de Fourier, para o ruído branco temos que: SW ( f ) = N0 2 ⇒ RW (τ ) = N0 δ (τ ) 2 A densidade espectral de potência e a função de auto-correlação para o ruído branco são ilustradas nas figuras a seguir. 28 Perceba que este modelo idealizado do ruído branco é a “última palavra” em termos de aleatoriedade, ou seja, duas amostras de W(t) tomadas em instantes diferentes, não importando o quão próximas estejam no tempo, têm correlação nula. O ruído branco tal como foi definido é um modelo fisicamente irrealizável, pois sua potência média, que é a integral de SW(f), é infinita. Entretanto, pode-se modelar o ruído como sendo aproximadamente branco sempre que a largura de faixa de ruído for significativamente maior que a largura de faixa do sistema sob análise e, nesta faixa, a DEP do ruído for aproximadamente plana. ---------------------------------------------------------------------------------------------------------------------------Exemplo: Seja o ruído branco W(t) aplicado a um filtro passa-baixas ideal de banda B Hz e de magnitude da resposta em freqüência unitária. A DEP do ruído N(t) de saída será então: B N N0 0 RN (τ ) = ∫ exp( j 2π f τ )df , −B< f <B −B 2 ⇒ SN ( f ) = 2 = N 0 B sinc(2 Bτ ) | f |> B 0, As figuras a seguir ilustram a densidade espectral de potência e a função de auto-correlação para o ruído de saída do filtro em questão. Perceba que a ação do filtro de reduzir a banda do processo aleatório de entrada é refletida tanto pelo “estreitamento” da DEP do processo de saída quanto pelo “alargamento” da função de auto-correlação deste processo. Isto fará com que o processo aleatório de saída tenha variações mais lentas que o processo de entrada. A figura a seguir ilustra o efeito de filtragem de um processo aleatório Gaussiano correspondente ao ruído branco. Perceba que, sendo W(t) um p.a. Gaussiano, N(t) também o será, mas o processo de saída terá variações mais suaves ou lentas que o processo de entrada. 29 Neste exemplo, se N(t) é amostrado a 2B amostras por segundo, tais amostras serão Gaussianas, mas terão correlação nula, conforme se pode notar na função de auto-correlação obtida. As amostras em questão terão média µY = µXH(0) = 0 e variância igual a N0B. Este último valor correspondente ao segundo momento de um processo aleatório de média nula. O valor N0B também corresponde a RN(0), conforme função de auto-correlação obtida. Adicionalmente, como a covariância KY (τ ) = RY (τ ) − µY2 , seu valor será também nulo. Portanto, as amostras em questão serão descorrelacionadas. Por fim, tais variáveis ainda serão estatisticamente independentes, pois a FDP conjunta será o produto das suas FDPs marginais. ---------------------------------------------------------------------------------------------------------------------------- Largura de faixa equivalente de ruído Em grande parte dos problemas envolvendo sistemas de comunicação é preciso considerar o ruído como sendo branco na faixa de operação do sistema, mas muitas vezes tal sistema não pode ser considerado com tendo resposta em freqüência ideal, ou seja, banda B Hz e |H( f )| constante. A solução consiste em considerar o ruído como sendo branco numa largura de faixa equivalente de ruído. Isto é feito substituindo-se a resposta em freqüência do filtro ou sistema por uma resposta ideal de tal forma que ambas produzam e mesma potência média de ruído em suas saídas. Vejamos como isto é feito. Considere as respostas dos filtros real e ideal mostradas na figura a seguir. A potência média do ruído de saída do filtro real será: ∞ N 0 −∞ 2 N =∫ ∞ | H ( f ) |2df = N 0 ∫ | H ( f ) |2df 0 Para o mesmo ruído conectado à entrada de um filtro ideal de banda B Hz e |H( f )| constante, teremos: N= N0 2 H 2 (0) 2 B 30 Igualando-se os dois resultados anteriores, temos: ∞ N 0 ∫ | H ( f ) |2df = 0 N0 2 H (0) 2 B 2 de onde obtém-se a largura de faixa equivalente de ruído: ∫ B= ∞ 0 | H ( f ) |2df H 2 (0) Correlação entre o ruído branco e uma portadora co-senoidal de energia unitária Seja o ruído branco W(t) de densidade espectral de potência N0/2 W/Hz aplicado a um CORRELATOR que efetua a correlação entre W(t) e uma portadora co-senoidal de energia unitária. Este dispositivo tem utilização muito freqüente em receptores de sistemas de comunicação, dando importância ao seu estudo no contexto de processos aleatórios. A estrutura de um correlator é mostrada na figura a seguir. Inicialmente vamos comprovar o valor de energia unitária para a portadora co-senoidal: E= 2 T ∫ T 0 T T cos2 (2π f c t )dt = T2 ∫ 21 dt + 21 ∫ cos(4π f ct )dt = 1, CQD. 0 0 onde admitiu-se que a freqüência da onda co-senoidal é um múltiplo inteiro de 1/T, o que levou a integral da direita na expressão anterior a se anular. De acordo com a definição de processo estocástico Gaussiano, o processo de saída N(t) é Gaussiano, pois estamos aplicando um processo Gaussiano W(t) à entrada de um sistema que estabelece uma relação funcional de W(t) com a função cos(2πfct). Revisite a definição de um processo aleatório Gaussiano para relembrar este conceito. Amostrando o processo N(t) em t = T tem-se: N (T ) = 2 T ∫ T 0 W (t ) cos(2π f c t )dt Portanto N(T) é uma v.a. Gaussiana com média E[N(T)] = 0 e variância calculada por meio de: 31 2 σ 2 = E ( N (T ) − E[ N (T )]) Desenvolvendo a expressão da variância obtemos: σ2 = E ( = E T2 ∫ 0 T = 2 T ∫ ∫ T T 0 0 = 2 T ∫ ∫ T T 0 0 ) 2 W ( t ) cos(2 π f t ) dt c ∫0 T 2 T ∫ T 0 W (t ) cos(2π f c t ) W (u ) cos(2π f c u )dtdu , E[W (t )W (u )]cos(2π f c t ) cos(2π f c u )dtdu RW (t , u ) cos(2π f c t ) cos(2π f c u )dtdu onde foi feito o uso da função de auto-correlação do ruído branco: RW (t , u ) = Então: σ 2 = N0 T T T 0 0 ∫ ∫ N0 δ (t − u) . 2 δ (t − u ) cos(2π f ct ) cos(2π f c u )dtdu A propriedade sifiting (ou sampling) da função δ(t) diz que ∫ ∞ −∞ x (t )δ (t − t0 )dt = x(t0 ) . Aplicando esta propriedade à presente análise teremos: T T 0 0 σ2 = N0 T ∫ ∫ = N0 T ∫ = N0 T ∫[ T 0 T 0 δ (t − u ) cos(2π f ct ) cos(2π f cu )dtdu cos2 (2π f c t )dt 1 2 + 21 cos(4π f c t )] dt = σ2 = N0 T [ T2 + 0] ⇒ N0 2 Este é um importante resultado que diz que se aplicarmos ruído branco de densidade espectral de potência N0/2 W/Hz a um correlator alimentado com uma portadora co-senoidal de energia unitária, obteremos como resultado um processo de saída cujas amostras terão variância N0/2. Como os processos de entrada e de saída têm média nula, então podemos dizer que a potência média de ruído contida nas amostras do processo de saída do correlator é igual a N0/2 watts. Este resultado será extensivamente utilizado no estudo de sistemas de comunicação em períodos posteriores a este. ---------------------------------------------------------------------------------------------------------------------------FIM DA AULA 32 TP501 – Processos Aleatórios – Aula 7 Conteúdo Exercícios de fixação. 1 – Sejam os p.a. contínuos X(t) e V(t), onde X(t) = 10 + V(t). Encontre a média e a variância da variável aleatória NT definida a seguir, para T = 5 e para T = 100. Dados: E[V(t)] = 0 e RV(τ) = 2δ(τ). Solução A média é independente de T e vale E[NT] = 10. A variância para T = 5 será 1/5 e para T = 100 será 1/100. Perceba que a variância é reduzida com o aumento de T, algo esperado, pois quanto maior T, mais a média amostral definida para NT se aproximará da média real. ---------------------------------------------------------------------------------------------------------------------------2 – Seja um ruído branco W(t) com densidade espectral de potência N0/2 watts/Hz aplicado a um filtro passa-baixas ideal de banda B Hz e de magnitude da resposta em freqüência unitária. Pede-se: 33 a) Calcule e esboce SN(f), a densidade espectral de potência do ruído N(t) de saída do filtro. N0 N0 , −B≤ f ≤B S N ( f ) = SW ( f ) H ( f ) = × 1 − B≤ f ≤B = 2 2 0, | f |> B 2 ( ) b) Calcule e esboce RN(τ), a função de auto-correlação do processo N(t) de saída do filtro. ∞ N0 exp( j 2π f τ )df = N 0 B sinc(2 Bτ ) −B 2 RN (τ ) = ∫ S N ( f ) exp( j 2π f τ )df = ∫ −∞ B c) Calcule N, a potência do ruído de saída do filtro. ∞ N = ∫ S N ( f )df = RN (0) = N 0 B watts −∞ ---------------------------------------------------------------------------------------------------------------------------3 – Seja um p.a. estacionário Z(t) = Acos(2πfct + Θ), correspondente a uma portadora co-senoidal de amplitude A, freqüência fc e fase aleatória Θ uniformemente distribuída em (0, 2π]. Pede-se: a) Determine e esboce a função de auto-correlação RZ(τ ). RZ (τ ) = E[ Z (t ) Z (t + τ )] = E[ A cos(2π f c t + Θ) A cos(2π f ct + 2π f cτ + Θ)] = E[ A2 ] E [cos(2π f c t + 2π f cτ + Θ) cos(2π f c t + Θ)] Usando a identidade cos(a)cos(b) = ½cos(a – b) + ½cos(a + b), tem-se: 34 A2 E[cos(2π f cτ ) + cos(4π f c t + 2π f cτ + 2Θ)] 2 A2 cos(2π f cτ ) = 2 RZ (τ ) = RZ (τ ) b) Determine e esboce a densidade espectral de potência SZ( f ). A densidade espectral de potência é a transformada direta de Fourier da função de autocorrelação, ou seja: A2 A2 A2 S Z ( f ) = ℑ{RZ (τ )} = ℑ cos(2π f cτ ) = δ ( f − fc ) + δ ( f + fc ) 4 2 4 SZ ( f ) c) Calcule o valor quadrático médio E[Z 2(t)]. E[ Z 2 (t )] = E [ Z (t ) Z (t )] = RZ (0) = A2 . Um cálculo alternativo seria: 2 E[ Z 2 (t )] = E[ A2 cos2 (2π f c t + Θ)] = A2 E [cos2 (2π f c t + Θ)] 2 1 1 1 A = A2 E + cos(4π f c t + 2Θ) = A2 + 0 = 2 2 2 2 d) Sendo Z(t) independente de um processo aleatório X(t), determine a função de auto-correlação do processo Y(t) = X(t)Z(t). e) Determine SY( f ), a densidade espectral de potência de Y(t). Compare o resultado com aquele obtido no exemplo de modulação de uma portadora por um sinal aleatório. 35 f) Esboce SY( f ), considerando que X(t) é uma seqüência binária aleatória de pulsos equiprováveis de duração T e amplitudes {±1}. ---------------------------------------------------------------------------------------------------------------------------- 4 – A figura ao lado mostra a magnitude da resposta em freqüência de um filtro passa-baixas RC, dada por: 1 | H ( f ) |= 1 + (2π fRC )2 , onde R = 5 kΩ e C = 1 µF. À entrada deste filtro aplica-se um ruído Gaussiano branco com densidade espectral de potência de N0/2 = 1×10–3 watts/Hz. Pede-se: a) Calcule a largura de faixa equivalente de ruído para o filtro em questão, dado que: ∫a 2 1 1 x dx = tan −1 2 +x a a 2 1 ∞ df 2 ∫ 2 0 | H ( f ) | df ∞ fRC 1 (2 ) + π 1 ∫ B= 0 df = =∫ 2 2 0 1 + (2π fRC ) 2 H (0) H (0) ∞ ∞ 1 1 1 1 df = 2 2 2 ∫ df = 2 2 2∫ 2 0 0 1 R C 4π R C 2 4 π 1 2 +f +f 4π 2 R 2C 2 2π RC ∞ ∞ 1 1 2π RC × tan −1 (2π fRC ) = 2 2 2 2 2 0 4π R C 4π R C 1 1 Então: B = = = 50 Hz 4 RC 4 × 5 × 103 × 1 × 10−6 Da integral dada: 2 π 2π RC 2 − 0 b) Calcule a potência média do ruído de saída deste filtro. ∞ N0 N 1 2π RC × tan −1 (2π fRC ) | H ( f ) |2 df = 0 2 2 2 −∞ −∞ 2 −∞ 2 4π R C N 1 N 1 1 π π = 0 2π RC + ⇒ N = 0 = 1 × 10−3 = 0,1watts 2 2 2 2 4π R C 2 2 RC 2 × 5 × 103 × 1 × 10−6 2 2 ∞ N = ∫ S N ( f ) df = ∫ ∞ Vejamos outra solução, levando em conta o conceito de largura de faixa equivalente de ruído: 36 ∞ ∞ −∞ −∞ N = ∫ S N ( f ) df = ∫ =∫ B −B B N N0 0 | H '( f ) |2 df = ∫ H 2 (0) df − B 2 2 N0 df = N 0 B = 2 × 10−3 × 50 = 0,1watts 2 c) Sobre a figura dada, esboce a magnitude da resposta em freqüência de um filtro ideal que forneça em sua saída a mesma potência média de ruído calculada no item “b”. De acordo com o conceito de largura de faixa equivalente de ruído, o filtro ideal terá banda B = 50 Hz e H2(0) = 1. Veja esboço na figura. ---------------------------------------------------------------------------------------------------------------------------5 – Determine e esboce a densidade espectral de potência do código de linha Manchester mostrado na figura a seguir, gerado pela seqüência de bits aleatória também mostrada na figura. Dica: interprete o código Manchester como uma seqüência de pulsos ±g(t). Apenas a título de curiosidade, o código Manchester é utilizado em redes locais de computadores com fio, tais com as que temos no Inatel. ---------------------------------------------------------------------------------------------------------------------------6 – Suponha que um ruído Gaussiano branco, após filtrado por um filtro passa-baixas ideal de banda B Hz, seja amostrado a uma taxa de 2B amostras por segundo: a) Justifique porque as amostras resultantes serão Gaussianas. b) Justifique porque a correlação entre tais amostras será nula. c) Justifique porque a média da variável aleatória composta por essas amostras será nula. d) Justifique porque a variância da variável aleatória composta por essas amostras será N0B. e) Justifique porque a covariância para essa variável aleatória será também nula. f) Justifique porque tais amostras serão descorrelacionadas. g) Em que condições tais amostras também serão estatisticamente independentes? ---------------------------------------------------------------------------------------------------------------------------FIM DA AULA 37