Função Característica A função característica de uma v.a. X é definida como: X ( ) E e Assim X (0) 1, jX X ( ) 1 e jx f X ( x )dx. para todo . Para variáveis aleatórias discretas a função característica da v.a. X é dada por: X ( ) e jk P( X k ). k Função característica: Exemplos Variável aleatória discreta com distribuição de Poisson. X ( ) e jk e k 0 j k ( e ) e j ( e j 1) e e e e . k! k! k 0 k Variável aleatória discreta com distribuição binomial n n n jk k n k X ( ) e p q ( pe j )k qnk ( pe j q)n . k 0 k 0 k k n Variável aleatória uniforme X~U(a, b). b 1 1 jx Φ X (ω) e dx (e jb - e ja ) a ba j (b a ) Se X é uniformemente distribuído no intervalo (-a, a). 1 sen(a ) ja ja X ( ) (e e ) j 2a a Função característica de uma v.a. gaussiana X ~ N ( , 2 ), X ( ) e j e 2 1 2 1 jx 2 e 2 e ( x ) 2 / 2 2 jy y 2 / 2 2 e dy e dx (fazendo x y ) j 1 2 2 e y / 2 2 ( y j 2 2 ) dy (fazendo y j 2 u tal que y u j 2 ) e j 1 2 2 X ( ) e j e e ( u j 2 )( u j 2 ) / 2 2 2 2 / 2 1 2 2 e du u 2 / 2 2 du e ( j 2 2 / 2 ) . Se X é uma variável aleatória Gaussiana com média zero e 2 variância σ , a função característica é dada por: X ( ) e 2 2 / 2 . f X ( x) 1 2 2 e x 2 / 2 2 , A função característica de uma variável aleatória é também chamada de função geradora de momentos. Para ilustrar esta propriedade, considere a representação em série de Φ X (ω) . ( jX )k k E ( X k ) k X ( ) E e E j k! k 0 k! k 0 2 k E ( X ) E ( X ) k 2 2 k 1 jE ( X ) j j . 2! k! jX Tomando-se a primeira derivada com relação a , no ponto ω0 X ( ) 1 X ( ) jE ( X ) or E ( X ) . 0 j 0 Similarmente, para a segunda derivada 2 1 X ( ) 2 E( X ) 2 , 2 j 0 Repetindo este procedimento k vezes obtém-se o k-ésimo momento de X, ou seja: k 1 X ( ) k E( X ) k , k 1. k j 0 Cálculo da média e da variância de uma v.a. X com distribuição de Poisson. X P( ). X ( ) e (e X ( ) e j e e je j , E( X ) 1 X ( ) j 0 2 X ( ) e j j 2 e j 2 j e e ( je ) e j e , 2 2 1 X ( ) 1 2 2 2 2 2 E( X ) 2 ( j j ) 2 2 j j 0 Mas, σ 2 E(X 2 ) E(X)2 λ2 λ λ2 λ j 1) Variável aleatória com distribuição binomial Função característica: X ( ) ( pe j q)n X ( ) jnpe j ( pe j q) n 1 1 X ( ) E( X ) np j 0 2 X ( ) 2 j j n 1 j 2 j n 2 j np e ( pe q ) ( n 1 ) pe ( pe q ) 2 2 1 2 2 2 X ( ) E( X ) 2 np 1 ( n 1 ) p n p npq. 2 j 0 X2 E( X 2 ) E( X )2 n2 p 2 npq n2 p 2 npq. Em alguns casos, a média e a variância pode não existir. Por ( / ) f ( x ) , exemplo, considere uma v.a. de Cauchy: x X E( X ) 2 E( X ) x2 dx 2 x 2 x 2 x 2 dx. 2 2 2 1 2 x 2 dx , Avaliando o lado direito da integral: x 0 2 x 2 dx. x 0 2 x 2 dx fazendo x tan / 2 t an / 2 sin 2 0 2 sec2 sec d 0 cos d / 2 d (cos ) /2 log cos 0 log cos , 0 cos 2 Como as integrais não convergem a média e a variância são indefinidas. Será visto em seguida um limitante que estima a dispersão da v.a. centrado em torno da média. Desigualdade de Chebychev Considere um intervalo de largura 2 simetricamente centrado em torno da média com mostrado na figura. Qual é a probabilidade de X ser encontrado fora deste intervalo? Ou seja P| X | ? X 2 X Tomando-se a definição de variância E ( X ) 2 2 |x | ( x ) 2 f X ( x )dx 2 f X ( x )dx 2 |x | |x | ( x ) 2 f X ( x )dx f X ( x )dx 2 P | X | . 2 Portanto: P | X | 2 , (desigualdade de Chebychev) 2 P | X | 2 , Observe que, para calcular a probabilidade, não há necessidade de se conhecer fX(x). É necessário conhecer somente a variância 2 , da v.a. X. Em particular, se ε kσ , então: P | X | k 1 . 2 k Se k=3, a probabilidade da v.a. X ser encontrada fora do intervalo 3 em torno de sua média é de 0,111 para qualquer v.a. Obviamente que este limite não deve ser rigoroso quando se inclui todas as v.a.’s . Por exemplo para uma v.a. gaussiana com ( 0, 1) tem-se: P | X | 3 0.0027. Que é muito mais estreito do que o limitante dado pela desigualdade de Chebychev Então, com k 3, we get the probability of X being outside the 3 interval around its mean to be 0.111 for any r.v. Obviously this cannot be a tight bound as it includes all r.vs. For example, in the case of a Gaussian r.v, from Table 4.1 ( 0, 1) P | X | 3 0.0027. (6-57) which is much tighter than that given by (6-56). Chebychev inequality always underestimates the exact probability. PILLAI Moment Identities : Suppose X is a discrete random variable that takes only nonnegative integer values. i.e., P ( X k ) pk 0, k 0, 1, 2, Then P( X k ) k 0 k 0 i k 1 i 1 i 1 k 0 P( X i ) P( X i ) 1 i P( X i) E ( X ) i 0 (6-58) similarly i(i 1) E{ X ( X 1)} k P( X k ) P ( X i ) k 2 P ( X i ) 2 k 0 i 1 k 0 i 1 i 1 PILLAI which gives E ( X ) i P( X i ) (2k 1) P( X k ). 2 2 i 1 (6-59) k 0 Equations (6-58) – (6-59) are at times quite useful in simplifying calculations. For example, referring to the Birthday Pairing Problem [Example 2-20., Text], let X represent the minimum number of people in a group for a birthday pair to occur. The probability that “the first n people selected from that group have different birthdays” is given by [P(B) in page 39, Text] n 1 pn (1 Nk ) en ( n1) / 2 N . k 1 But the event the “the first n people selected have PILLAI different birthdays” is the same as the event “ X > n.” Hence P( X n ) e n ( n 1) / 2 N . (6-60) Using (6-58), this gives the mean value of X to be E ( X ) P( X n ) n 0 e (1/ 8 N ) 1/ 2 e N /2 e n ( n 1) / 2 N n 0 x2 / 2 N dx e (1/ 8 N ) 1 24.44. 2 1 2 1/ 2 e ( x 2 1/ 4) / 2 N 1/ 2 2 N 0 e dx x2 / 2 N dx (6-61) Similarly using (6-59) we get PILLAI E ( X ) (2n 1) P( X n ) 2 n 0 (2n 1)e n 0 n ( n 1) / 2 N 2 ( x 1)e ( x 2 1/ 4) / 2 N dx 1/ 2 1/ 2 2 2 (1/ 8 N ) x /2N x /2N ( x 2 1/ 4) / 2 N 2e dx xe dx 2 e dx xe 0 1/ 2 0 2 N 2 1 2 N 2E( X ) 8 2 1 5 2 N 2 N 1 2 N 2 N 4 4 779.139. Thus Var ( X ) E ( X 2 ) ( E ( X )) 2 181.82 PILLAI which gives X 13.48. Since the standard deviation is quite high compared to the mean value, the actual number of people required for a birthday coincidence could be anywhere from 25 to 40. PILLAI