Probabilidade e Esperança
Condicional
• Como definir apropriadamente FX(x | Y = y)
e E(X | Y = y)?
• Duas situações:
– Y discreto
– Y contínuo
Caso Discreto
P( X  x, Y  y )
FX ( x | Y  y )  P( X  x | Y  y ) 
P(Y  y )
E ( X | Y  y)
  x xP( X  x | Y  y) ( X discreta)

  xf X ( x | Y  y)dx ( X contínua)

Propriedades
• P(XB) = Sy P(XB | Y=y) P(Y=y)
• FX(x) = P(X ≤ x) =SyP(X≤ x| Y=y) P(Y=y)
• FX,Y(x,y) = P(X≤ x, Y≤ y) =
St P(X≤ x| Y=t) P(Y=t)
• E(X) = Sy E(X|Y=y) P(Y=y)
(ou seja, E(X) = E(E(X | Y))
Exemplo
• O número de pessoas que visita uma
academia diariamente tem distribuição de
Poisson com parâmetro l. Cada visitante
tem probabilidade p de ser homem,
independentemente dos demais visitantes.
Qual é a probabilidade de que k homens
visitem a academia?
Exemplo
• O número mensal de sinistros em uma dada
carteira de seguros tem distribuição de
Poisson com parâmetro l. O valor de cada
sinistro tem distribuição exponencial de
média m. Qual é o valor esperado para o
total de sinistros pagos em um dado mês?
Caso Contínuo
• FX(x | Y = y) e E(X | Y = y) são definidos de
modo que as mesmas propriedades
anteriores sejam válidas (devidamente
adaptadas para Y contínua).
Propriedades (caso contínuo)
• P(XB) =  P(XB | Y=y) fY(y)dy
• FX(x) = P(X ≤ x) = P(X≤ x| Y=y) fY(y)dy
• FX,Y(x,y) = P(X≤ x, Y≤ y) =
y P(X≤ x| Y=t) fY(t)dt
• E(X) = E(X|Y=y) fY(y)dy
(ou seja, E(X) = E(E(X | Y))
Caso contínuo
• Caso geral:
FX ( x | Y  y )  lim P( X  x | Y  [ y, y  y ])
y 0
• Quando X e Y tem distribuição conjunta contínua:
f X ( x | Y  y) 
f X ,Y ( x, y)
fY ( y )
Exemplo
• Um ponto de coordenadas (X, Y) é
escolhido ao acaso no triângulo da figura.
Qual é a distribuição condicional de Y dado
X?
1
1
Exemplo
•
Em uma cidade, o gerador de luz é ligado em um
instante escolhido ao acaso entre 18 horas e
meia-noite e desligado em um instante escolhido
ao acaso entre o instante em que foi ligado e
meia-noite.
a) Em média, quanto tempo ele fica ligado por noite?
b) Qual é a probabilidade de que seja desligado depois
das 22 horas?
c) Qual é a probabilidade de que seja ligado antes da
novela e desligado depois?
Exemplo
• Se X e Y são independentes e têm
densidades fX e fY, qual é a densidade de
X+Y?
Exemplo
• Uma moeda tem probabilidade P de dar
cara, onde P tem distribuição uniforme em
[0, 1]. Qual é a densidade condicional de P
dado que X = 1?
Somas e médias de v.a. i.i.d.
• Dada uma sequência de variáveis aleatórias
i.i.d. X1, X2, …, Xn , obter a distribuição de:
Sn  X1  X 2  ... X n
S n X 1  X 2  ...  X n
X

n
n
Somas e médias de v.a. i.i.d.
• Em geral, é complicado calcular a
distribuição exata de Sn e X
• Fácil calcular médias e variâncias
ESn  nEX1  nm , EX  EX1  m
2
Var
(
X
)

1
Var ( S n )  nVar ( X 1 )  n 2 , Var ( X ) 

n
n
Somas e médias de v.a. i.i.d.
• Quando n, Var(X)  0
• Isto sugere que X tenda a se concentrar em
torno de sua média m.
• É possível tornar esta afirmativa precisa?
Desigualdade de Markov
• Seja X uma variável aleatória tal que X  0
e EX = m. Então, para todo a>0:
P( X  a ) 
EX m

a
a
Desigualdade de Chebyshev
• Seja X uma variável aleatória tal que EX =
m e Var(X) = 2. Então, para todo d > 0:
P(| X  m | d) 
VarX
d2

2
d2
Lei Fraca dos Grandes Números
(Chebyshev, 1867)
• Sejam X1, X2, … v.a. i.i.d, com EX1 = m e
Var X1 = 2. Então, para todo d > 0,

P (| X  m | d ) 
; logo
2
nd
lim P (| X  m | d )  0
2
n 
Lei Forte dos Grandes Números
(Kolmogorov, 1925)
• Sejam X1, X2, … v.a. i.i.d, com EX1 = m.
Então:
P(lim X  m )  1
n 
• Em consequência, para todo d > 0:
lim P(| X  m | d )  0
n 
Observações
• Se E|X| = + , então X não é limitada
(logo não converge), com probabilidade 1.
• Exemplos
– Jogo de São Petersburgo
– X~Cauchy (fX(x) = 1/(1+x2))
Teorema Central do Limite
• Estimativa para P(|X–m|d) dada pela desigualdade
de Chebyshev é extremamente conservativa.
• É possível refiná-la?
• Idéia: padronizar X, subtraindo a média e a
variância, de modo a ter média 0 e variância 1.
• Resultado: a distribuição da versão padronizada
converge para uma distribuição fixa (a normal).
Teorema Central do Limite
• Sejam X1, X2, … v.a. i.i.d, com EX1 = m
e Var X1 = 2. A distribuição de
n ( X  m)

converge para a normal padrão:
 n ( X  m)
 z 1
P
 z  




   2
x2

e 2 dx
Noções de Simulação
• Teorema Fundamental
Seja F uma f.d.a. qualquer e seja U uma v.a.
com distribuição uniforme em [0, 1]. A f.d.a
da v.a. X = F-1(U) é F.
Exemplos
• Como gerar uma v.a. com distribuição
exponencial l?
• Como gerar uma v.a. com distribuição
binomial (3; 0,6)?
• Como gerar uma v.a. com distribuição
N(60, 102)?
Para gerar v.a. normais
• Algoritmo de Box-Muller
R   2 ln U 1
  2U 2
X  R cos , Y  R sin 
são normais e independentes
Método de aceitação/rejeição
• Seja f uma função de densidade de
probabilidade de suporte limitado [a, b] e
tal que f(x) ≤ M, para todo x  [a, b] .
Gerar U ~ U[a, b] e V ~ U [0, 1], independentes,
até que f(U) < M.V
Retornar U (que é uma v.a. de densidade f)
Método de aceitação/rejeição
• Método de aceitação/rejeitação
MV
U
Método de aceitação/rejeição
• Sejam f e g funções de densidade de
probabilidade de suporte limitado [a, b] e
tal que f(x) ≤ Mg(x), para todo x  [a, b] .
Gerar U ~ U[a, b] e V ~g, independentes, até que
f(U) < M.V
Retornar U (que é uma v.a. de densidade f)
Outros métodos
• Algoritmo de Metrópolis
• Importance Sampling
(MacKay, cap. 29)
Download

Y - Impa