1/37
Modelagem
Estatística
Regressão
Regressão

Estudo da forma do relacionamento entre
variáveis quantitativas.

Exemplos:
–
–
–
–
–
–
Peso e altura.
Renda familiar e número de filhos.
Renda e consumo.
Volume de produção e custos.
Risco e rentabilidade de ações.
Gastos com prevenção de defeitos e falhas nos
produtos.
2/37
3/37
Regressão - Objetivos

Predizer
(estimar)
uma
variável
dependente (Y) em função de uma
variável independente (X).

Conhecer o quanto variações de X
podem afetar Y.
4/37
Exemplos
Variável independente,
Variável dependente,
X
Y
Temperatura do forno (0C)
Resistência mecânica da cerâmica
(MPa)
Quantidade de aditivo (%)
Octanagem da gasolina
Renda (R$)
Consumo (R$)
Memória
RAM
computador (Gb)
do
Área construída do imóvel
(m2)
Tempo de resposta do sistema (s)
Preço do imóvel (R$)
5/37
Exemplo de Regressão

A Agência Meteorológica Japonesa
ganhou o prêmio IgNobel de Física (1994)
por causa de um estudo de sete anos
verificando se terremotos são causados
por peixes (catfish) balançando seus
rabos.
6/37
Exemplo 11.2:
Resultados de n = 6
ensaios experimentais:

X = % de aditivo

Y = Índice de octanagem
da gasolina
X
1
2
3
4
5
6
Y
80,5
81,6
82,1
83,7
83,9
85,0
7/37
Exemplo 11.2:
índice de octanagem
86,0
85,0
84,0
83,0
82,0
81,0
80,0
0
1
2
3
4
5
quantidade de aditivo (%)
6
7
8/37
Regressão - Modelo
Predito por X, seY = gundo uma função
yi    .x i  e i
Parâmetros
+ Efeito aleatório
Regressão
Linear
Simples
9/37
Modelo de regressão
linear simples

Em termos das variáveis: EY     X

Em termos dos dados: Yi =  + xi + i

Suposições:
– os termos de erro (1, 2, ..., n) são variáveis aleatórias
independentes;
– E{i} = 0;
– V{i} = 2; e
– i tem distribuição normal (i = 1, 2, ..., n).
Pressupostos
10/37
yi    .x i  e i

Para qualquer valor de xi, os erros (ei) são
independentes e variam aleatoriamente
segundo uma distribuição (normal) com
média zero e variância constante.
11/37
Método dos Mínimos
Quadrados
reta de regressão estimada:
Y
yi
y^i
ponto i
^
y = a +b.x
ei
xi
X
O método dos mínimos quadrados seleciona os valores de a
e b de tal forma que o
somatório
dos
quadrados dos erros
(ei2) é minimizado.
12/37
Método dos mínimos
quadrados para estimar  e 

Minimizar em relação a  e  :
S   i2  Yi    xi 
2
S
0

yi
i
S
0

xi
13/37
Método dos mínimos
quadrados para estimar  e 
Resultado das derivadas parciais:
n. xi yi    xi    yi 
Estimativa de : b =
2
n. xi2   xi 

Estimativa de  :
a=
 y i  b xi
n
Reta de regressão construída com os dados:
yˆ  a  bx
14/37
Exemplo
idade
tempo de reação
a certo estímulo
i
xi
yi
i
xi
yi
1
2
3
4
5
6
7
8
9
10
20
20
20
20
25
25
25
25
30
30
96
92
106
100
98
104
110
101
116
106
11
12
13
14
15
16
17
18
19
20
30
30
35
35
35
35
40
40
40
40
109
100
112
105
118
108
113
112
127
117
15/37
Regressão Linear Simples
diagrama de dispersão
Y
107,5
X
70
10
30
16/37
Regressão Linear Simples
Y
reta de regressão
estimada
^
y = 80,5 + 0,9x
107,5
X
70
10
30
17/37
Teste para o Parâmetro 

Ho:  = o H1:  = o

Distribuição de referência: t de Student, com
(n-2) graus de liberdade.

Estatística:
Sa =
t=
(a - o)
Valor especificado
pelo pesquisador
Sa
 (yi - a - bxi)2 ( 1
X2
)
+
n-2
n
 (xi - X )2
18/37
Teste para o Parâmetro 

Ho:  = o H1:  = o

Distribuição de referência: t de Student, com
(n-2) graus de liberdade.

Estatística:
Sb =
t=
(b - o)
Sb
 (yi - a - bxi)2
(n - 2) [ (xi - X )2 ]
Valor especificado
pelo pesquisador
19/37
Qualidade do ajuste

Ajustou-se uma equação de regressão
entre X e Y. E a qualidade do ajuste?
– análise de variância do modelo
– análise dos resíduos
20/37
Reta de regressão e
resíduos

Valores preditos:
yˆ i  a  bxi
yi

Resíduos:
yˆi
ei
ei  y i  yˆ i
xi
yˆ  a  bx
21/37
Análise de variância do
modelo
Desvio em relação à
média aritmética:
di  yi  y
Desvio em relação à
reta de regressão
(resíduo da regressão):
ei  yi  yˆi
yi
ei di
y
xi
yˆ  a  bx
22/37
Somas de quadrados
  yi  y 
2
=
  yˆ i  y 
2
+
  yi  yˆ i 
2
SQT
SQR
SQE
variação total
variação
explicada
pela equação de
regressão
variação não
explicada
23/37
Somas de quadrados
SQT    yi  y   
2

y 


2
yi2
i
n
SQE    yi  yˆ i    yi2  a yi  b xi yi
2
SQR  SQT  SQE
Coeficiente de determinação:
SQR
SQE
R 
 1
SQT
SQT
2
24/37
Medida da qualidade do
ajuste:
Coeficiente de determinação (R2)
Variação
explicada
R2 =
0
Variação
total
R2
1
=
 (y^i - y)2
 (yi - y)2
Matematicamente,
R2
é o
quadrado do Coef. de Correlação
de Pearson.
25/37
Teste de significância do
modelo
EY      . X


H0 :  = 0
e H 1:   0
Distribuição de referência para a
razão f : distribuição F com gl = 1 no
numerador e gl = n – 2 no
denominador.
26/37
Análise da Variância
fonte de
somas de
quadrados
variação quadrados GL médios
razão nível de
F
probab.
Regressão 810,000
Residuo
563,000
25,897
Total
1
18
1373,000
r2 = 0,59
810,0000
31,2778
,000077
27/37
Regressão Linear Simples
Y
reta de regressão
estimada
^
y = 80,5 + 0,9x
107,5
r2 = 0,59
X
70
10
30
28/37
Suposições do modelo

Modelo: Yi =  + xi + i
– os termos de erro (1,
2, ..., n) são
variáveis aleatórias
independentes;
– E{i} = 0;
– V{i} = 2; e
– i tem distribuição
normal (i = 1, 2, ..., n).
y
E{Y}= +x
x
29/37
Exercício

Analisar cada conjunto de dados (X,Y)
X1
10
8
13
9
11
14
6
4
12
7
5
Y1
8,04
6,95
7,58
8,81
8,33
9,96
7,24
4,26
10,84
4,82
5,68
X2
10
8
13
9
11
14
6
4
12
7
5
Y2
9,14
8,14
8,74
8,77
9,26
8,1
6,13
3,1
9,13
7,26
4,74
X3
10
8
13
9
11
14
6
4
12
7
5
Y3
7,46
6,77
12,74
7,11
7,81
8,84
6,08
5,39
8,15
6,42
5,73
X4
8
8
8
8
8
8
8
19
8
8
8
Y4
6,58
5,76
7,71
8,84
8,47
7,04
5,25
12,5
5,56
7,91
6,89
30/37
Análise dos resíduos:
um diagnóstico das suposições
do modelo

Valores preditos:
yˆ i  a  bxi

Resíduos:
ei  y i  yˆ i
yi
yˆi
ei
xi
yˆ  a  bx
31/37
Análise dos resíduos
e
y
x
x
Gráfico dos dados:
(xi, yi)
Gráfico dos resíduos:
(xi, ei)
As suposições do modelo parecem satisfeitas?
32/37
Análise dos resíduos
y
resíduo
0
x
x
Gráfico dos dados:
(xi, yi)
Gráfico dos resíduos:
(xi, ei)
As suposições do modelo parecem satisfeitas?
33/37
Análise dos resíduos
y
e
0
x
x
Gráfico dos dados:
(xi, yi)
Gráfico dos resíduos:
(xi, ei)
As suposições do modelo parecem satisfeitas?
34/37
Análise dos resíduos
resíduo
0
x
Gráfico dos resíduos: (xi, ei)
As suposições do modelo parecem satisfeitas?
35/37
Análise dos resíduos
y
e
0
x
x
Gráfico dos dados:
(xi, yi)
Gráfico dos resíduos:
(xi, ei)
As suposições do modelo parecem satisfeitas?
36/37
Regressão
Modelos Linearizáveis
y
y
x
y =  +  log(x)
log(x)
y =  + .log(x)
37/37
Regressão
Modelos Linearizáveis
y
log(y)
x
y = .x
x
log(y) = log( + log(.x
Download

Estmod05(regressao)