Capítulo 9
Processamento dos dados
9.1
Propagação não estatística de erros
Suponhamos que é possível estabelecer uma relação de proporcionalidade directa (ver secção3.2) entre duas variáveis. Por exemplo, o preço de uma habitação (y, variável dependente) é directamente
proporcional à área de construção (x, variável independente):
y = a1 x
Podemos assumir que a ordenada na origem será nula porque quando a área tender para zero, o
preço tenderá obviamente para zero também. Se tivermos em conta as unidades de y ([y] = €) e de x
[x] = m2 podemos facilmente concluir que a1 representa o preço por unidade de área €/m2 (ver
secção 4.5).
y/k€
4
y=x
3
δy1
2
y=0.2x
1
δy2
0
1
2
3
4
x/m2
δx
Figura 9.1: Impacto de uma variação unitária da variável independente (x) sobre a variável dependente
(y) para uma relação linear
43
9.1. PROPAGAÇÃO NÃO ESTATÍSTICA DE ERROS
CAPÍTULO 9. PROCESSAMENTO DOS DADOS
Na figura 9.1 é apresentada uma representação gráfica da relação entre a área de construção e
o preço em duas zonas diferentes. A azul temos uma zona de construção mais cara 1k€/m2 e a
vermelho uma zona de construção mais barata 200 €/m2 .
Se ao fazer-se a medição da área de construção houver uma discrepância entre o valor medido e o
real, haverá uma maior repercussão no preço para quem estiver a construír na zona mais cara (desde
que o erro de área seja o mesmo). Por exemplo, se o valor de área medido for maior em x = 1 m2
do que o valor real, quem construír na zona azul terá um prejuízo de y1 = 1 k€ enquanto que quem
construír na zona vermelha terá um prejuízo de y2 = 200 €!
Diz-se que a discrepância na medição da área propagou-se até ao preço.
É claro que a discrepância propagada não depende só da zona (declive da recta). Dentro da mesma
zona terá maior prejuízo o construtor que tiver sobrevalorizado mais a área.
Do ponto de vista matemático podemos então concluir que:
. quanto maior for o declive da recta de y (variável dependente) em função de x (variável independente), maior será a discrepância da variável dependente ( y).
. quanto maior for a discrepância cometida ao avaliar a variável independente ( x), maior será a
discrepância da variável dependente ( y).
Podemos então esboçar uma primeira tentativa de estimar a discrepância da variável dependente em
função das grandezas de que depende:
(9.1)
y = a1 x
O declive de
⇣ uma
⌘ recta em geral é dado pela derivada da variável dependente em ordem à variável
dy
independente dx . Isto implica que a equação (9.1) pode ser modificada para:
y=
dy
x
dx
(9.2)
Nesta secção começou-se por descrever um situação de discrepância na medição da variável independente (e.g. sabia-se que a área medida tinha sido sobrevalorizada em 1 m2 ). Na prática, não sabemos se
um valor medido subvaloriza ou sobrevaloriza o valor real porque isso implicaria o conhecimento deste.
Mas nem tudo está perdido. Suponhamos que de alguma forma conseguimos descobrir um limite
máximo do erro da medição da variável independente 4xM ax . Em linguagem matemática, existe um
majorante do erro de x. Podemos modificar a equação (9.2) para determinar o erro máximo que a
variável dependente 4yM ax poderá tomar:
4yM ax =
dy
4xM ax
dx
(9.3)
As alterações efectuadas foram:
. substituíu-se o termo discrepância ( y) pelo termo erro (4y).
. a derivada
⇣
dy
dx
⌘
foi substituída pelo seu módulo
dy
dx
.
Como sabemos dos capítulos 5, 6 e 7 a discrepância e o erro são bem diferentes. A discrepância é bem
definida e pode tomar um valor positivo ou negativo. O erro é por definição uma medida de incerteza.
Ou seja, o erro não tem sinal. Uma vez que a derivada pode tomar valores negativos teve que se tomar
o seu módulo.
Para uma função f (x1 , . . . , xN ) de N variáveis independentes, a equação geral do majorante do
erro é dada por:
f (x1 , . . . , xN ) =
N ✓
X
@f
·
@xi
i=1
44
xiM ax
◆
(9.4)
CAPÍTULO 9. PROCESSAMENTO DOS DADOS
9.2
Casos particulares
9.2.1
Adição
9.2. CASOS PARTICULARES
A adição de duas medições experimentais tem um erro absoluto máximo dado por:
(x1 + x2 ) =
x1 +
(9.5)
x2
Por exemplo, consideremos dois objectos com comprimentos conhecidos. O objecto A tem um
comprimento de 9.500 mm e o objecto B tem um comprimento de 7.500 mm. Pretende-se avaliar qual
é o comprimento total dos dois objectos a partir da medição individual dos mesmos.
Se a medição for feita com a régua da figura o resultado das medições será: (10.0 ± 0.5) mm para
o objecto A e(8.0 ± 0.5) mm para o objecto B. Ou seja, ambos os valores foram arredondados por
excesso.
9.500 mm
9 mm
7.500 mm
10 mm
7 mm
A
8 mm
B
Figura 9.2: Soma de erros máximos do aparelho
A estimativa da soma dos comprimentos dos objectos será de 18.0 mm e o valor real é 17.000 mm.
O exemplo foi escolhido para ilustrar a pior situação possível de arredondamento e mostrar que nessa
situação o erro de arredondamento total será de 1.0 mm. Logo o majorante do erro da soma é de 1 mm
e o resultado da soma dos valores experimentais será:
(10.0 ± 0.5) mm + (8.0 ± 0.5) mm = (18 ± 1) mm
9.2.2
Subtracção
A subtracção de duas medições experimentais tem um erro absoluto máximo dado por:
(x1
x2 ) =
x1 +
x2
(9.6)
Podemos exemplificar com os objectos da figura 9.2. O objecto A tem um comprimento de 9.500 mm
e o objecto B tem um comprimento de 7.500 mm.
Suponhamos que na medição com a régua da figura o resultado das medições foi: (10.0 ± 0.5) mm
para o objecto A e(7.0 ± 0.5) mm para o objecto B porque este parecia estar mais perto da divisão dos
7 mm. Ou seja, o primeiro valor foi arredondado por excesso e o segundo por defeito.
Pretende-se avaliar qual é a diferença de comprimento entre os dois objectos a partir da medição
individual dos mesmos.
A estimativa da diferença dos comprimentos dos objectos será de 3.0 mm e o valor real é 2.000 mm.
Nesta situação limite o erro total de arredondamento foi de 1.0 mm. Podemos então concluír que o
majorante do erro da diferença é de 1 mm e o resultado da subtracção dos valores experimentais será:
(10.0 ± 0.5) mm
9.2.3
(7.0 ± 0.5) mm = (3 ± 1) mm
Produto
O produto de duas medições experimentais tem um erro relativo máximo dado por:
(x1 x2 )
x1
x2
=
+
x1 x2
x1
x2
45
(9.7)
9.3. PROPAGAÇÃO ESTATÍSTICA DE ERROS CAPÍTULO 9. PROCESSAMENTO DOS DADOS
9.2.4
Divisão
A razão entre duas medições experimentais tem um erro relativo máximo dado por:
(x1/x2 )
x1/x2
9.2.5
=
x1
x2
+
x1
x2
(9.8)
Potenciação
A potência de grau n de uma medição experimental tem um erro relativo máximo dado por:
x1
(xn1 )
= n
n
x1
x1
9.2.6
(9.9)
Produto de potências
O produto das potências de duas medições experimentais (uma de grau n e a outra de grau m) tem
um erro relativo máximo dado por:
(xn1 xm
x1
x2
2 )
= n
+ m
xn1 xm
x
x
1
2
2
9.2.7
(9.10)
Exponencial
A exponencial de uma medição experimental tem um erro relativo máximo dado por:
(e↵x1 )
= |↵ x1 |
e↵x1
9.2.8
(9.11)
Logaritmo
O logaritmo de uma medição experimental tem um erro absoluto máximo dado por:
(ln ↵x1 ) =
9.3
x1
x1
(9.12)
Propagação estatística de erros
Quando a variação de uma grandeza é resolúvel (ver a subsecção6.3.1) é possível que o erro padrão
seja superior ao erro máximo do aparelho. Neste caso o erro experimental passa a ser o erro padrão
(ou seja, um erro estatístico). A variável medida pode ser representada por uma distribuição normal.
Como consequência, qualquer operação realizada sobre uma ou mais variáveis pode ser vista como
uma operação realizada sobre uma ou mais distribuições normais.
Nas subsecções abaixo fizeram-se simulações de operações sobre variáveis que seguem uma distribuição normal. Foram gerados pseudo-aleatoriamente com uma distribuição normal [7] 15000 valores
para cada uma das variáveis iniciais x1 e x2 .
9.3.1
Adição
A adição de duas variáveis com distribuição normal resulta numa nova variável com distribuição normal:
46
CAPÍTULO 9. PROCESSAMENTO DOS DADOS 9.3. PROPAGAÇÃO ESTATÍSTICA DE ERROS
Figura 9.3: Soma de x1 ⇠ N (3.0000, 0.1000) com x2 ⇠ N (2.0000, 0.1000)
A largura (e.g. desvio padrão) da distribuição resultante é maior do que a largura de qualquer das
distribuições iniciais.
Nesta simulação a média da soma foi de 4.9996 e o desvio padrão de 0.1426.
Se aumentasse ainda mais o número de valores de x1 e x2 , o desvio padrão iria tender para 0.1414.
Porquê este valor? Observa-se que os quadrados dos desvios padrão são aditivos ou seja:
2
(x1 + x2 ) =
2
(x1 ) +
2
(x2 )
(9.13)
e por isso:
p
(x1 + x2 ) = 0.10002 + 0.10002 =
r
2
= 0.1414
100
A discrepância do desvio padrão da soma foi de +0.02%.
Tendo em conta que o erro padrão não passa de um desvio padrão (ver a secção 5.4) podemos
então naturalmente inferir que o erro da soma será dado por:
(x1 + x2 ) =
q
2
2
( x1 ) + ( x2 )
(9.14)
Tal como na equação (9.5) o erro da soma é calculado a partir dos erros absolutos das parcelas.
Nesta simulação observou-se também que a média da soma (4.9996) tende para a soma das médias
de x1 e x2 (5.0000). A discrepância foi de 0.01%.
9.3.2
Subtracção
Tal como aconteceu para a adição, a subtracção de duas variáveis com distribuição normal resulta numa
nova variável com distribuição normal:
47
9.3. PROPAGAÇÃO ESTATÍSTICA DE ERROS CAPÍTULO 9. PROCESSAMENTO DOS DADOS
Figura 9.4: Subtracção entre x1 ⇠ N (3.0000, 0.1000) e x2 ⇠ N (2.0000, 0.1000)
A largura (e.g. desvio padrão) da distribuição resultante também é maior do que a largura de
qualquer das distribuições iniciais.
Nesta simulação a média da subtracão foi de 0.9991 e o desvio padrão de 0.1412.
Se aumentasse ainda mais o número de valores de x1 e x2 , o desvio padrão iria tender para 0.1414.
Ou seja, do ponto de vista da largura da distribuição resultante, não existe diferença entre a distribuição
da soma e da subtracção:
(x1
x2 ) =
q
2
( x1 ) + ( x2 )
A discrepância do desvio padrão da subtracção foi de
2
(9.15)
0.02%.
Tal como na equação (9.6) o erro da subtracção é calculado a partir dos erros absolutos das parcelas.
Nesta simulação observou-se também que a média da diferença (0.9991) tende para a diferença das
médias de x1 e x2 (1.0000). A discrepância foi de 0.09%.
9.3.3
Produto
O produto de duas variáveis com distribuição normal resulta numa nova variável com distribuição
normal:
48
CAPÍTULO 9. PROCESSAMENTO DOS DADOS 9.3. PROPAGAÇÃO ESTATÍSTICA DE ERROS
Figura 9.5: Produto entre x1 ⇠ N (3.0000, 0.1000) e x2 ⇠ N (2.0000, 0.1000)
Ao contrário do que acontece para a adição e a subtracção, a largura (e.g. desvio padrão) da
distribuição do produto não é necessariamente maior que a largura de qualquer das distribuições iniciais.
No caso desta simulação a média do produto foi de 5.9995 e o desvio padrão de 0.3632.
Se aumentasse ainda mais o número de valores de x1 e x2 , o desvio padrão iria tender para 0.3606.
De onde vem este valor? Observa-se que para o produto, os quadrados dos desvios padrão relativos são
aditivos ou seja:
✓
(x1 · x2 )
x1 · x2
◆2
=
✓
(x1 )
x1
◆2
+
✓
(x2 )
x2
◆2
(9.16)
e por isso:
(x1 · x2 ) = 6.0000
s✓
0.1000
3.0000
◆2
+
✓
0.1000
2.0000
◆2
=
r
13
= 0.3606
100
A discrepância do desvio padrão do produto foi de +0.04%.
Tendo em conta que o erro padrão não passa de um desvio padrão (ver a secção 5.4) podemos
então naturalmente inferir que o erro da soma será dado por:
(x1 x2 )
=
x1 x2
s✓
x1
x1
◆2
+
✓
x2
x2
◆2
(9.17)
Note-se que tal como na equação (9.7) o erro do produto é calculado a partir dos erros relativos
dos factores.
Nesta simulação observou-se também que a média do produto (5.9995) tende para o produto das
médias de x1 e x2 (6.0000). A discrepância foi de 0.01%.
9.3.4
Divisão
A divisão de duas variáveis com distribuição normal resulta numa nova variável com distribuição normal:
49
9.3. PROPAGAÇÃO ESTATÍSTICA DE ERROS CAPÍTULO 9. PROCESSAMENTO DOS DADOS
Figura 9.6: Divisão entre x1 ⇠ N (3.0000, 0.1000) e x2 ⇠ N (2.0000, 0.1000)
Na divisão também é possível que a largura (e.g. desvio padrão) da distribuição final não seja maior
que a largura de qualquer das distribuições iniciais. Foi exactamente o que aconteceu nesta simulação,
a média da divisão foi de 1.5032 e o desvio padrão foi de 0.0907.
Tal como para o produto, os quadrados dos desvios padrão relativos são aditivos:
✓
(x1/x2 )
x1/x2
◆2
=
✓
(x1 )
x1
◆2
+
✓
(x2 )
x2
◆2
(9.18)
logo nesta simulação o valor assintótico do desvio padrão é:
(x1/x2 )
s✓
= 1.5000
0.1000
3.0000
◆2
+
✓
0.1000
2.0000
◆2
=
r
13
= 0.0901
1600
A discrepância do desvio padrão da divisão foi de +0.04%.
Tendo em conta que o erro padrão não passa de um desvio padrão (ver a secção 5.4) podemos
então naturalmente inferir que o erro da soma será dado por:
(x1/x2 )
=
x1/x2
s✓
x1
x1
◆2
+
✓
x2
x2
◆2
(9.19)
Podemos notar novamente que tal como na equação (9.8) o erro da divisão é calculado a partir dos
erros relativos dos factores.
Nesta simulação observou-se também que a média da razão (1.5032) tende para a razão entre as
médias de x1 e x2 (1.5000). A discrepância foi de +0.21%.
9.3.5
Potenciação
A potenciação de uma variável com distribuição normal resulta numa nova variável com distribuição
também normal:
50
CAPÍTULO 9. PROCESSAMENTO DOS DADOS 9.3. PROPAGAÇÃO ESTATÍSTICA DE ERROS
Figura 9.7: Quadrado (potência de ordem 2) de x1 ⇠ N (3.0000, 0.1000)
É possível que a largura (e.g. desvio padrão) da distribuição final seja menor que a largura da
distribuição inicial.
No caso desta simulação a média da potência foi de 9.0061 e o desvio padrão de 0.6043.
Na potenciação, o quadrado do desvio padrão relativo é igual (a menos da constante multiplicativa
n2 ) ao quadrado do desvio padrão relativo da variável inicial:
✓
(xn1 )
xn1
◆2
=
✓
n
(x1 )
x1
◆2
(9.20)
por isso, nesta simulação o desvio padrão tenderá para:
(xn1 )
= 3.0000
2
s✓
0.1000
2
3.0000
◆2
= 3.00002 ⇥ 2
0.1000
= 0.6000
3.0000
A discrepância do desvio padrão da potência foi de +0.05%.
Tendo em conta que o erro padrão não passa de um desvio padrão (ver a secção 5.4) podemos
então naturalmente inferir que o erro da soma será dado por:
(xn1 )
=
xn1
s✓
x1
n
x1
◆2
= n
x1
x1
(9.21)
Podemos notar novamente que tal como na equação 9.9 o erro da divisão é calculado a partir de
um erro relativo. Se juntarmos este facto ao de que a potenciação é apenas um ou mais produtos
sucessivos, esta semelhança poderá levar à ideia de que a equação 9.21 poderia também ser escrita
(inspirada na equação 9.17) da seguinte forma:
(xn1 )
=
xn1
(x1 x1 . . . x1 )
=
x1 x1 . . . x1
51
s ✓
◆2
x1
n
x1
9.3. PROPAGAÇÃO ESTATÍSTICA DE ERROS CAPÍTULO 9. PROCESSAMENTO DOS DADOS
Esta equação está ERRADA porque a equação 9.17 refere-se a uma multiplicação de variáveis
independentes. Ora, x1 não é com certeza independente de si própria!
Nesta simulação observou-se também que a média da distribuição da potência (9.0061) tende para
a potência da média de x1 (9.0000). A discrepância foi de +0.07%.
9.3.6
Produto de potências
O produto de potências de variáveis com distribuição normal resulta numa nova variável com distribuição
também normal:
Figura 9.8: Produto do quadrado (potência de ordem 2) de x1 ⇠ N (3.0000, 0.1000) por (potência de
ordem 1) de x2 ⇠ N (2.0000, 0.1000)
Neste caso também é possível que a largura (e.g. desvio padrão) da distribuição final seja menor
que a largura de qualquer das distribuições iniciais. Nesta simulação, a média do produto de potências
foi de 18.0151 e o desvio padrão foi de 1.5168.
Observa-se que o quadrado do desvio padrão relativo do produto de potências é uma combinação
linear dos quadrados dos desvios padrão relativos das variáveis iniciais em que os coeficientes são n2 e
m2 :
✓
(xn1 xm
2 )
xn1 xm
2
◆2
=
✓
n
(x1 )
x1
◆2
✓
◆2
(x2 )
+ m
x2
(9.22)
por isso, nesta simulação o desvio padrão tenderá para:
(xn1 xm
2 )
2
= 3.0000 · 2.0000
1
s✓
0.1000
2
3.0000
◆2
✓
0.1000
+ 1
2.0000
◆2
=
r
225
= 1.5000
100
A discrepância do desvio padrão do produto de potências foi de +0.09%.
Tendo em conta que o erro padrão não passa de um desvio padrão (ver a secção 5.4) podemos
então naturalmente inferir que o erro da soma será dado por:
(xn1 xm
2 )
=
n
m
x1 x2
s✓
x1
n
x1
52
◆2
✓
x2
+ m
x2
◆2
(9.23)
CAPÍTULO 9. PROCESSAMENTO DOS DADOS 9.3. PROPAGAÇÃO ESTATÍSTICA DE ERROS
Podemos notar novamente que tal como na equação 9.10 o erro do produto de potências é calculado
a partir dos erros relativos dos factores e respectivos expoentes.
Mais uma vez observou-se que a média da distribuição do produto de potências (18.0151) tende
para o produto das potências das médias de x1 e x2 (18.0000). A discrepância foi de +0.08%.
9.3.7
Exponencial
A exponencial de um variável com distribuição normal tem também uma distribuição normal:
Figura 9.9: Exponencial de x1 ⇠ N (3.0000, 0.1000)
Neste caso também é possível que a largura (e.g. desvio padrão) da distribuição final seja menor
que a largura da distribuição inicial. Nesta simulação, a média da exponencial foi de 20.1740 e o desvio
padrão foi de 2.0386.
Observa-se que o quadrado do desvio padrão relativo da exponencial é igual (a menos da constante
multiplicativa ↵2 ) ao desvio padrão da variável inicial:
✓
(e↵x1 )
e↵x
◆2
= (↵ (x1 ))
2
(9.24)
nesta simulação o desvio padrão tenderá então para:
(e↵x1 ) = e3.000 ⇥ 1 ⇥ 0.1000 = 2.0086
A discrepância do desvio padrão da exponencial foi de +0.15%.
Tendo em conta que o erro padrão não passa de um desvio padrão (ver a secção 5.4) podemos
então naturalmente inferir que o erro da soma será dado por:
(e↵x1 )
=
e↵x1
q
2
(↵ x1 ) = |↵ x1 |
(9.25)
Ao contrário dos casos anteriores temos uma “mistura” de tipos de erro: temos um erro relativo
calculado a partir de um erro absoluto (tal como na equação 9.11).
Observou-se também que a média da distribuição da exponencial (20.1740) tende para a exponencial
da média de x1 (20.0855). A discrepância foi de +0.44%.
53
9.3. PROPAGAÇÃO ESTATÍSTICA DE ERROS CAPÍTULO 9. PROCESSAMENTO DOS DADOS
9.3.8
Logaritmo
O logaritmo de um variável com distribuição normal tem também uma distribuição normal:
Figura 9.10: Logaritmo de x1 ⇠ N (3.0000, 0.1000)
Neste caso também é possível que a largura (e.g. desvio padrão) da distribuição final seja menor
que a largura da distribuição inicial. Foi o que aconteceu nesta simulação. A média do logaritmo foi
de 1.0978 e o desvio padrão foi de 0.0336.
Observa-se um comportamento inverso ao de uma exponencial: o quadrado do desvio padrão do
logaritmo é igual (a menos da constante multiplicativa ↵2 ) ao desvio padrão relativo da variável inicial:
2
(ln ↵x1 ) =
✓
(x1 )
x1
◆2
(9.26)
nesta simulação o desvio padrão tenderá então para:
(ln ↵x1 ) =
0.1000
= 0.0333
3.0000
A discrepância do desvio padrão do logaritmo foi de +0.02%.
(ln ↵x1 ) =
s✓
x1
x1
◆2
=
x1
x1
(9.27)
Tal como para a exponencial temos uma “mistura” de tipos de erro mas na ordem inversa: temos
um erro absoluto calculado a partir de um erro relativo (tal como na equação 9.12).
Observou-se também que a média da distribuição do logaritmo (1.0978) tende para o logaritmo da
média de x1 (1.0986). A discrepância foi de 0.07%.
9.3.9
Exemplos numéricos de propagação de erros
ver secção
54
CAPÍTULO 9. PROCESSAMENTO DOS DADOS 9.4. QUE TIPO DE PROPAGAÇÃO UTILIZAR?
9.3.10
Caso geral
A ideia subjacente à propagação estatística de erros é semelhante à ideia apresentada na secção 9.1
para a propagação não estatística de erros. Ou seja, o erro da função f depende da forma como esta
varia com as variáveis xi . No entanto há uma diferença fundamental: no final do cálculo obtemos um
erro padrão em vez de um majorante do erro. Logo, numa propagação estatística de erro TODOS os
termos xi terão que ser erros padrão.
Em vez de uma soma de erros máximos passamos a ter neste caso uma raíz quadrada da soma de
quadrados de erros padrão:
v
uN ✓
◆2
uX @f
f (x1 , . . . , xN ) = t
· xi
(9.28)
@xi
i=1
9.4
Que tipo de propagação utilizar?
O erro obtido pelo método estatístico (equação 9.28) será sempre menor que o obtido pelo método
não estatístico (equação 9.4), logo o primeiro permite estreitar o intervalo que contém o valor real
da grandeza. A única desvantagem é que no método estatístico existe uma probabilidade não nula
(ainda que pequena) do valor real da grandeza estar fora do intervalo de confiança. Mesmo assim, essa
probabilidade é quantificável.
Pesados os prós e os contras, podemos distinguir 3 situações principais:
9.4.1
Uma medição
Uma medição única de uma grandeza é sempre incompleta. Não existe informação sobre a sua precisão
(não existe uma estimativa do desvio padrão) logo o erro padrão é desconhecido.
A medição única deve ser SEMPRE EVITADA (espero que esse facto se torne ainda mais claro nas
subsecções abaixo).
Há porém situações em que uma segunda medição não é possível ou é muito difícil de conseguir.
Neste caso o único erro disponível é o majorante do erro. É necessário ter uma ideia da ordem de
grandeza da flutuação estatística típica (µ/x). O aparelho de medição deve ter uma resolução muito
baixa de forma a garantir que a variação não é resolúvel (EM A
µ).
Por exemplo, uma folha de papel A4 sofre alterações do seu comprimento com a temperatura,
humidade relativa, etc.. No entanto, para condições perto da pressão e temperatura normais (PTN) as
alterações são inferiores a 1 mm, logo não resolúveis.
Se há a hipótese da variação da medição ser resolúvel então não é possível ter um nível de confiança
e o resultado deve ser descartado.
Os casos apresentados nesta secção (9.4.1) assumem que a medição tem variação não resolúvel.
9.4.1.1
Propagação a partir de apenas uma variável
Neste caso deve-se dizer que a propagação correcta é a propagação não estatística a partir desta variável
(apesar das equações serem exactamente as mesmas para os dois tipos de propagação). O nível de
confiança do resultado final será de 100% de que o valor real da grandeza está dentro do intervalo
[x EM A, x + EM A].
9.4.1.2
Propagação conjunta com outras variáveis
Suponhamos que se pretende medir uma massa volúmica ⇢ indirectamente a partir de duas variáveis:
a massa m e o volume V :
⇢=
m
V
Fizeram-se 100 medições do volume e apenas uma da massa. Os resultados finais das medições
directas são os seguintes:
m = (6 ± 1) g
V = (3.359 ± 0.004) cm3
55
9.4. QUE TIPO DE PROPAGAÇÃO UTILIZAR? CAPÍTULO 9. PROCESSAMENTO DOS DADOS
O erro experimental da massa é o erro máximo do aparelho e o erro experimental do volume é o
erro padrão (o erro máximo do aparelho era 0.001 cm3 ).
Temos então um dilema: o majorante do erro da massa sugere que utilizemos a propagação não
estatística mas o erro padrão do volume sugere uma propagação estatística.
A propagação de erros deve fazer-se para valores experimentais com o mesmo grau de confiança.
Caso contrário, não sabemos o grau de confiança a atribuir ao resultado final.
Não podemos diminuir o grau de confiança do intervalo da massa mas podemos aumentar o grau de
confiança do intervalo do volume. Logo, por exclusão devemos optar pela propagação não estatística.
Para garantir que o grau de confiança do intervalo do volume é de 100% temos que utilizar não
±1 mas ±3 erros padrão: o intervalo de confiança do volume passa de V = (3.359 ± 0.004) cm3 para
V = (3.359 ± 0.012) cm3 (como vimos na subsecção 5.6.1, num intervalo de confiança de ±1 erro
padrão o nível de confiança é apenas de 68%. Ao aumentarmos o intervalo para ±3 erros padrão, o
nível de confiança aumenta para mais que 99%)
Aplicando a equação 9.8, o erro experimental será dado por:
✓
◆
✓
◆
V
6g
1 3 ⇥ 0.004
m
⇢=⇢
+
=
+
= 0.3 g cm 3
m
V
3.359
3.359 cm3 6
Logo o resultado experimental é:
⇢ = (1.8 ± 0.3) g cm
3
A desvantagem de termos sido forçados a optar pela propagação não estatística é que sabemos com
um grau de confiança de 100% que o valor real está entre 1.5 g cm 3 e 2.1 g cm 3 mas o intervalo é
enorme.
A maior fonte de incerteza reside na medição da massa. O erro relativo da massa (17%) é muito
maior que o erro relativo do volume (0.1%) e por isso tem maior impacto na estimativa do erro da
massa volúmica (o erro relativo do resultado é de 17%).
9.4.2
Duas ou mais medições
9.4.2.1
Propagação a partir de apenas uma variável
Tal como em 9.4.1.1, as equações são exactamente as mesmas para os dois tipos de propagação mas
a interpretação do resultado final pode ser diferente conforme o tipo adoptado:
. Se o erro experimental da variável inicial for um erro padrão (µ EM A), a propagação correcta
é a propagação estatística. É possível quantificar o nível de confiança do resultado experimental
(e.g. 68% de que o valor real estar dentro do intervalo [x µ, x + µ])
. Se o erro experimental da variável inicial for um erro máximo do aparelho (µ < EM A), a
propagação correcta é a propagação não estatística. É também possível quantificar o nível de
confiança do resultado experimental: se assumirmos que o aparelho está bem calibrado, o nível
de confiança será de 100% de que o valor real estar dentro do intervalo [x EM A, x + EM A].
9.4.2.2
Propagação conjunta com outras variáveis
Variação resolúvel Suponhamos que modificamos a experiência feita em 9.4.1.2. Melhoramos a
resolução da balança e fazemos a medição da massa 100 vezes.
Os resultados finais das medições directas passam a ser os seguintes:
m = (5.818 ± 0.002) g
V = (3.359 ± 0.004) cm3
O erro experimental da massa é o erro padrão (o erro máximo do aparelho era 0.001 g) e o erro
experimental do volume é o erro padrão (o erro máximo do aparelho era 0.001 cm3 ).
Neste caso como temos informação estatística e os erros experimentais são erros padrão, devemos
optar pela propagação estatística do erro. Aplicando a equação 9.19, o erro experimental será dado
por:
s✓
s✓
◆2 ✓
◆2
◆2 ✓
◆2
m
V
5.818 g
0.002
0.004
⇢=⇢
+
=
+
= 0.001 g cm 3
m
V
5.818
3.359
3.359 cm3
56
CAPÍTULO 9. PROCESSAMENTO DOS DADOS
9.5. ALGARISMOS SIGNIFICATIVOS
Logo o resultado experimental é:
3
⇢ = (1.732 ± 0.001) g cm
O erro relativo do volume (0.1%) é uma ordem de grandeza maior que o erro relativo da massa
(0.03%) e por isso teve maior impacto na estimativa do erro da massa volúmica (o erro relativo do
resultado foi de 0.1%).
Podemos então afirmar que existe uma probabilidade de:
. 68% do valor real da massa volúmica estar dentro do intervalo [1.731, 1.733] g cm
3
.
. 95% do valor real da massa volúmica estar dentro do intervalo [1.730, 1.734] g cm
3
.
. maior que 99% do valor real da massa volúmica estar dentro do intervalo [1.729, 1.735] g cm
3
.
Variação não resolúvel Retomemos o exemplo da experiência anterior. Suponhamos que repetimos
as medições de massa e volume várias vezes e o valor experimental é sempre o mesmo (variação não
resolúvel - ver a subsecção 6.3.2). Como é que isso pode acontecer? Neste caso basta que a resolução
dos aparelhos diminua uma ordem de grandeza.
Os resultados finais das medições directas são os seguintes:
m = (5.82 ± 0.01) g
V = (3.36 ± 0.01) cm3
Ambos os erros experimentais (da massa e do volume) são erros máximos do aparelho.
Neste caso não temos informação estatística mas a repetição sugere que os erros padrão, apesar de
desconhecidos são menores que os erros máximos do aparelho.
Devemos por isso optar pela propagação não estatística do erro. Aplicando a equação 9.8, o erro
experimental será dado por:
✓
◆
✓
◆
m
V
5.82 g
0.01 0.01
⇢=⇢
+
=
+
= 0.01 g cm 3
m
V
3.36 cm3 5.82 3.36
Logo o resultado experimental é:
⇢ = (1.73 ± 0.01) g cm
3
O erro relativo do volume (0.3%) é da mesma ordem de grandeza do erro relativo da massa (0.2%).
O erro relativo da massa volúmica é então de 0.6% (não dá 0.5% por causa dos arredondamentos dos
erros relativos do volume e da massa).
O grau de confiança de que o resultado real está entre 1.72 g cm 3 e 1.74 g cm 3 é de 100%.
Variação não resolúvel com variação resolúvel Imaginemos que no exemplo da subsecção 9.4.1.2
a medição da massa foi feita 100 vezes e o resultado foi sempre o mesmo:
m = (6 ± 1) g
A variação da massa não é resolúvel mas a variação do volume é resolúvel. Neste caso devemos
fazer exactamente o mesmo tratamento que foi feito na subsecção 9.4.1.2. O intervalo de confiança
do volume deve ser aumentado para ±3 erros padrão de forma aos graus de confiança para ambas
as variáveis ficarem equiparados. A propagação deve ser não estatística e o resultado apresenta um
majorante do erro.
9.5
Algarismos significativos
Quando realizamos uma medição obtemos um resultado numérico. Consideram-se algarismos significativos todos aqueles que são retirados directamente do aparelho de medida excepto aqueles:
. que não têm significado físico
. cuja única função é indicar qual é a ordem de grandeza do número
. que variam continuamente durante a medição
57
Bibliografia
[1] Preston, D. W. & Dietz, E. R. The art of experimental physics (John Wiley & Sons, 1991).
[2] Almeida, G. d. Sistema Internacional de Unidades (SI), grandezas e unidades físicas (Plátano
editora, S. A., 2002), 3 edn.
[3] (2010). URL http://www.bipm.org/en/si/.
[4] Box, G. E. P., Hunter, J. S. & Hunter, W. G. Statistics for Experimenters: Design, Innovation,
and Discovery (Wiley-Interscience, 2005), 2 edn.
[5] Taylor, J. R. An Introduction to Error Analysis: The Study of Uncertainties in Physical Measurements (University Science Books, 1996), 2 edn.
[6] Fraden, J. Handbook of modern sensors: physics, designs, and applications (Springer-Verlag New
York, Inc., 2004), 3 edn.
[7] Press, W. H., Teukolsky, S. A., Vetterling, W. T. & Flannery, B. P. Numerical Recipes in C++:
the art of scientific computing (Cambridge University Press, 2007), 3 edn.
[8] Preston, D. W. Experiments in Physics: A Laboratory Manual for Scientists and Engineers (John
Wiley & Sons, 1985).
[9] Bevington, P. & Robinson, D. K. Data Reduction and Error Analysis for The Physical Sciences
(McGraw-Hill Higher Education, 2002), 3 edn.
[10] Squires, G. L. Practical Physics (Cambridge University Press, 2001), 4 edn.
101
Download

Processamento dos dados