O resultado da experiência, então,
pode ser expresso na forma
σ 

 < x > ± x 
n

(veja a explicação mais adiante)
- desvio padrão, caracteriza a dispersão dos resultados
Histograma de frequências
Histograma de frequências representa a distribuição de resultados de N medidas de
uma grandeza, x, entre os intervalos de valores possíveis como se mostra na Figura 1.
50
ni
Figura 1
Frequência
40
30
20
10
n2
n1 0
a1 a2
ai ai+1
Valor medido, x
A altura de cada coluna corresponde ao número de medidas em que o valor obtido do
x está dentro do intervalo ai ≤ x < ai + 1 . Para o histograma da Figura 1 isto significa
que
em n1 medidas foram obtidas os valores do x tais que a1 ≤ x < a2
em n2 medidas foram obtidas os valores do x tais que a2 ≤ x < a3
.....
em ni medidas foram obtidas os valores do x tais que ai ≤ x < ai + 1
∑ ni
número de intervalos
É óbvio que
= N.
i
Distribuição de Gauss e significado do desvio padrão.
Verifica-se que para o número de medidas, N, suficientamente grande a distribuição
dos valores medidos aproxima-se a uma função chamada função de distribuição
normal (ou distribuição de Gauss) definida como
1
g ( x) =
2π σ
−
( µ − x) 2
e
2σ 2
.
Nesta função, µ corresponde à posição do máximo (ou à média dos valores x porque
g(x) é simétrica) e σ é o desvio padrão. Figura 2 mostra a sobreposição do histograma
dos valores experimentais e da função g(x) com os parâmetros µ e σ (e tambem um
factor multiplicativo – factor de escala, A) ajustados para obter o melhor acordo com
o histograma.
Ajusto com a função de
Gauss com parâmetros:
50
µ=
σ=
A=
Frequência
40
30
σ
σ
0.543 ± 0.007
0.17 ± 0.01
18.9 ± 0.7
Histograma de
frequências
20
10
0
0.0
0.2
0.4
<x>
0.6
0.8
1.0
1.2
Valor medido, x
Pode-se mostrar que a área sob a função g(x) no intervalo (µ -σ, µ +σ) corresponde a
68.3% da área total sob a curva. Aproximando o histograma de distribuição dos
valores experimentais com a distribuição de Gauss, pode-se concluir que 68.3% dos
valores medidos estão compreendidos entre (µ -σ) e (µ +σ). Na verdade, no caso de
uma medição quando a partida não se sabem os valores verdadeiros de µ e σ (que
são valores teóricos no g(x)) assumam-se, como as estimativas para estes, os valores
~
x e σ x obtidos a partir dos dados experimentais. Aqui, ~
x é à média aritmética dos
valores medidos (que nos admitimos como a melhor estimativa do valor verdadeiro) e
σ x é uma estimativa do desvio padrão calculada como o desvio quadratico médio
(ver as páginas anteriores).
Uma vez que se sabem a média, µ, e a largura, σ, da distribuição do x (mais
precisamente, as suas estimativas, <x> e σ x ) é possivel prever, com certa
probabilidade, o resultado de uma única medida do x: a probabilidade que efectuando
uma única medida do x o valor obtido será compreendido no intervalo < x > ±σ x é
de 68.3%. Mostra-se tambem que se alargassemos o intervalo para < x > ±2σ x a
probabilidade aumenta para cerca de 95%. Para o intervalo < x > ±3σ x esta já é 99%.
Lembremos, que o objectivo da nossa experiência é obter a melhor estimativa do
valor verdadeiro do x (que nos admitimos de ser ~
x =< x > ) e a incerteza associada a
esta estimativa. Ou seja, o que nos interessa não é propriamente a largura da
distribuição (σ em g(x) ou a estimativa experimental desta, σx) mas sim a precisão
com que podemos determinar a média da distribuição, <x> (ou a posição do máximo
da função g(x), µ). Intuitivamente, é claro que a posição do máximo da função de
Gauss pode ser determinada com uma precisão bastante melhor que a largura da
distribuição, σ (ver Figura 2), e que esta precisão deve melhorar quando o número de
medidas, N, aumenta. Mostra-se na teoria que a incerteza na determinação da média
(que vamos designar por σ<x>) varia realmente com N e tambem depende do σx como
σ
σ < x> = x .
N
Deste modo, o resultado de uma experiência em que se efectuam N medidas de uma
σ
1 N
grandeza x será (< x > ±σ < x > ) com σ < x > = x , onde < x >=
∑ xi e
N i =1
N
σx =
1 N
∑ (< x > − xi )2 , e o significado da expressão (< x > ±σ < x > ) é :
N − 1 i =1
o valor verdadeiro do x está compreendido entre (< x > −σ < x > ) e
(< x > +σ < x > ) com uma probabilidade de cerca de 68%.
De maneira semelhante no caso o resultado seja apresentado em forma
(< x > ±2σ < x > ) pode-se dizer que o valor verdadeiro do x está compreendido
neste intervalo com uma probabilidade de cerca de 95%,
e, no caso de (< x > ±3σ < x > ) - o valor verdadeiro do x está compreendido
neste intervalo com uma probabilidade de cerca de 99%.
N – número de medidas
~
x - melhor estimativa do valor verdadeiro do x
<x> - média aritmética entre os valores experimentais
σ<x> - desvio padrão da média
σx – desvio médio quadrático dos valores experimentais da sua média
µ – um parametro na função de Gauss que caracteriza a posição do máximo da
distribuição normal
σ – desvio padrão na função de Gauss (caracteriza a largura da distribuição normal)
Download

±> desvio padrão, caracteriza a dispersão