O resultado da experiência, então, pode ser expresso na forma σ < x > ± x n (veja a explicação mais adiante) - desvio padrão, caracteriza a dispersão dos resultados Histograma de frequências Histograma de frequências representa a distribuição de resultados de N medidas de uma grandeza, x, entre os intervalos de valores possíveis como se mostra na Figura 1. 50 ni Figura 1 Frequência 40 30 20 10 n2 n1 0 a1 a2 ai ai+1 Valor medido, x A altura de cada coluna corresponde ao número de medidas em que o valor obtido do x está dentro do intervalo ai ≤ x < ai + 1 . Para o histograma da Figura 1 isto significa que em n1 medidas foram obtidas os valores do x tais que a1 ≤ x < a2 em n2 medidas foram obtidas os valores do x tais que a2 ≤ x < a3 ..... em ni medidas foram obtidas os valores do x tais que ai ≤ x < ai + 1 ∑ ni número de intervalos É óbvio que = N. i Distribuição de Gauss e significado do desvio padrão. Verifica-se que para o número de medidas, N, suficientamente grande a distribuição dos valores medidos aproxima-se a uma função chamada função de distribuição normal (ou distribuição de Gauss) definida como 1 g ( x) = 2π σ − ( µ − x) 2 e 2σ 2 . Nesta função, µ corresponde à posição do máximo (ou à média dos valores x porque g(x) é simétrica) e σ é o desvio padrão. Figura 2 mostra a sobreposição do histograma dos valores experimentais e da função g(x) com os parâmetros µ e σ (e tambem um factor multiplicativo – factor de escala, A) ajustados para obter o melhor acordo com o histograma. Ajusto com a função de Gauss com parâmetros: 50 µ= σ= A= Frequência 40 30 σ σ 0.543 ± 0.007 0.17 ± 0.01 18.9 ± 0.7 Histograma de frequências 20 10 0 0.0 0.2 0.4 <x> 0.6 0.8 1.0 1.2 Valor medido, x Pode-se mostrar que a área sob a função g(x) no intervalo (µ -σ, µ +σ) corresponde a 68.3% da área total sob a curva. Aproximando o histograma de distribuição dos valores experimentais com a distribuição de Gauss, pode-se concluir que 68.3% dos valores medidos estão compreendidos entre (µ -σ) e (µ +σ). Na verdade, no caso de uma medição quando a partida não se sabem os valores verdadeiros de µ e σ (que são valores teóricos no g(x)) assumam-se, como as estimativas para estes, os valores ~ x e σ x obtidos a partir dos dados experimentais. Aqui, ~ x é à média aritmética dos valores medidos (que nos admitimos como a melhor estimativa do valor verdadeiro) e σ x é uma estimativa do desvio padrão calculada como o desvio quadratico médio (ver as páginas anteriores). Uma vez que se sabem a média, µ, e a largura, σ, da distribuição do x (mais precisamente, as suas estimativas, <x> e σ x ) é possivel prever, com certa probabilidade, o resultado de uma única medida do x: a probabilidade que efectuando uma única medida do x o valor obtido será compreendido no intervalo < x > ±σ x é de 68.3%. Mostra-se tambem que se alargassemos o intervalo para < x > ±2σ x a probabilidade aumenta para cerca de 95%. Para o intervalo < x > ±3σ x esta já é 99%. Lembremos, que o objectivo da nossa experiência é obter a melhor estimativa do valor verdadeiro do x (que nos admitimos de ser ~ x =< x > ) e a incerteza associada a esta estimativa. Ou seja, o que nos interessa não é propriamente a largura da distribuição (σ em g(x) ou a estimativa experimental desta, σx) mas sim a precisão com que podemos determinar a média da distribuição, <x> (ou a posição do máximo da função g(x), µ). Intuitivamente, é claro que a posição do máximo da função de Gauss pode ser determinada com uma precisão bastante melhor que a largura da distribuição, σ (ver Figura 2), e que esta precisão deve melhorar quando o número de medidas, N, aumenta. Mostra-se na teoria que a incerteza na determinação da média (que vamos designar por σ<x>) varia realmente com N e tambem depende do σx como σ σ < x> = x . N Deste modo, o resultado de uma experiência em que se efectuam N medidas de uma σ 1 N grandeza x será (< x > ±σ < x > ) com σ < x > = x , onde < x >= ∑ xi e N i =1 N σx = 1 N ∑ (< x > − xi )2 , e o significado da expressão (< x > ±σ < x > ) é : N − 1 i =1 o valor verdadeiro do x está compreendido entre (< x > −σ < x > ) e (< x > +σ < x > ) com uma probabilidade de cerca de 68%. De maneira semelhante no caso o resultado seja apresentado em forma (< x > ±2σ < x > ) pode-se dizer que o valor verdadeiro do x está compreendido neste intervalo com uma probabilidade de cerca de 95%, e, no caso de (< x > ±3σ < x > ) - o valor verdadeiro do x está compreendido neste intervalo com uma probabilidade de cerca de 99%. N – número de medidas ~ x - melhor estimativa do valor verdadeiro do x <x> - média aritmética entre os valores experimentais σ<x> - desvio padrão da média σx – desvio médio quadrático dos valores experimentais da sua média µ – um parametro na função de Gauss que caracteriza a posição do máximo da distribuição normal σ – desvio padrão na função de Gauss (caracteriza a largura da distribuição normal)