Probabilidades José Viegas Lisboa 2001 1 Teoria das probabilidades Conceito geral de probabilidade Suponha-se que o evento A pode ocorrer x vezes em n, igualmente possíveis. Então a probabilidade de ocorrência do evento A é P ( A) = x n Exemplo 1-1: Uma caixa contem 20 bolas vermelhas e 5 bolas brancas. A probabilidade de tirar uma bola branca é P= 5/25 Permutações e combinações 1.1 Permutações A permutação de itens é simplesmente o arranjo desses itens todos tomados em conjunto. Exemplo 1-2: 3 itens ( A, B, C ) dão origem a seis diferentes permutações: ABC BCA CAB ACB BCA CBA Para n itens o número de permutações é : n! = n . (n-1) . (n-2) . ... . 1 = Pnn Se dos n itens só forem tomados r de cada vez para serem arranjados teremos permutações de n , r a r : Prn = n! (n − r )! Por definição 0! = 1 2 Exemplo1-3: Permutações de A, B, C, D dois a dois. AB AC AD BA BC BD CA CB CD DA DB DC Exemplo1-4: Uma sala de aula é ocupada por uma turma de 15 alunos. Na primeira fila existem 6 carteiras. Quantas arranjos diferentes de alunos são possíveis na primeira fila? ( assumese que nenhuma carteira fica vazia). n = 15 r= 6 P615 = 15! = 3603600 9! 1.2 Combinações Se a ordem não tem importância tem-se combinações em vez de permutações. A combinação de n itens, tomando r de cada vez, é uma selecção de r itens tirados de n, sem ter em conta a ordem porque foram seleccionados. Exemplo1-5: Combinações de 4 objectos ( A, B, C, D ) tomados 2 a 2. AB AC AD BC BD CD As combinações de n itens , r a r , são: Prn n! C = = r! r! (n − r )! n r 3 Exemplo1-6: Um lote é constituído por 100 lâmpadas quantas amostras diferentes de 5 lâmpadas são possíveis.? C 5100 = 100! = 75287520 5!95! 1.3 Regras de probabilidade • A probabilidade conjunta de ocorrência de A e B escreve-se P ( A B ) • A probabilidade de ocorrência de A ou B escreve-se P ( A + B ) P ( A + B ) = P (A) + P (B) - P (A B) • A probabilidade de ocorrência de o acontecimento complementar de A , ( não A ) escreve-se P (A ) P ( A ) + P ( A ) = 1 • Se, e só se, os eventos A e B forem independentes, tem-se: P (AB) = P (AB) = P (A) P (BA) = P (BA) = P (B) • A probabilidade conjunta de ocorrência de dois acontecimentos A e B independentes é o produto das probabilidades individuais P (A B) = P(A) . P(B) • A probabilidade conjunta de ocorrência de dois acontecimentos A e B não independentes é: P (AB) = P (A) P (BA) = P (B) P (AB) ou ainda P (BA) = P (AB) / P(A) 4 • Se os acontecimentos A e B forem mutuamente exclusivos, isto é se não puderem ocorrer em simultâneo, então: P (AB) = 0 E • P (A+B) = P (A) + P(B) A partir de P (AB) = P (B) P (AB) pode deduzir-se o teorema de Bayes P( A B) = P( A) P( B A) P( B) 2 Distribuições Estatísticas Se colocarmos num gráfico valores que variam como será o valor do diâmetro de uma peça maquinada, ou a altura de um grupo de alunos da 6ª classe sob a forma de histograma teremos Exemplo a partir duma amostra de valores em tabela. Distribuição por famílias. Passagem para o gráfico 5 Vamos seguidamente analisar o valor em contos gastos mensalmente em transportes pela população de um bairro de Lisboa. No caso que seguidamente apresentamos, 30 valores foram registados e as suas frequências de ocorrência estão representadas. Os valores registados foram de 2 a 9 havendo uma grande incidência nos valores de 5 a 7. Outra amostra aleatória de outros novos 30 valores, da mesma população dará origem a novo histograma que terá no entanto uma forma semelhante. Se representarmos em novo histograma os valores verificados nas duas amostras mas utilizando intervalos de 0,5 teríamos: 6 Agora utilizámos a frequência em %. Se aumentássemos o número de observações e reduzíssemos os intervalos de medida, tenderíamos para uma curva que descreve a função densidade de probabilidade f(x) para uma dada variável x. Em que ∫ +∞ −∞ f ( x)dx = 1 E a probabilidade de um valor estar entre x1 e x2 será: P ( x1 < x < x 2 ) = ∫ x2 x1 f ( x)dx Temos ainda como muito importantes dois aspectos da função densidade de probabilidade que são: Valor médio – valor em torno do qual a distribuição se agrupa Dispersão – variabilidade em torno do valor médio E ainda: Moda – valor da maior frequência mediana – ponto central da distribuição 7 Valor médio n x =∑ i =1 xi n +∞ µ = ∫ xf ( x)dx −∞ Dispersão É a extensão em que os valores da distribuição variam. É medida pela variância n Var ( x) = E ( x − x ) 2 = ∑ i =1 ( xi − x ) 2 n Variância para uma amostra de dimensão n. A estimativa da variância da população a partir de uma amostra de tamanho n é dada por: ( xi − x ) 2 n −1 n σ2 =∑ i =1 Sendo a variância de uma população finita de N elementos dada por: n σ2 =∑ i =1 ( xi − x ) 2 N E para uma distribuição contínua: +∞ σ 2 = ∫ ( x − µ ) 2 f ( x)dx −∞ Distribuições discretas e contínuas 2.1 Distribuições discretas Se uma variável aleatória discreta X poder tomar valores x1, x2, ..., xn, com probabilidades p1, p2, . . . , pn, em que p1 + p2 + . . . + pn =1, e pi ≥ 0 para qualquer i, 8 pode-se dizer que existe uma distribuição de probabilidade para x. As notações P(X = x) ou P(x) são utilizadas para representar a probabilidade de X ter um determinado valor x. Exemplo2.1: Lançam-se duas moedas não viciadas. Considera-se a variável aleatória X = número de caras . Então X pode Ter os valores 0, 1 ou 2. Os resultados possíveis do lançamento são: cara/cara probabilidades cara/coroa ¼ coroa/cara ¼ P(X=2)=1/4 P(X=1)=1/2 ¼ coroa/coroa ¼ P(X=0)=1/4 A soma destas probabilidades é igual a um e existe uma distribuição discreta para X. Binomial A distribuição binomial descreve uma situação que tem duas saídas, tais como passar ou não passar, mantendo-se a probabilidade constante para todas as tentativas, experiências. A função probabilidade é dada por: f ( x) = n! p x q (n− x) x! (n − x)! n! = C xn x! (n − x)! Esta função representa a probabilidade x produtos bons e n-x produtos maus numa amostra de n produtos, quando a probabilidade de seleccionar um bom produto é p e a de seleccionar um mau produto é q. A média é dada por: µ=np E o desvio padrão: σ = npq E a probabilidade de obter r ou menos produtos bons virá: 9 r F (r ) = ∑ C xn p x q ( n − x ) x =0 Aplica-se no caso de a dimensão da amostra ser finita e a dimensão da amostra ser pequena relativamente ao lote. Exemplo2.2: De uma linha de produção recolhem-se 5 peças, uma por hora. Sabendo-se que a % de peças defeituosas é de 10%, calcule a probabilidade de entre as 5 peças termos: a) Todas as peças boas b) Uma peça defeituosa c) Menos de duas peças defeituosas d) A média e o desvio padrão Distribuição de Poisson Os acontecimentos que ocorrem segundo uma distribuição de Poisson, acontecem a uma taxa de ocorrência constante. Só com uma de duas saídas determinável. Ex: - número de falhas num dado período de tempo - numero de defeitos num determinado comprimento de arame A função probabilidade é dada por: µx exp(− µ ) x! ( x = 0, 1, 2, 3, .......) µ - taxa média de ocorrência µ=λt f ( x) = σ2 = λ A distribuição de Poisson pode ser considerada como a extensão da distribuição Binomial, na qual n é infinito. Exemplo2.3: Das 12 às 14 o número de automóveis que chegam a um parque de estacionamento é de 360. Qual a probabilidade de num minuto: a) Não chegar nenhum automóvel? 10 b) Chegar um automóvel? c) Chegarem dois automóveis? d) Chegarem menos de dois automóveis? Exemplo 2.4: Um trem de aterragem tem 4 rodas. A experiência mostra que o rebentamento de rodas ocorre em média uma vez em cada 1200 aterragens. Admitindo que o rebentamento das rodas ocorre de forma estatisticamente independente, umas das outras, e que uma aterragem será segura se não rebentarem mais de 2 rodas. Qual a probabilidade de uma aterragem não segura? Exemplo 2.5: Se a probabilidade de um item falhar é de 0,001, qual a probabilidade de se encontrar 3 items com falha numa população de 2000 ? Solução através da distribuição Binomial Solução através da distribuição Poisson 2.2 Distribuições contínuas Diz-se que uma distribuição é contínua quando a variável aleatória pode tomar qualquer valor dentro de determinado intervalo. Distribuição Normal ou de Gauss A função densidade de probabilidade da Normal é dada por: f ( x) = 1 σ (2π ) 1 2 1 x − µ 2 ) exp − ( 2 σ µ - média ( parâmetro de localização ) moda , mediana – são coincidentes coma média dado que a função de distribuição de probabilidade é simétrica. 11 Uma razão para a grande aplicação da Normal é o facto de, quando um valor está sujeito a muitos factores de variação, independentemente como estes factores são distribuídos, a distribuição composta resultante, aproxima-se muito da distribuição Normal. Este facto é consequência do teorema do limite central A tabela em apêndice dá os valores para Φ (z) função acumulada da distribuição normal estandardizada , ( µ = 0 ; σ = 1 ) z – representa o número de desvios padrão de distância em relação ao valor médio. Qualquer distribuição normal pode ser calculada a partir da distribuição normal estandardizada, determinando a variável normal estandardizada z , e achando o valor de Φ (z). z= x−µ σ Exemplo 2.6: O tempo de vida de uma lâmpada incandescente tem uma distribuição normal de média 1200H e desvio padrão σ = 200H . a) Qual é a probabilidade desta lâmpada durar pelo menos 800H b) Qual é a probabilidade desta lâmpada falhar até às 900H Exemplo2.7: Um rolamento tem um tempo de vida normalmente distribuído com uma média de 6000h e um desvio padrão de 450h. Qual a probabilidade de um rolamento atingir as 7000h de funcionamento? Distribuição de Weibull 12 A distribuição de Weibull tem uma grande vantagem quando utilizada em trabalhos de fiabilidade, pois por modificação dos parâmetros da distribuição pode ajustar-se a muitas distribuições de tempos de vida típicos. A sua função densidade de probabilidade em função do tempo virá dada por: f (t ) = t β β −1 t exp − ( ) β β η η f(t) = 0 em que : ( para t ≥ 0 ) ( para t < 0 ) β - parâmetro de forma µ - parâmetro de escala ou vida característica Exemplo 2.8: O tempo de vida de um rolamento numa dada instalação é representado de forma satisfatória por uma distribuição de Weibull com β = ½ e µ = 5000. Calcule a probabilidade de o rolamento durar pelo menos 6000 horas. Calcule o tempo médio de vida. 13 3 Confiança estatística Na problemática da confiança estatística, o nível de confiança (1-α) é a percentagem em que o intervalo de confiança incluirá o verdadeiro valor observado, se se repetir a experiência várias vezes. O intervalo de confiança é o intervalo entre os limites superior e inferior do intervalo. Os intervalos de confiança são usados para se preverem os dados da população a partir dos dados de uma amostra. Quanto maior for a amostra maior será a nossa intuição de que o valor estimado para a população esteja mais próximo do verdadeiro valor. Limites de confiança em distribuição Normal Se tivermos uma amostra de média x e pretendermos estimar a média da população com um grau de confiança ou nível de confiança de 95%, então teremos : 14 P ( x − 1,96 σ P ( x − zα / 2 n σ n ≤ µ ≤ x + 1,96 ≤ µ ≤ x + zα / 2 σ n ) = 0,95 σ n ) = (1 − α ) Sabe-se que se na população x segue uma distribuição normal, os valores médios das amostras x também tem uma distribuição normal de desvio padrão σ n . σ - desvio padrão da população Exemplo 3.1: Uma amostra com 100 valores tem um valor médio de 27,56 e um desvio padrão de 1,10.Quais os limites do valor médio da população para um nível de confiança de 90% Limites de confiança em distribuição Exponêncial Em fiabilidade muitas vezes assumimos Ter uma taxa de avarias constante, neste caso os valores tem uma distribuição exponencial negativa, que é uma distribuição assimétrica. Nestas distribuições aplicamos a distribuição do χ2 para estimarmos os limites de confiança. Demonstra-se que os limites de confiança de dados gerados por um processo de Poisson, tais como os tempos de avaria, quando a taxa de avarias é constante são dados por: 15 θi = 2T χ 2 α ,ν θs = 2T χ 2 1−α ,ν θ i eθ s − limites de confiança superior e inferior para o MTBF T – tempo total do teste α - nível de significância n – número de avarias ( ν = 2n ) – quando o teste acaba com avaria ( ν = 2n+2 ) - quando o teste não acaba com avaria Exemplo 3.2: Dez unidades foram testadas 1000H, tendo ocorrido 3 avarias. Os testes foram então interrompidos. Assumindo uma taxa de avarias constante, qual é o limite inferior do MTBF para um nível de confiança de 90%. 4 Testes de hipótese Uma hipótese estatística é uma afirmação ou hipótese feita sobre parâmetros de uma população. Esta afirmação ou hipótese deverá ser testada utilizando um determinado procedimento. Método: 1. Especificar a hipótese nula ( Ho ), hipótese que se pretende testar e a hipótese alternativa ( H1) 2. Determinar a estatística do teste para testar o parâmetro θ considerado 3. Especificar o nível de significância α para o teste 4. Retirar uma amostra e determinar a estimativa do parâmetro θ (θˆ) . 5. Decisão θˆ - dentro do intervalo de aceitação – não se rejeita Ho θˆ - fora do intervalo de aceitação – rejeita-se Ho 16 Exemplo 4.1: Considere uma população Normal de variância-1. Sabendo que numa amostra de n=25, obteve-se a média amostral de 1,4 . Diga se pode considerar como média para a população o valor - 1 ,considerando um nível de significância de 5%. Exemplo 4.2: Um rolamento de esferas tem um tempo de vida normalmente distribuído, com uma média de 6000h e um desvio padrão de 450h. Utilizámos um novo lubrificante numa amostra de 9 unidades, tendo obtido um tempo de vida médio de 6400h. Teria o novo lubrificante provocado uma alteração do tempo de vida médio dos rolamentos? 5 Bibliografia Guimarães, Rui e Cabral, José (1999), Estatística, McGraw-Hill Montgomery, Douglas e Runger (1999), Aplllied Statistics and Probability for Engineers 17