OBJETIVO : Comparar as médias de mais de duas amostras independentes. Porque não posso comparar as médias duas a duas com testes t ? Exemplo com 3grupos : 1X2, 1X3 e 2X3. Em cada teste que realizo tenho uma chance de erro do tipo I () que estabeleço igual a 0.05. Se realizo 3 testes estes meu erro é multiplicativo então minha chance que de não cometer o erro que era de (1 - 0.05) será de (1 - 0.05)* (1 - 0.05)* (1 - 0.05) = 0.857 e = 0.143, bem maior do que estipulamos. Consequência : Rejeitaríamos HO mais do que deveríamos, encontraríamos mais diferenças significativas do que elas realmente existem. O teste estatístico que veremos protege contra este tipo de situação comparando simultaneamente mais de duas médias. Fixa o meu erro. Variáveis envolvidas: 1-A var. referente aos grupos que serão comparados, que pode ser cat. nominal (Pr/Br/Am), cat. Ordinal ou quantitativas contínuas ou não, desde que categorizadas em 2 categorias (0-20/21-40/41 ou +). Neste teste são bastante conhecidos por FATORES ou tratamentos. 2 - A var. que será propriamente comparada, que deve ser numérica (contínua ou discreta). Há grande controvérsia quanto às ordinais, teoricamente não, mas no mundo real utiliza-se bastante também as ordinais. Exemplos: - A média da taxa de glicemia é equivalente entre as raças (preto,branco e amarelo) - O tempo gasto para o alivio da dor é equivalente entre as drogas A, B, C e o placebo - A o valor da escala de depressão (BECK) varia conforme grupo com IMC < 20, com IMC entre 20 e 25 e com IMC > 25 SUPOSIÇÃO : 1 - A variável que será comparada (2) precisa ter distribuição normal, é necessário realizar um teste de normalidade antes, c.c, a eficácia do teste é bastante questionável. O procedimento correto é testar a normalidade para cada nível da var. categorizada, cada nível do FATOR (Usualmente testa-se somente a variável como um todo). 2 - A amostras precisam ter variâncias equivalentes, os fatores precisam ter variância iguais. HOMOCEDASTICIDADE das variâncias. Raramente vejo alguém realizar esta verificação. OBS. 3 - As observações (xi) de cada grupo são independentes uma das outras, e as amostras são independentes entre si. Graficamente Tese de hipótese associado H0: Média da amostra 1 = Média da amostra 2; ...= Média da amostra n X H1: Média da amostra i Média da amostra j; para i j Teste estatístico: Verificada e não rejeitada a hipótese de normalidade e a homocedasticidade é o teste conhecido por Análise de Variância ou ANOVA. Lógica do teste: Suponha K amostras Am.1 Am.2....Am.k Se tudo é casual ,todas as variações x11 x12 x1k Mx1. s1. são casuais, a variação DENTRO x21 x22 x2k Mx2. s2. de cada amostra deve equivalente x31 x32 x3k a variação ENTRE cada amostra. xn1 xn2 xnk Mxk. Sk. Variação ENTRE = 1 Mx.1 Mx.2 Mx.k Mx.. Variação DENTRO s.1 s.2 s.k Am.1 Am.2....Am.k x11 x12 x1k x21 x22 x2k x31 x32 x3k. xn1 xn2 xnk Mx.1 Mx.2 Mx.k s.1 s.2 s.k A variação ENTRE é a soma dos desvios das médias das amostras em relação à média total ni(Mx. - Mx..)² Mx1. s1. Mx2. s2. Mxk. Sk. Mx.. A variação TOTAL é a soma dos desvios de cada observação em relação à média Total (xij - Mx..)² Como var. TOTAL = var. ENTRE + var. DENTRO, a var. DENTRO é calculada em função das outra duas. TABELA DA ANOVA Fontes de variação Soma dos Quadrados Entre ni(Mx. - Mx..)^2 Dentro Total - Entre Total (xij - Mx..)^2 g.l. Qua. Médio k-1 F SQ/(K-1) QMEntre N-k SQ/(N-k) QMDentro N-1 A estatística (Quadr.médio ENTRE)/(Quadr. Médio Dentro) tem uma distribuição tabelada conhecida por F ( de Snedecor). Então acho o valor da est. e comparo com o valor da distribuição F com (N-1);(N-k) g.l. e nível de significância adotado. OU (mais comum) verifico qual a probabilidade do valor da est. numa distr. F com (N-1); (N-k) g.l. e comparo com = 0.05. Se for menor rejeito HO. Observe que na tabela F tenho que verificar dois graus de liberdade. Um relativo a variação Entre e outro a variação Dentro Exemplo direto no Minitab: Desejo comparar as notas (0 -100) no provão de 4 faculdades. Vou em ‘Stats’ e daí em “ANOVA” e depois “One-way” Na nova tela coloco a var. Nota (que contém os valores) em ‘Response’ e a var. Fac (que contém a que faculdade o aluno pertence) em ‘Factor’. E OK Na saída há a tabela da Anova, com os g.l, SQ, QM, a estatística F e “p”. Além disso temos o tamanho da amostra, média, dp para cada nível do fator. Portanto Rejeito H0. Concluo que há diferença significativa entre as amostras, mas quem é diferente de quem ? Quando rejeito H0 em uma ANOVA necessito realizar um teste post hoc. Este teste é que indicará quem é diferente significativamente de quem. Existem muitos testes post hoc, cada um tem sua característica e é indicado para situações específicas. O Minitab fornece dois bastante utilizados, o de TUKEY, que veremos, e o de DUNNET que é utilizado quando uma das amostras é um controle que desejamos comparar com as demais. Na tela da ANOVA clicamos em ‘COMPARISONS” e obtemos a tela ao lado. Nesta tela optamos por “Tukey’s, o valor 5 corresponde a 0.05 e é o default. E OK. No output verificamos que há 6 intervalos de confiança, cada um referese a uma comparação específica, nesta ordem: 1x2, 1x3, 1x4, 2x3, 2x4 e 3x4. Regra: Se o 0 não estiver dentro do intervalo há diferença significativa entre os dois fatores, c.c., se o 0 estiver dentro do intervalo não há diferença significativa entre os fatores. Quais as diferenças significativas ? Resultado final é: Há diferença quanto às faculdades: F1 > F2 > (F3=F4) Lembre que devemos testar a normalidade (vocês já estão cansados de saber como) e devemos testar também a homocedasticidade das variâncias Em ‘Anova’ vamos em ‘Test for Equal Va Riances”. Lembre que nossa H0 neste tipo de teste é que as variâncias são equivalentes e H1 de não equivalência. O preenchimento é o mesmo, a var. com os valores em ‘Response’ e a var. do grupo em ‘Factors’ Test for Equal Variances Response Prova Factors Fac ConfLvl 95,0000 Bonferroni confidence intervals for standard deviations Lower Sigma Upper N Factor 11,6940 14,5611 19,1065 54 1 12,7417 14,9885 18,1156 103 2 10,5853 13,8308 19,6191 35 3 9,2218 15,4712 39,7042 8 4 Bartlett's Test (normal distribution) Test Statistic: 0,360 P-Value : 0,948 Temos na saída um intervalo de confiança para o dp de cada fator, e o resultado do teste de Bartlett que compara mais de dois dp’s . Com p = 0.948, não rejeito H0 e assumo a igualdade das variâncias. Resumindo : 1 - Teste a normalidade da variável (se não for normal tente alguma transformação). 2 - Verifique a homocedasticidade das variâncias. 3 - Se rejeitar HO, aplique um teste post hoc. Vimos a situação em que comparamos uma var. “ numérica” entre os níveis de uma outra var. categórica ou “ categorizada”. Podemos efetuar este mesmo raciocínio para mais de uma var. categorizada ao mesmo tempo e verificar se existe uma interação entre as variáveis categorizadas, p.exp: -Sexo e Raça influem nos valores de uma escala de ansiedade; -Escolaridade e Presença de trauma influem no tempo de resolução de um teste; -Renda (categorizada) e Situação conjugal influem nos resultados de um teste de stress ? Em situações como esta, em que as variáveis independentes são duas ou mais, podemos dizer que estamos realizando uma análise multivariada, nas situações anteriormente vistas tínhamos sempre uma var. dependente e uma independente, análise univariada, agora com duas vars. , multi, aná lise multivariada. Tipos de variáveis: 1- A dependente, que deve ter dist. Normal e homocedasticidade das variâncias; 2 - As independentes que precisam ser categorias e um número mínimo em cada categoria (n = 10). Conselho Um pesquisador deseja saber se 4 diferentes tipos de droga, bem como a raça (3 categorias, raças) tem influência sobre os valores de uma determinada medida em ratos . Observe que colocamos cada variável em uma coluna. O método estatístico utilizado é conhecido por “ANOVA TWO WAY”, devido as duas variáveis, ou “ANOVA com 2 Fatores”, porém no Minitab a utilização deste método requer um experimento BALANCEADO, i. é, todas as combinações de Droga e raça (4 X 3 = 12 ) precisam ter o mesmo tamanho amostral. Quando isto não ocorre (experimento não balanceado) o Minitab não realiza o teste. Usaremos então o módulo “General Linear Model”. Em “ANOVA” vamos em “General Linear Model. Nesta tela alocamos a var. resposta, dependente, em ‘Response’, as vars. independentes, os fatores, alocamos em ‘ Random factors’ e na janela referente a ‘Model’ explicitamos o modelo que desejamos com os dois Fatores e a interação: Droga, Raça, Droga*Raça. E “OK”. No output temos as vars. com os números de níveis de cada uma e a tabela da Anova. O que esta abaixo não nos interessa. Na Anova vemos que há uma diferença significativa entre as Drogas ( p = 0.008), não há diferença significativa entre as Raças (0.81)e a interação não foi significativa (p = 0.60). A interação verifica, testa, se a eventual diferença encontrada em uma var. permanece a mesma nos diferentes níveis da outra var., ou seja, será que a diferença encontrada entre as drogas é a mesma para as diferentes raças ? Como a interação do nosso exemplo não foi significativa (p = 0.60), concluímos que sim. Se a interação fosse significativa (p ≤ 0.05) teríamos que a diferença entre as drogas variaria significativamente conforme a raça Para sabermos quem difere de quem nas drogas podemos utilizar o ícone de “Multiple Comparisons” da “ANOVA ONE WAY”: Perceba que quando fazemos um teste como este estamos realizando 3 testes de hipótese: 1 - que compara os níveis da var. Droga; 2 - // // // // // // Raça; 3 – o que verifica a interação; se as diferenças encontradas nos níveis de um determinado fator variam ou não significativamente conforme os níveis do outro fator (variável). Outro exemplo: Desejamos verificar se 3 diferentes tipos de terapia e o nível sócio-econômico (com 3 categorias) influem em uma escala. Observe, novamente, como fica a nossa tela no GLM do Minitab. Da tabela da Anova, inferimos que há diferença significativa entre as classes sociais, e que esta diferença varia conforme a terapia utilizada, a interação foi significativa ( p = 0.019). Temos que Nse = 1 tem média 144.8; Nse = 2 tem média 107.6; Nse = 3 tem média 64.2, portanto NSE 1 > NSE 2 > NSE 3. MAS isto é para o geral, esta relação muda conforme a terapia. Observando as médias dos NSE dentro de cada terapia será que a relação Nse 1 > Nse2 > Nse 3 mantém-se em cada uma as terapias ? Não. Dependendo do objetivo do pesquisador pode-se realizar uma Anova one-way para cada terapia. O raciocínio da Anova com 2 fatores pode ser extendido para n fatores, uma Anova n fatorial (multifatorial), tantas quantas forem as vars. independentes. Vejamos um caso com 3 vars. Desejamos testar se uma var. dependente (Esc2) sofre influência do Sexo, Trauma (Sim/Não) e da Idade categorizada em 3 níveis. Ao lado temos como nossa tela do GLM é organizada. No output temos que a Idade influi na escala e esta influência varia conforme o Sexo Como já foi dito, pode-se extender o raciocínio para mais variáveis independentes, porém não é muito comum pois: a)Devido a dificuldade de interpretação dos resultados, não é fácil“enxergar o que realmente está acontecendo; b)É necessário uma amostra grande, consistente, que tenha uma quantidade razoável de sujeitos em cada nível de cada variável; c) O experimento precisa ser minimamente balanceado, ou seja, todos os possíveis cruzamentos necessitam ter um número de amostra parecido e não muito pequeno. Quando temos muitas variáveis dependentes usualmente realizam-se as análises univariadas e para a análise multivariada selecionamos aquelas que na análise univariada apresentaram um “p” menor que um valor préestabelecido (p ≤ 0.20 ou ≤ 0.10 ou ≤ 0.05) e as vars. que o pesquisador acredita terem importância. Na situação em que temos muitas vars. dependentes, ou mesmo poucas mas o experimento não é balanceado (quando determinados níveis de uma ou mais vars. não possuem amostra suficiente), utiliza-se a Anova mas sem testar-se as interações, é a Anova somente com os efeitos principais. Todos os testes vistos até agora (teste z, teste t para uma amostra, teste t para amostras independentes, teste t para amostras pareadas e Anova) possuem um ponto em comum e necessário para que possam ser aplicados: NORMALIDADE, a variável que esta sendo comparada necessita ter distribuição Normal Mas e quando rejeitamos a normalidade ou está claro que os dados não possuem distribuição Normal, o que fazer ? Em 1o. Lugar podemos tentar aplicar uma transformação em nossos dados originais. Algumas transformações são bastante conhecidas e em boa parte das vezes levam nossos dados que não possuem normalidade a uma distribuição normal. No Minitab na barra de ferramentas na função Calc. E depois Calculator. São elas : Log, Ln, Raiz quadrada, Arcseno, 1/x ... Entretanto nem sempre as transformações funcionam e há o caso de amostras muito pequenas, onde não é possível nem testar a normalidade Nestes casos iremos utilizar testes conhecidos por NÃO-PARAMÉTRICOS Os testes não-paramétricos também são conhecidos por testes de distribuição livre (Free), pois não exigem nenhuma condição quanto à forma da distribuição dos dados. 1 - O teste análogo ao teste t para duas amostras independentes é o teste de MANN-WHITNEY, cujo objetivo é comparar se a média (mediana) de uma amostra possui valor equivalente ao da outra amostra. O tópico referente às variáveis envolvidas é equivalente ao do teste t para duas amostras independentes, com ênfase que este método é bastante utilizado com variáveis qualitativas ordinais. O teste de hipótese associado é : HO: Média (Mediana) da amostra 1 = Média (Mediana) da amostra 2 X H1 : Média (Mediana) da amostra 1 Média (Mediana) da amostra 2. Suposição: Não há suposição de normalidade, mas há a suposição de independência entre as unidades amostrais (xi). Procedimento: Exemplo: Desejamos comparar os scores de dois grupos para um determinado teste psicológico: Valores do grupo A: 5, 10, 2, 8 ,9, 1, 12 Valores do grupo B: 4, 3, 5, 0, 6, 7, 2 O 1o. passo é ordenar as duas amostras simultaneamente e atribuir RANKS ( em português POSTOS) a ordenação Valor Rank Valor Rank 0 1 6 9 Após esta operação retornamos 1 2 7 10 aos grupos os valores dos ranks 2 3.5 8 11 2 3.5 9 12 Grupo A: 7.5, 13, 3.5, 11, 12, 2, 14 3 5 10 13 Grupo B: 6, 5, 7.5, 1, 9, 10, 3.5 4 6 12 14 5 7.5 Com este valores (ranks) é que 5 7.5 serão efetuados os cálculos do teste. A estatística T = S - ni(ni+1)/2 onde S = (Ranks de uma das amostras tem uma distribuição tabelada.ni= Tamanho da amostra escolhida. Então S = 7.5 + 13 + ... + 14 = 63 e T = 63 - (7*8)/2 = 35 que equivale na tabela específica a um p value = 0.20, logo não rejeitamos H0 (0.20 > 0.05). Desejamos comparar a renda de homens e mulheres numa determina da função. ‘Stats’, daí vamos em “Nonparame trics” e depois em “Mann-Whitney. Observe que apesar das amostras serem independentes elas estão em colunas diferentes. Aloco uma amostra em “First Sample”, a outra amostra em “Second Sample”. Observe que optei por um teste bicaudal e OK No output temos os tamanhos de amostra, as medianas, um intervalo de confiança para a diferença das medianas, a estatística calculada teste de hipótese, seu tipo e o p-value. Mann-Whitney Test and CI: renmas; renfem renmas N = 13 Median = 518,1 renfem N = 19 Median = 401,1 Point estimate for ETA1-ETA2 is 101,4 95,4 Percent CI for ETA1-ETA2 is (23,2;286,0) W = 219,0 Test of ETA1 = ETA2 vs ETA1 not = ETA2 is significant at 0,0193 The test is significant at 0.0189 (adjusted for ties Portanto rejeitamos H0. Para fugir de polêmicas, conclua assim : O sexo masc. apresentou valores significativamente superiores aos do fem. 2 - O teste análogo ao teste t para duas amostras pareadas é o teste de WILCOXON, cujo objetivo é comparar as médias (medianas) de duas amostras correlacionadas, pareadas, ou seja, não independentes . Tudo o que foi visto anteriormente a respeito das duas medidas serem realizadas na mesma unidade amostral contínua válido aqui. O tópico referente às variáveis envolvidas é equivalente ao do teste t para duas amostras pareadas, com ênfase que este método é bastante utilizado com variáveis qualitativas ordinais. O teste de hipótese associado é: HO: A diferença entre as medianas (médias) = 0; X H1: A diferença entre as medianas (médias) 0 Observe que este teste é semelhante a testarmos , se a “variável” diferença difere ou não significativamente de 0. Suposição: A variável ‘DIFERENÇA’ não necessita ter distribuição normal, a suposição de independência entre as diferenças é necessária.. Infelizmente o Minitab não possui um módulo específico para a realização do teste de Wilcoxon para amostras pareadas. Adotaremos um procedimento que fornecerá o mesmo resultado. Procedimento:Exemplo: Desejamos comparar o % de resposta de um tipo de tratamento em dois lotes de células tumorais: Após calcular as diferenças entre a unidades amostrais realizarei u m teste que verifica se a mediana das diferenças é equivalente a 0 H0: Antes = Depois Antes - Depois = 0 Diferença = Antes -Depois H0:Diferença = 0 X H1 : Diferença 0 Após digitar meus grupos A e B nas colunas C1 e C2, na barra de ferramentas vou em “Calc” e daí em “Calculator” Na tela resultante no espaço “Expression” indico a operação que desejo, que é var. A - var.B, e aviso que desejo armazena-lá na coluna C6 em “Store result ... “. E OK Depois vamos em ‘Stat’, “Nonparametrics” e daí em “1-Sample Wilcoxon” Na tela do teste especificamos a variável C6 (Diferença), ativamos “Test median” e colocamos o valor 0 Wilcoxon Signed Rank Test: C6 Test of median = 0,000000 versus median not = 0,000000 N for Wilcoxon Estimated N Test Statistic P Median C6 9 8 33,0 0,042 5,000 Na saída temos o teste de hipótese, o p-value e a mediana estimada. Rejeitamos H0, portanto a diferença entre as amostras A e B e A > B, pois a mediana estimada é positiva. 3 - O teste análogo ao teste para comparar mais de duas amostras independentes (ANOVA) é o teste de KRUSKAL-WALLIS, também conhecido por Análise de Variância Não-Paramétrica O tópico referente às variáveis envolvidas é equivalente ao do teste t para duas amostras independentes, com ênfase que este método é bastante utilizado com variáveis qualitativas ordinais. O teste de hipótese associado é : HO: Média (Mediana) da amostra 1 = Média (Mediana) da amostra 2 X H1 : Média (Mediana) da amostra 1 Média (Mediana) da amostra 2. Suposição: Não há suposição de normalidade, mas há a suposição de independência entre as unidades amostrais (xi)e entre as unidades das diferentes amostras. A estatística onde Ri é o ranking médio de cada amostra K = número de amostras (fatores, grupos) , N = tamanho total da amostra e ni = tamanho de cada amostra; tem distribuição Qui-Quadrado com k-1 graus de liberdade. Exemplo da distribuição QuiQuadrado com g.l. = 4. Exemplo direto no Minitab: Quero verificar se 3 tratamentos produzem resultados equivalentes ou não. ‘Stats’, “Nonparametrics”, e daí em “Kruskal-Wallis” Na tela alocamos a var. X em”Response e a var. dos grupos em “Factor”. Kruskal-Wallis Test: X versus Trat Kruskal-Wallis Test on X Trat N Median Ave Rank 1 10 1,882 8,8 2 10 3,903 24,0 3 10 2,289 13,7 Overall 30 15,5 H = 15,53 DF = 2 P = 0,000 Z -2,95 3,74 -0,79 Na saída temos para cada fator o n, a mediana, o rank médio, a esta tística calculada, os g.l. e o p-value < 0.001, portanto Rejeito H0, há diferença entre os tratamentos. Entretanto, quase sempre desejamos saber quais as diferenças significativas entre os tratamentos. O Minitab não fornece nenhum teste post hoc quando rejeitamos H0 em sua ANOVA não-paramétrica. O teste post hoc utilizado é o de DUNN, portanto pesquise um programa que faça este teste. Outro recomendado é o de Newman-Keuls, encontra do nos módulos da ANOVA paramétrica, normal em alguns programas.. 1) Comparar uma média (mediana) amostral Normal Teste t para uma amostra Não Normal Teste de Wicoxon para uma amostra 2) Comparar duas médias medianas amostrais independentes (unidades amostrais independentes) Normal Teste t para amostras independentes Não Normal Teste de Mann-Whitney 3) Comparar duas médias amostrais pareadas ou correlacionadas (mesma unidade amostral) Normal Teste t para amostras pareadas ou correlacionadas Não Normal Teste de Wilcoxon para amostras pareadas Normalidade da variável DIFERENÇA 4) Comparar mais de duas amostras independentes Normal ANOVA (Análise de Variância) Não Normal Teste de Kruskal-Wallis.