1. (IP:281473660056925 | 05:51:51 | 23:03:02 | 11:11 | 5.455) Um experimento vai avaliar a resposta de cinco cultivares de cana a quatro sistemas de recomendação de calagem em quatro solos distintos, em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas De acordo com os dados mostrados acima, o delineamento mais adequado a ser aplicado neste experimento é o delineamento em blocos casualizados, devido ao mesmo ser conduzido em casa de vegetação, visto que a mesma não apresenta ambiente homogêneo em relação a luminosidade, temperatura, umidade entre outras. O arranjo fatorial a ser utilizado será o fatorial triplo 5x4x4 (cultivar, calagem, solo), pois como já dito o experimento vai ser conduzido em casa de vegetação o que impossibilita a utilização de parcelas subdivididas sendo necessário neste caso o uso do fatorial pois o mesmo possibilita que o experimento seja conduzido no ambiente proposto. F.V G.L Tratamento 80-1 = 79 Bloco 4-1 = 3 Resíduo 319-(79+3) = 237 Total (80x4)-1 = 319 Para início de conversa, está misturando alhos e bugalhos, com o arranjo do tratamento, e o delineamento. Embora concorde com o blocos, você não tem base para esta afirmativa sobre o ambiente, tão categórica. O ponto mais importante é que, embora tenha reconhecido o fatorial no texto, não o reconheceu no esquema. 0,25 2. [] (IP:281473660056925 | 05:52:55 | 23:03:20 | 10:25 | 17.524) Considere e discuta a seguinte afirmativa: "Nem sempre o modelo com o melhor R² nãoajustado é o mais adequado". A afirmativa é verdadeira, pois o R2 não ajustado não é suficiente para indicar qual o melhor modelo a ser utilizado, pois pode-se adicionar variáveis ao modelo, os quais pouco contribuem para explicar um determinado acontecimento, podendo até dificulta a explicação dos resultados. Por outro lado se o R2 ajustado for levado em consideração todos os parâmetros adicionado ao modelo, fornecerá uma melhor explicação da variação de y que será explicada pelo modelo de regressão, uma vez que o modelo ajustado leva em consideração todas as variáveis. Ok 1 3. [] (IP:281473660056925 | 05:53:17 | 23:04:18 | 11:01 | 1.905) Um experimento vai ser conduzido avaliando o efeito de cinco inoculantes rizobianos em dez variedades de caupi e quatro solos, em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas De acordo com os dados, o delineamento mais adequado a ser aplicado neste experimento é o delineamento em blocos casualizados, devido ao mesmo ser conduzido em casa de vegetação, visto que a mesma não apresenta ambiente homogêneo em relação às condições ambientais. O arranjo fatorial a ser utilizado será o fatorial triplo 10x4x5 (cultivar, solo, inoculante), pois como já dito o experimento vai ser conduzido em casa de vegetação o que impossibilita a utilização de parcelas subdivididas sendo necessário neste caso o uso do fatorial pois o mesmo possibilita que o experimento seja conduzido no ambiente proposto. Fatorial triplo 10x5x4 F.V G.L Tratamento 200-1 = 199 Bloco 4-1 = 3 Resíduo 799-(199+3) = 597 Total (200x4)-1 = 799 0,25 idem anterior 4. [] (IP:281473660056925 | 05:53:38 | 23:05:59 | 12:21 | 100.377) Discuta a afirmativa: "A escolha correta do delineamento poderá fazer a diferença entre encontrar ou não diferenças entre os tratamentos", levando em consideração particular o tamanho do efeito de tratamentos A escolha do delineamento poderá afetar a capacidade de encontrar diferença entre os tratamentos, pois o delineamento correto reduz o efeito da variação do acaso, consequentemente a visualização das diferenças entre o tratamentos será melhor identificada, e reduz o erro experimental. Com o delineamento correto, o mesmo deve ser utilizado para reduzir o máximo da soma dos quadrados e o mínimo do grau de liberdade, aumentando a precisão do experimento e reduzindo o coeficiente de variação. Excelente 1 5. [] (IP:281473660056925 | 05:54:06 | 23:06:27 | 12:21 | 25.423) Compare os efeitos principal e secundário de uma interação, do ponto de vista das informações que podem ser obtidas a partir deles. O efeito principal refere-se ao efeito atribuído a cada fator isoladamente, neste caso cada fator será avaliado separadamente, ou seja, os demais fatores são repetições . Já os fatores secundários ou interações são os efeitos das combinações entre dois ou mais fatores, neste caso obteremos o quanto um fator irá “mexer” interferir com outro, não sendo necessário estudar cada fator separadamente. Ok 1 6. [] (IP:281473660056925 | 05:54:23 | 23:07:22 | 12:59 | 47.853) Explique o que é repetição real. Repetição real nada mais é do que quantas vezes um determinado fator que compõem o tratamento aparece, ou seja, quantas vezes o efeito principal aparece no experimento.O numero de repetições vai depender da quantidade de níveis de cada fator e do numero de repetições do tratamento, como pode-se ter diferentes números de níveis para cada fator, cada nível de um fator pode aparecer em quantidades diferentes. Ok, mas apenas para deixar mais claro, é o número de vezes que cada nível de um fator aparece, já que o fator como um todo sempre aparece. 1 7. [] (IP:281473660056925 | 05:54:45 | 23:07:29 | 12:44 | 3.306) Qual a importância da interação? A interação refere-se a ação conjunta de dois ou mais fatores, a interação é importante pois através dela pode-se avaliar a relação entre os fatores do experimento, ou seja como um fator está interferindo no outro. Uma interação não significativa indica a independência entre fatores o que leva usualmente a uma maior precisão na estimação dos efeitos individuais pelo número mais elevado de repetições a que submete cada um. No caso de uma interação apresentar significância os efeitos principais não vão interessar. Ok 1 8. [] (IP:281473660056925 | 05:55:00 | 23:08:09 | 13:09 | 1.85) Um experimento vai avaliar a tolerância de 100 estirpes de rizóbio a meio de cultura ácido com três níveis diferentes de cloreto de cálcio em sua composição. Serão usadas 10 repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas De acordo com os dados, o delineamento mais adequado a ser aplicado neste experimento já que o mesmo será conduzido em laboratório e que o mesmo não apresenta limitações, é o delineamento em blocos casualizados, devido ao numero de amostras que iremos ter, e devido à avaliação que será realizada. Neste caso o experimento será dividido em 6 blocos com 500 amostras . Devido ao numero de amostras ser grande, as avaliações dos blocos será realizado por uma equipe de 5 pessoas devidamente treinadas e com a mesma capacidade de avaliação. F.V G.L Tratamento 300-1 = 299 Bloco 6-1 = 5 Resíduo 2999-(299+5) = 2.695 Total (300x10)-1 = 2.999 Como nas outras questões, indicou o fatorial e não levou em consideração na análise de variância. O uso dos blocos está correto, mas o início da resposta parece indicar que iria utilizar o DIC 0,25 9. [] (IP:281473660056925 | 05:56:40 | 23:08:29 | 11:49 | 18.21) Discuta a diferença entre as hipóteses estatística e científica, considerando em particular as consequências desta diferença. A hipótese cientifica tem como finalidade propor explicações para certos fatos, ou seja, é uma suposição que antecede à constatação dos fatos e serve como guia para a linha de investigação da pesquisa. Ao se lançar uma hipótese pode-se obter resultados bastante diferentes das hipóteses admitidas, sendo assim, para cada hipótese cientifica testada haverá duas hipóteses estatísticas, a hipótese de nulidade (H0) determina a ausência do efeito de tratamento, ou seja, que não existe diferença significativa entre os tratamentos, ela sempre será o contrario do que se deseja testar, a hipótese de nulidade pode ser aceita ou rejeitada, quando rejeitada se aceita a outra automaticamente, demonstrando que pelo menos um tratamento diferiu dos outros. E a hipótese alternativa (H1) determina a presença do efeito de tratamento, ou seja, indica a existência de diferença significativa entre os tratamentos. Não mencionou nada a respeito da diferença entre os tipos de hipóteses e suas consequências 0,75 10. [0.000] (IP:0 | 05:57:39 | --:--:-- | --:-- | ------ ) Um projeto será conduzido para avaliar o efeito de tempo de cultivo com mandioca, cana, milho e pastagem sobre a qualidade do solo nas três macro-regiões pernambucanas, de forma independente para cada uma. Em cada macro-região serão selecionados quatro municípios distintos, que serão as repetições, e em cada município serão avaliados cinco tempos de cultivo e uma área de vegetação nativa. Serão avaliadas características físicas, químicas e microbiológicas do solo, bem como sua profundidade por tradagem. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. Em branco 0 11. [] (IP:281473660056925 | 05:58:02 | 23:09:04 | 11:02 | 21.61) Defina e exemplifique interação. Interação refere-se à ação conjunta de dois ou mais fatores, ou seja, é o efeito das combinações entre dois ou mais fatores. Exemplo: Um experimento que está sendo conduzido para avaliar o efeito do Potássio no solo com e sem calagem, onde obtivemos os seguintes resultados. O solo em que não foi feito a calagem o valor do efeito do potássio foi de 40, enquanto no solo em que foi feito calagem o valor do efeito de potássio foi de -10. Com base nos resultados do efeito do potássio podemos afirmar que na ausência da calagem, a adição de potássio provoca um aumento médio de 40 unidades enquanto que, o solo com calagem, a adição do potássio provocou uma redução média de 10 unidades na produção. Ok 1 12. [] (IP:281473660056925 | 05:58:18 | 23:09:47 | 11:29 | 11.035) Crie uma situação experimental para o uso do delineamento em quadrado latino no campo da agronomia. Justifique. Estamos interessados em avaliar a diferença de fertilidade do solo em um terreno heterogêneo, quanto à produção de quatro variedades de feijão, após sorteio aleatório da disposição das plantas no terreno temos: A1 B4 C3 D2 A4 B1 C2 D3 A3 B2 C1 D4 A2 B3 C4 D1 Letras- fertilidade do solo; Numeros – variedades Este experimento está sendo realizado para avaliar o efeito da fertilidade do terreno nas variedades de feijão, sendo que a o terreno apresenta manchas de solo com fertilidades distintas, sendo as variedades de fertilidade controlada em colunas e as variedades de feijão em linhas. Misturou Jesus com cuscuz. As variedades seriam os tratamentos, não o delineamento, enquanto a diferença entre DBC e DQL é quanto ao emprego do controle local. 0 13. [] (IP:281473660056925 | 05:58:39 | 23:10:03 | 11:24 | 15.172) Justifique a importância dada ao Modelo Linear Generalizado, em suas palavras. O modelo linear generalizado (MLG) é de suma importância, pois o mesmo apresenta flexibilidade, ou seja, uma quantidade enorme de delineamentos se baseia nele, e ele promove uma boa analise de dados. O MLG é representado por uma equação matemática, que nos permite observar como cada resultado poderá influenciar no resultado obtido. De modo geral o MLG pode apresentar efeito positivo ou negativo referente ao tratamento, caso seja positivo, deve-se somar caso contrario deve-se subtrair o valor do tratamento, e somar com a variação do acaso. Para a eficiência do modelo deve-se fazer ajustes, pois sem ele fica impossibilitado o seu uso. O modelo apresenta implicações como: o comportamento aditivo, no caso se houver duas variáveis em uma mesma equação deve-se separar a variação do acaso do tratamento. Os requisitos do modelo são: apresenta efeito aditivo permitindo a separação dos efeitos de tratamento do acaso, esta independência pode ocorrer devido ao uso da casualização, a distribuição normal do acaso deve ser zero. A primeira frase está ok, mas o resto está bastante difícil de entender. Por exemplo, como a distribuição do acaso pode ser zero? Na realidade é a média do acaso que é zero, e que tem distribuição normal 0,5 14. [] (IP:281473660056925 | 05:59:05 | 23:10:24 | 11:19 | 16.782) Discuta possíveis vantagens e desvantagens do uso de regressão na ciência do solo. Detalhe em particular cuidados que devemos tomar em sua interpretação. As vantagens do uso de regressão na ciência do solo é que podemos usa-la para obter a dosagem ideal, em um experimento, e fornecer também os pontos máximos e/ ou mínimos da dosagem referente a uma variável estudada, a função obtida da regressão nos permite estimar valores medianos entre os valores reais obtidos durante o experimento. Como desvantagens temos a extrapolação dos dados, uso inadequado de modelos para explicar o comportamento dos dados analisados, uma serie de dados não é bem representada quando se utiliza regressão linear, a regressão polinomial não apresenta interpretação biológica valida. A regressão é muito utilizada em ciências do solo, pois ela é uma importante ferramenta em áreas como nutrição mineral de plantas, fertilidade entre outras, Em relação a interpretação dos dados deve-se tomar cuidados, com o modelo a ser utilizado no estudo. Medianos não é intermediário… cuidado com a linguagem, que sempre deve ser precisa. Meio confuso 0,75 15. [] (IP:281473660056925 | 05:59:33 | 23:10:48 | 11:15 | 19.863) Qual a principal vantagem do uso de regressões não lineares? A regressão não-linear é uma forma de análise observacional em que os dados são modelados por uma função que é uma combinação não-linear de parâmetros do modelo, e depende de uma ou mais variáveis independentes. Nos modelos não-lineares, ao invés de se fazer uma descrição puramente empírica do fenômeno em estudo, pode-se, a partir de suposições importantes sobre o problema (freqüentemente dadas através de uma ou mais equações diferenciais), trabalhar no sentido de se obter uma relação teórica entre as variáveis observáveis de interesse. O problema, diferentemente do caso linear, é que os parâmetros entram na equação de forma não linear, assim, nós não podemos simplesmente aplicar fórmulas para estimar os parâmetros do modelo. Outra vantagem dos modelos não lineares é obter parâmetros que são facilmente interpretáveis. Em muitas situações, necessitam-se de menos parâmetros ,nos modelos não lineares do que nos lineares, isto simplifica e facilita a interpretação. Então se percebe que os modelos não-lineares são usualmente resultantes de processos interativos, porque são frequentemente derivados de modelagem mecanicista, onde todas as causas possíveis sejam conhecidas. São bons modelos descritores de fenômenos biológicos, pois grande parte dos parâmetros tem significado biológico. Por exemplo, o desenvolvimento de modelos matemáticos não-lineares (Gompertz), para relacionar peso e idade de um dado organismo animal tem-se mostrado adequados para descrever a curva de crescimento. Esses modelos permitem que conjuntos de informações em séries de peso por idade, sejam condensados num pequeno número de parâmetros, para facilitar a interpretação e o entendimento do fenômeno. Quando permitimos o uso da literatura na resposta não é para copiar diretamente dela, como a parte final de sua resposta deixa bastante aparente. No entanto, de modo geral a resposta está ok 1 16. [] (IP:281473660056925 | 05:59:49 | 23:11:09 | 11:20 | 17.739) Quais são os principais critérios para avaliar a qualidade de uma amostragem? Os principais critérios a ser seguido em uma avaliação da qualidade de uma amostragem serão: Primeiro definir o objeto de estudo ( Solo, planta etc..), ir ao local do estudo para avaliar a área, e especificar ou identificar os itens ou eventos que serão avaliados, em seguida implantar um plano de amostragem (definindo os locais aleatoriamente das coleta, o tamanho da amostra, quantidades de repetições). Você leu a pergunta? Não estou perguntando sobre o planejamento da amostragem como sua resposta indica, mas avaliar a qualidade dela, o que necessariamente depende dela ter sido feita…0 17. [] (IP:281473660056925 | 06:00:07 | 23:11:29 | 11:22 | 17.055) Qual a principal consequência do uso de parcela subdividida? A principal consequência do uso da parcela subdividida é a prca da precisão estatística do experimento, devido a redução das parcelas principais, e consequentemente redução do grau de liberdade, podendo as mesmas apresentarem mais variações do acaso.Só em alguns casos é que a perca é compensada operacionalmente, de vido a redução da área do experimento, redução dos custos entre outros. Não. A principal consequência é a divisão da variação total do acaso em duas ou mais partes, cada uma necessariamente inferior ao todo. 0,25. 18. [] (IP:281473660056925 | 06:00:24 | 23:11:54 | 11:30 | 18.725) Avalie o efeito de diferentes estratégias de seleção do melhor modelo sobre a probabilidade de ocorrência de erro do tipo I. As estratégia utilizadas para selecionar o melhor modelo sobre a probabilidade de ocorrência do erro tipo I são: “seleção para trás”- que parte da regressão completa, e a cada rodada elimina a variável cuja saída produz menor efeito no modelo geral. “seleção para frente”- nesse modelo as variáveis vão sendo adicionadas progressivamente, e são feitos testes para medir seu efeito no conjunto. Esses dois processos promovem bons resultados, principalmente se o numero de variáveis não forem grandes. Outra opção é o “stepwise”, onde se tem uma combinação dos outros dois métodos, onde cada variável adicionada ao modelo e as variáveis já adicionadas são testadas novamente. Devido ao grande numero de testes feitos para verificação de cada modelo acaba aumentando a chance de ocorrência do erro tipo I. Vale salientar que o erro do tipo I , não aumenta em cada um dos testes, e sim de forma cumulativa. Não identifiquei resposta à pergunta, que foi sobre o efeito das estratégias sobre a chance de erro. Você falou sobre as estratégias, e depois veio falar do efeito separadamente, sem ligar as duas coisas 0,5 19. [] (IP:281473660056925 | 06:00:48 | 23:12:21 | 11:33 | 22.712) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. A heterocedase é o fenômeno estatístico que representa a variância inconstante dos resíduos, ou seja, ela se dá quando todos os tratamentos apresentam variâncias diferentes, e por isso não se consegue que sejam representados por um único valor. As principais consequências da heterocedasticidade são as curtoses positivas e a assimetria, a curtose positiva se dá quando a distribuição dos dados não se assemelha a média, ocasionando um problema na distribuição da curva, já na assimétrica ocorre quando o desvio-padrão do conjunto de dados não aumenta quando a média aumenta. A ocorrência da heterocedase faz com que o teste F não seja realizado, pois a curtose positiva e a assimetria afeta a confiabilidade do teste, pois o mesmo tenderia a não rejeitar a hipótese nula, mesmo ela sendo incorreta, levando a dizer que os dados sejam homocedaticos sem ser. Para prevenir a heterocedase deve-se fazer o uso dos testes de Cochran, Hartley, Bartlett e Levene. Dentre esses quatro testes, podemos selecionar dois, o teste Bartlett é o mais usado, contudo ele tende a mascarar diferenças para curtose negativa e encontrar para curtose positiva, tendendo a não encontrar heterocedace mesmo havendo. O teste Levene faz a análise de variância dos resíduos em valores absolutos, com os tratamentos, se as variâncias não forem homogêneas o teste F será significativo indicando a heterocedase. Início correto, fim correto, meio sem pé nem cabeça. Primeiro curtose positiva e assimetria são ligadas à falta de normalidade, não à heterocedase, até onde me consta. 0,75 20. [] (IP:281473660056925 | 06:02:24 | 23:12:41 | 10:17 | 16.783) Discuta a importância da repetição real, e suas consequências na avaliação dos fatores. Repetição real nada mais é do que quantas vezes um determinado fator que compõem o tratamento aparece, ou seja, quantas vezes o efeito principal aparece no experimento. Então quanto maior o numero de repetições reais maior segurança teremos nos valores dos dados, será mais fácil também de verificar a diferença entre cada fator e a diferença entre eles, além de ser mais fácil de separar o que é variação do tratamento e variação do acaso. Ok 1 21. [] (IP:281473660056925 | 06:02:42 | 23:13:12 | 10:30 | 1.775) Descreva situações em que o uso da multivariada seria interessante em trabalhos de experimentação. Situação Avaliar as características morfológicas e os atributos físicos de solos cultivados com soja em função de diferentes tempo de implantação do sistemas de plantio direto, após cultivo anterior em sistemas de plantio convencional, além de identificar estatisticamente as variáveis que mais contribuem para a alteração do solo. 2-Situação Avaliar a interação entre genótipos e ambiente e a estabilidade fenotípica, para linhagens experimentais de soja, com finalidade de identificar genótipos inferiores. Não tenho ideia de porque nestas duas situações seria adequado usar a multivariada, já que para começo de conversa nem indica quantas variáveis estão sendo avaliadas em cada situação, que seria o mínimo para indicar o uso da multi. De modo geral, a análise de estabilidade é baseada em estatística univariada mesmo. No primeiro caso, o uso da multivariada está mais claro, mas parece mais com uma situação de amostragem do que de experimentação 0,5 22. [] (IP:281473660056925 | 06:03:01 | 23:40:21 | 37:20 | 1606.258) Debata os principais prós e contras das diferentes alternativas para análise de medições repetidas. As principais vantagens da analise de medidas repetidas é que cada informação é uma variável, eliminando assim a distorção entre a variável estatística e o valor real, há uma redução da variância, e é possível reduzir o erro através da utilização de blocos numa variável (ex: Bloquear classe social QI), com as medidas repetidas o bloqueamento é levado ao extremo, onde cada sujeito é um bloco. Portanto, a variabilidade entre o sujeito devido à diferença individual é completamente removida do termo de erro. Outra vantagem é a redução do numero amostras, reduzindo assim o erro tipo I. Se o aumento da precisão e a economia de amostras são as vantagens principais do modelo de medidas repetidas, as desvantagens seria em relação a ordem em que os tratamentos são administrados, pois pode afetar a analise, pode haver perca de informações sobre a interação tempo X tratamento. Novamente, o uso da literatura parece ter substituído o raciocino sobre o assunto. Primeiro, gostaria de saber de onde apareceu classe social em nossa disciplina. Simplesmente não consigo avaliar o raciocínio por trás da resposta, em particular considerando que a pergunta foi bem específica para comparar diferentes métodos de análise, o que não é sequer mencionado na resposta 0 1. Qual a importância da interação? Na interação, um efeito principal influencia outro, ou seja, a melhor expressão de um certo fator só ocorrerá na presença do outro. Do ponto de vista de uma análise fatorial, quando a interação é significativa, não é correto a interpretação dos efeitos principais, uma vez que a interação tem um poder muito maior de explicar o fenômeno biológico estudado. É justamente por isso que ela é tão importante, afinal é a procura da explicação biológica para a interação entre dois ou mais fatores resultantes de um fenômeno natural que motiva as pesquisas agrárias e biológicas. Excelente 1 2. [] (IP:281473659104419 | 07:32:42 | 21:37:12 | 04:30 | 28.136) Considerando um experimento estudando três níveis de adubação orgânica, discuta se o melhor caminho para análise é a regressão ou comparação de médias. O melhor caminho seria a comparação de médias, porque possibilitaria identificar, dentre as dosagens, a que oferece o melhor desempenho. A regressão seria mais útil se o objetivo do experimento fosse encontrar a melhor dose para uma dada cultura, e, com a equação de regressão, seria possível predizer o comportamento da adubação, encontrando o pico de produtividade, favorecendo futuras recomendações de adubação. Embora concorde com a resposta, não concordo com o raciocínio, já que em momento algum foi explicitado qual o objetivo do experimento. O ponto é que com apenas três pontos fica muito arriscado estabelecer qualquer forma de relacionamento entre as variáveis com o mínimo de confiança 0,5 3. [] (IP:281473659104419 | 07:33:28 | 21:38:08 | 04:40 | 34.758) Avalie o efeito de diferentes estratégias de seleção do melhor modelo sobre a probabilidade de ocorrência de erro do tipo I. É importante obter um modelo minimizando o número de variáveis incluídas, descartando aquelas não significantes (ou com pouca contribuição para o ajuste). Para isso é preciso escolher uma estratégia para essa seleção. Dentre as mais utilizadas, tem-se a “seleção para frente”, nesse método, as variáveis candidatas vão sendo introduzidas progressivamente no modelo e são feitos testes para medir seu efeito no conjunto. Outra estratégia é a “eliminação para trás”, que parte da regressão completa (com todas variáveis) e a cada rodada é eliminada a variável cuja saída produz menor efeito no modelo geral. Esses dois processos são bem semelhantes e promovem bons resultados, principalmente se o número de variáveis não for tão grande. Outra opção é o “stepwise”, que é uma combinação dos outros dois métodos, onde a cada variável adicionada ao modelo, todas as variáveis já adicionadas são testadas novamente. Esse procedimento aumenta a confiabilidade da escolha das variáveis fixadas no modelo. Por outro lado, o grande número de testes realizados para verificação de cada um dos modelos acaba por aumentar a chance de ocorrência do erro tipo I (rejeição da H0 quando esta é verdadeira). De modo geral, os processos de seleção vão conduzir a um aumento na chance de ocorrência do erro tipo I, uma vez que a cada teste realizado, aumenta a chance de cometer em algum momento o erro. Vale esclarecer que a chance de ocorrer o erro tipo I não aumenta em cada um dos testes, e sim de forma acumulativa. Por exemplo, considerando nível de significância de 5%, se forem realizados 20 testes, pelo menos em um deles pode ocorrer erro tipo I, mas se forem feitos 100 testes, em 5 deles pode ter cometido o erro tipo I. Isoladamente, as duas partes estão corretas, mas faltou responder à pergunta propriamente dita, que é a relação entre estas duas partes… 0,75 4. [] (IP:281473659104419 | 07:34:57 | 21:57:33 | 22:36 | 2.162) Um experimento vai avaliar a resposta de dez cultivares de soja a cinco inoculantes rizobianos, em campo, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Fatorial 10x5 com 4 repetições, pois o experimento visa o estudo da interação dos 10 níveis do fator soja com os 5 níveis do fator inoculante rizobiano. Como o experimento será implementado em campo, o controle local será aplicado com a utilização de blocos, constituindo o delineamento de blocos casualizados (DBC). Fonte de Variação Graus de Liberdade Tratamento 50-1=49 Bloco 4-1=3 Resíduo 49x3=147 Total (50x4)-1=199 Porque será tão comum identificar que é fatorial e depois simplesmente desconsiderar isto na análise de variância? 0.25 5. [] (IP:281473659104419 | 07:35:32 | 21:42:36 | 07:04 | 34.664) Compare os erros tipo I e II, suas mais prováveis consequências, e seu relacionamento com nível de significância. A estatística pode trabalhar com duas hipóteses: a nula ou a alternativa. A hipótese nula (H0) afirma que não há diferenças entre os tratamentos, enquanto a hipótese alternativa (H1) afirma que essa diferença existe. A aceitação da H0 implica na negação da H1, ou vice versa. A decisão de aceitar ou não uma hipótese é baseada em testes de significância, mas é possível cometer erros de julgamento, ou seja, rejeitar H0, quando ela é verdadeira (erro tipo I); ou aceitar H0, quando ela é falsa (erro tipo II). O erro tipo I é o mais importante, porque afirmar que existe diferença entre os tratamentos quando isso não ocorre leva a conclusões equivocadas sobre a hipótese levantada, e do ponto de vista prático, pode ser muito danoso. Por exemplo, ao dizer-se que a variável X é superior a Y, quando na verdade isso é falso, pode gerar muito prejuízo aos produtores. Por outro lado, ao afirmarmos que a variável X não difere da Y, quando na verdade difere (erro tipo II), o produtor não estará perdendo ao preferir a Y, só ganhando menos do que lucraria com X. Na tentativa de controlar a ocorrência do erro tipo I, é possível predizer o nível de significância durante os testes de variância, ou seja, a probabilidade máxima do erro tipo I ocorrer durante a avaliação. Os valores mais usados são 10%, 5% e 1%; por exemplo, o nível de significância 5% é a probabilidade máxima de ocorrer o erro de tipo I em 5% dos testes realizados. Lembrando que ao reduzir a probabilidade do erro tipo I, aumenta-se a probabilidade do erro tipo II. Excelente 1 6. Diferencie interação e efeito principal. Um fatorial é constituído por diferentes fatores. Quando avaliam-se esses fatores isoladamente, independente dos demais, tem-se o efeito principal (quanto a variável resposta mudou devido a mudança no nível do fator). Por outro lado, a constatação de que um fator interfere em outro, modificando seu efeito, é chamada interação. O efeito principal é medido a partir do total dos fatores considerados (levando-se em conta seus níveis e repetições), já as interações são computadas pela combinação de fatores em relação ao conjunto geral de fatores. Por exemplo, na avaliação o efeito da aplicação de calcário em solo manejado convencionalmente ou em plantio direto sob a produção de milho, é pode obter os seguintes resultados: a aplicação de calcário aumentou a produção (efeito principal), ou a produção de milho aumentou no plantio direto (efeito principal), ou ainda a produção de milho aumentou com a aplicação de calcário no plantio direto (interação). Percebe-se que a interação é a resposta de uma ação conjunta entre dois (ou mais) fatores, e que na sua presença os efeitos principais isolados não são mais tão importantes, porque as interações serão mais consistentes, e representam melhor a realidade. Na realidade a interação neste seu exemplo é de que a resposta do milho à calagem no palntio direto é diferente da resposta no convencional. Fora este problema de entendimento a resposta está bastante boa 1 7. [] (IP:281473659104419 | 07:37:14 | 21:57:22 | 20:08 | 1.959) Discuta diferentes critérios para seleção da melhor regressão linear múltipla. Para a seleção da melhor regressão, primeiramente é necessário selecionar (através de testes de hipótese) todas as variáveis que irão entrar no modelo, sempre observando a existência de colinearidade entre as variáveis independentes. Na avaliação de modelos únicos ou aninhados (derivado de um modelo mais geral), é preciso estabelecer critérios para a seleção do melhor dentre os modelos candidatos, ou seja, o que envolva o mínimo de parâmetros que expliquem satisfatoriamente a variável resposta. Para isso, podem ser utilizados critérios estatísticos de avaliação, como o coeficiente de regressão (R), o coeficiente de determinação (R²), coeficiente de determinação corrigido (R²c), e estatística t ou F. O coeficiente de correlação (R) é uma medida da relação linear entre as variáveis, indicando a proximidade dos pontos à reta, ou seja, quanto mais próximo o ponto estiver da reta, maior o R (tendendo a 1,0). O coeficiente de determinação (R²) indica a capacidade explicativa da equação, logo, quanto mais próximo de 1, maior a validade da regressão (100% de explicação). Porém, quanto mais variáveis são adicionadas a regressão, maior será seu R². Para reverter isso, uma opção é o R² corrigido, que leva em consideração o número de variáveis da regressão, suavizando o efeito da adição, dessa forma, se uma variável com pouco poder explicativo for adicionada, o R²c diminuirá, o oposto acontece quando uma variável com alto poder explicativo é adicionada. Mas o princípio se mantém, quanto maior o R²c, melhor a regressão. A estatística t tem por objetivo o teste de significância de cada um dos parâmetros estimados do modelo, testando o efeito individual do (x) sobre o (y). Outro teste bastante utilizado é o F, que testa simultaneamente a significância do conjunto de parâmetros através do teste da hipótese nula (a equação não explica a variação da variável resposta). Grandes valores de F permitem a rejeição da H0 (a regressão é de fato explicativa). Também é possível montar todos os modelos e utilizar critérios baseados no máximo da função de verossimilhança, estabelecendo, por exemplo, os respectivos AIC (índice que leva em conta a qualidade e a quantidade de parâmetros utilizados em uma regressão), quanto menor o AIC, melhor o modelo. Ok 1 8. [] (IP:281473659104419 | 07:37:44 | 21:44:09 | 06:25 | 25.068) Quais são as principais diferenças entre os diferentes delineamentos experimentais? Basicamente, a maior diferença entre os principais delineamentos (o inteiramente casualizado – DIC, e o de blocos casualizados - DBC) é a aplicação ou não do controle local. No DIC, não há observação de variabilidade ambiental (ambiente supostamente homogêneo), logo não se aplica o controle local. Nesse delineamento, os tratamentos podem ser cruzados ou aninhados, todos os fatores devem ser fixos, e a estrutura aleatorizada do DIC implica que toda variação que ocorre entre os fatores é devida ao acaso, sendo todos os efeitos testados uns contra os outros. Por outro lado, no DBC, as variações ambientais foram observadas e foi possível aplicar o controle local. As variações são isoladas de modo a separá-las das variações atribuídas ao acaso ou ao tratamento, pois cada bloco contem unidades experimentais com comportamento similar e a aleatorização é realizada dentro dos blocos. Isso promove uma redução do erro experimental e incremento da precisão, uma vez que a variância do erro (medida pela comparação dentro dos blocos) é menor por causa da homogeneidade interna dos blocos. Esqueceu o quadrado latino, mas tudo bem 1 9. [] (IP:281473659104419 | 07:38:45 | 21:44:36 | 05:51 | 18.639) Como podemos determinar o número de unidades amostrais em um projeto a ser conduzido em área sem informação prévia? O ideal em uma área sem informação prévia seria a aplicação de um experimento em branco. Trata-se de um plantio (de uma única variedade) em toda a extensão do experimento. Assim, seria possível definir a variabilidade da área. Porém, essa é uma técnica muito onerosa, e dificilmente é aplicada. A alternativa é a utilização da fórmula: n = 4σ²/L²; onde n é o número de unidades amostrais, σ é a variância, e L é o erro máximo tolerado. Porém, essa fórmula exige valores (não a porcentagem) da variância e do erro. Para obter esses valores, é feita uma coleta aleatória (20 pontos, por exemplo) e essas amostras são trabalhadas separadamente, obtendo-se a média e a variância da área, e com esses valores, calcula-se o novo número de amostras a serem coletadas. Entretanto, o valor n pode variar para cada uma das variáveis estudadas, por exemplo, 30 para análise de cálcio, 50 para fósforo, e 35 para potássio. Nesse caso, escolhe-se o maior número (50 amostras) e generaliza-se para os demais parâmetros, pois dessa forma é atingida a precisão exigida pro fósforo, e supera-se a do cálcio e do potássio. Lembrando que, como já haviam sido coletadas 20 amostras, bastam coletar mais 30 para atingir o valor estipulado. A resposta inicial seria para experimentação, não amostragem, mas a final está excelente. A escrita parece indicar ter vindo diretamente de algum texto, o que deve ser evitado. 1 10. [] (IP:281473659104419 | 07:39:11 | 21:45:47 | 06:36 | 59.094) Compare os efeitos principal e secundário de uma interação, do ponto de vista das informações que podem ser obtidas a partir deles. No efeito principal, o fator é estudado isoladamente, enquanto no efeito secundário (ou interação), os fatores estão agindo em conjunto. A partir do efeito principal é possível inferir qual nível do fator apresenta resultados mais satisfatórios. Caso a interação seja significativa, o efeito dos fatores isolados não é relevante para o entendimento do fenômeno, uma vez que a interação fornece uma representação mais condizente com a realidade. Além disso, é possível avaliar a interação utilizando-se testes de variância ou regressões (a depender do objetivo do estudo), aumentando a precisão e a relevância na estimação dos efeitos das interações entre os fatores, enquanto que para a avaliação dos efeitos principais as comparações de média são mais utilizadas. Por outro lado, uma interação muito complexa (triplas e quádruplas) dificulta bastante a discussão dos resultados, pois o objetivo é a compreensão do processo biológico que gerou aqueles dados, e não simplesmente a exposição dos resultados. Na realidade podemos usar perfeitamente bem obrigado a regressão para efeitos principais quantitativos, do mesmo jeito que na interação. O que diferenciaria neste caso é que apenas uma regressão explicaria o que aconteceu, enquanto na interação precisaríamos de uma regressão para cada nível do outro fator envolvido na interação 1 11. [0.000] (IP:0 | 07:39:51 | --:--:-- | --:-- | ------ ) Será conduzido um projeto para avaliar a reciclagem de nutrientes em pastagens, caatinga e mata atlântica, ao longo do tempo. Para este fim será realizada a coleta da produção natural de serrapilheira, seu conteúdo de nutrientes e sua decomposição. O projeto também deverá avaliar a biomassa presente em cada ecossistema, bem como características microbiológicas, químicas e de física do solo. Deverão existir repetições reais em cada ambiente. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. Em branco 0 12. [] (IP:281473659104419 | 07:40:23 | 21:56:38 | 16:15 | 2.13) Um experimento vai avaliar o efeito de cinco fontes de carboidratos no desenvolvimento de 100 estirpes rizobianas, em placa de petri (16 cm de diâmetro x 3 cm de altura) com cinco repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Trata-se de um esquema fatorial 100x5 com 5 repetições, formado pelas 100 estirpes rizobianas com a aplicação de 5 fontes de carboidratos. Com relação ao delineamento, condições de laboratoriais tendem a ser homogêneas indicando um DIC, mas trata-se de um volume muito grande de placas a serem preparadas um único dia, portanto é recomendado a utilização de Blocos Casualizados, de modo a garantir que cada bloco seja preparado pelo mesmo operador e no mesmo dia. Fonte de Variação Graus de Liberdade Tratamento 500-1=499 Bloco 5-1=4 Resíduo 499x4=1996 Total (100x5)-1=2.499 Como na maioria das respostas a estas perguntas, identifica o fatorial no texto, e simplesmente desconsidera o efeito disto na análise de variância. Devo confessar que isto é extremamente irritante. 0,25 13. [] (IP:281473659104419 | 07:41:23 | 21:48:03 | 06:40 | 21.667) Compare a regressão polinomial com as regressões não-lineares, considerando os pontos de vista de uso prático, e capacidade de interpretação dos resultados. Dentre as muitas diferenças entre essas duas classes, a principal está relacionada a suas formulações. No caso da regressão linear polinomial, a partir de um conjunto de informações, e com a adição de variáveis independentes, busca-se o modelo que melhor explique a relação entre as variáveis inerentes a um dado fenômeno. Já no caso não linear, na maioria das vezes, as formulações de modelos são baseadas em considerações teóricas inerentes ao fenômeno que se tem interesse de estudar (modelagem mecanicista). A regressão não linear é amplamente utilizada em estudos de comportamento biológico, nos quais os parâmetros fornecem um melhor conhecimento sobre o fenômeno. Além disso, modelos não lineares geralmente fornecem um bom ajuste com um número menor de parâmetros do que uma função polinomial que descrevesse o mesmo fenômeno, por exemplo, e isso facilita a interpretação. E diferente dos modelos de regressão polinomial, em que a validade das inferências é avaliada principalmente por meio de diagnósticos de regressão, nos casos não lineares, deve-se também avaliar a extensão do comportamento não-linear do modelo adotado. Esta é a primeira vez que ouço falar em linear polinomial pelo que me lembro. Parece ter havido uma mistura entre linear múltipla (várias variáveis independentes) com polinomial (vários níveis da mesma variável). Embora sejam fundamentalmente o mesmo tipo, a primeira ocorre em um espaço pelo menos tridimensional, enquanto a segunda ocorre em um espaço bidimensional. Não tenho ideia do que tentou dizer com a última frase, para ser honesto. Não vi comparação entre eles na resposta, mas sim duas descrições separadas, embora individualmente bastante boas. 0,75 14. [] (IP:281473659104419 | 07:42:15 | 21:49:14 | 06:59 | 30.537) Explique como a escolha do delineamento pode afetar a precisão do experimento. A escolha do delineamento mais adequado implicará na correta determinação dos efeitos do tratamento, do acaso e do bloco (caso tenha sido usado), o que aumenta a precisão dos resultados. O ideal seria que o delineamento reduzisse ao máximo a soma de quadrados com um gasto mínimo de graus de liberdade, diminuindo o coeficiente de variação e aumentando a precisão da análise. Se, por exemplo, um delineamento em blocos casualizados for escolhido erroneamente (blocos com pouca variação entre si), haverá um consumo excessivo de GL sem uma correspondente perda de soma de quadrados, alterando o F. Quando o GL do resíduo é baixo, são precisos maiores valores de F para que haja indicativo de diferença significativa entre os tratamentos, e uma diferença que seria significativa em um DIC, pode não ser em um DBC. Excelente 1 15. Qual a importância do conceito de repetições reais? No esquema fatorial, o tratamento é formado por um nível de cada fator, e o número de vezes em que cada fator aparece é igual ao número de repetições reais do experimento. Como pode haver diferentes números de níveis para cada fator, cada nível de um fator pode apresentar diferentes valores de repetições reais. Essa informação é importante por possibilitar a avaliação dos efeitos principais dos fatores (caso não haja interação significativa), uma vez que cada fator conta com um número diferente de repetições reais e quanto maior o número de repetições, menor o valor de Δ, e mais fácil encontrar diferenças significativas. Dessa forma, os fatores podem ser avaliados com diferentes níveis de precisão. Excelente 1 16. [] (IP:281473659104419 | 07:59:07 | 21:56:25 | 57:18 | 2.452) Um experimento foi realizado em casa de vegetação, estudando vinte e cinco inoculantes diferentes para quatro variedades de feijão, utilizando quatro repetições. Só há 50 potes disponíveis. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas O experimento conta com dois fatores: inoculantes e variedades de feijão; cada um com 25 e 4 níveis respectivamente. Portanto, trata-se de um esquema fatorial 4x25. No total, o experimento conta com 100 tratamentos, cada um com 4 repetições, logo, seriam necessários 400 potes. Porém, como só existem 50 potes disponíveis, o experimento teria que ser dividido em blocos, mas estes não seriam grandes a ponto de conter todos os tratamentos, caracterizando um delineamento de blocos incompletos. Como o experimento cumpre a premissa do delineamento de blocos incompletos parcialmente balanceados (número de repetições menor do que o número de blocos). Fonte de Variação Graus de Liberdade Repetição r-1 = 3 Tratamento (não ajust.) k²-1 = 99 Blocos dentro das rep. r(k-1) = 36 Erro intrablocos (k-1) (rk-k-1) = 261 Tratamento (ajustado) k²-1 = 99 Total rk²-1 = 399 Sendo: k = √número de tratamentos = √100 = 10 r = número de repetições = 4 Embora não tenha levado em consideração o fatorial, a saída dada para o número insuficiente para conduzir um bloco de cada vez (confesso que passou batido, e que não era meu objetivo avaliar esta parte) foi tão boa e correta que vai levar a questão inteira. 1 17. [] (IP:281473659104419 | 07:59:40 | 21:50:57 | 51:17 | 19.872) Qual a principal consequência do uso de parcela subdividida? A redução da área experimental, isso pode levar a uma redução nos custos operacionais ou a uma otimização do manejo. Assim, espera-se compensar a menor precisão inerente ao modelo de parcelas subdivididas com um controle local mais efetivo e um manejo experimental mais eficiente, o que incrementa a precisão do experimento. Você percebeu que não falou porque haveria esta menor precisão inerente em canto algum de sua resposta, não percebeu. A principal consequência é a divisão da variação do acaso em dois componentes. A sua resposta é válida para aqueles casos em que o ganho ocorre. 0,5 18. [] (IP:281473659104419 | 08:00:14 | 21:51:37 | 51:23 | 5.193) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. A homocedase é uma das premissas do Modelo Linear Generalizado, pois as principais conseqüências da heterocedase são a curtose positiva (a distribuição dos dados não se assemelha a média, resultando em uma distribuição problemática da curva) e a assimetria (não há correlação entre os desvios e as médias). A heterocedase seria uma variação irregular do resíduo, ou seja, o acaso variou entre os tratamentos sem ser possível sua representatividade por um único valor. Dessa forma, não é possível isolar o efeito do acaso e calcular o efeito dos tratamentos, o que é um grande problema. Caso o teste F seja aplicado, mesmo os dados sendo heterocedásticos, a assimetria ou a curtose positiva afetariam a confiabilidade do teste, que tenderia a aceitar a hipótese nula, mesmo que esta fosse incorreta (erro tipo II). A heterocedasticidade pode ser verificada através de testes como o de Cochran, Hartley, Bartlett e Levene. E caso haja heterocedase, podem ser empregadas transformações de dados, eliminação de outlier, ou outras soluções. Mas como nem sempre é possível reverter a situação de heterocedase, a prevenção parte da aplicação rigorosa e correta dos princípios experimentais (repetição, casualização, e em caso de necessidade, o controle local), de modo que as variações ocorridas entre tratamentos (ou blocos) sejam devidas ao acaso de forma semelhante entre as parcelas. A primeira frase está muito parecida com outra resposta, e igualmente errada. Felizmente, para você, a segunda frase pegou o miolo da questão em cheio, e respondeu corretamente. 1 19. [] (IP:281473659104419 | 08:01:08 | 21:53:30 | 52:22 | 101.035) Qual a implicação do número de fatores e níveis presentes em um delineamento em relação à precisão da avaliação de cada fator? O número de fatores e níveis vai determinar o número de tratamentos, e, consequentemente, o tamanho do experimento. Quanto maior o experimento, mais difícil será a aplicação de um controle local mais efetivo, diminuindo a precisão do mesmo. Outro ponto a ser observado é que o número de fatores e níveis também determinará o número de repetições reais, que por sua vez tem influência direta no cálculo do Δ, lembrando que quanto maior o Δ, mais difícil encontrar diferenças significativas e menor a precisão do experimento. A princípio, pode-se utilizar qualquer tipo de delineamento em arranjos fatoriais, porém, como os tratamentos correspondem a todas as combinações dos diferentes níveis dos fatores, o número de tratamentos será tanto maior quanto maior for o número de fatores e de níveis. Isso pode implicar na utilização de delineamentos mais complexos (como o de parcelas sub-divididas), pois o experimento pode exigir grandes áreas, inviabilizando o DIC (delineamento inteiramente casualizado) pela falta de homogeneidade, ou o DBC (delineamento de blocos casualizados), pelas dificuldades em distribuir blocos uniformes. O delineamento mais adequado implicará na correta determinação dos efeitos do tratamento, acaso e bloco (caso tenha sido usado), o que aumenta a precisão dos resultados. O ideal seria que o delineamento reduzisse ao máximo a soma de quadrados com um gasto mínimo de graus de liberdade, diminuindo o coeficiente de variação e aumentando a precisão da análise. Se, por exemplo, um delineamento em blocos casualizados for escolhido erroneamente (blocos com pouca variação entre si), haverá um consumo excessivo de GL sem uma correspondente perda de soma de quadrados, alterando o F. Quando o GL do resíduo é baixo, são precisos maiores valores de F para que haja indicativo de diferença significativa entre os tratamentos, e uma diferença que seria significativa em um DIC, pode não ser em um DBC. Um número muito elevado de fatores e níveis também pode aumentar o tamanho do experimento, dificultando a aplicação do controle local. Excelente 1 20. Discuta as aplicações da medição repetida em solos. Uma medição quando realizada na mesma variável ou unidade experimental em mais de uma ocasião ou profundidade, pode ser chamada de medição repetida. Essa medição pode ser feita em cross-over (as unidades experimentais recebem tratamentos seqüenciais); parcelas subdivididas (um nível de um fator é alocado em uma parcela maior e todos os níveis de um segundo fator são aplicados dentro dessa parcela); ou longitudinais (medidas repetidas no tempo) ou em profundidade. Nesses tipos de medições, há a observação de uma ou mais variáveis respostas em uma mesma unidade experimental em diferentes condições de avaliação (tempo, distâncias de uma origem), caracterizando medidas correlacionadas e com variâncias heterogêneas nos diferentes tempos, em função do modo sistemático o qual as medidas são tomadas. No caso de medidas feitas em diferentes profundidades, o que ocorre em uma camada, afeta a camada subseqüente ou anterior, por exemplo, se um solo apresenta compactação na camada 10-20cm, é de se esperar que sejam encontrados maior volume de raízes, e teores de água e nutrientes na camada 0-10cm. Ou quando realizam-se várias coletas de solo ao longo do tempo, uma adubação feita no dia 10, afetará os teores dos nutrientes nos dias subsequententes. Logo, essa ambas situações (muito comuns nas ciências do solo) não é cumprida uma das regras básicas do Modelo Linear Generalizado: a independência; e sua análise pode ser realizada usando a metodologia univariada, multivariada ou modelo misto, à depender de outros critérios. A resposta está excelente, mas não discute realmente as aplicações como eu pedi 0,75 21. Discuta as implicações da aditividade. O Modelo Linear Generalizado é uma equação formada pela variável resposta e o somatório da média dos efeitos do tratamento e a variação do acaso. Em termos matemáticos, para a aplicação do MLG é necessário que estas duas incógnitas sejam independentes, só assim será possível isolá-las. Dessa forma, a aditividade, no MLG, garante a independência entre os efeitos do tratamento e do acaso, assim a variação de um não afeta a variação do outro, por exemplo, o aumento na média dos tratamentos não implicará no aumento do resíduo. A aditividade também torna possível, na análise dos resultados, atribuir a origem dos efeitos observados, isto é, se a variação foi devida o tratamento, ou ao acaso. Ok 1 22. [] (IP:281473659104419 | 08:02:39 | 21:54:56 | 52:17 | 20.643) Discuta possíveis usos da correlação canônica que ajudariam a melhor entender o relacionamento entre variáveis. A correlação canônica é uma extensão da regressão linear, e como tal, objetiva explicar uma variável (resposta) a partir da combinação linear de outras variáveis, no caso da correlação canônica, são no mínimo duas variáveis. Em alguns conjuntos de dados multivariados, as variáveis já se dividem naturalmente em dois grupos, e uma correlação canônica pode explicar a relação entre esses dois conjuntos de variáveis (que não estão mais divididos em independente e dependente) através de um reduzido número de combinações, maximizando as correlações possíveis entre os grupos, ou seja, não existirá nenhuma outra combinação linear de variáveis cuja correlação seja maior que essa. A análise das variáveis canônicas (obtidas pelas combinações lineares) pode ser de grande utilidade no estudo de dependências multivariadas, ou estudos exploratórios, onde há um conjunto grande de variáveis, mas poucas combinações lineares de variáveis desse conjunto são relevantes. E com a análise canônica será possível estudar aquelas combinações lineares cuja correlação é mais elevada. Ótimo 1 1. [] (IP:281473652443841 | 08:17:57 | 21:00:36 | 42:39 | 75.611) Qual nível apresenta maior precisão em uma parcela subdividida e porque? Na parcela subdividida, o nível que apresenta maior precisão é aquele que está situado na subparcela. Ou seja, cada nível de um determinado fator representando uma subparcela apresenta maior precisão quando comparado ao nível de um fator que está na parcela principal. Esta diferença de precisão deve-se ao fato de que a utilização de parcelas subdivididas diminui o número de repetições das parcelas principais e, consequentemente, reduz os graus de liberdade do resíduo que influenciarão diretamente no maior valor do quadrado médio do resíduo. Isto pode levar a uma maior dificuldade de encontrar diferenças significativas entre os tratamentos alocados nas parcelas principais (alto quadrado médio do resíduo, diminuindo o valor de Fcalculado), gerando uma maior imprecisão em termos estatísticos. Ótimo 1 2. [] (IP:281473652443841 | 08:19:52 | 21:25:59 | 06:07 | 8.021) Considerando que tenha encontrado problemas na avaliação das premissas do Modelo Linear Generalizado, discuta as principais técnicas usadas para resolver estes problemas. Ao verificar que os dados de um determinado experimento apresentam problemas quanto ao obedecimento das premissas do Modelo Linear Generalizado (independência, normalidade e homocedase dos dados), pode-se lançar mão de algumas técnicas para tentar resolucionar os problemas: - Transformação dos dados: Utilizada em muitos dos casos e baseia-se na realização de operações matemáticas com os dados brutos. Essas transformações podem ser por meio do cálculo da raiz quadrada (uma possível transformação para a correção de heterocedase em ensaios de contagem), do logaritmo de base 10 (possível transformação para correção da dependência dos dados), arcoseno, potência, dentre outras operações. A lógica das transformações consiste basicamente em reduzirmos os contrastes das variações do acaso existentes entre os tratamentos pela mudança na escala dos dados, modificando a escala, inclusive, de valores elevados presentes para determinado tratamento, corrigindo dependência dos dados e diminuindo a heterocedasticidade. É importante destacar que a adoção e aplicação de transformações nos dados não modifica os resultados ou a conclusão do experimento, permanecendo ainda válidos. Contudo, com a técnica, pode-se obter dados que atendam as premissas do modelo. - Eliminação de um tratamento: Pode-se fazer a opção por eliminar o tratamento que reconhecidamente esteja sendo a causa dos problemas de dependência, não normalidade e heterocedasticidade dos dados. Entretanto, deve-se ressaltar que a identificação do tratamento é fundamental para que a ação realmente constitua na resolução dos problemas. - Análise e eliminação de outliers: Caso apresente-se outliers nos dados, a eliminação dos mesmos pode melhorar problemas relacionados à heterocedasticidade, contudo, é importante analisar a causa deste dado discrepante antes da eliminação. - Utilização de estatística não paramétrica: A alternativa da estatística não paramétrica como correção dos problemas deve ser encarada como a última alternativa a ser tomada, tendo em vista as implicações na qual esta impõe na análise dos dados a exemplo da perda de informações. ótimo 1 3. [] (IP:281473652443841 | 08:20:23 | 21:02:12 | 41:49 | 41.561) Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor nível de um fator". Não. Quando adota-se o fatorial e verifica-se interação significativa entre dois fatores ou mais, não é possível dizer qual o melhor nível de um fator envolvido na interação, de maneira isolada, justamente porque o efeito do mesmo está sendo influenciado por outros fatores e, portanto, a resposta avaliada (variável dependente) deve-se à interação (conjunto de fatores interagindo) e não ao efeito isolado de cada fator. Desta forma, para os fatores envolvidos na interação significativa, poder-se-ia afirmar qual é a melhor combinação de níveis (interação). Embora não seja uma resposta esquisita para um pedido de discussão, a resposta está ótima para a razão de sua negativa 1 4. Qual a importância da interação? A interação conforma-se como uma possibilidade quando adotamos o fatorial para a organização dos tratamentos de um experimento, considerando que a sua ocorrência se dá ao fato de existir mais de um fator influenciando na resposta de uma variável em estudo. Em outras palavras, na adoção do fatorial, a existência de mais de um fator, pode gerar ou não interação e, uma vez ocorrida, a mesma apresenta uma importância fundamental. Sua importância, em termos estatísticos, reside no fato de que na presença de interação significativa, não há sentido discutir cada fator isoladamente, já que a resposta da variável dependente é atribuída ao conjunto de fatores e não a um fator isoladamente. Isto é, se fatores interagindo mostram resultados significativos, a discussão acerca do efeito isolado de cada fator envolvido perde o sentido, uma vez que seu efeito influencia e é influenciado por outros fatores. Portanto, a discussão deve concentrar-se em entender e explicar como um fator influencia o outro. Em termos práticos, a utilização de mais de um fator (variável independente) em um determinado experimento tem por objetivo simular de maneira mais coerente o que, de fato, poderia ocorrer na realidade, considerando que no ambiente, diversos fatores interagem, influenciando na resposta de parâmetros observados. Desta forma, a ocorrência de interação significativa pode refletir este raciocínio (inter-relação de parâmetros no ambiente) em condições experimentais. Outro ponto que deve ser ressaltado é que a não ocorrência de interação em um experimento em fatorial indica que para aqueles fatores estudados, não observou-se influência de um sobre o outro, contudo, isto não anula o fato de que este fator poderia ser influenciado por outros que não estão sendo objetos de estudo. Para exemplificar a importância da interação significativa em experimentos, avaliou-se o efeito da aplicação de doses de adubo mineral (N, P, K) (0, 50 e 100% da recomendação para a cultura), adubo orgânico (torta de filtro, resíduo oriundo da fabricação de açúcar) (0, 20, 40, 60 e 80 t ha-1) e a associação dos dois na produtividade de uma variedade de cana-de-açúcar (fatorial 3 x 5). Observou-se que as plantas que receberam a associação da dose de 40 t ha-1de torta de filtro com 50% da dose recomendada de adubo mineral equipararam a produtividade de cana obtida apenas com a dose total de N, P, K recomendada. Neste caso, a conjugação dos adubos reduz o custo da compra de fertilizantes minerais, já que parte pode ser substituída por um resíduo da própria área, além disso, há a redução da aplicação de fertilizantes minerais que podem contaminar o solo, quando utilizados em excesso. Se isto não tiver sido copiado de algum canto, ficou com toda a cara… a possibilidade de uso da literatura não indica que seja desejável copiá-la, já que costume de casa vai à praça, e isto é considerado plágio na literatura científica. Fora isto, excelente 1 5. [] (IP:281473652443841 | 08:21:31 | 21:04:24 | 42:53 | 2.694) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. A presença de heterocedase constitui-se como um dos problemas que impedem a realização da análise de variância dos dados de um experimento. Isto acontece porque dados heterocedásticos significam que as variâncias dos tratamentos não são iguais e, portanto não obedecem à premissa do Modelo Linear Generalizado (MLG) que trata sobre a homocedase (presença de variâncias iguais) como uma exigência para a ANOVA. Caso hajam variâncias não homocedásticas, não há como diferenciar o efeito do tratamento e o efeito do acaso e, consequentemente, não é possível realizar a análise de variância. A prevenção de heterocedasticidade consiste em uma adequada condução do experimento, utilizando o mesmo número de repetições para todos os tratamentos, além da correta aplicação do controle local ou não, avaliando criteriosamente as condições do ambiente. O objetivo é de proporcionar as condições mais homogêneas possíveis para todos os tratamentos. Estes cuidados, de maneira geral, tendem a prevenir a ocorrência de variâncias desiguais. Ainda saliento que o número de repetições constitui-se como a melhor proteção contra os efeitos da heterocedasticidade. Uma vez ocorrida em dados experimentais, pode-se lançar mão de transformações numéricas dos dados na tentativa de tornar as variâncias constantes. A resposta está um pouco circular, já que simplesmente não tenta explicar porque a heterocedase não permite a independência entre acaso e tratamento. Fora isto, ok. 1 6. [] (IP:281473652443841 | 08:25:16 | 21:05:24 | 40:08 | 4.503) Debata os principais prós e contras das diferentes alternativas para análise de medições repetidas. Existem algumas alternativas para a análise de medições repetidas que seguem abaixo: - Análise de cada variável separadamente: um dos procedimentos mais comumente utilizados para análises que têm como variável as profundidades do solo, entretanto, configura-se como uma alternativa equivocada, neste caso, devido à dependência existente entre as diferentes camadas (profundidades), isto é, a interrelação existente entre o que acontece na profundidade de 20 – 40 cm com o que ocorre na camada de 0 – 20 cm; - Uso de análise multivariada: considera cada profundidade ou tempo (data de avaliação) como uma variável, entretanto, analisa todos os dados conjuntamente. Dentre as vantagens de sua utilização, há a redução no número de testes a serem feitos consequenciando na redução das chances de cometer o erro tipo I, além disso, reconhece a ligação existente entre as variáveis, refletindo esta interação nos resultados. Porém, como desvantagem observa-se que há um certo grau de complexidade na interpretação da análise que conjuga todas as variáveis de uma única vez, dificultando o entendimento sobre como as variáveis se relacionam e sobre a natureza das variáveis dependentes que foram significativas. - Parcela-subdividida: Esta alternativa apresenta algumas limitações referentes à sua validade para algumas variáveis, enquanto que para outras, isso não se procederá. Este procedimento é realizado através do teste de esfericidade de Mauchly, no qual uma variável é submetida e caso não seja significativo, pode-se inferir que a mesma é independente. - Modelo misto: É uma alternativa que assim como a multivariada reconhece a existência de dependência entre as medições de uma variável, entretanto, é mais simples a interpretação dos resultados e semelhante a uma análise fatorial o que simplifica muito quando comparado com a multivariada. Não apresenta coeficiente de variação. Excelente, mas apenas para clarificar, existe outra desvantagem inerente ao uso de análises separadas, que é o aumento cumulativo da chance de erros tipo I. Além disto, a dependência entre as variáveis pode ser corrigida durante a discussão dos diferentes resultados pelo reconhecimento do pesquisador, já que a discussão é inerentemente independente. 1 7. [] (IP:281473652443841 | 08:29:30 | 21:06:50 | 37:20 | 2.163) Um experimento foi conduzido em laboratório estudando a resistência de 100 estirpes rizobianas a três temperaturas. Serão utilizadas dez repetições e as estufas bacteriológicas disponíveis só cabem 500 placas de petri de cada vez. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Mesmo sabendo que as condições em laboratório são homogêneas no que diz respeito à temperatura, umidade e fotoperíodo, existem limitações quanto à realização do experimento: Indisponibilidade de equipamento e tempo de avaliação. Considerando 3000 unidades experimentais (100 estirpes x 3 temperaturas x 10 repetições), não há como colocar todas as placas de uma única vez na estufa bacteriológica que somente tem capacidade para 500 placas por vez. Além disso, é inviável a avaliação de 3000 placas de petri por dia, considerando apenas um avaliador (considera-se um único avaliador para diminuir os erros experimentais). Desta forma, o delineamento mais adequado seria em blocos casualizados, visando obter uma maior homogeneidade quanto à avaliação. O arranjo dos tratamentos adotado é o fatorial simples. O número de blocos será em função da capacidade da estufa bacteriológica e do tempo que o operador necessitará para avaliar um determinado número de placas de petri ao dia. Portanto, serão 10 blocos, onde cada bloco terá 1 repetição de cada um dos 300 tratamentos (100 estirpes x 3 temperaturas x 1 repetição = 300). Um bloco (300 unidades experimentais) será avaliado a cada dia. Sabendo-se que: - t: número de tratamentos = 300 -b: número de blocos = 10 - r: número de repetições = 10 O esquema da análise de variância segue abaixo: Fonte de variação GL Tratamento 299 Bloco 9 Resíduo 2691 Total 2999 Considerando que cada estufa fica com apenas uma temperatura de cada vez, e portanto todas as placas dentro ficam necessariamente com a mesma temperatura é simplesmente impossível usar o fatorial simples, exceto com uma estufa por placa. Isto indica o uso de parcela subdividida, em blocos. Infelizmente, assim como todas as respostas até este ponto, reconheceu o fatorial na composição dos tratamentos, mas não na análise de variância. 0 8. [] (IP:281473652443841 | 08:32:20 | 21:07:23 | 35:03 | 2.472) Devemos tomar algum cuidado em particular ao combinar os fatores para a formação dos tratamentos? Sim. Deve-se ter um cuidado especial quando o nível de um fator for considerado zero (0), podendo ter tratamentos iguais, contabilizando mais de uma vez no experimento o mesmo tratamento. Para exemplificar, tem-se a seguinte situação: Em um experimento avaliando fontes e doses de N em plantas de milho, adotou-se erroneamente o arranjo fatorial 4 x 5 onde temos 4 fontes de N (nitrato de potássio, nitrato de amônio, ureia, adubo orgânico ) com 5 doses de N (0, 2, 4, 6, 8 t ha-1 de N no solo), note que um dos níveis do fator dose é zero (0) o que resultará em quatro tratamentos iguais (0 para nitrato de potássio, 0 para nitrato de amônio, 0 para ureia e 0 para adubo orgânico) e consequentemente problemas na análise estatística, considerando a situação em que a dose zero das diferentes fontes apresenta diferença a um certo nível de significância, tornando-se complicado explicar a natureza desta diferença. A forma mais correta de se proceder é adotar a dose zero (0) como tratamento adicional ao fatorial, ou seja, 4 (fontes) x 4 (doses) + 1 (0 t ha-1 = controle) em que a dose 0 será avaliada fora do fatorial. Excelente, com apenas uma ressalva que é o uso de toneladas de N por hectare…. 1 9. [] (IP:281473652443841 | 08:32:46 | 21:08:21 | 35:35 | 6.596) Como podemos determinar o número de unidades amostrais em um projeto a ser conduzido em área sem informação prévia? O número de unidades amostrais que deve ser adotada em um determinado experimento leva em consideração a acurácia desejada, ou seja, a precisão e minuciosidade exigida pelo experimento. Além disso, deve-se considerar a variabilidade do material amostrado (solo, pessoas, espécies de plantas, etc.). Outros fatores que contribuem para a determinação do número de unidades amostrais é o custo que pode encarecer a amostragem. Um ponto que merece destaque é saber diferenciar réplica de unidade amostral, já que a primeira refere-se à retirada de uma submostra de uma amostra coletada, apresentando possíveis diferenças somente quanto à análise em laboratório. Já a unidade amostral apresenta uma característica intrínseca e, se comparada com outra unidade amostral do mesmo local, provavelmente, as mesmas apresentarão diferenças devidas ao local de coleta. Para a determinação do número de unidades amostrais, quando não há informação prévia sobre a área, podese fazer uso da seguinte equação: n = 4 σ2/ L2 , onde: - n: número de unidades amostrais - σ2: variância - L: erro máximo tolerado Vale ressaltar que este número de unidades amostrais deveria ser determinado para cada variável em estudo, dependendo da precisão desejada para cada uma delas. Além disso, para a obtenção do valor da variância, faz-se necessária uma coleta prévia. Se eu não tenho informação prévia, de onde aparece a variância? A ideia é uma amostragem inicial justamente para definir a variância amostral, e assim poder definir adequadamente o número de amostras. 0,75 10. [] (IP:281473652443841 | 08:33:37 | 21:26:54 | 53:17 | 34.845) Discuta diferentes critérios para seleção da melhor regressão linear múltipla. Com o objetivo de selecionar a melhor regressão linear múltipla, partindo do pressuposto de que a regressão escolhida descreverá satisfatoriamente a relação existente entre variáveis independentes e a variável resposta, faz-se necessário lançar mão de critérios para garantir a escolha por um modelo adequado. Em outras palavras, é preciso adotar requisitos para avaliar o melhor modelo que ajuste um determinado conjunto de dados. Baseando-se nesta realidade, existem alguns critérios que são comumente adotados/ utilizados para avaliar os modelos, dentre os existentes, é fundamental citarmos alguns deles: - Coeficiente de determinação (R²): O R² configura-se como um coeficiente que mede o quanto da variação de y (variável dependente) pode ser explicada pela equação de regressão. Ou seja, através do R², pode-se inferir se determinado modelo é adequado ou não para explicar a variação de uma determinada variável em estudo. O coeficiente de determinação pode assumir valores de 0 a 1, salientando que valores próximos de 1 atestam que a relação entre variáveis independentes e variável dependente (ou variável resposta) podem ser satisfatoriamente explicadas através da regressão encontrada, indicando bom ajuste. Já a observação de R² baixos, próximos de zero, denotam que o modelo (representado pela equação) não consegue explicar a relação existente entre as variáveis. Desta forma, utiliza-se o R² como critério, considerando que quanto maior este for, melhor é o ajuste do modelo. Para exemplificar, podemos considerar a comparação de modelos concorrentes (modelos que explicam uma mesma relação), caso determinasse o coeficiente de determinação como critério de escolha para o melhor modelo, escolheria o modelo que apresentasse maior R². Entretanto, vale salientar que o R² é sensível ao aumento de preditores (variáveis independentes) no modelo, observando-se também um aumento do mesmo, contudo, este aumento pode não corresponder à realidade, já que nem todas as variáveis preditoras são necessariamente efetivas (possuem efeito significativo) para a predição da variável resposta. Desta forma, o aumento do R² não está associado somente ao efeito das variáveis, mas também ao número das mesmas no modelo. - Coeficiente de determinação ajustado: Baseada na limitação anteriormente apresentada e discutida pelo coeficiente de determinação (R²), o coeficiente de determinação ajustado não aumenta obrigatoriamente com o aumento do número de variáveis independentes, já que em seu valor somente influi aqueles preditores que apresentam efeito significativo (o efeito significativo dos preditores é obtido através da análise de variância). Desta forma, pode-se pensar que o R² ajustado somente aumentará se a variável ou variáveis adicionadas ao modelo apresentarem efeitos significativos. A partir disso, muitas vezes, é preferível utilizar o coeficiente de determinação ajustado em relação ao R² como critério de escolha do melhor ajuste, considerando também que quanto maior é o seu valor, melhor o modelo explica a relação entre as variáveis em estudo. - Soma dos quadrados do resíduo (SSR): critério que baseia-se na observação da soma dos quadrados do resíduo, sabendo-se que quanto menor o SSR, melhor o modelo descreve a relação entre preditores e variável resposta. Contudo, o uso do SSR apresenta uma limitação: seu valor depende do tamanho da amostra, ou seja, para amostras pequenas, a variação do resíduo diminuirá muito, afetando os graus de liberdade do resíduo e, consequentemente, afetando a relação existente entre variação do acaso e efeito de tratamento. Uma forma de minimizar problemas deste tipo é o uso do quadrado médio dos resíduos como critério de escolha. - Teste F: Baseia-se na observação dos valores de F(calculado) dos modelos analisados, partindo do pressuposto de que quanto maior o Fcalculado, melhor a equação de regressão explica o comportamento das variáveis. Esta variação do valor de F é em função da relação entre o quadrado médio da regressão e o quadrado médio do resíduo, com isso, observa-se que o aumento do F(calculado) está diretamente relacionado com a diminuição do QMR (F e QMR são inversamente proporcionais). - Cp: Critério preconizado Mallows e que está baseado no erro quadrático médio dos valores ajustados. Para calcular este critério, utiliza-se a seguinte fórmula: Cp=(SSR (p))/(MSR (pmax.))- [N-2(p+1)] Onde: SSR – Soma dos quadrados do resíduo MSR – Quadrado médio do resíduo N – número de parcelas experimentais p – número de parâmetros Vale salientar que o modelo mais adequado será escolhido em função do número de Cp calculado que mais se aproxime do valor dos parâmetros (p +1). Por exemplo, se considerarmos 4 parâmetros (variáveis independentes) para observar o comportamento de y (variável dependente), e calcularmos o Cp de dois modelos concorrentes, onde o Cp1 = 3,444 e o Cp2 = 7,6700, optaríamos pelo modelo que apresentasse o Cp1, já que este aproxima-se mais do número de parâmetros (4). - AIC (Critério de informação de Akaike): Configura-se como um critério de seleção do melhor modelo, baseando-se na teoria da informação, considerando que quanto menor o valor de AIC, mais a equação (modelo) explica a relação entre as variáveis. Este critério leva em consideração a qualidade da informação bem como a qualidade da ligação entre as variáveis e o número de preditores que estão no modelo. excelente 1 11. [] (IP:281473652443841 | 08:34:01 | 21:10:38 | 36:37 | 1.753) Discuta a afirmativa: "Não é possível afirmar qual o melhor delineamento sem conhecer todos os detalhes do trabalho" A escolha do delineamento adequado está diretamente relacionada com as informações e estrutura requerida pelo trabalho, a começar pelo próprio ambiente no qual será executado o experimento. A presença e reconhecimento da heterogeneidade do local influem na escolha do delineamento em blocos ou inteiramente casualizado, já que considera-se a possibilidade de aplicar ou não o controle local. Outro fator que também deve ser considerado é a estrutura requerida pelo experimento. Caso haja limitação quanto à disponibilidade de material (placas de petri, vasos, etc.) e/ou equipamentos (estufa, BOD, autoclave, etc.) deve-se verificar o delineamento para que as mesmas condições sejam dadas a todos os tratamentos. Além disso, existe a própria capacidade de avaliação do experimento por parte do pesquisador que também deve ser considerada no momento de escolha do melhor delineamento. Caso estas informações não sejam levadas em consideração, corre-se o risco de escolher erroneamente o delineamento, podendo trazer problemas na identificação de diferenças entre os tratamentos. Sendo assim, é crucial conhecer detalhadamente o experimento para garantir a adoção do delineamento adequado e, consequentemente, o sucesso do trabalho. Excelente 1 12. [] (IP:281473652443841 | 08:34:40 | 21:12:27 | 37:47 | 107.954) Explique porque podemos considerar que o nível de significância de uma regressão é menos crítico do que sua importância intrínseca. Na regressão quase sempre teremos a associação de altos níveis de importância (expressos pelo valor “r2” na regressão) e significativos (1, 5 e 10% - chances de se cometer o erro tipo I), então, desta forma, na regressão torna-se menos importante o reconhecimento da significância em comparação ao tamanho da importância científica (coeficientes de determinação refletem a importância intrínseca) dos respectivos dados avaliados. Portanto, é mais comum visualizar situações onde os dados apresentam significância estatística (p.ex. dados significativos a 5 %) com níveis de importância baixos (baixos coeficientes de determinação), os quais acabam fornecendo pouca ou nenhuma informação sobre o fenômeno ou comportamento em estudo (relacionando às ciências agrárias, já que em outras áreas como medicina, reduzidos valores de importância são satisfeitos e aceitos), do que com dados que apresentem elevada importância (proporcionando certo grau de entendimento do fenômeno em análise), contudo, não significativos. Ótimo 1 13. Qual a importância do conceito de repetições reais? O número de repetições reais está relacionado ao fato de que o número de repetições para cada fator (em um arranjo fatorial) em um mesmo experimento pode ser diferente, definindo-se, então, como o número de vezes que um nível de um fator aparece no experimento. Com isso, é possível determinar o número de repetições reais através da seguinte fórmula: Número de repetições reais = r x R, onde: r – repetição dos tratamentos R – repetição do fator A importância do número de repetições reais reside no fato da possibilidade de estudar os efeitos principais dos fatores, caso não ocorra interação entre eles, ocorrendo um maior número de repetições para cada fator, além daquelas repetições dos tratamentos. Pode-se até associar que com um número maior de repetições, há um aumento da precisão do experimento. Excelente 1 14. [] (IP:281473652443841 | 08:35:28 | 21:15:27 | 39:59 | 3.041) Um experimento foi conduzido em um campo plano com solo e vegetação homogêneos, estudando vinte adubações verdes, que receberam ou não herbicida, em milho. O experimento terá um total de 3 repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Mesmo o experimento sendo conduzido em campo, o exemplo indica que o solo e a vegetação são homogêneos e, portanto, o delineamento indicado é o Inteiramente Casualizado. O arranjo fatorial é em parcelas subdivididas, onde a aplicação ou não de herbicida constituem as parcelas principais (necessita-se de uma grande área para cada nível do fator herbicida, já que a aplicação de herbicida pode influenciar o tratamento sem a presença do mesmo, pelo efeito de deriva) e as adubações verdes (20) compõem as subparcelas. Desta forma, cada parcela principal terá 20 subparcelas (20 adubos verdes), totalizando 40 tratamentos (2 aplicação ou não de herbicida x 20 adubos verdes). As parcelas principais serão sorteadas no local e, dentro de cada parcela principal, as subparcelas (20 adubos verdes) serão sorteadas. O experimento apresenta 3 repetições. A análise de variância é realizada em duas partes: (Tratamentos das parcelas principais) Fonte de variação GL Tratamento 1 Resíduo 4 Parcela 5 (Tratamentos das subparcelas) Fonte de Variação GL Tratamento 19 Interação Axb 19 Resíduo 76(T- parcela – trat.subp. – Interação)Total 119 Aleluia, salvou-se uma alma… finalmente alguém reconheceu o fatorial e indicou isto na análise de variância. Só uma ressalva, que o tratamento é a combinação de um nível de cada fator, não cada fator isoladamente como seu esquema parece indicar. Fora isto, gostei do raciocínio para uso da subdividida, embora eu provavelmente utilizasse fatorial, com alguma barreira para evitar a deriva do herbicida. 1 15. [] (IP:281473652443841 | 08:37:33 | 21:18:22 | 40:49 | 5.097) Discuta desvantagens derivadas do uso de muitos níveis de cada fator simultaneamente. Um dos problemas observados é o grande número de tratamentos que surgem, o que refletirá em dificuldades na implantação e condução do experimento. Quanto à implantação, se estivermos falando de um grande número de tratamentos (7 fontes x 10 doses = 70 tratamentos x 4 repetições = 280 unidades experimentais) será necessário uma área relativamente extensa, caso fosse experimento em campo, para podermos comportar os tratamentos com suas respectivas repetições. Além do custo elevado para implantação assim como a mão de obra requerida para a execução do trabalho. Já no que diz respeito à condução do trabalho, verifica-se a limitação do pesquisador em avaliar o experimento, tendo em vista a dimensão do experimento(no caso do exemplo acima) e elevado número de unidades experimentais, proporcionando desta forma uma heterogeneidade na avaliação, que potencialmente promoverá erros na coleta e análise de dados. Ok 1 16. [] (IP:281473652443841 | 08:38:06 | 21:19:11 | 41:05 | 1.694) A escolha do delineamento pode afetar a capacidade de encontrar diferenças entre os tratamentos? A escolha do delineamento está intrisecamente ligada à aplicação ou não do controle local, bem como a forma de aplicação do mesmo, tendo por objetivo, diminuir a variação do acaso, considerando que quanto melhor controla-se as variações do acaso, maiores são as chances de que sejam encontradas diferenças significativas entre os tratamentos, uma vez que torna-se mais seguro confirmar que os efeitos são provenientes dos tratamentos e não da variação do acaso. Este fato aumenta, portanto, a precisão do experimento. Para o Delineamento Inteiramente Casualizado (DIC), pela homogeneidade do ambiente ou pela ausência de informações acerca da heterogeneidade não faz uso do controle local, configurando-se como um delineamento simples, com apenas duas fontes de variação (tratamento e variação do acaso). Já o Delineamento em Blocos Casualizados (DBC), há a formação de blocos com o objetivo de tornar um ambiente heterogêneo em subgrupos mais homogêneos, permitindo a análise apenas do efeito dos tratamentos, ressaltando a existência de mais uma fonte de variação: os blocos. Esta explanação torna-se importante para visualizarmos que a escolha do delineamento é em função do ambiente e caso esta escolha seja realizada equivocadamente, o experimento pode apresentar algumas imprecisões. Caso haja a escolha pelo DIC quando deveria escolher o DBC, deixa-se de aplicar o controle local por considerar que a área é suficientemente homogênea para avaliar apenas o efeito dos tratamentos. Contudo, a heterogeneidade da área, não devidamente reconhecida, poderá influenciar na relação existente entre efeito do tratamento e efeito da variação do acaso. Consequentemente, pode-se atribuir erroneamente a ausência de efeito dos tratamentos, quando na verdade existe a diferença ou que há diferenças entre os tratamentos, quando, de fato, esta variação é devida ao acaso. Caso a escolha seja pelo DBC quando deveria ter optado pelo DIC, há um maior consumo de graus de liberdade (GL) na aplicação do controle local (blocos) desnecessariamente. O consumo de GL pela aplicação do bloco, consequencia em aumento do Quadrado Médio do Resíduo, que afetará o valor de Fcalculado, subestimando-o. A subestimação pode acarretar em conclusões erradas sobre o experimento, como por exemplo, inferir que os tratamentos não diferiram entre si, já que o resíduo mostrou-se muito maior e, portanto, a variação ocorrida no experimento pode ser satisfatoriamente explicada pelos erros experimentais. Excelente 1 17. [] (IP:281473652443841 | 08:38:00 | 21:19:42 | 41:42 | 1.671) Descreva situações em que o uso da multivariada seria interessante em trabalhos de experimentação. A utilização da análise estatística multivariada apresenta-se como uma ferramenta que permite a obtenção de informações mais completas e, sendo corretamente interpretada, resultados mais condizentes com a realidade, uma vez que a mesma considera vários parâmetros, avaliados ao mesmo tempo, influenciando na resposta de uma determinada variável em estudo. Esta lógica é baseada no que acontece, de fato, na natureza, reconhecendo que vários fatores interagem entre si, influenciando-se mutuamente. Baseado nisto, atualmente, existem diversos trabalhos experimentais que utilizam a estatística multivariada para a obtenção de resultados mais consistentes e amplos: - Análise multivariada na avaliação da compactação de um latossolo vermelho cultivado com milho (Freddy et al., 2008): neste experimento, a análise multivariada foi útil para identificar quais os parâmetros da planta estão relacionados com a variação da densidade do solo ao longo do perfil do solo. - Divergência genética entre cultivares de mandioca, avaliando dez características morfoagronômicas e duas variáveis relacionadas à qualidade das raízes (Vidigal, 1994). A abordagem na análise multivariada permitiu a formação de grupos de cultivares semelhantes,e ainda identificou as características que menos contribuíram para a divergência genética. - Parâmetros para a avaliação da dinâmica da drenagem e do relevo (Carvalho, et al., 1990). O uso da multivariada permitiu a avaliação da ação conjunta de parâmetros morfométricos da bacia hidrográfica na rede de drenagem e do relevo. Além destes exemplos, existem uma infinidade de outras situações experimentais que poderiam coerentemente utilizar a análise multivariada para avaliar os dados obtidos. Gostei do uso da literatura para basear suas escolhas, embora a ideia da pergunta fosse você desenvolver situações, preferencialmente em solos. 1 18. [] (IP:281473652443841 | 08:38:53 | 21:20:17 | 41:24 | 1.88) Discuta os principais caminhos para validação de modelos, e sua implicação na regressão. Com o objetivo de validar os modelos que expliquem um determinado fenômeno, faz-se necessário escolher algum dos caminhos listados abaixo. Através destes caminhos, possibilidades ou estratégias, é possível verificar, dentre uma variedade de modelos possíveis, aquele que melhor se adéqua à situação em estudo: - Testar todas as regressões possíveis: A partir desta técnica, é possível testar todos os modelos possíveis que poderiam explicar o maior número de variáveis possível, onde para um número de parâmetros (p), existe 2p – 1 de modelos possíveis. Desta forma, há uma garantia de que há uma solução para qualquer conjunto de variáveis utilizadas, sendo necessário, apenas, avaliar o critério de escolha para chegar no modelo mais adequado. Entretanto, existe limitação de informações quando utiliza-se esta técnica, uma vez que o modelo selecionado somente atende para àquela condição específica, considerando um número p de parâmetros, para aqueles dados em particular. Isto implica em não sabermos se todos os parâmetros considerados contribuem e como contribuem (em maior ou menor grau) para o comportamento da variável dependente, ou seja, os parâmetros são considerados independentemente de sua importância. Além disso, existe uma dificuldade no entendimento estatístico e matemático quando o número de parâmetros aumenta, complicando o manejo da regressão, além de aumentar a chance de cometer o erro tipo I. - Eliminação para trás: Técnica baseada em testar todos os parâmetros gerando todos os modelos possíveis, contudo, diferentemente do teste de todas as regressões possíveis, a eliminação para trás testa também todos os modelos com p-1 variáveis, ou seja, a medida que se retira uma variável, faz-se um novo teste. Vale ressaltar que as variáveis retiradas são aquelas consideradas menos importantes e o teste é cessado quando a retirada de uma variável implica na perda de significância do modelo ou na perda razoável de sua importância. Portanto, considera-se que retirar variáveis de pouco ou nenhum efeito não traz ônus para a significância do modelo, ou seja, com ou sem estas, a explicação do comportamento não é comprometida. - Seleção para frente: Baseia-se no mesmo princípio da eliminação para trás, ou seja, na desconsideração das variáveis menos importantes, todavia, o início do teste é inverso, considerando primeiramente uma variável e a cada adição de uma nova variável, faz-se o teste. - Stepwise (forward): Pode ser considerada uma técnica que reúne os melhores pontos das outras técnicas discutidas anteriormente. Baseia-se na seleção para frente, ou seja, inicia-se o teste com uma variável e vai adicionando-se variável a variável, mediante um teste para cada adição. A vantagem envolvida no stepwise é que as variáveis podem ser retiradas ou adicionadas, verificando a melhor combinação possível e, consequentemente, o melhor modelo. Isto não é verificado nas técnicas anteriores em que uma vez retirada uma variável, não é possível colocá-la novamente. Apesar da vantagem explícita, vale salientar que existem algumas limitações quanto ao seu uso, principalmente por aumentar razoavelmente a chance de cometer o erro tipo I quando comparada, por exemplo, ao teste que considera todas as regressões possíveis, já que há um aumento no número de testes realizados. -Stepwise (Backward): Mesmo princípio da stepwise (forward) na medida em que combina variáveis, podendo retirá-las ou adicioná-las em busca do melhor modelo, contudo, o teste é baseado na eliminação para trás, ou seja, inicia-se o teste com todos os parâmetros e retira-se variável por variável mediante o teste. Assim como o forward, a utilização desta técnica implica em uma maior chance do erro tipo I. Dentre as várias possibilidades listadas, é importante ressaltar que a escolha de uma em detrimento da outra pode aumentar ou não substancialmente a chance do erro tipo I. E uma vez o mesmo sendo cometido, compromete todas as inferências tomadas através da regressão escolhida erroneamente. Excelente 1 19. [] (IP:281473652443841 | 08:39:18 | 21:21:41 | 42:23 | 5.803) Quais são os principais pontos que devemos avaliar ao estudar uma regressão? No estudo de uma regressão, seja linear, seja não linear, é importante avaliarmos o quanto a equação descreve a relação existente entre duas variáveis. Para isso, é preciso observar os componentes das equações (parâmetros), o coeficiente de determinação (r2), que permite inferir o quanto daquela variação em y pode ser explicada pela equação de x, sabendo-se que quanto maior o r2, maior é o grau de confiança da equação, ou seja, maior é a probabilidade da equação de regressão descrever satisfatoriamente o comportamento de um determinado fenômeno biológico. Além disso, tem-se o coeficiente de correlação (r) que explica o grau de ligação existente entre duas variáveis. Para ilustrar o que foi discutido acima, podemos utilizar uma equação de regressão linear, observando os seguintes componentes: y=a+bx+e Onde: y – variável dependente; a – coeficiente linear, configurando-se como o valor de y, quando x é zero; b – coeficiente angular, ou seja, indica a inclinação da regressão, medindo a direção e magnitude da relação. Para a primeira característica, é possível visualizar quando as duas variáveis estão correlacionadas positivamente, a inclinação também será positiva, já quando as duas variáveis estão correlacionadas negativamente, a inclinação será negativa. Para a magnitude, podemos inferir que para cada acréscimo unitário na variável (X), a variável dependente (y) mudará por b (inclinação); e – variação do acaso. Além destes parâmetros visualizados na equação, tem-se o coeficiente de determinação (r2) e o coeficiente de correlação (r). Um outro parâmetro que deve ser observado é a significância daquele efeito, já que sem esta exigência satisfeita, não há como construir uma regressão. O mais comum é observar que mesmo com coeficientes de determinação baixos, há ainda a significância dos dados. Já a condição inversa, coeficiente de determinação alto e não significativo, não é comum. Vale salientar, entretanto, que a avaliação apenas do coeficiente de determinação e significância não basta para inferir sobre uma análise de regressão, sendo necessário avaliar os parâmetros que, de fato, irão dizer como ocorre esta relação, isto é, o quanto os parâmetros a e b influenciam na estimativa da variável dependente. Excelente 1 20. [] (IP:281473652443841 | 08:39:44 | 21:22:17 | 42:33 | 1.669) Será realizado um projeto comparando os efeitos de corte cru ou queimado da cana sobre as características físicas (densidade, capacidade de retenção de água, resistência à penetração, condutividade hidráulica saturada), químicas (pH, Al, H+Al, P, K, Ca, Mg, saturação por bases, CTC, C orgânico) e microbiológicas do solo (população de nematóides, respiração, biomassa, N e P microbianos). A cana será implantada e ao longo de todo o seu ciclo cultural (quatro cortes com intervalo de um ano) será submetida aos mesmos tratamentos de corte. O experimento será conduzido em cinco solos distintos, que serão considerados como repetições. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. Neste exemplo acima, o delineamento mais adequado é em blocos casualizados, uma vez que a área é heterogênea (experimento em campo), identificando-se 5 solos distintos, podendo cada bloco está situado em um tipo de solo, perfazendo 5 blocos. Caso o objetivo do estudo fosse avaliar a influência dos solos nas respostas da variáveis dependentes (ou seja, os tipos de solo sendo considerados como tratamentos), o número de repetições seria maior que 1 para cada tipo de solo e o arranjo fatorial simples seria o mais indicado. Contudo, os mesmos são considerados repetições e, portanto, não há como afirmar que o efeito do corte da cana (crua ou queimada) foi melhor ou pior para um determinado tipo de solo, uma vez que só tem uma repetição de cada solo (não há como afirmar se o efeito observado foi devido ao tratamento ou ao acaso). Desta forma, considerando os solos como repetições, serão 5 blocos, onde cada bloco conterá os 2 tratamentos (cana crua e cana queimada). As tabelas serão construídas com o objetivo de observar o efeito do tipo de corte de cana (cru e queimada) sobre as características físicas, químicas e biológicas do solo de uma forma geral: - tabela 1. Efeito do tipo de corte da cana nas características físicas do solo – nas colunas, especificar os blocos (solos), os tratamentos (cana crua ou queimada) e a identificação das propriedades físicas avaliadas (densidade, capacidade de retenção de água, resistência à penetração, condutividade hidráulica saturada). Nas linhas dispor os valores das características físicas avaliadas. - tabela 2. Efeito do tipo de corte da cana nas características químicas do solo – nas colunas, especificar os blocos (solos), os tratamentos (cana crua ou queimada) e a identificação das propriedades químicas avaliadas (pH, Al, H+Al, P, K, Ca, Mg, saturação por bases, CTC, C orgânico). Nas linhas dispor os valores das características químicas avaliadas. - tabela 3. Efeito do tipo de corte da cana nas características microbiológicas do solo – nas colunas, especificar os blocos (solos), os tratamentos (cana crua ou queimada) e a identificação das propriedades químicas avaliadas (população de nematóides, respiração, biomassa, N e P microbianos). Nas linhas dispor os valores das características microbiológicas avaliadas. Vale salientar que cada variável analisada apresentará um coeficiente de variação distinto, assim como será realizado o teste F para avaliar a significância de tal parâmetro, e os testes de homocedase, normalidade e independência antes da realização da análise de variância. Meus parabéns. 1 21. [] (IP:281473652443841 | 08:40:26 | 21:23:00 | 42:34 | 42.086) Discuta a diferença entre as hipóteses estatística e científica, considerando em particular as consequências desta diferença. A hipótese configura-se como um elemento fundamental em qualquer projeto de pesquisa, tendo em vista que toda pesquisa baseia-se nela. Ou seja, a hipótese, por ser resultado de um raciocínio indutivo, concretiza a ideia que envolve o experimento através de uma afirmativa, que precisa ser testada, isto é, avaliada no sentido de concluir se a mesma é verdadeira ou não. Neste sentido, existe a hipótese científica que não pode ser testada matematicamente, mas resume a ideia do experimento, devendo ter clareza a partir da revisão de literatura realizada. Já a hipótese estatística, diferentemente da hipótese científica, pode ser testada matematicamente, ratificando ou retificando a hipótese científica com a aceitação ou rejeição da hipótese nula (H0). Correto, mas não muito ligado com a pergunta, já que não menciona as consequências da diferença, como perguntado 0,75 22. [] (IP:281473652443841 | 08:40:51 | 21:25:29 | 44:38 | 3.1) Cinco adubos verdes serão avaliados quanto a seus efeitos na população de nematóides em cana de açúcar queimada ou não, em trabalho de campo, com cinco repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Devido ao fato de haver inerentemente heterogeneidade em condições de campo e sabendo de que forma ocorre esta heterogeneidade, há a necessidade de realizar o delineamento em blocos casualizados. Contudo, no presente exemplo, não há informações suficientes para a adoção dos blocos casualizados, já que mesmo sabendo que trata-se de um ambiente heterogêneo (variação da população de nematóides na área), não sabemos como esta heterogeneidade conforma-se na área e, portanto, não podemos aplicar o controle local (blocos). Nesta situação, existem duas alternativas: faz-se uma amostragem da população de nematóides no local para definir como seriam os blocos, ou adota-se o delineamento inteiramente casualizado. Como somente foram disponibilizadas estas informações, o Delineamento Inteiramente Casualizado é o recomendado. O arranjo de tratamentos adotado é o fatorial em parcelas subdivididas, onde a queima ou não da cana constituem-se como as parcelas principais (por necessitarem de maior espaço físico) e os adubos verdes como subparcelas, contendo o experimento 5 repetições. Desta forma, serão (2 cortes de cana x 5 adubos verdes) 10 tratamentos. Vale salientar que as parcelas principais (parcelas com cana queimada ou não) serão sorteadas no local e, dentro de cada parcela principal, as subparcelas (5 adubos verdes) serão sorteadas. A análise de variância é realizada em duas partes: (Tratamentos da parcela principal) Fonte de variação GL Tratamento 1 Resíduo 8 Parcela 9 (Tratamentos das subparcelas) Fonte de Variação GL Tratamento 4 Interação Axb 4 Resíduo 32 (T- parcela – trat. – Interação) Total 49 Ótimo, exceto quanto às ressalvas de identificação de tratamentos que levantei na outra resposta 1 1. [] (IP:281474038335825 | 07:46:14 | 19:52:30 | 06:16 | 6.995) Explique como a escolha do delineamento pode afetar a precisão do experimento. A escolha do delineamento está intrisecamente ligada à aplicação ou não do controle local, bem como a forma de aplicação do mesmo, tendo por objetivo diminuir a variação do acaso, considerando que quanto melhor o controle local menor será a variação do acaso e maiores serão as chances de que sejam encontradas diferenças significativas entre os tratamentos, uma vez que torna-se mais seguro confirmar que os efeitos são provenientes dos tratamentos e não da variação do acaso. Este fato aumenta, portanto, a precisão do experimento. Para o Delineamento Inteiramente Casualizado (DIC), pela homogeneidade do ambiente ou pela ausência de informações acerca da heterogeneidade não se faz uso do controle local, configurando-se como um delineamento simples, com apenas duas fontes de variação (tratamento e variação do acaso). Já o Delineamento em Blocos Casualizados (DBC), há a formação de blocos com o objetivo de tornar um ambiente heterogêneo em subgrupos mais homogêneos, permitindo a análise apenas do efeito dos tratamentos, ressaltando a existência de mais uma fonte de variação que será os blocos. Esta explanação torna-se importante para visualizarmos que a escolha do delineamento é em função do ambiente e caso esta escolha seja realizada equivocadamente, o experimento pode apresentar algumas imprecisões. Caso haja a escolha pelo DIC quando deveria escolher o DBC, deixa-se de aplicar o controle local por considerar que a área é suficientemente homogênea para avaliar apenas o efeito dos tratamentos. Contudo, a heterogeneidade da área, não devidamente reconhecida, poderá influenciar na relação existente entre efeito do tratamento e efeito da variação do acaso e consequentemente pode-se atribuir erroneamente a ausência de efeito dos tratamentos quando na verdade existe diferença ou que há diferenças entre os tratamentos, quando, de fato, esta variação é devida ao acaso. Caso a escolha seja pelo DBC quando deveria ter optado pelo DIC, há um maior consumo de graus de liberdade (GL) na aplicação do controle local (blocos) desnecessariamente. O consumo de GL pela aplicação do bloco resultará no aumento do Quadrado Médio do Resíduo, que este afetará no valor de Fcalculado, subestimando-o. A subestimação pode acarretar em conclusões erradas sobre o experimento, como por exemplo, inferir que os tratamentos não diferiram entre si, já que o resíduo mostrou-se muito maior e, portanto, a variação ocorrida no experimento pode ser satisfatoriamente explicada pelos erros experimentais. Ok 1 2. [] (IP:281474038335825 | 12:27:35 | 19:52:50 | 25:15 | 15.362) Compare os erros tipo I e II, suas mais prováveis consequências, e seu relacionamento com nível de significância. Os erros tipo I e II são determinados pela decisão em aceitar ou rejeitar certa condição observada da hipótese nula (Ho), ou seja, o erro tipo I consiste em rejeitarmos a Ho quando esta é verdadeira, enquanto que a decisão correta a ser tomada deveria ser a de aceitá-la. Já, o erro tipo II se apresenta em outro estado de Ho está agora sendo falsa, porém sendo aceita quando deveria rejeitada. Em termos práticos cometermos os erros tipo I e II consiste em declararmos a existência (Erro I) ou inexistência (Erro II) de diferença significativas entre os nossos tratamentos avaliados no experimento, e diante disso assumimos que ambos são resultados “mascarados”, ou seja, errôneos, contudo o erro tipo I sempre apresentará maior gravidade em relação ao outro. Essa afirmação fica mais esclarecida por meio de um exemplo prático, como: produtividade de duas variedades vegetal A(nova) e B(velha) – se cometermos o erro tipo I afirmando que a variedade A é mais produtiva que a B, e que na realidade não se procede o efeito, obteremos perdas satisfatórias em produtividade se agora produzirmos apenas a variedade A em vez da B (concepção de perda) – agora, se realmente a variedade A é superior a variedade B e aí chego a conclusão errônea (erro II) de que isso não ocorre na realidade e consequentemente continuo cultivando e produzindo a variedade B obtendo produtividades inferiores, a concepção introduzida neste caso é de redução de ganho, porém sem nenhuma perda, já que continuo utilizando uma variedade antes explorada. A relação existente entre os tipos de erros (I e II) com o nível de significância (1%, 5% e 10%, sendo o mais empregado o de 5%) se estabelece pelo seguinte raciocínio: quando atribuímos um nível de 5% de significância para a análise estatística de nosso experimento, assumimos uma probabilidade de 5% em rejeitarmos Ho e se esta for verdadeira cometeremos o erro tipo I com a mesma chance de 5%, já nesta mesma condição de significância de 5% nos ocorre a probabilidade de 95% em aceitarmos Ho e se esta for falsa teremos logicamente a mesma chance de cometer o erro tipo II (95%). Diante disso se chega a conclusão que o nível de significância (1%, 5% ou 10%) adotado será a probabilidade de cometermos o erro tipo I e por consequência lógica a diferença (99%, 95% e 90%) será a probabilidade de cometermos o erro tipo II, e por simples observação ainda se conclui que se diminuirmos as chances de erro I aumentaremos as do erro tipo II. Cuméqueé? De onde apareceu esta afirmativa ligando diretamente nível de significância e erro tipo II? Estava indo tão bem até aí… o nível de significância é ligado somente com o erro tipo I, e a ligação com o tipo II é somente indireta, e não mensurável. 0,75 3. [] (IP:281474038335825 | 12:28:33 | 19:53:01 | 24:28 | 7.65) Um experimento vai avaliar a resposta de dez cultivares de soja a cinco inoculantes rizobianos, em campo, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas O arranjo fatorial do experimento é do tipo simples com 10 x 5 (10 cultivares de soja x 5 inoculantes rizobianos) com quatro repetições e o experimento será conduzido no delineamento em blocos casualizados com quatro blocos. A escolha do delineamento em blocos é explicada pela extensa área exigida na implantação do experimento, reflexo do grande número de parcelas experimentais envolvidas (10 x 5 = 50 tratamentos x 4 repetições = 200 parcelas experimentais), o que dificulta a avaliação completa do experimento pelo pesquisador (possíveis erros quanto ao se confundir entre os tratamentos e a avaliação das primeiras parcelas será diferente das parcelas avaliadas no fim, como reflexo do cansaço acarretando perdas na precisão do experimento). Portanto, com o emprego dos blocos esse erro concernente a avaliação se encontrará distribuídos nos blocos, ou seja, dentro do mesmo bloco todos os tratamentos receberam ou terão as mesmas condições. Fontes de variação GL Tratamentos 49 Blocos 3 Resíduos 147 Total 199 Eu realmente gostaria de entender a dificuldade de traduzir o que vocês identificaram no texto como fatorial na análise de variância como fatorial… 0,25 4. [] (IP:281474038335825 | 12:30:19 | 19:15:53 | 45:34 | 49.372) Caso uma interação seja significativa, devo discutir os efeitos principais ligados a ela? Justifique. Não, tendo em vista que, em um arranjo fatorial, a presença de interações significativas anula os efeitos principais daqueles fatores envolvidos na interação. Isto é, se fatores interagindo mostram resultados significativos, a discussão acerca do efeito isolado de cada fator envolvido perde o sentido, já que seu efeito influencia e é influenciado por outros fatores. Ok 1 5. [] (IP:281474038335825 | 12:31:20 | 19:18:17 | 46:57 | 11.077) Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado, explicando como é o relacionamento. O principio da repetição relaciona-se com o efeito do tratamento, já que o modelo linear generalizado (MLG) é de caráter aditivo e este componente é parte integrante do mesmo. A aplicação deste princípio experimental nos proporciona reconhecer distintamente a ação devida ao tratamento daquela que poderia ocorrer devido a causas desconhecida (variação ao acaso), e este reconhecimento é dado por meio das observações que são apresentadas nas repetições de um mesmo tratamento. O princípio da casualização nos assegura em termos erros experimentais independentes, ou seja, uma total independência de efeitos ocorridos entre as parcelas experimentais, ou melhor, assim dizendo entre as repetições do mesmo tratamento, proporcionando da mesma forma como a repetição, uma distinção do que seria o efeito do tratamento daquela promovida pelo acaso (efeito aditivo), como também ela juntamente com o controle local, quando aí necessário e possível for a sua aplicação, nos assegura condições igualitárias a todos atuando dessa forma na homogeneidade das variâncias existentes entre os tratamentos, que a isso denominamos homocedasticidade dos dados. Ok 1 6. [] (IP:281474038335825 | 12:33:15 | 19:20:43 | 47:28 | 7.879) Discuta a relação entre a regressão e um relacionamento causa-efeito. Os modelos de regressão (linear simples ou multivariado e não linear simples ou multivariado) são modelos matemáticos que relacionam o comportamento de variável resposta ou efeito (“Y”) com outra (“X”) encarada como causa. Também podemos dizer que a variável Y é a variável dependente, enquanto que a variável X é a independente, isso para um modelo de regressão linear simples, portanto através do emprego da regressão buscamos simular o(s) possível(eis) relacionamento(s) entre as variáveis causa (X) e efeito (Y). Por exemplo, quando utilizamos doses crescentes de torta de filtro (0, 10, 20, 30 e 40 t/ha) para se avaliar a produtividade (t/ha) de uma variedade de cana-de-açúcar no final do ciclo se observou os seguintes comportamentos hipotéticos abaixo: Dose (t/ha) Produtividade (t/ha) 0 30 10 46 20 52 30 65 40 67 Os resultados apresentados na produtividade se configuram como os efeitos oriundos das causas que para este exemplo foram às doses de torta, e desta forma por meio da regressão demonstramos a relação causaefeito entre as variáveis. Rodou, rodou e terminou dizendo que x causa y, o que não é necessariamente verdadeiro. A relação causaefeito não é explicitada pela regressão, ou então o fêmur era a causa da altura, conforme aquele exemplo velho de guerra… 0 7. [] (IP:281474038335825 | 12:34:08 | 19:22:00 | 47:52 | 7.068) Discuta a afirmativa: “A distribuição normal pode ser considerada a base da Estatística Experimental como a conhecemos”. Justifique sua posição. A importância da distribuição normal reside na sua utilização para descrever um grande número de variáveis que estão relacionadas a alguns fenômenos que tem suas distribuições de probabilidades próximas à uma distribuição normal e, portanto, pode-se fazer, a partir disso, algumas inferências estatísticas. Além disso, é importante salientar que a distribuição normal dos resíduos é uma premissa exigida para a realização da análise de variância. Em outras palavras, para haver a comparação entre tratamento e variação do acaso (análise de variância), é exigido que os resíduos tenham uma distribuição de probabilidades normal ou aproximadamente normal com média igual a zero. Mesmo não sendo o requisito mais importante, já que pequenas violações aos pressupostos da normalidade podem ocorrer e não influenciar substancialmente a análise de variância, através do teste F, existem duas situações em que não poderia realizar a ANAVA: a ocorrência de assimetria e curtose positiva (situações em que não há distribuição normal dos resíduos) na distribuição dos erros, onde haveria a subestimação do nível de significância considerado. Na realidade a importância vem do Modelo Linear Generalizado, não da Análise de Variância. Se eu fizer uma regressão, sem nem tocar no MLG, vou precisar da distribuição normal exatamente do mesmo jeito que se fizer uma ANOVA. 0,25 8. [] (IP:281474038335825 | 12:35:19 | 19:25:15 | 49:56 | 114.029) Discuta diferentes estratégias para seleção do melhor modelo de regressão linear múltipla As técnicas mais utilizadas são as seguintes: 1ª – Testar todas as regressões possíveis: como o titulo já propõe, esta técnica aplica-se a todas as regressões possíveis, estas determinadas pelos possíveis arranjos que se possa fazer entre as variáveis envolvidas no estudo, logo, este número de combinações fica sendo determinado pela expressão 2^(p_máx )-1, onde p corresponde ao número de variáveis independentes, ou seja, se em determinado estudo tivermos um número de 8 variáveis, isso implica dizer que teremos 255 modelos de regressão possíveis para avaliarmos na respectiva técnica. Problemas quanto a esta técnica relacionava-se à elevada carga computacional a qual era exercida sobre os antigos computadores no momento da análise, mas, isso se modificou com o advento de processadores com alta velocidade de processamento tornando aplicável o método. A desvantagem do método consiste na informação limitada que o mesmo nos fornece sobre o verdadeiro, ou melhor, modelo de regressão múltipla; 2ª – Eliminação para trás (backward elimition): neste teste, inicia-se com a regressão múltipla contendo todas as variáveis, posteriormente, eliminamos a cada rodada de seleção (R2, R_a^2, Cp e etc) a variável de menor efeito no modelo, e desta forma sempre avaliamos o efeito da última variável retirada. A desvantagem do método reside no fato de que uma vez retirada a variável não entrará mais na composição do modelo e consequentemente no processo de seleção, isso nos faz pensar ou refletir que, ora aquela variável poderia estar apresentando pouco efeito no modelo da vez, ora esta mesma variável, porém, em outra combinação (outro modelo) poderá ser mais efetiva quanto a explicar o fenômeno; 3ª – Seleção para frente (forward selection): esta técnica assemelha-se a de eliminação para trás, contudo em direção oposta, ou seja, agora em vez de iniciarmos com um modelo contendo todas as variáveis, iniciaremos com o modelo simples com apenas uma variável, essa de maior efeito, após a aplicação dos critérios de seleção adicionamos outra variável e repetimos o procedimento de avaliação e, desta forma, processamos até abranger o número total de variáveis na regressão múltipla. A desvantagem desta é similar em fundamento a da backward elimition tendo em vista que uma vez adicionada esta variável não poderá mais ser retirada para se avaliar novas condições (combinações); 4ª – Stepwise (forward e backward): esta se configura como uma junção dos métodos anteriormente descritos acrescido da possibilidade de adicionarmos ou retirarmos variáveis do modelo em processo de seleção (R2, R_a^2, Cp e etc) na circunstância em que se julgar viável (combinação de maior efeito), ou seja, este método supre a deficiência ocorrida nos descritos acima (backward elimition e forward selection) quanto a descrever a melhor combinação entre as variáveis. Essa ação apresenta seus benefícios isso é fato, todavia esta maior possibilidade também aumenta as chances de cometermos o erro tipo I, devido ao grande número de modelos gerados. Ok 1 9. [] (IP:281474038335825 | 12:36:39 | 19:26:15 | 49:36 | 15.236) Um experimento vai ser conduzido em laboratório avaliando o crescimento de Atriplex em solos com cinco diferentes níveis de condutividade elétrica, e em quatro espaçamentos diferentes, e cinco repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas O experimento será em arranjo fatorial simples (5 x 4) com 5 níveis de condutividade elétrica no solo e 4 espaçamentos com 5 repetições para cada tratamento, totalizando assim 100 parcelas experimentais em todo o experimento. O experimento será conduzido em delineamento inteiramente casualizado, efetuando-se a casualização dos tratamentos por meio de sorteio em todo o campo experimental. A justificativa para a aplicação do delineamento reside na falta de informações sobre a heterogeneidade do local onde será aplicado ou conduzido o experimento, pois sem estas informações se torna impossível aplicarmos o controle local de forma coerente e consequentemente adotarmos o delineamento em blocos. Fonte de variação GL Tratamento 19 Resíduo 80 Total 99 Como infelizmente aconteceu em quase todos os casos, indica fatorial no texto, mas não reconhece na ANOVA 0,25 10. [] (IP:281474038335825 | 12:38:54 | 19:27:11 | 48:17 | 9.621) Descreva situações em que o uso da multivariada seria interessante em trabalhos de experimentação. As técnicas de análise multivariada podem ser aplicadas nos mais diversos segmentos do ramo cientifico nas distintas áreas, contudo, seu uso se mostra mais frequente para alguns ramos científicos, enquanto que para outros sua utilização é menos evidente. Portanto, abaixo é descrito algumas situações em diferentes áreas na qual podemos lançar mão da multivariada, são as seguintes: • Agronomia: prever o genótipo de um determinado fruto com base em informações referentes ao número total de frutos por hectare, o peso médio dos frutos, o peso total médio por unidade de área, o número médio de frutos por planta e outras informações como o índice de formato e o °Brix; • Zootecnia: estudar a relação entre as características de manejo e de criação de gado com as características da carne após o abate. Se os animais estiverem separados em grupos de acordo com algum tratamento, pode ser necessário utilizar a análise de variância multivariada para comparar as médias desses grupos em um determinado conjunto de variáveis respostas; • Medicina: como as reações dos pacientes a um determinado tratamento são mensurados por diversas variáveis respostas e possuem difícil diagnostico, as técnicas de multivariada podem construir uma medida de resposta simples ao tratamento, que preserva a maior parte da informação das múltiplas variáveis respostas; • Biologia: em melhoramento genético de plantas é necessário, após o final de uma geração, selecionar aquelas plantas que serão os genitores da geração seguinte, portanto, a seleção deve ser realizada a fim de se obter uma próxima geração que seja melhor que a anterior em relação a resposta média de uma série de características, daí, as técnicas de multivariada podem ser utilizadas para converter os valores de uma série de características em um índice, que é utilizado para a escolha dos futuros genitores. Você leu a pergunta, antes de tentar copiar material introdutório de multivariada? Isto veio diretamente de algum livro-texto, sem qualquer parada para pensar no caminho, infelizmente. 0,25 11. [] (IP:281474038335825 | 12:42:21 | 19:27:48 | 45:27 | 32.527) Diferencie interação e efeito principal. Entende-se por efeito principal como sendo o efeito de cada fator, independentemente do efeito dos outros, já interação corresponde ao efeito simultâneo dos fatores sobre a variável em estudo, portanto, ocorre interação entre os fatores quando os efeitos dos níveis de um fator são modificados pelos níveis do outros. Ok 1 12. [] (IP:281474038335825 | 12:43:29 | 19:29:22 | 45:53 | 77.777) Qual a principal vantagem do uso de regressões não lineares? Sua principal vantagem em relação ao modelo linear refere-se ao fato de que esta melhor se adequa aos comportamentos ou fenômenos ocorridos biologicamente, ou seja, os modelos de regressão não lineares (p. ex. exponencial e logarítmico) se aproximam ou expressam uma mais perfeita realidade das atividades descritas no âmbito biológico, como o crescimento vegetal em função de diferentes níveis de adubação nitrogenada (kg ha-1), na qual se observa, por exemplo, que até certo nível de incremento de nitrogênio (N) a planta apresenta crescimento de caráter linear crescente, contudo, em determinado nível de adubação este crescimento cessa ou reduz drasticamente, ou seja, o crescimento se estabiliza, configurando agora um comportamento distinto daquele visto inicialmente. Desta forma inferimos que o crescimento vegetal não está sendo mais compensando pelas elevadas doses de N e que praticamente a planta não sofrerá aumentos no seu crescimento (“Y”) a partir de uma determinada dose “x” (kg ha-1), sendo este comportamento melhor descrito por meio de uma regressão não linear do tipo exponencial. Ok 1 13. [] (IP:281474038335825 | 12:44:17 | 19:30:53 | 46:36 | 75.162) Quais são os principais critérios a avaliar durante o planejamento de uma amostragem? Os principais critérios na qual devemos avaliar sobre o planejamento de uma amostragem refere-se à representatividade que estas amostras terão sobre a população em estudo, ou seja, estas deverão descrever com maior precisão possível sobre as características intrínsecas ou comportamento da população. Outro critério diz respeito ao fato de que a amostragem deve ser realizada de forma aleatória, ou seja, obtidas ao acaso. Característica essencial na estatística, pois desta forma podemos tomar conclusões baseadas na variação do acaso. E quanto ao número de amostras quanto maior melhor, pois assim teremos maior representativa como também teremos menor variação do acaso. Ok 1 14. [] (IP:281474038335825 | 12:44:59 | 19:34:26 | 49:27 | 8.004) Discuta a afirmativa: "A escolha correta do delineamento poderá fazer a diferença entre encontrar ou não diferenças entre os tratamentos", levando em consideração particular o tamanho do efeito de tratamentos A escolha do delineamento está intrisecamente ligada à aplicação ou não do controle local, bem como a forma de aplicação do mesmo, tendo por objetivo diminuir a variação do acaso, considerando que quanto melhor o controle local menor será a variação do acaso e maiores serão as chances de que sejam encontradas diferenças significativas entre os tratamentos, uma vez que torna-se mais seguro confirmar que os efeitos são provenientes dos tratamentos e não da variação do acaso. Este fato aumenta, portanto, a precisão do experimento. Para o Delineamento Inteiramente Casualizado (DIC), pela homogeneidade do ambiente ou pela ausência de informações acerca da heterogeneidade não se faz uso do controle local, configurando-se como um delineamento simples, com apenas duas fontes de variação (tratamento e variação do acaso). Já o Delineamento em Blocos Casualizados (DBC), há a formação de blocos com o objetivo de tornar um ambiente heterogêneo em subgrupos mais homogêneos, permitindo a análise apenas do efeito dos tratamentos, ressaltando a existência de mais uma fonte de variação que será os blocos. Esta explanação torna-se importante para visualizarmos que a escolha do delineamento é em função do ambiente e caso esta escolha seja realizada equivocadamente, o experimento pode apresentar algumas imprecisões. Caso haja a escolha pelo DIC quando deveria escolher o DBC, deixa-se de aplicar o controle local por considerar que a área é suficientemente homogênea para avaliar apenas o efeito dos tratamentos. Contudo, a heterogeneidade da área, não devidamente reconhecida, poderá influenciar na relação existente entre efeito do tratamento e efeito da variação do acaso e consequentemente pode-se atribuir erroneamente a ausência de efeito dos tratamentos quando na verdade existe diferença ou que há diferenças entre os tratamentos, quando, de fato, esta variação é devida ao acaso. Caso a escolha seja pelo DBC quando deveria ter optado pelo DIC, há um maior consumo de graus de liberdade (GL) na aplicação do controle local (blocos) desnecessariamente. O consumo de GL pela aplicação do bloco resultará no aumento do Quadrado Médio do Resíduo, que este afetará no valor de Fcalculado, subestimando-o. A subestimação pode acarretar em conclusões erradas sobre o experimento, como por exemplo, inferir que os tratamentos não diferiram entre si, já que o resíduo mostrou-se muito maior e, portanto, a variação ocorrida no experimento pode ser satisfatoriamente explicada pelos erros experimentais. Ler a pergunta sempre é uma boa ideia… eu pedi para levar em consideração o tamanho do efeito. Ou seja, escolher errado o delineamento é muito mais sério quando a diferença de efeito entre os tratamentos é pequena, do que quando é muito grande. Como exemplo, é muito mais difícil diferenciar pálio de gol do que pálio de Mercedes. Assim, mesmo que eu erre na escolha do delineamento provavelmente não vou dizer que pálio não é diferente de Mercedes, mas preciso fazer tudo muito certinho no experimento para separar pálio e gol 0,5 15. [] (IP:281474038335825 | 12:47:33 | 19:36:25 | 48:52 | 12.07) Um experimento vai avaliar o efeito de cinco fontes de carboidratos no desenvolvimento de 100 estirpes rizobianas, em placa de petri (16 cm de diâmetro x 3 cm de altura) com cinco repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas O arranjo experimental será de 5 x 100 (5 fontes de carboidratos e 100 estirpes rizobianas) com 5 repetições totalizando 2500 unidades experimentais, o delineamento experimental adotado será o de blocos casualizados. A justificativa pela qual se optou pelo delineamento em blocos casualizados refere-se a limitação quanto à realização do experimento, no que tange ao tempo de avaliação do desenvolvimento das estirpes, tendo em vista, a inviabilidade de se avaliar 2500 placas de petri em um dia por um único operador (considera-se um único operador para diminuir os erros experimentais). Desta forma, o delineamento mais adequado seria em blocos, visando obter uma maior homogeneidade quanto à avaliação, ou seja, 300 placas avaliadas por dia. O experimento conterá 5 blocos onde cada bloco teremos 1 repetição para cada tratamento. Fonte de variação GL Tratamento 499 Bloco 4 Resíduo 1996 Total 2499 Como infelizmente foi comum, acertou no fatorial no texto, e errou na ANOVA. 0,25 16. [] (IP:281474038335825 | 12:49:19 | 19:37:10 | 47:51 | 11.54) Devemos tomar algum cuidado em particular ao combinar os fatores para a formação dos tratamentos? Sim, em especial quando o nível de um fator for dito como zero (0), daí teremos tratamentos iguais. Este caso pode ser melhor entendido por meio do seguinte exemplo: Considere o seguinte arranjo fatorial 3 x 6 onde temos 3 fontes de silício Si (SiCa, AgroSi e Escória) com 6 doses de Si (0, 2, 4, 6, 8 e 10 g kg-1 solo), note que um dos níveis do fator dose é zero (0) o que resultará em tratamentos iguais e consequentemente problemas no momento na análise estatística em circunstâncias em que a dose zero das diferentes fontes serem diferentes a certo nível de significância o que dificulta em muito a explicação. O correto e mais econômico para esta situação é adotarmos a dose zero (0) como tratamento adicional ao fatorial, ou seja, 3 (fontes) x 5 (doses) + 1 (0 mg kg-1 = controle) em que a dose 0 será avaliada fora do fatorial. Ok 1 17. [] (IP:281474038335825 | 12:50:28 | 19:44:21 | 53:53 | 10.587) Discuta diferentes critérios para seleção da melhor regressão linear múltipla. Os diferentes critérios de seleção para assim determinarmos o melhor modelo de regressão múltipla consiste basicamente na avaliação dos seguintes parâmetros: R2 (coeficiente de determinação do modelo), R_a^2 (coeficiente de determinação do modelo ajustado), Valor de F (analise de variância de cada modelo), QMR (quadrado médio dos resíduos), SQR (soma dos quadrados dos resíduos), Cp (Cp de Mallows) entre outros como o AIC, BIC e critério PRESS. - Coeficiente de determinação (R2): este método baseia-se na observação dos valores determinados para o R2 (varia de 0 a 1) de acordo com o ajuste do modelo de regressão múltipla, logo, se adicionarmos uma variável insignificante ao modelo teremos um aumento mínimo de R2. Daí deve-se escolher o modelo com maior R2 que substancialmente explique o que ocorre no fenômeno. Contudo, sua empregabilidade tem sido mais voltada em determinarmos o quando de cessarmos de adicionar variáveis ao modelo, ao invés de encontrar o melhor, tendo em vista que os valores de R2 não reduzem quando adicionamos mais variáveis; - Coeficiente de determinação ajustado (R_a^2): No intuito de minimizarmos erros decorrentes da análise incorreta do R2 para alguns é preferível usar o R_a^2, não necessariamente este aumenta com a adição de variáveis ao modelo (p + s(conj. variáveis)), contudo apresentará valores superiores quando na analise de F entre os modelos (p e p + s) apresentar aumento do efeito das variáveis incluídas. Consequentemente, o critério de escolha baseado no R_a^2 consiste em escolher o que apresentar valor máximo; - F (resultado da análise de variância): entende-se neste critério que na avaliação dos modelos aquele que apresentar um maior efeito devido ao tratamento sobre o acaso (valores de Faltos ou melhores significâncias Pr < F) deverá ser escolhido como o que melhor representa o comportamento em estudo; - QMR (quadrado médio dos resíduos): neste método inferimos que quanto menor for o QMR de um modelo consequentemente maior será o R_a^2, portanto, modelos nos quais apresentem reduzidos valores para o QMR deverão ser escolhidos como os de melhor ajuste; - SQR (soma dos quadrados dos resíduos): tem o mesmo principio do critério anterior, tendo em vista que este é um componente utilizado na determinação do QMR, contudo, apresenta certa limitação quando a dependência do tamanho da amostra; - Cp (Cp de Mallows): este critério baseia-se no conceito de erro quadrático médio dos valores ajustados e pode determinado pela seguinte equação: C_p=〖SQR〗_((p))/QMR-n+2(p+1) em que SQRp é a soma dos quadrados dos resíduos do submodelo, QMR o quadrado médio do modelo máximo, n número de amostras e p o número de variáveis. Logo, a estratégia de seleção de modelos baseada no Cp consiste em encontrar modelos com valores de Cp próximo do número de parâmetros (p +1). Por exemplo, considere dois modelos de regressão: Modelo 1 – com apenas 1 variável e com valores de SQR = 34.419 e QMR = 1.220, calculando o Cp temos o seguinte resultado; C_p= 34.419/1.220-14+2×2=18,21 Modelo 2 – com duas variáveis e valores de SQR = 13.421 e QMR = 1.220, calculando o Cp temos o seguinte resultado; C_p=13.421/1.220-14+2×3=3 Portanto, pode-se afirmar que o modelo 2 é aquele cujo valor de Cp melhor se aproximou do número de parâmetros (p + 1) e por isso no critério de escolha adotado ele deve ser escolhido. Ok, embora descrição ≠ discussão 1 18. [] (IP:281474038335825 | 12:52:14 | 19:47:33 | 55:19 | 13.019) Será conduzido um projeto para avaliar a reciclagem de nutrientes em pastagens, caatinga e mata atlântica, ao longo do tempo. Para este fim será realizada a coleta da produção natural de serrapilheira, seu conteúdo de nutrientes e sua decomposição. O projeto também deverá avaliar a biomassa presente em cada ecossistema, bem como características microbiológicas, químicas e de física do solo. Deverão existir repetições reais em cada ambiente. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. O experimento é exploratório, ou seja, se configura como sendo um trabalho amostral, onde não podemos aplicar nenhum tipo de delineamento experimental. Portanto, os tratamentos consistirão das amostragens realizadas nos três ecossistemas (pastagem, caatinga e mata atlântica) em estudo ao longo do tempo para se efetuar as devidas avaliações da serrapilheira, da biomassa e da camada superficial do solo nos distintos ecossistemas. Para a amostragem da serrapilheira serão utilizados cinco coletores de madeira distribuídos aleatoriamente em cinco pontos de cada ecossistema, de forma que esta amostragem seja a mais representativa possível de cada área avaliada. Logo, deste material coletado serão avaliados a sua taxa de decomposição como também seu conteúdo de nutrientes. Quanto a amostragem do solo esta será executada na camada de 0 – 0,1 m de profundidade o que corresponde a camada de deposição de serrapilheira no solo. Para cada área (pastagem, caatinga e mata atlântica) serão coletadas cinco amostras simples para compor uma amostra composta e cada área conterá cinco amostras compostas a cada tempo de avaliação. A amostragem do solo será realizada próxima aos coletores de serrapilheira assim como a produção da biomassa nos diferentes ecossistemas. A análise estatística dos resultados foi realizada por meio de estatística descritiva por meio da aplicação de medidas de tendência central (média), medida de dispersão (desvio-padrão) e seus respectivos coeficientes de variação (CV). Os resultados serão apresentados por meio de tabelas e figuras (gráficos de colunas), da seguinte forma: Figuras - Figura 1. Produção média de serrapilheira (g m-2) de diferentes ecossistemas (pastagem, caatinga e mata atlântica) ao longo do tempo de avaliação (este tempo pode ser de mês em mês ao longo de um ano, por exemplo, vai depender da proposta do trabalho). No eixo x do gráfico fica os diferentes tempos de avaliação e no eixo y a produção de serrapilheira; - Figura 2. Taxa de decomposição média da serrapilheira (g dia-1) de diferentes ecossistemas (pastagem, caatinga e mata atlântica) ao longo do tempo de avaliação. No eixo x do gráfico fica os diferentes tempos de avaliação e no eixo y a produção de serrapilheira; - Figura 3. Produção média de biomassa (Mg ha-1) de espécies presentes nos biomas pastagem, caatinga e mata atlântica ao longo do tempo de avaliação; Tabelas - Tabela 1. Caracterização microbiológica do solo nos diferentes ecossistemas (pastagem, caatinga e mata atlântica) ao longo do tempo de avaliação C-BMS(µgC/g) C-CO2(µg/g.dia) qMIC(%) tempo1 x (±d) tempo2 tempo3 tempo4 tempo(n) CV *C-BMS (carbono da biomassa microbiana do solo), - O2 (respiração basal), qMI (quociente microbiano), x (média), ±d (desvio-padrão), CV (coeficiente de variação) e n (número de tempo de avaliação) - Tabela 2. Caracterização química da camada superficial (0 – 0,1m) do solo nos diferentes ecossistemas (pastagem, caatinga e mata atlântica) ao longo do tempo de avaliação pH(água) Ca2++Mg2+ Ca2+ K+ P N tempo1 x (±d) tempo2 tempo3 tempo4 tempo(n) CV *pH (relação 1;2,5 – solo : água), Ca2++Mg2+, Ca2+ e K+ (resultado em cmolc dm- ), (resultado em mg dm- ), N (dag kg-1), x (média), ±d (desvio-padrão), CV (coeficiente de variação) e n (número de tempo de avaliação). - Tabela 3. Caracterização física da camada superficial (0 – 0,1m) do solo nos diferentes ecossistemas (pastagem, caatinga e mata atlântica) ao longo do tempo de avaliação Ds(gcm-3) Areia(%) Silte(%) Argila(%) tempo1 x (±d) tempo2 tempo3 tempo4 tempo(n) CV x (média), ±d (desvio-padrão), CV (coeficiente de variação) e n (número de tempo de avaliação) Meus parabéns. Foi tão bom que vou dar meio ponto de bônus 1,5 19. [] (IP:281474038335825 | 12:56:29 | 19:48:10 | 51:41 | 34.321) Discuta a afirmativa: "A maioria dos problemas do fatorial é derivada de uso inadequado dele" Esta afirmativa descreve uma realidade quanto aos principais problemas relacionados ao emprego do fatorial. Isso se deve a escolha do tipo de fatorial (simples, parcelas subdivididas e medição repetida) a ser empregado na experimentação, ou seja, em muitos casos por motivos de simplificação ou por falta de conhecimento adequado adota-se o fatorial simples quando na verdade o emprego mais coerente seria o de medição repetida, a exemplo de trabalhos em que avaliamos crescimento vegetal ao longo do tempo ou níveis de adubação ao longo das profundidades do perfil do solo. Portanto, como a escolha do tipo de fatorial influi na forma em que analisamos os dados esses tipos de erros refletirão na perda de precisão e exatidão do experimento acarretando sérios problemas. Medição repetida não tem nada a ver com fatorial… e na realidade a resposta tem relação muito pequena com a pergunta, já que não falei nada na comparação entre os tipos de fatorial, e sim no fatorial em geral… 0 20. [] (IP:281474038335825 | 12:57:18 | 19:49:19 | 52:01 | 15.195) Discuta as aplicações da medição repetida em solos. Existem várias aplicações para medições repetidas quando associamos à realidade da pesquisa voltada para a ciência do solo, dentre elas, vale salientar: - efeito de corretivos nas camadas do solo: Quando avalia-se o efeito do gesso na neutralização do alumínio trocável, é importante destacar que mesmo com a aplicação em superfície, o efeito do sulfato reagindo com o Al será observado em subsuperfície, assim como trará também maior aporte de cálcio para a camada subsuperficial. Este efeito ratifica a ideia de que o que acontece nas menores profundidades afeta o que ocorre nas maiores profundidades. - incubação de solo – comportamento de adsorção de metais pesados: Em experimentos que visam observar o comportamento de metais pesados no solo, em termos da especiação e, consequentemente, das frações do solo nas quais estes elementos são encontrados ao longo do tempo, faz-se necessária a adoção da medição repetida. A base destes experimentos relacionados com o processo de adsorção de metais pesados no solo é a coleta de várias amostras de solo em cada unidade experimental (vaso contendo determinada concentração de fósforo e/ou metais pesados) ao longo do tempo (0, 15, 20, 30 e 60 dias) para avaliar as diferentes frações do elemento no solo (através de fracionamento do solo). É notório o princípio de que várias medições (várias amostragens) da mesma variável (chumbo, por exemplo) são realizadas em uma mesma parcela (vaso) ao longo do tempo, evidenciando que a forma na qual o metal está adsorvido aos colóides do solo aos 60 dias, depende de processos que ocorreram antes deste período, havendo, neste caso, dependência entre as medições de uma variável. - avaliação do teor de argila no solo (processo de eluviação e iluviação): Em análises que relacionem o teor de argila ao longo do perfil do solo, faz-se necessária a coleta em diferentes profundidades, contudo, deve-se utilizar a medição repetida, já que um processo de iluviação (deposição de material, inclusive argila) como resultado de um deslocamento de material de camadas mais superficiais através da ação da água (eluviação) pode ocorrer e, neste caso, visualizamos a interação existente entre as camadas (existência de dependência). - avaliação de parâmetros químicos no solo: Vários parâmetros químicos do solo podem ser avaliados a exemplo do cálcio. Em experimentos onde são coletadas amostras de solo para analisar os teores de Ca nas diferentes camadas de solo (0-20cm; 20-40cm e 40-60cm) deve-se ter em mente que a análise deve ser feita considerando as medições repetidas, uma vez que processos que tenham ocorrido na profundidade de 020cm (por exemplo, adubação, aplicação de gesso, ou até um processo de lixiviação) interferem na presença e concentração de Ca na camada de 20-40cm e talvez até na profundidade de 40-60cm. Não consegui identificar qualquer discussão, apenas citação de alguns exemplos. No entanto, os exemplos estão muito bem escolhidos. 0,75 21. [] (IP:281474038335825 | 12:58:03 | 19:49:53 | 51:50 | 30.748) Podemos esperar o mesmo grau de eficiência dos diferentes tipos de fatorial? Não, pois quando comparamos o fatorial simples com o de parcelas subdivididas teremos uma maior variação do acaso no tipo parcela-subdividida quando comparo com o simples, devido ao efeito da divisão das parcelas em principais e subparcelas. Essa maior variação do acaso refletirá em menor eficiência na análise estatística dos resultados. Na realidade não é que a variação do acaso seja maior, apenas o QM é que é maior, já que a mesma variação do acaso está distribuída por menos GL. No entanto, está certo em linhas gerais. 1 22. [] (IP:281474038335825 | 12:59:07 | 19:52:19 | 53:12 | 29.298) Como o número de níveis de um fator pode afetar a precisão dos demais fatores de um experimento? Por meio do aumento ou redução das repetições reais dos outros fatores envolvidos, ou seja, quando decidimos aumentar ou trabalhar com maiores níveis de um fator isto refletirá em um maior número de repetições reais dos demais fatores envolvidos, aumentando dessa forma a precisão, pois com um maior número de repetições aumentamos a certeza do que é efeito do acaso ou do tratamento. Contudo, a redução no número de níveis de fator reduzirá o número de repetições dos demais fatores, o que resultará em menores repetições e consequentemente menor precisão. Como exemplo, citamos dois experimentos demonstrando como o número de repetições é influenciado pelos níveis dos fatores: - Experimento 1: 4 doses de Si (fator 1) x 5 variedades de milho (fator 2) x 3 repetições Repetições reais (fator 1) = 5 x 3 = 15 repetições Repetições reais (fator 2) = 4 x 3 = 12 repetições - Experimento 2: 6 doses de Si (fator 1) x 5 variedades de milho (fator 2) x 3 repetições Repetições reais (fator 1) = 5 x 3 = 15 repetições Repetições reais (fator 2) = 6 x 3 = 18 repetições Como observado nos dois experimentos o nível de um fator influi no número de repetições reais do outro fator envolvido no fatorial. Excelente 1 1. [] (IP:281473660056925 | 00:01:34 | 22:56:52 | 55:18 | 0.548) Diferencie repetição real, repetição experimental, e réplica. Resposta 1: A repetição real é o número de vezes que um nível do fator vai aparecer em um experimento proveniente das combinações de cada nível do fator com os níveis dos outros fatores utilizados. A repetição experimental é a repetição do experimento como um todo. A réplica é usada para medir as variações de analises de laboratório, a réplica não possui variação do acaso, apenas possui variação dos equipamentos de leitura ou do operador. Excelente 1 2. Discuta as aplicações da medição repetida em solos. Resposta 2: As medidas repetidas são empregada para indicar medidas feitas na mesma variável ou na mesma unidade experimental em mais de um período. As medições repetidas podem ser utilizadas na área de ciência do solo, principalmente na sub área de conhecimento de gênese e classificação do solo, devido esta sub área não apresentar outras estatística aplicável a analise dos dados referentes dos estudos de gênese e classificação. As ocorrências mais comuns são usadas em experimentos de fertilidade do solo, onde os pesquisadores adotam medidas repetidas em diferentes tempos sobre uma unidade experimental, com a finalidade de verificar o seu comportamento ao longo do tempo, caracterizando as medidas repetidas no tempo, assim como exemplo temos os experimentos lançados para avaliarem o desenvolvimento de plantas, outro exemplo é a determinação de teores de nutrientes do solo em diferentes profundidades. Você notou que primeiro disse que é particularmente empregável em gênese, e depois em fertilidade, não notou? 1 3. [] (IP:281473660056925 | 00:02:13 | 22:57:50 | 55:37 | 30.523) Justifique a afirmativa: "Quanto mais informações temos, melhor a seleção do delinamento experimental" Resposta 3: Esta informação é verdadeira, pois quanto mais informações temos de uma área experimental, mais segura será a nossa decisão para definir o melhor delineamento experimental. Assim quanto mais informações eu tiver da área vou saber se ela apresentar ou não variações ao decorrer de toda a área experimental. Deste modo quando temos poucas informações eu não poderei afirmar com certeza se a área é homogênea ou heterogênea. Com base em um maior número de informações podemos então definir ser o delineamento experimental a ser utilizado é um delineamento inteiramente casualizado, delineamento em blocos casualizados ou em quadrado latino. Ok 1 4. [] (IP:281473660056925 | 00:02:19 | 23:03:14 | 00:55 | 7.925) Diferencie fatorial de parcela subdividida, em termos de uso. Resposta 4: A diferenciação em forma de uso pode ser entendida pelo o fato de os experimentos fatoriais avaliarem o experimento como um todo, já as parcelas subdivididas elas são divididas no experimento para facilitar o manejo e a condução do experimento. As parcelas subdivididas são um tipo especial de fatorial em que um fator é alocado dentro do outro, deste modo às parcelas têm tamanho diferentes para diferentes fatores, isto ocorre quando temos fatores que requerem uma maior quantidade de material experimental do que outros fatores. As parcelas subdivididas visa economizar áreas experimentais, sendo assim podemos reduzir a variabilidade se usa o fator que exige área maior para definir a parcela, e divide-se a parcela em sub-parcelas, em que serão distribuídos os níveis do outro fator que serão necessários em menores áreas. A principal característica das subparcelas é a casualização dos níveis dos fatores, que é feita em dois estágios: primeiro é casualizado os níveis de um fator nas parcelas, no segundo estágio casualizar-se os níveis do outro fator, nas subparcelas de cada parcela, deste modo cada uma das parcelas funciona como se fosse um bloco para receber os níveis do segundo fator. Nos experimentos fatoriais, todos os fatores são testados com um resíduo único, já nas parcelas subdivididas são testados em dois resíduos um com base de comparação dos tratamentos principais, blocos, linhas e colunas (se houver) e o segundo com base de comparação entre os tratamentos secundários e da interação tratamentos principais x tratamentos secundários. Ok 1 5. [] (IP:281473660056925 | 00:02:25 | 23:03:29 | 01:04 | 1.391) Caso uma interação seja significativa, devo discutir os efeitos principais ligados a ela? Justifique. Resposta 5: Esta afirmação esta errada, pois no caso de uma interação ser significativa, NÃO devo discutir mais os efeito principais, desde que os efeitos principais estejam envolvidos na interação.Quando avaliamos um experimento e a interação dos fatores for significativo o efeito principal deixar de interessa para discussão. Isto por que quando ocorre interação vamos discutir apenas a interação, os efeitos envolvidos nesta ou nestas interações. Logo quando ocorre uma interação não posso mais discutir os efeitos principais, por que não posso mais dizer que o fator A é melhor se o fator A depende de outros fatores, na interação um efeito principal influencia outro, e os resultados de um são dependentes do outro. Quando ocorre a interação entre os fatores a interação é significativa, o que mostra que os fatores que a compõem tem efeito dependente entre si na determinação dos resultados de um experimento, e a partir dai não faz mais sentido algum, discutir o efeito principal, pois o efeito das interações entre fatores serão maiores do que o efeito de um único fator, deste modo não faz sentido fazer a analise estatística de um efeito principal isoladamente, que participa de uma interação significativa, já que a discussão do efeito principal neste caso não seria válida, apenas é valida a discussão da interação. A resposta está correta, mas gostaria de saber de onde você tirou que uma frase que termina em ? é uma afirmativa… 1 6. [] (IP:281473660056925 | 00:02:38 | 23:03:54 | 01:16 | 23.152) Discuta a relação entre a regressão e um relacionamento causa-efeito. Resposta 6: NÃO, não existe relação entre regressão e um relacionamento causa-efeito. A regressão apenas representa matematicamente a relação entre tratamento e resposta dos dados trabalhados, não explica o que ocorre ou porque ocorre. A regressão é um modelo matemático que liga duas ou mais variáveis, podendo a variável dependente ser estimada a partir deste modelo. A regressão é uma ferramenta utilizada e já o relacionamento causa-efeito é uma decisão científica e não ferramental, por isto ambas não apresentam relação. Excelente 1 7. [] (IP:281473660056925 | 00:09:59 | 23:04:44 | 54:45 | 0.972) Discuta a afirmativa: "Amostragem é uma mistura de arte e ciência" Questão 7: Discuta a afirmativa: "Amostragem é uma mistura de arte e ciência" Resposta: Esta justificativa pode ser considerada verdadeira ou parcialmente verdadeira, pois quando vamos fazer uma amostragem de solo devemos usar a ciência para fazer amostragem que seja significativa para a área experimental e juntamente com a ciência posso usar a arte para implementar e complementar esta amostragem, pois muitas vezes podem ocorrer uma interação entre as áreas de conhecimento. A arte aqui relatada pode ser usada para fazer um coqui da área de coleta, desde que eu atenda os critérios para a amostragem. Embora a resposta esteja correta, a razão está completamente errada. A mistura se deve à necessidade de experiência prévia do pesquisador em identificar, muitas vezes de forma difícil de explicar para outros, porque a amostra deve ser coletada neste ou naquele ponto em particular. Isto é particularmente verdadeiro quando o número de amostras é muito reduzido, como acontece por exemplo em classificação de solos 0 8. [] (IP:281473660056925 | 00:10:22 | 23:05:34 | 55:12 | 20.417) Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado, explicando como é o relacionamento. Questão 8: Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado, explicando como é o relacionamento. Resposta: Podemos dizer que no modelo linear generalizado (MLG) é necessário que as variações ao acaso sejam independentes das ocasionadas pelos os tratamentos, com isto tornar-se possível o isolamento dos efeitos devido ao acaso. Relacionando o MLG com os princípios experimentais, temos que o principio da repetição relaciona-se com o efeito do tratamento, já que o MLG é de caráter aditivo e este componente é parte integrante do mesmo. O princípio da casualização nos assegura em termos de uma total independência dos efeitos ocorridos entre as parcelas experimentais, podendo dizer assim que seja entre as repetições do mesmo tratamento. Já o terceiro princípio experimental o controle local só é aplicado quando necessário e seu objetivo é permitir que não ocorrar variações bruscas nas médias da variação do acaso. A aplicação dos princípios experimentais nos proporciona reconhecer distintamente a ação devida ao tratamento daquele que poderia ocorrer devido a causas desconhecida, ou seja, as variações do acaso e este reconhecimento é dado por meio das observações que são apresentadas nas repetições de um mesmo tratamento. Isto é de suma importância, uma vez que o aparecimento de valores extremos atribui erros para a variação do acaso levando o experimento a uma situação de heterocedase e impossibilitando a determinação de um valor que represente a variação do acaso, que deve estar em homocedase para que possa ser isolada do efeito dos tratamentos. Meio confuso, mas ok 1 9. [] (IP:281473660056925 | 00:10:44 | 23:55:27 | 44:43 | 4.509) Qual a principal contribuição que podemos esperar da análise de componentes principais? A analise de componente principais é uma técnica estatística que pode ser utilizada para redução do numero de variáveis e para fornecer uma visão estatisticamente privilegiada ddo conjunto de dados. A análise de componentes principais fornece as ferramentas adequadas para identificar as variáveis mais importantes no espaço das componentes principais.A análise de componentes principais serão apresentados descrevendo os passos matemáticos e estatísticos a partir das necessidades de interpretação adequada da matriz de dados. O entendimento exaustivo do assunto requer o conhecimento de operações com matrizes e por isso optamos por uma abordagem conceitual usando as noções de álgebra linear. Os componentes principais são as novas variáveis geradas através de uma transformação matemática especial realizada sobre as variáveis originais. Esta operação matemática está disponível em diversos softwares estatísticos especializados. Cada componente principal é uma combinação linear de todas as variáveis originais. Por exemplo, um sistema com oito variáveis, após a transformação, terá oito componentes principais. Cada uma destas componentes principais, por sua vez, será escrita como uma combinação linear das oito variáveis originais. Nestas combinações, cada variável terá uma importância ou peso diferente. Q … vamos copiar, mas assim já é completamente ridículo. A impressão que passa é que vocês acham que ou eu não leio a resposta, ou que estão com preguiça de pensar… “O entendimento… optamos por uma abordagem…”. Se vai copiar, pelo menos tenta copiar fazendo sentido para a pergunta. Apenas a segunda frase de sua resposta tem o mínimo de relação com a pergunta diretamente, o resto é somente o inicio de algum texto de ensino, aparentemente no nível de graduação e com cara de apostila, para multivariada. Realmente é de deixar qualquer um irritado. 0 10. [] (IP:281473660056925 | 00:11:08 | 23:06:15 | 55:07 | 2.088) Compare as possíveis técnicas adotadas para seleção do modelo mais adequado para uma regressão linear múltipla. Questão 10: Compare as possíveis técnicas adotadas para seleção do modelo mais adequado para uma regressão linear múltipla. Resposta: Escolher bem o modelo mais adequado é importante, pois evita cometer o erro tipo I, sendo necessário adotar algumas técnicas para evitar que isto ocorra. Temos várias técnicas adequadas para a seleção da melhor regressão linear múltipla (RLM), dentre estes temos o modelo máximo que levam em consideração a seleção das variáveis que poderão entrar no modelo, que não possuem co-linearidade entre as variáveis, enquanto que especificar o critério de escolha possibilita selecionar valores adequados à regressão que sejam utilizados como melhor coeficiente de determinação, fator F, nível de significância, esta estratégia significa a avaliação do método que conduza ao critérios estabelecido, em que temos que testar todas as regressões possíveis, eliminação para trás, seleção para frente, stepwise (forward), stepwise (backward), NCSU, entre outros. Na condução da análise devemos, antecipadamente, checar as premissas básicas do MLG e colinearidade dos dados e posteriormente verificar a confiabilidade do modelo por meio de estudo confirmatório, entre outros. Uma técnica muito usado é o método stepwise para a seleção da regressão linear. Qualquer procedimento para seleção ou exclusão de variáveis de um modelo é baseado em um algoritmo que checa a importância das variáveis, incluindo ou excluindo-as do modelo se baseando em uma regra de decisão. De modo geral quanto maior a quantidade de variáveis melhor, em termo de confiabilidade. O método stepwise é uma mistura de técnicas, que permite avaliar a contribuição de cada variável independente para o modelo. Podemos usar também os modelos aninhados, onde um modelo está dentro do outro e são comparados o valor de F entre os modelos. Devemos começar com o modelo completo e retira uma por uma das variáveis e observa o que aconteceu, se ganhou ou perdeu. Comparação? 0,75 11. [0.000] (IP:0 | 00:13:19 | --:--:-- | --:-- | ------ ) Será conduzido um projeto avaliando o efeito de características edafo-climáticas de municípios representativos de cada microregião de Pernambuco sobre a microbiota do solo, incluindo diversidade microbiana, respiração, biomassa, quociente metabólico, população de fungos, nematóides e bactérias totais. Em cada municípios serão coletadas amostras de solo representativas de cada tipo de solo descrito no Zoneamento Agroecológico de Pernambuco, e coletados dados geoclimáticos juntos aos orgãos competentes. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. Em branco 0 12. [] (IP:281473660056925 | 00:18:22 | 23:07:57 | 49:35 | 0.946) Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor nível de um fator". Questão 12: Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor nível de um fator". Resposta: Não, não podemos dizer qual é o melhor nível de UM fator porque quando ocorrer a interação significativa, vou ter um fator influenciando outro fator, logo o nível de um fator só vai ter importância quando associado com outro nível de um fator. Quando não ocorrer a interação significativa, devermos então ter o melhor nível de um fator o qual poderá ser dado pelo o efeito principal. Ok 1 13. [] (IP:281473660056925 | 00:18:40 | 23:09:08 | 50:28 | 0.799) Um experimento vai avaliar a resposta de dez cultivares de soja a cinco inoculantes rizobianos, em campo, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Resposta: O delineamento para este experimento será o Delineamento em Blocos Casualizados (DBC), partindo do pressuposto que foram feito analises de solo e do ambiente e que os mesmos não apresentavam condições homogêneas, ou seja, devido o ambiente ser heterogêneo o delineamento a ser aplicado dever-se o DBC. Baseado ainda na heterogeneidade da área, o DBC será dividido em 4 blocos homogêneos. O experimento então deverá ser montado em um DBC e em ARRANJAMENTO fatorial, neste caso o fatorial será um de 10 x 5 (10 cultivares x 5 inoculantes) o que terá um total de 50 tratamentos vezes 4 repetições logo vamos ter um total de 200 repetições. O arranjamento fatorial vai ser usado por que não temos área limitada para colocar o experimento. O uso do experimento fatorial se justificar pelo o fato dos experimentos fatoriais simples serem bem mais eficientes, pois os mesmos apresentam uma maior precisão em relação ao arranjamento de parcelas subdivididas. Neste exemplo, o experimento será montado em um DBC composto por 4 blocos com 50 tratamentos cada (os tratamentos são formados pela a combinação dos cultivares pela os inoculantes), onde o total do experimento será de 200 repetições. Esquema da analise de variância para o experimento _____________________________________ Fontes de Variação --------- G. L -----------_____________________________________ Tratamento (50 – 1) = 49 Blocos 4-1 = 3 Resíduo 199 – (49 + 3) = 147 ______________________________________ Total (50 x4) -1 = 199 _______________________________________ Como em quase todas as respostas a este tipo de pergunta, identificou adequadamente que é um fatorial, calculou certo o número de tratamentos, depois pegou isto, e simplesmente jogou no lixo, já que a análise de variância não leva nada disto em consideração 0,25 14. [] (IP:281473660056925 | 00:19:05 | 23:09:35 | 50:30 | 0.82) Explique como a escolha do delineamento pode afetar a precisão do experimento. Resposta 14: A escolha do delineamento experimental também poderá afetar a precisão do experimento quando temos uma área totalmente homogênea e aplicamos o controle local, ou seja usamos o Delineamento em blocos casualizados (DBC) enquanto o delineamento correto para utilizamos era o delineamento inteiramente casualizado (DIC) desta maneira vamos esta afetando a precisão do experimento pelo o fato de estamos controlando um efeito, uma variação que não existe e com isso vamos ter perda de grau de liberdade. Podemos também afetar a precisão do experimento quando temos um ambiente que é heterogêneo (com grandes variações na área) e por equivoco ou por não te um conhecimento da área experimental, o pesquisador aplicou um DIC na área em vez de usar um DBC. Desta maneira vou afetar grandemente a precisão do experimento, isso ocorre por exemplo quando tenho diferentes culturas sendo testada em uma área experimental, vamos considerar que a área não seja homogênea logo as culturas que caírem no sorteio nas áreas com melhores condições vão ter melhor resposta o que vai afeta significativamente a precisão do experimento. Ok, mas embora reconheça as duas possibilidades, não demonstra claramente entender a generalização 1 15. | 23:10:43 | 51:01 | 24.219) Discuta o significado e possíveis implicações do AIC Resposta 15: Primeiramente vamos discutir o significado do AIC. O critério informativo de Akaike (AIC) é uma ferramenta para seleção de modelos, pois oferece uma medida relativa da qualidade do ajuste de um modelo estatístico, ou seja, o AIC é um índice que nos permiti escolhe o melhor modelo para a regressão. Este índice avalia ao mesmo tempo a qualidade de informação, qualidade da ligação entre as variáveis com o número de variáveis que é utilizada, assim como a quantidade de variáveis que entra, com a quantidade de dados explicados. O AIC não fornece um teste de um modelo no sentido usual de testar uma hipótese nula. O AIC é um teste de máxima verossimilhança para verificar se o modelo escolhido é o adequado. As implicações do AIC são em relação à escolha dos modelos utilizamos os valores de AIC para decidir qual é o melhor modelo a ser utilizado, sendo assim quando temos um conjunto de modelos candidatos, o modelo a ser utilizado é aquele que apresentar o menor valor de AIC (quanto menor for o valor de AIC melhor será o ajuste do modelo aos dados recolhidos). O importante é que o modelo se ajuste bem aos dados junto ao ponto (ou transecto). Este critério combina quanto o modelo explica com o número de variáveis usado para isto. Quanto menor, mais o modelo explica com o menor custo em número de variáveis. Outra aplicação do AIC é em modelo misto para selecionar qual modelo de co-variância é mais útil. ok 1 16. [] (IP:281473660056925 | 00:20:00 | 23:34:14 | 14:14 | 4.804) Explique porque podemos considerar que o nível de significância de uma regressão é menos crítico do que sua importância intrínseca. Resposta 16: A significância de uma regressão indica a chance máxima de uma variação ser devido ao acaso, a importância é o interesse principal da regressão, tendo em vista que a maioria das regressões são significativas isto as vezes pode não ser necessariamente importante. Muitas vezes experimentos são bem conduzidos e vão até apresentarem regressões significativas mais não vão serem importantes. Desta forma podemos considerar que o nível de significância de uma regressão é menos critico do que a sua importância intrínseca, já que as regressões geralmente são significativas. Ok 1 17. [] (IP:281473660056925 | 00:20:26 | 23:49:16 | 28:50 | 246.677) Um experimento foi realizado em casa de vegetação, estudando vinte e cinco inoculantes diferentes para quatro variedades de feijão, utilizando quatro repetições. Só há 50 potes disponíveis. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Resposta: Primeiramente este experimento NÃO poderia ser conduzido desta forma, pois eu tenho 25 inoculantes x 4 tipos de feijão logo teremos 100 tratamentos e apenas 50 potes, assim teremos um número de potes menores do que o número de tratamento, sendo assim em o experimento não poderá ser aplicado nem em delineamento inteiramente casualizado (DIC) e nem em delineamento em blocos inteiros casualizados (DBC). O experimento deverá ser realizado em Bloco casualizado incompleto parcialmente balanceado, devido o numero de tratamentos não caberem todos dentro de um mesmo bloco. Por este motivo deverá ser feito em Blocos incompletos. Fonte de variação G.L Repetição(r-1) 3 Tratamento(não ajustado)(k²-1) 99 Blocos (dentro das repetições)(r(k-1)) 36 Erros intrablocos(k-1)(rk-k-1) 261 Tratamento(ajustado)(k²-1) Total(rk2-1) 399 Assim como aconteceu no último caso em que esta situação apareceu, acertou o delineamento, que aliás não era minha intenção de solicitar, já que não havíamos discutido esta possibilidade, mas esqueceu completamente o fatorial. Só se livrou porque conseguiu cobrir bem o outro problema. 1 18. [] (IP:281473660056925 | 00:21:04 | 23:13:06 | 52:02 | 0.812) Um experimento foi conduzido em laboratório estudando a resistência de 100 estirpes rizobianas a três temperaturas. Serão utilizadas dez repetições e as estufas bacteriológicas disponíveis só cabem 500 placas de petri de cada vez. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Resposta: O delineamento a ser usado deverá ser o Delineamento em blocos casualizados (DBC), devido ao limite das estufas de só caberem 500 placas de Petri por vez e devido as LIMITAÇÕES OPERACIONAIS da equipe de fitopatologistas que vão fazer a observação das placas. Com isso o DBC contará com 10 blocos, como temos 100 estirpes com 3 temperaturas diferentes vamos ter um total de 300 tratamentos. Os 300 tratamentos x 10 repetições dará um total de 3000 repetições. Logo as 3000 repetiçoes serão divididas em 10 blocos totalizando 300 placas por blocos. Esquema da analise de variância para o experimento _____________________________________ Fontes de Variação ----- G. L -----------_____________________________________ Tratamento (300 – 1) = 299 Blocos 10-1 = 9 Resíduo 2999 – (299 +9) = 2.691 ______________________________________ Total (300 x10) -1 = 2.999 _______________________________________ Mesmo problema de sempre 0,25 19. [] (IP:281473660056925 | 00:21:22 | 23:13:12 | 51:50 | 4.889) Discuta a importância da repetição real, e suas consequências na avaliação dos fatores. Resposta: O número de repetição real significa quantas vezes um determinado fator que compõe seu tratamento vai aparecer no experimento, ao qual está relacionado com os níveis dos fatores e com o número de repetições físicas do experimento, como pode haver diferentes números de níveis para cada fator, cada nível de um fator pode aparecer em quantidades diferentes. A importância e consequência da repetição real na avaliação de fatores é que a mesma nos permite estuda os efeitos principais dos fatores caso não ocorra interação entre eles. Uma grande importância da repetição real é que assim teremos um número maior de repetições e com isto é possível verificar melhor a diferença entre cada fator e a relação entre estes, além de ser mais fácil separar o efeito do acaso do efeito do tratamento. Ok 1 20. [] (IP:281473660056925 | 00:22:13 | 23:15:31 | 53:18 | 1.353) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. Resposta 20: A heterocedase corresponde a variação do acaso diferente, o que é o contrário de um dos parâmetros para aplicação do modelo linear generalizado que é a homocedase, ou seja, a heterocedase impossibilita um dos pontos do modelo linear generalizado que é a possibilidade de atribuir a influencia de um mesmo acaso em todos os tratamentos nas diferentes parcela. A heterocedase pode vim a acarreta na elevação do nível de significância, aumentando assim o erro tipo I, o que pode induzir o pesquisador a conclusões erradas. Quando ocorre a heterocedase não é possível encontrar um valor que represente as variações do acaso, visto que, o próprio acaso variou entre si sem ser possível sua representatividade por um único valor. Como maneira eficaz para prevenir a heterocedase podemos adotar um maior controle no experimento, o qual dever ser realizada desde simples trabalhos como pesagens e medidas garantindo assim a maior exatidão até o uso de controle local para garantir que seja mínimas as variações do acaso e para garantir que os efeitos observados sejam apenas dos tratamentos, para prevenir a heterocedase também podemos fazer o uso de testes tais como de Cochran, Hartley e Bartlett os quais são utilizados para verificação da homocedase. Ok 1 21. [] (IP:281473660056925 | 00:22:33 | 23:16:49 | 54:16 | 7.38) Compare os efeitos principal e secundário de uma interação, do ponto de vista das informações que podem ser obtidas a partir deles. Resposta 21: O Efeito principal de uma interação é o efeito de cada fator isolado, ou seja, de cada fator como se fosse o único efeito sendo estudado no experimento, neste caso cada fator tem o seu efeito principal. O Efeito secundário ocorre quando ha interações entre os fatores estudados, neste caso podemos dizer que um ou mais fatores vai (vão) afetar a resposta de outro fator. Quando a interação não é significativa vou discutir cada efeito isoladamente. Quando a interação é significativa não faz mais sentido algum, discutir o efeito principal. Como exemplos podemos considerar que temos dois sistema de plantio: o direto e convencional, e a soja plantada com ou sem a nodulação de rizóbios. Neste caso, se não houver interação vamos discutir o efeito principal dizendo qual é o melhor sistema de plantio e qual é a melhor soja com o sem nodulação. Caso ocorra interação significativa entre os fatores vamos discutir apenas a interação, por que a partir dai já não faz mais sentido esta discutindo o efeito principal. Então vamos dizer qual foi a melhor soja baseado em um dos sistemas de plantio, e qual foi o melhor sistema de plantio com base em uma soja, seja ela com o sem nodulações. A respeito das informações que podemos retirar destes efeitos são que quando ocorre a interação, ela explica mais do que o efeito principal, por que na interação estamos explicando o que esta acontecendo devido à interação dos fatores, assim explicamos um resultado com base do que esta acontecendo no conjunto de fatores. Quando ocorre a interação podemos dizer o quanto que um fator afeta o outro fator. Quando não ocorrer a interação podemos dizer que os fatores são independentes entre sim. Efeito principal de uma interação é simplesmente doloroso, mas vou dar um desconto, já que pelo menos parte da culpa é da forma como escrevi a questão (erradamente) 1 22. [] (IP:281473660056925 | 00:22:53 | 23:34:09 | 11:16 | 1009.639) Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de informação que podemos tirar deles Resposta 22: Os testes de hipótese podem ser o teste F (para a analise de variância), e os de comparação de médias teste t de Student, teste de Tukey e o teste Qui Quadrado. O teste F, consiste na decomposição da variância total, tem por finalidade comparar estimativas de variâncias e dos graus de liberdade em partes que podem ser atribuídas a causas conhecidas e independentes (fatores que podem ser controlado) e a uma porção residual de origem desconhecida e natureza aleatória (fatores não controlados). Quando o teste F for significativo e tivermos comparando apenas dois tratamentos não precisar-se aplicar nenhum outro teste para saber se a hipótese é aceitável ou não, no entanto quando há mais de dois tratamentos, fazendo apenas o teste de F não podemos indicar qual o melhor tratamento, sendo então necessário aplicar os testes de comparação de médias que pode ser o teste t de Student que server para comparamos médias de dois tratamentos ou médias de dois grupos de tratamentos nos casos em que o contraste tem mais de duas medias envolvidas. Outro teste é o Tukey que é muito utilizado por ser bastante rigoroso e de fácil aplicação, este teste não permite comparar grupos de tratamentos entre si, ele é utilizado para testar toda e qualquer diferença entre duas médias de tratamento. Outro teste é o Qui Quadrado, que é um teste de hipóteses, que apresenta como objetivo encontrar um valor da dispersão para duas variáveis nominais, avaliando a associação existente entre variáveis qualitativas. Este teste não depende dos parâmetros populacionais, como média e variância. O Qui Quadrado buscar possíveis divergências entre as frequências observadas e esperadas para certo evento. As informações que podermos retirar com os testes de hipóteses esta relacionada em dizer se o nossos tratamentos estudados são iguais ou diferentes ao já existente (H0), o teste F quando comparamos apenas dois tratamentos pode nos dizer qual é o melhor tratamento, quando estamos avaliando três ou mais tratamentos aplicamos os teste de comparação de média que nos dirá qual tratamento apresentar os melhores resultados e/ou os piores, e também mostrará quais tratamentos são iguais estatisticamente. Muitas vezes as informações nos testes de hipótese podem esta relacionadas a erros que são o erro tipo I e tipo II. A escolha da melhor hipótese alternativa tem importância por influenciar no poder do teste, que é definido como sendo a probabilidade de rejeitar H0, quando ela for falsa, ou aceitar H1, quando ela for verdadeira. Confuso, mas ok em linhas gerais 1 1. [] (IP:281473857232357 | 11:28:32 | 23:35:39 | 07:07 | 167.094) Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor nível de um fator". Resposta: Quando avaliamos um fatorial, podemos avaliar o efeito principal de cada fator, analisado individualmente ou quando ocorrer interação significativa entre os fatores devemos fazer a avaliação da interação, não sendo necessário realizar a avaliação dos efeitos principais dos fatores participantes daquela interação. Logo, a afirmativa acima não é verdadeira, uma vez que a interação é o resultado da interação dos dois fatores não podendo separar o que é de cada fator por isso quando ocorre interação o efeito do fator isoladamente é ignorado, pois a interação é superior ao efeito isolado de um fator. Ok 1 2. [] (IP:281473857232357 | 11:29:45 | 23:40:47 | 11:02 | 305.389) Porque podemos afirmar que a hipótese é o ponto mais importante de um projeto de pesquisa Resposta: Sim, pois a hipótese é o ponto chave de um projeto de pesquisa, ela é que vai direcionar as todas as atividades e análises a serem feitas, tanto como o a forma como o experimento será conduzido e quais análises estatísticas serão feitas. Ok 1 3. [0.000] (IP:0 | 11:30:47 | --:--:-- | --:-- | ------ ) Discuta diferentes estratégias para seleção do melhor modelo de regressão linear múltipla Em branco 0 4. [0.000] (IP:0 | 11:31:03 | --:--:-- | --:-- | ------ ) Devemos tomar algum cuidado em particular ao combinar os fatores para a formação dos tratamentos? Em branco 0 5. [] (IP:281473857232357 | 11:31:25 | 23:42:00 | 10:35 | 8.194) Todo fatorial com o mesmo número de tratamentos tem o mesmo grau de complexidade? R: Não. Pois o grau de complexidade de um experimento é dado pelo número de fatores e não pelo número de tratamentos. Por exemplo, um experimento com dois fatores um com quatro níveis e outro com dois, serão no total oito tratamentos. Outro experimento, com três fatores cada um com dois níveis, serão no total oito tratamentos, semelhantemente ao primeiro experimento, contudo neste último pode ser que apareça um interação tripla, enquanto no experimento anterior o máximo que pode aparecer são interações duplas, sendo a interação tripla mais complexa. Excelente 1 6. [0.000] (IP:0 | 11:31:40 | --:--:-- | --:-- | ------ ) Descreva situações em que o uso da multivariada seria interessante em trabalhos de experimentação. Em branco 0 7. [] (IP:281473857232357 | 11:31:53 | 23:43:01 | 11:08 | 17.236) Discuta as aplicações da medição repetida em solos. Resposta: Em solos, as medições repetidas podem ser utilizadas principalmente na área de gênese e classificação do solo, já que não é viável a utilização de outras análises estatística nessa situação. Esta consiste de medições de uma mesma unidade experimental ao longo do tempo a fim de avaliar o comportamento desta no decorrer das avaliações. Tal análise pode ser feita em avaliações do desenvolvimento de plantas, onde posteriores avaliações dependem de ocorrências anteriores. Desde quando a gênese utiliza medições de desenvolvimento de plantas, pelamordedeus? Já é o segundo aluno a copiar esta afirmativa de algum canto (já que as duas afirmativas estão exatamente iguais), e nos dois casos logo após esta afirmativa diz exatamente o contrário. 0,5 8. [] (IP:281473857232357 | 11:32:07 | 23:43:45 | 11:38 | 3.444) Diferencie fatorial de parcela subdividida, em termos de uso. Experimentos fatoriais avaliam os fatores como um todo, cada fator ou interação dentro de parcelas individuais. Onde, na principal característica da parcela sub dividida é a casualização dos níveis dos fatores, que é feita em dois estágios: primeiro é casualizado os níveis de um fator nas parcelas, no segundo estágio casualizar-se os níveis do outro fator, nas subparcelas de cada parcela, deste modo cada uma das parcelas funciona como se fosse um bloco para receber os níveis do segundo fator. A principal diferença não é o sorteio, mas a divisão do acaso. Diferença pouco explicitada 0,75 9. [] (IP:281473857232357 | 11:32:09 | 23:44:28 | 12:19 | 42.198) Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado, explicando como é o relacionamento. No modelo linear generalizado exige-se que as variações devido aos tratamentos e ao acaso sejam independentes para que seja possível separar variações que foram devido aos tratamentos daquelas devido ao acaso, atendendo assim a premissa da aditividade. Quando relacionadas com os princípios experimentais, a casualização faz com que nenhum dos tratamentos seja favorecido, possibilitando que os erros sejam independentes através do aleatorização das amostras na parcela. Já a repetição, possibilita avaliar a variação do acaso nos tratamentos, podendo-se determinar a variação no conjunto, podendo-se separar efeito do acaso do efeito do tratamento, possibilitando a homocedase no experimento. O controle local quando aplicado evita que a variação do acaso tenha variações bruscas conservando as caondições de homocedase. Ok 1 10. [] (IP:281473857232357 | 11:32:27 | 23:45:06 | 12:39 | 35.093) Como as repetições reais podem afetar a significância de algum efeito? A repetição real diz respeito a quantas vezes o efeito principal aparece no experimento. Quanto maior o número de repetições reais, melhor se diferencia as variações do acaso e dos tratamentos, podendo-se determinar as diferenças entre os fatores avaliados. Dessa forma, quanto maior o número de repetições reais maior a significâncias dos resultados encontrados durante o experimento. Ok 1 11. [] (IP:281473857232357 | 11:32:40 | 23:48:13 | 15:33 | 183.185) Diferencie interação e efeito principal. : Dentro de experimentos fatoriais, pode-se distinguir dois tipos de efeito. Os efeitos principais, que dizem respeito aos efeitos dos fatores independentemente sem levar em consideração os outros fatores, e as interações que são devido a influencia de um fator sobre o outro, demonstrando que não houve independência entre os fatores, já que a interação dos fatores foi significativa. Ok 1 12. [0.000] (IP:0 | 11:32:57 | --:--:-- | --:-- | ------ ) Será realizado um experimento avaliando a decomposição de resíduos aos 0, 2, 4, 8, 16, 32, 64 e 128 dias de plantas de quatro espécies diferentes, com amostragem destrutiva e quatro repetições. Em cada amostragem serão determinadas a matéria seca remanescente, teores e conteúdos totais de C, N, P, lignina e as relações entre cada um dos nutrientes e C, entre eles e lignina, bem como entre os nutrientes. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. Em branco 0 13. [] (IP:281473857232357 | 11:33:10 | 23:48:59 | 15:49 | 4.651) Qual a principal vantagem do uso de regressões não lineares? Nos modelos de regressões não lineares, ao invés de fazer uma descrição puramente empírica do fenômeno estudado, pode partir de suposições importantes sobre o problema se obter uma relação teórica entre as variáveis observáveis de interesse. A grande vantagem é a simplificação da realidade através de parâmetros que são facilmente interpretáveis. Ok 1 14. [0.000] (IP:0 | 11:33:22 | --:--:-- | --:-- | ------ ) Avalie o efeito de diferentes estratégias de seleção do melhor modelo sobre a probabilidade de ocorrência de erro do tipo I. Em branco 0 15. [] (IP:281473857232357 | 11:33:36 | 23:49:39 | 16:03 | 6.101) Discuta a afirmativa: "Muitas vezes uma amostragem completamente aleatória não representa bem a população" A técnica de amostragem consiste na coleta de amostras que representem a população já que na maioria das vezes a avaliação de toda a população é inviável. Estas amostras precisam ser coletadas de forma aleatória para garantir que não haja coletas concentradas em uma área que não representativa da população comprometendo a validade da amostragem. Contudo, mesmo fazendo-se amostras aleatórias, corre-se o risco, ainda que menor, de se coletar amostras não representativas, onde os resultados não servirão para representar o que acontece na população. Tudo bem que o risco sempre existe, mas não foi esta a afirmativa. A afirmativa foi de que isto acontece com frequência, porque existem estratificações na população que uma amostragem simplesmente aleatória tem grande chance de não ver. Para isto existe a segmentação da amostragem em camadas, cada uma representativa de uma subpopulação, e sujeita a um esforço amostral independente. 0,5 16. [] (IP:281473857232357 | 11:33:49 | 23:50:56 | 17:07 | 1.612) Um experimento vai avaliar dez doses de fósforo em cinco solos diferentes em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas De acordo com os dados mostrados acima, o delineamento mais adequado a ser aplicado neste caso é o delineamento em blocos casualizados, pois o experimento será conduzido em casa de vegetação e levandose em consideração que a mesma não apresente uniformidade em relação ás condições ambiental. Neste caso, utilizando-se o DBC pode-se obter maior uniformidade entre os tratamentos no interior dos blocos. Com relação ao arranjamento, o que melhor se adéqua é o fatorial duplo 10 x 5 em vez de parcela subdividida, já que tem-se a limitação de se realizar o experimento em casa de vegetação onde não é possível a realização da parcela, e este viabiliza a avaliação dos fatores propostos no ambiente de casa de vegetação. F.V G.L Tratamento 50-1 = 49 Bloco 4-1 = 3 Resíduo 199-(49+3) = 147 Total (50x4)-1 = 199 Como em todos os casos até aqui, identificou corretamente o fatorial, e não levou isto em consideração na análise dos dados 0,25 17. [] (IP:281473857232357 | 11:34:02 | 23:51:24 | 17:22 | 27.886) A escolha do delineamento pode afetar a capacidade de encontrar diferenças entre os tratamentos? Sim. Pois o delineamento escolhido deve reduzir ao máximo a soma dos quadrados gastando o mínimo de graus de liberdade, diminuindo o coeficiente de variação e aumentando a precisão da análise. A escolha do delineamento correto implica na correta determinação dos efeitos dos tratamentos. Ok 1 18. [0.000] (IP:0 | 11:34:15 | --:--:-- | --:-- | ------ ) Um experimento vai ser conduzido no campo avaliando 100 novos clones de palma forrageira com adubação orgânica, mineral ou uma combinação, com duas repetições.Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Em branco 0 19. [] (IP:281473857232357 | 11:34:29 | 23:52:00 | 17:31 | 5.997) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. Num experimento busca-se que a variância dos resíduos ocorra de maneira mais uniforme possível para que esta variação possa ser representada por um único valor. Quando esta variação apresenta-se diferente para todos os tratamentos, este fenômeno estatístico chama-se de heterocedase e consiste na não representatividade da variação entre os tratamentos por um único valor. Curtoses positivas e a assimetria são as principais consequências da heterocedasticidade. A ocorrência da heterocedase faz com que o teste F não seja realizado, pois a curtose positiva e a assimetria afeta a confiabilidade do teste, pois o mesmo tenderia a não rejeitar a hipótese nula, mesmo ela sendo incorreta, levando a dizer que os dados sejam homocedaticos sem ser. Para prevenir a heterocedase deve-se fazer o uso dos testes de Cochran, Hartley, Bartlett e Levene. Estava indo tão bem até misturar curtose na história… curtose e assimetria estão ligadas à falta de normalidade, e não a heterocedase 0,75 20. [] (IP:281473857232357 | 11:34:46 | 23:52:30 | 17:44 | 27.083) Explique porque podemos considerar que o nível de significância de uma regressão é menos crítico do que sua importância intrínseca. Um experimento bem elaborado e conduzido pode apresentar dados significativos devido a sua representatividade estatística, mas não ser importante. A significância indica a chance máxima da variação ser devido ao acaso. O interesse maior, na regressão, é a importância. Pois a maioria das regressões são significantes, o que as vezes pode não ser necessariamente importante, pois a importância vai expressar a ligação entre as variáveis, o que oferece ao pesquisador melhores condições de explicar cientificamente o efeito de seus resultados. Ok, embora não tenha a menor ideia da relação das duas primeiras frases com a pergunta 1 21. [] (IP:281473857232357 | 11:34:58 | 23:53:17 | 18:19 | 1.036) Um experimento vai ser conduzido em laboratório avaliando o crescimento de Atriplex em solos com cinco diferentes níveis de condutividade elétrica, e em quatro espaçamentos diferentes, e cinco repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Para realização experimento em campo, o delineamento mais adequado a ser aplicado seria o delineamento em blocos casualizados, pois o experimento estaria num ambiente que não apresenta uniformidade em relação ás condições ambientais. Neste caso, utilizando-se o DBC pode-se obter maior uniformidade entre os tratamentos no interior dos blocos. Com relação ao arranjo, o melhor seria o fatorial duplo 5 x 4 já que devido as condições é inviabilizado o uso da parcela sub dividida e do quadrado latino. F.V G.L Tratamento 20-1 = 19 Bloco 5-1 = 4 Resíduo 99-(19+4) = 76 Total (20x5)-1 = 99 Mesmo problema da maioria das respostas a estas situações, com a ausência do reconhecimento do fatorial no esquema, embora tenha sido reconhecido na resposta textual 0,25 22. [] (IP:281473857232357 | 11:35:15 | 23:55:32 | 20:17 | 133.653) Discuta os principais critérios que devem ser adotados na seleção do delineamento experimental. Podem ser utilizados critérios estatísticos de avaliação, como o coeficiente de regressão (R), o coeficiente de determinação (R²), coeficiente de determinação corrigido (R²c), e estatística t ou F. Isto é resposta que se dê no mestrado… os itens estão certos, mas chamar isto de discussão é ridículo 0,25 1. [] (IP:281473826425559 | 01:00:15 | 20:53:52 | 53:37 | 59.519) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. A heterocedase é um problema sério porque significa que os dados são provenientes de tratamentos que sofreram a variação do acaso de forma diferentes e dessa forma predições seriam atribuídas ao tratamento sendo possível de ser devido a efeito do acaso, inviabilizando a utilização do modelo linear generalizado e ainda pode aumentar as chances de o correr erros do tipo I. Para garantir a homocedase uma das premissas mais importantes a ser seguida em um experimento, porque mantendo as parcelas distribuídas de forma homogênea, os efeitos do acaso estariam exercendo influência também de forma homogênea para todos os tratamentos, e dessa forma podemos admitir que a variação do acaso como zero, já que ela se apresenta “igual” para toda a parcela experimental. ara se prevenir deve-se não perder de vista os objetivos da pesquisa, usar números iguais de repetições, fazer os testes de Levene, Cochran, Hartley, Bartlett, para averiguar a homocedase, caso contrário deve-se fazer as transformações: (raiz quadrada, log10, potência elevada,etc). Caso não resolva com as transformações, eliminar outlier. Apenas a ressalva de que não é a variação do acaso que é zerada, mas o conjunto da variação do acaso de um tratamento. 1 2. [] (IP:281473826425559 | 01:02:41 | 20:55:20 | 52:39 | 82.72) Como podemos determinar o número de unidades amostrais em um projeto a ser conduzido em área sem informação prévia? O primeiro passo é fazer uma revisão bibliográfica para ver quais foram os parâmetros utilizados para determinar qual critério deve ser levado em consideração para teste de diferentes tamanhos de unidades de amostrais, a intensidade amostral, nos últimos trabalhos com mesmo tema do projeto em questão projeto. Faz então uma mine amostragem e através da variância, aplica-se na formula, N=4 σ^2/L² . om n sendo o número de unidades amostrais, σ a variância e L sendo o erro máximo tolerado na mesma unidade da medida. Custo desse levantamento preliminar deve ser extrapolado para a área do projeto e observado a viabilidade econômica. Ok 1 3. [] (IP:281473826425559 | 01:04:46 | 20:57:12 | 52:26 | 33.896) Crie uma situação experimental para o uso do delineamento em quadrado latino no campo da agronomia. Justifique. O experimento vai avaliar diferentes tipos de podas de condução em videiras em relação a indução da floração. O terreno é declivoso, com manejo em curvas de nível no contorno da encosta. O delineamento será com controle local, quadrado latino. Sendo seis tipos de poda de condução com seis repetições. As colunas são dispostas no sentido morro abaixo acompanhando o movimento aparente do sol durante o dia garantindo que a luz do sol nos horários de maior incidência seja distribuída de forma homogênea de acordo com a inclinação do terreno. Nas linhas o experimento segue o sentido das curvas de nível garantindo que cada bloco tenha homogeneidade edáfica. A escolha do quadrado latino é em virtude do conhecimento que o manejo em curva de nível seleciona características distintas no solo em cada cota (Linhas). E a inclinação do terreno com face para o lado norte privilegia as plantas de topo com maior incidência da luz do sol, só incidindo nas baixadas durante poucas horas da tarde ( coluna). Os tratamentos serão distribuídos de forma, que apareçam somente uma só vez em cada linha e em cada coluna. Com essa ferramenta deseja-se controla a heterogeneidade do ambiente onde será conduzido e conduzir a uma estimativa menos elevada do erro experimental. Excelente imaginação para a situação. 1 4. [] (IP:281473826425559 | 01:06:39 | 21:12:16 | 05:37 | 3.022) Um experimento vai avaliar a tolerância de 100 estirpes de rizóbio a meio de cultura ácido com três níveis diferentes de cloreto de cálcio em sua composição. Serão usadas 10 repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas O experimento será conduzido em blocos ao acaso em parcelas sub divididas . A escolha desse delineamento se dá pela impossibilidade de se preparar e conduzir um experimento com 3000 (três mil) amostras em DIC, por que tanto o espaço da estufa como o tempo de execução não permite a condução em uma só vez, logo as condições de umidade e temperatura assim como a condução do técnico em uma segunda ou terceira bateria de amostras não ofereceria, necessariamente as mesmas condições de variabilidade. Nesse ensaio a unidade amostral é a placa de petri, sendo o crescimento da colônia bacteriana no meio de cultura a variável em análise. Os tratamentos em comparação são: Tratamento Principal (P) = estirpes de risóbio (P¹, P²,P³....P¹°°) e tratamentos secundários (S) = níveis deferentes de cloreto de cálcio ( S¹, S² e S³). quatro repetições sendo cada repetição representada por uma placa de petri. Considerando que cada bateria vai ser preparada e incubada em condições não similares, os tratamentos e as repetições serão distribuídas num delineamento em blocos, em parcelas subdivididas. Como a câmara de incubação suporta em boas condições até 500 placas de petri e o tempo de incubação é de duas semanas os blocos serão dispostos em seis baterias de 500 placas a cada 15 dias. FV GL GL Blocos 6-1 5 Tratamento (P (100-1) 99 Resíduo (a) (100-1)((100-1)+(3-1)) 9999 Parcela (100-1) 99 Tratamento(S) 3-1 2 Interação (p)x(s) (100-1)(3-1) 198 Resíduo (b) 300-(100-1)-(3-1)-(100-1)(3-1) 5 Total 300 x 10 -1 2999 O que ser ou não DIC tem a ver com ser ou não em subdividida? De onde apareceu este limite da estufa ? Não faz qualquer sentido pensar em subparcela, e você não descreve qualquer razão para isto, pelo menos que eu tenha identificado. Finalmente, como o GLR(a) é maior do que o GLR(b), pelamordedeus? 0 5. [] (IP:281473826425559 | 01:10:49 | 21:12:53 | 02:04 | 36.16) Qual nível apresenta maior precisão em uma parcela subdividida e porque? As parcelas principais são mais susceptíveis a variação do acaso o controle local é feito com a adoção de sub parcelas , logo o grau de liberdade do resíduo é menor na parcela principal, logo os dados obtido no nível de sub parcela é mais preciso que os da parcela principal. Ok 1 6. [] (IP:281473826425559 | 01:12:24 | 21:13:36 | 01:12 | 38.972) Explique porque podemos considerar que o nível de significância de uma regressão é menos crítico do que sua importância intrínseca. O nível de significância está relacionado com as chances de se cometer os erros de hipótese logo às probabilidades dos efeitos serem ao acaso e não ao tratamento ministrado podem conduzir a erros do tipo I. Ou seja aumentar o nível de significância reduz as chances de cometer o erro tipo I. A tomada de pode ter consequências danosas quando esta referência é negligenciada em um nível de significância muito baixo, e afirmarmos que os efeitos são do tratamento quando são devidos ao acaso. Tem certeza de que leu a pergunta? 0 7. [] (IP:281473826425559 | 01:14:33 | 21:14:03 | 59:30 | 24.178) Discuta a afirmativa: "No caso de uma interação, não devemos analisar qualquer efeito principal." Quando se avalia influências entre tratamentos para se obter um efeito e se confirma que ocorreu pelo menos uma interação, qualquer efeitos principal perdem toda e qualquer importância, por que apartir da interação os efeitos da associação de tratamentos é que vai governar as discussões. Nesse caso não se analisa efeitos principais isoladamente. Não são todos os efeitos principais que perdem a importância, como você afirma, mas apenas aqueles envolvidos em alguma interação 0,75 8. [] (IP:281473826425559 | 01:16:26 | 21:14:31 | 58:05 | 25.778) Como as repetições reais podem afetar a significância de algum efeito? As amostras tem o papel de representar de forma mais fiel as características de uma população sendo que mesmo buscando-se a exaustão colher amostras que representem de forma fidedigna aquela população, diferenças vão ocorrer devido a fatores desconhecidos que são difíceis de serem controlados, diferenças do acaso, então as repetições das parcelas experimentais contendo os mesmos tratamentos, tem dois objetivos: obter uma melhor estimação do efeito do tratamento e possibilitar a determinação do erro experimental, e portanto fornecer a informação necessária para testar a significância das diferenças encontradas entre médias e tratamentos. Não tenho a menor ideia nem do que você quis dizer, nem da relação disto com a pergunta 0 9. [] (IP:281473826425559 | 01:17:28 | 21:18:20 | 00:52 | 1.416) Um experimento vai ser conduzido avaliando o efeito de três manejos de irrigação, com cinco níveis de estresse e quatro solos distintos no sorgo, em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas O experimento será conduzido em delineamento inteiramente casualizado em arranjo fatorial com 3 fatores. Onde a unidade amostral será a planta de sorgo a variável em análise e massa seca da parte aérea e será medida em kg por planta. Os tratamentos em comparação são: Tratamento I = Manejos de irrigação (A,B e C), Tratamento II = Estresse (T,U,V,X e Z) e Tratamento III = Tipos de solos (L,M,O e P). 04 (quatro) repetições sendo cada repetição representada por uma planta de sorgo. Considerando que o ensaio será realizado em condições controladas, os tratamentos e as repetições serão distribuídos num delineamento inteiramente casualizado, em arranjo fatorial. Causa de variação GL GL Manejos de irrigação(I) 3-1 2 Níveis de estresse (II) 5-1 4 Tipos de solos (III) 4-1 3 Interação I x II (3-1)(5-1) 8 Interação I x III (3-1)(4-1) 6 Interação II x III (5-1)(4-1) 12 Interação I x II x III (3-1)(4-1)(5-1) 24 Tratamento 60-1 59 Resíduo 4-1 3 Total (60 x 4) -1 239 Não concordo com o dic para um experimento deste tamanho, mas vá lá que seja. Infelizmente, o GLR está completamente errado, já que 239-59=180, não … aparentemente calculou o GL para blocos, embora esteja chamando de GLR. Só não vai zerar a questão porque infelizmente a maioria dos seus colegas não conseguiu acertar o esquema (embora tenham acertado o cálculo do GLR) 0,75 10. [] (IP:281473826425559 | 01:23:47 | 21:18:45 | 54:58 | 24.38) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. Os outliers são pontos que apresentam discrepâncias em comparação com o comportamento da maioria da massa de dados, aparentemente essas observações que resultam em comportamentos tão diferentes da maioria são inconsistentes e certamente foram produzidas por erros de execução como: erros de medições, erros induzidos, fraudes e variabilidade dentro da população. Geralmente para se observar a ocorrência de outliers é necessária a observação dos gráficos dos dados. Os gráficos mais usados para diagnosticar outliers são; Gráfico box, histogramas e também testes como os de Dixon e Grubbs, e para testar a homogeneidade da variância são usados os testes de Barttet, Cohran, Harttley e Levene. Contudo uma recapitulação para identificar as causas que levaram a produzir outliers em alguns casos a remoção de observações discrepantes como outliers pode levar a perdas de informações e essa decisão é uma decisão de pesquisa e não de estatística. Ok 1 11. [] (IP:281473826425559 | 01:25:07 | 22:05:05 | 39:58 | 5.374) Um projeto será conduzido para avaliar o efeito de tempo de cultivo com mandioca, cana, milho e pastagem sobre a qualidade do solo nas três macro-regiões pernambucanas, de forma independente para cada uma. Em cada macro-região serão selecionados quatro municípios distintos, que serão as repetições, e em cada município serão avaliados cinco tempos de cultivo e uma área de vegetação nativa. Serão avaliadas características físicas, químicas e microbiológicas do solo, bem como sua profundidade por tradagem. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. A experimento teve o objetivo de avaliar a atributos Químicos, físicos e microbiológica e as profundidade do solo do solo das três micro regiões pernambucana ( zona da mata, agreste e sertão) sob cultivo e com vegetação nativa. Sendo avaliado na zona da mata cultivo de cana-de açúcar, pastagem e sob solo de mata, agreste cultivo de milho, pastagem e solo de mata e sertão cultivo de mandioca, pastagem e sob mata. Cada micro região com quatro cidades representando as repetições. A análise Multvariada será usada para avaliar as variáveis simultaneamente de forma integrada os dados devem ser expostos em tabelas e análise de covariância isola o efeito de uma variável quantitativa A única coisa que não foi repetição da pergunta foi a última frase. Infelizmente, aparentemente não leu a pergunta, já que não respondeu quase nada dela… 0,25 12. [] (IP:281473826425559 | 01:36:10 | 21:20:52 | 44:42 | 41.717) Relacione princípios experimentais, variação do acaso, tamanho do experimento e grau de confiança que o pesquisador pode ter em suas afirmativas. Princípios básicos da experimentação: Repetição Casualização e controle local. O uso da repetição serve para diminuir tendências e prover uma estimativa do erro experimental, todo experimento tem uma variância e precisa dos números repetíveis. Se os extremos se distanciam da média, a repetição serve para observar se essa variância diminui. Repetições diminuem a probabilidade de erros, quanto maior o número de repetições menor a variância residual. A repetição das parcelas promove melhor estimação dos efeitos do tratamento e possibilita a determinação do erro experimental, e, por conseguinte fornece informações necessárias para testar a significância das diferenças encontradas entre as médias dos tratamentos. Distribuir os tratamentos de forma mais aleatória possível, a casualização, diminui a variação do acaso, reprime o favorecimento ou desfavorecimento de um tratamento, da influência de fatores externos aos que se quer testar. Garante que a localizaçãodos tratamentos nas unidades experimentais seja aleatória. A casualização permite uma estimativa do erro experimental por garantir o uso de testes de significância. Em experimentos de campo é comum se observar que canteiros em terrenos vizinhos tendem a ter produtividades mais semelhantes que canteiros mais distantes, tendo portando tendências sistemáticas ou variações de características de solo e as comparações entre os tratamentos devem ser o máximo possível livre de erros sistemáticos. Em outras palavras o que se busca na casualização bem feita é a independência de todos os erros experimentais, que é uma das pressuposições da análise de variância para permitir que o pesquisador faça afirmações dos seus resultados pelos efeitos dos tratamentos e não do acaso. Contudo quando a unidade experimental apresentase com diferenças que podem influenciar os resultados por fatores conhecidos, questões de condução do experimento como tempo de execução, espaço em estufas para acondicionar todas as parcelas, são detectados pelo pesquisador, este pode e deve lançar mão de outro princípio experimental que é o controle local, contudo não é uma obrigatoriedade. Esta ferramenta está baseada em divisões da área (períodos, condições ambientais, etc) em blocos homogêneos e em cada bloco teremos todos os tratamentos distribuídos de forma aleatória. Cada bloco pode apresentar diferenças específicas entre si, contudo, o importante é que cada bloco seja o mais uniforme possível. O exemplo mais generalizado é o de Blocos ao acaso. Tendo ainda com o controle mais aprofundado o quadrado latino( duas direções perpendiculares) linha e colunas este recurso é interessante quando se conhece duas fontes de variação e estas se manifestando de forma perpendicular. Outros níveis de controle local são: Parcela subdividida e blocos incompletos. Quando se faz o controle local se gasta graus de liberdade do erro experimental, o que não é interessantes más por outro lado se faz uma redução da variação devida ao erro. Sendo bem planejado, a redução da variação devido ao erro compensa a diminuição do número de graus de liberdade. Mas o abuso do controle local, em delineamentos mais complexos além da perda dos graus de liberdade aumentará a complexidade dos cálculos e, sobretudo, da interpretação dos dados, condições indesejáveis para que o pesquisador possa ter segurança para fazer suas afirmações. Ok 1 13. [] (IP:281473826425559 | 00:41:07 | 21:21:13 | 40:06 | 18.371) Discuta a afirmativa: "Não é recomendável utilizar mais de três fatores distintos" Ao se avaliar interações de fatores não se deve lançar mão de mais de três fatores ao mesmo tempo devido a complexidade de se conduzir o experimento, ou seja, pode tomar dimensões que requer uma infra estrutura as vezes onerosa e o mais importante é que a análise do dados ficam muito complexa. Com este nível de interações podem ocorrer diferenças significativas entre combinações e não ocorre em outras. Que geralmente compromete o nível de significância. Gerando tabelas extensas de difíceis interpretações. Dificilmente conseguiria responder de forma mais enrolada… o que a formação dos tratamentos tem a ver com complexidade para conduzir o experimento. Por exemplo, um experimento 2x2x2x2 tem 32 tratamentos, enquanto um 2x17 tem 34. No entanto, embora a dificuldade de conduzir estes dois experimentos seja mais ou menos idêntica, a interpretação do segundo é muito mais simples do que a do primeiro. Apenas sua última frase deixa transparecer que entendeu mais ou menos o problema 0,25 14. [] (IP:281473826425559 | 00:52:10 | 21:22:34 | 30:24 | 19.052) Discuta as aplicações da medição repetida em solos. Algumas medições em experimentos em solos requer que o pesquisador seja cauteloso poque estas situações muitas vezes podem ser confundidas quanto a independência dos, as vezes os elementos de uma amostra estão correlacionado com os elementos de outra. Por exemplo existe dependência entre as profundidades ( horizontes ou camadas) em relação as observações atribuídas como individualizadas para cada amostra, em outras palavras o que acontece no horizonte superficial influencia de alguma forma os acontecimentos nos horizontes subjacentes. Mesmo que o contrário não seja necessariamente verdade, não podemos afirmar que existe uma independência entre as observações obtidas nos horizontes de um mesmo perfil. De mesma forma que cada medição de uma curva de crescimento de uma planta, por exemplo, também é considerada medição repetida porque o que acontece no segundo mês é consequência do primeiro... Não podendo ser avaliado como medições independentes da mesma amostra no experimento. Ok, mas bastante confuso 1 15. [] (IP:281473826425559 | 01:06:14 | 21:23:01 | 16:47 | 21.641) Justifique a afirmativa: "Não é possível afirmar qual o melhor delineamento sem conhecer todos os detalhes do trabalho" Escolher adequadamente o delineamento controla a heterogeneidade do suprte experimental. Isto significa a possibilidade de optar por Um delineamento inteiramente casualizado ou ter que aplicar algum tipo de controle local. Como saber se será necessário fazer algum tipo de controle se os detalhes dos trabalhos são desconhecidos. É virtuoso lembrar que o controle local serve para sanar influências devido ao acaso no tempo e no espaço, de tal forma que mesmo que o pesquisador saiba todas as condições do local a ser implantado um ensaio não se admite escolher o delineamento antes de se aprofundar em todos os detalhes do projeto de pesquisa sobre pena de cometer erros experimentais. Muitas vezes o pesquisador não se preocupa com os erros experimentais e somente vais notar que os cometeu no momento da análise do experimento. Ok 1 16. [] (IP:281473826425559 | 01:33:57 | 21:23:25 | 49:28 | 19.256) Discuta o significado e possíveis implicações do AIC O critério de informação Akaike é uma medida da relação da qualidade de ajuste de um modelo estatístico. Ele foi desenvolvido pela Hirotsugo Akaike, sob o nome da “um critério de informação” ( AI ) e foi publicado a primeira vez em 1974. Ele se baseia no conceito de entropia da informação, na verdade oferecendo uma medida relativa da perda de informações quando um modelo é usado para descrever a realidade. Pode se dizer para descrever o equilíbrio entre viés e variância na construção do modelo, ou falando livremente entre precisão e complexidade do modelo. O método de Akaike é um processo de minimização que não envolve testes estatísticos. A ideia Básica é selecionarmos um modelo que seja parcimonioso, ou seja, que esteja bem ajustado e tenha um número reduzido de parâmetros. Como o logaritmo da função de verossimilhança L(β) cresce com o aumento do número de parâmetros do modelo, uma proposta razoável seria encontrarmos o modelo com menor valor para a função. A aplicação do AIC está relaciona do no processo de inclusão e exclusão de uma variável no ajustamento de modelos, em sistemas computacionais de estatística é uma medida geral da qualidade de ajustamento de modelos. Excelente 1 17. [] (IP:281473826425559 | 17:43:29 | 21:24:33 | 41:04 | 65.194) Caso uma interação seja significativa, devo discutir os efeitos principais ligados a ela? Justifique. Não devemos avaliar e nem discutir, em ensaios que avaliam interações, e ocorram efeitos de pelo menos uma interação de fatores que sejam sinergéticos ou antagônicos passa a ser de efeito mútuos na explicação do fenômeno. Então, efeitos principais revelam reações independentes que não são mais de interesse do ensaio. Ok 1 18. [] (IP:281473826425559 | 17:48:08 | 21:25:29 | 37:21 | 33.36) Discuta vantagens e desvantagens do procedimento stepwise para seleção de modelo de regressão linear múltipla. Em modelos de regressões lineares múltiplas geram grade números de combinações, os coeficientes se correlacionam e ao diminuir ou aumentar o número de veriáveis independentes , os coeficientes de regressão parcial também se alteram. Maiores números de variáveis possíveis, o coeficiente de determinação não diminui pela adição de novas variáveis independentes. Uma correlação alta entre as variáveis independentes pode trazer problemas nos cálculos para estimação da equação. Stepwise é uma mistura de técnicas Começa Um valor arbitrado que deve ser colhido da bibliografia recente para diminuir o tempo de estabilização ou ainda se evitar uma coincidência de valores estabilizados em discrepância com o modeo. Opasso de seleção para frente, ou seja, testa todas e adiciona-se a que sobrepõe ao grupo, com tudo, como desvantagens uma combinação de variáveis pode sobrepor uma singularidade forte, as probabilidade de F raramente são adequadas. E como vantagem aproxima-se de todos os modelos. Em linhas gerais, ok, mas bastante truncado, com forte aparência de cópia em mais de um ponto como “ omeça Um”, por exemplo 1 19. [] (IP:281473826425559 | 18:37:20 | 21:26:10 | 48:50 | 35.423) Compare as diferentes possibilidades de previsão de valores de uma variável em função de outras. Uma regressão linear simples permite determinar, a partir de estimativas dos parâmetros como uma variável independente(x) exerce influência sobre outra (Y) e de certa forma mensurável. Por exemplo: o número de lesões causadas por um fungo (Y) depende da temperatura (x) em que as plantas se encontram. A produção de uma cultura (Y) depende da intensidade (X) da doença num determinado estádio de crescimento da planta. Quando duas ou mais variáveis independentes podem estar relacionadas com uma variável dependente pode-se utilizar a regressão linear múltipla para predizer os valores da variável dependente. Não tenho ideia da relação desta resposta com a pergunta. 0 20. [] (IP:281473826425559 | 19:10:34 | 21:29:54 | 19:20 | 3.09) Um experimento vai avaliar o efeito de cinco fontes de carboidratos no desenvolvimento de 100 estirpes rizobianas, em placa de petri (16 cm de diâmetro x 3 cm de altura) com cinco repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas O experimento será conduzido em blocos ao acaso, em parcelas subdivididas. A escolha desse delineamento se dá pela impossibilidade de se preparar e conduzir um experimento com 2500 (dois e quinhentas mil) amostras em DIC garantindo homogeneidade a todos os tratamentos, porque tanto o espaço da estufa como o tempo de execução não permite a condução em uma só vez, logo as condições de umidade e temperatura assim como a condução do técnico em uma segunda ou terceira bateria de amostras não ofereceria, necessariamente as mesmas condições de variabilidade. Nesse ensaio a unidade amostral é a placa de petri, sendo o crescimento da colônia bacteriana a variável em análise. Os tratamentos em comparação são: Tratamento Principal (P) = estirpes de risóbio (P¹, P²,P³....P¹°°) e tratamentos secundários (S) = fontes diferentes de carboidratos ( C1, C2,C3,C4 e C5). Cinco repetições sendo cada repetição representada por uma placa de petri. Considerando que cada bateria vai ser preparada e incubada em condições não similares, os tratamentos e as repetições serão distribuídos num delineamento em blocos, em parcelas subdivididas. Como a câmara de incubação suporta em boas condições até 500 placas de petri e o tempo de encubação é de duas semanas os blocos serão dispostos em cinco baterias de 500 placas a cada 15 dias. FV GL GL Blocos 5-1 4 Tratamento(P) (100-1) 99 Resíduo (a) ( 100-1)((100-1) +(5-1)) 10197 Parcela (100-1) 99 Tratamento (S) 5-1 4 Interação (p)x(s) (100-1)(5-1) 396 Resíduo (b) 500-(100-1)-(5-1)-(100-1)(5-1) 10 Total 500 x 10 -1 4999 Se ligar não dá choque. Antes de discutir qualquer outra coisa, você conseguiu a façanha de ter mais GL no Resíduo do que no total do experimento…. Ou seja, ou não pensou no que estava fazendo, ou não está sabendo bem o que é análise de variância. Fora este ponto crucial, não tenho ideia de qual a relação que você insiste em fazer entre condições do experimento e jogar para subparcela, que é uma decisão que deve ser tomada por outra razão completamente diferente. Nesta situação não há o menor sentido em parcela subdividida. 0 21. [] (IP:281473826425559 | 19:47:18 | 21:30:17 | 42:59 | 22.693) Compare a regressão polinomial com as regressões não-lineares, considerando os pontos de vista de uso prático, e capacidade de interpretação dos resultados. As regressões não-linear são de grande importância em experimentações nas ciências agrárias. Fatores que envolvem aspectos fisiológicos e biológicos tem comportamento em sua maioria não linear de tal forma que o uso de regressões não-linear aproximaria os ensaios a realidade facilitando a interpretação dos dados. O corre quando a relação entre a variável Y e a variável X não é linear, podendo se verificar analisando o gráfico de dispersão X,Y. É possível expressar relações não lineares usando modelos lineares, regressão polinomial e a relação não linear pode ser identificada pela análise dos resíduos. Ex. Função Yc = a + bX + cX², neste caso a função é não linear porque inclui a variável X². No entanto, todos os coeficientes (a,b e c) são lineares. Não aparecem como exponencial e nem multiplicadores uns dos outros. Neste caso podemos expressar o modelo por uma expressão linear, definindo uma nova variável como o quadrado de X. Basta incluir uma nova coluna nos dados com o quadrado de X e incluir esta nova variável no modelo. Em outras palavras algumas regressões lineares suportam transformações e expressam comportamento não linear. Dificilmente conseguiria responder isto de forma mais confusa ou truncada 0,5 22. [] (IP:281473826425559 | 20:15:17 | 21:30:50 | 15:33 | 28.77) Qual a importância da interação? Os modelos estatísticos fornecem dados matemáticos, são números que necessitam de conhecimento humano para que expressem uso e alimente conceitos, que culminarão em afirmações. Muitas vezes estes dados exigem conhecimento especializado para que sejam explorados ao máximo trazendo inovações e quebrem paradigmas. Em outras circunstâncias necessitam de colaborações multidisciplinares, para interpretações de interações múltiplas que envolvem fenômenos, biológicos, ecológicos, econômicos, socais e culturais e quebrem barreiras de natureza essencialmente humana, e traga o tão sonhado desenvolvimento sustentável. Por fim a interpretação dos resultados é a superação do homem a sua criação (modelos, sistemas e computadores) que diante de uma massa de dados consegue inferir valores qualitativos fornecidos por dados de valores quantitativos. Não tenho ideia do que você estava tentando responder, para ser bem honesto. 0 1. [] (IP:281473653997786 | 13:12:54 | 22:52:02 | 39:08 | 12.301) Relacione fatorial e delineamento experimental A análise fatorial não constituem um delineamento estatístico e sim um esquema arranjo de desdobramento de graus de liberdades de tratamentos, podendo ser utilizados em qualquer um dos delineamentos. Nas análises fatoriais as variáveis são simultaneamente consideradas e avaliadas para explicar as correlações (inter-relações) entre as variáveis. Nessa análise as variáveis (fatores) são formadas para obter o máximo de explicação do conjunto de variáveis, não tendo como objetivo identificar uma variável dependente. O delineamento experimental será a distribuição espacial dos tratamentos na área experimental de acordo com as condições ambientais sobre o experimento. Os delineamentos podem ser inteiramente casualizado (DIC), blocos completos (DBC), quadrado latino, quadrado Greco-romano. Cuméqueé? Está misturando tanto variável e fator que fica quase impossível avaliar se realmente está entendendo o conceito de fatorial. 0,75 2. [] (IP:281473653997786 | 13:14:07 | 22:52:23 | 38:16 | 10.953) A escolha do delineamento pode afetar a capacidade de encontrar diferenças entre os tratamentos? Sim, a escolha do delineamento pode afetar a capacidade de encontrar diferenças entre os tratamentos, porque a escolha correta do delineamento experimental vai reduzir o efeito da variação do acaso, reduzindo o erro experimental, como a variação vai ser devido ao acaso e ao erro experimental, com a redução do efeito do acaso vai possibilitar uma melhor visualização das diferenças entre os tratamentos, dos efeitos dos tratamentos nos seus dados. O delineamento experimental correto deve ser utilizado para reduzir o máximo da soma dos quadrados e o mínimo do grau de liberdade, com uma redução do coeficiente de variação e aumentando a precisão dos dados analisados. Ok 1 3. [] (IP:281473653997786 | 13:14:23 | 22:52:38 | 38:15 | 10.731) Como as repetições reais podem afetar a significância de algum efeito? Repetição real refere-se ao número de vezes que o mesmo fator aparece no experimento, resultado das combinações de cada nível do fator com os níveis dos outros fatores utilizados. A repetição real afeta a significância porque a repetição real terá relação com o cálculo da diferença mínima significativa (Δ) no teste de Tukey, a raiz quadrado da repetição faz parte do divisor do cálculo do Δ. Sendo assim o Δ quando comparado com o valor absoluto da estimativa de contraste possibilita avaliar a significância do teste. Se ǀYǀ ≥ Δ, as médias de Y avaliadas diferem e o teste é significativo, caso ǀYǀ < Δ, as médias de Y avaliadas não diferem o teste não é significativo. A influência da repetição real na significância será observada na identificação das diferenças entre as médias, com um menor número de repetições e um maior Δ será mais difícil encontrar a diferença entre cada fator e com um maior número de repetições e menor Δ será mais fácil encontrar a diferença entre os fatores e suas relações, identificando melhor e podendo separar o efeito do acaso com o efeito do tratamento. Na realidade é o número de vezes que cada nível de um fator aparece, mas fora isto, a resposta está ok 1 4. [] (IP:281473653997786 | 13:14:38 | 22:53:38 | 39:00 | 2.072) Um experimento vai avaliar a tolerância de 100 estirpes de rizóbio a meio de cultura ácido com três níveis diferentes de cloreto de cálcio em sua composição. Serão usadas 10 repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas O experimento não tem limitação de material, porém existe limitação para realizar a análise do material. Sendo assim o delineamento utilizado foi em bloco casualizado. Sendo dividido em 10 blocos, conteúdo cada bloco todos os tratamentos. Fator Nível Estirpes 100 Cloreto de cálcio 3 Repetição 10 Arranjo Fatorial 100x3x10 Tratamento 300 Blocos 10 Fonte de variação G.L Tratamentos(I-1) 299 Blocos(J-1) 9 Resíduos(I-1)(J-1) 2691 Total(IJ-1) 2999 Eu realmente gostaria de entender qual a dificuldade de encontrar o fatorial no texto e colocar isto na análise… só para arremetar, o número de repetições não faz parte do fatorial 0,25 5. [] (IP:281473653997786 | 13:14:54 | 22:53:51 | 38:57 | 11.704) Compare as possíveis técnicas adotadas para seleção do modelo mais adequado para uma regressão linear múltipla. Para a seleção do modelo são utilizadas técnicas para identificar qual o modelo que representará melhor a situação estudada, porém a escolha dessas técnicas pode promover um grande aumento na chance do erro tipo I. O modelo a ser escolhido deve ser um modelo simples, porém que consiga explicar tanto quanto o modelo complexo e estimar a variável dependente. Para a escolha do modelo deve-se primeiro especificar um modelo máximo a ser considerado, esse modelo deve conter todas as variáveis, nesse caso deve ser analisadas a colinearidade entre as variáveis. Depois deve especificar quais critérios serão utilizados para a seleção do modelo, maior R², F, T e maior R² corrigido, especificar a estratégia para avaliação dos critérios escolhidos, na estratégia deve avaliar todas as regressões possíveis, eliminação para trás, eliminação para frente e stepwise. Após essas etapas devem conduzir a análise e avaliar a confiabilidade do modelo escolhido. Só foi citar as técnicas no fim da resposta, e ainda assim foi somente citar, enquanto pedi para comparar… 0,5 6. [] (IP:281473653997786 | 13:16:04 | 22:54:06 | 38:02 | 10.027) Discuta a afirmativa: "Muitas vezes uma amostragem completamente aleatória não representa bem a população" Porque a amostragem aleatória somente afirma que o processo de amostragem foi realizado ao acaso, não tem relação com a representação da população analisada. Pois caso a amostragem não contenha as características principais da população (não represente as características principais da população), mesmo sendo aleatória, essa amostragem aleatória não representará a população, sendo assim com essa amostragem não poderá ser tiradas conclusões estatísticas da população com base na amostragem aleatória analisada. Meio circular, mas ok 1 7. [] (IP:281473653997786 | 13:16:22 | 22:55:03 | 38:41 | 7.749) Um projeto será conduzido para avaliar o efeito do efeito estufa sobre gramineas C3 e C4, leguminosas e cactáceas considerando diferentes níveis de temperatura e disponibilidade hídrica. O projeto será conduzido considerando experimentos independentes para cada espécie vegetal, e todos os experimentos serão conduzidos em câmara de crescimento, que controla temperatura e atmosfera de forma independente. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. O experimento a ser conduzido será para avaliar em quatros níveis de temperatura (30°C, 35°C, 40°C e 45°C) e quatro níveis de disponibilidade hídrica (0mm/mês, 50mm/mês, 100mm/mês e 150mm/mês) o desenvolvimento fisiológicos das plantas C3 e C4, para analisar a dependência de processos fotossintéticos em relação ao ambiente, pois o desenvolvimento da cultura depende das taxas fotossintéticas. Níveis de temperatura 30°C, 35°C, 40°C e 45°C Disponibilidade hídrica 0mm/mês, 50mm/mês, 100mm/mês e 150mm/mês Fator Nível Temperatura 4 Disponibilidade hídrica 4 Repetição 4 Arranjo Fatorial 4x4x4 Tratamento 200 Blocos 4 Fonte de variação G.L Tratamentos(I-1) 15 Resíduo(I(J-1) ) 48 Total(IJ-1) 63 A análise não incluiu o desdobramento do fatorial, não indicou nada quanto à exploração dos resultados, muito menos alguma coisa quanto a tabelas e/ou figuras. 0,25 8. [] (IP:281473653997786 | 13:16:38 | 22:55:12 | 38:34 | 8.992) Discuta a afirmativa: "Não é recomendável utilizar mais de três fatores distintos" Quando utilizamos mais de três fatores distintos o número de combinações de tratamentos será grande. Ocorrendo um número grande de efeitos principais e interações. Com isso ficará difícil a distribuição dos tratamentos dentro dos delineamentos experimentais para que possa garantir a homogeneidade. A análise estatística com mais de três fatores vai ser complexa, trabalhosa e a interpretação dos resultados fica difícil de ser avaliadas devido ao aumento do número de fatores envolvidos no experimento. Primeiro, isto não tem nada a ver com o delineamento experimental, já que com 16 tratamentos, portanto um experimento bastante pequeno, já podemos ter quatro fatores. Além disto, o problema não é na análise, mas sim na interpretação dos resultados. Fora isto, resposta ok 1 9. [] (IP:281473653997786 | 13:16:55 | 22:55:30 | 38:35 | 12.698) Quais são os principais pontos que devemos avaliar ao estudar uma regressão? Assumindo que as premissas foram checadas e o comportamento dos dados permite fazer a regressão. O primeiro ponto a ser avaliar será se a regressão analisada explica o que acontecendo com a amostra. Caso a regressão não explique os dados não terá importância. Se a regressão explica o que acontece, então pode analisar o grau de dependência (grau de afinidade ( entre as variáveis com o modelo linear, esse grau de dependência pode ser avaliado pelo coeficiente de regressão entre duas variáveis A e B. Caso o coeficiente de regressão seja baixo não deve ser considerada essa regressão, pois o coeficiente de regressão for zero demonstra que ocorreu ausência total de dependência linear. Caso o coeficiente de regressão seja alto, então pode continuar a análise, se o coeficiente de regressão for (-1 e 1) indica que ocorre 100% de dependência das variáveis analisadas. Verificando assim que a regressão é significativa, então caso a regressão explique bem o comportamento do que acontece na interação das variáveis. Caso seja possível deve-se tentar entender o que acontece com os coeficientes de regressão. Ok 1 10. [] (IP:281473653997786 | 13:17:09 | 22:56:11 | 39:02 | 4.187) Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado, explicando como é o relacionamento. Os princípios são repetição, casualização e controle local. Os requisitos para o modelo linear generalizado são: amostras aleatórias, efeitos aditivos, erros experimentais independentes. O princípio da repetição pode ser relacionado com o efeito aditivo do MLG, no qual permiti a possibilidade de avaliar a variação do acaso em cada tratamento, podendo assim separar a variação do acaso nos tratamentos. O princípio da casualização pode ser relacionado com os erros experimentais independentes, onde com a ocorrência da casualização possibilita separar o efeito do acaso e do tratamento. O princípio do controle local, quando ocorrer ambiente heterogêneo, pode ser relacionado com a possibilidade de garantir uma condição homogênea para todos os tratamentos, permitindo assim uma homogeneidade das variâncias existente entre os tratamentos, homocedasticidade dos dados. ok 1 11. [] (IP:281473653997786 | 13:17:21 | 22:56:27 | 39:06 | 1.687) Crie uma situação experimental para o uso do delineamento em quadrado latino no campo da agronomia. Justifique. Um experimento de competição de cultivares de milho foi realizado com a finalidade de avaliar a produção de grão, por técnicos em amostragem. A área experimental foi dividia em seis partes, cada uma com seis cultivares. O experimento foi em quadrado latino 6 x 6, sendo que as linhas representam as áreas e as colunas os técnicos. Nesta situação o DBC estaria perfeitamente adequado, com cada técnico avaliando uma das diferentes áreas, que assim controlariam as duas fontes de variação ambiental 0 12. [] (IP:281473653997786 | 13:17:34 | 22:56:45 | 39:11 | 2.564) Discuta possíveis usos da correlação canônica que ajudariam a melhor entender o relacionamento entre variáveis. A análise de correlação canônica é determinada para identificar e quantificar a associação entre dois grupos de variáveis. A correlação canônica tem como finalidade entender a relação entre dois conjuntos de variáveis y0 = (y1, y2, ..., yp) e x0 = (x1, x2, ..., xq) medidos na mesma unidade amostral, encontrando um pequeno número de combinações lineares, para cada um dos conjuntos de variáveis, de modo a maximizar as correlações possíveis entre os grupos. Essa correlação pode ser utilizada no estudo de dependência multivariada e com grande número de variáveis. Não vi uma única citação de possível uso da CC, apenas uma transcrição da definição dela 0,5 13. [] (IP:281473653997786 | 13:17:50 | 22:57:36 | 39:46 | 2.123) Um experimento vai ser conduzido avaliando o efeito de cinco inoculantes rizobianos em dez variedades de caupi e quatro solos, em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas O experimento não tem limitação de material, porém existe limitação para realizar a análise do material. Sendo assim o delineamento utilizado foi em bloco casualizado. Sendo dividido em 4 blocos, conteúdo cada bloco todos os tratamentos. Fator Nível Variedades 10 Solos 4 Inoculantes 5 Repetição 4 Arranjo Fatorial 10x4x5x4 Tratamento 200 Blocos 4 Fonte de variação G.L Tratamentos(I-1) 199 Blocos(J-1) 3 Resíduos(I-1)(J-1) 597 Total(IJ-1) 799 O problema de sempre, em identificar corretamente os fatores, mas não incluí-los na análise… 0,25 14. [] (IP:281473653997786 | 13:18:05 | 22:57:47 | 39:42 | 10.602) Discuta diferentes estratégias para seleção do melhor modelo de regressão linear múltipla A estratégia para seleção do melhor modelo visa avaliar o método escolhido para os critérios estabelecidos. Nessa etapa deve considerar as variáveis significantes, eliminando as variáveis não significantes para o modelo. Das estratégias utilizadas destaca-se: (1) testar todas as regressões possíveis, essa estratégia permiti avaliar o modelo com o maior número de variáveis possíveis, porém vai obter um grande número de combinações; (2) eliminação para trás, essa estratégia começa avaliando todas as variáveis (p), depois testam todos os modelos com uma variável a menos (p-1), para cada modelo avaliar será estado o efeito que ocorre com a retirada da última variável, com isso possibilita avaliar o menor efeito da exclusão da variável; (3) seleção para frente, nessa estratégia a avaliação começa com a introdução das variáveis no modelo, sendo realizados testes para determinar o efeito da adição de cada variável no modelo; (4) Stepwise, nessa estratégia utiliza a seleção para a frente, porém a cada introdução de uma variável vai ocorrer a retirada de uma variável já presente, devido ao grande número de teste vai ocorrer o aumento da probabilidade de acontecer o erro de tipo I, no Stepwise as probabilidade de F não são adequadas. Discutir ≠ citar ou descrever. A descrição está ok, mas em momento algum você discute qualquer coisa. 0,75 15. [] (IP:281473653997786 | 13:18:19 | 22:58:25 | 40:06 | 10.163) Um experimento foi realizado em casa de vegetação, estudando vinte e cinco inoculantes diferentes para quatro variedades de feijão, utilizando quatro repetições. Só há 50 potes disponíveis. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas O delineamento utilizado não foi o bloco casualizado completo porque ocorreu uma limitação de material para execução do experimento, caso fosse utilizado os 50 potes como um bloco, nesse caso não poderia ser colocados todos os tratamentos dentro de um bloco. Sendo então utilizado o delineamento em blocos casualizados incompletos parcialmente balanceados. A escolha do bloco casualizado incompleto parcialmente balanceado ocorre porque o bloco incompleto balanceado exige que o número de repetições seja maior que o número de blocos. Porém no experimento o número de repetições foi menor que o número de blocos, sendo então utilizado o bloco casualizado incompleto parcialmente balanceados. Fator Nível Inoculante 25 Variedades 4 Arranjo Fatorial 25 x 4 N° tratamentos (t) = 100 N° blocos (k) = √t= √100=10 Fonte de variação G.L Repetição(r-1) 3 Tratamento(não ajustado)(k²-1) 99 Blocos (dentro das repetições)(r(k-1)) 36 Erros intrablocos(k-1)(rk-k-1) 261 Tratamento(ajustado)(k²-1) 99 Total(rk2-1) 399 Assim como nos demais que pegaram este caso, acertou na escolha do delineamento, que aliás foi afetada por engano meu na montagem da situação, mas não descreveu o fatorial na análise de variância. Vai levar 1,0 simplesmente pela escolha correta do delineamento. 16. [] (IP:281473653997786 | 13:18:36 | 22:58:40 | 40:04 | 14.103) Qual a principal consequência do uso de parcela subdividida? A redução da precisão estatística em comparação ao fatorial simples, porque vai ocorrer uma redução (divisão) da variação do acaso para a parcela principal e a subparcela, reduzindo o grau de liberdade e a soma dos quadrados. Porém pode ocorrer uma melhor precisão operacional durante a implantação e condução do experimento, reduzindo o custo do experimento, redução da aera experimental, redução do erro de condução e variação ambiental. Analisando essas características, pode compensar a redução da precisão estatística (que ocorre na parcela subdividida), de acordo com as condições disponíveis para a implantação do experimento. Sendo melhor reduzir a precisão estatística e realizar o experimento, do que não realizar o experimento devido a falta de recurso ou disponibilidade de área, material ou mão de obra para condução do experimento. Excelente 1 17. [] (IP:281473653997786 | 13:18:51 | 22:58:53 | 40:02 | 7.888) A inexistência de interação significativa indica que os fatores são independentes? A inexistência de interação significativa indica que os fatores são independentes, a partir do momento que não ocorre interação significativa nenhum dos fatores estão influenciando os outros, como resultados significativos somente terá o efaito principal de cada fator. Embora para fins práticos realmente possamos considerar que os fatores são independentes, é sempre bom lembrar que significância só está ligada com a chance do efeito acontecer devido ao acaso, que neste caso é pequena. Ou seja, não podemos ter certeza de que os efeitos são independentes realmente, apenas que há uma chance excessiva da modificação do efeito de um em função do outro acontecer devido ao acaso. 1. 18. [] (IP:281473653997786 | 13:19:03 | 22:59:14 | 40:11 | 12.506) Discuta a diferença entre as hipóteses estatística e científica, considerando em particular as consequências desta diferença. A hipótese científica é a construção de um problema científico, a base científica da pesquisa ou a linha que será desenvolvida a pesquisa. Pode ser também definida como a descrição do que se espera em uma determinação situação, a partir de um levantamento de uma teoria, verdadeira ou não. Para a formulação de uma hipótese é necessário um conjunto observações ou dados, para esta ser verificada ou testada. O entendimento dos resultados na hipótese científica não será baseado em um modelo matemático. As hipóteses estatísticas são suposições formuladas feitas a respeito do valor dos parâmetros nas populações, deve explicitar e sempre comparar parâmetros. A hipótese estatística é realizada para ter conclusões sobre uma ou mais populações através das estimativas de parâmetros ou pelos testes de hipóteses, ou seja, testar a nulidades dos dados. Como os dados na análise estatística vêm das estimativas de parâmetros, a decisão sobre a hipótese científica está associada a uma probabilidade de erro. A hipótese estatística avalia os dados numéricos obtidos através de modelos matemáticos fixo e contendo restrições. Na hipótese estatística formula-se a hipótese nula (H0), não existe diferença significativa entre os tratamentos, e a hipótese alternativa (Ha ou H1), existe diferença significativa entre os tratamentos. A hipótese testada é a hipótese nula. Ok 1 19. [] (IP:281473653997786 | 13:19:32 | 22:59:40 | 40:08 | 0.564) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. A heterocedase pode ser considerada um problema quando ocorrer à presença de variâncias inconstantes (desiguais), não sendo possível fazer a separação do efeito do tratamento da variação do acaso. A homocedase, oposto da heterocedase é um dos pré-requisitos estabelecidos pelo modelo linear generalizado, a variação dos tratamentos seja constante, variáveis aleatórias independentes, e a distribuição dos erros normal. Na prática podem ser utilizadas regras para identificar a igualdade da variância, os resultados de uma análise de variância são válidos quando o maior valor não exceder em três vezes o menor, como também a maior variância não exceder em quatro vezes a menor. Essas regras são válidas quando os tratamentos são similares e com mesmo número de repetições, não sendo utilizada em caso de assimetria e curtose positiva. Existem também testes utilizados para avaliar a igualdade de variâncias, mas nenhum tem ampla recomendação. Os testes são os de Cochran, Hartley, Bartlett, Levene. O teste de Bartlett é muito utilizado, porém em caso de curtose negativa pode mascarar diferenças existentes ou em caso de curtose positiva pode encontrar diferenças onde não existe. Para diminuir a heterocedase podem ser utilizadas transformações, essas serão aplicadas de acordo com a forma que os dados foram obtidos. Os dados obtidos pelo processo de contagem recomenda-se extrair a raiz quadrada para transformar dos dados, diminuindo a heterogeneidade das variâncias dos dados obtidos. Caso os dados sejam obtidos por proporções será utilizado o arco seno da raiz quadrada da proporção, para transformações dos dados. Ok 1 20. [] (IP:281473653997786 | 13:19:49 | 23:05:22 | 45:33 | 289.961) Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor nível de um fator". Não, porque quando a interação é significativa o nível de um fator isoladamente não vai ter importância na interação. Não podemos dizer que existe um melhor nível de um fator com uma interação significativa, porque quando ocorre essa interação não vai ser necessário identificar o melhor nível e sim identificar a interação. Caso não ocorra interação significativa pode-se avaliar o melhor nível de um fator, essa avaliação poderá ser realizada pelo efeito principal. Ok 1 21. [] (IP:281473653997786 | 13:20:11 | 23:00:20 | 40:09 | 2.106) Debata os principais prós e contras das diferentes alternativas para análise de medições repetidas. Na medição repetida as alternativas para análise são analisar cada variável separadamente, multivariada, parcela sub-dividida e modelo misto. Na análise univariada, com variável separada, independente, que exige uma distribuição normal e variância constante, porém pode ocorrer erro cumulativo e perda de informação sobre a interação tempo x tratamentos. Na análise multivariada, essa análise não deve ser utilizada quando os dados estão desbalanceados, reduz o erro tipo I, porque reduz o número de testes, porém podem indicar diferenças significativas erradas, casos os erros não tenha uma distribuição normal. Na parcela sub-dividida, após realizar o teste de esfericidade de Mauchly, caso o teste seja significativo, pode-se considerar diferentes níveis como independentes, porém esse modelo pode ser válido para uma e não outra. No modelo misto, que considera a existência de co-variância entre as repetições, representando melhor os dados, permiti juntar as informações das diferentes variáveis, com isso possibilita uma representação dos dados e condição de dependência entre as variáveis. Pode também ser utilizado em todas as variáveis, permitindo a interação entre tratamento e tempo/profundidade. excelente 1 22. [] (IP:281473653997786 | 13:20:22 | 23:00:31 | 40:09 | 2.736) Discuta possíveis vantagens e desvantagens do uso de regressão na ciência do solo. Detalhe em particular cuidados que devemos tomar em sua interpretação. A regressão tem importante papel na ciência do solo devido a grande utilização na interpretação de resultados experimentais, através da possibilidade de verificar a existência de uma relação entre uma variável de interesse experimental dependente com uma ou mais variáveis independentes. Essa relação é expressa por uma função de regressão (função matemática), onde a variável dependente (Y) é uma fração da variável independente (X). Uma vantagem da regressão é poder estimar dados dentro de um intervalo de valores, relacionando uma variável com a com a outra em diversos aspectos. Podendo assim, explicar a ligação entre uma variação da variável dependente pela variação da variável independente, através da equação matemática e obter informações dentro desse intervalo de valores. Diversos exemplos podem ser citados nas áreas da ciência do solo, um exemplo é o experimento com doses de adubos, com a regressão pode interpolar dado e determinar a dose ideal dentro de um intervalo de valores. Uma desvantagem da regressão é não permitir a análise além do intervalo de dados (extrapolação dos dados). Os dados devem estar no intervalo de dados estudado, com isso não pode generalizar a situação estudada para a população. Outra desvantagem é a escolha do modelo adequado, que melhor represente a situação experimental. Devese ter um conhecimento teórico do assunto trabalhado, para tomar as decisões corretas. Porque pode ter uma situação onde tenha significância estatística, porém não tem importância para a área em estudo. Ok 1 1. [] (IP:281474055516560 | 10:10:12 | 23:45:11 | 34:59 | 42.895) Justifique a afirmativa: "Não é possível afirmar qual o melhor delineamento sem conhecer todos os detalhes do trabalho" Sim, não possível afirmar qual o melhor delineamento sem conhecer as características do trabalho a serem executadas, sem conhecer as reais necessidades. Pois, é em função dos objetivos a serem pesquisados, do local a ser implantado, da disponibilidade de materiais e recursos, da mão de obra, que se define o melhor delineamento a ser executado. Ok, mas deveria ter explicado como isto acontece, e não ficado somente nestes termos genéricos até dizer basta 0,75 2. [] (IP:281474055516560 | 10:11:26 | 23:46:44 | 35:18 | 13.939) Discuta a relação entre a regressão e um relacionamento causa-efeito. A regressão é um modelo matemático que estima a relação existente entre uma variável dependente e uma variável independente, a regressão não explica, não determina a causa-efeito dos parâmetros avaliados. Ok, mas parece estar pagando por palavra 1 3. [] (IP:281474055516560 | 10:12:09 | 23:47:16 | 35:07 | 5.438) Discuta a afirmativa: "Toda descrição de uma amostra de dados precisa de pelo menos dois valores", e justifique sua posição O número mínimo para descrever uma amostra de dados pode ser dois valores, assim, a partir deste podemse obter parâmetros de medidas de tendência central e medidas de variação. Porém este não é número ideal para descrever com maior precisão a realidade representativa de uma amostra, se esta amostra de fato corresponde à população ou a uma variação do acaso, sendo importante um número maior de valores, repetições, para melhor descrever a amostra e analisar a veracidade. De onde apareceu repetição nesta estória? Se estou calculando medida de variação, é auto-evidente que tenho mais de um valor, se não seria impossível calcular variação por definição. A resposta está correta, mas no fim se embananou… 1 4. [] (IP:281474055516560 | 10:12:35 | 23:48:19 | 35:44 | 14.278) Explique porque podemos considerar que o nível de significância de uma regressão é menos crítico do que sua importância intrínseca. Podemos fazer essa consideração devido à maioria das regressões serem significantes, porém não necessariamente importantes. À exemplo, um experimento bem conduzido e utilizando dados corretos pode apresentar dados significativos porém não importantes, enquanto que outro experimento pode apresentar diferenças pequenas significativas e importantes que possuem grande influência na conclusão de uma pesquisa. Ok 1 5. [] (IP:281474055516560 | 10:13:08 | 23:49:41 | 36:33 | 5.055) Discuta diferentes critérios para seleção da melhor regressão linear múltipla. Os critérios de seleção da melhor regressão linear múltipla consistem no fator que será utilizado para a escolha do modelo, objetivando avaliar o grau de confiança das estimativas obtidas e selecionar aquele que permita minimizar a chance de ocorrer o erro tipo I. A escolha do melhor regressão linear múltipla pode ter como critérios: o coeficiente de correlação (R) - que mede o ajustamento, o grau de afinidade das variáveis com o modelo linear, indicando a proximidade dos pontos numa reta de regressão, ou seja, quanto maior for o valor do R, que varia de 0,0 a 1,0, maior será a proximidade dos pontos na reta de regressão; o valor de F que mostra a relação entre a variação devida ao resíduo e ao acaso; e o coeficiente de determinação (R²) – que mostra o quanto as variáveis estão relacionadas entre si, da mesma forma que o coeficiente de correlação, quanto maior for o valor do R², que também varia de 0,0 a 1,0, melhor será o coeficiente de determinação. Ok 1 6. [0.000] (IP:0 | 10:13:19 | --:--:-- | --:-- | ------ ) Quais são os principais critérios a avaliar durante o planejamento de uma amostragem? Em branco 0 7. [0.000] (IP:0 | 10:14:28 | --:--:-- | --:-- | ------ ) Um projeto será conduzido para avaliar o efeito de tempo de cultivo com mandioca, cana, milho e pastagem sobre a qualidade do solo nas três macro-regiões pernambucanas, de forma independente para cada uma. Em cada macro-região serão selecionados quatro municípios distintos, que serão as repetições, e em cada município serão avaliados cinco tempos de cultivo e uma área de vegetação nativa. Serão avaliadas características físicas, químicas e microbiológicas do solo, bem como sua profundidade por tradagem. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. Em branco 0 8. Discuta as aplicações da medição repetida em solos. As aplicações da medição repetida em solos permite fazer avaliações de indivíduos que apresentem alguma dependência (como, por exemplo, avaliações em diferentes profundidades do solo), decompor a variabilidade total nos dados, excluir as diferenças individuais reduzindo a variância do erro tipo I, e utilizar um menor número de sujeitos sendo esta uma importante vantagem prática. Eu não perguntei o que era a medição repetida, mas sim aplicações desta em solos 0,25 apenas porque sintetizou bem 9. [] (IP:281474055516560 | 10:15:36 | 23:52:35 | 36:59 | 55.244) Crie uma situação experimental para o uso do delineamento em quadrado latino no campo da agronomia. Justifique. Uma situação exemplo em que o quadrado latino pode ser aplicado na agronomia é em uma avaliação do efeito de cinco diferentes doses de adubo em cinco variedades de milho. Pois que o uso do delineamento em quadrado latino exige que o número de tratamentos seja igual ao número de repetições e este é utilizado quando há heterogeneidade cruzada, ou seja, quando há variação nos dois sentidos sendo necessária a aplicação de dois controles locais, seria justificável o seu uso para o experimento a ser implantado. O que você descreveu é um fatorial de adubo por variedade, sem a menor relação com quadrado latino 0 10. [] (IP:281474055516560 | 10:16:02 | 23:53:37 | 37:35 | 10.209) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. Os outliers compreendem os pontos discrepantes que promovem uma maior variação em determinado tratamento, promovendo a heterocedase. Estes podem ocorrer por causas diversas, sendo de importância avaliar se os dados correspondentes a estes pontos são reais e o tipo de informação obtida. Assim, a identificação de outliers pode ser realizada através de análises gráficas (histogramas, modelos de discordância, gráfico de Box, teste de Grubbs, teste de Dixon) ou, simplesmente, através de observações diretas quando o conjunto de informações é pequeno. Outra forma possível de identificar os outliers pode ser através do gráfico dos resíduos, onde, sabendo-se que na distribuição normal 95% dos dados ficam entre um e dois desvios padrões da média, e que 99% dos dados ficam entre mais três ou menos três desvios padrões da média, será considerado outlier todo o dado que for encontrado além destes desvios, ou seja, outlier serão todos os dados que se encontram quatro ou mais desvios a partir de zero. Uma das medidas possíveis para resolver os problemas com outliers e diminuir a falta de aditividade e a heterocedasticidade é realizar transformações de unidades através de logarítimo, arcoseno, raiz quadrada e potência. Então, avalia-se a homocedastidade através de alguns testes (Cochran, Hartley, Bartlett, Levene). Se, ainda assim, existir a presença dos outliers, recomenda-se eliminá-los para tornar os dados homocedásticos e ser possível seguir com a análise de variância, isto somente após discutir previamente esta tomada de decisão que é definida pela pesquisa e não pela análise estatística, pois os outliers podem possuir importantes informações acerca da pesquisa realizada. E caso, ainda assim, não seja possível a homocedase através da eliminação dos outliers, deve-se utilizar da estatística não-paramétrica. Excelente 1 11. [] (IP:281474055516560 | 10:17:45 | 23:54:50 | 37:05 | 5.214) Um experimento vai avaliar dez doses de fósforo em cinco solos diferentes em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas O arranjo indicado é o fatorial 10 x 5 (10 doses de fósforo x 5 solos diferentes) com 4 repetições, pois permite fazer diferentes combinações entre os diferentes fatores e avaliar a existência de interação, se há influência de um fator sobre o outro. O delineamento mais adequado é o DBC – Delineamento em Blocos Casualizados, pois as maiorias das casas de vegetação não possuem homogeneidade quanto à temperatura e luminosidade, por exemplo. Então posso realizar este experimento em quatro blocos com uma repetição para cada tratamento em cada bloco, para garantir que todos os tratamentos possuirão as mesmas condições. F.V G.L Tratamento t - 1 = 50 - 1 = 49 Bloco r - 1 = 4 - 1 = 3 Resíduo (t -1) (r - 1) = 49 x 3 = 147 Total t r - 1 = (50 x 4) - 1 = 199 Infelizmente como a vasta maioria das respostas identificou o fatorial de um lado e simplesmente desconsiderou do outro 0,25 12. [] (IP:281474055516560 | 10:18:44 | 23:55:02 | 36:18 | 3.269) Discuta a afirmativa: "No caso de uma interação, não devemos analisar qualquer efeito principal." Sim, pois quando existe interação não faz mais sentido discutir o que ocorreu no efeito principal e quando a interação é significativa o efeito principal que existe já está envolvido na interação. Assim, não possui sentido algum discutir o efeito principal de um único fator quando que o efeito de mais fatores são maiores que este. Tudo bem que a resposta é realmente que não devemos, mas que tal tentar explicar porque sem utilizar a definição circular de que não devemos porque não devemos, que foi essencialmente a resposta? 0,25 13. [0.000] (IP:0 | 10:19:09 | --:--:-- | --:-- | ------ ) Discuta possíveis usos da correlação canônica que ajudariam a melhor entender o relacionamento entre variáveis. Em branco 0 14. [] (IP:281474055516560 | 10:19:31 | 23:56:10 | 36:39 | 3.154) Um experimento vai avaliar a resposta de dez cultivares de soja a cinco inoculantes rizobianos, em campo, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas O arranjo indicado é o fatorial 10 x 5 (10 cultivares de soja x 5 inoculantes rizobianos) com 4 repetições, pois permite fazer diferentes combinações entre os diferentes fatores e avaliar a existência de interação, se há influência de um fator sobre o outro. Como a avaliação será realizada em campo e, sabendo-se que, este não possui homogeneidade, o delineamento mais adequado também é o DBC – Delineamento em Blocos Casualizados. Assim, é possível realizar este experimento em quatro blocos com uma repetição para cada tratamento em cada bloco, garantindo a todos os tratamentos às mesmas condições. F.V G.L Tratamento t - 1 = 50 - 1 = 49 Bloco r - 1 = 4 - 1 = 3 Resíduo (t -1) (r - 1) = 49 x 3 = 147 Total t r - 1 = (50 x 4) - 1 = 199 Novamente identificou corretamente o fatorial, e simplesmente desconsiderou isto na análise 0,25 15. [] (IP:281474055516560 | 10:20:02 | 23:56:29 | 36:27 | 4.476) Podemos esperar o mesmo grau de eficiência dos diferentes tipos de fatorial? Não, no fatorial simples é possível quantificar a variação do acaso entre todos os fatores, ou seja, há um ganho estatístico maior quando comparado às parcelas subdivididas, pois que nestes temos duas fontes de variação do acaso, nas parcelas principais e nas subparcelas. Na parcela subdividida também é possível quantificar a variação do acaso, mas a parte final é que responde bem a questão 1 16. [] (IP:281474055516560 | 10:20:24 | 23:56:57 | 36:33 | 3.126) Todo fatorial com o mesmo número de tratamentos tem o mesmo grau de complexidade? Não, pois que o tratamento é uma combinação entre fatores com diferentes níveis a complexidade se dará em função destes e não no número total de tratamentos. Novamente, resposta correta, mas razão impossível de entender. A complexidade de interpretação acontece em função do número de fatores envolvidos no fatorial, não em função do número de níveis de cada fator 0,75 17. [0.000] (IP:0 | 10:20:44 | --:--:-- | --:-- | ------ ) Diferencie repetição real, repetição experimental, e réplica. Em branco 0 18. [] (IP:281474055516560 | 10:21:06 | 23:57:39 | 36:33 | 10.318) A inexistência de interação significativa indica que os fatores são independentes? Não, a ausência de interação significativa indica que o efeito principal é maior que o efeito secundário, pois sempre existem ambos, o efeito principal e a interação, porém essa interação é tão pequena que consideramos que ela não existe e consequentemente os fatores são independentes. Ok 1 19. ------ ) Qual a importância da interação? A interação tem sua importância para avaliação da relação existente entre os fatores de um experimento, como um fator afeta o outro. Assim quando uma interação existe a avaliação dos efeitos principais não possuem mais interesse, pois que o efeito da interação é maior e consequentemente mais significativo. Ok 1 20. [0.000] (IP:0 | 10:22:07 | --:--:-- | --:-- | ------ ) Considerando que tenha encontrado problemas na avaliação das premissas do Modelo Linear Generalizado, discuta as principais técnicas usadas para resolver estes problemas. Em branco 0 21. [0.000] (IP:0 | 10:22:27 | --:--:-- | --:-- | ------ ) Compare as possíveis técnicas adotadas para seleção do modelo mais adequado para uma regressão linear múltipla. Em branco 0 22. [0.000] (IP:0 | 10:23:28 | --:--:-- | --:-- | ------ ) Um experimento vai ser conduzido no campo avaliando 100 novos clones de palma forrageira com adubação orgânica, mineral ou uma combinação, com duas repetições.Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Em branco 0 1. [] (IP:281473816234880 | 00:02:07 | 23:12:20 | 10:13 | 3.893) Quais são os principais critérios para avaliar a qualidade de uma amostragem? A amostragem é o procedimento para selecionar amostras representativas da população, sendo que em alguns casos a experiência do pesquisador é levado em consideração, porém para representar bem uma população a amostra deve ter quantidade e qualidade. A qualidade se refere a como e onde selecionar a amostra e como selecionar, sendo garantida pelo pesquisador, onde delimitará os aspectos gerais de representação da população, para isso pode-se utilizar método aleatório (sorteio) ou o representativo para selecionar os elementos da amostra, variando o tipo de amostragem . Mas em alguns casos podemos ter uma boa quantidade sem qualidade, tendo conclusões errôneas, como também boa qualidade sem quantidade, sem representatividade correta, o ideal é boa qualidade e boa quantidade. Para evitar tais problemas deve-se seguir um padrão: Não se deve coletar dados sem que antes se tenha definido claramente o problema; Os sistemas de medição (instrumento, operadores, método, meio) que serão utilizados devem ser avaliados e ter capacidade de medição suficiente; Devem ser utlizados métodos adequados para coleta de dados de acordo com o problema estudado. Ok 1 2. [] (IP:281473816234880 | 00:02:43 | 23:12:51 | 10:08 | 29.862) Explique porque podemos considerar que o nível de significância de uma regressão é menos crítico do que sua importância intrínseca. De modo geral, a significância é apenas um indicativo da probabilidade de erro na afirmação de um acontecimento, sendo esta, na análise de regressão, muito freqüente de acontecer mesmo com o mínimo de relação biológica entre as variáveis podendo ocorrer por mera coincidência. Desta forma, a significância não é um indicador de importância científica, que é a relação entre variáveis, ou seja, se esta ligação é importante o suficiente para discutir, por isso é importante analisar o coeficiente de correlação. Na regressão, se a relação entre duas variáveis é importante, normalmente, também é significativo, porém a recíproca pode não ocorrer. Em modelos lineares a importância é principalmente definida por: proporção da variância atribuída ao modelo, o tamanho de um ou mais coeficientes de correlação, intervalos de confiança de interesse. Assim, em modelos de regressão torna-se mais relevante a avaliação da importância científica do que a significância, uma vez que essa é um indicativo de quanto da variação total está sendo explicado pelo modelo, ou seja, pelo coeficiente de determinação da regressão. Duas regressões podem apresentar o mesmo nível de significância sem necessariamente possuírem a mesma importância cientifica. Excelente 1 3. [] (IP:281473816234880 | 00:03:05 | 23:13:55 | 10:50 | 26.181) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. As conseqüências da heterocedasticidade são a curtose positiva (distribuição dos dados não se assemelha a média) e a assimetria ( na curva os 2 lados não são iguais, devido que o desvio-padrão do conjunto de dados não aumenta quando a média aumenta), causando anormalidade . A heterocedase por causa da ausência de independência torna o nível de significância maior do que o previsto, ou seja, a chance de ocorrer erro do tipo I (rejeitar a hipótese nula (Ho), quando ela é verdadeira, causando assim grandes prejuízos) por isso é um problema sério. A prevenção da heterocedase vai desde a detecção de outliers e identificando o por que da sua ocorrência, calculando resíduo padronizado (RP=desvio/(raizQMR) caso exista, eliminar para torná-lo” homocedástico, elimina-se esse ponto e refaz a analise novamente para ver o comportamento. Caso não tenha dependência dos resíduos, se faz transformação dos dados mudança de escala, onde os dados sejam independentes, sendo que depende do que está avaliando (eliminar ou transformar). A correção dada por meio de Testes de Homocedase (Cochran, Hartley, Bartlett e Levene), que a analisa a variância dos resíduos dos tratamentos, onde as variâncias precisam ser homogêneas para que o teste F seja não significativo e assim indicar a homocedase. Resposta correta, exceto quanto ao primeiro parágrafo. Curtose positiva e assimetria estão ligadas com a importância da falta de normalidade dos resíduos, não com heterocedase, pelo que me consta 1 4. [] (IP:281473816234880 | 00:03:26 | 23:14:00 | 10:34 | 4.907) Discuta diferentes critérios para seleção da melhor regressão linear múltipla. A priori para selecionar a melhor regressão linear múltipla é selecionar usando o teste de hipótese as variáveis que serão estudadas no modelo, sabendo-se do maior relacionamento da variável independente com o mínimo de variáveis independentes. Para os modelos aninhados, o padrão para selecionar o melhor, sendo aquele que envolva poucos parâmetros, mas que expliquem de maneira satisfatória a real situação avaliada. Sendo que os critérios estam relacionados com as escolhas das variáveis ou critérios estatísticos de avaliação bem estabelecidos e funcionais, como o coeficiente de regressão (R), o coeficiente de determinação (R²), coeficiente de determinação corrigido (R²c), t, Fs e nível de significância. Outra possibilidade é utilizar critérios baseados no máximo da função de verossimilhança, conhecidos como AIC (índice que leva em conta a qualidade e a quantidade de parâmetros utilizados em uma regressão), quanto menor o AIC, melhor o modelo. Ok, mas somente pelo finzinho da resposta 1 5. [] (IP:281473816234880 | 00:04:11 | 23:14:29 | 10:18 | 22.152) Como o número de níveis de um fator pode afetar a precisão dos demais fatores de um experimento? As combinações entre os níveis dos fatores implicam diretamente no aumento do número de tratamentos, onde nos deparamos com alguns problema como instalar e distribuir os tratamentos na área correspondente para a experimentação. Pois os delineamentos tem suas exigências para ter precisão nas avaliações, DIC, a exigência para obter uma boa precisão nas avaliações é a homogeneidade do ambiente, no DBC a exigência é que todos tratamentos estejam contidos no bloco para obtenção de precisão nas avaliações. Bem, minha ideia era falar sobre repetições reais, mas sua resposta também está correta, já que o aumento do tamanho do experimento, por conta do aumento do número de tratamentos realmente pode afetar a precisão geral do experimento, através de aumento na variabilidade ambiental. Boa saída. 1 6. [] (IP:281473816234880 | 00:04:35 | 23:14:57 | 10:22 | 22.355) O fato de termos mais de um valor para uma dada variável, no mesmo tratamento, indica que o princípio da repetição está sendo obedecido? Discuta. Sim, pois a repetição corresponde ao número de vezes em que o mesmo tratamento se repete, e não diferentes valores dentro do tratamento, sendo que, com o aumento desse parâmetro há a diminuição da chance de erro do experimento. Este princípio é utilizado quando se sabe de variações do ambiente, e tentase minimizar esse efeito pelo aumento do número de repetições. Não, porque podem ser réplicas, como no uso de sub-amostras saídas de uma mesma amostra durante a determinação de teores de nutrientes no laboratório 0 7. [] (IP:281473816234880 | 00:04:53 | 23:15:20 | 10:27 | 15.29) Compare os efeitos principal e secundário de uma interação, do ponto de vista das informações que podem ser obtidas a partir deles. Para o efeito principal, o fator é estudado de forma isolada isso independente do efeito dos demais fatores, e no efeito secundário corresponde às interações que ocorrem entre os fatores onde são estudados de forma conjunta. Quando a interação é significativa, os efeito dos fatores isolados não são de grande interresse para o entendimento do fenômeno, uma vez que a interação fornece uma representação mais confiável. Para a interação dupla se faz uso de testes de variância, ocasionando o aumentando da precisão e a real estimação dos efeitos das interações entre os fatores. Mas caso a interação seja tripla e quádrupla aumenta o grau de dificuldade, sendo que a discussão dos resultados em muitos casos não é bem aceitável, pois o real objetivo é a compreensão do processo biológico. Ok 1 8. [] (IP:281473816234880 | 00:05:57 | 23:16:03 | 10:06 | 36.492) A escolha do delineamento pode afetar a capacidade de encontrar diferenças entre os tratamentos? Partindo do exemplo em que delineamento em blocos casualizados é escolhido de forma errada, haverá um consumo excessivo de GL sem uma correspondente perda de soma de quadrados, alterando assim o F. Quando o GL do resíduo é baixo, são precisos maiores valores de F para que haja diferença significativa entre os tratamentos, e uma diferença que seria significativa em um DIC, pode não ser em um DBC. Tendo essa preocupação a escolha do delineamento mais adequado implicará na correta determinação dos efeitos do tratamento e acaso o que acarreta uma maior precisão nos resultados obtidos. Ok 1 9. [] (IP:281473816234880 | 00:07:00 | 23:17:33 | 10:33 | 5.781) Um experimento vai avaliar o efeito de cinco fontes de carboidratos no desenvolvimento de 100 estirpes rizobianas, em placa de petri (16 cm de diâmetro x 3 cm de altura) com cinco repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas 100 (estirpes rizobianas) X5 (fontes de carboidratos )X5 (repetições) Arranjo Fatorial DBC (DELINEAMENTO EM BLOCOS CASUALIZADOS) F.V. G.L. ESTIRPES(E) 99 CARBOIDRATOS(C) 4 E X C 396 TRATAMENTOS 499 BLOCOS 4 RESÍDUO 1996 TOTAL 2499 Ao considerar que somente uma pessoa irá realizar o trabalho, sendo necessário preparar um total de 2500 placas e que cada placa necessita de um tempo para preparo, é preciso dividir o experimento em blocos, tendo como causa de variação o operador leva um tempo para preparar a primeira placa a ser preparada e a última. A ordem de preparação das placas deve ser feita por meio de sorteio, reduzindo assim a variação do acaso.Arranjo Fatorial pois não faz a comparação de tratamento com tratamento, todo mundo com todo mundo, porque não se está interessado no tratamento, mais sim com o comportamento de um fator em afetar em outro fator, se tá afetando e, de que maneira. E sim a interação entre os fatores. Aleluia, salvou-se uma alma…. Eu já estava tão desesperado por conta destes erros que vou dar 1,5 ponto… 10. [] (IP:281473816234880 | 00:08:20 | 23:17:51 | 09:31 | 17.18) Quais são os principais pontos que devemos avaliar ao estudar uma regressão? Ao avaliar a importância dos dados e sua representação para explicação da regressão, dando ênfase somente na significância dos dados. A mesma não possibilita representar o que acontece nos diferentes fatores biológicos e sim determinar se os valores dos dados acontecem devido ao acaso. Segundo ponto que deve ser avaliado é o tamanho dos coeficientes de correlação, os valores dos coeficientes podem ser altos, porém podem não interpretar os fenômenos biológicos que ocorrem durante o estudo. Terceiro ponto que também deve ser avaliado é o intervalo de confiança de interesse no estudo, esse intervalo de confiança deve determinar com base na média dos dados das amostras, a estimativa da média da população. Ok 1 11. [] (IP:281473816234880 | 00:08:45 | 23:18:36 | 09:51 | 38.238) Qual a principal contribuição que podemos esperar da análise de componentes principais? A análise de componentes principais consiste em transformar um conjunto de variáveis originais em outro conjunto de variáveis de mesma dimensão. A análise é associada à idéia de redução de massa de dados, com menor perda possível da informação. Contudo sua importância é uma visão conjunta de todas ou quase todas as técnicas da estatística multivariada para resolver a maioria dos problema práticos. Ok 1 12. 816234880 | 00:09:00 | 23:19:09 | 10:09 | 3.816) Qual a importância da interação? experimentação onde está avaliando mais de um fator, com tendência de dependência entre dois fatores, ou melhor um fator pode modificar o comportamento do outro. Sendo na análise há a existência de uma interação é significativa, não é necessário a interpretação dos efeitos principais, uma vez que a interação tem mais argumentos para explicar o fenômeno. A grande importância da interação é devido que sua maior precisão na interpretação e possuir uma maior proximidade da realidade onde leva em consideração todas as combinações possíveis entre os fatores atuantes no experimento. Parece ter cortado um pedaço quando passou a resposta para o sistema, mas não chegou a dificultar o entendimento da resposta 1 13. [] (IP:281473816234880 | 00:09:13 | 23:20:43 | 11:30 | 9.749) Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado, explicando como é o relacionamento. O Modelo Linear Generalizado está relacionado com seus requisitos, pois, os dados tem que obedecer os mesmos para que tenha uma representação correta dos efeitos dos tratamentos. A aditividade, para permite a separação dos efeitos, pois se não forem aditivos, não há a possibilidade de calcular cada efeito separadamente. O conjunto de dados tem que ser devido ao acaso, aleatórios, pois se não forem, pode ser que venham a satisfazer o modelo, tornando-os irreais, não mostrando realmente acontece nos tratamentos. Para o MLG, é necessário que os erros experimentais sejam independentes, independência esta obtida através da casualização e seus efeitos sejam devido ao acaso, onde a não adequação acarretará problemas na analise de variância. Quanto a distribuição normal da variação do acaso sejam semelhantes de tal forma que uma represente todo o experimento, sendo que a média seja igual a zero, permitindo assim calcular os diferentes efeitos. As variâncias devem ser constantes, e a homocedase também é requerida. Para que isso seja válido, a analise da maior variância não devem exercer três vezes a menor variância. Confuso, mas ok 1 14. [] (IP:281473816234880 | 00:09:25 | 23:57:13 | 47:48 | 47.757) Será conduzido um projeto para avaliar a reciclagem de nutrientes em pastagens, caatinga e mata atlântica, ao longo do tempo. Para este fim será realizada a coleta da produção natural de serrapilheira, seu conteúdo de nutrientes e sua decomposição. O projeto também deverá avaliar a biomassa presente em cada ecossistema, bem como características microbiológicas, químicas e de física do solo. Deverão existir repetições reais em cada ambiente. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. E alguns autores conceituam que um modelo com ambos, efeitos fixos e aleatórios é chamado de modelo de efeitos mistos, ou apenas modelo misto, porque inclui vários efeitos representando diferentes fontes de variação aleatória. Misturou alhos com bugalhos… a resposta simplesmente não tem o mínimo de relação com a pergunta, além de ter toda a cara de ter sido copiada diretamente de algum canto 0 15. Diferencie interação e efeito principal. Efeito principal é o efeito de um fator sem levar em consideração os demais, expressa o que acontece com os outros fatores.O mesmo é medido a partir do total dos fatores considerados, visto seus níveis e repetições. Já a interação que também pode ser chamada de efeito secundário, leva em consideração como um fator afeta a resposta do outro fator, considerando todas as combinações possíveis entre os fatores, as interações são medidas pela combinação de fatores em relação ao conjunto geral de fatores.A mesma é a resposta de uma ação conjunta entre dois ou mais fatores, e que na sua presença os efeitos principais isolados não são mais tão importantes, porque as interações serão mais consistentes, e representam melhor a realidade. Ok 1 16. [] (IP:281473816234880 | 00:09:49 | 23:30:59 | 21:10 | 6.08) Considere e discuta a seguinte afirmativa: "Nem sempre o modelo com o melhor R² nãoajustado é o mais adequado". O uso do R2 não-ajustado não é adequado, pois quanto maior o número de variáveis utilizadas, maior é o R2, isto devido a conseqüência destas variáveis adicionadas podem não estar explicando nada, que mesmo assim estariam aumentando automaticamente o R2. O R2 ajustado serve para corrigir o efeito do aumento do R2. A se utilizar o R2 ajustado é adicionado mais variáveis na equação, onde estas variáveis adicionadas ajudam a explicar melhor a situação, portanto, o ideal é utilizar o modelo mais simples e que explique tão bem quanto o modelo mais complexo. Ok 1 17. [] (IP:281473816234880 | 00:10:05 | 23:31:21 | 21:16 | 5.822) Debata os principais prós e contras das diferentes alternativas para análise de medições repetidas. Na análise univariada nos permite avaliar cada variável separadamente, podendo ser medida para uma ou mais amostras independentes. Uma desvantagem desta análise é não levar em conta as correlações entre as variáveis na mesmas unidades experimentais acarretando o erro acumulativo, causando assim um problema (conclusões divergentes e errôneas), quando as análises realizadas para cada variável, onde não tem como comparar estatisticamente ou melhor não tem como afirmar o grau de certeza. E para resolver tal problema adota-se análises alternativas: (análise multivariada, parcela sub-dividida e modelo misto “fatorial especial”. Na analise multivariada, os dados são correspondentes ao conjunto de todas variáveis, sendo sua grande vantagem, pois se tem um resultado único da análise, onde nos assegura a maior generalização dos resultados, diminuindo ou inexistindo o erro tipo I acumulativo, isso quando comparada com a univariada. Refletindo com que o número, da diferenças significativas sejam menores quando se utiliza o modelo anterior. Sendo sua desvantagem, uma interpretação bem diferente do comum e bem mais rigorosa, pois se baseia em um nível de significância conjunta. Para se verificar a possibilidade de uso de parcela sub-dividida onde se limita, em que não posso assumir que existe dependência, para isso é feito o teste de esfericidade de Mauchly, podendo ser feita para cada variável (apenas uma ou outra), no qual verifica se uma população apresenta variâncias iguais e correlações nulas (independência das amostras em uma mesma parcela ao longo do tempo.). As amostras quando consideradas independentes entre si, temos a opção de considerar como parcela sub-dividida no tempo. Quando essa condição não é satisfeita pode-se fazer algumas transformações e correções dentro de alguns limites propostos pelo teste, caso não seja satisfeita usá-se um modelo ideal ou modelo misto . A grande vantagem é o conceito e o procedimento da análise que é “simples”, a desvantagem é o problema da análise propriamente dita, que não é válida, e tem alta chance de ser rejeitada por possíveis problemas. O modelo misto “fatorial” as variáveis estão no mesmo nível, onde não assume a independência mas reconhecemos uma dependência explicitamente no modelo, sendo a mesma parecida com fatorial mas com características especiais. Sendo sua interpretação quase igual a univariada, mas sem vê o C.V., pois ao assumir a dependência fica igual a independência exigida, tendo a vantagem de ajustar modelos que reduzem o número de parâmetros, podendo ser usada em todas as variáveis; menos exigente; permite agrupar as informações das diferentes variáveis;simples de entender pois utiliza a mesma linguagem de discussão da univariada que na multivariada não ocorre, e não tem C.V. Ok 1 18. [] (IP:281473816234880 | 00:10:19 | 23:33:18 | 22:59 | 5.641) Cinco adubos verdes serão avaliados quanto a seus efeitos na população de nematóides em cana de açúcar queimada ou não, em trabalho de campo, com cinco repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Arranjo Fatorial 5 (Cinco adubos verdes) X 2(queimada ou não )X 5 (repetições) F.V. G.L. ADUBO (A) 4 COLHEITA (B) 1 INTERAÇÃO (A X B) 4 TRATAMENTO 9 BLOCO 4 RESÍDUO 36 TOTAL 49 O delineamento mais indicado para a condução desse experimento é o blocos casualizado, devido às condições de campo apresentar uma grande heterogeneidade, nas variações de temperatura, luminosidade, vento, umidade, e outros Correto, mas só vai ganhar 1 mesmo que não é festa 19. [] (IP:281473816234880 | 00:10:32 | 23:33:32 | 23:00 | 12.195) Qual a implicação do número de fatores e níveis presentes em um delineamento em relação à precisão da avaliação de cada fator? As combinações entre os níveis dos fatores implicam diretamente no aumento do número de tratamentos, onde nos deparamos com alguns problema como instalar e distribuir os tratamentos na área correspondente para a experimentação. Pois os delineamentos tem suas exigências para ter precisão nas avaliações, DIC, a exigência para obter uma boa precisão nas avaliações é a homogeneidade do ambiente, no DBC a exigência é que todos tratamentos estejam contidos no bloco para obtenção de precisão nas avaliações. Este aspecto é o mesmo que você seguiu na sua resposta a outra pergunta semelhante, mas neste caso ao não incluir aspectos separados para número de níveis e fatores não vê os efeitos diferentes do número de níveis e de fatores 0,5 20. [] (IP:281473816234880 | 00:10:48 | 23:33:59 | 23:11 | 14.129) Diferencie fatorial de parcela subdividida, em termos de uso. No fatorial, estudam-se dois ou mais fatores e as possíveis interações entre estes ou o uso de todas as combinações possíveis de como mais de um fator atua concomitantemente nos tratamentos. A principal diferença é o uso de parcelas diferentes para cada fator. Parcela subdividida é um tipo especial de fatorial em que um fator fica dentro do outro, ou seja, no fatorial todos estão nos níveis correspondentes, no mesmo nível hierárquico, já na parcela subdividida há dois ou mais níveis, onde usa-se fatores com características distintas. As parcelas têm diferentes tamanhos para diferentes fatores, fator principal ocupa parcelas maiores e outro fator ocupa parcelas menores, que ficam dentro da parcela principal que são as subparcelas. Em função disto, ficamos com duas ou mais variações do acaso, um ligada com cada tamanho de parcela. Ok 1 21. [] (IP:281473816234880 | 00:11:02 | 23:37:24 | 26:22 | 5.075) Um experimento vai ser conduzido no campo avaliando 100 novos clones de palma forrageira com adubação orgânica, mineral ou uma combinação, com duas repetições.Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Utilizou-se delineamento experimental em blocos casualizados, com os tratamentos arranjados em parcelas sub-divididas, com 2 repetições. Os tratamentos principais consistiram de 100 clones diferentes. E dentro dos tratamentos principais foram sorteados os tratamentos secundários, os quais foram constituídos de 3 opções de adubação para palma forrageira (orgânica, mineral e combinação). Na parcela subdividida, há uma parcela principal que recebe o maior tratamento e dentro desta parcela principal, há uma subparcela, que requer menor área amostral que receberá um dos fatores estudados. F.V. G.L. BLOCO 1 CLONE (C) 99 RESÍDUO a 99 PARCELAS 199 ADUBOS (A) 2 INTERAÇÃO (C X A) 198 RESÍDUO b 200 TOTAL 599 Correto, mas novamente não vai ganhar o bônus 1. 22. [] (IP:281473816234880 | 00:11:15 | 23:56:25 | 45:10 | 1119.379) Quais são as principais diferenças entre os diferentes delineamentos experimentais? A grosso modo a diferença está no fato dos delineamentos utilizarem ou não os três princípios (repetição, casualização e controle local. Delineamento em blocos casualizados e/ou blocos completos e similares , quadrado latino e outros delineamentos da família (blocos incompletos com tratamentos comuns e quadrado Greco-romano), utilizam todos princípio, já no Delineamento inteiramente casualizado não usa o controle local, por ser um método mais simples, utiliza apenas os princípios da repetição e casualização, sendo então diferença para eles. No DBC o controle local é representado pelos blocos, onde cada um inclui todos os tratamentos, sendo usado em ambientes que se caracterizam heterogêneos. Para utilização do DIC, o ambiente deve ser homogêneo ou com a ausência de informações sobre a heterogeneidade, onde sabemos que qualquer variação que possa ocorrer é devido a variação do acaso, e se caso fosse constatado heterogêneo não teria como fazer o controle, usando o mesmo. No quadrado latino, o controle local é mais eficiente que o delineamento em blocos casualizados, pois controla a heterogeneidade do ambiente tanto na horizontal como na vertical, ou seja, os blocos são organizados de duas maneiras diferentes, uns constituindo as linhas, outros as colunas. Ok 1 1. ] (IP:281473653997786 | 00:38:13 | 23:17:56 | 39:43 | 15.44) Discuta a importância da repetição real, e suas consequências na avaliação dos fatores. Número de repetição real significa quantas vezes um determinado fator que compõe seu tratamento vai aparecer, ou seja, cada efeito principal aparece no experimento. A importância deste conceito na análise fatorial é que nos possibilita estudar os efeitos principais dos fatores caso não haja interação entre eles, pois para isso haverá um maior número de repetições para cada fator e com isso é possível saber melhor ou enxergar melhor a diferença entre cada fator e a relação entre estes, além de ser mais fácil de separar o efeito do acaso do efeito do tratamento. Embora o experimento seja formado com um determinado número de repetições, na realidade o mesmo é composto por repetições de cada fator que formou e seu tratamento. Excelente 1 2. [] (IP:281473653997786 | 00:38:39 | 23:19:02 | 40:23 | 62.892) Como o número de níveis de um fator pode afetar a precisão dos demais fatores de um experimento? As combinações entre os níveis dos fatores implicam diretamente no aumento do número de tratamentos, onde nos deparamos com alguns problema como instalar e distribuir os tratamentos na área correspondente para a experimentação. Pois os delineamentos tem suas exigências para ter precisão nas avaliações, DIC, a exigência para obter uma boa precisão nas avaliações é a homogeneidade do ambiente, no DBC a exigência é que todos tratamentos estejam contidos no bloco para obtenção de precisão nas avaliações). Esta resposta está praticamente idêntica à última resposta a esta mesma questão, o que é surpreendente, considerando que as perguntas deveriam ser respondidas individualmente. No entanto, como os dois podem ter se baseado na mesma fonte vou admitir a honestidade de ambos. Sugiro apenas que realmente tomem muito cuidado com formulações de respostas. 1 3. [] (IP:281473653997786 | 00:38:57 | 23:20:30 | 41:33 | 67.159) Caso uma interação seja significativa, devo discutir os efeitos principais ligados a ela? Justifique. Se a interação for significativa não devemos discutir os efeitos principais ligados a ela porque, uma interação significativa demonstra que os fatores que a compõem tem efeito dependente entre si na determinação de uma característica dos resultados de um experimento. Um fator estará influenciando o efeito do outro fator então há mais sentido em discutir a interação, pois a mesma explica muito mais o que eu estou estudando e dela é possível tirar muito mais informações do que estudar os efeitos principais isoladamente. Sendo assim não há sentido de analise estatística de um efeito principal isoladamente, que participa de uma interação significativa. Ok 1 [] (IP:281473653997786 | 00:39:08 | 23:27:17 | 48:09 | 3.461) Um experimento vai ser conduzido avaliando o efeito de três manejos de irrigação, com cinco níveis de estresse e quatro solos distintos no sorgo, em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Tipo de delineamento: Blocos ao acaso Arranjo: fatorial com esquema (4x5x3) com 4 repetições formando ao todo 240 unidades experimentais. Justificativa: o uso do blocos casualizado é devido ao grande numero de fatores e com isso precisamos de um maior controle local. E o uso de arranjo fatorial é porque se tem o estudo de vários grupos simultaneamente que é o estudo do efeito de três manejos, com cinco níveis de estresse e quatros solos dintintos. Fontes de variação GL Tratamentos (irrigação) (3-1) = 2 Tratamento (níveis de estresse) (5-1) = 4 Tratamento (solos distintos) (4-1) = 3 Interação (estresse x solo) 4 x3= 12 Interação (irrigação x níveis de estresse) (3-1) x (5-1)= 8 Interação ( irrigação x distintos) (3-1) x (4-1)= 6 Interação (irrigaçãox níveis de estresse x solos distintos) (3-1) x (5-1) x (4-1)= 24 Tratamentos (60-1)=59 Blocos (4-1)= 3 Resíduos (60 – 1 ) (4 – 1)= 177 Total 60 x (4-1) = 239 Finalmente uma resposta correta. Como para o outro aluno que acertou este tipo de situação vai ganhar um bônus, recebendo 1,5 na questão. Só não se acostume. 4. [] (IP:281473653997786 | 03:31:25 | 23:28:51 | 57:26 | 2.426) Crie uma situação experimental para o uso do delineamento em blocos em um experimento de laboratório. Justifique Situação Totalmente Hipotética: Produção do fungo Aspergillus japonicus URM5633, produtor de fitase, para inoculação em solos com baixa disponibilidade de P. Inicialmente será conduzido em Laboratório (onde não tem o controle da temperatura durante o dia), devido a problemas estruturais. Sendo produção do fungo influenciada, durante o processo fermentativo da proteína do substrato . Objetivo: O fungo será inoculado em diferentes substratos afim de se obter uma maior produção da enzima. O experimento foi conduzido em laboratório, com delineamento de blocos ao acaso, sendo proposto, 3 tratamentos (1 controle e 2 substratos sintéticos), 6 repetições e sabe-se que existe variação em três tipos de temperatura na sala do laboratório (estudo prévio com termômetros digitais), que será blocado o fator para não influenciar nos resultados. F.V. G.L. TRATAMENTO 2 BLOCO 5 RESÍDUO 10 TOTAL 18 ok 1 5. [] (IP:281473653997786 | 03:31:48 | 23:29:41 | 57:53 | 46.904) Considere e discuta a seguinte afirmativa: "Nem sempre o modelo com o melhor R² nãoajustado é o mais adequado". A afirmativa é coerente, pois o R2 não-ajustado é afetado pela adição de número de variáveis no modelo, ou seja, quanto maior o número de variáveis utilizadas, maior é o R2 não-ajustado, ou seja, as variáveis adicionadas podem não estar explicando nada, que mesmo assim estariam aumentando automaticamente o R2. Neste caso a melhor opção é optar pelo R2 ajustado que retirar o efeito que veio somente do aumento do número de variáveis que foram adicionadas. Se o R2 corrigido aumentar mesmo após o ajuste é porque não é em função do aumento do número de variáveis e sim por que estas variáveis adicionadas estão explicando melhor o modelo. Excelente explicação 1 6. [] (IP:281473653997786 | 03:32:10 | 23:31:58 | 59:48 | 2.823) Um experimento vai avaliar dez doses de fósforo em cinco solos diferentes em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Tipo de delineamento: blocos casualizado OBS: como na questão não é especificado as condições da casa de vegetação podemos usar o delinemanto inteiramente casualizados se esta apresentar as condições ambientais homogêneas. Arranjo: fatorial 10 x 5 com 4 repetições formando ao todo 200 unidades experimentais. Justificativa: o uso de arranjo fatorial é necessário porque se tem a combinações entre dois grupos de tratamentos doses de fosforo e solos diferentes. Para este exemplo o uso do DBC mesmo sendo este experimento realizado em casa de vegetação pode se ter condições ambientais que não seja homogênea nesta casa de vegetação. Fontes de variação GL DOSES 9 SOLOS 4 DOSES X SOLOS 36 TRATAMENTOS 49 BLOCO 3 RESIDUO 147 Ok 1 que não é festa 7. [] (IP:281473653997786 | 03:32:28 | 23:32:58 | 00:30 | 55.519) Justifique a afirmativa: "Não é possível afirmar qual o melhor delineamento sem conhecer todos os detalhes do trabalho" A afirmativa está correta já que a escolha do delineamento está em função exclusiva das condições ambientais , este ambiente pode incluir tamanho do experimento e equipe, então a decisão da escolhar do melhor delineamento é baseada na situação do experimento, não em algo geral como laboratório ou campo. Ok 1 8. [] (IP:281473653997786 | 03:32:50 | 23:34:30 | 01:40 | 2.705) Um experimento vai avaliar a resposta de cinco cultivares de cana a quatro sistemas de recomendação de calagem em quatro solos distintos, em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Delineamento: blocos casualizados Arranjo: fatorial 5 x 4 x 4 x 4, formando ao todo 320 unidades experimentais. Justificativa: o uso de arranjo fatorial é necessário porque se tem a combinações entre vários grupos de tratamentos doses de fosforo e solos diferentes. Fonte de Variação G.L. cana(c) 4 recomendação (r) 3 solo (r) 3 c xr 12 c x s 12 rxs9 c x r x s 36 Tratamentos 79 Blocos 3 Resíduo 237 Total 319 Ótimo 1 9. 3:35:29 | 01:48 | 18.095) Diferencie interação e efeito principal. Efeito principal é quanto um dado fator não interfere em outro fator sendo considerados seus efeitos isoladamente, este efeito principal só será levado em consideração quando este não estiver envolvido em uma interação significativa e este for significativo, caso contrário, este efeito não será analisado. Enquanto que o efeito interação, também chamado de efeito secundário, acontece quando um fator interfere na resposta do outro, o contrário também é verdadeiro, sendo a resposta uma ação conjunta de dois ou mais fatores, e só pode ser observado no experimento fatorial. Excelente síntese 1 10. [] (IP:281473653997786 | 03:33:59 | 23:35:57 | 01:58 | 2.911) Discuta os princípios experimentais e sua importância, incluindo formas de aplicação Os três princípios experimentais são: a repetição, a casualização e o controle local. A repetição corresponde ao número de vezes em que o mesmo tratamento se repete, sendo que, com o aumento desse parâmetro há a diminuição da chance de erro do experimento, este princípio é utilizado quando se sabe de variações do ambiente, e tenta-se minimizar esse efeito pelo aumento do número de repetições. A casualização é a forma de evitar que o pesquisador seja tendencioso. É um processo de escolha aleatória de unidades experimentais da amostra aos tratamentos, através de sorteios que proporcione a todas as unidades a mesma chance de receber qualquer desses tratamentos. O controle local quando tiver variações do ambiente que seja possível de perceber, como por exemplo: diferenças de vegetação, topografia, etc. Se as condições neste determinado local não são homogêneas, o efeito do acaso é reduzido através do controle local, separando essas áreas em blocos homogêneos, fazendo-se sorteios locais em cada bloco diferente. Ok 1 11. [0.000] (IP:0 | 03:34:19 | --:--:-- | --:-- | ------ ) Será conduzido um projeto avaliando o efeito de características edafo-climáticas de municípios representativos de cada microregião de Pernambuco sobre a microbiota do solo, incluindo diversidade microbiana, respiração, biomassa, quociente metabólico, população de fungos, nematóides e bactérias totais. Em cada municípios serão coletadas amostras de solo representativas de cada tipo de solo descrito no Zoneamento Agroecológico de Pernambuco, e coletados dados geoclimáticos juntos aos orgãos competentes. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. Em branco 0 12. [] (IP:281473653997786 | 03:34:41 | 23:37:16 | 02:35 | 13.556) Diferencie fatorial de parcela subdividida, em termos de uso. A principal diferença é que no arranjo em parcelas sub-divididas se tem o uso de parcelas diferentes para cada fator tendo um fator principal que ocupar parcelas maiores e um outro fator que ocupa parcelas menores (sub-parcelas) que ficam dentro da parcela principal e em função das diferentes parcelas há mais de uma variação do acaso. No fatorial se tem o estudo de dois ou mais fatores e as possíveis interações entre estes com o uso de todas as possíveis combinações. Outra diferença entre experimento fatorial e parcela subdidividada está na forma de casualização dos fatores para o experimento em fatorial a casualização de todas as combinações possíveis entre os dois grupos de tratamentos é feita de acordo com os princípios do delineamento estatístico utilizado, enquanto para nos experimentos em parcelas subdivididas, a casualização dos fatores é feita em duas etapas primeira etapa casualizam-se os níveis do fator que será avaliado nas parcelas, de acordo com os princípios do delineamento estatístico utilizado; na segunda etapa, casualizamse, dentro de cada parcela, os níveis do fator que será avaliado nas subparcelas, em função desta casualização neste experimentos de parcelas subdivididas se tem dosi resíduos distintos que são: o Resíduo (a), que é a base de comparação dos níveis do fator que será avaliado nas parcelas; e o Resíduo (b), que é a base de comparação dos níveis do fator que será avaliado nas subparcelas Com isso, leva-se a uma diminuição no número de graus de liberdade dos resíduos, pois o GL Resíduo do fatorial = GL Resíduo (a) + GL Resíduo (b) e, em consequência, aumenta o erro experimental. Portanto, nos experimentos em parcelas subdivididas, todos os efeitos são avaliados com menor precisão que nos experimentos fatoriais correspondentes. Por isso, sempre que for possível, é preferível utilizar os experimentos fatoriais em lugar dos experimentos em parcelas subdivididas. Ok 1 13. [] (IP:281473653997786 | 03:34:58 | 23:38:09 | 03:11 | 3.323) Considerando que tenha encontrado problemas na avaliação das premissas do Modelo Linear Generalizado, discuta as principais técnicas usadas para resolver estes problemas. Dentre as técnicas podemos destacar: a transformação de dados a transformação de unidades ou a caráter de escala ( logaritmo; arco seno; raiz quadrada e potência), corrigindo a falta de aditividade e diminuindo a heterocedasticidade. Testar a homocedase fazendo análise de variância dos resíduos em valores absolutos com os tratamentos, onde as variâncias precisam ser homogêneas para que o teste F seja não significativo e assim indicar a homocedase. Testes para homocedase (Cochran, Hartley, Bartlett e Levene), os testes mais utilizados são o de Bartlett e o de Levene onde apresentam vantagens e desvantagens, o mais utilizado é o de Bartlett, devido a tendência a mascarar as diferenças para curtose negativa, levando a encontrar uma curtose positiva e o Levene faz a análise de variância dos resíduos em valores absolutos com os tratamentos; se as variâncias forem homogêneas o teste F será não significativo. Não resolveu o problema, não usa o Modelo Linear Generalizado e usar a estatística não paramétrica, que não exige distribuição normal, independência, homocedase, porém ela não é tão precisa. Ok 1 14. [] (IP:281473653997786 | 03:35:15 | 23:38:53 | 03:38 | 3.063) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. A existência de outliers que induzem a heterocedasticidade onde os pontos se comportam fora do normal é identificados através da análise do resíduo padronizado onde se faz um relação média de cada tratamento, que é calculado com a seguinte expressão RP=desvio/(raizQMR), se esse valor for de -3 a 3 vezes o resíduo, ou seja, acima dos 95% dos valores, ele deve ser eliminado melhorando a homocedasticidade. Dentre as técnicas usadas para resolver problemas de outliers podemos destacar a transformação dos dados através de algums procedimentos matemáticos que são responsáveis por alteração sistemática num conjunto de dados onde certas características são mudadas e outras permanecem inalteradas e dentre estas operações temos o uso: RAIZ QUADRADA- que são própria para certos tipos de dados em que a média é aproximadamente igual à variância, ou seja, para dados oriundos de uma distribuição de Poisson. LOGARITMO - É usada sempre que se têm dados em que os desvios padrões das amostras são aproximadamente proporcionais às médias, ou seja, todas as amostras apresentam o mesmo coeficiente de variação. ARCOSENO – Própria para dados em que a média é proporcional à variância, ou seja, para dados oriundos de uma distribuição binomial (tipo de distribuição em que os dados apresentam uma probabilidade calculável de ocorrência ou não em qualquer indivíduo). É importante ainda verificar a homocedasticidade dos dados, para que se for visualizado algum problema este possa ser corrigido e dentre os testes que podem ser usados temos Cochran, Hartley, Bartlett e Levene, destes os mais utilizados são o de Bartlett e o de Levene. Ambos apresentam vantagens e desvantagens, mas o mais utilizado é o de Bartlett, mesmo tendendo a mascarar as diferenças para curtose negativa (levando a encontrar uma curtose positiva). Caso após a transformação os dados ainda não obedeçam os requisitos do modelo, deve-se recorrer ao uso da estatística não-paramétrica. Nem mencionou uma das principais técnicas para resolver outliers, que é a eliminação deles… 0,75 15. [] (IP:281473653997786 | 03:35:33 | 23:39:44 | 04:11 | 47.705) Discuta desvantagens derivadas do uso de muitos níveis de cada fator simultaneamente. Em um esquema fatorial, o tratamento será a combinação de todos os fatores em seus diferentes níveis, portanto, quanto maior o número de níveis que estiverem sendo avaliados, maior será o número de tratamentos, levando à um experimento de maiores proporções, o que gera dificuldades na utilização do controle local. Isso provoca uma redução na precisão do experimento, pois descumprimento deste princípio experimental pode favorecer a ocorrência de heterocedasticidase, curtose, distribuição anormal dos dados, etc. Ok 1 16. [] (IP:281473653997786 | 03:35:53 | 23:40:29 | 04:36 | 34.274) Descreva situações em que o uso da multivariada seria interessante em trabalhos de experimentação. A multivariada é uma das principais alternativas de analise quando se faz medições repetidas, levando para o campo é importante o seu uso quAndo se analisa variavéis como profundidades de coleta de solos, é bastante comum o uso de multivariada para variáveis como produção em cortes subsequentes. Na multivariada cada data/profundidade é uma variável, como na univariada mas analisa todas juntas reduz erro tipo i, ao reduzir o número de testes. Situações é plural, portanto mais de uma. O exemplo está razoável 1 17. [] (IP:281473653997786 | 03:36:16 | 23:41:38 | 05:22 | 47.941) Explique porque podemos considerar que o nível de significância de uma regressão é menos crítico do que sua importância intrínseca. O nível de significância avalia a chance de ocorrência de valores observados devido ao acaso, 5% devido ao acaso e 95% devido aos tratamentos, por exemplo, e em experimentos que utilizam regressão, quando bem conduzido e com adequada quantidade de pontos, a significância torna-se algo muito freqüente. Contudo isso não pressupõe que o coeficiente de correlação entre dois fatores seja alto. Podem ser significativos com baixos coeficientes de correlação, ou seja, médias com mínima diferença serem significativas, todavia diferenças mínimas não são importantes do ponto de vista do pesquisador. A importância da análise de regressão é função da variância no modelo, do tamanho do coeficiente de correlação e do intervalo de confiança de interesse. Ok, no entanto, o nível de significância não tem nada a ver com a chance de ser devida realmente ao tratamento, já que a hipótese que está sendo testada não tem nada a ver com afirmar se os efeitos dos tratamentos são reais, mas sim avaliar qual a chance de ocorrerem devido ao acaso 1 18. [] (IP:281473653997786 | 03:36:49 | 23:47:42 | 10:53 | 2.874) Discuta a afirmativa: "Amostragem é uma mistura de arte e ciência" Dentre as estratégias usadas para seleção do melhor modelo podemos destacar de se testar todas as regressões possíveis, fazer eliminação para trás, que começa com todas as variáveis (p) e, testa todos os modelos com p-1 variáveis. Para cada modelo, testa o efeito da retirada da última variável; Seleciona a variável com menor efeito da retirada e reinicia com o segundo passo. A eliminação para frente também faz parte da estratégia de escolha e consiste em justamente o contrário da eliminação para trás. Outra opção como estratégia é o uso do procedimento de stepwise, que podem ser considerado como stepwise forward, e está é baseado no princípio de que as variáveis preditoras devem ser adicionadas ao modelo uma de cada vez até que não haja mais variáveis preditoras ou stepwise backward quando se retira uma variável em relação ao backward, se uma variável retirada ocasionar perdas de informação ela pode retornar para o modelo, diferentemente dos outros modelos que uma vez adicionada ou retirada uma variável do modelo, ela não poderia mais deixar de fazer parte dele ou não poderia retornar para o mesmo. O efeito destas estratégias sobre a probabilidade de ocorrência de erro tipo I é que como este procedimentos utilizam de um elevado número de testes, é porque cada vez que se realizar um teste aumenta-se a probabilidade de ocorrer o erro do tipo I, portanto a grande quantidade de testes que o stepwise realiza, aumenta significativamente a probabilidade de acontecer este erro. Aparentemente copiou a mesma resposta para duas questões diferentes, já que esta resposta está idêntica à próxima, mas não tem absolutamente nada a ver com a pergunta 0 19. [] (IP:281473653997786 | 03:37:08 | 23:47:57 | 10:49 | 2.456) Avalie o efeito de diferentes estratégias de seleção do melhor modelo sobre a probabilidade de ocorrência de erro do tipo I. Dentre as estratégias usadas para seleção do melhor modelo podemos destacar de se testar todas as regressões possíveis, fazer eliminação para trás, que começa com todas as variáveis (p) e, testa todos os modelos com p-1 variáveis. Para cada modelo, testa o efeito da retirada da última variável; Seleciona a variável com menor efeito da retirada e reinicia com o segundo passo. A eliminação para frente também faz parte da estratégia de escolha e consiste em justamente o contrário da eliminação para trás. Outra opção como estratégia é o uso do procedimento de stepwise, que podem ser considerado como stepwise forward, e está é baseado no princípio de que as variáveis preditoras devem ser adicionadas ao modelo uma de cada vez até que não haja mais variáveis preditoras ou stepwise backward quando se retira uma variável em relação ao backward, se uma variável retirada ocasionar perdas de informação ela pode retornar para o modelo, diferentemente dos outros modelos que uma vez adicionada ou retirada uma variável do modelo, ela não poderia mais deixar de fazer parte dele ou não poderia retornar para o mesmo. O efeito destas estratégias sobre a probabilidade de ocorrência de erro tipo I é que como este procedimentos utilizam de um elevado número de testes, é porque cada vez que se realizar um teste aumenta-se a probabilidade de ocorrer o erro do tipo I, portanto a grande quantidade de testes que o stepwise realiza, aumenta significativamente a probabilidade de acontecer este erro. Ok 1 20. Discuta as aplicações da medição repetida em solos. Uma medição quando realizada na mesma variável ou unidade experimental em mais de uma ocasião ou profundidade, pode ser chamada de medição repetida. Nesses tipos de medições, há a observação de uma ou mais variáveis respostas em uma mesma unidade experimental em diferentes condições de avaliação. Geralmente este tipo de medida é aplicado quando se trabalha com fatores como coleta de amostra de solos em diferentes profundidades num mesmo ponto de amostragem. Nesta situação não é obedecido um dos princípios do modelo linear generalizado que é a independência. Ok 1 21. [] (IP:281473653997786 | 03:37:50 | 23:45:59 | 08:09 | 29.705) Qual a principal vantagem do uso de regressões não lineares? O uso deste tipo de regressão é vantajoso quando se pretende fazer a interpretação de fenômenos biológicos (decomposição de matéria orgânica, liberação de nutrientes etc.), as regressões não lineares são bons descritores de fenômenos biológicos que melhoram a capacidade de interpretação dos resultados, sua grande vantagem é que cada parâmetro biológico tem um valor significativo (significado biológico). Ok 1 1. [] (IP:281473653997786 | 08:25:32 | 23:12:40 | 47:08 | 2.604) Debata os principais prós e contras das diferentes alternativas para análise de medições repetidas. Parcela Subdividida: possui um problema ao assumir a independência entre os tratamentos o que em campo não é verdade, pois parcelas vizinhas tendem a ser mais semelhantes entre si do que aquelas que estão mais distantes. Nós assumimos a independência porque precisamos assumi-la, exigência do modelo. Porém em parcelas maiores esse problema pode ser minimizado, pois o centro de parcela estará mais distante do centro de outras parcelas. É mais utilizada para medição no tempo, porém perde-se a capacidade de comprovar estatisticamente o efeito tratamento x tempo em conjunto. Através do teste de esfericidade Mauchly para cada variável, para verificar se há ou não independência, se ele não for significativo, pode-se aplicar a parcela subdividida, se for significativo não se pode aplicar. Analise univariada: porém muitos trabalhos assumem que ocorre interação entre A e B, porém isso não é condizente, pois as variáveis foram analisadas separadamente. Outro problema é que ocorre um aumento na chance de cometer o erro tipo I, pois o número de testes para cada variável faz com que o erro seja acumulativo. Para corrigir é possível utilizar uma probabilidade menor, porém a chance de cometer o erros tipo II aumenta, isto significa que as diferenças entre tratamento deverá ser grande o suficiente para que os tratamentos sejam significativo. Para profundidade de solo, porém perde-se a capacidade comprovar estatisticamente, o efeito tratamento x profundidade em conjunto, por não poder afirmar qual é a chance de estar errado. Multivariada: Analise conjunta de todas as variáveis em uma única análise, a comparação deixa de ser entre os pontos e passa a ser entra cada conjunto de variáveis que compõem um vetor, esses vetores são comparados entre si, sem erro acumulativo. A interpretação passa a ser diferente, pois não a mais os testes de comparação de médias. Há a possibilidade de conhecer o conjunto de variável mais importante. Reduz a chance de cometer erro tipo I, o erro acumulativo, devido a redução do número de testes para as variáveis. Modelo Misto: ele pode ser usado para qualquer variável, o que nem sempre é verdade para parcela subdividida, fazendo analise junta, nos diferentes tempos, que por sua vez não é o caso da univariada. Outra vantagem é que a linguagem é bem semelhante a linguagem mais usual, que estamos acostumados a fazer, como por exemplo o teste de Tukey e a regressão, assim como também diminui o tamanho e os custos com a implantação do experimento, continuando com as mesmas características do arranjo fatorial. Depois que se faz todos os modelos, é feita a seleção do modelo mais adequado, com base no AIC, que é um índice de informação, quanto menor ele for, melhor, então pega-se todos eles e ver qual é o menor. Depois de fazer isso é que se faz a análise. A maior parte do que fala sobre parcela subdividida é bem mais ligada com o uso normal deste arranjo de tratamentos, já que falar em centro de parcela com efeito de tempo não faz sentido algum. De resto ok 1 2. [] (IP:281473653997786 | 08:36:13 | 23:12:59 | 36:46 | 1.535) Quais são os principais pontos que devemos avaliar ao estudar uma regressão? Ao verificar que os pré-requisitos das premissas estão devidamente satisfeitos e que os dados obtidos permitem construir uma regressão. Deve-se avaliar se a regressão obtida explica o que acontece com os tratamentos. Se a regressão não explica o que acontece com os tratamentos a mesma perderá a importância. Se ela explica, deve-se observar o grau de dependência entre as variáveis com o modelo linear, que pode ser avaliado pelo coeficiente de regressão entre duas variáveis X e Y. Se o coeficiente de regressão for muito baixo, ou até mesmo zero, isso indica ocorreu ausência total de dependência linear. Mas se o coeficiente de regressão for alto, a continuidade da análise é valida, se o coeficiente de regressão for (-1 e 1) indica que ocorre 100% de dependência das variáveis analisadas. Por fim, deve-se verificar se a regressão é significativa, o que geralmente é verdadeiro, quando o coeficiente de regressão é alto. Verificando assim que a regressão é significativa, então caso a regressão explique bem o comportamento do que acontece na interação das variáveis. Caso seja possível deve-se tentar entender o que acontece com os coeficientes de regressão. Ok 1 3. [] (IP:281473653997786 | 08:36:59 | 23:13:19 | 36:20 | 18.416) Discuta desvantagens derivadas do uso de muitos níveis de cada fator simultaneamente. O uso de muitos fatores pode aumentar, consideravelmente, o número de tratamentos. Com isso, a realização do experimento pode torna-se impraticável devido ao espaço físico exigido, além da questão financeira. Por outro lado, devem-se considerar quais interações poderão ocorrer, por exemplo, triplas e quádruplas, pois isto também pode acarretar dificuldades na interpretação dos resultados. Tais problemas devem ser considerados antes de incorporar os fatores, devem-se selecionar fatores que sejam de grande relevância para o experimento visando evitar problemas desnecessários. Como o aumento do número de níveis poderia afetar o número de interações possíveis, se estas são devidas ao número de fatores? 0 4. [] (IP:281473653997786 | 08:37:36 | 23:14:03 | 36:27 | 14.16) Explique o que é repetição real. A repetição real é definida como o número de vezes que um fator se repete dentro de um experimento. Em um experimento os números de repetições reais são inferiores ao número de repetição total, como podemos ver no seguinte caso: em um arranjamento fatorial com três sistemas de irrigação e dois tipos de cobertura do solo (com e sem), totalizando dois fatores. Nesta situação temos seis repetições reais para irrigação, pois temos dois tipos de cobertura do solo e três repetições (3x2=6), onde o fator irrigação ficou fixo. No outro caso temos nove repetições reais para tipos de cobertura do solo, onde se fixa o tipo de cobertura do solo e se tem três sistemas de irrigação com três repetições totalizando nove repetições reais para o fator tipo de cobertura do solo. O total de parcelas dentro do experimento é de 18 parcelas, sendo que desse total apenas 15 são repetições reais. Sem pé nem cabeça. O número de repetições reais é SEMPRE maior do que o de repetições físicas. Como por definição a repetição real é quantas vezes cada nível de um fator aparece no experimento, e todo tratamento tem um nível de cada fator, já inclui automaticamente o número de repetições físicas. No entanto, além das repetições físicas, cada um dos níveis dos demais fatores irá aparecer com cada nível do primeiro fator. Assim, admitindo a situação que você descreveu, teremos dois tratamentos (as duas coberturas) para cada sistema de irrigação, e três para cada cobertura (os três sistemas de irrigação). Como cada tratamento aparece uma vez em cada repetição, temos que em cada repetição física do experimento teremos duas repetições reais para sistema de irrigação, e três para cobertura. 0 5. [] (IP:281473653997786 | 08:38:04 | 23:14:58 | 36:54 | 42.504) Um projeto visa avaliar o efeito de toposequências em várias áreas representativas das cinco regiões brasileiras, sendo o principal objetivo do projeto a generalização das conclusões para o Brasil como um todo. Em cada toposequência deverão ser avaliadas características físicas, químicas e microbiológicas do solo, além de classificação do solo ao longo de todos os pontos. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. Neste caso, o uso de uma análise multivariada seria mais indicado, pois a situação do projeto envolve muitas variáveis e a multivariada pode trabalhar com as mesmas simultaneamente. Como o projeto envolve dados menos estruturados, quando comparados a dados experimentais, logo a análise multivariada torna-se uma ferramenta apropriada para estruturar os dados e facilitar o entendimento, o que é essencial para discussão dos dados. Sua adoção ainda torna-se mais evidente por envolver a classificação de solos, pois os modelos univariados não representariam bem este tipo de variável. O projeto não pode ser tratado através de uma estatística experimental, pois não há tratamentos nem a necessidade de controlar o que ocorre no ambiente, ou seja, as áreas já existem apenas deve-se analisá-las. Neste caso, trabalha-se com amostragem, onde a adoção da estatística univariada é inadequada, pois não seria possível explicar o objeto de estudo com os dados obtidos por amostragem. Utilizando a analise multivariada ocorrerá uma redução de dados, sacrificar informações, e simplificação estrutural tornando as interpretações dos dados mais simples. Não incluiu qualquer discussão da apresentação de dados, mas a discussão ficou tão boa e bem justificada que ganha 1 6. [] (IP:281473653997786 | 08:38:58 | 23:16:03 | 37:05 | 15.997) Discuta os princípios experimentais e sua importância, incluindo formas de aplicação Os princípios experimentais fornecem orientações para a execução de um experimento científico, a adoção desses princípios é fundamental para minimizar os efeitos da variabilidade, conferindo maior confiabilidade e segurança nos dados experimentais obtidos, o que promove uma consistente conclusão ao final do estudo. Os princípios experimentais são os seguintes: repetição, casualização e controle local. Repetição: corresponde ao número de vezes que o mesmo tratamento aparece na unidade experimental. Tem por finalidade conceder maior confiabilidade dos dados obtidos no experimento, possibilitando a observação se houve efeito da variação do acaso, elevando a precisão das estimativas. A quantidade de repetições varia em função das condições ambientais e econômicas que envolvem o experimento, no entanto, quanto maior o número de repetições, menor será a variação do acaso, consequentemente, menor será a chance de cometer erros. Casualização: consiste em uma forma de não favorecer nem prejudicar um dado tratamento no momento de alocá-lo dentro da área experimental. Geralmente, a distribuição dos tratamentos é feita por sorteio, afim de que, dessa forma, seja possível admitir que todos os tratamentos estão sujeitos as mesmas variações provocadas pelo acaso. Tendo por finalidade assegurar a validade da estimativa do erro experimental, pois permite uma distribuição independente do erro experimental. Controle local: é utilizado com o intuito de reduzir as influências das condições ambientais heterogêneas que poderão interferir nos resultados do experimento. Desta forma, a divisão da área experimental heterogênea em sub-grupos mais homogêneos dentro de si, irá reduzir a variação do acaso, e permitirá obter dados mais consistentes. ok 1 7. [] (IP:281473653997786 | 08:39:44 | 23:19:08 | 39:24 | 9.821) Um experimento vai ser conduzido avaliando o efeito de três manejos de irrigação, com cinco níveis de estresse e quatro solos distintos no sorgo, em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Arranjo: Fatorial Simples com a seguinte notação: 3 x 5 x 4. Totalizando 60 tratamentos com 4 repetições, e um total de 240 unidades experimentais. Delineamento: O delineamento em blocos casualizados vai ser adotado considerando que dentro da casa de vegetação poderão ocorrer variações de temperatura, e que esse efeito, se não controlado, poderá influenciar nos resultados. Fontes de variação GL Tratamentos (irrigação) (3 – 1) = 2 Tratamento (níveis de estresse) (5 – 1) = 4 Tratamento (solos distintos) (4 – 1) = 3 (estresse x solo) 4 x 3= 12 (irrigação x níveis de estresse) (3 – 1) x (5 – 1) = 8 ( irrigação x distintos) (3 – 1) x (4 – 1) = 6 (irrigação x estresse x solos ) (3 – 1) x (5 – 1) x (4 – 1)= 24 Tratamentos (60 – 1) = 59 Blocos (4 – 1) = 3 Resíduos (60 – 1) x (4 – 1)= 177 Total 60 x (4 – 1) = 239 Como para os demais que acertaram a análise de variância, ganha meio ponto de lambuja na primeira situação 1,5 8. [] (IP:281473653997786 | 08:41:32 | 23:21:46 | 40:14 | 156.592) Descreva situações em que o uso da multivariada seria interessante em trabalhos de experimentação. A análise multivariada pode ser utilizada em classificação do solo, onde as variáveis não são bem estruturadas, não é possível fazer um experimento e, por isso trabalha-se com amostragens. Outra situação para utilização da análise multivariada é no levantamento de solos afetados por sais, onde pode ser analisados como variáveis a concentração de sais em diferentes ambientes, quais os sais predominantes, níveis de salinidade e o espectro das áreas avaliadas. Nestas e em outras condições a analise multivariada pode ser uma ótima ferramenta. E desde quando classificação é experimental por gentileza? O mesmo vale para levantamento de solos afetados por salinidade. As duas situações estão corretas, mas não são ligadas com a pergunta 0 9. [] (IP:281473653997786 | 08:42:16 | 23:22:27 | 40:11 | 26.931) Discuta a afirmativa: "Muitas vezes uma amostragem completamente aleatória não representa bem a população" A representatividade de uma amostragem vai depender do objetivo do trabalho. Por exemplo, se o pesquisador deseja estudar os problemas causados pelo excesso de sais nos solos em plantas de milho, o mesmo deve ir para áreas onde há a ocorrência desses sais. Se o pesquisador for avaliar esses problemas numa região como a Zona da Mata Sul do estado de Pernambuco, dificilmente encontrará uma amostragem significativa. Ou seja, a aleatoriedade da amostragem deve ser direcionada ao objetivo do trabalho, de forma a não prejudicar ou favorecer os tratamentos, neste caso, o bom senso do pesquisador deve prevalecer. Cuméqueé? Não tem amostragem no mundo que compense um problema como fazer avaliação de salinidade do solo na Zona da Mata. A ideia é3 m situações que façam o mínimo de senso conduzir a pesquisa, não em algo tão sem sentido quanto isto. 0 10. [] (IP:281473653997786 | 08:42:50 | 23:27:41 | 44:51 | 209.525) Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor nível de um fator". Sim, para essas condições têm-se o melhor nível para um determinado fator. Pois a interação significativa descreve a melhor relação entre os fatores em seus respectivos níveis. Antes muito pelo contrário. Quando a interação é significativa NÃO podemos falar no melhor um sem pensar no outro. 0 11. [] (IP:281473653997786 | 08:43:35 | 23:28:16 | 44:41 | 23.683) Discuta vantagens e desvantagens do procedimento stepwise para seleção de modelo de regressão linear múltipla. A vantagem do procedimento stepwise é que ao se adicionar (no caso do stepwise forward) ou retirar uma variável (no caso do stepwise backward), todas as outras variáveis que já faziam parte do modelo são testadas novamente, se houver uma variável que possa ser retira sem que ocorra perdas relevantes de informação, ela é automaticamente excluída do modelo. Com relação ao backward, se a retirada de uma variável ocasionar perdas de informação a mesma pode retornar para o modelo, o que não ocorre com outros modelos, que uma vez adicionada ou retirada uma determinada variável do modelo, a mesma não poderia mais deixar de fazer parte dele ou não poderia retornar para o mesmo. A confiança de que as variáveis que compõem o modelo são realmente importantes e que, essencialmente, devem fazer parte dele, é outra grande vantagem. Com relação à desvantagem do procedimento stepwise, é que como se aplica um elevado número de testes, sendo aplicado um F para cada um dos possíveis modelos que irá entrar, a probabilidade de ocorrer o erro do tipo I também aumenta. Ok 1 12. [] (IP:281473653997786 | 08:44:00 | 23:28:37 | 44:37 | 15.353) Considerando um experimento estudando três níveis de adubação orgânica, discuta se o melhor caminho para análise é a regressão ou comparação de médias. Levando em consideração o estudo de níveis e variáveis quantitativas, uma analise de regressão dos dados poderia ser adotada, porém devemos ressalvar que esse tipo de regressão, utilizando três pontos, não oferece suporte para explicar o efeito biológico dos resultados, pois a reta formada indicará até o ponto máximo que a produção vai responder à adubação. A comparação de médias, nesta situação seria mais recomendada, pois através dela pode-se verifica qual das doses proporciona melhor, menor e/ou semelhante resposta para determinado parâmetro, além de fornecer o grau de confiança do experimento. Ok 1 13. [] (IP:281473653997786 | 08:44:31 | 23:28:59 | 44:28 | 17.631) Discuta o significado e possíveis implicações do AIC O AIC (Critério de Informação de Akaike) é baseado na teoria de informação, é uma forma alternativa para escolher o melhor modelo de regressão, onde, o melhor modelo é aquele que apresentar o menor índice de AIC. Teoricamente esse índice avalia ao mesmo tempo a qualidade da informação, qualidade da ligação entre as variáveis com o número de variáveis que é utilizada. Quanto menor ele é, mais explica com menos variáveis. Este critério combina quanto o modelo explica com o número de variáveis usado para isto. Quanto menor, mais o modelo explica com o menor custo em número de variáveis. Ok 1 14. [] (IP:281473653997786 | 08:44:57 | 23:29:21 | 44:24 | 18.388) A existência de interação significativa altera as perguntas que podem ser respondidas? Sim, porque se há uma interação significativa A X B, implicará dizer que A ou B individualmente não são tão importantes quanto os dois estão juntos. Com isso o estudo do efeito A ou B isoladamente torna-se desnecessário, pelo menos diante do que esta sendo estudado. Ou seja, o efeito A ou B são significativos? Independentemente de serem ou não significativos, isso perde a importância diante da interação A x B. Exatamente isto que é o oposto do que você afirmou na questão 10. 1 15. [] (IP:281473653997786 | 08:45:15 | 23:29:54 | 44:39 | 26.988) Diferencie fatorial de parcela subdividida, em termos de uso. Em termos de uso, a diferença entre o Fatorial Normal e a Parcela Sub-dividida esta na forma de como é arranjado os tratamentos. No Fatorial Normal cada parcela é formada pelos tratamentos e suas combinações de forma isolada, ou seja, dentro de uma mesma hierarquia. A Parcela Sub-dividida é formada por parcelas principais, composta por um determinado fator com seus respectivos níveis que exige maior quantidade de material experimental, e por sub-parcelas que ficam dentro da parcela principal, compostas por fatores com seus respectivos níveis que não exigem grandes quantidades de material experimental, ou seja, a área exigida neste Fatorial é menor que no Fatorial Normal. Na Parcela Sub-dividida observa-se que há uma hierarquia no arranjo dos tratamentos, parcelas principais e sub-parcelas, além disso, o número de casualizações na Parcela Sub-divida também difere do Fatorial Normal por ser muito superior a este. E nem comenta a principal diferença que é a divisão do resíduo 0,75 16. [] (IP:281473653997786 | 08:45:29 | 23:30:23 | 44:54 | 1.61) Discuta os diferentes testes utilizados para avaliação da normalidade. Os principais testes de normalidade, utilizados para verificar se os dados de uma determinada variável obedecem a uma distribuição normal de probabilidades, são: Qui-quadrado (x²), que compara as frequências observadas com as frequências esperadas, ou seja, mede a eficiência do ajuste da distribuição, tem por objetivo verificar se uma amostra pode ser considerada como proveniente de uma população com uma determinada distribuição, também pode ser usado para verificar se as categorias de uma variável estão equitativamente distribuídas; O teste de Kolmogorov-Smirnov é baseado na diferença máxima entre a distribuição acumulada da amostra e a distribuição acumulada esperada, é mais eficiente que o teste Qui-quadrado (x²). O teste de Shapiro-Wilks é basado nos valores amostrais ordenados elevados ao quadrado e tem sido o teste de normalidade preferido por mostrar ser mais poderoso que diversos testes alternativos, também é recomendado para amostras de dimensão mais reduzida. Ok 1 17. [] (IP:281473653997786 | 08:45:47 | 23:30:46 | 44:59 | 21) Todo fatorial com o mesmo número de tratamentos tem o mesmo grau de complexidade? Não necessariamente, pois a complexidade vai depender de como os tratamentos serão arranjados, ou seja, de quantos fatores e níveis estão envolvidos no estudo. Por exemplo, partindo de oito tratamentos quaisquer, estes poderiam ser arranjados da seguinte forma: 2x2x2 ou 2x4. Ou seja, com um mesmo número de tratamentos podemos arranjá-los de formas diferentes o que irá gerar interpretações com diferentes graus de complexidade. Sendo que, no primeiro caso (2x2x2) poderemos ter uma interação tripla significativa que, consequentemente, tem um grau de complexidade maior em relação ao segundo caso (4x2), que terá no máximo uma interação dupla significativa. Exato 1 18. [] (IP:281473653997786 | 08:46:53 | 23:31:11 | 44:18 | 3.022) Discuta os principais critérios que devem ser adotados na seleção do delineamento experimental. Para selecionar um delineamento experimental apropriado é preciso saber quais são as condições exigidas pelo experimento para que seja realizado (por exemplo, equipamentos) e a partir daí, observar se haverá ou não necessidade de aplicar o controle local e como ele vai ser aplicado. De modo geral observa-se se há ou não homogeneidade ou heterogeneidade, se há heterogeneidade identificar as causas e fontes para evitar influências da variação do acaso sobre os tratamentos. Observar o tamanho do experimento e a necessidade de mão-de-obra. Tendo como principal função na escolha, o delineamento que reduza essa variação do acaso e conseqüentemente o erro experimental. ok 1 19. [] (IP:281473653997786 | 08:47:07 | 23:31:34 | 44:27 | 22.23) Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado, explicando como é o relacionamento. O Modelo Linear Generalizado é caracterizado por uma equação entre um dado valor de um ponto qualquer com o somatório entre a média dos efeitos de tratamento, podendo ser positivos ou negativos, e a variação do acaso. É uma equação com duas incógnitas, tratamento e acaso, que precisa que alguns requisitos sejam satisfeitos, a saber: amostragem aleatória, efeitos aditivos, distribuição normal, erros experimentais independentes e a homocedasticidade. Os princípios experimentais permitem a medir a variação do acaso pela repetição, a qual é fundamental para analisar a homocedasticidade e a distribuição normal; a casualização permite validar a estimativa dos efeitos do acaso garantindo a distribuição independente do erro; e o controle local reduz ao máximo o erro com o condicionamento homogêneo entre os tratamentos, evitando a entrada de uma terceira variável na equação do MLG. Ou seja, os princípios experimentais permitem que a variação do acaso seja calculada separadamente dos tratamentos. Desta forma, é essencial a relação entre os princípios experimentais com as premissas do MLG para que os dados obtidos em um experimento qualquer possam ser aplicados no modelo sem afetar o poder dos testes. Ok 1 20. [] (IP:281473653997786 | 08:47:30 | 23:31:58 | 44:28 | 20.631) Discuta a afirmativa: "Não é possível afirmar qual o melhor delineamento sem conhecer todos os detalhes do trabalho" A escolha do delineamento deve ser baseada nas condições em que o experimento deve ser submetido, por exemplo, condições ambientais, tais como temperatura, fertilidade do solo, luminosidade, relevo, homogeneidade ou heterogeneidade, entre outros. Através do conhecimento das condições reinantes a que o experimento será submetido, o pesquisador poderá adotar o delineamento mais adequado, por exemplo, DIC ou DBC. Cabe ao pesquisador saber qual o melhor delineamento a ser adotado em função das condições experimentais, não adotando métodos tradicionais, mas aquele que venha solucionar os problemas e não aumentá-los. Falou muito e não disse nada, ou quase nada. Como o conhecimento do ambiente poderá permitir a definição do delineamento experimental? 0,75 21. [] (IP:281473653997786 | 08:47:51 | 23:33:40 | 45:49 | 2.647) Um experimento foi realizado em casa de vegetação, estudando vinte e cinco inoculantes diferentes para quatro variedades de feijão, utilizando quatro repetições. Só há 50 potes disponíveis. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Arranjo: Arranjo Fatorial Simples 25 x 4 com quatro repetições totalizando 400 unidades experimentais. Delineamento: Delineamento em blocos casualizados incompletos parcialmente balanceados Justificativa: Embora o experimento seja conduzido em casa de vegetação o número de potes é limitado, o que nos força a utilizar um DBC incompleto parcialmente balanceado. Incompleto parcialmente balanceado porque não é possível colocar o mesmo número de tratamentos nos blocos e este modelo atende os requisitos. O arranjo escolhido possui 25 fatores e 4 níveis. Nº de tratamentos (t) = 100 Nº de blocos = k :. K = (t)0,5 :. K = (100)0,5 :. K = 10 Fonte de variação GL Repetição 4 – 1 = 3 Tratamento (não justado) (K2) – 1 = 99 Blocos dentro da repetição 4 (K - 3) = 36 Erro intra-blocos (K – 1) [(4 x K) – (K – 1)] =261 Tratamento (justado) (K2) – 1 = 99 Total [4 (K2)] – 1= 399 Acertou no delineamento fora do usual, que eu terminei pedindo por erro, mas errou no fatorial. Assim como os demais que usaram a mesma solução (aliás completamente idêntica em todos os casos) vou aceitar como completamente correta, mas apenas porque pegaram uma solução que eu não tinha explicado 1 22. [] (IP:281473653997786 | 08:48:17 | 23:34:32 | 46:15 | 3.168) Um experimento vai avaliar a resposta de dez cultivares de soja a cinco inoculantes rizobianos, em campo, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Arranjo: Fatorial Simples 10 x 5 com quatro repetições totalizando 200 unidades experimentais. Delineamento: Delineamento em blocos casualizados Justificativa: Como o trabalho será conduzido em campo onde as condições são bastante adversas (exemplo, mancha de solo diferente, relevo) o delineamento mais adequado é o DBC, pois através do mesmo será possível diminuir a interferência de fatores externos. O arranjo foi baseado nos 10 fatores (cultivares de soja) e seus cinco níveis (inoculantes rizobianos). Fonte de variação GL Tratamento 50 – 1 = 49 Blocos 4 – 1 = 3 Resíduo 49 x 3 = 147 Total (50 x 4) – 1 =199 Gostaria de saber como acertou as outras questões deste estilo e errou esta com um erro igual ao de diversos colegas, de reconhecer o fatorial na discussão e errar na análise de variância 0,25 1. [] (IP:281473660056925 | 06:59:28 | 23:07:28 | 08:00 | 0.872) Porque precisamos considerar que a variação do acaso no conjunto de um tratamento é zero? Qual o raciocínio lógico por trás disto? Para conseguir calcular o resíduo, pois quando anula-se a variação do acaso no conjunto de um tratamento obtém-se o valor do resíduo, caso não fosse anulada a variação do acaso no conjunto de um tratamento, não teria como saber se a variação foi realmente devido ao acaso ou se foi devido ao tratamento. Essa anulação funciona como isolante para saber o que é devido ao resíduo (variação ao acaso) do que é devido ao tratamento. A variação do acaso interfere na resposta dos tratamentos, então é necessário determinar sua influência, e não teria como saber sua interferência se a variação do acaso no conjunto de um tratamento não fosse anulada. raciocínio é de que excluindo um, o outro será obtido. Faltou explicar que o raciocínio é baseado na distribuição normal 1 2. [] (IP:281473660056925 | 07:00:26 | 23:08:53 | 08:27 | 84.616) Considere e discuta a seguinte afirmativa: "Nem sempre o modelo com o melhor R² nãoajustado é o mais adequado". Correto. O R² não ajustado nem sempre é um bom indicador do grau de ajustamento do modelo, deve-se observar o R² ajustado. Observando-se apenas o R² não ajustado não é o suficiente para indicar o melhor modelo, pois quanto mais parâmetros (variáveis) são adicionadas no modelo maior será o R², mas maior R² não implica necessariamente no modelo mais adequado, pois pode-se estar adicionando parâmetros (variáveis) no modelo e estes pouco contribuírem para explicar determinado acontecimento, serem pouco importantes, trazerem poucas informações uteis, que pouco contribuem para o entendimento, assim dificultará a explicação dos resultados. Já observando-se o R² ajustado esse leva em consideração todos os parâmetros (variáveis) adicionados ao modelo (ele corrige), fornecendo melhor idéia da proporção da variação de y explicada pelo modelo de regressão uma vez que leva em consideração a quantidade de parâmetros (variáveis) que são adicionadas ao modelo.Então, se existe um modelo com 10 parâmetros (variáveis) e com um alto R² não-ajustado e outro com 2 variaveis e um menor R² ajustado, será melhor utilizar o R² ajustado, pois mesmo este sendo um pouco inferior (dependendo da situação) ele explica melhor o acontecimento, além da discussão ser facilitada, já que são apenas 2 variaveis a serem discutidas, ao passo que o R² não-ajustado caso for maior, esse maior valor não implica necessariamente em maior explicação, porque foi adicionado muitos parâmetros (variáveis) que pouco explicam os acontecimentos, e também a discussão será dificultada, pois explicar 10 parâmetros (variáveis) é mais trabalhoso e complicado que explicar 2. Ok 1 3. [] (IP:281473660056925 | 07:00:47 | 23:10:35 | 09:48 | 86.434) Discuta desvantagens derivadas do uso de muitos fatores simultaneamente. Ao utilizar-se vários fatores simultaneamente a complexidade do arranjo fatorial e do experimento aumenta substancialmente, a quantidade de tratamentos e de informações a serem trabalhadas são altas, o que dificulta a interpretação e o entendimento do que se esta avaliando. Fica difícil explicar quando existir interação de vários fatores. Por exemplo, um experimento estudando 7 fatores (cálcio – A, magnésio - B, carbono - C, fósforo - D, potássio - E, enxofre - F, boro - G), em 2 níveis, será difícil explicar caso ocorra uma interação significativa de AxBxCxDxExFxG. Outro ponto é que dado a grande quantidade de tratamentos, com o aumento do número de fatores, torna-se difícil distribuir esses tratamentos dentro do experimento. Assim não é recomendado o uso de muitos fatores simultaneamente pois poderá ter muitas interações, muitos efeitos principais o que dificultará a interpretação dos resultados. Correto, mas além da possibilidade da interação de nível mais alto, podem ocorrer mais interações de níveis mais baixos, diferentes para cada variável estudada, o que fica bastante difícil de explicar 1 4. [] (IP:281473660056925 | 07:01:09 | 23:11:37 | 10:28 | 51.863) Será realizado um projeto avaliando o efeito do tempo de cultivo da cana (0, 5, 10, 15 e 20 anos) sobre características físicas (densidade, capacidade de retenção de água, resistência à penetração, condutividade hidráulica saturada), químicas (pH, Al, H+Al, P, K, Ca, Mg, saturação por bases, CTC, C orgânico) e microbiológicas do solo (população de nematóides, respiração, biomassa, N e P microbianos). Serão realizadas amostragens apenas em áreas com histórico conhecido, com o mesmo tipo de solo para todos os períodos e submetidas aproximadamente ao mesmo manejo. A pesquisa será conduzida em todo o Brasil, com amostras de cada uma das condições em uma mesma propriedade rural. explanation: Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento experimental e/ou amostral, e como os resultados devem ser explorados). Indique como deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados. Justifique suas posições. Arranjamento será em parcelas subdividas com medição repetida no tempo. O delineamento experimental será em blocos casualizados, pois mesmo tendo igual tipo de solo e manejo as condições ambientais não são controladas, e existe variações de um ponto a outro. Os dados serão analisados a partir do modelo misto (MM). Quando se utiliza o MM este já considera que existe dependência, essa dependência já esta contida no modelo, e seleciona-se o modelo de parcela subdividida. Como não apresenta é observado o AIC, que quanto menor, melhor. Não pode ser experimento sob hipótese alguma, já que não tem como casualizar, por exemplo. Estes dados são necessariamente amostrais, e o melhor caminho de análise é o uso de multivariada para entender como o tempo afeta o conjunto de variáveis, além de permitir tentar entender como as variáveis se afetam. 0 5. [] (IP:281473660056925 | 07:01:31 | 23:12:30 | 10:59 | 1.119) Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de informação que podemos tirar deles Os teste de hipótese permite aceitar ou rejeitar uma determinada hipótese. Quando é observado altos valores da estatística o teste é o bilateral, afirma-se que a hipótese alternativa (Ha) é diferente de H0. Quando a finalidade é apenas um dos altos valores dessa estatística o teste é unilateral. Ao afirmar que Ha é superior a H0 (Ha > H0) o teste é unilateral à direita, já quando afirmamos que Ha é menor que H0 (Ha < H0) o teste é unilateral à esquerda. Para a análise de variância é utilizado o teste F, empregado na comparação de médias. Dentre vários testes, um deles é o teste t de Student, existe ainda o teste de Tukey, o teste Qui Quadrado, teste de Dunnett, teste de Scheffé. O teste F, consiste na decomposição da variância total, visando comparar estimativas de variâncias e dos graus de liberdade em partes que podem ser atribuídas a causas conhecidas e independentes (fatores que podem ser controlado) e a uma porção residual de origem desconhecida e natureza aleatória (fatores não controlados). O teste de Tukey é bastante utilizado por ser rigoroso e de fácil aplicação, ele é utilizado para testar toda e qualquer diferença entre duas médias de tratamento. Outro teste é o Qui Quadrado, que é um teste de hipóteses, que visa encontrar um valor da dispersão para duas variáveis nominais, avaliando a associação existente entre variáveis qualitativas. Este teste não depende dos parâmetros populacionais, como média e variância. O Qui Quadrado buscar possíveis divergências entre as frequências observadas e esperadas para certo evento. O teste de Scheffé é um teste de comparações múltiplas podendo ser utilizado para comparar qualquer contraste de médias e o teste de Dunnett é utilizado quando o interesse é comparar as médias dos grupos tratados apenas com a média do controle. As informações que podem ser obtidas com os testes de hipóteses esta relacionada em dizer se os tratamentos estudados são iguais ou diferentes ao já existente (H0). Com certa frequência as informações nos testes de hipótese podem estar relacionadas a erros do tipo I e tipo II. A escolha da melhor hipótese alternativa influência no poder do teste. Resaltando que são apenas alguns de vários testes existentes na literatura. Ok 1, mas está difícil de entender o que quer dizer com a primeira parte 6. [] (IP:281473660056925 | 07:01:52 | 23:13:32 | 11:40 | 0.048) Um experimento vai ser conduzido avaliando o efeito de cinco inoculantes rizobianos em dez variedades de caupi e quatro solos, em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Será utilizado o delineamento em blocos casualizados, devido a casa de vegetação apresentar condições ambientais heterogêneas. Existe partes na casa de vegetação que recebem maior radiação solar, e isso poderá favorecer o(s) tratamento(s) que esta(ão) nessa parte. Serão 4 blocos. A escolha pelo arranjamento fatorial é devido este possui maior precisão que as parcelas subdivididas no experimento como um todo. No arranjamento fatorial existe maior número de repetições, maior grau de liberdade do resíduo e menor o coeficiente de variação. Outro ponto pelo uso do DBC é que serão necessários 800 unidades experimentais, existe disponibilidade de material, entretanto não de pessoal (mão-de-obra), sendo fragmentado a instalação desse experimento em 4 dias. ANOVA Fontes de variação GL SQ QM F Tratamentos (t - 1) => 200-1 = 199 (∑ T²/b) – C SQT/GLT QMT/QMR Blocos (b - 1) => 4-1 = (∑ B²/t) – C SQB/GLB Resíduo (t - 1)x(b - 1) => 199x3 = 597 (*) Diferença SQR/GLR Total (tb - 1) => (200x4)-1 = 799 ∑ x² - C GL = Graus de liberdade; SQ = Soma de quadrados; QM = Quadrado médio; F = Teste F. (*) = Vem de (tb-1)-(t-1)-(b-1). Para facilitar os cálculos geralmente é obtida por diferença. t = número de tratamentos; b = número de blocos; T = total de cada tratamento; B = total de cada bloco. = [(∑ x)²]/RT identificou o fatorial na descrição, mas não na análise 0,25 7. [] (IP:281473660056925 | 07:02:13 | 23:14:16 | 12:03 | 43.147) Discuta a relação entre a regressão e um relacionamento causa-efeito. Não existe relação entre regressão e um relacionamento causa e efeito, a existência de regressão não tem vínculo/elo com um relacionamento de causa e efeito. A regressão é um modelo matemático que liga duas ou mais variáveis, demonstra apenas a ligação entre as variáveis, não devendo ser entendida como função de causa e efeito. A variável dependente pode ser estimada a partir deste modelo. O pesquisador, através de seu conhecimento científico, é que define se existe alguma relação de causa-efeito da ligação entre as variáveis estudadas. Correto 1 8. [] (IP:281473660056925 | 07:02:36 | 23:15:52 | 13:16 | 91.018) Discuta os principais critérios que devem ser adotados na seleção do delineamento experimental. O critério refere-se ao fator escolhido para comparação. Deve-se ter motivos consistentes para escolher um ou outro delineamento, isso será de acordo com base no experimento como um todo e também das condições reinantes. O principal critério adotado é o controle do local, que em delineamentos inteiramente casualizados o ambiente é homogêneo, então não precisa controlar a variação ambiental, pois não existe, entretanto, nos delineamentos em blocos casualizados o ambiente é heterogêneo sendo necessário controlar essa variação para ter confiança nos resultados e saber que realmente eles refletem o que acontece na população. Quando utiliza-se DBC, gasta-se graus de liberdade (GL), dessa forma só deve ser utilizado DBC se existir fatores a serem controlados, porque senão estará gastando GL sem necessidade. Ok 1 9. [] (IP:281473660056925 | 07:02:55 | 23:16:50 | 13:55 | 1.484) Debata os principais prós e contras das diferentes alternativas para análise de medições repetidas. As principais alternativas são: univariada que analisa cada variável separadamente, multivariada, parcela subdividida ou modelo misto (MM). No caso da utilização de parcelas subdivididas a independência pode existir e pode ser medida através do teste de esfericidade de Mauchly, entretanto não se pode assumir independência. Assim pode-se utilizar, pois tem a vantagem de utilizar por exemplo uma menor área, reduzindo custos, entretanto é fundamental saber se o uso desta resulta em vantagens, e se pode-se utilizar esta, fazendo o teste de esfericidade e observando se o critério de independência foi atendido. A utilização de parcelas subdivididas esta bastante associada com a questão do comodismo, desde antigamente se usa, e não parou-se para questionar se realmente existe vantagem, e em que casos se tem vantagem, antes os cálculos eram feitos a mão e usar parcela subdividida era a melhor opção, só que nos dias atuais existe computadores que processam muito rápido, além de programas estatísticos de boa qualidade. Quando se faz o teste de esfericidade, sabe-se se pode ou não utilizar parcela subdividida, em algumas análises poderá ocorrer de poder utilizar, em outras não, ou em casos em que poderá utilizar em todas, e outros não, tem que se realizar este teste para saber se pode ou não utilizar parcela subdividida. No caso da utilização da analise multivariada, cada profundidade e o tempo são considerados como variáveis. Na analise multivariada, analisa-se conjuntamente todas as variáveis com apenas uma análise, as variáveis se transformam em matrizes vetores e a comparação passa a ser realizada entre os vetores e não entre os pontos, reduzindo o erro tipo I, pois o número de teste realizados são menores, já que não são necessários fazer uma grande quantidade de testes para cada variável com é o caso da univariada. Dessa forma a vantagem da multivariada é essa redução do erro tipo I, devido a menor quantidade de testes que são realizados. A interpretação muda um pouco já que não esta mais trabalhando-se com médias e sim com vetores. Como exemplo pode citar a avaliação de vários parâmetros físicos do solo, com a multivariada forma-se um pacote dessas variáveis e trabalham-se essas como um todo, reduzindo bastante o numero de testes a serem realizados. Já a univariada tem o problema de por realizar muitos testes, e na maioria das vezes por trabalhar com muitas variáveis, no final a quantidade de testes realizados é enorme, sendo o erro tipo I cumulativo, isso pode acarretar em conclusões equivocadas no trabalho. Pois existe uma maior chance de estar assumindo que existe diferenças quando na realidade não existe. No exemplo dado, para cada parâmetro físico seria realizado um teste, o que acarreta no final grande quantidade de testes, ocorrendo erro cumulativo do tipo I. Já o modelo misto é muito bom, pois é valido em qualquer situação. As variáveis ficam em um mesmo nível, mas ele não possui cv (causa de variação), é necessário utilizar outra medida de variação como por exemplo o erro padrão. O modelo misto reconhece que existe dependência intrinsecamente no modelo, a descrição matemática do modelo é adequada com a independência que é exigida. Assim não é necessário fazer testes para saber se pode ou não utilizar. A interpretação do modelo misto é praticamente igual a da univariada, e no modelo misto pode-se selecionar um modelo em que ele corresponde a parcela subdivida, mas sem a necessidade de fazer o teste de esfericidade. Outra vantagem do modelo misto é que a análise do tukey por exemplo, e de outros testes é igual a da univariada, a discussão é relativamente fácil, pois já se sabe fazer porque assemelha-se com o do fatorial e sua estatística também é parecida com a de um fatorial. Ok 1 10. [] (IP:281473660056925 | 07:03:16 | 23:17:22 | 14:06 | 1.085) Diferencie repetição real, repetição experimental, e réplica. A réplica não tem variação do acaso para determinado objetivo em dado momento. Geralmente (não quer dizer sempre) é utilizada para avaliar a variação metodológica de equipamentos para verificar sua precisão. Pode ser o erro da máquina, do operador da máquina, da homogeneização da amostra, entre outros. A repetição experimental existe variação do acaso e quanto mais repetições melhor, pois melhorará a precisão do experimento. É considerada o número de vezes que aparece o tratamento. Exemplo: Coleta de amostras de solo em 1 área de Cambissolo. Foram coletadas 15 amostras, cada amostra é uma repetição. Agora se de cada amostra fosse retirada subamostras e fossem feitas análises, isso seria a réplica, pois se está fazendo analises da mesma amostra. Repetição real representa quantas vezes um determinado fator que faz parte do tratamento vai aparecer, isto é, cada efeito principal aparece no experimento.Depende da quantidade de níveis de cada fator e do número físico de repetições do tratamento, como existe a possibilidade de ocorrer números distintos de níveis para cada fator, cada nível de um fator pode ocorrer em distintas quantidades. Ok 1 11. [] (IP:281473660056925 | 07:03:38 | 23:18:12 | 14:34 | 0.804) Um experimento foi conduzido em laboratório estudando a resistência de 100 estirpes rizobianas a três temperaturas. Serão utilizadas dez repetições e as estufas bacteriológicas disponíveis só cabem 500 placas de petri de cada vez. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Será utilizado o delineamento em blocos casualizados devido a limitação de material, pois existem apenas 500 placas de petri disponíveis por vez, e a quantidade necessária no total é de 3000. Outro ponto é a limitação de pessoal (mão-de-obra), assim será instalado 300 placas de petri por período. Como é necessário 3000 placas de petri no total (3000 unidades experimentais), o arranjamento pode ser em fatorial 100 (estirpes) x 3 (temperaturas). O arranjo fatorial é mais preciso do que a parcela subdividida, possui maior número de repetições e como só terá 2 fatores, a discussão não se torna complexa. ANOVA Fontes de variação GL SQ QM F Tratamentos (t - 1) => 300-1 = 299 (∑ T²/b) – C SQT/GLT QMT/QMR Blocos (b - 1) => 10-1 = 9 (∑ B²/t) – C SQB/GLB Resíduo (t - 1)x(b - 1) => 299x9 = 2691 (*) Diferença SQR/GLR Total (tb - 1) => (300x10)-1 = 2999 ∑ x² - C GL = Graus de liberdade; SQ = Soma de quadrados; QM = Quadrado médio; F = Teste F. (*) = Vem de (tb-1)-(t-1)-(b-1). Para facilitar os cálculos geralmente é obtida por diferença. t = número de tratamentos; b = número de blocos; T = total de cada tratamento; B = total de cada bloco. = [(∑ x)²]/RT Mesmo problema da outra situaçã, em que o fatorial é reconhecido na descrição, mas não na análise 0,25 12. [] (IP:281473660056925 | 07:03:59 | 23:19:02 | 15:03 | 0.984) Discuta as implicações da aditividade. A aditividade ou efeito aditivo possibilita a distinção entre o que é efeito do acaso do que é efeito do tratamento devido a independência que lhes confere. Assim o efeito do acaso não interfere no efeito do tratamento, permitindo a análise dos resultados de modo a saber a origem dos efeitos observados. Caso fosse multiplicativa, não teria como distinguir efeito do acaso de efeito do tratamento. A aditividade é um requisito do modelo linear generalizado, dada a separação dos efeitos, consegue-se observar se o resultado foi devido aos tratamentos quando F CAL. > F TAB. ou devido ao acaso quando F CAL. < FTAB. Ok, mas não tenho ideia de onde apareceu o teste F nesta história 13. [] (IP:281473660056925 | 07:04:29 | 23:52:08 | 47:39 | 8.796) Descreva situações em que o uso da multivariada seria interessante em trabalhos de experimentação. Nas determinações químicas de um experimento em campo serão avaliados, pH, Ca, Mg, K, P, C org., CTC, Zn, Cu, Mo, S, para avaliar o nível da fertilidade do solo. Assim o uso da multivariada seria interessante, pois todas essas análises será avaliada em apenas um teste, reduzindo o número dos testes a serem realizados, e evitando o erro cumulativo no caso se fosse utilizado a univariada. Nas determinações físicas de um experimento em laboratório serão avaliados, Ds, Dp, P, Macroporosidade, Microporidade, Curva de retenção de água no solo, Resistência a penetração. Da mesma forma o uso de multivariada é interessante pois essas análises serão reduzidas a utilização de um teste, evitando a chance de ocorrência do erro tipo I, devido a redução do número de testes executados em comparação com a univariada. Com multivariada são analisadas várias variáveis simultaneamente. Com a redução do número de testes realizados, reduzindo assim o número de chance de ocorrer o erro tipo I. Ok, nestas duas situações poderíamos usar a multivariada sim. No entanto, como seria o uso desta técnica nas duas situações? Que informações poderíamos ganhar? 0,5 14. [] (IP:281473660056925 | 07:04:52 | 23:20:33 | 15:41 | 0.948) Discuta diferentes critérios para seleção da melhor regressão linear múltipla. Na seleção de técnicas dos modelos podem ocorrer aumento na chance de cometer o erro tipo I, o que não é bom, pois caso isso ocorra estará afirmando que existe diferença nos tratamentos, quando na realidade não existe essa diferença na população, isto sendo provocado pela má seleção do modelo. Ao avaliar um modelo visa-se observar se os parâmetros estimados são ou não estatisticamente significativos e satisfatórios. Os critérios estatísticos avaliados nos modelos têm por finalidade observar o grau de confiabilidade das estimativas obtidas. O critério para seleção da regressão linear múltipla (RLM), refere-se ao fator escolhido para comparação dos modelos de regressão e desta forma escolher o melhor modelo. O critério para seleção possibilita encontrar quais as variáveis entram no modelo de regressão, para avaliar um conjunto de dados a ser feito as regressões. No caso de RLM o primeiro e mais importante critério a ser observado é o R² corrigido/ajustado, pois este leva em consideração o número de variáveis adicionadas ao modelo. Se for observado apenas o R², quanto mais variáveis for adicionado no modelo, maior o R², entretanto, isso não implica em maior ganho de informação, pois a pessoa pode estar colocando variáveis que pouco contribuem, que pouco fornece informações utéis. O importante é olhar o R² corrigido, pois este dá uma ideia da proporção de variação de Y (variável dependente) explicada pelo modelo de regressão, além de levar em consideração o número de variáveis adicionadas. Este vai explicar bem o que esta acontecendo, e levará em consideração as variáveis que são colocadas no modelo, deve-se optar pelo maior R² corrigido, com o menor número de variáveis, onde, estes devem explicar melhor o máximo da variação. Quanto menos variáveis, e se, elas explicam tão bem quanto modelos com o mesmo R² ajustado só que com mais variáveis, economiza-se tempo e facilita a interpretação dos resultados. Existe ainda o coeficiente de correlação (R), o valor de F e coeficiente de determinação (R2). O coeficiente de correlação (R) é uma medida da relação linear entre duas ou mais variáveis, que indica a proximidade dos pontos a reta de regressão, e quanto mais próximo de 1,0 for o valor de R, mais os pontos se encontram na reta de regressão. E o teste F dá uma ideia da relação entre a variação devida ao resíduo e ao acaso. Ok 1 15. [] (IP:281473660056925 | 07:05:44 | 23:21:25 | 15:41 | 0.539) Discuta possíveis vantagens e desvantagens do uso de regressão na ciência do solo. Detalhe em particular cuidados que devemos tomar em sua interpretação. A vantagem da regressão na área de fertilidade do solo, é que através de sua utilização poderá ser obtido valores não aplicados, mas que correspondem a doses procuradas (agronômicas e/ou econômicas, por exemplo no caso de adubação) dado a interpolação dos valores. Possibilita a visualização de algo, que de outra maneira não seriam visualizado. A desvantagem é que não pode extrapolar esses valores obtidos para outras condições, nem para faixas que estão fora das estudadas. Exemplificando uma vantagem: Supondo que em um experimento, conduzido no município de Petrolina-PE, em que se deseja obter a dose econômica de adubo por hectare na produção de tomate, utilizando doses de 0-20-30-40-50-80-100 kg de adubo. A produtividade máxima foi alcançada com 68,5 kg de adubo por hectare. Essa dose de 68,5 kg de adubo, não foi colocada no experimento, entretanto esse valor foi obtido devido a interpolação dos valores na equação da regressão. Exemplificando uma desvantagem: No caso do mesmo exemplo acima citado, é que não se pode dizer que para as condições do município de Garanhuns-PE, a dose econômica seja de 68,5 kg de adubo. Caso admita-se a mesma regressão para o município de Garanhuns, estará se cometendo a extrapolação, ocasionando erros. Mesmo sendo municípios do mesmo estado as condições são distintas. A vantagem na área de microbiologia do solo é que poderá ser obtido através dessa modelagem, parâmetros passiveis de interpretação biológica (utilizando modelos não lineares) que permite ao pesquisador entender melhor os processos. A desvantagem é que nem todo modelo de regressão se enquadra no caso de estudo. Exemplificando: Em um estudo de decomposição de diferentes materiais vegetais em função do tempo, para saber como ocorre essa decomposição, deve-se utilizar modelos não lineares (mais comum, exponenciais), pois estes são bons descritores dos fenômenos biológicos. Caso se utilize modelos de regressão lineares ou polinomiais, isto implica em erros, o resultado e consequentemente a interpretação estará equivocada, pois estes modelos não representam bem os parâmetros biológicos. Praticamente nunca o pesquisador encontrará fenômenos biológicos que possam ser explicados por uma reta (regressão linear), pois na natureza ganhos sempre crescentes não são comuns. Para determinadas faixas de valores até pode ser usada, mas apenas para uma dada faixa de valores. No caso da área de Gênese e morfologia de solos pode-se utilizar a regressão, entretanto com menor exigência matemática, devido as suas características inerentes, existe muitos fatores influenciando, dos quais o pesquisador tem pouco controle. Já em um experimento (na área de fertilidade), existe um maior e melhor controle dos efeitos, refletindo assim em maiores correlações. Mesmo que as correlações sejam baixas (área de gênese), em comparação a um experimento (área de fertilidade) já se considera um ganho, pois são tantos fatores que não se pode controlar, que a variabilidade dos dois ficam altos. O solo é função dos fatores de formação (relevo, tempo, organismos vivos, clima, material de origem), dada essa complexidade de relações, a variabilidade tende a ser grande. Os principais erros no uso de regressão são cometidos devido ao uso indevido. Usa-se quando não deveria ser usada, ou usa-se um modelo não adequado para determinada situação. A estatística é uma ferramenta e cabe a quem esta utilizando-a saber usá-la, e saber extrair informações. O pesquisador tem que ter grande embasamento teórico, bem como, saber que modelos usar, o porque, suas causas e implicações, e saber se são compatíveis com a finalidade do estudo. Ok 1 16. [] (IP:281473660056925 | 07:06:05 | 23:22:59 | 16:54 | 93.544) Podemos esperar o mesmo grau de eficiência dos diferentes tipos de fatorial? Não. Comparando-se o fatorial (fatores e níveis) com o fatorial em parcela subdividida (parcela principal e subparcela), o fatorial é mais preciso que a parcela subdividida, O fatorial possui maior número de repetições. Logo é mais eficiente que a parcela subdividida na maioria das situações. Entretanto, em casos específicos a parcela subdivida pode apresentar alta/melhor eficiência. De modo geral, o fatorial é melhor que a parcela subdividida, por esta ser menos precisa estatisticamente que o fatorial, entretanto em alguns casos pode trazer ganhos como redução de custo, redução de área, mão-de-obra, em experimentos. Só em casos em que há ganhos do ponto de vista operacional/prático, é que há uma compensação dessa perda estatística, compensando assim seu uso, sendo nesses casos eficientes desde que sabendo-se utilizar na situação em que realmente esta acarretará ganhos. De onde apareceu que o fatorial tem maior número de repetições, pelamordedeus? Em momento algum mencionou que a razão para a preferência pelo fatorial simples na maioria dos casos é pela divisão da variação do acaso em mais de um componente na parcela subdividida. 0,5 17. [] (IP:281473660056925 | 07:06:30 | 23:23:49 | 17:19 | 38.143) Discuta a afirmativa: "No caso de uma interação, não devemos analisar qualquer efeito principal." Correto. Só devemos analisar o efeito principal dos fatores que não estão envolvidos na interação significativa. Quando ocorre interação significativa, o efeito principal dos fatores que estão nela envolvidos não precisam ser analisados/discutidos, já que com a interação terár-se qual o melhor nível em determinado fator, assim não faz sentido discutir o efeito principal. Quando a interação é não significativa, discute-se apenas os efeitos principais. O efeito principal trata-se do efeito de cada fator como se fosse o único efeito sendo estudado no experimento. Na realidade não devemos analisar qualquer efeito principal ENVOLVIDO na interação. Quem não está envolvido deve continuar a ser estudado do mesmo jeito de sempre… 0,75 18. [] (IP:281473660056925 | 07:07:11 | 23:24:19 | 17:08 | 27.05) Quais são os principais critérios para avaliar a qualidade de uma amostragem? O primeiro é definir o objetivo do estudo, pois este delimitará o que será estudado, outro ponto é em campo verificar as condições ambientais (relevo, vegetação, tipo de solo, entre outros), observando-se as áreas, defini-se o tamanho e a quantidade das amostras, que devem ser representativas e coletadas aleatoriamente, além de serem muitas amostras (repetições). Assim, seguindo-se tais passos/critérios poderá obter-se uma amostragem de qualidade. Para determinar o número de amostras, a princípio seleciona-se a quantidade de amostras retiradas da área com base nos valores de literatura, posteriormente procede-se a coleta, e a partir dessas coletas poderá obter-se a variância da área, e com a fórmula definir o número de amostras com bases mais científica. Passável 1 19. [] (IP:281473660056925 | 07:07:30 | 23:24:46 | 17:16 | 23.016) Diferencie interação e efeito principal. Efeito principal refere-se ao efeito de cada fator como se fosse o único efeito sendo estudado no experimento, já a interação refere-se a como os fatores interferem um na resposta do outro. O fatorial deriva do MLG, e os efeitos dos tratamentos no fatorial são designados pelo efeito principal (fatores) e interações. A medição do efeito principal é dado pelo total de seus efeitos considerados sobre todos os outros fatores e repetições. A medição da interação é dada pelo total das combinações dos fatores em consideração sobre todos os outros fatores e repetições e dessa forma sucessivamente até a interação de todos os fatores em estudo. Ok 1 20. [] (IP:281473660056925 | 07:07:51 | 23:26:31 | 18:40 | 0.918) Crie uma situação experimental para o uso do delineamento em quadrado latino no campo da agronomia. Justifique. Mesmo não sendo tão comuns na prática em agronomia, devido as restrições do delineamento. O delineamento em quadrado latino é utilizado quando deseja-se controlar duas causas de variação. Apresentam dois tipos de blocos, blocos em “coluna” e em “linhas”, os tratamentos são sorteados, e cada tratamento só deve aparecer uma vez em cada “coluna” e uma vez em cada “linha”. Será conduzido um experimento em campo avaliando o desenvolvimento vegetal da espécie Guazuma ulmifolia, visando controlar variações decorrentes do tipo de solo e do lado preferencial dos ventos. As plantas serão dispostas na área. Na horizontal os ventos são intensos, e na vertical existem faixas de solos diferentes (Latossolo, Argissolo, Neossolo). Será utilizado o delineamento em quadrado latino, pois existe variação a ser controlada tanto na linha quanto na coluna e o QL possibilita esse controle. Ok 1 21. [] (IP:281473660056925 | 07:08:12 | 23:37:52 | 29:40 | 0.896) Um experimento vai ser conduzido no campo avaliando 100 novos clones de palma forrageira com adubação orgânica, mineral ou uma combinação, com duas repetições.Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas Delineamento em blocos casualisados devido o campo ser um ambiente heterogêneo, existe variação quanto ao solo, temperatura, umidade, entre outros fatores ambientais. O arranjamento será em parcela subdividida, tendo o clone como parcela principal e as adubações como subparcelas. Usando-se a parcela subdividida (PS) terá ganho operacional, mesmo a PS sendo menos precisa estatisticamente que o fatorial o ganho operacional compensa essa perda estatística. Fontes de variação GL SQ QM F Tratamentos (t - 1) => 300-1 = 299 (∑ T²/b) – C SQT/GLT QMT/QMR Blocos (b - 1) => 10-1 = 9 (∑ B²/t) – C SQB/GLB Resíduo 2999-299-9 = 2891 Diferença SQR/GLR Parcela (300x10) – 1 = 2999 Total (tb - 1) => (300x10)-1 = 2999 ∑ x² - C GL = Graus de liberdade; SQ = Soma de quadrados; QM = Quadrado médio; F = Teste F. t = número de tratamentos; b = número de blocos; T = total de cada tratamento; B = total de cada bloco. = [(∑ x)²]/rt É a segunda resposta a esta situação que usa exatamente o mesmo esquema, embora ele não seja particularmente lógico. Neste caso em particular, para piorar, o esquema de análise não bate com a descrição feita de parcela subdividida 0 22. [] (IP:281473660056925 | 07:08:35 | 23:38:24 | 29:49 | 31.548) Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor nível de um fator". Não. Quando a interação é significativa, esta só terá importância se associada com outro nível do fator, se não existir interação o melhor nível seria o do fator principal. Não tenho a menor ideia do que tentou dizer. Suspeito que quer dizer que só podemos definir o melhor nível de um fator para um determinado nível do outro, mas se fosse para adivinhar era melhor acertar os números da megasena 0