UNIVERSIDADE FEDERAL DE SANTA CATARINA DEPARTAMENTO DE ENGENHARIA DE PRODUÇÃO E SISTEMAS PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DE PRODUÇÃO ALEXANDRE SERRA BARRETO PREVISÃO DE COMPORTAMENTO E CLASSIFICAÇÃO DE CONTRIBUINTES TRIBUTÁRIOS: UMA ABORDAGEM POR MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS Tese de Doutorado FLORIANÓPOLIS 2005 ALEXANDRE SERRA BARRETO PREVISÃO DE COMPORTAMENTO E CLASSIFICAÇÃO DE CONTRIBUINTES TRIBUTÁRIOS: UMA ABORDAGEM POR MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS Tese de Doutorado Apresentada ao Programa de Pós-Graduação em Engenharia de Produção da Universidade Federal de Santa Catarina como requisito parcial para obtenção do Grau de Doutor em Engenharia de Produção Orientador: Aran Bey Tcholakian Morales, Dr. Co-Orientador: Dalton Francisco de Andrade, PhD. FLORIANÓPOLIS 2005 ALEXANDRE SERRA BARRETO PREVISÃO DE COMPORTAMENTO E CLASSIFICAÇÃO DE CONTRIBUINTES TRIBUTÁRIOS: UMA ABORDAGEM POR MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS Esta Tese foi julgada e aprovada para a obtenção do grau de Doutor em Engenharia de Produção no Programa de Pós-Graduação em Engenharia de Produção da Universidade Federal de Santa Catarina Florianópolis, 16 de setembro de 2005 ______________________________________________ Edson P. Paladini Coordenador do Programa BANCA EXAMINADORA ____________________________________ ____________________________________ Prof. Aran Bey Tcholakian Morales, Dr. Prof. Dalton Francisco de Andrade, PhD. UFSC UFSC (Orientador) (Co-Orientador) ____________________________________ _____________________________________ Profa. Maria Inés Castiñeira, Dra. Prof. Antonio Cezar Bornia, Dr. Unisul UFSC (Moderadora) _____________________________________ ____________________________________ Prof. José Afonso Mazzon, Dr. Prof. João Luiz Alkaim, Dr. USP Unisul (Examinador Externo) (Examinador Externo) Dedicatória À minha mãe, Profa. Sylvia Serra Barreto, pelo, carinho, incentivo, orações e lições concedidas. Ao meu pai, prof. Fernando Barreto, por proporcionar as bases para minha formação acadêmica. Agradecimentos A Deus e a Jesus Cristo, que me guiaram durante a realização desta pesquisa. Meu especial agradecimento ao Prof. Aran Bey Tcholakian Morales, pela orientação científica constante e segura e pela confiança sempre depositada nesta pesquisa. Ao Prof. Dalton Francisco de Andrade, minha especial gratidão, pela atenção, incentivo e valiosa co-orientação do trabalho; e por nossos seminários em métodos estatísticos realizados no INE/UFSC. Aos professores membros da banca examinadora desta tese pela contribuição ao aperfeiçoamento deste trabalho. Meu muito especial agradecimento ao ex-Secretário da Receita Federal, Dr. Everardo Maciel; ao Secretário da Receita Federal, Dr. Jorge Antônio Deher Rachid; e à Comissão de Pós-Graduação da SRF formada pelo Dr. Moacir das Dores, Dr. Márcio Ferreira Verdi, Dra. Luciana M. Sabino de Freitas Cussi e Dr. Carlos Alberto Barreto, pela concessão da inestimável oportunidade profissional e de pesquisa. À Coordenadora-Geral da COSIT/SRF, Dra. Josefa Maria Coelho Marques; ao Coordenador da DICOR/COTEC/SRF, Dr. Márcio R. Nogueira; ao CoordenadorGeral da COFIS/SRF, Dr. Marcelo Fisch B. Menezes; à Auditora-Fiscal da Receita Federal Helena Martha Graever de Medeiros e ao Analista do SERPRO Marco Antônio Lopes, pelo apoio proporcionado a este trabalho. Ao Prof. Paulo José Ogliari, do INE/UFSC, por sua amizade, disciplinas ministradas, livros disponibilizados e divertidas conversas sobre estatística. À Universidade Federal de Santa Catarina, ao Programa de Pós-Graduação em Engenharia de Produção, ao Programa de Pós-Graduação em Ciências da Computação e, particularmente, aos professores José Leomar Todesco, Miguel Angel Verdinelli, Hugo César Hoeschl, Silvia Modesto Nassar, Robert Wayne Samohyl e Pedro Alberto Barbetta, pelas possibilidades de expansão de pensamentos, disciplinas ministradas e oportunidades de aprendizado propiciadas ao longo desta caminhada. Ao meu amigo Márcio Cruvinel, Engenheiro Eletricista e Auditor-Fiscal da Receita Federal em Brasília, pela abertura de caminhos às minhas idéias. Agradeço também a todos os meus colegas da UFSC durante o período de doutorado, especialmente a Damaris Fanderuff, Juliano Anderson Pacheco, Marcelo Buscioli Tenório, Renato Corrêa Vieira, Rubson Rocha e Patrícia Bonina Zimath, pela amizade e agradável convívio durante o período de pós-graduação em Florianópolis. Aos meus padrinhos Beatriz e Milton Ribeiro, pelas orações nos momentos importantes. Aos meus amigos e irmãos no Rio de Janeiro, Júlio Cezar Ferreira de Mello, Marcelo Oliveira Brandão e Luiz Phillipe Lameirão Côrtes, pela amizade e fraternidade de há muitos anos, mesmo à distância, tão importante nos longos períodos de reflexão e isolamento. Por fim, agradeço simbolicamente às cidades e ao povo de Florianópolis-SC, Brasília-DF e Rio de Janeiro-RJ, nas quais esta pesquisa pôde ser proposta, viabilizada e executada. Epígrafe “Já conhecemos as leis que determinam o comportamento da matéria sob todas as condições, à exceção das mais extremas. Particularmente conhecemos as leis básicas que perpassam toda a química e a biologia. Certamente ainda não reduzimos estes temas ao status de problemas resolvidos; temos, ainda assim, obtido pequeno sucesso, por enquanto, na previsão do comportamento humano a partir de equações matemáticas! Assim, mesmo se de fato encontramos um conjunto completo de leis básicas, ainda estará projetada nos anos posteriores a intelectualmente lendária tarefa de desenvolver melhores métodos de aproximação, a fim de que possamos fazer previsões úteis quanto aos prováveis comportamentos das situações reais complexas. Uma teoria completa, consistente, unificada é apenas o primeiro passo: nosso objetivo é a completa compreensão dos eventos à nossa volta e de nossa própria existência.” Stephen W. Hawking Resumo BARRETO, Alexandre Serra. Previsão de Comportamento e Classificação de Contribuintes Tributários: Uma Abordagem por Modelos Lineares Generalizados Hierárquicos. 2005. 262f. Tese (Doutorado em Engenharia de Produção) - Programa de Pós-Graduação em Engenharia de Produção, UFSC, Florianópolis. No contexto atual da administração tributária, é requisitado o controle, a curto, médio e longo prazo, dos níveis de arrecadação de tributos e contribuições administrados. Para que um determinado nível de arrecadação seja mantido, ou elevado, é preciso que exista um sistema tributário estabelecido e um processo de fiscalização permanentemente exercendo certa pressão sobre os contribuintes. A condução desse processo é uma das atribuições regimentais das agências tributárias e também, portanto, da Secretaria da Receita Federal, e possui como uma de suas principais tarefas a seleção de contribuintes para fiscalização. Esta apresenta como um dos elementos complicadores o inevitável tempo decorrido entre o cometimento de uma infração por parte de um contribuinte e sua efetiva detecção pela agência tributária. No que se refere à seleção de contribuintes pessoas jurídicas, deve-se reconhecer que estes se dedicam a certas atividades econômicas que contam com características econômico-setoriais próprias, o que sugere que as medidas tomadas a partir de contribuintes pertencentes a um mesmo setor de atividades econômicas tendem a ser mais parecidas entre si do que medidas tomadas a partir de contribuintes participantes de setores econômicos distintos, hipótese que, em se confirmando, ocasiona a correlação das observações intra-setores. Assim, esta pesquisa propõe um novo método de classificação e seleção de contribuintes para fiscalização, fundamentado na previsão de seus comportamentos tributários por meio de Modelos Lineares Generalizados Hierárquicos, que efetivamente considera e avalia, de forma sistematizada, a correlação de medidas existente intra-setores de atividades econômicas. Os dados de trabalho são os relacionados ao principal método de seleção de contribuintes da Secretaria da Receita Federal e às auditorias assim deflagradas. A partir da estimação dos modelos propostos e da utilização de variáveis preditoras individuais de contribuintes e também de setores econômicos, foram devidamente quantificadas e explicadas as fontes de variabilidade nas respostas de interesse tributário aqui enfocadas. Por fim, os modelos foram aplicados à classificação de contribuintes e avaliados, em termos de capacidade preditiva, pela estimação de suas medidas de validade interna. Os principais resultados alcançados pela condução da pesquisa foram: a agregação de conhecimento no que concerne a dinâmica que rege o comportamento tributário de contribuintes e de setores econômicos, subsidiando a formulação de políticas fiscais; a consideração, de forma sistematizada, da correlação de medidas intra-setores econômicos, assim como a explicação parcial da variabilidade aferida a partir dessa sistematização, em termos da proposição de métodos para seleção de contribuintes para fiscalização; a especificação de um novo método de seleção de contribuintes para fiscalização que confere uma maior agilidade de ação à fiscalização tributária. Palavras Chave: previsão, classificação, impostos, modelos lineares generalizados hierárquicos. Abstract BARRETO, Alexandre Serra. Previsão de Comportamento e Classificação de Contribuintes Tributários: Uma Abordagem por Modelos Lineares Generalizados Hierárquicos. 2005. 262f. Tese (Doutorado em Engenharia de Produção) - Programa de Pós-Graduação em Engenharia de Produção, UFSC, Florianópolis. In the tributary context it is required the planning and control of taxes collection. In order to maintain and eventually increase a reached public collection level it is necessary an established taxation system and an audit enforcement permanently in activity. This process is sponsored by tax agencies and has as a crucial task to select taxpayers for audit proposals, which is challenged by the unavoidable time gap between the occurrence of a taxpayer’s infraction and its effective detection by the agency. With respect to corporate taxpayers it is intuitive that taxpayers belonging to the same economic sector must be more similar than others dedicated to different economic sectors and this assumption may cause intra-sector correlated observations. This should be evaluated by the researcher while proposing nonrandomized taxpayer selection methods. Thus the actual research proposes a new method to classify and select corporate taxpayers based in their tax compliance behavior predicted by Hierarchical Generalized Linear Models, concerning and assessing the existence of intra-sector correlated measures. The focused database belongs to Brazilian tax agency called Secretaria da Receita Federal and is related to its regular taxpayer selection method and subsequent audits. By estimating the proposed models and utilizing individual and sectorial explanatory variables, the variability in taxation measures of interest was quantified and explained. After that proposed models were applied to classification and evaluated concerning its prediction capabilities by the estimation of specific internal validation measures. The more relevant results of this research were to aggregate knowledge about noncompliant tax behavior to taxation research; the consideration, in a systematized fashion, of the correlation among observations belonging to the same economic sector, as well as the partial explanation of the variability assessed by means of this consideration, in respect of proposing taxpayer selection methods; and the specification of a new method to classify and select taxpayers that privilegies the agility of tax audit enforcement. Key-words: forecasting, classification, taxes, hierarchical generalized linear models. Sumário Lista de Figuras ..................................................................................................................... xiii Lista de Quadros ................................................................................................................... xiii Lista de Tabelas .................................................................................................................... xiii Lista de Siglas ........................................................................................................................xv 1 INTRODUÇÃO AO TEMA .................................................................................................. 18 1.1 Contextualização do problema .................................................................................... 19 1.1.1 Situação atual da seleção de contribuintes na SRF ............................................. 20 1.1.2 Problema, questões e hipóteses de pesquisa ...................................................... 24 1.2. Objetivos do trabalho.................................................................................................. 26 1.2.1 Objetivo geral........................................................................................................ 26 1.2.2 Objetivos específicos ............................................................................................ 27 1.3 Justificativa .................................................................................................................. 28 1.3.1 Relevância ............................................................................................................ 28 1.3.2 Ineditismo ............................................................................................................. 30 1.3.3 Complexidade ....................................................................................................... 30 1.4 Metodologia de trabalho .............................................................................................. 31 1.4.1 Procedimentos ...................................................................................................... 31 1.4.2 Classificação da pesquisa .................................................................................... 33 1.4.3 Convenções adotadas .......................................................................................... 34 1.4.4 Limitações da pesquisa ........................................................................................ 34 1.5 Delimitações do trabalho ............................................................................................. 35 1.6 Estrutura do trabalho ................................................................................................... 35 1.7 Contextualização da tese na engenharia de produção ............................................... 36 2 EVASÃO E INFRAÇÃO TRIBUTÁRIAS ............................................................................. 38 2.1 Introdução.................................................................................................................... 38 2.2 Conceitos gerais em tributação e implicações à pesquisa .......................................... 39 2.3 Modelo básico de evasão tributária ............................................................................. 41 2.4 Modelos enfocando a seleção de contribuintes para fiscalização............................... 43 2.4.1 Modelos envolvendo contribuintes pessoas físicas .............................................. 43 2.4.2 Modelos envolvendo contribuintes pessoas jurídicas........................................... 49 2.4.3 Modelos envolvendo contribuintes que auferem rendimentos por conta própria . 57 2.5 Modelos teóricos de evasão considerando políticas de incerteza............................... 63 2.6 Modelos teóricos de evasão considerando efeitos sócio-comportamentais................ 70 2.7 Experimentos para avaliação de efeitos sócio-comportamentais em evasão tributária ........................................................................................................................................... 73 2.8 Medidas de evasão tributária da economia ................................................................. 83 2.9 Conclusões gerais do capítulo..................................................................................... 84 3 MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS........................................... 86 3.1 Introdução.................................................................................................................... 86 3.2 Modelos lineares generalizados .................................................................................. 86 3.2.1 Regressão linear: simples e múltipla .................................................................... 90 3.2.2 Estrutura de dados correlacionados ..................................................................... 91 3.3 Modelos lineares hierárquicos ..................................................................................... 97 3.3.1 O modelo hierárquico nulo.................................................................................. 104 3.3.2 Alguns aspectos de locação de variáveis ........................................................... 106 3.4 Modelos lineares generalizados hierárquicos............................................................ 110 3.4.1 Opção entre as estimativas unit-specific e population-average.......................... 116 3.5 Conclusão.................................................................................................................. 118 4 INFERÊNCIA EM MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS ........... 119 4.1 Introdução.................................................................................................................. 119 4.2 Estimação por mínimos quadrados ordinários .......................................................... 119 4.3 Mínimos quadrados generalizados............................................................................ 122 4.4 Estimação por máxima verossimilhança ................................................................... 124 4.4.1 Variável resposta contínua ................................................................................. 125 4.4.2 Variável Resposta Binária................................................................................... 126 4.5 Estimação em MLH ................................................................................................... 127 4.5.1 Notação matricial e conceitos iniciais ................................................................. 127 4.5.2 Estimativas de efeitos fixos por MQG................................................................. 131 4.5.3 Estimativas empíricas de Bayes para coeficientes aleatórios de nível 1............ 132 4.5.4 Estimativas de MV para componentes de variância/covariância........................ 134 4.6 Estimação em MLGH................................................................................................. 137 4.6.1 Conceitos iniciais e notação matricial ................................................................. 137 4.6.2 Obtendo estimativas unit-specific ....................................................................... 138 4.6.3 Obtendo estimativas population-average ........................................................... 142 4.7 Intervalos de confiança em MLGH ............................................................................ 143 4.8 Testes de hipóteses em MLGH ................................................................................. 143 4.8.1 Introdução ........................................................................................................... 143 4.8.2 Testes relacionados a efeitos fixos..................................................................... 144 4.8.3 Testes relacionados a coeficientes aleatórios de nível 1.................................... 145 4.8.4 Testes relacionados a componentes de variância/covariância........................... 146 4.9 Conclusão.................................................................................................................. 148 5 NOVO MÉTODO DE CLASSIFICAÇÃO DE CONTRIBUINTES PARA FISCALIZAÇÃO. 149 5.1 Introdução.................................................................................................................. 149 5.2 Conceituação de infração e definição das variáveis resposta de interesse aos modelos lineares generalizados hierárquicos ................................................................................ 149 5.3 Processo esquemático do novo método de classificação ......................................... 151 5.4 Conclusões do capítulo ............................................................................................. 153 6 ANÁLISE EXPLORATÓRIA DE DADOS ECONÔMICO-FISCAIS DAS PESSOAS JURÍDICAS.......................................................................................................................... 154 6.1 Descrição das bases de dados.................................................................................. 154 6.2 Pré-Processamento de dados ................................................................................... 155 6.3 Análise hierárquica exploratória ................................................................................ 160 6.3.1 A estrutura hierárquica em unidades .................................................................. 160 6.3.2 O MLGH1 nulo .................................................................................................... 161 6.3.3 O MLGH2 nulo .................................................................................................... 164 6.4 Conclusão.................................................................................................................. 166 7 ESTIMAÇÃO E APLICAÇÃO DE MODELOS À CLASSIFICAÇÃO DE CONTRIBUINTES PARA FISCALIZAÇÃO ........................................................................................................ 167 7.1 Extração de amostras de validação........................................................................... 167 7.2 Variáveis candidatas aos modelos ............................................................................ 168 7.3 Processo para seleção de variáveis de níveis 1 e 2.................................................. 171 7.4 Estimativas e métricas de trabalho............................................................................ 172 7.5 O MLGH1................................................................................................................... 174 7.6 O MLGH2................................................................................................................... 178 7.7 Programas utilizados para os processos de estimação ............................................ 182 7.8 Análise de resíduos ................................................................................................... 183 7.9 Interpretação dos modelos estimados....................................................................... 184 7.9.1 MLGH1 ............................................................................................................... 184 7.9.2 MLGH2 ............................................................................................................... 186 7.9.3 Comparação entre o MLGH1 e MLGH2 finais .................................................... 188 7.10 Aplicação à classificação e validação dos modelos estimados ............................... 190 7.10.1 Desempenho das previsões para observações conhecidas............................. 190 7.10.2 Desempenho das previsões para novas observações ..................................... 193 7.11 Comparação entre os desempenhos do método novo e atual ................................ 195 7.12 Aspectos operacionais de utilização do novo método de classificação de contribuintes para fiscalização......................................................................................... 196 8 CONSIDERAÇÕES FINAIS.............................................................................................. 198 8.1 Principais resultados.................................................................................................. 198 8.2 Conclusões em relação às questões de pesquisa .................................................... 202 8.3 Contribuições alcançadas.......................................................................................... 204 8.4 Limitações e oportunidades para estudos futuros ..................................................... 205 REFERÊNCIAS ................................................................................................................... 206 APÊNDICE A – O trabalho de Feinstein (1991) .................................................................. 214 APÊNDICE B – O trabalho de Murray (1995)...................................................................... 220 APÊNDICE C – O trabalho de Press (1995) ....................................................................... 228 APÊNDICE D – Estimação de MV por Newton-Raphson e Escores................................... 232 APÊNDICE E – Índices Econômico-Fiscais ........................................................................ 234 APÊNDICE F – Estatísticas para os Índices Econômico-Fiscais ........................................ 235 APÊNDICE G – Exemplo de Estatísticas Descritivas e Gráficos para os Índices EconômicoFiscais.................................................................................................................................. 237 APÊNDICE H – Análise em Componentes Principais (Valores de Balanço) ...................... 240 APÊNDICE I – Amostras de Validação ............................................................................... 241 APÊNDICE J – Estimativas para MLGH1 (Variáveis Selecionadas Assinaladas em Negrito) ............................................................................................................................................. 244 APÊNDICE K – Estimativas para MLGH2 (Variáveis Selecionadas Assinaladas em Negrito) ............................................................................................................................................. 251 APÊNDICE L – Comandos do R Project for Statistical Computing para Estimação do MLGH2_Final....................................................................................................................... 261 xiii Lista de Figuras Figura 1: Principal processo de seleção de contribuintes PJ da SRF ................................... 23 Figura 2: Metodologia de pesquisa da tese........................................................................... 32 Figura 3: Relação entre as três inclinações relacionando MA e SES. ................................ 108 Figura 4: Relacionamento entre η ij e φ ij por meio da equação (3.39). ............................. 115 Figura 5: Novo método de classificação (seleção) de contribuintes para fiscalização........ 152 Figura 6: Gráfico de probabilidade Normal para resíduos dos MLGH Finais ...................... 184 Figura 7: Curvas ROC para Amostras de Estimação. ......................................................... 191 Figura 8: Histograma Parcial de I04. ................................................................................... 237 Figura 9: Boxplot de I04....................................................................................................... 238 Figura 10: Stem and Leaf Plot de I04. ................................................................................. 238 Figura 11: Histograma Parcial de I08. ................................................................................. 239 Figura 12: Histograma Parcial de I11. ................................................................................. 239 Lista de Quadros Quadro 1: Efeitos de fatores políticos e ambientais nas condições de equilíbrio entre contribuintes e agência tributária........................................................................................... 67 Quadro 2: Estrutura da CNAE-Fiscal................................................................................... 160 Quadro 3: Exemplo de classificação de contribuinte PJ...................................................... 160 Quadro 4: Natureza da Atividade Agregada........................................................................ 168 Quadro 5: Índices Econômico-Fiscais Utilizados na Pesquisa............................................ 234 Lista de Tabelas Tabela 1: Estimativas para modelo tobit de Joulfaian e Rider (1998) ................................... 58 Tabela 2: Estimativas obtidas para as duas equações propostas por Ali, Cecil e Knoblett (2001) .................................................................................................................................... 62 Tabela 3: Estimativas unit-specific para o MLGH1.............................................................. 162 Tabela 4: Estimativa population-average para o MLGH1.................................................... 162 Tabela 5: Estimativas MLHG1 (modelo linear binário) ........................................................ 164 Tabela 6: Estimativas unit-specific para o MLGH2.............................................................. 165 Tabela 7: Estimativa population-average para o MLGH2.................................................... 165 Tabela 8: Estimativas MLGH2 (modelo linear binário) ........................................................ 165 Tabela 9: Distribuição percentual das atividades informais................................................. 169 Tabela 10: Variação percentual do PIB (1998 e 1999)........................................................ 170 Tabela 11: Índice de Rentabilidade dos Setores Exportadores em 1999............................ 170 Tabela 12: Estimação do componente variância para modelos nulos ................................ 173 Tabela 13: Estimativas para MLGH1_NAG ......................................................................... 176 Tabela 14: Estimativas para MLGH1_Final ......................................................................... 178 Tabela 15: Estimativas para MLGH2_NAG ......................................................................... 180 Tabela 16: Estimativas para MLGH2_Final ......................................................................... 182 Tabela 17: Estimativas para variáveis presentes em ambos os modelos finais.................. 188 Tabela 18: Pontos de Corte para MLGH1_Final (Amostra Estimação)............................... 192 Tabela 19: Pontos de Corte para MLGH2_Final (Amostra Estimação)............................... 193 Tabela 20: Ponto de Corte para MLGH1_Final (Amostra Validação).................................. 193 Tabela 21: Ponto de Corte para MLGH2_Final (Amostra Validação).................................. 194 Tabela 22: Estimativas para modelo tobit de Feinstein (1991)............................................ 217 Tabela 23: Estimativas primeiro estágio (probit) de Murray(1995)...................................... 223 xiv Tabela 24: Estimativas terceiro estágio (MQO) de Murray (1995) ...................................... 225 ^ Tabela 25: relacionamento entre n e A .............................................................................. 230 Tabela 26: Estatísticas descritivas dos índices econômico-fiscais...................................... 235 Tabela 27: Estatísticas descritivas para I04 ........................................................................ 237 Tabela 28: Autovetores - CP: componente principal ........................................................... 240 Tabela 29: Inércia explicada................................................................................................ 240 Tabela 30: Efeitos do valor de E na fração amostral f, com N=9.757 ................................. 242 Tabela 31: Efeitos do valor de PQ no erro admissível E, com N=9.757.............................. 242 Tabela 32: Determinação de n para as Amostras de Validação ......................................... 243 Tabela 33: Estimativas para nível 1 (Primeira Rodada) ...................................................... 244 Tabela 34: Estimativas para nível 1 (Segunda Rodada) ..................................................... 246 Tabela 35: Estimativas para nível 1 (Terceira Rodada) ...................................................... 248 Tabela 36: Estimativas para nível 2 (Primeira Rodada) ...................................................... 249 Tabela 37: Estimativas para nível 2 (Segunda Rodada) ..................................................... 249 Tabela 38: Estimativas para nível 1 (Primeira Rodada) ...................................................... 251 Tabela 39: Estimativas para nível 1 (Segunda Rodada) ..................................................... 253 Tabela 40: Estimativas para nível 1 (Terceira Rodada) ...................................................... 255 Tabela 41: Estimativas para nível 1 (Quarta Rodada)......................................................... 256 Tabela 42: Estimativas para nível 1 (Quinta Rodada) ......................................................... 258 Tabela 43: Estimativas para nível 2 (Primeira Rodada) ...................................................... 260 xv Lista de Siglas ACP - Análise em Componentes Principais ANCOVA - Análise de Covariância ANOVA - Análise de Variância BD1 - Banco de Dados 1 BD2 - Banco de Dados 2 BCCSLL - Base de Cálculo da Contribuição Social sobre o Lucro Líquido BCCOF - Base de Cálculo da COFINS BCPISP - Base de Cálculo do PIS/PASEP CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior CCIC - Coeficiente de Correlação Intraclasse CIAT - Centro Interamericano de Administrações Tributárias CNAE-Fiscal - Classificação Nacional de Atividades Econômicas - Fiscal das pessoas jurídicas COFINS - Contribuição para o Financiamento da Seguridade Social (contribuição administrada pela SRF) COPAT - Coordenação de Política e Administração Tributária da SRF CPI - Comissão Parlamentar de Inquérito CSLL - Contribuição Social sobre o Lucro Líquido (contribuição administrada pela SRF) CTN - Código Tributário Nacional DCTF - Declaração de Débitos e Créditos Tributários Federais DIF - Discriminant Index Function do IRS DIPJ - Declarações de Informações Econômico-Fiscais das Pessoas Jurídicas DIRF - Declaração do Imposto de Renda Retido na Fonte DOI - Declaração de Operações Imobiliárias EM - Algoritmo Esperança-Maximização ESDC - Estatísticas Suficientes para Dados Completos EUA - Estados Unidos da América GLHT - General Linear Hypothesis Test ICMS - Imposto sobre Circulação de Mercadorias e Serviços (imposto administrado pelos Estados) iid - independente e identicamente distribuídas xvi IN - Inválido IND - índice econômico-fiscal genérico IPI - Imposto sobre Produtos Industrializados (imposto administrado pela SRF) IR - Imposto de Renda (imposto administrado pela SRF) IRPJ - Imposto de Renda das Pessoas Jurídicas (imposto administrado pela SRF) IRPF - Imposto de Renda das Pessoas Físicas (imposto administrado pela SRF) IRS - Internal Revenue Service dos Estados Unidos da América IVA - Imposto sobre Valor Agregado LACSLL - Lucro antes da Contribuição Social sobre o Lucro Líquido LBRUTO - Lucro Bruto LOPER - Lucro Operacional LP - Lucro Presumido apurado pelas pessoas jurídicas LREAL - Lucro Real apurado pelas pessoas jurídicas MA - Mathematical Achievement (MA) MLG - Modelos Lineares Generalizados MLGH - Modelos Lineares Generalizados Hierárquicos MLH - Modelos Lineares Hierárquicos MLMG - Modelos Lineares Mistos Generalizados MQO - Mínimos Quadrados Ordinários MQG - Mínimos Quadrados Generalizados MV - Máxima Verossimilhança MVR - Máxima Verossimilhança Restrita NR - Newton-Raphson PASEP - Contribuição administrada pela SRF PEC - Programa de Exame Coordenado do IRS PIB - Produto Interno Bruto PIS/PASEP - Contribuição para os Programas de Integração Social e de Formação do Patrimônio do Servidor Público (contribuição administrada pela SRF) PJ - Pessoas Jurídicas PQL - algoritmo Penalized Quasi-Likelihood RBCOF - Receita Bruta da COFINS RBPISP - Receita Bruta do PIS/PASEP RECLIQ - Receita Líquida SECA - Self-Employment Tax dos EUA xvii SERPRO - Serviço Federal de Processamento de Dados SES - Social Economic Status SII - Servicio de Impuestos Internos do Chile SRF - Secretaria da Receita Federal TCMP - Programa de Avaliação do Cumprimento Tributário do IRS TI - Tecnologia da Informação UMS - Unidades Monetárias Simbólicas VA - Variável Aleatória 18 1 INTRODUÇÃO AO TEMA No contexto atual da administração tributária, é requisitado o controle, a curto, médio e longo prazo, dos níveis de arrecadação de tributos e contribuições administrados, haja vista sua relevância para a viabilização orçamentária do Estado. Tal controle vem, inclusive, elevando sua importância na medida em que o critério de déficit primário das contas públicas se insere, nos dias de hoje, como fator determinante na vida de um país em tempos de globalização, pois tem sido considerado como um dos indicadores de risco sistêmico da economia por parte de organismos e empreendedores internacionais, o que, via de regra, impele à formulação de políticas de gastos mais restritivas e a um acurado acompanhamento dos ingressos públicos. Um planejamento pró-ativo pode ser um dos mediadores para o alcance do controle dos fluxos de caixa públicos ou privados e, nesse sentido, os sistemas de tributação, fiscalização e arrecadação devem ser contemplados pelos gestores dos órgãos tributários da União, Estados ou Municípios. Em meio a esse turbulento cenário econômico mundial, são contemporâneos tanto o fenômeno internet quanto a revolução em Tecnologia da Informação (TI), e o nível de domínio e disseminação dessas novas tecnologias por parte de uma sociedade ou organização é hoje fator determinante de suas possibilidades futuras de sucesso econômico e social. Especificamente em termos de investimentos em TI governamental, deve-se atentar para o fato de que o Brasil tem sido reconhecido, inclusive internacionalmente, como uma potência mais do que emergente, atingindo padrões de atendimento e eficiência semelhantes, e em certos casos até superiores, aos dos países do primeiro mundo (BARRETO, 2003). Fazendo parte atuante desse panorama econômico e tecnológico, o principal órgão tributário brasileiro, a Secretaria da Receita Federal (SRF), responsável pela administração, fiscalização e arrecadação de 333,58 bilhões de reais em impostos e contribuições (ano de 2004), enquanto tem trabalhado nos termos de suas missões institucionais, procura também acompanhar os recentes avanços em TI, e pode-se dizer que seus esforços não têm sido infrutíferos. Por um lado, sucessivos recordes de arrecadação têm sido percebidos ano após ano, o que, ao menos em termos de viabilidade fiscal, não deixa de ser um fato auspicioso. Por outro lado, as políticas de tecnologia adotadas pela SRF nos últimos anos tornaram-na depositária de vastas 19 informações econômico-fiscais de contribuintes brasileiros e uma referência mundial no setor (BARRETO, 2003) - fato relevante, em 2005 mais de 99% dos contribuintes brasileiros enviaram suas declarações de informações fiscais pela internet, sem a ocorrência de maiores transtornos quanto à transmissão tempestiva e posterior comprovação do envio dessas informações à SRF. Essa massa de dados de informações fiscais só favorece o desenvolvimento e a aplicação de metodologias modernas para a solução de problemas específicos da SRF, principalmente no suporte e apoio à decisão. Em grande parte dos casos, a solução pode ser viabilizada pela transformação da informação em estado puro em conhecimento aplicável, no fluxo dos últimos avanços no uso de tecnologia avançada para apoio à decisão. O rápido aumento da capacidade de processamento computacional, associado com o baixo custo do armazenamento, vem contribuindo para a construção de repositórios de dados que permitem cruzar dados de diferentes fontes, procurando identificar informações relevantes e transformando-as em conhecimento útil ao processo decisório de uma organização. Este conjunto de metodologias e tecnologias possui dois itens principais: o repositório de dados e os métodos de análises exploratórias de dados, estes baseados em técnicas estatísticas e de inteligência artificial. 1.1 Contextualização do problema Uma das maiores preocupações da SRF tem sido o aperfeiçoamento constante do processo de formulação e execução das políticas públicas de tributação e de fiscalização. Para que um nível global de excelência organizacional seja atingido, todas as subdivisões da SRF têm de ser acionadas e harmonizadas, de forma a que suas atribuições e missões regimentais sejam exercidas e cumpridas satisfatoriamente em todo o território nacional. Na Capital Federal, as coordenações centrais formulam e determinam as políticas de logística e recursos humanos, de administração e estudos tributários, de tributação, de tecnologia, de fiscalização e de pesquisa e investigação, que por sua vez são jurisdicionadas e operacionalizadas pelas superintendências das dez regiões fiscais do órgão sediadas, pela ordem, em Brasília, Belém, Fortaleza, Recife, Salvador, Belo Horizonte, Rio de Janeiro, São Paulo, Curitiba e Porto Alegre. 20 Um dos órgãos centrais em Brasília é a Coordenação-Geral de Política e Administração Tributária (COPAT), cujas atribuições regimentais relacionam-se à formulação de políticas e estudos em administração tributária que subsidiem os demais sistemas da SRF. Um dos problemas identificados pela COPAT em sua rotina operacional é a necessidade de auxiliar a programação das atividades de fiscalização por meio de estudos que abordem o comportamento dos contribuintes pessoas jurídicas e dos setores de atividades econômicas. Nesse contexto, seu interesse tem sido a busca de um mecanismo que sistematize e caracterize o comportamento destes contribuintes em relação às infrações à legislação tributária. Para seus estudos, a COPAT dispõe das informações obrigatoriamente prestadas pelos próprios contribuintes nas suas Declarações de Informações EconômicoFiscais das Pessoas Jurídicas (DIPJ), especialmente seus índices econômicofiscais. Com estudos desse escopo, a COPAT almeja subsidiar principalmente a Coordenação-Geral de Fiscalização com estudos tributários que possam, agilmente, identificar ou selecionar contribuintes prioritários à fiscalização. Além disso, espera elevar seu nível de conhecimento em termos do fenômeno comportamental tributário de contribuintes e setores econômicos. A agilidade no processo de seleção de contribuintes para fiscalização é sobremaneira importante, como fica claro a partir do exposto na próxima subseção. 1.1.1 Situação atual da seleção de contribuintes na SRF Após a entrega das DIPJ por parte dos contribuintes Pessoas Jurídicas (PJ), a qual se dá regularmente no último dia útil do mês de junho de cada ano, a SRF as processa e armazena em seus bancos de dados. Posteriormente, essas informações são adicionadas a diversas outras referentes aos pagamentos de tributos, às demais declarações instituídas pela SRF e também às informações tributárias prestadas compulsoriamente, ou por meio de convênio, por fontes externas de informação, formando uma nova e ampla base de dados. Ou seja, até a efetiva programação de um lote de fiscalizações, uma longa fase de coleta e pré-processamento dessas informações tem de ser executada, de forma a que sejam reunidas em um único banco de dados de cruzamento, o qual permite que os contribuintes apresentando indícios de infração à legislação tributária de regência dos tributos administrados pela SRF e incidentes sobre as pessoas jurídicas, quais sejam, Imposto de Renda das Pessoas Jurídicas (IRPJ), Contribuição Social sobre o Lucro Líquido (CSLL), 21 Contribuição para os Programas de Integração Social e de Formação do Patrimônio do Servidor Público (PIS/PASEP), Contribuição para o Financiamento da Seguridade Social (COFINS) e Imposto sobre Produtos Industrializados (IPI), sejam finalmente selecionados para fiscalização. É importante ressaltar que um indício de infração, em geral, está associado a alguma inconsistência material em relação às informações do contribuinte. A duração e a complexidade desse processo podem ser aferidas na medida em que, conforme a atual programação operacional de seleção de contribuintes, fundamentada na base de dados de cruzamento de informações, as declarações entregues pelos contribuintes no exercício 2000, referentes às atividades praticadas no ano-calendário 1999, tiveram o seu processo de seleção para fiscalização encerrado ao final de 2003. Não é nenhum demérito para a organização a ocorrência desse ínterim, pois isso ocorre em outras administrações tributárias, conforme relatado no capítulo 2, haja vista que uma parte das informações a serem agregadas ao banco de dados de seleção depende de fontes externas e, portanto, está sujeita a esperas e eventuais atrasos. Mesmo as informações internas à SRF, estas, antes de servirem à seleção, também têm de ser harmonizadas, agregadas e consolidadas, pois são provenientes das diversas declarações de informações existentes (DIPJ, DCTF, DIRF, DOI etc). Em suma, após a recepção de todos os dados considerados necessários, essa grande massa de informações tem de ser pré-processada antes de poder ser utilizada para consultas e cruzamentos conjuntos. O processo de seleção descrito no parágrafo anterior assemelha-se bastante à difundida metáfora de uma malha colhendo os contribuintes de grande interesse potencial à fiscalização, ou seja, prioritários. Uma vez selecionada uma empresa (contribuinte PJ), a ação fiscal é finalmente programada e realizada, podendo durar meses e até anos, a depender da complexidade das infrações efetivamente encontradas, dos tributos envolvidos e da relevância fiscal da ação. Ao final da fiscalização, duas ações são possíveis: pode ser lavrado um auto de infração discriminando os tributos e as respectivas infrações fiscais cometidas, assim como sua capitulação legal, e o valor em espécie dos tributos e multas a pagar; ou então a ação fiscal pode ser encerrada sem resultado. É importante notar que nem todas as pessoas jurídicas que possivelmente apresentem indícios de infração fiscal serão efetivamente fiscalizadas, principalmente devido ao instituto jurídico tributário da decadência e, também, à 22 carência de servidores públicos. A decadência, prevista pelo art. 173 da Lei nº 5.172, de 25 de Outubro de 1966, Código Tributário Nacional, extingue, após cinco anos contados a partir do disposto nos incisos e no parágrafo único do referido artigo de lei, o direito à constituição do crédito tributário na esfera administrativa. Portanto, as fiscalizações prioritárias, ou seja, motivadas por vultosos indícios de infração à legislação, vão sendo executadas paulatinamente, até que sejam encerrados os trabalhos referentes a um determinado ano-calendário e iniciados os trabalhos relativos ao ano-calendário subseqüente, objetivando evitar a decadência do direito à constituição de créditos tributários relevantes. Esse procedimento está plenamente em consonância com o verificado a partir da revisão de literatura do capítulo 2, já que as agências têm por obrigação agir nos casos envolvendo as infrações mais graves. Cumpre ressaltar que todo esse pré-processamento, disponibilização e manutenção do banco de dados de cruzamento de informações são executados, de forma terceirizada, pelo Serviço Federal de Processamento de Dados (SERPRO), empresa pública de prestação de serviços em tecnologia da informação, e, conseqüentemente, isso representa um gasto de recursos públicos por parte da SRF, tanto na parte de pré-processamento e desenvolvimento da base de dados de seleção, quanto na sua efetiva utilização por parte dos servidores do órgão. Deve-se, ainda, acrescentar que o aqui exposto refere-se ao principal processo de seleção empregado pela SRF, mas não o único, já que existem ainda outros recursos e métodos utilizados, como o de pura inadimplência ou de análise econômico-financeira temporal de declarações, porém, atualmente podem ser consideradas residuais as fiscalizações assim originadas, já que o órgão tem investido cada vez mais na vertente do processamento e cruzamento de informações. Todo o processo de seleção de contribuintes descrito anteriormente pode ser sinteticamente ilustrado pela Figura 1. 23 Figura 1: Principal processo de seleção de contribuintes PJ da SRF Esse processo de seleção por cruzamento de informações é considerado como uma referência na área de tributação. Sistemas similares ao brasileiro são utilizados por outros países da América Latina, como Peru e Cuba (VERAMENDI, 2002; JOVER e AYALA, 2002), e a tendência é sua maior difusão, pois há grande intercâmbio entre as administrações tributárias dos 36 membros associados do Centro Interamericano de Administrações Tributárias (CIAT), incluindo-se aí o Brasil. Pode-se dizer que o processo da Figura 1 é bastante moderno e atual e vem funcionando a contento, não fosse isso não se verificariam os sucessivos recordes anuais de arrecadação federal. Contudo, um ponto a se considerar é quanto ao inevitável tempo transcorrido entre o cometimento de uma infração, a prestação das informações em DIPJ por parte do contribuinte, o processamento das informações internas à SRF, o recebimento das informações fiscais externas à SRF, o processamento conjunto de todos esses dados e a efetiva seleção e fiscalização do contribuinte infrator. Esse intervalo de tempo não é de ocorrência exclusiva em relação às auditorias da SRF, haja vista que no capítulo 2 ele é abordado como tema de estudos tributários (por exemplo, ver seção 2.6). O fato é que quanto maior esse tempo decorrido, maior o risco de embaraço contábil e cadastral à constituição e cobrança do crédito tributário na esfera administrativa, já que muitas vezes quando se vai notificar um contribuinte depois de decorrido um longo tempo do cometimento de uma determinada infração, este pode ter incorrido em fatos contábeis relevantes falência, cisão, incorporação, fusão, ou ainda não ser localizado em seu domicílio fiscal. Assim, qualquer esforço no sentido de agilizar a ação do sistema de 24 fiscalização é considerado positivo e relevante no contexto de órgãos tributários como a SRF. 1.1.2 Problema, questões e hipóteses de pesquisa Uma das maneiras de atender à solução do mencionado problema operacional da COPAT é pelo estabelecimento de um método que classifique as pessoas jurídicas de maneira apropriada, tanto em relação ao processo de análise e compreensão de fenômenos comportamentais tributários, auxiliando na formulação de políticas públicas, quanto ao de fiscalização de contribuintes e, portanto, esse será o tema da pesquisa aqui apresentada. Uma constatação relevante nesse momento de apresentação do problema é que as pessoas jurídicas (empresas) subdividem-se em diversos setores de atividades econômicas que são de naturezas distintas (v.g., indústria, comércio, serviços, extrativas etc). Isso acarreta que os setores da economia devem ser levados em consideração no estabelecimento de padrões de comportamento econômico-fiscais de empresas, pois é intuitivo que empresas de um mesmo setor econômico tendem a ser mais parecidas entre si do que empresas participantes de distintos setores da economia, haja vista que aquelas partilham certas características contábeis individuais e de desempenho econômico-setorial em comum que acabam por ocasionar a correlação entre suas medidas. Além disso, acredita-se que as próprias infrações à legislação tributária tendem a ser mais parecidas intra-setores, pois o fenômeno da concorrência de mercado talvez faça com que sejam rapidamente disseminadas entre empresas que são diretamente concorrentes. Portanto o problema de pesquisa consubstancia-se nas seguintes questões de pesquisa: 1) Como estabelecer um método de classificação de contribuintes pessoas jurídicas, com base na previsão de seus comportamentos tributários, que as classifique, ágil e tempestivamente, em função do grau de interesse para fins de fiscalização, levando em consideração, de forma sistematizada (incorporando de forma estruturada todas as atividades econômicas das PJ), a provável correlação de medidas (informações) existente entre empresas de um mesmo setor de atividades econômicas? 25 No contexto dessa questão, é importante demarcar que tal método de classificação, uma vez materializado, vem a corresponder, na prática, a um processo de seleção de contribuintes para fiscalização, fundamentado na previsão de comportamento e posterior classificação dos contribuintes em dois grupos distintos, os de interesse à fiscalização tributária e os demais. 2) O procedimento descrito na primeira questão de pesquisa já foi tentado por outros órgãos congêneres com sucesso? 3) Como conferir a aludida agilidade à previsão e classificação? 4) Quais as variáveis individuais das PJ (principalmente dentre seus índices econômico-fiscais) e dos setores econômicos que se sobressaem significativamente no contexto da classificação de contribuintes infratores? 5) O método proposto na primeira questão de pesquisa seria vantajoso? 5.1) Qual o desempenho da classificação efetuada frente ao método de seleção por cruzamento de informações utilizado pela SRF? 5.2) O custo do desenvolvimento e implantação compensa? Ante ao exposto, uma primeira hipótese de pesquisa é de que qualquer estudo tributário que envolva a classificação de contribuintes PJ para fins de fiscalização deve levar em consideração e avaliar a correlação de medidas, posto que existente, entre contribuintes que se dedicam às mesmas atividades econômicas. Contudo, uma segunda hipótese relaciona-se ao fato de que essa correlação de medidas não vem sendo considerada de forma sistematizada (abrangendo, de forma estruturada, todos os setores de atividades econômicas das PJ) pelos estudos e trabalhos já realizados envolvendo a seleção de contribuintes para fiscalização. Conseqüentemente, formula-se, então, uma terceira hipótese relacionada à possibilidade de consideração sistematizada da correlação de medidas intra-setores econômicos, e de explicação, ao menos em parte, da variabilidade (entre setores econômicos) aferida a partir dessa sistematização, durante a condução do processo de classificação de contribuintes PJ como de relevante interesse fiscal, por meio de uma modelagem estatística hierárquica formalizada nos termos dos Modelos Lineares Generalizados Hierárquicos (MLGH), que encerram moderna e recente metodologia paramétrica especificamente desenvolvida para o tratamento estatístico 26 de estruturas correlacionadas de dados que, em um único modelo, são destacadas em níveis hierárquicos distintos e que justamente proporcionam a consideração, pelo modelo, da correlação de medidas existente nos dados. Por fim, uma quarta e última hipótese relaciona-se à viabilidade de especificação de modelos hierárquicos contando, no plano (nível) dos contribuintes, tão-somente com variáveis obrigatoriamente prestadas pelo próprio sujeito passivo (contribuinte) em sua declaração de informações, sendo, portanto, independentes de dados individuais de contribuintes prestados por fontes externas de informação e possibilitando assim uma maior agilidade de ação ao processo de classificação. Por todo o exposto, este trabalho insere-se nos seguintes contextos científicos e tecnológicos: I) Melhorar a eficiência da fiscalização efetuada por parte dos órgãos tributários, especificamente em relação aos contribuintes pessoas jurídicas. II) Classificar contribuintes PJ, em termos de interesse potencial à fiscalização, levando em consideração, de forma sistematizada, a atividade econômica por eles praticada, o que vem a se constituir em diferencial em relação aos estudos científicos realizados até o momento. III) Modernizar e aperfeiçoar os processos de previsão em administração tributária, por meio da utilização de recente e complexa técnica estatística paramétrica (MLGH). Uma vez apresentados o contexto operacional, o problema e as questões de pesquisa, os objetivos deste trabalho podem ser abordados na próxima seção. 1.2. Objetivos do trabalho 1.2.1 Objetivo geral O trabalho aqui proposto procura desenvolver e especificar um método de classificação de contribuintes pessoas jurídicas, com base na previsão de seus comportamentos tributários, objetivando classificá-las como prioritárias ou não à fiscalização, por meio de um MLGH que modele a probabilidade de ocorrência de uma característica de interesse definida, considerando como preditoras, no plano 27 dos contribuintes (nível 1), tão-somente as informações prestadas pelo próprio sujeito passivo e levando em consideração, no nível 2, a atividade econômica por ele praticada. 1.2.2 Objetivos específicos São objetivos específicos deste estudo: a) identificar o referencial teórico e o estado da arte dos métodos e critérios para seleção de contribuintes para fiscalização e também da questão mais geral da modelagem em evasão tributária, por meio de uma revisão de literatura teórica e empírica. Com isso, procura-se avaliar de que forma o problema de pesquisa tem sido abordado no mundo científico e levantar os principais resultados já obtidos, subsidiando a proposta de solução do referido problema; b) levantar, pré-processar e analisar de forma exploratória os dados relevantes à pesquisa aqui referenciada; c) avaliar a magnitude da variabilidade no comportamento tributário empresarial exclusivamente devida aos setores de atividades econômicas; d) analisar os diferentes aspectos que possivelmente expliquem a variabilidade das respostas no nível dos setores de atividades econômicas, de forma a subsidiar o classificador proposto; e) pesquisar e selecionar as principais variáveis explicativas da variabilidade individual das respostas no nível dos contribuintes pessoas jurídicas, de forma a compor um rol de variáveis candidatas ao MLGH; f) modelar e estimar um classificador de contribuintes PJ, fundamentado em um MLGH contando com variável resposta associada à infração tributária; g) com base no MLGH, executar inferências e demais interpretações em relação ao comportamento tributário de empresas e de setores econômicos; h) validar o MLGH e apresentar os principais resultados obtidos a partir das respectivas previsões. 28 1.3 Justificativa 1.3.1 Relevância Com respeito ao mencionado cenário operacional da seleção de contribuintes por cruzamento de informações da Figura 1, cumpre ressaltar que o classificador aqui proposto não é talhado, a princípio, para substituir integralmente nenhum processo de seleção ora existente na SRF ou em outras agências. O que se pretende é estabelecer uma alternativa inovadora de classificação de contribuintes que tenciona ser uma opção decisória nos momentos que exijam pronta reação por parte dos órgãos tributários. Exemplificando, se a utilização prática do novo método de classificação prevê que determinado contribuinte que acaba de entregar sua declaração de informações tem grande probabilidade de apresentar indício de infração fiscal e, portanto, o classifica como prioritário à fiscalização, seria fortemente recomendável a deflagração de uma subseqüente ação fiscal, haja vista o já mencionado risco de embaraço à constituição e cobrança do crédito tributário na esfera administrativa. Assim, por todo o exposto, podem ser relacionados como relevantes os seguintes resultados obtidos pela consecução da presente pesquisa: a) O classificador visa a utilizar como preditoras, no plano dos contribuintes PJ, tãosomente as informações prestadas pelos próprios sujeitos passivos em suas declarações regularmente estabelecidas. Sendo assim, no caso da SRF, a utilização do método aqui proposto pode se dar tão logo sejam entregues as DIPJ, no último dia útil de junho de cada ano, portanto com uma possibilidade de grande antecedência de ação em relação ao atual processamento por cruzamento de informações, que, conforme já explicitado, é mais demorado em termos de resultados, uma vez que envolve a reunião e compatibilização, em uma base de dados única, de volumosas informações prestadas tanto pelos contribuintes, quanto por um grande número de órgãos e entidades externas à SRF, o que resulta em um inevitável período de espera para deflagração de ações fiscais. Portanto, o novo método de classificação, por sua projetada agilidade, possivelmente possibilita a recuperação de créditos tributários que antes teriam seu lançamento e cobrança procrastinados indefinidamente em função de impedimentos cadastrais ou contábeis, ou até inviabilizados em definitivo pelo decurso da decadência. 29 b) O classificador é menos oneroso, em termos de sua utilização, do que o processo esquematizado pela Figura 1, representando economia de recursos públicos. Primeiramente, porque não requisita o volumoso processamento e armazenamento de informações internas e externas sensíveis (sigilosas) para o estabelecimento de uma programação de ações fiscais, mas tão-somente das informações obrigatoriamente prestadas anualmente pelos próprios contribuintes em suas declarações regularmente estabelecidas. Ressalte-se que, no caso da SRF, declarações desta espécie, como as DIPJ, já vêm sendo rotineiramente recebidas e armazenadas anualmente. Em segundo lugar, porque o próprio relatório final corporificado por esta pesquisa representa sistematização de conhecimento passível, em tese, de ser seguida e aplicada de forma autônoma pelos próprios órgãos tributários. Em síntese, considerando-se o caso concreto da SRF, o método prescinde de mão de obra ou recursos financeiros adicionais aos já despendidos e, pelo contrário, sua adoção reduz em muito os recursos técnicos e humanos hoje terceirizados pelo órgão. c) O classificador representa maior autonomia dos órgãos tributários em relação às fontes externas de informação, que, como já exposto, requisitam preciosos tempo e recursos financeiros para seu processamento e efetiva utilização; particularmente no caso da SRF, maior autonomia estratégica e operacional é obtida em relação ao prestador terceirizado de serviços (SERPRO), uma vez que será gerado conhecimento inédito e alternativo aos serviços hoje terceirizados. É preciso lembrar que conhecimento representa poder frente às situações de negociação entre as partes de um contrato. d) À parte o problema a ser abordado pela presente pesquisa, existem diversos outros assuntos de responsabilidade regimental das agências e órgãos tributários que apresentam intrinsecamente a característica da existência de informações agrupadas entre atividades econômicas, regiões fiscais, unidades administrativas etc. Portanto, o desenvolvimento do conhecimento e domínio empírico de metodologias que sejam passíveis de considerar suas conseqüências nas medidas de interesse pode contribuir para o aperfeiçoamento de processos operacionais rotineiros nesses órgãos, no caso do Brasil, por exemplo, o estudo da adequação dos produtos da SRF aos seus clientes - como as declarações de renda 30 informatizadas - ou o controle operacional das atividades tributárias envolvidas nas importações/exportações nos principais portos e aeroportos brasileiros. 1.3.2 Ineditismo a) Na fase de análise exploratória de dados, esta pesquisa quantifica, de forma inédita e sistematizada (incorporando de forma estruturada todos os setores de atividades econômicas das PJ), a correlação de medidas existente intra-setores econômicos, no que se refere às infrações tributárias, por meio do cálculo de coeficientes de correlação intraclasse. b) Em termos da especificação de métodos para seleção de contribuintes para fiscalização, o método de classificação proposto nesta pesquisa leva em consideração, pela primeira vez de forma sistematizada, a correlação de medidas existente intra-setores econômicos, assim como explica, também de forma inédita, parte da variabilidade (entre setores econômicos) aferida a partir dessa sistematização. c) Esta pesquisa propõe um novo método de classificação de contribuintes que é pioneiro quanto à utilização de modelos hierárquicos (MLH ou MLGH) em estudos científicos de escopo tributário. d) O estabelecimento do classificador auxilia a SRF no conhecimento da dinâmica que rege a variabilidade no comportamento tributário individual dos contribuintes PJ brasileiros - principalmente por elucidar e aclarar os indicadores econômico-fiscais significativamente importantes no contexto das infrações fiscais, haja vista que estes comporão a matéria-prima para a seleção das variáveis preditoras dos modelos - e também dos setores de atividades econômicas, um de seus grandes interesses atuais, produzindo resultados inéditos e relevantes à formulação de políticas tributárias. 1.3.3 Complexidade Primeiramente, deve-se reconhecer que a aferição da capacidade contributiva dos contribuintes pessoas jurídicas (ver capítulo 2) é bastante mais complexa do que no caso das pessoas físicas, pois aqueles se caracterizam por apresentarem múltiplas operações contábeis que acabam por gerar incidências tributárias diversas. Ademais, a própria proposição de métodos específicos para seleção de contribuintes 31 para fiscalização, segundo o verificado no capítulo 2, não vem sendo tema profuso em trabalhos científicos, haja vista que estes vêm privilegiando estudos econômicoteóricos de difícil transposição para a prática, limitação esta, aliás, relatada por vários dos autores referenciados no próximo capítulo, uma vez que são constrangidos a excessivas suposições prévias; ou então aspectos interpretativos que, embora relevantes, não possuem por escopo o pragmatismo de identificar ou selecionar contribuintes potencialmente infratores. Quanto aos estudos relatados no capítulo 2 versando especificamente sobre métodos para seleção de contribuintes, estes demonstram claramente que o comportamento do contribuinte está sujeito a uma ampla gama de variáveis, tanto individuais quanto econômico-setoriais, que, portanto, devem ser cientificamente integradas de forma sistematizada; fato este que, contudo, não vem ocorrendo, segundo o manifestado na segunda hipótese de pesquisa, o que demonstra claramente a não trivialidade do problema de tese. Além disso, a agilização da ação de fiscalização é aspiração milenar e, no limite, visa a que a infração fiscal seja de conhecimento e repressão instantânea, constituindo-se em desafio cuja complexidade e importância ficam patentes a partir da leitura da subseção 1.1.1 deste capítulo, na qual foi relatado que a fiscalização brasileira vem agindo com defasagem, em relação ao cometimento de infrações fiscais, de alguns anos, o que não obstante estar em consonância com o verificado pela revisão de literatura, situa-se longe do considerado ideal. Pelo exposto nos parágrafos acima, a complexidade do problema e questões de pesquisa justificam plenamente um estudo em nível de doutorado. 1.4 Metodologia de trabalho 1.4.1 Procedimentos Esta pesquisa propõe um método de classificação de contribuintes para fins de fiscalização tributária que incorpora em si a correlação de medidas existente nos dados de trabalho. As hipóteses que alicerçam a pesquisa foram relacionadas na subseção 1.1.2. A partir destes subsídios, uma fundamentação teórica do tema da evasão tributária, dos métodos de seleção de contribuintes e de métodos estatísticos Modelos Lineares Generalizados (MLG), Modelos Lineares Hierárquicos (MLH) e 32 Modelos Lineares Generalizados Hierárquicos (MLGH) - a serem aplicados para a viabilização da solução proposta tem de ser levada a termo para a consecução dos objetivos de pesquisa. Nesse contexto, o fluxograma da Figura 2 ilustra de forma sintética a metodologia de pesquisa adotada. Figura 2: Metodologia de pesquisa da tese. Em relação à fase de ajuste e validação de modelos na Figura 2, devido às oportunidades proporcionadas pelas bases de dados de trabalho, conforme detalhado no capítulo 5, nesta pesquisa são modelados dois MLGH, ambos prestando-se de forma autônoma e simultânea à classificação de contribuintes, com o objetivo de prever como resposta esperada a probabilidade de ocorrência de duas características de interesse distintas, mas identicamente importantes no âmbito tributário, quais sejam, presença de indício de infração fiscal e presença de efetiva infração fiscal. Para a formalização dos modelos e de suas respostas esperadas, os indícios de infração e infrações propriamente ditas foram considerados em sua forma geral abrangendo os tributos administrados pela SRF e incidentes sobre as PJ, quais sejam, IRPJ, CSLL, PIS/PASEP, COFINS e IPI - e não especificamente por imposto ou contribuição, aspecto este devido, integralmente, à característica dos dados disponibilizados para o trabalho. 33 Quanto às preditoras, ressalte-se que os MLGH levam em consideração tanto variáveis explicativas do comportamento individual dos contribuintes PJ quanto variáveis que justificam a variabilidade da resposta entre os setores econômicos. Os dados disponíveis (população objetivo) para esta pesquisa são: os relacionados às informações prestadas à SRF pelas pessoas jurídicas brasileiras, em suas DIPJ referentes ao exercício 2000, ano-calendário 1999, que apuraram o imposto de renda pelo regime do Lucro Real, excluindo-se as instituições financeiras; as informações relacionadas às fiscalizações programadas e executadas pela SRF em relação a esse mesmo ano calendário; e também aspectos econômicosetoriais levantados pelo próprio autor desta pesquisa. Quanto aos aspectos de amostragem, os dados de trabalho foram previamente divididos em duas amostras: estimação e validação (ver Apêndice I). O objetivo aqui é viabilizar o processo tradicional em modelagem estatística, que envolve a estimação de parâmetros do modelo e sua posterior validação através de uma amostra adicional de dados. 1.4.2 Classificação da pesquisa O processo de pesquisa aqui enfocado pode ser classificado sob quatro aspectos distintos, de acordo com Silva e Menezes (2001, p. 20-21), a saber: I) Quanto à sua natureza, a presente pesquisa é aplicada, uma vez que "objetiva gerar conhecimentos para aplicação prática dirigidos à solução de problemas específicos". No caso desta pesquisa, o problema é o identificado na seção 1.1.2. II) Quanto à abordagem do problema, a pesquisa é predominantemente quantitativa, uma vez que se vai utilizar intensivamente de métodos estatísticos para sua consecução. III) Do ponto de vista de seus objetivos, esta pesquisa classifica-se como explicativa, pois almeja "identificar os fatores que determinam e contribuem para a ocorrência dos fenômenos", sendo que os fenômenos já ocorreram. IV) Por fim, em relação aos procedimentos técnicos a serem adotados para seu alcance, a pesquisa classifica-se como bibliográfica, já que perfaz uma intensiva revisão de literatura sobre o tema de pesquisa e sobre as ferramentas estatísticas a serem aplicadas na solução proposta; e também como um estudo de caso, já que 34 "envolve o estudo profundo e exaustivo de um ou poucos objetos de maneira que se permita o seu amplo e detalhado conhecimento". 1.4.3 Convenções adotadas Quanto às citações diretas de autores apresentadas no texto, adiante-se aqui que em todos os casos envolvendo referências bibliográficas grafadas em línguas que não a Portuguesa, a tradução foi executada pelo próprio autor desta pesquisa. No corpo do trabalho, quando inseridas em um contexto estatístico descritivo, as expressões singulares "significância", "significante" e "significativa", entendem-se, respectivamente, por "significância estatística", "estatisticamente significante" e "estatisticamente significativa". Além disso, as palavras auditado e fiscalizado são consideradas sinônimas no contexto do texto. Em termos da apresentação de resultados de trabalhos de autores estrangeiros no capítulo 2, considerou-se por tradução de tax a palavra "imposto", que corresponde à tradução literal para a língua Portuguesa. Entretanto, no Brasil a palavra "tributo" é diferente de "imposto", conforme está conceituado no próximo capítulo, sendo o primeiro o gênero e o segundo a espécie. Adicionalmente, a natureza de um tributo independe de sua denominação, e isso por vezes é controverso no Brasil, inclusive juridicamente. Assim, optou-se por traduzir a expressão tax evasion por "evasão tributária", de forma a adequá-la ao conceito mais genérico de tributo no Brasil. Em relação às várias referências bibliográficas citadas nas seções 3.1 e 4.1, estas estão ordenadas por grau de contribuição para o desenvolvimento da pesquisa lá delineada. 1.4.4 Limitações da pesquisa Em relação à base de dados de trabalho, ressalte-se que não foram disponibilizadas à pesquisa todas as informações prestadas anualmente pelos contribuintes em suas DIPJ entregues à SRF, mas somente um subconjunto dessas informações, como detalhado no capítulo 6, fato que torna esta uma pesquisa ainda não esgotada no contexto das DIPJ. Além disso, o método de classificação proposto e aplicado neste trabalho se limita aos contribuintes PJ que apuraram o Lucro Real no exercício 2000, anocalendário 1999, não sendo válidos, portanto, para outros tipos contribuintes. A 35 opção por limitar a pesquisa a esse tipo de contribuintes deveu-se à relevância fiscal dos mesmos e também aos dados disponibilizados para o trabalho. Outro ponto importante é que, conforme já mencionado, os aspectos relacionados aos indícios e infrações tributárias foram aqui considerados em termos genéricos, e não especificamente por tributo, o que pode ter reduzido a capacidade explicativa/preditiva dos modelos estimados. 1.5 Delimitações do trabalho A partir da subseção 1.4.1, verifica-se que todas as estimativas, inferências e interpretações aqui apresentadas referem-se exclusivamente aos contribuintes PJ brasileiros, declarantes pelo Lucro Real no exercício 2000, e aos seus indícios de infração, e infrações propriamente ditas, à legislação tributária de regência dos tributos e contribuições administrados pela SRF e incidentes sobre as PJ (IRPJ, CSLL, PIS/PASEP, COFINS e IPI), em relação às operações efetuadas no anocalendário 1999. Entretanto, deve-se ressaltar que o conceito de superpopulação abordado no capítulo 6 permite que essas estimativas e inferências sejam generalizadas além das unidades e indivíduos da população objetivo desta pesquisa, admitindo, portanto, sua utilização para previsões em relação a novas e futuras observações. Por outro lado, esta pesquisa não possui por escopo analisar, propor ou avaliar softwares ou sistemas de banco de dados para o armazenamento das informações utilizadas como subsídios aos MLGH, nem estabelecer ou atribuir responsabilidades a repartições/divisões ou servidores dos órgãos tributários, quanto à implementação do novo método de classificação proposto. 1.6 Estrutura do trabalho O trabalho encontra-se dividido em oito capítulos, mais as referências bibliográficas e os apêndices, sendo o primeiro esta introdução, que trata dos objetivos e organização da tese. No capítulo 2 está contemplada a revisão bibliográfica teórica e empírica relacionada à infração e evasão tributárias. Nos capítulos 3 e 4 estão desenvolvidos os conceitos teóricos e empíricos relacionados aos Modelos Lineares Hierárquicos e aos Modelos Lineares Generalizados Hierárquicos. No capítulo 5 é apresentada a 36 solução para o problema de tese, assim como são relacionadas as suposições que a sustentam. No capítulo 6 são apresentadas as bases de dados de trabalho, detalhados os passos executados na fase de pré-processamento e relacionados os principais resultados obtidos pela análise exploratória descritiva de variáveis e pela análise exploratória hierárquica. No capítulo 7 encontra-se a fase de estimação dos MLGH propostos com base nas amostras de estimação, sendo ainda apresentadas as demais análises e interpretações tipicamente obtidas a partir de trabalhos deste escopo. Ao final deste capítulo os modelos são aplicados à classificação de contribuintes e validados em termos de suas previsões. O capítulo 8 faz o fechamento do trabalho, apresentando as principais conclusões e resultados, destacando as principais contribuições alcançadas e relacionando sugestões e oportunidades para estudos futuros. 1.7 Contextualização da tese na engenharia de produção Para uma contextualização desta pesquisa na engenharia de produção, inicialmente deve-se resgatar seu conceito e áreas específicas de conhecimento estatuídas, pelas comunidades profissional e acadêmica, como estando a ela relacionadas. Quanto à conceituação, segundo a Associação Brasileira de Engenharia de Produção (ABEPRO): É o ramo da Engenharia que estuda formas de gestão dos sistemas de produção de bens e serviços. É um dos ramos mais modernos e valorizados da Engenharia, tendo surgido e crescido devido à necessidade de aperfeiçoar, racionalizar, otimizar os meios de produção, cada vez mais necessários nos tempos modernos, devido ao incremento progressivo da competitividade de mercado. A concepção clássica, que segundo o curso de Engenharia de Produção da Universidade Federal de Minas Gerais é adotada tanto pela ABEPRO quanto pelo Institute of Industrial Engineering, dos Estados Unidos da América, informa que: Compete à Engenharia de Produção o projeto, a implantação, a melhoria e a manutenção de sistemas produtivos integrados, envolvendo homens, materiais e equipamentos, especificar, prever e avaliar os resultados obtidos destes sistemas, recorrendo a conhecimentos especializados da matemática, física, ciências sociais, conjuntamente com os princípios e métodos de análise e projeto da engenharia. 37 Já a Pontifícia Universidade Católica do Rio de Janeiro a conceitua, inclusive em termos de áreas de conhecimento sedimentares, da seguinte forma: A Engenharia de Produção é o ramo da engenharia que lida com a concepção, projeto e gerenciamento de sistemas produtivos de bens e serviços, caracterizados pela integração entre homens, materiais, equipamentos e o meio ambiente, para o incremento da produtividade e da qualidade. Como área de conhecimento, fundamenta-se nas ciências matemáticas, físicas e sociais, bem como em princípios e métodos da engenharia e da computação, constituindo o elo entre a tecnologia propriamente dita e a administração de organizações produtivas. Especificamente quanto às típicas áreas de conhecimento a serem dominadas pelo Engenheiro de Produção, a homepage da ABEPRO posiciona que: O engenheiro de produção tem como área específica de conhecimento os métodos gerenciais, a implantação de sistemas informatizados para a gerência de empresas, o uso de métodos para melhoria da eficiência das empresas e a utilização de sistemas de controle dos processos da empresa (grifo nosso). A partir desses conceitos, que são bastante convergentes entre si, verifica-se que a engenharia de produção, sinteticamente, visa, dentre outras competências, à otimização e racionalização dos processos produtivos de bens e serviços, especificando, prevendo e avaliando os resultados obtidos a partir destes processos, sempre visando à melhoria da eficiência das organizações, sejam públicas ou privadas. Para a materialização destes objetivos, fundamenta-se nas ciências matemáticas, físicas e sociais, bem como em princípios e métodos das engenharias e da ciência da computação, constituindo o elo entre a tecnologia propriamente dita e a administração de organizações produtivas. Nesse contexto, como o objetivo geral aqui proposto (ver subseção 1.2.1) visa à melhoria da eficiência da fiscalização tributária, ao propor, especificar e avaliar um novo método (processo) de classificação de contribuintes pessoas jurídicas, que intenta ser mais ágil e menos oneroso do que os processos de seleção por cruzamento de informações, por meio da utilização de avançados métodos estatísticos (matemáticos) de previsão, este se encontra, portanto, plenamente enquadrado nas áreas de conhecimento tipicamente enfocadas pela engenharia de produção. 38 2 EVASÃO E INFRAÇÃO TRIBUTÁRIAS 2.1 Introdução A atividade de seleção de contribuintes para fins de fiscalização tributária faz parte de uma das preocupações da humanidade ao longo dos séculos, a instituição e cobrança de tributos. Sem dúvida, os tributos foram importante pilar de sustentação das maiores civilizações surgidas desde a remota antiguidade, como nos casos da Egípcia, Romana e do Império Asteca. Contudo, eles foram também um de seus fatores de colapso (ADAMS, 1993). Sabe-se que a crise econômica verificada nos períodos precedentes a sua queda reduziu drasticamente a arrecadação tributária do Império Romano, enfraquecendo por conseqüência suas numerosas legiões. Por outro lado, Roma chegou a pagar tributos aos considerados bárbaros para que não fosse atacada, isso em sua fase mais decadente (GRANDES impérios e civilizações: a história visual do mundo, 1994). Na idade média, o crescimento populacional das cidades européias e o florescimento do comércio impulsionaram a arrecadação de tributos, agora instituídos por cidades-estado ou reinos. Nesse contexto, a adoção pelos italianos dos algarismos arábicos, em detrimento dos romanos, e a criação do método das partidas dobradas suportaram um maior desenvolvimento e registro das atividades dos bancos, das corporações de artesãos, e das trocas em geral. No período de renascimento cultural europeu, a acumulação de tributos arrecadados contribuiu bastante para o surgimento, já na era moderna, das grandes navegações e do pujante mercantilismo praticado entre Europa e Oriente Médio. Desde os fins do século 15 que o registro dessas numerosas operações comerciais já passara a ser feito em grandes livros de dupla entrada, pela chamada contabilidade moderna, atribuída ao monge franciscano e matemático Luca Pacioli, isso colaborando para o fortalecimento, controle e prosperidade das instituições comerciais (MOST, 1982; EDWARDS, 1989). Obviamente a ação do fisco foi também influenciada tecnicamente por esse ambiente comercial e contábil. Tanto é assim que hoje, em 2005, as empresas brasileiras enviam por internet suas DIPJ às bases de dados da SRF, informando-a de suas operações anuais seguindo um padrão contábil bastante similar ao estabelecido por esses métodos já centenários. Já na era contemporânea, a revolução industrial, as novas tecnologias eletrônicas e de comunicação, e a 39 globalização continuam impelindo os governos a adaptarem suas atividades de tributação às novas tecnologias e práticas comerciais e industriais internacionais. Esta é uma pesquisa que também se insere nesse esforço de adaptação e modernização tributária. 2.2 Conceitos gerais em tributação e implicações à pesquisa Antes de ser abordado diretamente o tema da pesquisa, pode-se recorrer aos dicionários jurídicos (DINIZ, 1998; ACQUAVIVA, 1998; FURTADO, 1969), para que sejam definidos alguns conceitos gerais em tributação que serão úteis ao longo deste capítulo: a) Contribuinte ou Sujeito Passivo: é aquele sobre o qual incide o tributo. b) Tributo: é entendido como uma prestação pecuniária compulsória, criado e gerido pelo Estado, visando ao custeio de serviços públicos. O tributo é o gênero, de que são espécies o imposto, a taxa e a contribuição de melhoria. c) Imposto: é uma espécie de tributo que não enseja uma contraprestação individualizada para aqueles que o recolhem, e nisso se distingue da taxa e da contribuição de melhoria. d) Infração Tributária: ocorre quando um contribuinte pratica uma infração à legislação tributária de forma deliberada ou não. e) Evasão Tributária: ocorre quando um contribuinte pratica uma infração à legislação tributária de forma deliberada. f) Elisão tributária: procedimento lícito que se realiza antes da ocorrência do fato gerador do tributo, visando a um menor pagamento de tributos. g) Carga tributária: designa a totalidade de tributos que recai sobre uma coletividade, em função da riqueza produzida. Em geral, é calculada pela razão entre a arrecadação tributária total do país e seu Produto Interno Bruto. Contudo, pode ser calculada individualmente, cada contribuinte suportando sua própria carga tributária. Além disso, considerando-se agora um tributo bastante enfocado nos trabalhos apresentados nas próximas seções, o imposto de renda, observa-se que sua instituição, e conseqüentemente conceituação, no Brasil deveu-se à Lei nº 5.172, de 25 de Outubro de 1966, Código Tributário Nacional (CTN), cujo art. 43 dispõe textualmente que: 40 Art. 43. O imposto, de competência da União, sobre a renda e proventos de qualquer natureza tem como fato gerador a aquisição da disponibilidade econômica ou jurídica: I - de renda, assim entendido o produto do capital, do trabalho ou da combinação de ambos; II - de proventos de qualquer natureza, assim entendidos os acréscimos patrimoniais não compreendidos no inciso anterior. Quanto às informações que podem ser abstraídas a partir do citado artigo de lei, primeiramente, verifica-se que o imposto de renda é de competência da União, e, portanto, no Brasil ela o institui, arrecada e fiscaliza. Em segundo lugar, para sua correta cobrança, é preciso que se saiba avaliar o real valor dos rendimentos auferidos pelo contribuinte, ou seja, sua capacidade contributiva, conhecimento que, em princípio, só ele e o fisco têm legitimidade para conhecer. Contudo, na prática, essa é uma tarefa bastante delicada, já que envolve valores monetários resguardados por sigilo bancário e fiscal. Além disso, verifica-se uma tendência já atávica em parcela da sociedade visando dificultar ao máximo o acesso governamental a essas informações vitais para sua sobrevivência. Por isso, os Estados contemporâneos acabam atribuindo regimentalmente a seus órgãos tributários a responsabilidade pelo estudo da infração e evasão tributárias e de seus efeitos, bem como pela formulação de soluções que contornem essas dificuldades. É importante ressaltar que todos esses aspectos legais e ambientais identificados em relação ao imposto de renda podem ser estendidos aos demais tributos de incidência direta (que são suportados pelo próprio contribuinte) administrados pela SRF. No universo fiscal, o que se pode dizer é que quando se trata de pessoas jurídicas, a dificuldade da tarefa de seleção de contribuintes se eleva, já que a gama de operações comerciais e industriais geradoras de tributos, e conseqüentemente a complexidade dos registros desses fatos contábeis e fiscais, é bastante grande, tornando a mensuração da capacidade contributiva do contribuinte uma tarefa bem mais intrincada do que no caso das pessoas físicas. Outro aspecto importante é que como os efeitos tributários em relação à arrecadação já se fazem sentir pela mera ocorrência da infração, havendo ou não volição em sua prática, os órgãos tributários, ao formularem planos de seleção de contribuintes, procuram identificar contribuintes infratores em geral. Em relação à pesquisa científica, observou-se que o estudo de critérios para seleção de contribuintes para fiscalização é uma das especificidades da linha de 41 estudos mais genérica em evasão tributária, e nela está contido. Nesta revisão procura-se enfocar ambos, continente e conteúdo, porém mais profundamente o último, pois se considera oportuno o levantamento de seu estado da arte na pesquisa científica. Com isso, todos os trabalhos que enfocam objetivamente a seleção de contribuintes para fiscalização encontrados nas bases de dados pesquisadas estão referenciados e contemplados ao longo da seção 2.4. Os trabalhos foram pesquisados e obtidos a partir das bases de dados dos grandes portais internacionais de informações científicas ISI Web of Knowledge <www.isi.webofknowledge.com>, ABInform <www.proquest.com>, Science Direct <www.sciencedirect.com> e do portal de informações científicas da CAPES <www.periodicos.capes.gov.br> envolvendo periódicos, teses e dissertações. Também foi consultado o site do Centro Interamericano de Administrações Tributárias (CIAT) <www.ciat.org>. 2.3 Modelo básico de evasão tributária As primeiras modelagens econômicas formais de evasão tributária e do comportamento dos contribuintes foram conduzidas por Allingham e Sandmo (1972) e Srinivasan (1973) (ERARD e FEINSTEIN, 1994; HOROWITZ e HOROWITZ, 2000). Nelas, o modelo fundamenta-se em um contribuinte que deve decidir sobre o valor de seus rendimentos a reportar à agência tributária com base no seu nível real de rendimento, em uma taxa proporcional de tributo a pagar, em uma dada probabilidade de ser auditado e em uma penalidade proporcional ao rendimento omitido, cuja taxa é superior à taxa proporcional de tributação, a ser paga caso lhe seja detectada alguma infração na fase de auditoria. Todas essas variáveis são consideradas exógenas em relação à decisão do contribuinte, que depende também de sua atitude em relação ao risco. Como ele toma a decisão de quanto reportar racionalmente à luz da maximização de seus rendimentos, optando por declarar rendimentos a menos quando a expectativa do ganho assim obtido supera o montante de tributo e penalidade a ser suportado em uma eventual auditoria, tratase efetivamente de uma modelagem de evasão tributária. Os principais resultados obtidos a partir dessa contextualização demonstram que, para o contribuinte neutro ao risco, os valores declarados à agência se elevam à medida que a probabilidade de detecção e a taxa de penalidade se elevam e decrescem à medida que a taxa de 42 tributação aumenta. Outras situações ficaram menos claras nessa modelagem inicial, que pode ser denominada de "básica" em termos de evasão tributária, e tem sido objeto de numerosos refinamentos desde então (ALI; CECIL; KNOBLETT, 2001; BECK e JUNG, 1989). Partindo desse modelo original, Graetz et al. (1986), Reinganum e Wilde (1986) e Beck e Jung (1989) avançaram ao modelar a evasão tributária como um jogo de ações seqüenciais entre contribuinte e agência tributária, isso por meio da Teoria dos Jogos1. O comportamento do contribuinte se dá conforme já definido pela modelagem básica. Contudo, simultaneamente existe uma agência tributária que, sujeita a um orçamento operacional prévio, e à luz da informação prestada pelo contribuinte, conduz suas ações de auditoria de forma a maximizar sua função de retorno líquido em termos de arrecadação de tributos. Agora, essa função considera o valor declarado pelo contribuinte e o valor esperado de seus reais rendimentos para a tomada de decisão da agência (SANSING, 1993; ERARD e FEINSTEIN, 1994). Em geral, essa abordagem reconhece formalmente que o ambiente é caracterizado pela incerteza – a agência não conhece o real rendimento do contribuinte e o contribuinte não conhece as reais capacidades de fiscalização da agência, apenas tem informação sobre uma dada probabilidade objetiva de ser fiscalizado – e tais tipos de situações têm sido classificadas pelos estudiosos como sendo um jogo de informações assimétricas, em que cada parte possui suas próprias estratégias e em que pelo menos uma das partes sabe algo desconhecido da outra (RASMUSEN, 1989). Existem ainda sofisticações em termos dessa contextualização teórica dos jogos tributários assimétricos, como, por exemplo, quando o contribuinte desconhece o custo de auditoria defrontado pela agência, desconhece a probabilidade objetiva de ser fiscalizado e também quando apresenta incerteza em relação ao correto quantum por ele devido em termos de tributos; situações estas, aliás, exploradas por alguns dos trabalhos apresentados nas próximas seções. Nesse jogo de informações assimétricas, abre-se, portanto, a possibilidade de ligação entre as políticas tributárias e a decisão do contribuinte, e ele também é conhecido no contexto da economia como abordagem do agente-principal aplicada ao sistema tributário. Em termos arquetípicos, essa abordagem envolve dois 1 Para detalhes em Teoria dos Jogos, ver Rasmusen (1989) ou Dutta (2001). 43 indivíduos ou grupos de pessoas - o principal e o agente - inter-relacionados tacitamente ou de direito, em que o principal contrata o agente para que, sob remuneração, execute determinada tarefa, que, por sua vez, exige um dispêndio de energia ou força por parte do agente. Ambas as partes tentam maximizar seus interesses, que em maior ou menor grau são conflitantes entre si, e, a um dado momento do jogo, o agente adquire uma vantagem em termos de informação em relação ao principal (RASMUSEN, 1989). Seja no contexto tributário ou em qualquer outro, o importante é que ambas as partes dessa relação possuem suas próprias equações de comportamento e também preços ou ganhos de equilíbrio2. Estas duas modelagens, básica e abordagem do agente-principal, foram e ainda são muito adotadas como ponto de partida para diversos estudos mais modernos e sofisticados, tanto os que procuram avaliar o impacto de políticas tributárias alternativas e os efeitos de diversas variáveis sociais e comportamentais no nível de evasão tributária da economia, quanto os que se preocupam especificamente com métodos de seleção de contribuintes, haja vista que a partir da abordagem do agente-principal os modelos passaram a reconhecer formalmente que as informações prestadas pelo contribuinte influenciam a decisão posterior da agência em relação a fiscalizá-lo ou não. Os trabalhos considerados pelo autor desta tese como mais relevantes e estreitamente relacionados com o tema da pesquisa, e que efetivamente aplicam e desenvolvem os conceitos previamente abordados neste capítulo, são apresentados a seguir. 2.4 Modelos enfocando a seleção de contribuintes para fiscalização 2.4.1 Modelos envolvendo contribuintes pessoas físicas Pelo exposto até aqui, viu-se que a maior dificuldade de uma agência tributária está em medir a correta capacidade contributiva de cada indivíduo, principalmente em um ambiente marcado pela incerteza. Essa tarefa é tão complexa e delicada, que mesmo quando bem sucedida em certo grau ela nem sempre produz efeitos publicitários favoráveis ao Estado. 2 No contexto da Teoria dos Jogos, o conceito de equilíbrio difere do microeconômico associado a um preço que iguala a oferta e a demanda, significando, na verdade, o conjunto das melhores estratégias para cada um dos jogadores, sendo, ainda, tecnicamente distinto do resultado de equilíbrio - o conjunto dos ganhos proporcionados pelas melhores estratégias (RASMUSEN, 1989). 44 De fato uma pesquisa de opinião efetuada em meio aos contribuintes dos Estados Unidos da América (EUA) demonstrou que apenas 48% deles achavam que o Internal Revenue Service (IRS) dos EUA era consistente em relação às decisões firmadas em processos individuais de fiscalização de contribuintes, e que isso provavelmente ocorria devido às diferenças individuais nas competências dos agentes tributários. Mas essa sensação poderia também ser creditada à aleatoriedade na seleção de contribuintes por parte dos órgãos tributários, pois foi provado matematicamente que ela faz parte do delicado jogo de equilíbrio econômico entre a maximização da arrecadação da agência e dos rendimentos líquidos do contribuinte. Dessa forma, para a redução de aleatoriedade e promoção de maior justiça social, as agências incorrem em um custo operacional que deve ser balanceado pelo processo de maximização de suas receitas (SCOTCHMER e SLEMROD, 1988). Nesse contexto, uma das maneiras de reduzir a aleatoriedade de maneira economicamente viável, assumindo-se um custo unitário da ação fiscal como fixo, se dá pela elevação do valor esperado do resultado da ação fiscal, fazendo com que o custo em reduzir a aleatoriedade seja amortizado por vantagens adicionais em termos de arrecadação. Portanto, melhores critérios de seleção têm sido pesquisados e utilizados parcial ou totalmente em lugar da aleatoriedade de seleção. Esses esforços não têm sido infrutíferos já que há referências bibliográficas indicando que diversos métodos de seleção não aleatórios, como pelo histórico temporal do contribuinte, ou então pelo critério Discriminant Index Function (DIF) utilizado pelo IRS dos EUA, apresentam retorno líquido superior ao obtido por métodos puramente aleatórios. Em relação ao DIF, esse método produz um índice resultante de um processo estatístico multivariado que leva em consideração diversas informações sobre as pessoas físicas dos EUA, principalmente as declaradas pelo próprio contribuinte, para calcular o afastamento ou distância de cada indivíduo em relação à média geral. Os que estejam mais afastados são então selecionados para auditoria. Calcula-se que atualmente cerca de 50% das auditorias estadunidenses são motivadas com base neste critério, porém, apesar de já ter sido instado diversas vezes a divulgar os critérios e pesos utilizados para construção do DIF, o IRS os mantém em estrito sigilo (ALM e MCKEE, 2003). Nesse sentido, Macho-Stadler e Perez-Castrillo (2002) advogam que o mais importante aspecto para o sucesso do planejamento de auditoria de um órgão 45 tributário é a fase de seleção dos contribuintes e que essa pode até se dar de forma totalmente aleatória, mas os órgãos têm procurado utilizar critérios que favoreçam a seleção dos potencialmente mais interessantes. Além disso, acrescentam que em trabalhos regulares de auditoria, o contribuinte tem a vantagem competitiva de saber o seu real rendimento, que é ignorado pela agência, e os critérios aleatórios não revertem essa vantagem. Contudo, existem formas de atenuá-la, e citam como exemplo o DIF, pois os contribuintes são informados de sua existência, mas não conhecem sua fórmula, o que, em certo grau, equilibra o jogo de forças tributário. Seguindo essa tendência, o trabalho proposto por eles fundamenta-se em uma modelagem econômica em que os órgãos possuem informações positivamente correlacionadas com o real rendimento do contribuinte e que são agrupadas em uma única variável aleatória, denominada de “sinal”, cuja realização não é conhecida pelo contribuinte. Assim, os selecionados serão aqueles com maior sinal. De acordo com os autores, a linha de se modelar economicamente sistemas de seleção com a adoção de sinais positivamente correlacionados com os verdadeiros rendimentos dos contribuintes foi originalmente proposta por Scotchmer (1987), em sua modelagem de classes de auditoria. Contudo, neste último estudo as características que compõem o sinal que divide os contribuintes em classes são plenamente conhecidas pelos contribuintes, tais como sexo, ocupação, etc, o que reduz em certo grau a vantagem competitiva obtida pela agência tributária pela adoção do critério. Sinteticamente, o modelo proposto pelos autores utiliza uma estrutura em que o valor a pagar verdadeiro i divide-se em três valores possíveis, i ∈ {0,m,1}. É executada uma normalização em que os níveis zero e um correspondem, respectivamente, ao menor e ao maior valor de rendimentos reais I dentre o universo de contribuintes, sendo que m ∈ (0,1). O contribuinte é considerado neutro ao risco e tende a informar um valor a pagar r(i) ∈ {0,m,1} que maximize seu rendimento líquido, sendo que, por segurança, ele informará o maior dos r(i) que lhe sejam indiferentes. Já a agência tributária deseja maximizar o recolhimento de tributos sobre o rendimento, dado um certo orçamento disponível para suas atividades, B, sendo c o custo para auditoria de um único contribuinte. Um sinal s proposto pelos autores é suposto como livre de custo e pode assumir apenas dois valores, s ∈ {d(down),u(up)}, e a probabilidade de realização do sinal up é dada por: Prob(s = u|i) = αi (2.1) 46 Assume-se que α0 ≥ αm ≥ α1 e como o sinal é forçosamente positivamente correlacionado com o rendimento real I, um sinal u provavelmente estará associado a um elevado valor de tributos a pagar i. Com base nos sinais observados e no custo de auditoria, a fiscalização alocará seus recursos selecionando contribuintes de forma a maximizar o recolhimento de tributos. A probabilidade de um contribuinte ser fiscalizado é dada por p(R,s), sendo R o rendimento declarado, e, por meio da utilização dos sinais down e up, a pressão de auditoria sobre um determinado contribuinte auferindo rendimentos I e declarando R é dada por: P(I,R) = (1-αI) p(R,d) + αI p(R,u) (2.2) A seleção por sinais apresenta uma importante característica. A pressão de auditoria sobre um contribuinte varia em função das políticas de auditoria e de seu verdadeiro rendimento. Assim dois contribuintes com rendimentos reais I distintos, mas reportando o mesmo valor R e contando com as mesmas probabilidades de serem fiscalizados p(R,s), perceberão diferentes pressões P(I,R), e isso significa que alterações nas políticas tributárias afetarão diferentemente os contribuintes na medida de seus verdadeiros rendimentos. Isso em princípio reverte o jogo tributário a favor da agência. Os autores modelam teoricamente o comportamento tributário de contribuintes e agência com base em diversos lemas matemáticos e pressupostos de trabalho (não apresentados aqui), com o objetivo de que um perfil ótimo de alocação de recursos e de probabilidades de fiscalização seja identificado e adotado pela agência. Os autores alegam que sua modelagem apresenta algumas limitações que são típicas dos trabalhos que seguem a abordagem do agente-principal, quais sejam: o órgão tributário se compromete previamente a executar uma política de auditoria específica (o que na prática pode não ocorrer) e é considerado avesso ao risco; os contribuintes são neutros em relação ao risco e optam por declarar unicamente em função da maximização de seus rendimentos líquidos; e, também, o rendimento do contribuinte é exógeno ao problema. Mas a principal limitação identificada por eles é a de que os valores a pagar i dos contribuintes estão constrangidos a apenas três possíveis valores, {0,m,1}, que apesar de poderem ser estendidos a uma faixa maior de rendimentos, isso elevaria substancialmente a complexidade da modelagem de comportamento tributário efetuada e subseqüente auditoria. 47 Em relação a esse estudo, cabe comentar que a grande dificuldade tributária é justamente a definição dos "sinais" a serem utilizados, de forma a que a correta capacidade contributiva de cada um seja revelada. Isso, no entanto, não foi o enfoque do trabalho, que pressupõe sua existência prévia para a modelagem teórica da alocação ótima de recursos de auditoria da agência tributária. Feinstein (1991) apresenta um trabalho econométrico específico para detecção de infração tributária de contribuintes pessoas físicas e, inicialmente, alega que uma das grandes dificuldades em trabalhos desse escopo é o fato de que, em geral, não há registros dicotômicos informando sobre contribuintes que evadem e contribuintes que não evadem tributos. Na verdade, dispõe-se de informações sobre os contribuintes em que foi detectada evasão. Adicionalmente, o autor alega que nem toda a evasão praticada por um contribuinte identificado como possível infrator pode ter sido detectada pela agência, mas somente uma parte dela, já que os servidores do Estado não são considerados perfeitos. Essa última situação constitui-se no diferencial de seu trabalho, já que inclusive ele utiliza características dos auditores da agência tributária dos EUA para avaliar a fração da evasão detectada. Para lidar com essa situação de detecção parcial ele divide sua modelagem em duas partes, um processo de omissão e outro de detecção, chamando-a de "fracional". No Apêndice A encontra-se apresentado o cerne da modelagem econométrica praticada pelo autor, incluindo a especificação da função de verossimilhança adequada à distribuição de probabilidade conjunta resultante das características da modelagem fracional empregada. Na parte de aplicação dos modelos propostos pelo autor, os dados utilizados são do IRS e de seu Programa de Avaliação do Cumprimento Tributário (TCMP) das pessoas físicas, referentes aos anos de 1982 e 1985, envolvendo uma amostra das declarações de rendimentos de contribuintes pessoas físicas dos EUA e o resultado das fiscalizações efetuadas por parte dos auditores do IRS. Os principais resultados e conclusões obtidos em relação à parte que modela a evasão, cuja variável resposta é o valor líquido do rendimento tributável omitido, apontam para os seguintes fatos: quanto maior o rendimento do contribuinte, maior a evasão; o coeficiente para a taxa marginal de tributação3 é elevado e estatisticamente significativo em todos os modelos, sendo positivo para os anos de 3 Taxa marginal de tributação é o montante adicional de tributo pago devido ao recebimento de uma unidade adicional de rendimento. 48 1982 e 1985 considerados isoladamente, e negativo para os dados anuais em conjunto; os contribuintes casados são mais propensos à evasão; e os contribuintes que preenchem os formulários C e F4 são significativamente mais infratores, talvez por perceberem mais oportunidades para omitir rendimentos. Além disso, o autor alega que os resultados isolados para 1982 e 1985 são consistentes entre si. Já as conclusões em relação à parte de detecção para 1982 e 1985, cuja resposta é a fração detectada do rendimento omitido, indicam que houve uma melhoria na qualificação de mão de obra no IRS, já que pelos sinais dos coeficientes para 1982, viu-se que lá os servidores mais experientes não favoreciam uma maior detecção, resultado que se inverteu em 1985. Outro resultado surpreendente é que, ao contrário do senso comum, as revisões mais intrincadas envolvendo os formulários mais complexos favorecem uma maior detecção da infração praticada. Como limitações de seu trabalho o autor expõe que a utilização de um modelo fracional de evasão, e subseqüente detecção condicionada à presença de evasão, sujeita o trabalho a mais suposições prévias do que as exigidas por outras modelagens mais simplificadas. Um trabalho que faz referência ao anterior como sendo um dos fundamentos de sua pesquisa é o de Erard (1997). Este autor também fraciona sua modelagem em mais de uma equação. A primeira, assim como a de Feinstein (1991), também procura modelar a infração tributária cometida pelo contribuinte, mas leva em consideração em sua formalização o controle sobre se a declaração foi preparada por um especialista tributário ou pelo próprio contribuinte. Já a segunda representa o diferencial de seu trabalho, pois procura classificar o resultado obtido pelo primeiro modelo como relacionado a infrações não intencionais, ou então deliberadas. A terceira equação, assim como a segunda de Feinstein (1991), procura, com base em informações da agência tributária, aferir o grau de detecção da evasão indicada pela primeira equação, se total, parcial, ou então não detectada. Contudo, como a primeira equação controla se a declaração é autopreparada ou com ajuda de terceiros, isso implica que a terceira equação também tem de incorporar o controle sobre esse efeito. Posteriormente, uma função de verossimilhança adequada à distribuição de probabilidade conjunta resultante da modelagem proposta é deduzida 4 De acordo com o IRS, o Formulário C é utilizado para informar os ganhos ou perdas dos que se dedicam às firmas individuais e o Formulário F é utilizado para informar os ganhos ou perdas dos que se dedicam às atividades rurais. 49 pelo autor de forma a possibilitar sua aplicação empírica. Na parte prática utilizam-se os mesmos dados do TCMP dos anos de 1982 e 1985 e, não coincidentemente, no tocante à parte da modelagem já controlada por Feinstein (1991), os resultados obtidos foram bastante similares. Contudo, em relação à parte não controlada pelo trabalho de Feinstein (1991), seus resultados são bastante interessantes e podem ser sintetizados pela constatação de que as infrações tributárias deliberadas têm maior probabilidade de ocorrer em declarações preparadas pelos próprios contribuintes. Contudo, quando presentes em declarações preparadas por especialistas, as infrações deliberadas tendem a ser de maior magnitude. Já as limitações do trabalho, de acordo com o próprio pesquisador, são similares, e até mais agravadas, às identificadas por Feinstein (1991) em sua modelagem: a existência de muitas suposições interligando as diversas e complexas modelagens condicionais entre si. O trabalho de Erard (1997) possui interesse relativo aqui, já que a preocupação principal desta pesquisa é a identificação do potencial de infração à legislação tributária com base nas declarações de rendimentos das pessoas jurídicas brasileiras, mas independentemente de ele ser atribuído a ações praticadas de forma deliberada ou não intencional. 2.4.2 Modelos envolvendo contribuintes pessoas jurídicas Um trabalho de citação pertinente por enfocar de maneira empírica aspectos relativos ao comportamento tributário das pessoas jurídicas é o desenvolvido por Mills (1996). Este autor inicialmente argumenta que as leis tributárias abrem diversas brechas para o planejamento tributário - que pode ser considerado uma espécie de elisão fiscal - e, além disso, há vantagens competitivas empresariais envolvendo a utilização de planejamento tributário como auxílio à decisão sobre os valores a reportar ao IRS. Por outro lado, há indícios preliminares de que quanto maior a desconformidade entre os rendimentos tributável e contábil informado na declaração entregue ao IRS, maior será o eventual ajuste do rendimento praticado pelo IRS. Há que se reconhecer também que há regimes tributários nos EUA cujas legislações impõem resultados tributário e contábil mais conformes entre si, situação que varia em função de determinadas atividades econômicas. Todos esses fatores associados levam à suposição de que o contribuinte, ao decidir sobre suas declarações, executa uma minimização conjunta dos custos incorridos com suas declarações, dos tributos pagos espontaneamente e dos eventuais custos adicionais com auditorias. No limite, 50 um planejamento desse escopo poderia levar uma empresa a publicar um rendimento contábil o maior possível, ao mesmo tempo em que reportando um rendimento tributável de valor inferior ou equivalente a zero. O autor investiga esse complexo relacionamento econômico-tributário por meio de um estudo empírico enfocando as indústrias de manufatura selecionadas pelo Programa de Exame Coordenado (PEC) do IRS, entre 1982 e 1993. Os dados são relativos às declarações enviadas pelas indústrias ao IRS, sendo que, dessas, 70% tinham ações comercializadas em bolsa, e o restante sendo mantidas sob controle do governo dos EUA ou de empresas estrangeiras. Quanto ao PEC, o autor comenta que suas auditorias são, em geral, bastante profundas e detalhadas, porém bastante lentas. Das auditorias iniciadas em 1982 somente 50% chegaram a uma conclusão administrativa sete anos depois. Com base nesses dados e nas publicações financeiras das indústrias, o autor construiu diversas medidas de conformidade entre aqueles dois rendimentos, de forma a formular sua primeira hipótese de pesquisa, qual seja: os ajustes tributários efetuados pelo IRS elevam-se na medida em que se elevam os excessos entre os rendimentos financeiro e tributável, ceteris paribus. Para testar essa hipótese, o autor efetuou uma regressão linear múltipla conforme o seguinte modelo: BTINCi ,t ADTRi = β 0 + β1 MTRi ,t + BEGASS i ,t BEGASS i ,t β 2 PTS i ,t + β 3 PUBLICi ,t + β 4 β5 ITCi ,t BEGASS i ,t + β6 FORINCi ,t BEGASS i ,t NPPEi ,t BEGASS i ,t + (2.3) ^ + β 7 λi ,t + ε i Para t = 0 (ano de 1982),..., 11 (ano de 1993), onde ADTR: ajuste no resultado efetuado pelo IRS, BEGASS: valor inicial dos ativos no balanço informado ao IRS, MTR: estimativa da taxa marginal de tributação da empresa, BTINC: Rendimento contábil antes dos impostos, subtraído do rendimento tributável declarado (medida de conformidade entre os dois valores), PTS: medida, em escala de pontos, do tamanho e complexidade da auditoria efetuada pelo IRS, 51 PUBLIC: variável dummy responsável por captar o efeito da empresa ser suportada por recursos públicos, NPPE: depreciação inicial líquida informada ao IRS, ITC: reinvestimento do crédito tributário apurado solicitado na declaração de rendimentos, FORINC: variável responsável por captar o efeito de ganhos de capital não repatriados, no caso das empresas que declaram atividades no exterior, ^ λ i : fator de correção do viés de seleção da amostra, construído a partir do procedimento em dois estágios de Heckman5. Um outro aspecto também abordado pelo autor cuida dos custos de atendimento à legislação tributária incorridos pelas empresas dos EUA. A partir de estudos e levantamentos efetuados por Slemrod (1989) e Slemrod e Blumenthal (1996), constatou-se que tais custos elevaram-se em 77% desde 1986 e que, no mesmo período, a complexidade da legislação tributária elevou-se de forma idêntica, de acordo com uma pesquisa executada por meio de um questionário aplicado às empresas, sugerindo que essa situação provavelmente contribuiu para elevação dos custos tributários. Além disso, o trabalho de Scotchmer e Slemrod (1989) mostra que um maior grau de incerteza em relação aos aspectos tributários, considerado direta e positivamente relacionado com a complexidade legal, faz com que o contribuinte avesso ao risco pague mais impostos. Contudo, de acordo com Mills (1996), nenhum desses estudos levou em consideração a incerteza do IRS em relação ao verdadeiro valor devido pelo contribuinte, nem avaliou a possibilidade das grandes empresas serem propensas ao risco, diferentemente da suposição de neutralidade tradicionalmente empregada para as pessoas físicas. Esses aspectos poderiam sugerir, no caso das grandes empresas, que a complexidade legal está associada a um menor cumprimento tributário, já que abre oportunidade para maiores e mais sofisticados planejamentos fiscais, que, em geral, estão distantes das pessoas físicas. Assim, o autor procura avaliar se a tendência identificada por Slemrod em relação às pessoas físicas se inverte no caso das grandes corporações, ou seja, se uma maior complexidade legal leva a níveis inferiores de cumprimento tributário. Como o custo opcional de planejamento tributário está contabilmente contido no custo 5 Para detalhes sobre esse processo de correção do viés, ver Greene (apud Mills, 1996, p.426). 52 contábil total de atendimento à legislação tributária, ele formulou uma segunda hipótese de pesquisa, qual seja: o valor dos tributos pagos é negativamente relacionado com custos discricionários de atendimento tributário, ceteris paribus. Para avaliá-la o autor utilizou dados de pagamentos de tributos originários do IRS e também uma pesquisa que avaliou os custos tributários das empresas industriais relacionadas no PEC do IRS realizada por Slemrod e Blumenthal (1996). Para avaliação dessa hipótese o autor modelou uma regressão linear múltipla conforme segue: USCUR _ 91i = β0 + β1 PLAN i + β2 PLAN i ⋅ USASS i + β3 PAGEi + β4 PLAN i ⋅ FORi + β5 INDk,i ⋅ USASS i + (2.4) β6 PLAN i ⋅ INDk,i ⋅ USASS i + εi Onde USCUR_91: pagamento de tributo individual em 1991, PLAN: logaritmo natural dos custos de planejamento e pesquisa tributária adicionado de um, USASS: ativos situados nos EUA reportados pela empresa, PAGES: número de fichas das declarações individuais de rendimento, FOR: razão entre os ativos situados no exterior e os ativos totais, IND: variáveis dummy com o objetivo de captar o efeito de K diferentes subdivisões do setor industrial dos EUA. Os resultados gerais do trabalho confirmam a primeira hipótese de pesquisa, pois os ajustes efetuados pelas auditorias do IRS efetivamente crescem na medida em que decresce a conformidade entre os rendimentos financeiro e tributário reportados à agência tributária, isso a uma taxa entre 10% e 20%. Além disso, trabalhos em andamento, conduzidos à época pelo autor, apresentaram resultados preliminares indicando que nas áreas onde os incentivos tributários são elevados em relação aos incentivos de informação contábil, os rendimentos tributável e contábil mantêm-se mais conformes entre si, o que corrobora a participação de um esquema de planejamento tributário atuando na decisão do contribuinte. O ajuste de uma regressão probit6 - não apresentada no artigo original - produziu interessantes 6 Modelo de regressão utilizado no caso de variável resposta binária, em que uma função de resposta não linear similar à logística é obtida por meio de uma transformação envolvendo a distribuição de 53 resultados em relação à probabilidade da empresa ser fiscalizada pelo IRS, e ela é maior no caso de presença de resultados tributáveis originados do exterior e caso a empresa mantenha o controle de seu capital em poder privado. Por outro lado, essa probabilidade decresce caso o resultado declarado ao IRS seja um prejuízo. Em relação à hipótese dois, também confirmada, os resultados sintetizam que as empresas que gastam mais em planejamento tributário, provavelmente devido à complexidade da legislação, efetivamente pagam menos tributos. Entretanto, o autor alerta que isso não significa que as que gastam menos poderiam se beneficiar com maiores dispêndios nessa atividade, já que se supõe que cada uma delas esteja em seu ponto ótimo de planejamento, considerando as peculiaridades legais e econômicas verificadas para cada uma das subdivisões de atividades fabris. Em relação à magnitude do efeito de redução dos pagamentos, as empresas públicas e as de manufatura são as que mais se beneficiam desse efeito, proporcionalmente aos desembolsos efetuados. Viu-se que Mills (1996) mostrou empiricamente a significância estatística das diferenças entre os rendimentos tributário e financeiro reportados quanto ao correto cumprimento tributário. Aproveitando a oportunidade dessa constatação, vale dizer que o trabalho de Mills e Sansing (2000) incorporou esse conceito na modelagem econômica teórica do relacionamento entre contribuinte pessoa jurídica e agência tributária (ZENG, 2002). Nesse modelo, o contribuinte inicialmente verifica, privadamente, qual será o seu rendimento tributável e calcula o tributo a pagar. Posteriormente, em sua decisão em relação aos valores a reportar à agência, ele decide-se em relação a três opções de declaração: uma declaração em que ambos os rendimentos são idênticos; uma declaração em que o contábil é superior ao tributável; ou então uma em que o tributável é superior ao contábil. Saliente-se que nessa modelagem o rendimento total contábil é considerado exógeno ao problema e, portanto, a decisão do contribuinte recai apenas em relação ao valor tributável a declarar. Finalmente, o contribuinte se decide e informa seus valores à agência, que os analisa e define sobre uma possível fiscalização. Como as declarações de pessoas jurídicas são bem mais complexas do que as de pessoas físicas, no ponto ótimo de ambos os comportamentos, esse trabalho demonstrou que o contribuinte adota uma estratégia mista, em que algumas transações têm rendimentos omitidos e probabilidade Normal acumulada (NETER et al., 1996). Detalhes em Davidson e Mackinnon (1993, p. 514-516). 54 outras não. Da mesma maneira a agência não fiscaliza todas as operações que possuem indícios de omissão, mas somente uma parte delas, principalmente devido às restrições orçamentárias. Por outro lado, Zeng (2002) alega que a decisão do contribuinte em relação aos valores a declarar é simultânea, pesando a uma só vez seus tributos realmente devidos, os efeitos de uma possível auditoria, e os custos incorridos em planejamento tributário com o objetivo de validar seu eventual rendimento contábil elevado. Por isso, para ele, o rendimento contábil a reportar é, na verdade, endógeno ao problema, correlacionado com o rendimento tributável e com o custo incorrido no planejamento tributário e, ainda, é dependente da estratégia de seleção da agência. Basicamente, a contribuição de Zeng (2002) foi incorporar à modelagem tributária a decisão simultânea do contribuinte sobre como declarar seu rendimento tributável e também os aspectos financeiros envolvidos na declaração, incluindo-se aí seu rendimento contábil e as despesas incorridas com seu eventual planejamento tributário. Dessa forma, seu modelo econômico teórico de jogo apresenta resumidamente a seguinte dinâmica. Inicialmente, o contribuinte verifica reservadamente seu rendimento tributável, calculando o tributo a pagar, e seu rendimento total contábil. Por simplicidade de modelagem, o autor admite apenas dois valores possíveis para ambos os rendimentos, "alto" e "baixo", sendo que estes são positivamente correlacionados entre si. Posteriormente, ele decide como declarar à agência seus rendimentos tributável e contábil com base na minimização conjunta dos custos com pagamento de tributos e dos custos não tributários. Caso seja verificado um rendimento tributário real baixo, assume-se que o contribuinte sempre informa o valor real ao IRS. Com base nas informações prestadas pelo contribuinte, a agência deve decidir se o contribuinte será selecionado para fiscalização ou não, mas generalizando o já tradicionalmente assumido nas pesquisas, a agência agora não conhece ambos os rendimentos reais do contribuinte, tributável e contábil. Além disso, ela deseja maximizar seu rendimento líquido sujeito às inevitáveis restrições orçamentárias. Caso o contribuinte não seja fiscalizado, seu pagamento total é dado pela soma do tributo pago com base no rendimento tributável declarado, do custo financeiro incorrido caso ele tenha declarado um rendimento contábil baixo, e do custo de transação no caso dele ter alterado seu valor de rendimento contábil real na 55 declaração. No caso de haver uma auditoria, o montante pago pelo contribuinte é dado pela soma do tributo pago originalmente com o tributo adicional apurado, mais uma penalidade proporcional ao tributo evadido, adicionada do custo não transferível de suportar a auditoria e, ainda, dos custos financeiro e de transação incorridos, respectivamente, caso ele tenha declarado um rendimento contábil baixo e tenha alterado seu valor de rendimento contábil real na declaração. Estabelecendo as equações de equilíbrio, com base nas probabilidades inferidas das estratégias de maximização e minimização da agência e do contribuinte, ambas sujeitas a certos lemas e pressupostos matemáticos (não apresentados aqui), e realizando a análise estática comparativa7 por derivações parciais dessas equações em relação às variáveis tributárias que as compõem, chega-se às seguintes principais conclusões: a agência é mais propensa a selecionar e fiscalizar um contribuinte apresentando alto rendimento contábil declarado e baixo rendimento tributável do que um apresentando os dois rendimentos baixos, o que é plenamente consistente com os trabalhos anteriores de Mills (1996) e Mills e Sansing (2000), e o autor acrescenta que diferentes setores de atividades incentivam em níveis distintos a não conformidade entre esses dois rendimentos. Além disso, a agência tem maior probabilidade de fiscalizar um contribuinte apresentando os dois rendimentos baixos e informando baixo custo financeiro, do que um na mesma situação, mas apresentando elevado custo financeiro incorrido na declaração. E, finalmente, o grau de correlação entre os dois rendimentos reais, tributável e contábil, afeta a decisão do contribuinte sobre como reportá-los à agência tributária, e esse é outro fator que apresenta variação entre os setores econômicos. Adicionalmente, o autor informa que todas essas três conclusões teóricas implicam na realização futura de estudos empíricos para seu aprofundamento e consolidação. Os resultados teóricos e estatísticos relacionados aos últimos trabalhos demonstraram que o IRS utiliza, ou utilizou em determinado momento, o critério não aleatório de presença de desconformidade entre o resultado tributável e contábil para seleção de contribuintes pessoas jurídicas. Isso sugere uma possível formulação de critério semelhante no Brasil. Contudo sua implementação deve passar inicialmente pela análise e adequação à nossa legislação específica. 7 Para detalhes em Análise Estática Comparativa ver Varian (1992, p.110). 56 Outro trabalho envolvendo pessoas jurídicas, o de Murray (1995), enfoca a seleção de contribuintes pessoas jurídicas no Estado do Tenessee nos EUA. Este autor considera que a pesquisa em evasão tributária tem estado por demais concentrada nas pessoas físicas, encontrando-se poucos trabalhos abordando as pessoas jurídicas. No caso, seu trabalho enfoca especificamente a fiscalização do imposto cobrado sobre as vendas do setor industrial, que, segundo ele, representou 24,7% da arrecadação total de impostos nos EUA em 1993. O autor modelou três equações de regressão distintas, cujas variáveis resposta são: contribuinte fiscalizado/não fiscalizado, ocorrência de ajuste/não ocorrência de ajuste do rendimento e valor do ajuste do rendimento/horas de auditoria. As duas primeiras variáveis são binárias e a última uma razão contínua. Devido à multiplicidade de modelagens praticadas neste trabalho, os detalhes e resultados práticos do estudo, que teve por base os dados do Departamento de Receitas do Estado do Tennessee referentes aos anos de 1986 e 1988 (pessoas jurídicas do setor industrial fiscalizadas e os eventuais ajustes praticados), podem ser consultados no Apêndice B. Adiantando aqui as principais conclusões do autor para a primeira regressão com resposta binária, estas apontam para que os contribuintes que relataram elevados valores de receitas de vendas brutas enfrentaram menores probabilidades de serem fiscalizados, enquanto que os que apresentaram variações nessas mesmas receitas ao longo do tempo contaram com maior probabilidade de serem auditados. O segundo modelo produziu bem menos estatísticas significativas do que o primeiro provavelmente por haver apenas 6% de empresas com ajuste zero na base de dados. Foram arrolados como resultados estatísticos relevantes o fato de que as empresas mais antigas, as que possuem proprietário em outro Estado e as que possuem pontos de venda em filiais apresentaram maior probabilidade de omitirem rendimentos. Já pelo terceiro modelo, verificou-se que quanto maiores as vendas brutas reais, maiores são os níveis de ajuste do rendimento/horas de auditoria. Por fim, em termos de pessoas jurídicas, relacione-se o trabalho de Press (1995), que propõe uma metodologia para seleção de contribuintes para fiscalização com base em amostragem. A idéia é estabelecer um intervalo de confiança para o total populacional, em dólares, das transações da pessoa jurídica, com base em uma amostra aleatória dessas transações. Exemplificando, a partir de uma amostra de 57 notas fiscais, pode-se estabelecer o intervalo de confiança para a receita total do contribuinte e selecioná-lo ou não para fiscalização com base na comparação com o valor por ele declarado. Mais detalhes sobre esse interessante trabalho são apresentados no Apêndice C. 2.4.3 Modelos envolvendo contribuintes que auferem rendimentos por conta própria O trabalho de Joulfaian e Rider (1998) enfocou o comportamento tributário dos que trabalham por conta própria dos EUA. Os autores argumentam que há um senso comum, justificado até, creditando menores pagamentos voluntários de tributos aos que se ocupam por conta própria, se comparados com os empregados assalariados. De fato, estimativas do IRS informam que a declaração voluntária de rendimentos de salários nos EUA é de cerca de 99% do montante pago anualmente, enquanto que a mesma estimativa para todos os outros rendimentos não ultrapassa 80%. Em geral, isso é atribuído à dificuldade de se avaliar os reais rendimentos obtidos pelos que auferem rendimentos por conta própria, devido à crônica ausência de informações compulsoriamente prestadas por terceiros, que por outro lado são fartamente existentes no caso dos assalariados. Contudo, o IRS também informa diferenças sensíveis no próprio cumprimento tributário voluntário dos que recebem por conta própria, atingindo respectivamente 41% e 84% para firmas individuais e para os que recebem rendimentos de royalties e aluguéis. Nesse caso, é certo que existe também diferença entre essas atividades quanto à quantidade de informações tributárias prestadas ao IRS: os aluguéis tendem a ser mais bem informados por terceiros que sejam locatários e por imobiliárias do que outros tipos de rendimentos por contraprestação ou venda de serviços e produtos. Contudo, há ainda um outro efeito a ser considerado, que é a existência de diferentes tratamentos tributários, mesmo entre os que recebem por conta própria. Nos EUA as firmas individuais que auferem valores abaixo de um certo limite estão sujeitas a um imposto adicional chamado de Self-Employment Tax (SECA), mas que não é exigido dos contribuintes que auferem rendimentos recebidos de aluguéis. Assim, com o advento da SECA adicional, isso sugeriria que o pagamento de tributos por parte daqueles contribuintes seria superior ao dos últimos, considerando-se uma mesma faixa de rendimentos. Contudo, ainda as estimativas do IRS dão conta de que, em 1988, 58 apenas 50% dos tributos arrecadados pela SECA foram voluntariamente reportados ao IRS, contra um nível de 84% em relação ao imposto de renda total. Isso indica que, hipoteticamente, esta diferença de tributação adicional SECA efetivamente vinha afetando o cumprimento tributário voluntário dos contribuintes. Como a preocupação dos autores é examinar o comportamento tributário dos contribuintes que auferem rendimentos por conta própria, é preciso que seja isolado o efeito da SECA em relação a essa categoria de sujeitos passivos. Para isso, os autores modelam a omissão de rendimentos detectada pelo IRS, estimando-a por meio dos dados de declarações de rendimentos prestadas por três subdivisões do universo de contribuintes que auferem rendimentos por conta própria, a saber: rendimentos das firmas individuais, dos que praticam atividades rurais e dos que recebem por locação imobiliária. Para tanto, utilizam informações sobre as auditorias efetuadas nesses contribuintes por ocasião do TCMP do IRS nos anos de 1985 e 1988, todos agrupados em uma amostra conjunta. A variável resposta do modelo é o logaritmo natural (log) da omissão de rendimentos detectada na declaração do contribuinte, e a estimação se deu por máxima verossimilhança tobit8, em virtude da presença de declarações que superestimaram seus rendimentos declarados, e que, portanto, foram censuradas em termos da resposta. O modelo foi estimado duas vezes, sendo que na segunda estimação foi considerado o adicional da taxa SECA. Os resultados das estimativas vão condensados na Tabela 1. Tabela 1: Estimativas para modelo tobit de Joulfaian e Rider (1998) (continua) Variável Resposta: log da omissão de rendimentos detectada Variáveis independentes Equação 1 Equação 2 Intercepto -8,626 (0,534) -8,515 (0,531) Dummy 1988 -0,411 (0,116) -0,332 (0,115) 15,342 (1,917) 14,892 (1,912) Idade x 10 8 Coeficientes (Erro Padrão) -2 O termo tobit seria uma contração de Tobin's probit, já que a utilização de uma variável resposta censurada em certos valores observados para uma variável latente foi originalmente proposta por Tobin em 1958. Além disso, sabe-se que o modelo probit, adequado às respostas binárias, pode ser obtido pelo mesmo efeito de censura da resposta ao nível zero. As estimativas tobit em geral são obtidas por Máxima Verossimilhança, pois há evidências de que a utilização de Mínimos Quadrados Ordinários em casos de dados truncados ou censurados leva a estimativas inconsistentes que variam bastante em função da porcentagem de observações censuradas ou truncadas, sendo que esse problema aumenta à medida que mais observações são retiradas da amostra, ou então censuradas. Detalhes em Davidson e Mackinnon (1993, p. 537-542). 59 Tabela 1: Estimativas para modelo tobit de Joulfaian e Rider (1998) (continuação) Variável Resposta: log da omissão de rendimentos detectada Variáveis independentes Coeficientes (Erro Padrão) Equação 1 Equação 1 -18,054 (1,928) -17,657 (1,924) TF -0,134 (0,091) -0,115 (0,090) Sul -0,130 (0,154) -0,119 (0,154) Oeste 0,217 (0,163) 0,247 (0,163) Norte 0,053 (0,179) 0,032 (0,179) OTR -1,029 (0,511) 2 Idade x 10 -4 OTR + SECA 2,222 (0,527) Taxa de Auditoria -28,380 (1,856) -30,302 (1,795) log (Rendimento) 1,118 (0,040) 1,012 (0,040) SCHF 0,917 (0,200) 1,053 (0,197) SCHC 2,349 (0,185) 2,481 (0,179) N 9.023 9.023 Obs: O autor não tabelou os níveis descritivos para as variáveis. Fonte: Adaptado de Joulfaian e Rider (1998). Onde Dummy 1988: variável dummy para captar o efeito do ano de 1988, Idade: idade do contribuinte, TF: número de dependentes do contribuinte, Sul: variável dummy para captar o efeito regional do sul dos EUA, Oeste: variável dummy para captar o efeito regional do oeste do EUA, Norte: variável dummy para captar o efeito regional do norte do EUA, OTR: taxa marginal de tributação para o contribuinte, OTR + SECA: taxa marginal de tributação adicionada da SECA, Taxa de Auditoria: probabilidade objetiva do contribuinte ser fiscalizado, log(Rendimento): logaritmo natural do rendimento ajustado pelo IRS, SCHF: variável dummy indicando o preenchimento da cédula F da declaração, SCHC: variável dummy indicando o preenchimento da cédula C da declaração, N: número de observações computadas. No caso da variável taxa de auditoria, ela procura espelhar a probabilidade objetiva do contribuinte ser fiscalizado nos anos de 1985 e 1988, mas com base 60 apenas nos dados de 1988, e para obtê-la foi executada previamente uma regressão com transformação probit, contando com as seguintes variáveis explicativas: o rendimento ajustado pelo IRS, variáveis indicadoras das três distintas fontes de rendimento, e os ganhos de capital informados pelo contribuinte. Contudo, os autores salientam algumas limitações a respeito da utilização dessa variável. Primeiramente, em um modelo que procura estimar o comportamento do contribuinte em relação às suas atitudes tributárias, deveria ter sido utilizada a probabilidade de ser fiscalizado ou auditado percebida pelo contribuinte, mas essa é obviamente uma medida bastante difícil de ser observada. Portanto foi considerada uma proxy dessa variável, a probabilidade objetiva de auditoria de rendimentos pelo IRS. De fato, em teoria, a probabilidade de detecção de omissão de rendimentos é diferente da probabilidade de ocorrência de uma auditoria, e, portanto, a probabilidade objetiva de ser auditado pode ser bastante diferente da "sensação" de probabilidade percebida pelo contribuinte. Além disso, essa probabilidade objetiva depende da própria declaração de rendimentos informada pelo contribuinte, e, assim, ela é potencialmente endógena em relação ao modelo formulado. Quanto aos resultados relatados pelos autores, a primeira equação indica que as omissões variam significativamente com a idade, região, rendimento, taxa tributária e taxa de auditoria. Especificamente em relação à taxa de auditoria, seu coeficiente é negativo e significativo, implicando em uma elasticidade9 (avaliada na média) de 0,70, indicando que um aumento de dez por cento nessa taxa implicaria em redução de sete por cento nas omissões. Já em relação à taxa de tributação, ela é significativa e possui coeficiente negativo, indicando que maiores taxas levariam a menores valores omitidos, o que não é de se estranhar, segundo os autores, já que o estudo do efeito da variação das taxas de tributação no cumprimento tributário de contribuintes tem produzido reiteradamente resultados ambíguos, inclusive como tem sido relatado neste capítulo. Na equação 2, incorporando o efeito do adicional SECA, todos os resultados são consistentes com a equação anterior, com exceção da taxa tributária, agora com coeficiente positivo e significativo. Isso indica que maiores taxas acarretarão maiores infrações. Portanto, o autor conclui que o efeito do imposto adicional SECA tem de ser levado em consideração em estudos tributários, em função de sua influência no sinal do efeito da variação da taxa de 9 Variação percentual no montante omitido dividido pela variação percentual da taxa de auditoria. Detalhes sobre esse conceito ver em Varian (1994, p. 293). 61 tributação no nível de omissão dos rendimentos informados ao IRS por parte dos que recebem rendimentos por conta própria nos EUA. Pelo último estudo, viu-se que o IRS possui relatórios informando que a declaração voluntária de rendimentos dos que trabalham por conta própria está em patamar inferior ao dos assalariados. Aproveitando-se desse mote, pode-se apresentar as conclusões de um estudo correlato, o de Ali, Cecil e Knoblett (2001). Estes autores realizam um trabalho motivado, segundo eles, pela limitação das abordagens eminentemente teóricas de evasão, que possuem capacidade preditiva reduzida tanto pela ambigüidade de resultados obtidos quanto pelo excesso de suposições prévias; pela limitação das abordagens empíricas em termos de sua inadequação à situação real dos indivíduos auferindo rendimentos por conta própria; pelas restrições do acesso público à rica base de dados do programa TCMP do IRS e, por fim; pela falta de atenção geral em relação à riqueza das informações públicas divulgadas pelo relatório anual do IRS. Seu trabalho procura suprir tais limitações, modelando econometricamente a evolução no tempo do relacionamento entre o cumprimento tributário dos contribuintes que auferem rendimentos por conta própria e outras variáveis de política tributária, como taxa de tributação, taxa de auditoria, taxa de penalidade e nível e fonte dos rendimentos recebidos. Com esse objetivo, os autores utilizam-se dos dados do TCMP entre os anos de 1980 e 1995, envolvendo apenas os contribuintes que preencheram as cédulas C e F do formulário do IRS. Reconhecendo a aplicabilidade da abordagem do agenteprincipal, foram modeladas duas equações de comportamento, uma referente ao contribuinte e outra referente à agência tributária, assumindo-se que qualquer infração plausível de, na prática, ser detectada pelos órgãos tributários pode ser detectada pelo método de seleção usualmente empregado pelo IRS e, dessa forma, a taxa objetiva de auditoria pode ser considerada uma proxy para probabilidade de detecção de infrações. Contudo, há a suposição adicional de que a probabilidade de detecção (taxa de auditoria) é endógena ao problema e determinada conjuntamente pelas ações do contribuinte e agência. A Tabela 2 mostra os resultados obtidos para as estimativas das duas equações de comportamento propostas, sendo a primeira estimada por dois métodos distintos. A primeira coluna de estimativas refere-se ao contribuinte, tem por variável dependente o seu rendimento declarado e foi estimada por mínimos quadrados ordinários (MQO). A segunda coluna também se refere ao rendimento declarado pelo contribuinte, mas foi estimada por mínimos quadrados 62 em dois estágios (MQDE). A terceira coluna mostra as estimativas que explicam a taxa de auditoria do IRS e foi estimada por MQO. Os dados foram dispostos temporalmente e não foram consideradas defasagens nas variáveis. Tabela 2: Estimativas obtidas para as duas equações propostas por Ali, Cecil e Knoblett (2001) Resposta: Rendimento Declarado Variáveis independentes Resposta: Taxa de Auditoria Coeficientes (Erro Padrão) FormC RendimA (RendimA)2 Resposta: Rendimento Declarado -6.999,25 (7.520,8) -408,440 (9.854,00) -0,950 (1,42) 1,040* (0,04) 1,090*(0,066) 9,98x10-6 (7,44x10-6) -5,12x10-7* (9,09x10-8) -8,15x10-7* (1,66x10-7) -1,78x10-11 (-1,7x10-11) Taxa Aud 2.489,54* (930,62) 2.981,440 (4.086,3) 0,017* (0,0032) 0,055* (0,015) -3.740,99* (828,34) -9.797,930* (2.768,32) 6,240 (144,38) 75,500 (184,54) 0,0077 (0,026) -3,16 x10-4 (5,35x10-4) -0,0024** (0,0011) 9,21x10-8 (9,44x10-8) 278,250** (137,25) 446,730*** (257,59) 0,033 (0,024) 43,230 (140,42) 102,000 (177,77) -0,011 (0,030) 9,40x10-4 (6,62x10-4) 0,0013*** (7,94x10-4) -3,35x10-8 (1,30x10-7) -91,380 (161,92) -133,618 (257,37) 0,039 (0,030) (Taxa Aud)(RendimA) (Taxa Aud)(FormC) Taxa Trib (Taxa Trib)(RendimA) (Taxa Trib)(FormC) Taxa Pen (Taxa Pen)(RendimA) (Taxa Pen)(FormC) COA 0,140 (0,086) Ano -0,280 (0,19) Constante -11.336,40 (7.236,98) -16.266,70 (9.380,95) 563,72 (378,33) 87 87 87 N *significante ao nível de 1% ** significante ao nível de 5% ***significante ao nível de 10% Fonte: Adaptado de Ali, Cecil e Knoblett (2001). Onde Rendimento Declarado: Valor deflacionado do rendimento declarado pelo contribuinte médio (base 1983-1984), FormC: Variável dummy para captar o efeito do preenchimento do formulário C, RendimA: Valor do rendimento ajustado (rendimento real) após auditoria do contribuinte médio, Taxa Aud: porcentagem de declarações fiscalizadas, 63 Taxa Trib: Taxa marginal de tributação incidente sobre o contribuinte médio em relação ao seu rendimento declarado, Taxa Pen: Taxa de penalidade incidente sobre os tributos faltantes na declaração, COA: Custo operacional unitário de auditoria, Ano: Ano de referência do dado. Os principais resultados obtidos pela condução do trabalho são os seguintes: a principal variável explicativa dos rendimentos declarados é o rendimento do contribuinte. À medida que estes se elevam, os valores declarados elevam-se identicamente, mas a uma taxa decrescente e, por fim, estes declinam para níveis de rendimento mais elevados. A partir do coeficiente não significativo para a taxa de tributação e pelas interações envolvendo a mesma, verifica-se que sua elevação encoraja as omissões, sendo esse efeito mais acentuado para os contribuintes com rendimentos elevados e para os que preenchem a cédula F. Por outro lado, os valores declarados elevam-se com acréscimos nas taxas de auditoria e de penalidade. As interações permitiram aferir que tanto a taxa de auditoria quanto de penalidade fornecem políticas de contenção de omissões de rendimentos eficazes, principalmente para os que auferem maiores rendimentos e no caso de contribuintes que preenchem o formulário F. Finalmente, o trabalho de Alm, Bahl e Murray (1993) também abordou os contribuintes que auferem rendimentos por conta própria, no caso os da Jamaica. Seus resultados sugerem que a agência jamaicana utiliza efetivamente um critério de seleção não aleatório que tem por base as informações prestadas pelos contribuintes. Além disso, encontram outros resultados consistentes com alguns dos trabalhos já apresentados, como de que a taxa marginal de tributação e o valor dos rendimentos do contribuinte são positivamente correlacionados com a omissão de rendimentos. 2.5 Modelos teóricos de evasão considerando políticas de incerteza Identifica-se um grupo de pesquisas econômicas que, sem enfocar diretamente a seleção de contribuintes para fiscalização tributária, procura avaliar os efeitos de diversas alternativas de políticas fiscais governamentais no nível de evasão tributária, o que acaba por afetar indiretamente os aspectos de seleção de contribuintes. 64 Fazendo parte desse grupo está o estudo sobre se a existência de um nível tolerável de evasão tributária, conseqüência natural da utilização de algum critério não aleatório de seleção de contribuintes, como alguns dos que foram apresentados nas seções anteriores, deve ou não ser divulgado à sociedade. Reinganum e Wilde (1988) informam que, com base nas linhas do formulário de informação entregue pelos contribuintes, o critério DIF do IRS indica um possível grau de omissão de rendimentos. Também relatam ter o IRS informado em juízo que nem todos os que apresentam indícios de infração fiscal são efetivamente objeto de auditorias, já que têm de ser priorizados os indivíduos que apresentem maior relação custo/benefício de ação. Contudo os esforços no sentido de que fosse divulgado o nível de tolerância de infração foram todos anulados pelo IRS, que mantém esses níveis em segredo. Também no Brasil a prática tem sido se evitar ao máximo a divulgação, inclusive internamente, desses níveis toleráveis de infração tributária. Nesse contexto, existem estudos debruçando-se sobre essa questão, de forma a aclarar se efetivamente tanto segredo é de fato benéfico ou constitui-se em mais uma cautela sem fundamentação teórica ou prática. Com esse objetivo, os últimos autores modelam economicamente a hipotética situação do IRS e do contribuinte pessoa física, na qual em caso de detecção de alguma omissão por parte do contribuinte, o IRS deverá levar em consideração a relação custo/benefício da ação fiscal, e isso pressupõe que um certo grau de infração é tolerado pelo órgão. Em sua modelagem de jogo assimétrico tributário, os autores propõem um continuum de contribuintes reportando rendimentos x, sendo que há também uma correspondente variável aleatória contínua de rendimentos reais, I, aos quais está associada uma função densidade de probabilidade F(I), rendimentos estes que, se descobertos pelo órgão tributário, podem implicar na cobrança de tributos à taxa t e na imposição de penalidades monetárias à taxa θ, ambas sobre a parcela (I - x). Ocorre que sobre qualquer ação de fiscalização e cobrança recai um custo c, que não é conhecido por parte do contribuinte, pois, para ele, c é considerada uma variável aleatória com função densidade de probabilidade F(c). Com isso, a arrecadação da agência equivale a (tx), caso não haja ação fiscal, e a [tI + tθ(I - x) c], caso o contribuinte seja fiscalizado. Portanto, vale a pena forçar o cumprimento estrito da lei e fiscalizar o contribuinte somente se c < c’(x) = [t(1 + θ)(I - x)], ou, alternativamente, se x < x’(c) = I – c/t(1 + θ), caso contrário, a ação fiscal é 65 desconsiderada pelo órgão. Prosseguindo nesse escopo de modelagem e assumindo-se que ambos, agência e contribuinte, são neutros ao risco e só visam maximizar seus rendimentos, o estudo modela o comportamento de contribuinte e agência por meio das condições de primeira e segunda ordem para um mínimo ou máximo. Em relação ao contribuinte, o valor ótimo a ser reportado por ele, x*, é função de um grau de incerteza ε em relação ao nível tolerável de omissão de rendimentos admitido pela agência, [I - x’(c)], e mais I, t, θ e c. Nessas condições, a análise do valor de x* em função de variações em ε demonstra que à medida que ε se eleva (o que significa um aumento na dispersão da variável c), o valor do rendimento reportado aumenta, não é afetado, ou decai, em função da taxa de penalidade ser maior, igual, ou menor do que um. Já no processo que responde pelos interesses do IRS, suas receitas tributárias ótimas, R*, variam em função de x*, I, t, θ, ε e c e sua equação de equilíbrio permite concluir a mesma relação anterior em relação ao acréscimo/decréscimo da receita tributária ótima R* em função da elevação de ε e variações em θ. Considerando-se um θ < 1, caso específico da legislação estadunidense à época do estudo, a análise permite concluir por um equilíbrio, entre os valores declarados e as receitas tributárias, a um nível intermediário de ε, recomendando, portanto, ao IRS a manutenção de um relativo sigilo neste campo, alertando-se, ainda, para o fato de que um grau de incerteza ao limite não é garantido em termos de aumento de arrecadação. Em relação a esse ponto, é importante ressaltar que no Brasil vivenciou-se até a edição da lei nº 9.430, de 26 de dezembro de 1996, uma multa por infração no valor de 100%. Esse valor foi reduzido após a vigência da referida lei para 75%. Isso indica que no momento, de acordo com o último estudo, o Brasil vive a mesma situação dos EUA (em 1988) em relação ao grau de incerteza a ser imposto ao contribuinte em termos de critérios de seleção e grau de tolerância à infração. Também abordando a incerteza que permeia a decisão tributária do contribuinte, o trabalho de Beck e Jung (1989a) isola dois efeitos em sua modelagem econômica, um em relação a um hipotético grau de tolerância à infração por parte do órgão tributário, devido ao indefectível custo unitário envolvido em uma ação fiscal, e outro em relação à complexidade da legislação tributária. Em seu estudo, eles relacionam que muitos trabalhos anteriores não relaxam duas das condições originalmente propostas pelo mencionado modelo básico de evasão tributária do início da década 66 de setenta, quais sejam, de que o contribuinte conhece uma taxa de penalidade proporcional à infração e que é transferida à agência tributária juntamente com o tributo devido, e conhece também uma probabilidade objetiva fixa de ser fiscalizado. Essas duas suposições são claramente rígidas em relação ao mundo real. Por isso, seu trabalho flexibiliza a penalidade de forma a que sejam avaliados os efeitos de diferentes estruturas punitivas em relação ao tributo omitido. No caso, são consideradas as penalidades tradicionais e também a possibilidade de imposição de penalidades conhecidas como não transferíveis ao órgão tributário. Estas se caracterizam por serem não proporcionais ao tributo devido, já que em um ambiente de incerteza tributária para ambas as partes, muita coisa pode acontecer durante uma auditoria que possa fazer com que a penalidade decaia em relação à sua previsão proporcional inicial. No Brasil, por exemplo, se o contribuinte paga seu débito até o prazo de vencimento, que se dá em 30 dias contados da data da ciência, a multa é reduzida em 30%. Além disso, tais penalidades também se caracterizam por serem não totalmente transferíveis ao órgão tributário, já que os dispêndios de tempo e de dinheiro do contribuinte durante a fase de auditoria são teoricamente considerados como parcelas desta penalidade. Além disso, ao ponderar de forma sensata que as próprias informações prestadas pelo contribuinte afetam a sua probabilidade de ser fiscalizado, o trabalho flexibiliza também a taxa de auditoria, fazendo com que o contribuinte faça um juízo de valor em relação aos efeitos de suas decisões tributárias no incremento ou decréscimo de sua probabilidade posterior, p, de ser fiscalizado. Essa última flexibilização procura justamente suprimir uma das limitações identificadas no trabalho de Joulfaian e Rider (1998), no qual se relatou que a sensação de probabilidade de ser fiscalizado percebida pelo contribuinte depende de suas próprias ações ao declarar rendimentos, sendo distinta da probabilidade objetiva de ser fiscalizado. O trabalho de Beck e Jung (1989a) considera que o processo decisório da agência, que se assume que seja neutra ao risco e se comporte racionalmente, sabedora que é da análise prévia executada pelo contribuinte em relação às suas possibilidades de ser auditado, envolve decidir sobre como classificar os contribuintes com base em certos critérios, de forma a que suas ações fiscais retornem os maiores valores possíveis, levando-se em consideração o custo c dessas ações. Contudo, a incerteza da agência reside no desconhecimento do rendimento real do contribuinte. Já no processo decisório do contribuinte, ele deve 67 decidir quanto declarar em função de seu rendimento real, taxa tributária e de penalidade, e agora também de seu juízo de valor p. De posse dessas informações ele estima o potencial benefício que sua declaração conferiria à agência, caso fosse fiscalizado. Entretanto a decisão fica embaraçada pela sua ignorância em relação ao custo unitário de uma ação fiscal, o que em última instância significa o ponto de corte da agência em termos de tolerância às infrações fiscais. Utilizando o conceito de equilíbrio seqüencial de Kreps e Wilson (apud BECK e JUNG, 1989a, p. 473), uma vez que a primeira decisão é do contribuinte e só depois a agência pode decidir sobre a sua, o delicado equilíbrio de jogo entre essas duas estratégias é analiticamente encontrado e suas principais implicações são expostas no Quadro 1. Quadro 1: Efeitos de fatores políticos e ambientais nas condições de equilíbrio entre contribuintes e agência tributária Penalidades Fator Proporcional Não Transferível +/- - + +/+ +/+/- +/+/- + +/+ Aumento da Penalidade: Omissão de Receitas SPF Aumento da Taxa Tributária: Omissão de Receitas SPF Aumento da Incerteza Quanto ao Custo de Auditoria: Omissão de Receitas SPF Aumento da Incerteza da Legislação: Omissão de Receitas SPF Onde SPF: Sensação de Probabilidade de ser Fiscalizado; (+/-): indica divergências variando em função de relações específicas entre os demais parâmetros do modelo econômico. Fonte: Adaptado de Beck e Jung (1989a). De maneira geral as conclusões que podem ser extraídas do Quadro 1 indicam que o aumento da taxa de penalidade, taxa de tributação e incerteza da legislação diminuem a propensão à infração quando a penalidade é proporcional ao tributo devido e é transferível ao órgão tributário. Além disso, como já foi sugerido por Reinganum e Wilde (1988), o aumento da incerteza em relação ao custo da ação fiscal (ponto de corte) pode aumentar ou diminuir a propensão a cometer infrações, dependendo das condições iniciais estabelecidas para alguns dos parâmetros. Já no 68 caso das penalidades não transferíveis e não proporcionais ao imposto faltante, o aumento da taxa de tributação e da incerteza em relação à legislação pode aumentar ou diminuir a propensão à infração tributária. Assim a incerteza quanto à legislação é afetada pela estrutura da penalidade, enquanto que a incerteza quanto ao custo da ação fiscal (ponto de corte) não depende da estrutura da penalidade, embora apresente resultados ambíguos em ambas as estruturas consideradas. Em termos de implicações em políticas de tributação, os autores afirmam que é tradicional o entendimento de que a complexidade legal é necessária para suportar um certo nível de bem estar social, e também de que ela é resultado do lobby efetuado no Poder Legislativo pelas categorias que se beneficiam por essa situação. Mas, de acordo com o Quadro 1, a complexidade legal, que aumenta a incerteza do contribuinte em relação à legislação, provoca um decréscimo na propensão à omissão de rendimentos, já que é senso comum entre os contribuintes de que eles enfrentam uma taxa proporcional de penalidade. Por isso, na realidade, a complexidade legal pode estar sendo suportada pelas próprias agências de forma a manterem seus níveis de arrecadação. Outra conclusão teórica importante, que não está traduzida no Quadro 1, é que, segundo os autores, a menos da situação em que a probabilidade percebida de ser fiscalizado seja superior a 50%, a elevação da incerteza quanto ao custo de auditoria, que afeta o ponto de corte na seleção de contribuintes, leva a uma menor propensão do contribuinte a cometer infrações. Como é muito difícil, por questões orçamentárias, que a força de trabalho governamental permita que aquela probabilidade se eleve acima de 50%, seria recomendável aos órgãos tributários a não divulgação de seus critérios de seleção e de seus níveis de tolerância publicamente. Corroborando esse resultado em relação à complexidade da legislação, no trabalho de Scotchmer (1988) prova-se teoricamente que existe um ponto ótimo em que o resultado da arrecadação tributária é máximo, e que requisita um determinado grau de incerteza do contribuinte em relação ao correto atendimento à legislação tributária. Nesse trabalho também se considera a teoria de evasão básica contando com a maximização dos interesses monetários, mas adiciona-se um novo ingrediente, a possibilidade dos contribuintes reduzirem suas incertezas por meio de consultorias tributárias. Nesse mesmo sentido, em relação à complexidade da legislação, também concluiu o já citado trabalho de Beck e Jung (1989a). 69 Também abordando esses aspectos de incerteza tributária, Forest e Sheffrin (2002) procuram elucidar, por meio dos dados da pesquisa de opinião do contribuinte efetuada pelo IRS em 1990, se a simplificação da legislação tributária dos EUA poderia levar a uma melhoria na contenção dos níveis de infração à legislação tributária do imposto de renda das pessoas físicas naquele país. Em relação à metodologia de trabalho, inicialmente os autores informam que a amostra original de respondentes foi reduzida em função da não consideração das respostas "não sei". A análise econométrica parte da hipótese inicial de que a relação complexidade/evasão é mediada por uma estrutura intermediária: Complexidade ⇒ Sensação de Injustiça ⇒ Evasão Essa estrutura é, então, estudada por meio da modelagem logística recursiva apresentada em Maddala (apud FOREST e SHEFFRIN, 2002, p. 1983), que resultou em um modelo probit ordinal com o objetivo de aclarar os fatores que influenciam cada um dos estágios desse relacionamento mediado pela injustiça. As conclusões finais apontam que não é esperado que uma maior simplificação da legislação tributária estadunidense leve a maiores níveis de cumprimento tributário, ao menos com base nos resultados da referida pesquisa de opinião utilizada. Não houve a presença significativa de ligação sistemática (correlação) entre os referidos estágios. Como limitação do trabalho, os autores alertam que ele se fundamenta em uma pesquisa de opinião que não está isenta de viés. Em outro trabalho de modelagem econômica de autoria de Beck e Jung (1989b), é também considerado o efeito da incerteza do contribuinte em relação à legislação tributária. Consistentemente com trabalhos prévios, incrementos na probabilidade objetiva de ser fiscalizado, na taxa proporcional de penalidade e no nível de aversão ao risco do contribuinte implicam em maiores cumprimentos tributários. Já outros fatores são considerados interdependentes com estes parâmetros e produzem resultados tanto consistentes quanto divergentes em relação aos obtidos por outros autores, como no caso da taxa de tributação. A elevação desta, no caso do contribuinte avesso ao risco, provoca maiores valores declarados, caso a taxa de penalidade seja proporcional ao tributo faltante, e isso é consistente com o Quadro 1. Por outro lado, o contribuinte neutro ao risco não afeta sua decisão em função de alterações na taxa de tributação. Já a alteração na incerteza em relação à legislação tributária interdepende das taxas de tributação e de penalidade, da probabilidade de 70 auditoria e das preferências do contribuinte em relação ao risco. A conclusão dos autores é que o aumento dessa incerteza levaria à diminuição de evasão tributária, caso os parâmetros associados a maiores cumprimentos (taxa de penalidade e probabilidade objetiva de ser auditado) já fossem elevados. Caso contrário, os ganhos na contenção de omissões de rendimentos são atenuados, e por isso, a incerteza em relação à legislação é considerada como uma espécie de reforço aos incentivos já existentes. 2.6 Modelos teóricos de evasão considerando efeitos sóciocomportamentais Foram apresentados até aqui trabalhos que utilizam intensivamente a teoria básica em que a opção do contribuinte por omitir ou não rendimentos passa pela maximização de seu rendimento líquido, à luz de uma probabilidade de detecção e conseqüente punição, ponderada por seu posicionamento em relação ao risco. Contudo, a taxa de fiscalização de contribuintes nos EUA situa-se na faixa de menos de 1%, e, além disso, as penalidades pagas constituem-se em uma fração dos tributos faltantes. É intuitivo que outros fatores devem explicar o pagamento espontâneo de tributos que não somente esses clássicos fatores (ALM, 1991). Apesar de a modelagem básica ter apresentado resultados teóricos e práticos relevantes à pesquisa em evasão, ela parte de um princípio reducionista da natureza humana que é contrário à observação dos fatos reais. A título de ilustração da complexidade de fatores decisórios a serem considerados no âmbito tributário, podese rememorar a história do escritor estadunidense Henry David Thoreau, autor do clássico "A desobediência Civil", que em 1837 recusou-se ao pagamento dos impostos devidos ao governo dos EUA em protesto contra a má vontade estatal em combater de forma ativa a escravidão. Ele teve de amargar uma noite na cadeia (ERARD e FEINSTEIN, 1994). Assim, muitos fatores sociais e comportamentais têm sido considerados nas modelagens econômicas de evasão, implicando em estudos tributários cada vez mais complexos, porém, em contrapartida, mais aproximados à realidade. Suas principais propostas e resultados vão, então, relacionados sinteticamente nesta seção. 71 Fazendo parte dessa iniciativa, o estudo de Erard e Feinstein (1994) representa substantivo avanço no esforço de atrair mais à realidade as abordagens teóricas, ao considerar, em suas análises matemáticas, o conceito de honestidade/desonestidade. Com efeito, nem sempre o contribuinte parece agir de acordo com o homo-economicus, sendo por vezes honesto a ponto de recusar incentivos à evasão, o que justifica a incorporação desse conceito às modelagens tributárias, havendo inclusive indícios científicos disso apresentados em Alexander e Feinstein (apud ERARD e FEINSTEIN, 1994, p. 9). Erard e Feinstein (1994) partem de modelagem inicial similar às já apresentadas, em que há um continuum de contribuintes reportando rendimentos x, e auferindo rendimento reais, I, aos quais está associada uma função densidade de probabilidade f(I). Assume-se que os contribuintes fazem parte de determinadas classes de auditoria, de forma que há tantas f(I) quantas classes existentes. O contribuinte é considerado neutro ao risco e deseja maximizar seu rendimento líquido. Existe uma probabilidade dele ser fiscalizado p(x), e caso isso ocorra e seja descoberto um rendimento real I > x, ele paga um valor t(I - x) de imposto, à taxa constante t, e uma penalidade θ(I - x), à taxa proporcional θ, sendo que todos esses elementos influenciam em sua decisão de quanto reportar, x. A solução, similar à já obtida por diversos autores, chega a uma maximização cuja condição de primeira ordem relaciona um único rendimento real correspondente a um único montante de rendimento declarado. Condicional aos valores declarados, a agência escolhe uma função de auditoria p(x) que maximiza seu resultado líquido obtido com a cobrança dos impostos e penalidades, sujeito a um orçamento prévio e a um custo unitário de auditoria constante. A situação de contribuintes que desejam declarar corretamente pode ser incorporada a essa modelagem pela suposição adicional de que em cada nível de rendimento exista uma fração Q de contribuintes que declare sempre de forma honesta. Ocorre que isso acaba com a maioria dos equilíbrios já encontrados na modelagem teórica, haja vista que agora as classes e suas funções p(x) devem atender às situações envolvendo contribuintes honestos e desonestos. A modelagem com esse advento qualitativo apresenta ponto ótimo para a agência sensível ao nível de Q, requisitando simulações para que as análises de diferentes políticas públicas possam ser sintetizadas. Portanto, no estudo são simuladas várias funções de auditoria p(x) para as situações de Q = 0, Q = 0,2 e Q = 72 0,5. Em todas as funções, o rendimento real do contribuinte distribui-se de acordo com a função densidade de probabilidade log-Normal truncada. Os resultados indicam que baixos rendimentos declarados associam-se a maiores chances de serem fiscalizados. Além disso, demonstra-se que a carga tributária, que encerra o conceito de razão entre o valor esperado dos tributos e penalidades pagas e os rendimentos reais totais, é regressiva (diminuindo com a elevação do rendimento real) para uma larga faixa de rendimentos reais de contribuintes desonestos. Já para os contribuintes honestos, utilizou-se nas simulações uma carga fixa à taxa de t = 0,3. Mas é claro que em caso de auditoria, a carga tributária posterior imposta aos desonestos será superior à regular. Contudo, para obtenção desse resultado a simulação teve de fixar certas quantidades arbitrariamente, assim como a forma funcional da densidade de probabilidade dos rendimentos reais, de maneira que se demonstra que, com o advento do controle de honestidade pelo modelo, a efetiva regressividade ou progressividade do sistema tributário varia em função dos parâmetros Q, t, θ, da forma funcional da referida função densidade dos I, do custo de auditoria e do orçamento da agência tributária. O mais importante é que os autores alertam que em sistemas tributários com severas restrições orçamentárias, ou em que o custo de auditoria seja elevado, implicando em uma probabilidade objetiva de ser fiscalizado bastante reduzida, a carga tributária para os contribuintes desonestos tende a ser substancialmente inferior à dos honestos, situação essa não desejada, porém, diga-se de passagem, não muito difícil de ocorrer em tempos de dificuldades econômicas globais. As limitações desse último trabalho são de identificação imediata: Q é considerada exógena ao problema de evasão, e, além disso, não pode variar em função dos rendimentos recebidos, o que já se viu que é irreal. Outros trabalhos diversos seguem evoluindo as modelagens teóricas ao incorporarem mais e mais fatores multidisciplinares como possivelmente determinantes da evasão tributária. Dentre esses pode ser citado o trabalho de Linster (1997) que encontra graficamente o ponto de equilíbrio entre evasão e arrecadação tributária ao longo de uma população contando com diferentes gradações de aversão ao risco. O trabalho de Andreoni (1992), que modela a situação tributária do contribuinte neutro ao risco que maximiza sua renda líquida, mas sofre com restrições de crédito ou de liquidez. O autor mostra que esse contribuinte tem uma motivação a mais para evadir tributos: aproveita-se do 73 inevitável tempo decorrido entre o cometimento de uma infração, sua possível seleção por parte do órgão tributário e a efetiva ocorrência de uma auditoria, para avaliar se vale a pena reportar rendimentos a menor ao fisco visando transferir recursos do futuro para o presente e eliminando assim suas constrições momentâneas. O autor propõe que a agência tributária, nessas situações, assuma positivamente a existência desse intervalo de tempo para a ação e trabalhe de forma não a visar à maximização de suas receitas líquidas, mas sim ao bem estar social da população, admitindo essa possibilidade de tomada de crédito ao Estado por parte do contribuinte. Ainda, os trabalhos de Beck e Jung (1989b) e de Erard (1993) que consideram a utilização de especialistas tributários e contábeis na preparação das declarações do contribuinte e seus possíveis efeitos na evasão de tributos. O trabalho de Chung e Trivedi (2003), que considera os efeitos do sexo do contribuinte e da utilização da persuasão amigável no nível de evasão tributária. O trabalho de Davis, Hecht e Perkins (2003) considera os efeitos dos comportamentos sociais no nível de evasão tributária. Horowitz e Horowitz (2000) analisam o efeito da opção entre trabalho e lazer na modelagem econômica tributária entre contribuinte e agência. Encerrando essa lista não esgotada de trabalhos explorando efeitos sóciocomportamentais, Rhoades (1999) quebra o conceito de um único valor de rendimento a ser declarado, estabelecendo uma modelagem flexibilizada em que se reporta um valor multicomponente à agência tributária, o que claramente se aproxima à situação real. 2.7 Experimentos para avaliação de efeitos sócio-comportamentais em evasão tributária Viu-se ao final da seção anterior que fatores comportamentais e sociais devem ser considerados nas análises de evasão e as modelagens teóricas têm aceitado esse desafio. Isso também pode ser empreendido pela criação de ambientes microeconômicos em laboratório, por meio do planejamento e análise de experimentos. Uma das vantagens é que estes não ficam constrangidos por excessivas suposições e simplificações, permitindo maior flexibilidade na incorporação de efeitos de difícil avaliação por modelagens puramente teóricas. O primeiro trabalho experimental tributário foi executado por Friedland et al. (1978), que, ao examinar como as respostas individuais em termos de rendimentos 74 declarados variam em função de alterações nos fatores quantitativos taxa de tributação, taxa de penalidade e probabilidade de ser fiscalizado, conclui por um maior cumprimento da legislação tributária nos casos de elevação da taxa de penalidade e da probabilidade de ser auditado, principalmente no caso da primeira. Esses resultados são bastante consistentes com os trabalhos econômicos teóricos. Já uma elevação na taxa de tributação eleva a probabilidade e a magnitude das omissões de rendimentos. A partir desse trabalho, diversos outros têm adotado essa mesma linha nos últimos anos (ALM, 1991). É oportuno que nesta pesquisa fique registrado em linhas gerais como se dá o delineamento de um experimento tributário. Para tal recorre-se ao estudo de Alm, Jackson e Mackee (1992) onde se relata que uma das grandes dificuldades da pesquisa empírica sobre comportamento tributário é a ausência de informações confiáveis sobre as escolhas tributárias dos contribuintes, já que não lhes é interessante divulgar suas opções. Com efeito, nos EUA, grande parte dessa pesquisa tem sido realizada com base nos dados do TCMP. Contudo, os autores informam também que esses dados, até recentemente àquele momento, eram relacionados ao ano de 1969, sendo, portanto, bastante antigos. Dessa forma, ou os pesquisadores optam por dados desatualizados, ou então partem para pesquisas de campo em meio aos próprios contribuintes, mas esbarrando justamente no mutismo geral em torno do tema tributário. Assim, a pesquisa dos autores fundamenta-se em dados originados por experimentos conduzidos em laboratório utilizados para estimar a resposta individual do contribuinte pessoa física frente às diversas alterações nas políticas tributárias, situação típica em que a existência de dados relacionados é inexistente ou de difícil obtenção. O projeto do experimento considera o tradicional sistema de relacionamento existente nas modelagens econômicas de sistemas sócio-tributários. O indivíduo percebe rendimentos e paga os tributos devidos com base no valor declarado ao órgão competente; existe uma probabilidade dele ser selecionado para fiscalização e, eventualmente, o indivíduo estará sujeito às penalidades legais caso haja detecção de alguma evasão de sua parte. O indivíduo pode também receber um benefício público, a depender do nível do somatório dos pagamentos de todo o conjunto de indivíduos. Nesse contexto, diversas alternativas de políticas públicas são impostas e seus efeitos sobre os valores declarados registrados. 75 A transposição desse projeto para a prática se deu com a realização de um experimento contando com quatro fatores, quais sejam: taxa de tributação (níveis 0,10, 0,30 e 0,50), probabilidade objetiva de auditoria (níveis 0,02, 0,04, 0,06), taxa de penalidade (níveis 1,0, 2,0 e 3,0) a ser paga pelo valor não reportado, e presença/ausência de um benefício público (em dois níveis). Saliente-se que nem todas as combinações possíveis para os níveis dos fatores foram consideradas nas oito sessões experimentais. Cada sessão contou com vinte e cinco rodadas (sendo as cinco primeiras de prática instrucional). Cada uma das sessões do experimento foi replicada concorrentemente em três grupos contando com cinco pessoas distintas, sendo que ao final de cada sessão os indivíduos eram realocados em três novos grupos de cinco. Isso perfez, então, 300 repetições válidas para cada uma das oito sessões consideradas. No início da primeira rodada, os indivíduos (unidades experimentais), devidamente identificados, receberam dez unidades monetárias simbólicas (UMS). Ao final de cada rodada, cada um deles tinha direito, com base em um critério aleatório, a auferir uma das cinco faixas de rendimento disponíveis - essa era uma informação mantida em sigilo - e, com base nela, escolhia o valor de renda a reportar e efetuava o pagamento dos tributos por ele devidos, com base na taxa de tributação válida para aquela sessão. O valor porventura omitido à tributação não era taxado e penalizado em um primeiro momento, contudo existia uma probabilidade do indivíduo ser selecionado para fiscalização, o que caso ocorresse, englobaria a totalidade dos valores não reportados nas rodadas anteriores da mesma sessão. A probabilidade objetiva de fiscalização era ajustada com base em um globo contendo uma bola indicadora para cada indivíduo e mais algumas bolas adicionais em branco cuja quantidade variava em função da política tributária definida para cada sessão (no caso a probabilidade de ser auditado). Ao final de cada rodada, uma bola era retirada do globo de forma a indicar se haveria algum indivíduo selecionado para fiscalização. O experimento contou com indivíduos voluntários, sem nível superior, e sem registro de participação em experimentos, que foram informados de que ao fim do experimento as UMS porventura por eles acumuladas ser-lhes-iam remuneradas devidamente convertidas em espécie. A duração média de cada sessão foi de uma hora, sendo que o custo médio de cada sessão foi de 300 UMS. Ao final de todo o processo, cada indivíduo ganhou entre 15 e 25 UMS. A partir da realização do experimento e dos resultados obtidos, os autores sugerem que o valor de renda declarado pelo contribuinte ao 76 final de cada rodada segue a seguinte equação, que foi estimada a partir de um modelo hipotético inicial de pesquisa: ^ DECLARED = −0,1458 + 0,3943 ⋅ INCOME − 2,3630 ⋅ TAXRATE + 0,0252 ⋅ FINERATE + 5,7502 ⋅ AUDITRATE − 0,4068 ⋅ PUBLICGOOD + (2.5) 0,9153 ⋅ PUBLICGOOD ⋅ GROUPFUND Onde DECLARED: valor do rendimento informado pelo indivíduo, INCOME: é o rendimento recebido pelo indivíduo, TAXRATE: valor da taxa de tributação incidente sobre o valor declarado, FINERATE: penalidade imposta sobre os valores omitidos, AUDITRATE: probabilidade objetiva de ser fiscalizado, PUBLICGOOD: variável dummy com o objetivo de captar o efeito de concessão do benefício público, GROUPFUND: valor acumulado de benefícios recebidos por cada indivíduo até a rodada anterior. Essa equação foi estimada utilizando-se regressão tobit, já que DECLARED foi censurada em zero. Esse resultado permitiu aos autores concluir principalmente que maiores rendimentos e maiores probabilidades de ser fiscalizado efetivamente levam a maiores valores declarados voluntariamente. Já um acréscimo na taxa de tributação responde por menores valores reportados. Mas os autores alertam que esse último ponto é bastante controverso em termos de resultados teóricos e empíricos obtidos em pesquisas anteriores, como inclusive já pôde ser verificado ao longo deste capítulo. Além disso, maiores penalidades causam maiores valores declarados, de acordo com o coeficiente de FINERATE, porém este foi não significativo e isso se justifica, segundo os autores, pelas baixas probabilidades objetivas de fiscalização verificadas na prática e, também, as consideradas no experimento, variando entre 2% e 6%. Isso faz com que ela seja relativamente indiferente ao indivíduo. Em relação a essa probabilidade objetiva, sua elevação influencia positivamente os valores declarados espontaneamente, um resultado coerente com os obtidos por diversos outros estudos. Contudo, ela nem sempre representa um remédio adequado à evasão tributária, em função dos custosos 77 recursos humanos e materiais requisitados para sua elevação de forma sensível. A presença de benefício público é pouco significativa estatisticamente, e ademais seu coeficiente é negativo. Por outro lado a interação entre o benefício público e o montante de benefícios acumulados pelos indivíduos possui coeficiente positivo e significativo, o que sugere que os indivíduos desejam receber os benefícios públicos, sem, contudo, contribuir para tal. Como principal limitação de seu trabalho, os últimos autores alegam que os resultados são fruto de um experimento artificial que, em última instância, não reproduz todas as condições da realidade. De fato, este último trabalho não levou em consideração as diferentes propensões ao risco existentes entre indivíduos, e que foram consideradas em Beck, Davis e Jung (1991). Este envolve um experimento semelhante ao descrito, com a diferença de que, inicialmente, formulam-se as hipóteses prévias de pesquisa por meio da modelagem matemática das relações econômicas entre contribuinte e órgão tributário, sendo as principais: H1: ceteris paribus, sob a neutralidade de risco, o valor declarado aumenta com o aumento da taxa de penalidade e da probabilidade de auditoria; H2: ceteris paribus, sob a neutralidade de risco, o montante declarado não é afetado pela taxa de tributação; H3: o aumento na taxa de tributação, sob aversão ao risco, resulta em maior valor declarado; e H4: o aumento (de um valor ∆) na incerteza em relação ao correto cumprimento tributário, sob aversão ao risco, resulta em maior (menor) valor declarado, quando ∆ é maior (menor) do que um determinado valor de equilíbrio denotado por Z (a equação que fornece o valor de Z pode ser acessada no texto integral do trabalho). Posteriormente, para avaliar empiricamente as hipóteses prévias, realizam-se os experimentos para aferir os efeitos da combinação nos níveis dos fatores quantitativos, quais sejam, taxa de tributação, probabilidade de auditoria, e penalidade aplicável, e do fator qualitativo incerteza (alta ou baixa), isso em dois grupos distintos de universitários de graduação (112 unidades experimentais), os avessos ao risco e os neutros ao risco. As preferências em relação ao risco foram medidas a partir de um instrumento do tipo questionário e de técnicas adequadas para esse fim. 78 Seus resultados relatam que, para os contribuintes neutros ao risco, as hipóteses um e dois se confirmam: são reportados maiores valores de rendimentos quando da imposição de maiores taxas de penalidade e de probabilidade de auditoria. Já a taxa de tributação não foi significativa, e confirmou-se a hipótese três, ela não afeta o comportamento desse tipo de contribuinte. Além disso, esse comportamento é afetado por dois tipos de interação, probabilidade de auditoria e incerteza, e taxa de penalidade e incerteza. Neste caso, entenda-se por incerteza a já considerada complexidade da legislação tributária. Em relação às interações, a conclusão é de que uma redução na incerteza leva a maiores rendimentos declarados a baixas taxas de penalidade, mas por outro lado leva a menores rendimentos declarados a elevadas probabilidades de auditoria. Saliente-se que alguns dos resultados obtidos em relação aos contribuintes neutros ao risco são distintos dos relatados por Alm, Jackson e Mackee (1992). Para os contribuintes avessos ao risco os resultados não são tão relevantes e as hipóteses três e quatro são marginalmente significantes, respectivamente (p < 0,077) e (p < 0,069). As principais limitações identificadas para esse trabalho experimental estão relacionadas à vinculação prévia das hipóteses de pesquisa à modelagem econômica, e assim, todas as limitações e simplificações inerentes às modelagens teóricas transferem-se, ato contínuo, ao experimento. Um trabalho que agregou informações psicológicas, sociais e morais aos experimentos é o de Trivedi, Shehata e Lynn (2003). Nele estudam-se os efeitos de três fatores contextuais qualitativos (eqüidade/iniqüidade da taxação em quatro níveis, presença/ausência de auditorias em dois níveis e comportamento tributário dos pares em três níveis) no nível de cumprimento das obrigações tributárias. Contudo, esses efeitos são ajustados pela consideração de variáveis individuais quantitativas e qualitativas, quais sejam, reação frente ao risco, desenvolvimento moral, orientação de valor, idade, renda familiar, nível educacional, sexo, situação empregado/desempregado e experiência como contribuinte. Por meio da aplicação de um instrumento do tipo questionário em uma universidade do Canadá, o desenvolvimento moral, a orientação de valor e a reação frente ao risco dos indivíduos foram medidas por meio de técnicas consagradas para esse fim. Esclarecendo, um maior desenvolvimento moral está associado a maiores noções de justiça, sociedade e direitos e obrigações individuais. Já a maior orientação de 79 valor está associada a maiores níveis de atenção ao bem comum. O objetivo é testar quatro hipóteses prévias de pesquisa, quais sejam: H1a: o cumprimento tributário não depende do nível de desenvolvimento moral do contribuinte; H1b: o cumprimento tributário não depende do nível de orientação de valor do contribuinte; H1c: o cumprimento tributário não depende do nível de propensão ao risco do contribuinte; H2: o cumprimento tributário não depende da presença ou ausência de auditorias; H3: o cumprimento tributário não depende da ciência sobre o comportamento tributário dos pares; e H4: o cumprimento tributário não é afetado (reduz-se) pela elevação da taxa de tributação em presença de eqüidade (iniqüidade) de tributação. Nesse contexto, os autores selecionaram como indivíduos participantes do experimento aqueles que pudessem ser enquadrados como potenciais representantes, independentemente da idade, da população adulta entre quarenta e quarenta e cinco anos, tipicamente a faixa etária mais populosa em termos de contribuintes ativos naquele país, e que também pudessem ser avaliados em termos de suas características demográficas e de preferências em relação aos fatores individuais considerados pelo estudo. Posteriormente, foram selecionados os 109 mais adequados, que foram alocados em cinco grupos distintos de tratamento e um de controle, que manteve as condições dos fatores contextuais constantes até o final. Os grupos de tratamento serviram de laboratório para alterações nos níveis dos fatores contextuais, quais sejam, presença/ausência de auditorias, equidade/iniqüidade de tributação e comportamento tributário dos pares. Com base em uma Análise de Covariância (ANCOVA) todas as hipóteses nulas foram rejeitadas. As principais conclusões em relação aos fatores individuais reportam que, embora a idade do contribuinte (coeficiente negativo) e a condição de contribuinte experiente (coeficiente positivo) não sejam significativas individualmente, essas características estão presentes nas interações significativas entre idade e preferência ao risco, e entre experiência como contribuinte e orientação de valor, ambas com coeficientes negativos, configurando-se para a primeira uma situação de reforço de efeitos e para a segunda um antagonismo de 80 efeitos, em relação a um maior cumprimento tributário. O nível educacional, o desenvolvimento moral e a orientação de valor são significativos individualmente, como seria de se esperar, apresentando coeficientes positivos. Já a preferência pelo risco é significativa, com coeficiente naturalmente negativo. Quanto às três condições de tratamento contextuais, os autores procederam a testes de médias considerando os seus diferentes níveis. A elevação da probabilidade de ser fiscalizado de 0% para 25% (este último um valor bastante elevado) efetivamente causou uma elevação no cumprimento tributário e os autores consideram que esse é um sinal de que não somente desenvolvimento moral e orientação de valor podem garantir a correta atenção às normas tributárias. Em relação à eqüidade/iniqüidade da taxação, a situação de eqüidade demonstrou diferenças significativas de médias sob distintas taxações, 10% e 30%, sendo o cumprimento mais favorecido pela menor dessas taxas. A situação de iniqüidade demonstrou um resultado interessante: embora a prestação da informação ao contribuinte de que seus pares estavam sendo taxados mais brandamente não tenha influenciado negativamente o cumprimento tributário, o caso inverso, em que o contribuinte foi informado estar sendo favorecido por menores taxações fez com que seus cumprimentos se elevassem. Isso é importante na medida em que abre uma nova frente para pesquisas, ao sugerir que a iniqüidade produz diferentes comportamentos tributários variando em função da posição relativa do contribuinte entre vítima ou beneficiário tributário. Finalmente, em relação ao comportamento dos pares, houve uma significativa diferença para menos nas médias de cumprimento tributário após a revelação da informação de que seus pares estavam declarando valores abaixo do efetivamente recebido. Significância essa que não se verificou quando a revelação consistiu em maiores valores declarados pelos pares. Esses resultados, se juntados ainda aos relacionados à iniqüidade, formam uma área ainda conflituosa em termos de efeitos tributários. Como limitações de seu trabalho, os autores identificam as mesmas já relatadas em relação aos experimentos em laboratório. O trabalho de Collins e Plumlee (1991) foi o primeiro a avaliar experimentalmente o relacionamento entre três esquemas distintos de seleção para auditoria e as taxas de tributação e de penalidade. Os esquemas de seleção variaram entre o puramente aleatório, um com base no valor declarado pelo contribuinte e em um ponto de corte 81 predeterminado, e um terceiro com base em uma estimativa do real rendimento do contribuinte fundamentada no seu nível de habilidade em auferir rendimentos. Observe-se que a definição desses três níveis implica em que a probabilidade de ser auditado passa a ser diferente para cada um deles, já que aos indivíduos não é admitido conhecimento a respeito dos valores declarados pelos demais participantes. Os principais resultados obtidos indicam que os indivíduos que recebem maiores rendimentos durante as sessões são os mais propensos à declaração com omissão. Já em relação aos esquemas de seleção utilizados ao final das rodadas, os resultados informam que os que utilizam algum tipo de critério são mais eficazes do que o puramente aleatório, sendo mais efetivos em presença de baixas taxas de tributação e altas taxas de penalidade. Finalizando, os autores não propõem nenhuma política de tributação específica, uma vez que recomendam estudos adicionais visando avaliar a sensibilidade dos resultados obtidos em face de maiores possibilidades de variação nos níveis dos fatores, principalmente taxas e recursos de auditoria e taxas de penalidade. Por fim, Alm e Mckee (2003) também avaliam os efeitos dos métodos de seleção de contribuintes nas omissões de rendimentos por meio de um experimento tributário nos moldes anteriormente descritos. Testam um critério puramente aleatório contra um critério não aleatório tendo por base uma simplificação do DIF empregado pelo IRS, considerando a distância entre o rendimento declarado pelo indivíduo e a média dos rendimentos declarados pelo grupo ao qual ele pertence para, com isso, efetuar a seleção. Ao reconhecerem a capacidade de coordenação dos grupos sociais, admitem também uma novidade experimental, a possibilidade dos indivíduos dos grupos de tratamento comunicarem-se entre si, após receberem as instruções e simularem o experimento, mas antes dele ser efetivamente iniciado. O objetivo aqui é possibilitar a discussão real que efetivamente ocorre nos grupos sociais de contribuintes. Os resultados advindos desse experimento primeiramente demonstram que o critério DIF simplificado resulta em elevados níveis de cumprimento tributário, já que os indivíduos apresentaram dificuldades em reportar rendimentos muitos baixos quando a ele submetidos. Contudo, verificou-se que a instituição da palestra entre os indivíduos permitiu-lhes uma considerável coordenação, o que resultou em níveis muito baixos de cumprimento tributário mesmo sob o DIF. Com o advento desse 82 efeito negativo, foi utilizado como medida adicional ao DIF um critério aleatório que restabeleceu, então, melhores níveis de rendimentos declarados. Dessa forma, em um ambiente em que os contribuintes sabem que a agência tributária utiliza um método não aleatório para seleção, e podem discutir estes aspectos entre si livremente, mesmo sendo os fundamentos do método mantidos em sigilo pela agência, os autores recomendam uma política tributária ótima ao IRS. Considerando-se que há um orçamento limitado para as operações, deve-se praticar a seleção e fiscalização de contribuintes com base no DIF, e caso o orçamento não se esgote, propõe-se a realização de mais algumas auditorias com base em algum outro critério não aleatório de seleção. Ao lado disso, deve ser feita a seleção de uma pequena amostra puramente aleatória de contribuintes para fiscalização, de forma a que seja impresso um certo grau de incerteza em relação às ações da agência, e, também, para a geração de novos dados para atualização contínua do método DIF. Concluindo, pode-se dizer que os experimentos vêm tendo utilização crescente em termos tributários, e outros trabalhos poderiam ter seus procedimentos apresentados aqui. Por concisão, pode-se relacionar que eles vêm apontando para os seguintes resultados principais: maiores taxas de tributação geralmente levam a maiores omissões de rendimentos (este ponto deve ser observado com reservas, a partir de todo o exposto neste capítulo); as elevações na taxa de penalidade e na probabilidade de ser fiscalizado têm o efeito de conter as omissões de rendimentos; muitos contribuintes superestimam suas chances reais de serem fiscalizados; os contribuintes declaram valores menores quando sentem que estão sendo tratados de forma tributária injusta em relação aos outros indivíduos; e, os indivíduos declaram mais rendimentos quando percebem que há efetivas políticas públicas que pessoalmente apóiam sendo suportadas pelos impostos pagos pela sociedade. Como limitações dos trabalhos experimentais, tem-se costumeiramente argumentado que os mais antigos nem sempre seguiam aspectos hoje cediços em termos de teoria de experimentação; outros nem sempre especificavam níveis para os fatores de forma condizente com o mundo real; e, também, que os participantes dos experimentos podem não ser representativos dos contribuintes. Entretanto, a maior crítica feita se refere à artificialidade. É claramente diferente a sensação de optar por omitir rendimentos em um laboratório de ensaio e no mundo real (ALM, 1991). 83 2.8 Medidas de evasão tributária da economia Como exemplo de estudo com o objetivo de medir o grau de evasão tributária em uma economia pode-se apresentar o trabalho de Engel, Galetovic e Raddatz (1998), que mede a evasão tributária envolvendo a arrecadação do Imposto sobre Valor Agregado (IVA) no Chile. Os autores informam que as medidas de evasão tomadas em trabalhos anteriores levam em consideração a comparação entre os pagamentos efetivos e o potencial teórico proporcionado pela observação das contas nacionais. Contudo esse método é afligido pela constatação de que mesmo estas não estão isentas de evasão, assim como de que os resultados obtidos não são passíveis de serem avaliados em termos de sua precisão. Assim, esse trabalho propõe-se a medir a evasão do IVA por meio do método do ponto fixo, enfocando especificamente a venda de bens e serviços em estabelecimentos comerciais. O método do ponto fixo é bastante utilizado em auditoria fiscal e consiste basicamente em alocar um auditor-fiscal em um ponto de venda das empresas por um período predeterminado de tempo, em geral por um dia. Assim, a evasão é medida comparando-se as vendas efetuadas neste dia de total controle fiscal, em que se assegurou não haver evasão, com as vendas escrituradas pelo contribuinte nos dias anteriores. Contudo, segundo os autores, esse método apresenta estimativas imprecisas em nível individual, já que existe uma variabilidade muito grande nas vendas diárias de uma empresa. Assim, seu método aperfeiçoa essas estimativas pelo reconhecimento de que alguns grupos de empresas são mais similares entre si. Dessa forma, as médias das estimativas de evasão pontuais são a base para as estimativas de evasão de cada um dos subgrupos, que por sua vez comporão as médias de evasão dos grupos, que por fim, resultarão em uma média global de evasão. Ocorre que os autores propõem uma ponderação para o cálculo da média em cada subgrupo, com base no coeficiente de variação (CV) estimado a partir das medidas de evasão individual de cada empresa. De fato, as vendas diárias escrituradas em cada empresa são consideradas variáveis aleatórias independente e identicamente distribuídas (iid) com função de distribuição log-Normal, pois assumem somente valores maiores ou iguais à zero, com média µ e variância σ 2 , porém, as vendas medidas para cada empresa i possuem seu próprio coeficiente de variação CVi = σ i / µ i . Além disso, de forma a ser descartada a possibilidade de que as observações de vendas nulas correspondam a dias em que efetivamente não 84 houve vendas, só compõem as estimativas agregadas de evasão as medidas tomadas em empresas que escrituraram pelo menos sete notas fiscais no dia do ponto fixo, número esse considerado razoável pelos autores para a assunção de que, uma vez verificado, a probabilidade de não haver vendas em alguns dos dias anteriores ao ponto fixo é muito baixa. O cálculo da estimativa média da evasão total da economia segue o mesmo processo em cascata ascendente, pois essa estimativa é ponderada em função da contribuição de cada grupo para a variabilidade total da medida de evasão. A realização desse procedimento descrito em uma amostra de 347 empresas, contando com o imprescindível apoio do Servicio de Impuestos Internos (SII) do Chile e de seus auditores-fiscais, produziu os seguintes resultados principais. A estimativa de evasão agregada de IVA devida a vendas de produtos ou serviços não escrituradas em notas fiscais alçou a marca de 24,4%, com erro padrão de 3,9%. Os setores com maior evasão estimada, com suas respectiva taxas de evasão e erros padrões, foram o de comércio atacadista, 73% e 12%, serviços financeiros diversos, 27% e 5%, e restaurantes e hotéis, 13% e 3%. Com esse trabalho, os autores provaram que no Chile, e possivelmente em todos os países, existe uma variabilidade na evasão tributária devida aos diferentes setores de atividades econômicas. Contudo, aqui algumas limitações devem ser levadas em consideração, principalmente a suposição de que sete notas fiscais seriam suficientes para a assunção de que houve vendas em todos os dias do período anterior ao ponto fixo. 2.9 Conclusões gerais do capítulo A partir da revisão de literatura efetuada, podem-se relacionar como principais conclusões, válidas para todos os tipos de contribuintes e considerando-se o imposto incidente sobre a renda, as seguintes: a) Todos os trabalhos convergem no sentido de que elevações na taxa de penalidade e na probabilidade de ser fiscalizado reduzem as omissões de rendimento e reprimem a evasão tributária; b) À medida que os rendimentos se elevam, as omissões de rendimentos são maiores; c) Não há consenso sobre os efeitos de elevações da taxa de tributação sobre a evasão tributária, observando-se diversos resultados ambivalentes ao longo desta 85 revisão de literatura, e com o complicador adicional de que este efeito parece variar em função de alterações em outras covariáveis atuantes no sistema econômicotributário; d) Os estudos teóricos e experimentais apontam para a maior eficiência dos métodos de seleção de contribuintes não aleatórios em relação aos puramente aleatórios; e) O sigilo em relação ao critério de seleção, e seu conseqüente nível de tolerância à infração, é favorável à agência tributária e promove a contenção de evasão tributária e uma maior arrecadação; f) Apresentaram-se diversos resultados indicando que contribuintes que se dedicam às mesmas atividades econômicas tendem a ser mais parecidos entre si do que contribuintes que se dedicam a atividades distintas, no que concerne a infração à legislação tributária, o que reforça o assumido na primeira hipótese de pesquisa; g) Os trabalhos empíricos enfocando especificamente a seleção de contribuintes para fiscalização são raros e, mesmo os existentes, só valem para poucos setores de atividades econômicas. Portanto, confirma-se aqui a segunda hipótese de pesquisa, já que esta revisão demonstrou claramente que a correlação de medidas existente entre contribuintes que praticam uma mesma atividade econômica não vem sendo considerada de forma sistematizada por estudos desse escopo, mas de forma pontual e limitada, em geral por meio de variáveis dummies com o objetivo de captar os efeitos de alguns poucos grupos de contribuintes; h) Verificou-se uma maior ênfase nos estudos enfocando as pessoas físicas, o que simplifica sobremaneira o enfoque de trabalho ao reduzir a incidência tributária a apenas um imposto, o de renda, e sujeitá-la a um menor número de variáveis. 86 3 MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS 3.1 Introdução Este capítulo aborda alguns aspectos relacionados aos Modelos Lineares Generalizados que subsidiam a posterior caracterização dos Modelos Lineares Hierárquicos. Assim, conceitos que envolvem os Modelos Lineares e Modelos Lineares Generalizados (MLG) detalhados em Dobson (2002), Neter e Wasserman (1974) e Neter et al. (1996), além de noções auxiliares de teoria estatística e de amostragem discutidas em Meyer (1975) e Cochran (1977), são abordados na seção 3.2. Na seção 3.3 são apresentados e formalizados os Modelos Lineares Hierárquicos (MLH), seguindo principalmente as noções descritas em Raudenbush e Bryk (2002) e Bryk e Raudenbush (1992). Os conceitos introduzidos nas seções 3.2 e 3.3 fundamentam a generalização da modelagem linear hierárquica com vistas a viabilizar sua aplicação às distribuições de probabilidade da família exponencial. Portanto, na seção 3.4 são formalizados os Modelos Lineares Generalizados Hierárquicos (MLGH) segundo o conceituado em Raudenbush e Bryk (2002). Estes tópicos em modelagem linear são considerados fundamentais para o entendimento e acompanhamento do processo de execução da presente pesquisa. 3.2 Modelos lineares generalizados A unidade de muitos métodos estatísticos é evocada por um modelo linear generalizado, à qual está vinculada a idéia de uma família exponencial de distribuições de probabilidades associadas a uma variável aleatória (VA). Considerando-se uma VA Y cuja distribuição de probabilidade de ocorrência dos elementos de seu espaço amostral esteja associada a um único parâmetro θ, podese dizer que essa distribuição pertence à família exponencial se sua função de probabilidade, ou, a depender do caso, função densidade de probabilidade, puder ser expressa por: f (Y ;θ ) = s (Y )t (θ ) exp[a (Y )b(θ )] Em (3.1), fazendo-se s (Y ) = exp d (Y ) e t (θ ) = exp c(θ ) , obtém-se: (3.1) 87 f (Y ; θ ) = exp[a(Y ) b( θ) + c(θ) + d (Y )] (3.2) Caso a (Y ) = Y , tem-se o caso da função de probabilidade na forma canônica. As funções d (Y ) , c (θ ) e b(θ ) são funções genéricas da família exponencial que são determinadas uma vez especificada a distribuição de probabilidade (Binomial ou Poisson ou Normal) a ser utilizada no estudo. A equação (3.2) é bastante genérica e aplicável a toda a família das distribuições exponenciais. No caso do MLG, ela possui certas características próprias interessantes, e que são enumeradas a seguir: 1. Considerando-se um conjunto de variáveis aleatórias independentes Y1 ,..., Yn , suas funções de probabilidades pertencentes à família exponencial apresentam a forma canônica (padrão), onde a( Y ) = Y , e dependem, cada uma delas, de um único parâmetro θ i , conforme abaixo: f (Yi ;θ i ) = exp[Yi bi (θ i ) + ci (θ i ) + d i (Yi )] (3.3) θ i , eles serão considerados como Se existirem outros parâmetros além de parâmetros de perturbação fazendo parte das funções, também conhecidas, bi, ci e di e sendo tratados como se fossem conhecidos. 2. As distribuições de probabilidades para todos os Yi 's são idênticas e apresentam a mesma forma exponencial, de maneira que os subscritos em b, c e d não são necessários formalmente e a função densidade de probabilidade conjunta dos Yi 's é dada pelo seguinte produtório: f (Y1 ,...,Yn ;θ 1 ,...,θ n ) = n ∏ exp[Y b(θ ) + c(θ ) + d (Y )] i i i (3.4) i i =1 Desenvolvendo-o tem-se que: ⎡ f (Y1 ,...,Yn ;θ 1 ,...,θ n ) = exp ⎢ ⎣ Em geral, os parâmetros n ∑ i =1 Yi b(θ i ) + n ∑ i =1 c(θ i ) + n ∑ i =1 ⎤ d (Yi )⎥ ⎦ (3.5) θ i não possuem interesse imediato, pois se admite que eles sejam distintos para cada um dos Yi e a modelagem nessas condições seria bastante embaraçosa. Na verdade o interesse é contar com um número menor de 88 parâmetros β1 , β 2 ,..., β p , p < n, que se apliquem a quaisquer i. Supondo-se que o valor esperado de Yi assuma um valor E (Yi ) = µi , e sendo então, para os MLG pode-se utilizar uma função de µ i uma função de θ i , µ i , tal que: g ( µi ) = x i β = η i T (3.6) Nessa equação g(.) é uma função de ligação, x i é um vetor de ordem (p x 1) de variáveis explicativas - por simplicidade de exposição não se considera o intercepto neste momento - e β é o vetor de parâmetros de ordem (p x 1) do modelo. Observese que com o advento da função de ligação, quaisquer tipos de variáveis resposta podem ser modeladas, sejam lineares ou não lineares, haja vista que a função de ligação associa essa resposta genérica esperada a uma função linear nos parâmetros, ou seja, está-se modelando na verdade uma transformação do valor esperado da VA resposta. Dessa forma, um MLG é composto por: 1. Variáveis resposta aleatórias Y1 ,..., Yn estatisticamente independentes que se consideram distribuídas de acordo com a mesma distribuição de probabilidades da família exponencial; 2. Um vetor β (p x 1) de parâmetros do modelo e uma matriz X de ordem (n x p) T formada por n vetores x i de variáveis explicativas, conforme segue: ⎡ β1 ⎤ ⎡ x11 L x1 p ⎤ ⎢ ⎥ ⎢ ⎥ β=⎢ M ⎥ e X=⎢ M O M ⎥ ⎢β p ⎥ ⎢ xn1 L xnp ⎥ ⎣ ⎦ ⎣ ⎦ 3. Uma função de ligação monótona e diferenciável: g ( µi ) = x i β = η i T (3.7) onde tem-se que: E (Yi ) = µ i (3.8) Utilizando-se dessa composição genérica, a escolha da função de ligação adequada ao modelo depende da natureza da resposta a ser estudada, se ela é contínua, binária, politômica, de contagem, ordinal etc. Com isso, é possível 89 identificar e utilizar a distribuição de probabilidades da família exponencial a ela aplicável. Exemplificando esse processo, e aproveitando que na parte executiva deste trabalho será abordado um caso em que se modela uma VA resposta binária, considere-se agora um experimento E, e que A seja um evento binário a ele − associado. Assume-se que P(A) = φ e P( A ) = 1 - φ , e que essas probabilidades mantêm-se constantes ao longo das n repetições de E. O espaço amostral deste experimento é dado por todos os conjuntos possíveis de {a1, a2,..., an} sendo que, − nele, ai ou é A ou A , a depender da ocorrência ou não do evento A na i-ésima repetição de E. Defina-se a VA de interesse Y como representando o número de vezes em que A ocorre, fato que se considera coloquialmente como um sucesso, em n repetições independentes de E. Os valores assumidos por Y são, claramente, 0, 1, 2,..., n; e a cada um desses valores está associada uma probabilidade P( Y = k) de ocorrência, sendo k = 0, 1, 2, ..., n. Essas definições do experimento levam diretamente a que Y siga a conhecida distribuição Binomial de probabilidades com parâmetros n e φ, em relação ao seu espaço amostral. Sua função de probabilidade é formalmente definida por: ⎛n⎞ f (Y ;φ ) = ⎜⎜ ⎟⎟φ Y (1 − φ ) n−Y ⎝Y ⎠ (3.9) E que pode também ser expressa por: ⎡ ⎛ n ⎞⎤ f (Y ;φ ) = exp ⎢Ylogφ − Ylog (1 − φ ) + nlog (1 − φ ) + log ⎜⎜ ⎟⎟⎥ ⎝ Y ⎠⎦ ⎣ (3.10) ⎛n⎞ Sendo ⎜⎜ ⎟⎟ o coeficiente Binomial. Y ⎝ ⎠ ⎛n⎞ ⎛ φ ⎞ ⎟⎟ , c( φ )= n log (1 − φ ) e d( Y )= log ⎜⎜ ⎟⎟ em ⎝1 − φ ⎠ ⎝Y ⎠ Fazendo-se a( Y )= Y , b( φ )= log ⎜⎜ (3.10), obtém-se exatamente a equação geral (3.2) em função de Y e φ , o que demonstra que a distribuição Binomial de probabilidades pode ser justamente considerada um caso particular da família exponencial de distribuições. 90 Viu-se aqui o caso da distribuição Binomial, mas encontram-se tabelados na literatura de referência os valores que devem ser assumidos por b, c e d em função da distribuição da família exponencial a ser considerada, se Binomial, Poisson, ou Normal. Nas próximas seções serão apresentados alguns exemplos de MLG, partindo do caso mais simples, a regressão simples, até o ponto a ser empregado nesta pesquisa, os Modelos Lineares Generalizados Hierárquicos, assim como alguns aspectos que motivam sua utilização na prática. Neste capítulo os modelos serão apresentados por meio de uma ilustração de aplicação na área tributária, de maneira que o interesse momentâneo neste capítulo passa a ser o estudo do relacionamento do Lucro Real (LR) das empresas (pessoas jurídicas), que é uma medida bastante importante, pois forma a base de cálculo de incidência do imposto de renda das empresas no Brasil, em função de um determinado indicador econômico-fiscal designado genericamente por IND. 3.2.1 Regressão linear: simples e múltipla O mais simples e imediato dos submodelos dos MLG é a regressão linear, simples ou múltipla. Para o estudo exemplo, tomando-se uma amostra de empresas de um determinado setor de atividades econômicas, poder-se-ia chegar ao seguinte modelo de regressão simples, linear nos parâmetros e na preditora. Modelo 1: Yi = β 0 + β1 X i + ε i (3.11) com i = 1, 2,..., n, onde Yi : LR da i-ésima empresa, X i : IND da i-ésima empresa, β 0 : LR esperado para IND igual a zero, β1 : mudança esperada no LR da empresa para um incremento unitário no IND, ε i : erro aleatório associado a i-ésima empresa, suposições do modelo: εi ∼ N(0, σ 2 ) e ε i 's independentes. Ressalte-se que uma regressão múltipla apresentaria a mesma formulação de (3.11) e apenas haveria outras preditoras além de X i . 91 Amostrando-se empresas de um outro setor teríamos uma outra relação de regressão similar à do modelo 1 e aplicável ao novo setor de atividades. Possivelmente estas duas regressões possuiriam interceptos e inclinações distintas. O setor de maior intercepto ( β 0 ) teria o maior valor esperado de LR para um nível do IND igual a zero. Por outro lado, o setor que possuísse a maior inclinação ( β1 ) da reta de regressão possuiria um relacionamento LR-IND mais forte, resultando que X seria mais preditivo em relação à Y neste setor do que no de menor β1 . A partir da hipótese de efetiva constatação da existência de retas de regressão diferentes para os setores, qual seria a explicação lógica para isso? O que faz com que um setor tenha resposta esperada mais elevada, enquanto que em outro a variável explicativa não seja tão preditiva em relação à resposta? A resposta reside no fato de existir, nessa ilustração, uma clara hierarquia entre os dados, consistindo em empresas aninhadas ou agrupadas em setores de atividades econômicas que por sua vez podem estar aninhados em outra unidade amostral superior. Trata-se, portanto, de uma típica situação apresentando estruturas de dados correlacionados, e essa é a razão de, por hipótese, existirem retas de regressão distintas para cada uma das unidades (setores), já que, provavelmente, cada uma delas possui certos aspectos e características próprias que as distinguem em maior ou menor grau das outras unidades. 3.2.2 Estrutura de dados correlacionados O modelo 1 proposto anteriormente se aplica quando os termos ε i são considerados como não correlacionados, com média zero e variância constante, o que, combinado com a suposição de que os erros são normalmente distribuídos, resulta na suposição adicional tradicional em regressão, qual seja, de que os efeitos aleatórios são independentes entre si. Contudo, existem duas situações típicas em que essa suposição de independência deve ser relaxada, sob pena de obtenção de resultados não consistentes (DOBSON, 2002). A primeira é quando as respostas são medidas repetidamente ao longo do tempo, sendo obtidas a partir das mesmas fontes. Por exemplo, as notas em exames escolares provenientes do mesmo grupo de alunos ao longo do curso primário. Esse é um caso clássico de dados longitudinais. Nesse caso, as medidas tomadas a partir do mesmo indivíduo tendem a ser mais parecidas 92 entre si do que as medidas tomadas em indivíduos distintos, em função das características pessoais de cada aluno, e também de outros fatores contextuais. Por exemplo, a proficiência em português medida em diversas faixas etárias de uma criança, além de estar relacionada claramente com a quantidade de estudo dessa criança ao longo do tempo, possivelmente estará também relacionada com seus fatores genéticos e com o nível sócio-econômico de seus pais. Por isso, dados longitudinais oriundos de um grupo de indivíduos de controle tendem a exibir correlação entre medidas sucessivas pertencentes ao mesmo indivíduo, haja vista que ele está sujeito a certas condições únicas que não são partilhadas pelos outros indivíduos. A outra situação é quando as respostas de interesse são medidas a partir de indivíduos agrupados em unidades distintas. Essa possibilidade é freqüentemente denominada na literatura por estrutura aninhada ou hierárquica de dados. Exemplificando, sejam as medidas de altura de uma amostra de mulheres de dezoito anos selecionadas a partir de uma amostra de países, os países formando a primeira unidade de amostragem e as mulheres a segunda; na verdade uma subunidade de amostragem. Nesse caso é natural que se imagine que as mulheres de um mesmo país tendem a possuir alturas mais parecidas entre si do que se comparadas com as de outros países, pois aquelas compartilham certas condições sócio-econômicas e ambientais. Um estudo comparativo dessas medidas que desconsidere a hierarquia natural dos dados (correlação entre medidas do mesmo grupo), pode levar a resultados enganosos. Por isso, no caso do modelo 1, Lucro Real explicado por IND, é intuitivo que deve haver retas de regressão distintas ajustáveis aos diversos setores componentes da amostra, justamente porque as medidas das empresas de um mesmo setor tendem a ser mais parecidas entre si do que se comparadas com as de outros setores. Embora intuitivo o exposto nos últimos parágrafos, a explicação matemática para a existência de correlações nas medidas individuais em modelos lineares se fundamenta no fato de que os indivíduos provenientes do mesmo grupo ou unidade tendem a compartilhar valores em muitas variáveis observáveis. Contudo, algumas dessas variáveis não são observadas na prática, e, portanto, não são computáveis pelo modelo, o que implica que seu efeito acaba sendo absorvido pelo termo de erro aleatório ou resíduo εi , ocasionando a correlação entre eles que, supostamente, 93 deveriam ser independentes de acordo com as suposições que os sustentam (ARANHA, 2000). Havendo sido reconhecida a possibilidade de existência de estruturas de dados correlacionados, como no caso de empresas aninhadas em setores de atividades econômicas, uma hipótese ingênua para seu tratamento pode levar a uma modelagem que desconheça os grupos que estruturam os dados e que trabalhe com todas as empresas de forma desagregada, exatamente como proposto no Modelo 1. Nesse caso, tem-se de assumir que os erros aleatórios são independentemente distribuídos. Ora, as empresas de setores distintos são claramente passíveis de serem consideradas independentes, porém as empresas de um mesmo setor partilham de diversas características econômico-tributárias em comum, que não sendo totalmente observadas ocasionam erros intragrupos correlacionados entre si. Nesse caso, segundo Goldstein (2003), as estimativas e inferências (intervalos de confiança e testes de hipóteses) produzidas por esse modelo têm propensão à imprecisão por subestimarem os reais erros padrões dos estimadores, e ela é tanto maior quanto mais significativa for a variabilidade das médias do LR intra-setores. Portanto, o Modelo 1 de regressão tradicional só é aplicável para o estudo em um único setor. Outra alternativa intuitiva para o estudo do relacionamento LR-IND seria trabalhar de forma totalmente agregada, somente com as médias dos grupos. Ou seja, as variáveis disponíveis em nível individual seriam consolidadas no nível hierárquico superior (setores), com isso tem-se um segundo modelo. Modelo 2: − − − Y. j = β 0 + β1 X . j + ε . j (3.12) j = 1, ..., J, onde − Y. j : LR médio do setor j, − X . j : IND médio do setor j, β 0 : LR agregado esperado para um nível do IND médio igual a zero, β1 : mudança esperada no LR agregado para um incremento unitário no IND médio, − ε . j : erro médio aleatório associado ao setor j, 94 − suposições: − ε . j ∼ N(0, σ 2 ) e ε . j 's independentes. O modelo 2 considera uma agregação total, portanto se está perdendo a informação originada pelos dados individuais de empresas e essa perda é tanto maior em função da maior variabilidade entre os setores. Além disso, segundo Bryk e Raudenbush (1992, p.xiv), “a variabilidade devida aos indivíduos, em geral, corresponde à maior parcela da variabilidade total em estruturas correlacionadas”. Outra modelagem possível para o exemplo seria proporcionada pelo modelo a seguir. Modelo 3: Yij = β 0 j + β1 j X ij + ε i (3.13) sendo i= 1,2,...nj e j = 1,2,...,J, onde Yij : LR da i-ésima empresa do setor j, X ij : IND da i-ésima empresa do setor j, β 0 j : LR esperado do setor j para IND igual a zero, β1 j : mudança esperada no LR da i-ésima empresa do setor j para incremento unitário no IND, ε i : erro aleatório associado a i-ésima empresa, suposições: εi ∼ N(0, σ ) e 2 ε i 's independentes. Este modelo leva em consideração as possíveis diferenças de interceptos e inclinações entre os grupos j, mas admite apenas o efeito aleatório referente a iésima empresa, o que não permitiria a distinção dos efeitos aleatórios intergrupos, remanescendo a suposição de termos de erros aleatórios não correlacionados. Como isso provavelmente não se sustentaria, novamente produzir-se-iam inferências pouco precisas nesse caso. Outra possibilidade seria designar a cada setor uma equação distinta. Ter-se-ia, portanto, J equações, mantidas as demais suposições de distribuição dos erros e especificação de subscritos. Modelo 4: Yi1 = β 01 + β11 X i1 + ε i1 95 Yi 2 = β 02 + β12 X i 2 + ε i 2 (...) YiJ = β 0 J + β1J X iJ + ε iJ (3.14) sendo i = 1,2,...nj e j = 1,2,...,J, onde Yij : LR da i-ésima empresa do setor j, X ij : IND da i-ésima empresa do setor j, β 0 j : LR esperado para o setor j para um nível do IND igual a zero, β1 j : mudança esperada no LR da empresa para incremento unitário no IND, para o setor j, ε ij : erro aleatório associado a i-ésima empresa do setor j, suposições: ε ij ∼ N(0, σ 2 ) e ε ij 's independentes. Esta modelagem também considera as diferenças de interceptos e inclinações entre setores, e as suposições dos erros podem ser suficientemente atendidas, pois há um termo de erro específico para setor em cada uma das J equações, que, como são aplicáveis apenas a um único grupo, podem sustentar satisfatoriamente erros independentes entre si. Entretanto, a dificuldade aqui está associada ao excessivo número de equações a serem estimadas, podendo-se chegar aos milhares, a depender do problema estudado. Além disso, perde-se bastante em função da impossibilidade da exploração das fontes de variabilidade das medidas entre grupos, isso sem falar na possibilidade de alguns grupos não conterem dados suficientes para que a estimação de sua equação seja possível, em função do reduzido número de graus de liberdade resultante. Por fim, uma outra alternativa para tratamento de dados correlacionados seria a modelagem de uma única equação, em que os grupos seriam considerados por meio de centenas de variáveis dummy cuja função seria captar o efeito dos grupos em relação à resposta. Neste caso, além da indevida suposição de independência entre os erros do modelo, a dificuldade estaria em ajustar um bom modelo de regressão com tantas variáveis (além das explicativas, centenas de dummies), e, ainda, em presença da possibilidade de ocorrência da falta de dados para as estimativas dos parâmetros. 96 A conclusão é que a correlação entre os dados tem de ser incorporada à modelagem de alguma maneira, de forma a produzir inferências estatísticas válidas, mas isso é contrário a algumas das suposições iniciais que sustentam as estimativas dos modelos lineares anteriormente apresentados, particularmente a independência entre os efeitos aleatórios do modelo. A possibilidade de se ajustar uma equação para cada grupo seria operacionalmente custosa e fortemente condicionada à quantidade de dados existente em cada grupo. É relevante registrar que a consideração das estruturas de correlação dos dados durante o processo de estimação em MLG já é bem conhecida, e pode ser posta em prática por meio da utilização de uma matriz bloco-diagonal de covariâncias no processo regular de estimação dos parâmetros, cada bloco da matriz sendo responsável por estruturar as variâncias/covariâncias em cada um dos grupos, conforme segue: ⎡V j ⎢0 V=⎢ ⎢ ⎢ ⎣0 0 Vj 0 0⎤ 0⎥ ⎥ ⎥ O ⎥ Vj ⎦ A consideração de matrizes de variância/covariância para as observações implica na utilização de procedimentos de estimação especificamente desenvolvidos para esse fim (ver seção 4.3). Em geral, as diferenças nas estimativas residem na obtenção de intervalos de confiança mais conservadores, porém, eventualmente até as estimativas pontuais poderão ser distintas das obtidas pela estimação com matrizes de variância/covariância diagonais, a depender da estrutura empregada. Atualmente já são bem conhecidas dos pesquisadores diversas estruturas de variância/covariância consideradas adequadas para certos tipos de aplicações (DOBSON, 2002; DAVIDSON e MACKINNON, 1993). Entretanto, um fato importante é que esse processo proporciona inferências mais precisas, isso é certo, sem, contudo, possibilitar a explicação da variabilidade das medidas intergrupos, que é diretamente decorrente das estruturas de covariância presentes nos grupos. Uma solução que incorpore em si a existência de correlação entre as medidas internas das unidades e que proporcione também a possibilidade de explicá-la é partir para a modelagem hierárquica, um desenvolvimento dos MLG especialmente talhado para os casos em que seja violada a hipótese de erros não correlacionados. 97 3.3 Modelos lineares hierárquicos Esta seção discutirá a lógica e a formulação inerente aos Modelos Lineares Hierárquicos, que se caracterizam por conferir uma estrutura de hierarquia aos modelos lineares e que são também conhecidos como Modelos Multiníveis. As idéias aqui expostas de forma introdutória estão amplamente desenvolvidas em Bryk e Raudenbush (1992), que, conjuntamente com Goldstein (1995), é considerada como uma das literaturas de referência na área. Entretanto, a denominação de "Modelo Linear Hierárquico" é bem mais antiga e, de acordo com Natis (2000, p.3), “ela surgiu originalmente como fruto dos trabalhos de Lindley e Smith (1972) e Smith (1973) sobre a estimação Bayesiana de modelos lineares”. Voltando atenção à seção anterior, nela apresentou-se a dificuldade de utilizar modelos de regressão considerando uma variável resposta que apresente termos de erros correlacionados, já que isso, além de derrubar algumas das suposições típicas que os sustentam, pode causar imprecisão nas estimativas, dificuldade de operacionalização dos modelos e até a infactibilidade de produção das inferências. Mas se a própria designação "Modelo Linear Hierárquico" já existe há décadas, então por que sua utilização prática é relativamente recente? A resposta é que, apesar de muitos estudos e pesquisas sociais envolverem dados hierárquicos já há bastante tempo, os estudos no passado recente freqüentemente não eram efetivos no tratamento dessas estruturas. Isso se deveu em grande parte às limitações impostas pelas próprias técnicas de estimação dos parâmetros em amostras de dados não balanceados (grupos possuindo número de elementos distintos entre si) e, adicionalmente, apresentando erros correlacionados. Nesse contexto, os estudos apresentavam muitas vezes problemas de cálculo e imprecisão nas estimativas, acarretando um desestímulo na exploração desses modelos durante a década de setenta. Contudo, na década seguinte, avanços estatísticos isolados foram reunidos de forma a aperfeiçoar as estimativas hierárquicas. Em Natis (2000) pode ser consultada uma breve cronologia das pesquisas em estatística que representaram substantivos avanços para a modelagem hierárquica ao longo das três últimas décadas. Tudo isso resultou recentemente no aperfeiçoamento de diferentes pacotes computacionais concebidos especificamente para MLH, que têm se 98 constituído em fator de disseminação dessas modelagens, sendo bastante populares atualmente o HLM10 e o MLwiN11. A partir desses desenvolvimentos, a maior parte das barreiras à utilização de MLH foi sendo removida pouco a pouco e os pesquisadores puderam propor hipóteses de pesquisa mais ricas, proporcionando a aferição das variabilidades devidas a cada nível e a provisão de uma modelagem única fornecendo estimativas individuais e também para os grupos, por meio da ponderação conjunta dos resultados em função da precisão fornecida por cada uma das unidades, como exposto no capítulo 4. A ilustração estudando o relacionamento do LR e do IND na população de empresas e setores pode ser modelada por um MLH em dois níveis, empresa e setor. Considere-se uma população de setores (unidade amostral de nível 2) de onde foram amostradas J unidades aleatoriamente. De cada uma dessas J unidades, foram selecionados randomicamente nj indivíduos da população de empresas (unidade amostral de nível 1). Com isso pode-se formular o Modelo 5. Nível 1: − Yij = β 0 j + β1 j ( X ij − X . j ) + rij (3.15) Nível 2: β 0 j = γ 00 + u 0 j , (3.16) β1 j = γ 10 + u1 j (3.17) i = 1,...,nj e j = 1,...,J, onde, para os níveis 1 e 2, Yij : LR da i-ésima empresa do setor j, X ij : IND da i-ésima empresa do setor j, − X . j : média amostral do IND no setor j, − β 0 j : LR esperado para uma empresa do setor j com X ij = X . j , 10 11 Pacote produzido e distribuído pela Scientific Software International, Inc. Pacote produzido e distribuído pelo Centre for Multilevel Modelling. 99 β1 j : mudança esperada no LR quando X ij aumenta uma unidade em relação à − X.j , rij : erro aleatório associado a i-ésima empresa do setor j, γ 00 : valor esperado do intercepto para a população de setores, γ 10 : valor esperado da inclinação de regressão IND-LR para a população de setores, u 0 j : efeito aleatório do setor j no intercepto β 0 j , u1 j : efeito aleatório do setor j na inclinação β1 j , τ 00 : variância populacional dos interceptos, τ 11 : variância populacional das inclinações, τ 01 : covariância populacional entre interceptos e inclinações, suposições do modelo: rij ∼N(0, σ 2 ) e rij 's independentes, u 0 j ∼N(0, τ 00 ) e u 0 j 's independentes, u1 j ∼N(0, τ 11 ) e u1 j 's independentes, Cov( u 0 j , u1 j ) = τ 01 e u 0 j 's e u1 j 's independentes dos rij 's. É importante observar que o IND está centrado na média de cada grupo, um aspecto de locação da variável X ij que é bastante importante em MLH (ver subseção 3.3.2). O índice j nas equações (3.15) a (3.17) possibilita que cada setor tenha seu próprio intercepto e inclinação, existindo possibilidade de efeitos aleatórios próprios tanto para o nível 1, quanto para o nível 2, quais sejam rij , u 0 j e u1 j , respectivamente. Isso permite que as medidas internas de um mesmo setor sejam correlacionadas na medida da maior similaridade intra-setores. O modelo 5 permite reconhecer as fontes de variabilidade dos dados nos diversos níveis, permitindo explorar outra funcionalidade interessante desses modelos, que é a possibilidade de explicação da variabilidade de interceptos e inclinações por meio de variáveis preditoras específicas de nível 2. Prosseguindo, pode-se tentar explicar a variabilidade no LR entre os setores econômicos por meio 100 de uma variável binária indicando se houve ou não crescimento econômico no setor em um determinado período. Com isso, tem-se o Modelo 6 a seguir. Nível 1: − Yij = β 0 j + β1 j ( X ij − X . j ) + rij (3.18) Nível 2: β 0 j = γ 00 + γ 01W j + u 0 j , (3.19) β1 j = γ 10 + γ 11W j + u1 j (3.20) i= 1,...,nj e j =1,...,J, sendo que W j = 0 se o setor apresentou estagnação ou retração e W j = 1 se o setor cresceu em um determinado ano. Para este modelo, chamado condicional ao nível 2, tem-se, para os níveis 1 e 2, que γ 00 : valor esperado do intercepto para setores que não apresentaram crescimento, γ 01 : diferença esperada no intercepto entre setores que apresentaram e que não apresentaram crescimento, γ 10 : valor esperado da inclinação de regressão IND-LR em setores que não cresceram, γ 11 : diferença entre os valores esperados das inclinações de regressão IND-LR entre setores que apresentaram e que não apresentaram crescimento, u 0 j : efeito aleatório do setor j no intercepto β 0 j , ceteris paribus, u1 j : efeito aleatório do setor j na inclinação β 1 j , ceteris paribus, τ 00 : variância populacional dos interceptos ajustada por W j , τ 11 : variância populacional das inclinações ajustada por W j , τ 01 : covariância populacional entre interceptos e inclinações, suposições do modelo: rij ∼N(0, σ 2 ) e rij 's independentes; u 0 j ∼N(0, τ 00 ) e u 0 j 's independentes; u1 j ∼N(0, τ 11 ) e u1 j 's independentes; 101 Cov( u 0 j , u1 j ) = τ 01 e u 0 j 's e u1 j 's independentes dos rij 's. Deve-se salientar que agora os efeitos aleatórios de nível 2, u 0 j e u1 j , são efeitos residuais ou condicionais após o controle da variabilidade nesse nível por W j . Além disso, é claro que ambos os modelos 5 e 6 podem ser expandidos para tantas variáveis de níveis 1 e 2 quantas forem necessárias. Não é possível estimar os parâmetros das equações (3.18), (3.19) e (3.20) diretamente, já que se têm variáveis resposta de nível 2 não observáveis. Entretanto, substituindo (3.19) e (3.20) em (3.18), obtém-se a equação (3.21) correspondente ao modelo combinado para os dois níveis: _ _ Yij = γ 00 + γ 01W j + γ 10 ( X ij − X . j ) + γ 11W j ( X ij − X . j ) + (3.21) _ u 0 j + u1 j ( X ij − X . j ) + rij Pelo teorema de Gauss-Markov, sabe-se que a estimação de parâmetros tradicionalmente adotada em regressão linear, pelo método dos Mínimos Quadrados Ordinários (MQO), produz estimativas não viesadas e de menor variância (maior eficiência), mas sustentando-se na suposição crucial de que os termos de erro sejam não correlacionados e distribuam-se com variância constante (DAVIDSON e MACKINNON, 1993). Já na equação (3.21), observa-se que o efeito aleatório _ combinado, u 0 j + u1 j ( X ij − X . j ) + rij , não se sujeita a estas suposições. Primeiramente porque eles são dependentes internamente em cada grupo, uma vez que os u 0 j e u1 j são idênticos para as empresas do setor j. Além disso, eles _ apresentam heterocedasticidade, pois a porção u 0 j + u1 j ( X ij − X . j ) depende de _ u 0 j e de u1 j , que variam entre os setores, e de ( X ij − X ⋅ j ) , cuja variabilidade se dá entre empresas do mesmo setor. Conseqüentemente, os modelos de regressão tradicionais e seus princípios de estimação não são apropriados para modelagens com coeficientes aleatórios como em MLH (BRYK e RAUDENBUSH, 1992). No que tange essa inadequação, e corroborando o já discutido na seção 3.2, Goldstein (2003, p.23) afirma que: 102 Nos casos em que a correlação intragrupos é pequena, existe uma boa correspondência entre as estimativas de MQO e de MLH. Entretanto, não sendo esse o caso, à medida que os nj das unidades crescem, as estimativas de MQO vão subestimando mais e mais os erros padrões dos estimadores dos coeficientes do modelo, levando a inferências incorretas. A conseqüência disso é que, em geral, procedimentos iterativos de máxima verossimilhança são utilizados para a estimação dos parâmetros em MLH. Ressaltese que o grande problema neste caso é justamente a presença de erros correlacionados, já que a presença apenas de heterocedasticidade de variância dos erros poderia ser remediada pela estimação por Mínimos Quadrados Ponderados. Em relação aos resultados passíveis de serem obtidos por esta modelagem, Osborne (2000) comparou as estimativas obtidas para uma amostra de dados do National Education Longitudinal Survey of 1988 dos Estados Unidos da América, por três estratégias distintas de modelagem, a saber: desagregada, totalmente agregada e hierárquica. Assumiu-se que o modelo hierárquico fornece a melhor estimativa para o real relacionamento entre as preditoras e a variável resposta e, portanto, constituiu-se na referência de análise. As conclusões apontaram para uma propensão à subestimação significativa dos erros padrões dos estimadores dos efeitos de nível 2 por parte da estratégia desagregada. Por outro lado, a estratégia agregada tendeu à superestimação das magnitudes dos coeficientes dos efeitos de nível 1 e à subestimação das magnitudes dos coeficientes dos efeitos de nível 2. Sua conclusão final foi de que as estratégias agregada e desagregada estimadas por MQO não produzem resultados correspondendo ao real relacionamento entre a resposta e as preditoras. Essas conclusões corroboram os estudos de Kreft e de Leeuw (apud Santos et al., 2000, p.74) que indicam que os modelos hierárquicos fornecem estimativas geralmente mais conservadoras em relação à estratégia desagregada de trabalho. Uma distinção entre efeitos fixos, coeficientes aleatórios e componentes de variância/covariância tem de ser feita quando da análise dos MLH e seus diferentes níveis. Os efeitos fixos não variam entre os grupos, sendo o caso dos γ 's nas equações (3.19) e (3.10). Aos coeficientes aleatórios de nível 1 é admitido variação ao longo das unidades, podendo-se modelá-los como possuindo, alternativamente, efeito aleatório - sendo esse o caso dos coeficientes das equações (3.16) e (3.17) efeito fixo ou, ainda, variando deterministicamente. 103 Modelos como o 5 e 6 proporcionam também a estimativa dos componentes de variância residuais dos níveis 1 e 2, respectivamente covariância entre os efeitos aleatórios de nível 2, σ 2 , τ 00 e τ 11 , mais a τ 01 . O conjunto desses efeitos aleatórios forma a matriz T - que simboliza a matriz de variâncias/covariâncias do nível 2 - e sua dimensão variará em função do número de efeitos aleatórios presentes neste nível. É justamente por meio dessas estimativas de variância que surge uma das mais interessantes características proporcionadas pelos MLH: a estimação de médias individuais da resposta para cada uma das unidades. Tomando-se por exemplo o modelo 5, viu-se que u 0 j significa o efeito aleatório do setor j no intercepto β0 j . Pois o conhecimento desses efeitos para cada um dos grupos j subsidia as estimativas empíricas de Bayes, β 0* j , que, adiantando o detalhado no capítulo 4, compõem uma ponderação ótima dos estimadores de mínimos quadrados ordinários ^ e da média geral ( γ 00 ) para produzir estimativas de interceptos para cada grupo j, sendo que esse mesmo processo pode ser repetido para tantos coeficientes aleatórios de nível 1 quantos existam. Isso confere ao método um grande atrativo interpretativo, já que com um único modelo obtêm-se estimativas ótimas para cada grupo, e que, além disso, segundo Lindley e Smith (apud Bryk e Raudenbush, 1992, p.40), são os estimadores dos interceptos β 0 j de menor valor de erro quadrático médio esperado. Em resumo, os MLH representam o fenômeno estudado de forma mais fidedigna, já que não pressupõem indevidamente a independência dos termos de erros aleatórios nas equações de regressão, possibilitam o ajuste de um único modelo levando em consideração os efeitos aleatórios intragrupos, e produzem inferências mais apropriadas e resultados mais interessantes, ao darem ocasião à explicação da variabilidade da resposta segundo os diferentes níveis hierárquicos. Essa modelagem tem sido utilizada nos mais diversos ramos do conhecimento, porém, a prevalência ainda é na área educacional. A partir de pesquisas no portal da CAPES e também na internet, podem ser relacionados, a título de ilustração não esgotada da aplicação desses modelos, o estudo do Sistema Nacional de Avaliação da Educação Básica de autoria de Ferrão e Andrade (2002); o estudo da 104 modelagem multinível em avaliação educacional de Ferrão, Leite e Beltrão (2001); o estudo epidemiológico efetuado por Barros (2001); os estudos em avaliação educacional envolvendo o sistema escolar do Estado de São Paulo por Natis (2001); o estudo do impacto da política de não-repetência na proficiência de alunos da quarta série do primário, de Ferrão, Beltrão e Santos (2002); um estudo em três níveis dos determinantes de aumento salarial na China, relacionando treinamento de recursos humanos, educação formal e experiência profissional, por Xiao (2002); estudos em educação física relacionando o nível de coordenação motora com habilidades individuais e o sexo do aluno, por Chen e Darst (2002); estudos aplicados aos aspectos de locação de variáveis e seus efeitos organizacionais em administração de empresas, por Hoffmann e Gavin (1998); e o estudo hierárquico envolvendo amostras de eleitores e de distritos eleitorais nos Estados Unidos da América, por Stoker e Bowers (2002). 3.3.1 O modelo hierárquico nulo As equações (3.18), (3.19) e (3.20) são o que se pode chamar de Modelo Linear Hierárquico completo, em que há a presença de preditoras em todos os seus níveis. Contudo, quando alguns dos termos destas equações são igualados a zero, então incorre-se em algum dos submodelos do caso completo. Na literatura de referência podem ser consultados diversos submodelos de MLH, mas neste trabalho é apresentado apenas o chamado "modelo nulo ou incondicional", já que na aplicação prática de modelagem hierárquica sua estimação inicial é sempre recomendada para a avaliação da variabilidade da resposta devida a cada um dos níveis hierárquicos. Este modelo é a estrutura mais simples possível do MLH em dois níveis, não possuindo variáveis preditoras em nenhum de seus níveis (totalmente não condicional) e, assim, o coeficiente β 1 j no nível 1 equivale a zero para todo j. Suas equações são: Nível 1: Yij = β 0 j + rij onde β 0 j : valor da resposta esperada para o setor j, (3.22) 105 rij : erro aleatório associado a i-ésima empresa do setor j, suposições do modelo: rij ∼ N (0, σ ) e rij 's independentes entre si. 2 O nível 2 possui apenas uma equação, qual seja: β 0 j = γ 00 + u 0 j (3.23) onde γ 00 : valor da resposta esperada para toda a população de setores, u 0 j : efeito aleatório associado ao setor j, suposições do modelo: u 0 j ∼ N(0, τ 00 ) e u 0 j 's independentes. Substituindo (3.22) em (3.23) obtém-se o modelo combinado: Yij = γ 00 + u 0 j + rij (3.24) O modelo nulo pode ser considerado um primeiro passo em modelagens hierárquicas, pois permite a avaliação da variabilidade da resposta em cada um dos níveis. Para obter essa informação, inicialmente sabe-se que a variabilidade total da resposta em (3.24) é dada por: Var (Yij ) = Var (u 0 j + rij ) = τ 00 + σ 2 (3.25) Ademais, a covariância entre dois indivíduos do mesmo setor é dada por Cov( u 0 j + rij , u 0 j + rkj ) = τ 00 , para i ≠ k, uma vez que os erros de nível 1 relacionados a indivíduos pertencentes à mesma unidade j são considerados independentes entre si. Com isso, uma possível matriz de estruturação de variâncias/covariâncias para um setor j, contando hipoteticamente com três empresas, é dada por: ⎡τ 00 + σ 2 τ 00 τ 00 ⎤ ⎥ ⎢ V j = ⎢ τ 00 τ 00 + σ 2 τ 00 ⎥ ⎢ τ 00 τ 00 τ 00 + σ 2 ⎥⎦ ⎣ Essa matriz fornece justamente um dos blocos da matriz bloco-diagonal de variâncias/covariâncias apresentada na seção 3.2. A partir dessa estrutura, pode-se calcular a correlação entre dois indivíduos do mesmo grupo, que equivale a: 106 ρ= Cov (Yij ,Ykj ) Var (Yij ) ⋅ Var( Ykj ) = τ 00 (τ 00 + σ 2 ) ⋅ (τ 00 + σ 2 ) = τ 00 τ 00 + σ 2 (3.26) O resultado em (3.26) é chamado de Coeficiente de Correlação Intraclasse (CCIC) e mede a proporção da variabilidade da resposta devida exclusivamente ao nível 2. Por isso, sua estimação é importante, na medida em que quanto maior for o CCIC, mais se está auferindo ganhos de precisão nas estimativas por meio da utilização do MLH. 3.3.2 Alguns aspectos de locação de variáveis Uma vez estimado um modelo nulo, um pesquisador provavelmente desejará incluir variáveis preditoras em seu modelo. Assim, nesta subseção é contemplada uma discussão em torno das alternativas de locação de variáveis em MLH e seus possíveis resultados nas estimativas do modelo. Por locação de variáveis entendase a questão da escolha da métrica da variável a ser utilizada na modelagem. Um aspecto importante a se reconhecer é que, em modelos com coeficientes aleatórios, como o MLH, a alteração da métrica de uma variável preditora produz efeitos distintos em relação ao modelo com coeficientes fixos (regressão tradicional). Neste, o fato de se acrescentar uma constante às medidas de uma variável afeta apenas a magnitude do intercepto, sendo mantidos os demais resultados (coeficientes e estimativas de variância). Já nos modelos com coeficientes aleatórios, os aspectos de locação afetam os procedimentos de inferência e seus resultados, e, na prática, a depender da locação escolhida, são obtidas diferentes respostas. Existem três hipóteses básicas de eleição para possíveis locações, quais sejam: a métrica natural, o centro na grande média e o centro na média do grupo. Em MLH, a métrica natural de uma variável X deve ser alterada se ela não fizer sentido na prática, pois pode levar a resultados incorretos e com viés. Já em relação às demais alternativas de locação, o efeito mais imediato se dá em relação à interpretação dos interceptos estimados. De fato, o centro na grande média implica em utilizar um preditor de nível 1 da seguinte forma: − Yij = β 0 j + β1 j ( X ij − X .. ) + rij (3.27) 107 − Com a locação ( X ij − X .. ) aplicada ao modelo em (3.27), a variável X está centrada em torno de sua grande média de forma propositada, pois assim, ao ser calculada a média da variável resposta para o grupo j em (3.27) e explicitando-a em termos de β 0 j , obtém-se: − − − − β 0 j = Y. j − β1 j ( X . j − X .. ) + r. j (3.28) Apurando-se o valor esperado chega-se a: − − β 0 j = µ j − β1 j ( X . j − X .. ) A conclusão é que (3.29) β 0 j representa agora exatamente o que tradicionalmente se deseja, por exemplo, ao se proceder a uma ANCOVA12 com efeitos aleatórios, uma resposta média esperada para o grupo j, ( µ j ), ajustada por diferenças no X ij médio dos grupos, o que implicará em avaliações mais precisas em relação ao efeito do tratamento em estudo. Neste modelo τ 00 será a variância dos interceptos ajustados β0 j . No caso do centro na média dos grupos tem-se que: − ( X ij − X . j ) (3.30) Essa locação resulta que o intercepto equivale ao resultado médio não ajustado para o grupo j, pois aplicando (3.30) ao modelo em (3.27) e seguindo as mesmas operações executadas em (3.27) e (3.28) obtém-se que: β0 j = µ j (3.31) Essas duas últimas são as locações mais utilizadas em MLH. Entretanto, se for conhecida a média populacional de uma variável, pode-se centrá-la em torno dela. Há ainda outras opções, como as que envolvem a locação de variáveis categóricas e seus possíveis efeitos, mas que não serão discutidas aqui. 12 Para detalhes sobre ANCOVA ver Montgomery (1997, p.149). 108 As alternativas de locação em MLH acabam influenciando também as estimativas e a interpretação dos demais coeficientes do modelo. Voltando ao modelo 1 desagregado da equação (3.11), tem-se: Yi = β 0 + β 1 X i + ε i Neste modelo pode-se igualar a inclinação β1 = β t . Tem-se também o modelo 2, o agregado, da equação (3.12): − − − Y. j = β 0 + β1 X . j + ε . j e pode-se fazer sua inclinação β1 = β b . Se houver ainda um terceiro modelo representado por: − − Yij − Y. j = β1 ( X ij − X . j ) + u j (3.32) neste caso está-se modelando uma inclinação que é compartilhada por todos os grupos j, e nele pode-se fazer β1 = β w . A Figura 3, exibida em Raudenbush e Bryk (2002, p.137) ao exporem o estudo sobre o Mathematical Achievement (MA) e o Social Economic Status (SES) de alunos aninhados em escolas, demonstra o relacionamento a duas dimensões entre essas três distintas inclinações. Figura 3: Relação entre as três inclinações relacionando MA e SES. Fonte: Raudenbush e Bryk (2002, p. 137). 109 A observação dessa figura informa que a estimativa de composição, destituída de interpretação, de β t é usualmente uma β w e β b , o que, dependendo do interesse da pesquisa em relação a esses parâmetros, pode levar a um embaraço na interpretação dos resultados. Em Bryk e Raudenbush (1992, p.118) e Natis (2000, p.29) são apresentadas diferentes modelagens hierárquicas e seus parâmetros (efeitos fixos) explicitados em termos de β w , β b e β t . Sinteticamente, um modelo similar ao da equação (3.27), isto é, com X centrada em sua grande média, fornece um efeito fixo equivalente a: γ 10 = W1 β w + W2 β b W1 + W2 (3.33) Nessa equação W1 e W2 são pesos que promovem uma ponderação entre βw e β b . Já no caso de um modelo idêntico, mas com X centrada na média dos grupos como em (3.30), o mesmo parâmetro fixo equivale a: γ 10 = β w (3.34) e que capta uma inclinação que é compartilhada por todos os grupos j. O importante é que diferentes alternativas de locação produzem resultados distintos e que devem ser interpretados corretamente. Em termos práticos, se é plausível que, para a população, β w e β b são bastante distintos, e o interesse principal é estudar o relacionamento entre a preditora de nível 1 e a variável resposta, verifica-se que a inclinação obtida com X centrada em sua grande média é desaconselhável para a avaliação desse efeito, já que a estimação do coeficiente em (3.33) produzirá um resultado único que é uma composição tanto de β w e β b , e não passível de interpretação. Nesse caso deve-se, então, utilizar a modelagem com X centrada na média dos grupos, pois obter-se-á uma estimativa única e sem viés para β w . Caso seja razoável admitir que β w = β b , então as duas opções de locação de X fornecerão estimativas consideradas adequadas. Uma outra maneira de aferir o efeito de X intra e intergrupos é por meio da inclusão no modelo do chamado efeito contextual. Tecnicamente ele ocorre quando o efeito de uma característica (preditora) permanece relacionado com a variável resposta mesmo após ter sido controlado no nível 1. Freqüentemente eles são 110 causados por aspectos normativos inerentes aos grupos; pelo efeito contextual estar agindo como substituto de outras variáveis omitidas no modelo, ou, ainda, devido à pobreza na mensuração de certas características individuais. Matematicamente, ele equivale a βc = βb − β w (3.35) Em MLH, esse efeito é estimado na prática pela consideração da preditora X ij no − nível 1, e também de sua média X . j como preditora do intercepto no nível 2. Aqui também há um diferencial na abordagem, que se dá em função da locação de X . Entretanto, ambas levam a estimativas que possibilitam apartar tanto β w quanto β b em estimativas individuais. Exemplificando esse efeito para um exemplo educacional, e entendendo-se o NSE como sendo a variável que mede o nível sócio econômico de alunos em escolas, Natis (2000, p. 26) argumenta que: O NSE médio de uma escola pode ser mais importante no desempenho do aluno que seu NSE individual. A variável NSE no nível aluno pode representar uma medida de recursos financeiros e intelectuais em seu ambiente familiar. Já no nível escola pode ser uma medida de recursos da escola e ambiente normativo. Além dos aspectos aqui discutidos, as alternativas de locação também causam outros efeitos em inferências e que devem ser levados em conta, como no caso das estimativas de variâncias dos coeficientes de nível 1 e nas estimativas de coeficientes aleatórios de nível 1. Esses detalhes são minuciosamente explorados em Bryk e Raudenbush (1992). Por todo o exposto, pode-se dizer que não há uma regra fixa para a escolha da locação dos preditores em modelagens hierárquicas, já que isso vai depender de aspectos interpretativos e de outros até, como a presença de multicolinearidade entre as preditoras, e ainda questões envolvendo estabilidade computacional (NATIS, 2000). 3.4 Modelos lineares generalizados hierárquicos Na seção anterior viu-se que os modelos lineares hierárquicos prestam-se bem aos casos em que se supõem variáveis resposta normalmente distribuídas em cada um dos níveis. Em modelos lineares, mesmo quando uma variável contínua é 111 assimétrica, uma transformação pode prontamente torná-la aproximadamente Normal e mais adequada à modelagem. Entretanto, em muitas aplicações de regressão, a variável resposta de interesse é qualitativa, com dois ou mais resultados possíveis, ou uma variável de contagem, muito comum em certos tipos de estudos, como os epidemiológicos e, da mesma forma, deseja-se estimar essa resposta não só em termos de características individuais, mas também de grupos. Essa generalização em termos de aplicação pode ser alcançada plenamente pelos Modelos Lineares Generalizados Hierárquicos (MLGH). Portanto, nesta seção serão empregados e estendidos os conceitos de MLG e de MLH já discutidos, de forma a que seja alcançada e apresentada a generalização hierárquica segundo o enfoque de Raudenbush e Bryk (2002), pois na verdade um MLH é de fato um caso particular de MLGH. Primeiramente, observe-se que os MLGH apresentam a mesma estruturação em níveis já conhecida, adequando-se, portanto, à hierarquia que se deseja modelar. O nível 1 de um MLGH consiste em três partes distintas, a saber: um modelo amostral, uma função de ligação e um modelo estrutural. À semelhança dos MLG, em MLGH as funções de resposta podem seguir as diferentes distribuições da família exponencial, a depender do interesse do estudo, mas o modelo estrutural linear de nível 1 mantém-se por meio de uma função de ligação linear nos parâmetros, como na equação (3.7). Neste trabalho, conforme a seção 5.2, a parte de aplicação envolve variáveis resposta dicotômicas. Portanto, o caso específico da resposta binária será apresentado a seguir. Para a especificação do modelo amostral não Normal de nível 1, recorre-se novamente ao experimento E descrito na seção 3.2. Ocorre que o interesse aqui é modelar uma estrutura hierárquica de dados e, assim, devem ser identificados indivíduos de grupos distintos por meio da consideração dos conhecidos subscritos i e j. Assim, agora a VA vinculada ao experimento passa a ser representada por Yij , que, associada a uma determinada população, representa o número de sucessos em termos da ocorrência de uma dada característica populacional, em nij repetições independentes do experimento E. Portanto, ela assume valores 0, 1,..., nij, sendo que a probabilidade de sucesso em cada uma das repetições se mantém e é representada por φij . Esse tipo de VA é muito utilizado na prática. Exemplificando, Yij poderia representar o número de reprovações do aluno i da escola j durante o 112 ensino médio, sendo nij o número total de disciplinas cursadas pelo referido aluno. A partir do exposto, a distribuição de probabilidades de Yij segue a conhecida distribuição Binomial com função de probabilidade dada pela equação (3.9), mas agora com parâmetros adaptados à hierarquia, nij e φij : Yij | φ ij ∼ B(nij ,φ ij ) (3.36) Com isso, têm-se como verdadeiros os seguintes resultados: E (Yij | φ ij ) = nijφij (3.37) Var (Yij | φ ij ) = nijφ ij (1 − φ ij ) (3.38) Se houver apenas uma repetição em E, então se está trabalhando sob as condições da distribuição Bernoulli de probabilidades, definida pelas mesmas equações (3.36) a (3.38), porém contando com nij = 1 e a VA só podendo assumir valores zero ou um, sendo, portanto binária ou dicotômica. No caso de variáveis resposta contínuas não há restrições em relação à resposta esperada a ser estimada pelo MLH. Contudo, no caso de variáveis resposta binárias, como a VA associada ao experimento E com apenas uma repetição, esses valores têm de estar restritos ao intervalo [0,1], já que, de acordo com (3.37), para o caso Bernoulli, o valor da resposta esperada significa a probabilidade de que Yij = 1 . Freqüentemente isso implica em transformações que acabam por tornar a resposta esperada a ser estimada pelo modelo uma função não linear. A transformação mais comumente empregada utiliza a função exponencial para garantir valores compreendidos naquele intervalo, resultando na função de resposta logística: ⎛ exp(ηij ) ⎞ ⎟ E (Yij ) = φij = ⎜ ⎜ 1 + exp(η ) ⎟ ij ⎠ ⎝ (3.39) É interessante notar que o objetivo da transformação em (3.39) é plenamente atingido, já que enquanto ηij pode assumir qualquer valor real, φij , por seu turno, está constrito ao intervalo [0,1], como desejado. Dessa forma, na prática, o valor a ser estimado pelo modelo será ηij , também conhecido como resposta logística esperada e, para a formalização do modelo genérico estrutural de nível 1, ele pode 113 ser relacionado a um modelo linear, contando com Q variáveis explicativas e p parâmetros, resultando em: Q ηij = β 0 j + β 1 j X 1ij + ... + β Qj X Qij = β 0 j + ∑β qj X qij (3.40) q =1 q = 0, 1, ..., Q, onde β qj : coeficientes de nível 1, X qij : preditor de nível 1 para o caso i da unidade j. Observe-se que enquanto nos modelos lineares em que a VA resposta é normalmente distribuída, esta é efetivamente observável, isso não ocorre aqui em relação a ηij , um parâmetro não observável a ser predito pelo MLGH. O resultado disso é que não há termo de efeito aleatório na equação (3.40). Além disso, nessa equação mantém-se a parte linear do MLGH, pois observa-se que ela é linear nos parâmetros β qj . Com o advento do modelo estrutural de nível 1, o valor esperado da resposta em (3.39) significa agora a probabilidade de que Yij = 1 , dados os níveis para as preditoras em (3.40); e ηij se vincula à resposta esperada pela conhecida função de ligação logito, pois explicitando (3.39) em termos de η ij , obtém-se: ⎛ φ ij ⎞ ⎟ ⎟ ⎝ 1 − φ ij ⎠ ηij = log ⎜⎜ Por isso, (3.41) ηij também é conhecido como o logaritmo natural do odds (log-odds) de sucesso em relação à VA resposta. Ademais, neste momento pode-se reconhecer que o MLH apresentado nas seções anteriores é um caso particular de MLGH, em que a equação (3.41) reduz-se a ηij = E (Yij ) = µ ij , conhecida como função de ligação identidade. Para o modelo estrutural de nível 2, não há novidades em relação às equações (3.19) e (3.20), e, portanto, podem ser obtidos diretamente os p coeficientes aleatórios em (3.40), equivalendo a: 114 Sq β qj = γ q 0 + ∑γ Wsj + u qj (3.42) qs s =1 q = 0, 1,..., Q; s = 0, 1,..., Sq; onde γ qs : coeficientes de nível 2 (efeitos fixos), Wsj : preditora de nível 2, u qj : efeito aleatório de nível 2 em relação ao coeficiente β qj . T As suposições são de que, para cada grupo j, exista um vetor (u 0 j ,u1 j ,...,uQj ) de efeitos aleatórios distribuindo-se de acordo com a distribuição Normal multivariada e contando com elementos u qj apresentando média zero e Var (u qj ) = τ qq . Também, para cada dupla de efeitos aleatórios de mesma unidade, vale que Cov (u qj ,u q' j ) = τ qq' . Novamente, em MLGH o conjunto de efeitos aleatórios de nível 2 forma uma matriz T - simbolizando a matriz de variâncias/covariâncias do nível 2 - e sua dimensão variará em função do número de efeitos aleatórios presentes neste nível, podendo alçar a dimensão máxima [(Q+1) x (Q+1)]. No que concerne a aplicação prática dos MLGH, um aspecto interpretativo importante é a análise do impacto dos coeficientes estimados no odds de sucesso a ser previsto. De fato, é por meio dessa análise que se identificam os coeficientes que efetivamente favorecem a probabilidade de sucesso em relação à VA resposta, e quais os que não a favorecem. Outro aspecto relevante em MLGH, e que é ocasionado pela própria característica de se modelar uma função de resposta não linear, como em (3.39), é que o CCIC aqui não é tão informativo, como em MLH. Para o caso da distribuição Binomial, ou no caso da Bernoulli, viu-se por meio de (3.38) que a variabilidade da resposta devida ao nível 1 varia em função de φij , ocasionando uma heterocedasticidade de variância neste nível, que, conseqüentemente, não pode ter sua magnitude avaliada de forma global por uma razão constante, como em (3.26), já que ela varia em função das próprias probabilidades previstas pelo modelo. Contudo, existem formas de se avaliar a variabilidade devida ao nível 2. Uma possibilidade é analisar os resultados para as estimativas unit-specific e population- 115 average, que são duas das estimativas tipicamente obtidas em processos de estimação de MLGH. Elas serão sempre distintas no caso de funções de ligação não lineares. Esse fato pode ser mais bem compreendido a partir da observação da Figura 4, que é uma reprodução da apresentada em Raudenbush e Bryk (2002, p.298), expondo graficamente o relacionamento existente entre ηij e φij por meio da função em (3.39). Figura 4: Relacionamento entre ηij e φij por meio da equação (3.39). Fonte: Raudenbush e Briyk (2002, p. 298). A Figura 4 refere-se especificamente aos resultados obtidos para um estudo de repetência de alunos nas escolas da Tailândia, modelado por um MLGH nulo ou ^ incondicional. Nesse exemplo, o no centro da distribuição dos ηij médio equivale a γ 00 = -2,22, e está localizado ηij , conforme o histograma na parte superior da figura; neste momento deve-se ter lembrança da suposição de efeitos aleatórios de nível 2 distribuindo-se normalmente e, portanto, de maneira simétrica. Pode-se convertê-lo em probabilidades pela função em (3.39), obtendo-se então: ⎛ exp(−2,22) ⎞ ⎟⎟ = 0,097 exp + − 1 ( 2,22) ⎝ ⎠ φij (0) = ⎜⎜ (3.43) Esse valor, por correspondência, representa a mediana da distribuição dos φij e, também, a probabilidade de repetência para a escola ou unidade típica, para a qual tem-se um u 0 j = 0. Por isso essa estimativa é conhecida por unit-specific ou 116 subject-specific. Mas ocorre que a distribuição dos valores de φij é assimétrica, como se vê pelo histograma à direita da figura, e sua média é, portanto, distinta da mediana. Na ilustração da figura, a média de repetência para toda a população de escolas é superior à mediana calculada em (3.43), e ela é obtida por meio da equação (3.39) tomada ao longo de toda a população de unidades j. Essa estimativa é conhecida por population-average. Para o exemplo de repetência escolar na Tailândia, os autores obtiveram que o valor esperado para toda a população equivale a: * ⎛ exp(γ 00 + u0 j ) ⎞ ( ) exp γ 00 ⎟= E (Yij ) = φij (u0 j ) = E ⎜ = 0,151 ⎜ 1 + exp(γ + u ) ⎟ 1 + exp(γ * ) 00 0j ⎠ 00 ⎝ O asterisco em (3.44) * γ 00 é utilizado para diferenciar esse efeito fixo population-average do parâmetro unit-specific γ 00 que se obtém a partir da equação (3.39). Portanto, nesse caso, a repetência esperada para toda a população em (3.44), E (Yij ) = 0 ,151 , é superior à obtida em (3.43). Voltando-se à questão de aferição da variabilidade devida exclusivamente ao nível 2, (Raudenbush e Bryk, 2002, p.298) “consideram que uma forma de abordá-la se dá justamente pela inspeção de gráficos como o da Figura 4”. No caso, podem ser comparadas as estimativas de tendência central unit-specific e populationaverage obtidas, respectivamente, por (3.43) e (3.44). Quanto mais distintas elas forem, maior é a assimetria da distribuição dos valores de φij , e, intuitivamente, isso leva à suposição de que maiores são as variabilidades exclusivamente devidas ao nível 2. Contudo, essa análise apresenta algumas limitações e outras alternativas mais formais para essa análise podem ser encontradas em Snjiders e Bosker (apud Raudenbush e Bryk, 2002, p. 334) e Goldstein (2003). 3.4.1 Opção entre as estimativas unit-specific e population-average Além de distintas, essas estimativas respondem por diferentes propósitos de pesquisa, principalmente ao se trabalhar com modelos condicionais, nos quais procura-se explicar a variabilidade da resposta em ambos os níveis. Considerando um modelo condicional em que há a presença de uma preditora em cada um dos 117 dois níveis envolvendo empresas e setores econômicos, a probabilidade de sucesso, dado um determinado u 0 j , é obtida por: ⎛ ⎞ 1 ⎟ E (Yij | u 0 j ) = ⎜ ⎜ 1 + exp[−(γ + γ W + γ X + u )] ⎟ 00 01 j 10 ij 0j ⎝ ⎠ (3.45) Em (3.45), que, de acordo com (3.39), fornece uma estimativa unit-specific, observase que γ 01 é a diferença no log-odds de sucesso entre empresas que possuem o mesmo nível de X , mas que pertencem a setores diferindo uma unidade em W , mantido constante o efeito u 0 j . Já por γ 10 entende-se a diferença esperada para o log-odds de sucesso entre duas empresas que diferem uma unidade em X , mantidos constantes u 0 j e W j . Entretanto, os interesses da pesquisa podem requisitar o conhecimento da diferença esperada no log-odds de sucesso entre empresas que possuem o mesmo nível de X , mas que pertençam a setores diferindo uma unidade em W para quaisquer valores de u 0 j em meio a toda população de setores. Para essa questão especificamente a equação (3.45) não fornece resposta e tem-se de recorrer a uma extensão de (3.44) para o caso condicional: ⎛ ⎞ 1 ⎟ E (Yij ) = φ ij = ⎜ ⎜ 1 + exp[−(γ * + γ * W + γ * X )] ⎟ 00 01 j 10 ij ⎝ ⎠ (3.46) A principal diferença entre (3.45) e (3.46) é que esta última não fixa, ou mantém constante, o valor de u 0 j , e portanto * γ 01 representará exatamente a resposta para o foco da pesquisa, ou seja, a diferença no log-odds de sucesso entre duas empresas de mesmo X mas que pertencem a setores diferindo uma unidade no W , indiferentemente dos possíveis valores de u 0 j tomados ao longo da população. Portanto, se em um estudo deseja-se saber o efeito esperado de uma alteração em W na média de um setor em particular, em que tem-se constante um determinado valor para u 0 j , deve-se privilegiar a estimativa unit-specific. Por outro lado, se o caso é avaliar o efeito esperado desta mesma alteração em W na média 118 geral, mas para toda a população de setores, deve-se recorrer à estimativa population-average. 3.5 Conclusão Por todo o exposto, viu-se que os MLH e MLGH incorporam aspectos de modelagem estatística especialmente desenvolvidos para aplicações envolvendo estruturas de dados correlacionados. As diversas possibilidades de modelagens, escolhas de locação e métodos de estimação utilizados por esses modelos, além de produzirem inferências mais realistas, promovem uma maior riqueza interpretativa para os resultados obtidos, proporcionando, por exemplo, que cada grupo possua sua própria média através de uma modelagem única e possibilitando ao pesquisador a tentativa de explicação dessas diferenças de médias. Como esta pesquisa envolve a aplicação destes modelos, e, ao lado disso, a sistematização conjunta dos robustos métodos estatísticos e computacionais que permitem a estimação de parâmetros em modelos hierárquicos é de realização relativamente recente, considera-se oportuna a abordagem sintética no próximo capítulo dos aspectos de inferência empregados em MLH e em MLGH. 119 4 INFERÊNCIA EM MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS 4.1 Introdução Neste capítulo são abordados alguns métodos de estimação, bastante utilizados em modelos lineares e modelos lineares generalizados, importantes na medida em que são intensamente aplicados em conjunto com métodos adicionais, para a produção de estimativas em MLH e MLGH. Assim, os aspectos que envolvem as estimativas de mínimos quadrados, detalhados em Neter et al. (1996) e Charnet et al. (1999), são enfocados nas seções 4.2 e 4.3, e o método de máxima verossimilhança, sob os enfoques de Davidson e Mackinnon (1993), Neter et al. (1996) e Dobson (2002), na seção 4.4. Nas seções 4.5 e 4.6, os diversos conceitos de estimação aplicados em MLH e MLGH são apresentados, de acordo com a composição de métodos e algoritmos proposta por Raudenbush e Bryk (2002) e Bryk e Raudenbush (1992). Um aspecto relevante proporcionado pelo estudo do conteúdo apresentado neste capítulo é que, ao ser acompanhado em seqüência o processo de obtenção das estimativas, obtém-se uma melhor compreensão do significado, eficiência e limitações proporcionadas pelas estimativas em MLH e MLGH. A seção 4.7 faz menção aos intervalos de confiança. Ao final do capítulo, seção 4.8, alguns aspectos de inferência e testes de hipótese em MLH e MLGH serão sinteticamente apresentados. 4.2 Estimação por mínimos quadrados ordinários A estimação por MQO vem a ser a de utilização mais imediata em estatística, já que é a aplicável para os modelos de regressão simples, linear nos parâmetros e na preditora. Além disso, é um modelo com erros normais. Seja um modelo genérico, semelhante ao modelo em (3.11), seguindo essas características: Yi = β 0 + β1 X i + ε i i = 1, 2,..., n, suposições do modelo: (4.1) 120 ε i 's ~ N(0, σ 2 ) e independentes. O método de MQO empregado para a estimação de β 0 e β 1 considera o desvio de Yi em relação ao seu valor esperado. Assim, o critério é minimizar a função Q, que corresponde à soma dos n desvios elevados ao quadrado. n Q= ∑ (Y − β i 0 − β1 X i ) 2 (4.2) i =1 β 0 e β1 serão aqueles que minimizam Q e essa solução pode Os estimadores de ser obtida de forma analítica ou numérica. É de pleno conhecimento que por derivadas parciais de Q em relação a β 0 e β1 e igualando-as a zero obtêm-se os seguintes estimadores de MQO: 1 b0 = ( n n n ∑Y − b ∑ X ) 1 i i =1 i (4.3) i =1 e n b1 = ∑ − − ( X i − X )(Yi − Y ) i =1 n ∑( X − i (4.4) − X )2 i =1 Quando a complexidade da equação de regressão se eleva, é preciso que se achem as soluções sob a forma matricial, de forma a facilitar os cálculos computacionais. Estruturando os dados sob forma de matrizes e vetores, necessita-se de quatro estruturas distintas: para observações, para variáveis, para os coeficientes e para os termos de erros aleatórios. Sejam um vetor de parâmetros β de ordem (p x 1), uma matriz de especificação conhecida de ordem (n x p), de posto completo, X , formada por uma coluna de elementos 1 e mais uma coluna para cada uma das (p - 1) variáveis explicativas, um vetor Y de observações de ordem (n x 1) e um vetor ε (n x 1) de erros aleatórios, conforme segue: 121 ⎡1 x11 ⎡ β0 ⎤ ⎢1 x ⎢ β ⎥ 21 1 ⎥ ⎢ , X=⎢ β= ⎢M M ⎢ M ⎥ ⎢ ⎢ ⎥ ⎣1 xn1 ⎣ β p −1 ⎦ L x1, p −1 ⎤ ⎡Y1 ⎤ ⎡ε 1 ⎤ ⎥ ⎢ ⎥ ⎢ ⎥ L x2 , p −1 ⎥ , Y = ⎢Y2 ⎥ e ε = ⎢ε 2 ⎥ O M ⎥ ⎢M⎥ ⎢M⎥ ⎥ ⎢ ⎥ ⎢ ⎥ L xn , p −1 ⎦ ⎣ε n ⎦ ⎣Yn ⎦ Isso permite que um modelo de regressão múltipla possa ser escrito da seguinte forma: Y = Xβ + ε (4.5) suposições do modelo: E (ε) = 0 e Var(ε) = σ 2 I . O critério para a solução de MQO agora é minimizar: n Q= ∑ (Y − β i 0 − β 1 X i1 − ... − β p −1 X i , p −1 ) 2 (4.6) i =1 Charnet et al. (1999, p.176) informam que "o produto de um vetor pelo seu transposto é igual à soma dos quadrados de seus elementos". Então tem-se: Q = (Y − Xβ)T (Y − Xβ) = (Y T − β T XT )(Y − Xβ) = Y T Y − Y T Xβ − β T XT Y + β T XT Xβ (4.7) Sabendo-se que todas as parcelas resultantes em (4.7) são escalares, isso resulta em: Q = Y T Y − 2Y T Xβ + β T XT Xβ (4.8) A condição de primeira ordem para obtenção do mínimo de Q implica em derivar (4.8) em relação a β e igualá-la a zero, obtendo-se o sistema de equações normais para regressão múltipla, em notação matricial: ∂Q ∂Y T Y ∂Y T Xβ ∂β T XT Xβ = −2 + =0= ∂β ∂β ∂β ∂β 0 − 2(Y T X)T + 2 XT Xb = 0 = − 2 XT Y + 2 XT Xb = 0 ⇒ XT Xb = XT Y (4.9) 122 O vetor que anula a derivada e soluciona o sistema resultante em (4.9) é denotado agora por b , um vetor de estimativas de MQO: b = ( XT X) −1 XT Y (4.10) É claro que a condição de segunda ordem para obtenção de um mínimo tem de ser verificada. A derivada parcial de segunda ordem de Q em relação ao vetor β T T T fornece uma matriz igual a 2 X X . Considerando-se a forma quadrática a X Xa , verifica-se que a X Xa ≥ 0 para todo a, e equivale a zero apenas no caso de T T a = 0 , sendo a um vetor de elementos ai de ordem (n x 1). Portanto, a matriz T simétrica X X é positiva definida, verificando-se assim a condição de segunda ordem para um mínimo, sendo que b é o vetor de estimativas de mínimos quadrados ordinários. É de se salientar que no caso de a X Xa ≥ 0 para todo a, T T T mas sendo igual a zero para algum a ≠ 0, dir-se-ia X X ser positiva semidefinida (SEARLE, 1982). As estimativas de MQO possuem certas propriedades, garantidas pela prova do Teorema de Gauss-Markov, a saber (DAVIDSON e MACKINNON, 1993; NETER et al., 1996): 1. As estimativas dos parâmetros são não viesadas, o que indica que, para o modelo em (4.5): E (b) = β (4.11) 2. Sob as suposições dos modelos em (4.1) e (4.5) os estimadores de MQO são os mais eficientes (de menor variância) dentre os estimadores não viesados que sejam uma função linear do vetor de observações Y . 4.3 Mínimos quadrados generalizados A partir desta seção, certas suposições simplificadoras que sustentam os modelos em (4.1) e (4.5) são sucessivamente relaxadas. Uma primeira possibilidade seria um modelo que contasse com erros aleatórios heterocedasticos. Nesse caso poder-se-ia utilizar um processo intermediário denominado de mínimos quadrados ponderados, que não será apresentado aqui uma vez que não é aproveitado em MLH, porém seus princípios podem ser acessados em Neter et al. (1996). 123 O método de Mínimos Quadrados Generalizados (MQG), como já informa sua denominação, é uma generalização do MQO aplicável no caso em que os termos de erro são não só heterocedasticos, mas também correlacionados entre si (DAVIDSON e MACKINNON, 1993). Com isso, a propriedade 2 acima passa a não ser mais válida para os estimadores de MQO, devendo ser considerada no processo de estimação uma matriz V estruturando as variâncias/covariâncias das observações da variável resposta, de forma a que sejam encontrados os estimadores de máxima eficiência. Então seja o seguinte modelo: Y = Xβ + ε (4.12) suposições: E (ε) = 0 e Var (ε) = σ 2 V . Em (4.12) V é uma matriz, conhecida, de variância/covariância de ordem (n x n). Para a obtenção de estimativas por mínimos quadrados, a violação das suposições em (4.1) e (4.5) requisita uma transformação do modelo. Premultiplicando-se (4.12) por V −1/2 , obtém-se: V −1/2 Y = V −1/2 Xβ + V −1/2 ε Como (4.13) V −1/2 é simétrica, verifica-se que V −1/2 V −1/2 = V −1 e V 1/2 V 1/2 = V 1 . Calculam-se agora: E (V −1/2 ε) = V −1/2 E (ε) = 0 (4.14) e Var (V −1/2 ε) = V −1/2Var (ε)(V −1/2 )T = V −1/2Var (ε)V −1/2 = V −1/2σ 2 VV −1/2 (4.15) = σ 2 V −1/2 VV −1/2 = σ 2 V −1/2 V 1/2 V 1/2 V −1/2 = σ 2 I A partir de (4.14) e (4.15), verifica-se que o modelo transformado em (4.13) na verdade envolve termos de erro independentes, com média zero e variância constante, o que possibilita a aplicação da equação de MQO em (4.10) para obtenção das estimativas de maior eficiência e, com isso, obtêm-se diretamente os estimadores de MQG: 124 b MQG = (XT V −1 X) −1 X T V −1 Y (4.16) Var (b MQG ) = σ 2 (XT V −1 X)−1 (4.17) e Maddala (1977, p.450) prova que "o estimador MQG é mais eficiente do que o de MQO, na medida em que Var (b MQO ) − Var (b MQG ) fornece uma matriz positiva semidefinida", ou seja, os estimadores de MQG possuem menor variância. Quando a matriz V é não conhecida, o que ocorre em grande parte dos casos, pode-se partir diretamente para as estimativas de máxima verossimilhança, ou então utilizar o método de MQG iterativo. Neste, por meio de (4.16) e de uma matriz V (0) inicial, usualmente a matriz identidade, obtém-se o vetor b, e, conseqüentemente, as ^ predições Y = Xb e os resíduos e = Y − Xb . De posse dos resíduos, estima-se uma nova V (1) = eeT , e volta-se à equação (4.16) e, assim procedendo-se, sucessivamente, até a convergência de b (DOBSON, 2002). Finalmente, vale ressaltar que os métodos de mínimos quadrados não requisitam que seja especificada a forma funcional da distribuição de probabilidade conjunta dos Yi , para obtenção de suas estimativas. 4.4 Estimação por máxima verossimilhança Outro método de estimação de parâmetros bastante utilizado, quando a forma funcional da distribuição de probabilidade dos termos de erro é especificada, é o de Máxima Verossimilhança (MV). A idéia básica do método, como diz seu nome, é encontrar um conjunto de estimadores dos parâmetros, tal que a probabilidade de se ter obtido a amostra de dados em mãos seja a máxima possível. Para isso, a função de probabilidade conjunta da amostra sob o modelo especificado é avaliada para cada uma das observações da variável resposta, sendo tratada como uma função dos parâmetros do modelo. O método busca, portanto, a maior consistência possível com a amostra de dados. De maneira geral, a verossimilhança é dada pela função de probabilidade conjunta da amostra proporcionada pelas n observações, em função do vetor de 125 parâmetros do modelo, β , sendo denotada por L( β ). O método escolhe como estimador de MV um vetor b que forneça o maior valor possível para a função L( β ). 4.4.1 Variável resposta contínua Considere-se novamente o modelo em (4.1) e suas suposições em relação aos termos de erro. Nesse caso, seguem essa mesma distribuição as observações Yi , com média β 0 + β1 X i e desvio padrão σ . Os estimadores de β 0 e β1 podem ser obtidos por MV de forma analítica ou numérica. Ambos utilizam a densidade da distribuição de probabilidades ao nível de Yi , como uma medida de consistência da observação Yi , dadas uma média e uma variância para a distribuição populacional. Como no modelo (4.1), assume-se a normalidade e independência dos termos de erro e, assim, a verossimilhança da amostra pode ser obtida por meio da função densidade de probabilidade Normal, em função dos parâmetros do modelo, β 0 , β1 , σ 2 : L ( β 0 , β 1 ,σ ) = 2 n ∏ i =1 ⎤ ⎡ 1 − exp (Yi − β 0 − β 1 X i ) 2 ⎥ 2 1/ 2 2 ⎢ (2πσ ) ⎣ 2σ ⎦ 1 (4.18) Desenvolvendo (4.18) obtém-se: ⎡ 1 L( β 0 , β1 ,σ ) = exp ⎢− 2 ( 2πσ 2 ) n / 2 ⎣ 2σ 2 1 n ∑ i =1 ⎤ (Yi − β 0 − β1 X i ) 2 ⎥ ⎦ (4.19) Os valores que maximizam a equação (4.19) podem ser obtidos por meio de derivadas parciais em relação aos parâmetros, igualando-as a zero e solucionando o sistema de equações resultante. Pode haver a conveniência de se trabalhar com a maximização do logaritmo natural de L( β 0 , β1 ,σ 2 ) , e os mesmos parâmetros que maximizam (4.19) maximizam o l og[ L( β 0 , β1 ,σ )] (MADDALA, 1977; DAVIDSON e MACKINNON, 2 1993). Os valores para os estimadores de β 0 e β1 obtidos por MV são os mesmos obtidos por MQO e, portanto, possuem as mesmas propriedades dos estimadores enumeradas na seção 4.2. Contudo, a estimativa de σ 2 obtida por esse processo é 126 viesada (para menos) e geralmente dá-se preferência à estimativa não viesada proporcionada pelos erros quadráticos médios com (n - p) graus de liberdade, sendo p o número de parâmetros estimados do modelo. Essa última estimativa pode ser obtida por um processo de máxima verossimilhança restrita (MVR), que corrige o σ 2 . Detalhes a respeito da estimação por MVR podem viés na estimativa de MV de ser encontrados em Andreoni (1989) e Ogliari (1998). 4.4.2 Variável Resposta Binária Neste trabalho vai-se lidar com uma variável resposta binária, sendo de interesse a discussão de estimativas de MV nesse caso. Voltando ao experimento E mencionado no capítulo 3, se houver apenas uma repetição para cada VA, então se está trabalhando sob a distribuição Bernoulli de probabilidades, e a VA só pode assumir valor zero ou um. Com isso, a função de probabilidades de Yi é dada por: P (Yi = k ) = φ ik (1 − φ i ) n−k (4.20) Assumindo-se que as VA são independentes, a função de probabilidade conjunta dos Yi equivale a: g (Yi ,...,Yn ; φi ,..., φ n ) = n ∏φ k i (1 − φi ) n−k (4.21) i =1 Novamente, pode ser mais cômodo trabalhar com o logaritmo natural da função de probabilidade conjunta: log[ g (Yi ,...,Yn ;φ i ,...,φ n )] = log n ∏φ k i (1 − φ i ) n−k i =1 n = ∑ i =1 Utilizando o logito nos log (φ i 1 − φ i ) = β 0 + β1 X i , ⎡ ⎛ φ ⎢Yi log ⎜⎜ i ⎢⎣ ⎝1 − φi moldes e do ⎞⎤ ⎟⎥ + ⎟ ⎠⎥⎦ definido denotando n ∑ [log (1 − φ )] (4.22) i i =1 na equação (3.41), com log[ g (Yi ,...,Yn ;φ i ,...,φ n )] por log L( β 0 , β1 ) para definir que se considera agora essa a função de logverossimilhança dos parâmetros ( β 0 , β1 ) a serem estimados, dada uma amostra de dados, a equação (4.22) pode ser expandida para: 127 log L ( β 0 , β1 ) = n ∑ Y (β i 0 + β1 X i ) − i =1 n ∑ log [1 + exp( β 0 + β 1 X i )] (4.23) i =1 Essa é justamente a função de log-verossilhança aplicável nos casos de regressão logística. A partir de uma amostra de observações, as estimativas de máxima verossimilhança dos parâmetros são dadas pelos valores de ( β 0 , β 1 ) que maximizam essa função, que é não linear nos parâmetros. Contudo, não há uma solução explícita para que sejam encontrados tais valores e, por isso, métodos iterativos têm de ser usados (NETER et al., 1996). Alguns métodos numéricos podem ser empregados nas situações em que não é possível encontrar explicitamente os estimadores que maximizam a função de verossimilhança L( β ), principalmente quando essa função é fortemente não linear (MADDALA, 1977). Dentre eles pode-se relacionar os de Cauchy, gradiente ascendente, Newton Raphson (NR), Davidson-Fletcher-Powell e dos Escores (semelhante ao NR). Há evidências de que o método dos Escores, quando factível, é preferível devido à simplificação da matriz de derivadas segundas da função de verossimilhança proporcionada por ele, em relação ao método de NR (MADDALA, 1977; DOBSON, 2002). No Apêndice D são apresentados os procedimentos envolvendo a estimação numérica de MV pelos métodos de NR e dos Escores. 4.5 Estimação em MLH 4.5.1 Notação matricial e conceitos iniciais Antes de serem abordados diretamente os aspectos de estimação em MLH, é preciso que primeiro sejam introduzidos os modelos gerais de níveis 1 e 2 em notação matricial. Nível 1: Yj = X jβ j + rj onde Y j : vetor (nj x 1) de respostas, X j : matriz [nj x (Q + 1)] de preditoras de nível 1, (4.24) 128 β j : vetor [(Q + 1) x 1] de parâmetros desconhecidos, r j : vetor (nj x 1) de erros aleatórios, I : matriz identidade (nj x nj), σ 2 : parâmetro de variância de nível 1 desconhecido, suposições do modelo: r j ∼ N (0,σ I ) . 2 Nível 2: β j = Wj γ + u j (4.25) onde W j : matriz bloco-diagonal de preditoras de nível 2, de ordem [(Q + 1) x F], γ : vetor de efeitos fixos de ordem (F x 1), u j : vetor de efeitos aleatórios de nível 2, de ordem [(Q + 1) x 1], T : matriz de variância/covariância residual de ordem [(Q + 1) x (Q + 1)], indicando a dispersão dos β j em torno de sua média W j γ , suposições: u j ∼ N (0 ,T) . Em Natis (2000) encontra-se detalhada ilustração da matriz W j e sua estruturação característica em termos de um empilhamento de vetores. O processo de estimação em MLH com dois níveis aproveita-se intensivamente dos métodos descritos nas seções anteriores, principalmente MV e MQG, mas requisitando ainda métodos estatísticos adicionais para obtenção de suas diversas estimativas. Um aspecto importante é que segundo a composição de métodos proposta por Raudenbush e Bryk (2002), são utilizados conceitos combinados de inferência amostral clássica e de inferência Bayesiana, para fins da estimação dos efeitos fixos, coeficientes aleatórios de nível 1 e componentes de variância/covariância em MLH. Isso ficará claro com o exposto a seguir. Na abordagem Bayesiana, as inferências sobre um vetor de parâmetros u são baseadas em uma distribuição prévia a ele atribuída, que é revisada, uma vez que sejam observados os dados amostrais, por meio do teorema de Bayes, resultando em uma distribuição condicional ou posterior em relação aos dados. 129 Considerando-se vários parâmetros desconhecidos, por exemplo u , γ ,σ , seja 2 f (Y | u , γ ,σ 2 ) a densidade de probabilidade de Y dados os parâmetros e p ( γ ) a densidade de probabilidade a priori para γ . Por Bayes a função densidade de probabilidade condicional posterior conjunta para os parâmetros desconhecidos é dada por: p (u , γ ,σ 2 | Y ) = f ( Y | u , γ ,σ 2 ) p (u | γ ,σ 2 ) p (σ 2 | γ ) p ( γ ) ∫∫∫ f (Y | u ,γ ,σ 2 (4.26) ) p (u | γ ,σ 2 ) p (σ 2 | γ ) p ( γ ) dudσ 2 dγ Caso o parâmetro focal (principal) seja efetivamente u , para obter sua densidade de probabilidade marginal condicionada unicamente às observações basta integrar (4.26) e, assim, a incerteza em relação aos parâmetros γ e σ 2 é levada em consideração no processo de estimação: ∫∫ p(u, γ,σ | Y)dσ dγ = p (u | Y,σ , γ ) p (σ , γ | Y ) dσ dγ ∫∫ ∑∑ p(u | Y,σ , γ ) p(σ , γ | Y) p (u | Y ) = 2 2 2 M 2 (4.27) L 2 m ≅ 2 2 m l l m =1 l =1 M L ∑∑ p(σ 2 m , γ l | Y) m =1 l =1 Essas integrações não são, em geral, passíveis de avaliação e uma opção adotada em MLH é a estimativa empírica de Bayes, na qual se utiliza uma função de probabilidade posterior condicionada às estimativas pontuais dos parâmetros, em lugar de uma integração em relação aos parâmetros. A função de probabilidade condicional empírica equivalente a (4.27) é dada por: ^ ^ ^ ^ p (u | Y , γ ,σ ) = 2 ^ ^ f ( Y | u , γ ,σ ) p (u | γ ,σ 2 ) ^ ^ ∫ f (Y | u ,γ ,σ 2 2 ^ ^ (4.28) ) p (u | γ ,σ ) du 2 Ambos estes conceitos, integração para contabilização da incerteza em relação aos parâmetros e estimação empírica de Bayes (ver subseções 4.5.2, 4.5.3 e 4.5.4), 130 permeiam as estimativas em MLH. Nesse sentido, tem-se por f ( Y | u, γ , T, σ 2 ) uma função densidade de probabilidade condicional de Y , e por p (u | γ ,T ,σ ) 2 uma função densidade de probabilidade condicional de efeitos aleatórios de nível 2. Com os conceitos anteriores, uma função de verossimilhança para a amostra, dados os parâmetros a serem estimados, a menos de u , é dada por: L( Y | γ ,T ,σ 2 ) = ∫ f (Y | γ ,T,σ 2 ,u) p (u | γ ,T ,σ 2 ) du (4.29) O processo de estimação por MV em MLH pode ser sintetizado em duas etapas: avaliar a função de verossimilhança em (4.29) e, posteriormente, maximizá-la em função de γ ,T ,σ . Combinando MV e inferência Bayesiana, existem alguns 2 processos alternativos para esse fim. O primeiro é a estimação por MV dos parâmetros desconhecidos γ , T e σ 2, procedendo-se, posteriormente, à estimação empírica de Bayes de β j . Pode-se simbolizá-la por L( γ , T , σ | Y ). 2 Uma outra alternativa é a maximização da verossimilhança em (4.29), em função apenas de T e σ 2 , ao mesmo tempo considerando-se, ao menos em teoria, todos os valores possíveis de γ , denotados por γ m , nos moldes de (4.27), e, posteriormente, procedendo-se à estimação de γ por MQG e à estimação empírica de Bayes para β j . Ela pode ser simbolizada por L( T , σ | γ m , Y ). Essa alternativa 2 pode ser considerada parcialmente Bayesiana, ao integrar a função de verossimilhança em relação aos possíveis valores de γ . Ao lado disso, por realizar uma maximização marginal da função de verossimilhança, é também considerada uma estimação por MVR. Em relação a esse processo de MVR aplicado a MLH, Raudenbush e Bryk (2002, p.53) sintetizam que: Nos casos em que o número de unidades de nível 2, J, é grande, os dois métodos produzirão resultados bastante similares. Entretanto, quando J é pequeno, as estimativas de variância de MV serão menores do que as de MVR (...) por um fator de aproximadamente (J - F)/J, onde F é o número total de elementos no vetor de efeitos fixos, γ . Nesse mesmo sentido, Goldstein (2003, p.21) confirma que: 131 Procedimentos de MV produzem estimativas viesadas dos parâmetros aleatórios, porque não levam em consideração a variância amostral dos parâmetros fixos. Isso é importante em amostras pequenas e podemos produzir estimativas não viesadas utilizando uma modificação conhecida como máxima verossimilhança restrita. A conclusão é que a segunda alternativa de estimação, considerando a incerteza em relação a γ por meio de um processo de MVR, fortalece as estimativas de variância/covariância nos casos de J pequenos. Para a operacionalização dessas alternativas de estimação mencionadas, segundo Raudenbush e Bryk (2002, p.439), "a integral em (4.29) é, geralmente, de fácil avaliação e o problema passa a ser sua maximização". De fato, vai ser visto que os efeitos fixos e coeficientes aleatórios de nível 1 dependem das estimativas dos componentes de variância/covariância, que, por seu turno, dependem daquelas primeiras estimativas. Essa característica recursiva pode ser solucionada por meio do algoritmo Esperança-Maximização (EM) a ser apresentado na seção 4.5.4. 4.5.2 Estimativas de efeitos fixos por MQG Apresenta-se nesta seção a alternativa de estimação em MLH por MVR, o que implica na utilização de MQG para estimação de γ . Com a notação matricial adotada na seção anterior e substituindo (4.25) em (4.24), obtém-se o modelo combinado de níveis 1 e 2: Yj = X j Wj γ + X ju j + rj (4.30) T −1 T Premultiplicando (4.30) por (X j X j ) X j obtém-se: (XTj X j ) −1 XTj Y j = (XTj X j ) −1 XTj X j W j γ + (XTj X j ) −1 XTj X j u j + (XTj X j ) −1 XTj r j ⇒ (4.31) ^ β j = Wj γ + u j + e j ^ Nessa equação, assumindo-se que X j possua posto completo, β j pode ser entendido como o estimador de MQO de β j . Como e j ∼ N(0, V j ), a variância total ^ de β j , dado W j , equivale a: 132 ^ Var (β j ) = Var (u j + e j ) = T + V j (4.32) onde ^ V j = σ ( X X j ) : matriz de variância de β j como estimador de β j . 2 T j −1 ^ Como considera-se que são obtidos previamente T e ^ σ 2 por meio da maximização de L( T , σ | γ m , Y ) em um processo anterior, isso resulta que a 2 estimativa condicional de efeitos fixos pode ser obtida utilizando-se as estimativas de MQO para cada grupo j como variável resposta de uma estimação por MQG (pois os dados são não balanceados e possuem variabilidades distintas) aplicada à equação (4.31), conforme segue: ^ γ=( ∑ W Tj ∆ −j 1 W j ) −1 j ∑ ^ W Tj ∆ −j 1 β j (4.33) j onde ∆ j = T + V j . Portanto, o estimador de MQG pondera as estimativas de cada grupo pela precisão ∆ −j 1 proporcionada por cada um dos grupos j. Essa equação é funcional nos casos em que haja nj suficientes para estimação ^ de β j por MQO em todos os grupos j, e também em que todos os coeficientes de nível 1 possuam efeito aleatório. Podem ser consultados em Raudenbush e Bryk (2002) os desenvolvimentos que resultam numa equação equivalente à (4.33) aplicável nos casos em que essas condições restritivas são relaxadas. O caso da opção por estimar efeitos fixos por MV, maximizando uma função L( γ , T , σ | Y ), está contemplado na discussão a ser apresentada na seção 4.5.4. 2 4.5.3 Estimativas empíricas de Bayes para coeficientes aleatórios de nível 1 Viu-se na seção 4.5.1 que a estimativa de β j é obtida pelo processo empírico de Bayes em ambas as alternativas de estimação, por MV ou MVR. Inicialmente, um estimador imediato para β j pode ser obtido por MQO: 133 ^ β j = (XTj X j ) −1 X Tj Y j (4.34) Uma segunda opção é adotar como estimador o valor esperado obtido por meio da ^ equação (4.31), considerando-se o valor estimado para γ por MQG: ^ ^ β j = Wj γ (4.35) A partir dessas duas últimas equações, um estimador otimizado para β j pode ser obtido pelo conceito de estimador de Bayes (LINDLEY e SMITH, 1972), sendo que, ^ ^ nesse caso, β j responde pela estimativa inicial de MQO e W j γ pela estimativa condicionada posterior: ^ ^ β*j = Λ j β j + (1 − Λ j ) W j γ (4.36) onde tem-se que: Λ j = T ( T + V j ) −1 (4.37) Em (4.37) exprime-se a razão entre T , a real variabilidade de β j em torno de sua média, e a variabilidade total (T + V j ) −1 ^ verificada para β j . Segundo Morris (1983), caso seja baseado em estimativas para T e V j , o estimador em (4.36) é denominado de empírico de Bayes (apud BRYK e RAUDENBUSH,1992, p.40). Além ^ disso, em (4.37) observa-se que quanto mais eficiente for β j como um estimador de β j , maior peso será a ele conferido em (4.36), caso contrário, é privilegiada a ^ grande média W j γ . Como T e V j , em geral, representam matrizes de variância/covariância, que são estimadas por meio do exposto na próxima subseção, isso implica que as estimativas mais confiáveis obtidas para alguns coeficientes ^ aleatórios do vetor β j podem auxiliar as estimativas de coeficientes obtidos com menor precisão, fortalecendo as estimativas em geral. A medida em (4.37) é importante em termos de aplicação prática de MLH, já que pode ser entendida como uma medida multivariada de confiabilidade das estimativas. Em verdade, à medida 134 que J se eleva, a estimativa empírica de Bayes tende a ser a de menor erro quadrático médio em relação aos métodos de estimação alternativos. Com a estimativa composta obtida em (4.36), ambos os resíduos de nível 2 podem ser prontamente obtidos para cada grupo j. Os resíduos de MQO são dados por: ^ ^ ^ u j = β j − Wj γ (4.38) Já os resíduos empíricos de Bayes exprimem-se por: ^* ^ u j = β*j − W j γ (4.39) 4.5.4 Estimativas de MV para componentes de variância/covariância Nesta seção é abordada a estimação dos componentes de variância/covariância totalmente por MV, o que implica, de acordo com a seção 4.5.1, na maximização de L( γ , T , σ | Y ), ou seja, neste caso não é necessária a estimação de γ pelo 2 processo apresentado na seção 4.5.2. Um método muito utilizado em MLH para maximização dessa função de verossimilhança é o algoritmo EM. Segundo Andreoni (1989, p.48): O algoritmo EM, apresentado por Dempster, Laird e Rubin (1977), é um processo iterativo para calcular estimativas de máxima verossimilhança em situações que possam ser consideradas como tendo dados incompletos ou não observáveis. A idéia básica do EM é considerar os dados observáveis Y como uma parte de um sistema maior de dados completos U = (Y,W), onde W são os dados incompletos ou não observáveis. O passo M seria o responsável por maximizar a função de verossimilhança para a hipótese de dados completos. Contudo, como os dados são na verdade incompletos, M é posto em pratica por meio da substituição das estatísticas suficientes para dados completos pelas suas esperanças condicionais aos dados observados e às estimativas em vigor para os parâmetros e obtidas pelo passo E (ANDRADE e HELMS, 1984). No caso de MLH, na verdade a equação (4.30) pode ser considerada um caso particular de um modelo misto mais geral da forma: Y j = A fj θ f + A rj θ rj + r j onde (4.40) 135 A fj = X j W j , A rj = X j , θf = γ, θ rj = u j , suposições: r j ∼N (0 ,σ I ) e θ rj ∼ N (0 ,T) . 2 Note-se que a matriz X j foi distribuída em duas novas: A fj engloba as preditoras de nível 1 cujos coeficientes contam com efeitos fixos no nível 2, ao passo que A rj contém as preditoras de nível 1 cujos coeficientes possuem efeito aleatório no nível 2. Portanto, o modelo em (4.40) é mais genérico, na medida em que ele não requisita que todos os coeficientes de nível 1 possuam tanto efeito fixo quanto aleatório. No sentido do já mencionado, o EM vai considerar que os Y j são dados observados e θ rj os faltantes. Portanto, os dados completos são denotados por U= ( Y j ,θ rj ) , enquanto que γ , T e σ 2 têm de ser estimados por MV. Se os dados estivessem completos, a estimativa de θ f poderia ser obtida pela aplicação de MQO em (4.40), após a subtração de A rj θ rj em ambos os seus lados. ^ θf =( ∑A T fj A fj ) −1 j ∑A T fj (Y j − A rj θ rj ) (4.41) j Os estimadores para dados completos de T e σ 2 podem também ser explicitados: ^ T = J −1 ∑θ θ rj T rj (4.42) j ^ σ =N 2 −1 ^T ^ ∑r j rj (4.43) j As equações (4.41), (4.42) e (4.43) permitem definir as estatísticas suficientes para dados completos (ESDC) que maximizam L( γ , T , σ | Y ), denotadas por: 2 136 ∑A T fj A rj θ rj , j ∑ θ θ , ∑ Y A θ e ∑θ A rj T j T rj j rj T rj rj j T rj A rj θ rj (4.44) j As ESDC, que são obtidas no passo M, não podem ainda ser calculadas, pois há dados faltantes ( θ rj ). Contudo, no passo E podem ser estimadas suas esperanças condicionadas aos valores de Y e às estimativas iniciais para θ f , T e σ2. A questão então passa a ser avaliar E(ESDC| Y , θ f , T , σ ) e isso requer a 2 distribuição condicional posterior dos dados faltantes, θ rj , em relação a Y , θ f , T e σ 2 . Pelos desenvolvimentos de Morrison (1967), Smith (1973) (apud RAUDENBUSH e BRYK, 2002, p.442-443) e Dempster, Rubin e Tsutakawa (1981), ela é dada por: (θ rj | Y ,θ f ,T ,σ 2 ) ∼N (θ*rj ,σ 2 C −j 1 ) (4.45) onde θ*rj = C −j 1 A Trj (Y j − A fj θ f ) , e C j = A Trj A rj + σ 2 T -1 . Por meio de (4.45) consegue-se completar os dados, e a s-ésima iteração do algoritmo EM, s = 1, 2,..., começa pelo passo E, avaliando-se os valores esperados condicionados para as ESDC, quais sejam: ⎛ E⎜ ⎜ ⎝ ⎛ E⎜ ⎜ ⎝ ⎛ E⎜ ⎜ ⎝ ∑ ⎞ A Tfj A rj θ rj | Y ,θ f ,σ 2 ,T ⎟ = ⎟ ⎠ ∑ ⎞ θ rj θTrj | Y ,θ f ,σ 2 ,T ⎟ = ⎟ ⎠ ∑θ θ ∑ ⎞ r Tj r j | Y, θ f ,σ 2 , T ⎟ = ⎟ ⎠ ∑r j j j ∑A A rj θ*rj (4.46) j * *T rj rj j j T fj *T j +σ 2 ∑C r *j + σ 2 tr −1 j (4.47) j ∑C −1 j A Trj A rj (4.48) j Essas equações são avaliadas por meio de estimativas anteriores de θ f ,σ ,T 2 * obtidas no passo (s - 1), e com a subseqüente atualização de θ rj e C j . Após isso, vai-se ao passo M, substituindo-se os valores de (4.46), (4.47) e (4.48), 137 respectivamente, em (4.41), (4.42) e (4.43) de forma a se obterem novas estimativas para θ f ,σ ,T . Com as novas estimativas obtidas retorna-se ao passo E, em um 2 processo iterativo, até que a convergência dos parâmetros seja atingida. É interessante frisar que o algoritmo EM não exige que a função de verossimilhança seja especificamente avaliada a cada iteração, pois pode-se provar que a substituição de E(ESDC| Y , θ f , T , σ ) nas equações que formam o passo M, 2 (4.41), (4.42) e (4.43), garante novas estimativas com maior valor de verossimilhança. Entretanto, seu cálculo pode ser informativo em relação ao andamento do processo de maximização (DEMPSTER, LAIRD e RUBIN, 1977; DEMPSTER, RUBIN e TSUTAKAWA, 1981). Caso esse seja um dos interesses do pesquisador, tem-se, para o caso MV, que a integral na equação (4.29), a função de verossimilhança a ser maximizada pelo EM, é uma função de θ f , T , e σ 2 avaliada para Y e θ rj conhecidos (dados), e é simbolizada por: logL(θ f , T,σ 2 | Y, θ rj ) ≅ − Nlog (σ 2 ) − Jlog | T | − ∑ (Y − A ∑θ T θ j fj θ f − A rj θ rj )T (Y j − A fj θ f − A rj θ rj ) σ 2 − (4.49) j T rj −1 rj j Em Bryk e Raudenbush (1992) pode ser consultada detalhadamente toda a formulação para a estimação equivalente à apresentada nesta subseção aplicável no caso de opção por estimativas de MVR. Finalmente, é importante frisar que o apresentado aqui não representa a única alternativa para estimação em MLH, já que um algoritmo por MQG iterativo também pode ser utilizado, inclusive para solução do impasse sobre o que estimar primeiro, se os efeitos fixos ou os componentes de variância/covariância, podendo também ser adaptado para fornecer estimativas não viesadas por mínimos quadrados generalizados iterativo restrito (GOLDSTEIN, 2003). 4.6 Estimação em MLGH 4.6.1 Conceitos iniciais e notação matricial 138 A estimação em MLGH também se caracteriza por incorporar todos os métodos já discutidos anteriormente neste trabalho, mas combinando-os com processos adicionais, em razão de se defrontar com uma função de resposta não linear. Mantém-se o emprego da notação matricial utilizada até aqui quando forem coincidentes os caracteres. Até a seção anterior, consideraram-se modelos com efeitos aleatórios normalmente distribuídos em ambos os níveis. Contudo, em MLGH esta situação se complica, já que se viu no capítulo 3 que eles são formados por um modelo amostral de nível 1 não Normal e por um modelo estrutural de nível 2 contando com efeitos aleatórios normalmente distribuídos. Uma função de verossimilhança similar à apresentada em (4.29) é a seguinte: L(Y | γ ) = ∫ f ( Y | γ , u ) p (u | γ ) d u (4.50) Observe-se que lá em MLH os dois fatores do produto no integrando são normalmente distribuídos, e isso implica na normalidade da função. Essa situação facilita a dedução da função de verossimilhança e o problema maior passa a ser sua maximização. Já no caso de um MLGH, a questão é que a primeira parcela do integrando é agora Binomial, Poisson ou Multinomial, sendo especificamente Binomial no caso prático abordado nesta pesquisa, acarretando que a distribuição conjunta interna à integral em (4.50) é, na verdade, mista, por exemplo, BinomialNormal. A conseqüência é que a função de verossimilhança em MLGH tem de ser encontrada de forma numérica, assim como sua maximização. 4.6.2 Obtendo estimativas unit-specific Uma das abordagens para se obter a função de verossimilhança e sua maximização em MLGH é a Penalized Quasi-Likelihood (PQL). Em relação à terminologia "Quasi-Likelihood", o que se pode dizer, de acordo com Zorn (1998, p.9) é que: Enquanto máxima verossimilhança padrão requisita a especificação da distribuição condicional da variável resposta, quasi-likelihood necessita apenas que se defina o relacionamento entre o valor esperado da resposta e as covariáveis, e entre a média e a variância da variável resposta. Maiores detalhes em Quasi-Likelihood podem ser encontrados em Heyde (1997). 139 Nesse contexto, o processo de estimação em PQL, utilizado nos casos de modelos lineares mistos generalizados (MLMG), envolve o ajuste sucessivo de um MLMG contando com uma variável resposta de trabalho e com pesos iterativos que dependem dos parâmetros estimados em um passo anterior (BRESLOW, 2003). Em relação à aplicação de PQL em MLGH, ela envolve a linearização da função de resposta e a utilização de uma espécie de ponderação por pesos no nível 1. Para isso, é preciso que se parta do modelo amostral não Normal já conhecido: Seja a variável resposta Yij seguindo a distribuição Bernoulli mencionada na seção 3.4 e com a aplicação da função de ligação logito da equação (3.41), considere-se o seguinte modelo: Yij = φ ij + ε ij (4.51) Nele verificam-se as seguintes propriedades: E (ε ij ) = 0 e Var (ε ij ) = wij = φ ij (1 − φ ij ) (4.52) Pode-se recordar, a partir do exposto no capítulo 3, que o valor esperado da função de resposta do modelo em (4.51) significa a probabilidade de que Yij = 1 , dados os níveis para as preditoras do modelo estrutural de nível 1 em (3.40). Esse modelo pode ser linearizado pela expansão de φij por meio da série de Taylor (apresentada no Apêndice D) de primeira ordem centrada em ηij(s ) . Sabendo-se que φ ij é definido pela equação (3.39) obtém-se: φij ≈ φij( s ) + onde dφij dη ij (η ij − η ij( s ) ) (4.53) η ij( s ) entende-se como ηij sendo avaliado para uma estimativa inicial φij(s ) , ou seja, η (s) ij ⎛ φij( s ) ⎞ ⎟. = log ⎜ ⎜ 1 − φ (s) ⎟ ij ⎠ ⎝ Tem-se também que: dφij dηij = wij = φij (1 − φ ij ) (4.54) 140 Avaliando (4.54) em φ ij( s ) e substituindo em (4.51) tem-se que: Yij ≈ φ ij( s ) + wij( s ) (ηij − ηij( s ) ) + ε ij (4.55) Essa equação pode ser escrita levando-se todas as parcelas observáveis para o lado esquerdo do sinal de igualdade: Yij − φ ij( s ) wij( s ) + ηij( s ) = ηij + ε ij (4.56) wij( s ) O ponto importante é que (4.56) pode ser escrita sob a conhecida forma de um MLH idêntico ao modelo combinado de níveis 1 e 2 em (4.30), mas contando ainda com o subscrito i: Yij* ( s ) = A Tfij γ + A Trij u j + eij (4.57) onde = *( s ) ij Y Yij − φij( s ) (s) ij w ε ij eij = wij( s ) + ηij( s ) , , suposições: eij ∼N(0, wij( s )−1 ), e u j ∼N(0, T ). A partir de (4.56) e (4.57), uma estimativa para ηij é dada por: (s) η (s) ij ^ (s) = A γ + A Trij u*j( s ) T fij (4.58) onde A Tfij : vetor que forma i-ésima linha da matriz A fj , A Trij : vetor que forma i-ésima linha da matriz A rj . * (s ) Além disso, (4.58) requisita uma avaliação para u j , que pode ser calculada pela aplicação de MQG em (4.57), eliminando-se os subscritos i, e com a devida atenção prestada à variabilidade de u j : 141 u *( s ) j = ( A W A rj + T T rj (s) j ( s ) −1 −1 T rj ( s) j ) A W (Y *( s ) j ^ (s) − A fj γ ) (4.59) onde W j( s ) : matriz diagonal de pesos wij( s ) ,..., wn( sj )j . Observe-se que (4.57) justifica a utilização de um processo de estimação como o descrito na subseção 4.5.4 para obtenção de suas estimativas e, contando com essa possibilidade, o PQL funciona em dois estágios. Em um estágio inicial, o modelo em (4.57) tem sua verossimilhança, L( T , γ | Yij* ( s ) , wij( s )−1 ), maximizada a partir de estimativas iniciais para φij( s ) e, ato contínuo, para ηij(s) , wij(s) e Yij* ( s ) . Com as novas estimativas obtidas para T ( s +1) e γ ( s +1) , em um * ( s +1) estágio 2 deve-se obter u j wij( s +1) = φij( s +1) (1 − φij( s +1) ) , * ( s +1) linearizadas Yij e, ( s +1) e ηij , o que permite que se recalculem os pesos conseqüentemente, novas variáveis resposta . Com isso, volta-se ao estágio inicial em um esquema iterativo, até que a convergência dos parâmetros seja atingida. Em relação às estimativas obtidas por esse processo, pode-se recorrer ao comentário de MacKonway et al. (apud BRESLOW, 2003, p.ii) "Penalized QuasiLikelihood é uma técnica para inferência aproximada em MLMG e não um método estatístico exato em sentido estrito". Isso se deve à linearização da função de resposta e a subseqüente assunção de sua distribuição dar-se de forma aproximadamente Normal, como de fato assumido em (4.57). Isso obviamente causa certos distúrbios ao processo de estimação e Breslow e Lin (apud RAUDENBUSH e BRYK, 2002, p.459) alertam que em casos de variâncias de nível 2 muito elevadas, o PQL obtém "estimativas de variância e de efeitos fixos negativamente viesadas". Resgatando que o título dessa subseção remete o leitor ao exposto na seção 3.4, em relação ao significado das estimativas unit-specific e population-average, concluise, a partir da observação de (4.58), que o valor ali estimado é condicionado a um dado vetor u j , e, por isso, o PQL presta-se e obtém as estimativas unit-specific. Finalmente, muito embora PQL seja o método mais utilizado pela literatura de referência em MLGH (RAUDENBUSH e BRYK, 2002; GOLDSTEIN, 2003), a aproximação do integrando em (4.50) pelo método de Laplace é também uma 142 alternativa viável para realização das inferências em MLGH (RAUDENBUSH e BRYK, 2002). 4.6.3 Obtendo estimativas population-average As estimativas population-average são obtidas por meio de uma abordagem similar à de Generalized Estimating Equation (GEE), popularizada por Zeger et al. (1988) (RAUDENBUSH e BRYK, 2002). GEE é uma abordagem de estimação marginal, ou population-averaged, que difere das propostas de estimativas unitspecific na medida em que estas modelam a distribuição de probabilidade da variável dependente como uma função das covariáveis e de um parâmetro específico de grupo ou unidade, enquanto que aquela modela a esperança marginal da variável resposta apenas como função das covariáveis, também possuindo raízes nas mencionadas abordagens de quasi-likelihood (ZORN, 1998). Não obstante seu princípio de estimação, GEE também leva em consideração a correlação de medidas intragrupos requisitada em MLH e MLGH, por meio da utilização das estimativas dos componentes de variância/covariância previamente obtidas para o modelo unitspecific, em um processo de estimação dos efeitos fixos por MQG. Assim, no que concerne a equação linearizada (4.57), a intenção agora é desconsiderar o vetor de parâmetros aleatórios de nível 2, da seguinte forma: Yij* ( s ) = A Tfij γ + ε ij (4.60) onde VPA : matriz de variância/covariância dos termos de erros aleatórios, η (s) ij ^ (s) =A γ , T fij suposições: ε ij ∼ N(0, VPA ). Como se está modelando um MLH, os termos aleatórios em (4.60) devem ainda ser considerados como correlacionados internamente em cada grupo. A chave do sucesso nesse processo é a utilização de uma matriz de variância/covariância apropriada, aqui denotada por VPA , e que pode ser aproximada a partir das estimativas obtidas para o processo unit-specific, isso segundo o proposto por Zeger et al. (apud RAUDENBUSH e BRYK, 2002, p.303). Dessa forma, eliminando-se o 143 subscrito i e aplicando MQG a (4.60), obtém-se a estimativa population-averaged para o vetor de efeitos fixos: ^ γ PA = ( ∑A T fj −1 VPAj A j ) −1 j ∑A T fj −1 VPAj Yj (4.61) j Como em (4.60) observa-se que não há um parâmetro específico de grupo, os efeitos aleatórios de nível 2 são absorvidos pelo termo de erro ε ij . Portanto, todas as inferências e interpretações subseqüentes proporcionadas pela estimação do modelo não estarão sujeitas, ou condicionadas, a um dado vetor u j e isso é importante, a depender dos interesses da pesquisa, como foi comentado na subseção 3.4.1. 4.7 Intervalos de confiança em MLGH Todas as estimativas anteriormente referidas em termos de MLH e MLGH foram pontuais. As inferências em termos de intervalos de confiança para os efeitos fixos e coeficientes aleatórios de nível 1 podem ser obtidas em função dessas estimativas pontuais e das estimativas dos erros padrões diretamente decorrentes das estimativas de variância dos estimadores. Os detalhes sobre o estabelecimento de intervalos de confiança em MLH e em MLGH, cujos procedimentos são os mesmos prescritos para MLH, podem ser acessados em Raudenbush e Bryk (2002) e Goldstein (2003). 4.8 Testes de hipóteses em MLGH 4.8.1 Introdução Nesta seção estar-se-á complementando os aspectos de inferência em MLH e MLGH, por meio da apresentação dos conceitos que envolvem testes de hipóteses, e que são de plena aplicação na fase prática de ajuste e redução de MLH. A notação matricial utilizada aqui é mantida, em relação ao capítulo 3 e seções anteriores deste capítulo, quando coincidentes os símbolos matemáticos. Um aspecto que simplifica a análise nesta seção é que, devido às especificações estruturais dos modelos apresentados até esta altura, mormente a linearização da 144 resposta praticada em MLGH, os testes são realizados de forma praticamente idêntica em MLH e MLGH. A única exceção se dá em relação ao teste de razão de verossimilhança (ver subseção 4.8.4), não disponível em PQL, porém possível por LAPLACE (RAUDENBUSH et al., 2000). Portanto, o conteúdo apresentado em seqüência é prontamente aplicável tanto em MLH quanto MLGH, a menos da referida exceção. Nas subseções 4.8.2 a 4.8.4 são apresentados os princípios que norteiam os referidos testes de hipóteses, seguindo, principalmente, o proposto por Bryk e Raudenbush (1992). 4.8.2 Testes relacionados a efeitos fixos Testar um único parâmetro envolve a seguinte hipótese nula: H0: γ qs = 0 . Isso implica em testar se o efeito de uma determinada preditora de nível 2, W sj , equivale a zero. A estatística de interesse é dada por: ^ z= γ qs ^ (V γ ) ^ (4.62) 1/ 2 qs onde ^ γ qs : estimativa para o qs-ésimo efeito fixo, ^ ^ V γ : variância estimada para γ qs . ^ qs Essa estatística, que exprime a razão entre o coeficiente estimado e seu erro padrão, segue, assintoticamente, uma distribuição Normal padronizada. Contudo, considerar (4.62) seguindo uma distribuição t com número de graus de liberdade dado por (J - Sq - 1) permite inferências mais acuradas (RAUDENBUSH e BRYK, 2002). Um teste envolvendo diversos efeitos fixos pode ser também executado. Seja um vetor de efeitos fixos γ = ( γ00 ,γ01 ,γ10 ,γ11 ) . O interesse pode ser testar se γ01 e γ11 T são iguais a zero. Isso pode ser levado a termo pelo general linear hypothesis test (GLHT). A hipótese nula multiparâmetro é dada por: 145 ⎛ γ 01 ⎞ ⎟⎟ = 0 ⎝ 11 ⎠ H0: C T γ = ⎜⎜ γ onde ⎛ 0 1 0 0⎞ ⎟⎟ . C T = ⎜⎜ 0 0 0 1 ⎝ ⎠ Sendo conhecida a precisão amostral dos grupos j conforme definido em (4.33), a ^ variância de γ é definida por: ⎛ Var ( γ ) = ⎜ ⎜ ⎝ ^ ∑ j −1 ⎞ W Tj ∆ −j1 W j ⎟ = V^ ⎟ γ ⎠ (4.63) −1 Ocorre que em geral não se conhece ∆ j , que tem de ser estimado. Dessa forma a estimativa da variância do estimador de γ é explicitada por: ⎛ Var ( γ ) = ⎜ ⎜ ⎝ ^ ^ ∑ j −1 ^ ⎞ ^ W Tj ∆ j W j ⎟ = V γ ⎟ ⎠ ^ −1 T (4.64) ^ e o vetor de contraste C γ tem, então, sua estimativa de variância dada por ^ ^ ^ ^ Var (C T γ ) = C T V γ C , denotada por V c . Com isso, uma estatística para o GLHT é ^ dada aproximadamente por: ^T ^ −1 ^ H = γ C V c CT γ (4.65) que, sob a hipótese nula, segue assintoticamente uma distribuição χ 2 com número T de graus de liberdade dado pela quantidade de linhas da matriz C . 4.8.3 Testes relacionados a coeficientes aleatórios de nível 1 O teste envolvendo um único coeficiente segue basicamente a mesma filosofia em relação aos efeitos fixos. Seja a hipótese nula: H0: β qj = 0 . 146 Pelo acompanhamento do exposto na subseção 4.5.3 fica fácil ver por que, agora, o pesquisador tem a opção de utilizar no teste as estimativas de MQO ou então as empíricas de Bayes. Empregando-se aqui a empírica de Bayes tem-se: z= β qj* (4.66) Vqq*1/2 j onde β qj* : q-ésima estimativa empírica de Bayes do grupo j, * Vqqj : q-ésimo elemento diagonal da matriz de dispersão posterior dos coeficientes β qj . Essa estatística z segue, assintoticamente, uma distribuição Normal padronizada. O teste para múltiplos β qj pode ser posto em prática a partir da seguinte hipótese nula: H0: C β = 0 T onde β : vetor de ordem [J(Q + 1) x 1] de coeficientes aleatórios de nível 1. A estatística utilizada no teste para estimativas empíricas de Bayes é: H EB = β *T C(C T V *C) −1 C T β * (4.67) onde V * : matriz de ordem [J(Q + 1) x J(Q + 1)] de variância/covariância dos coeficientes aleatórios de nível 1. É preciso que se ressalte que existem ainda outras possíveis alternativas para realização desse teste disponíveis ao pesquisador, não apresentadas aqui, que podem ser consultadas em Raudenbush e Bryk (2002). 4.8.4 Testes relacionados a componentes de variância/covariância Uma das preocupações do pesquisador em modelos hierárquicos é avaliar se os coeficientes aleatórios de nível 1 efetivamente possuem efeito aleatório ou devem ser especificados como fixos em relação aos grupos. Isso pode ser aferido por um 147 teste de componentes de variância/covariância. Quando ele envolve um único parâmetro, a hipótese nula é: H0: τ qq = 0 . No caso de todos - ou quase todos - os grupos propiciarem uma estimativa de MQO para β qj , uma estatística possível para o teste, já que a estimativa da variância do ^ ^ estimador de β qj , sob a hipótese nula, é equivalente a V j = σ 2 ( XTj X j ) −1 , é dada por: h= ∑ j ⎛ β^ − γ^ − ⎜ qj q0 ⎝ ∑ γ qsWsj ⎞⎟ s =1 ⎠ Sq ^ 2 ^ V qqj (4.68) onde ^ ^ V qqj : q-ésimo elemento diagonal de V j . Essa estatística segue aproximadamente uma distribuição χ 2 com (J - Sq - 1) graus de liberdade. Outra opção para o teste é utilizar a estatística: ^ ^ z = τ qq ⎡⎢Var (τ qq )1 / 2 ⎤⎥ ⎦ ⎣ (4.69) que é, assintoticamente, aproximadamente Normal, mas nos casos em que τ qq é muito próximo de zero essa aproximação será bastante pobre e, conseqüentemente, proporcionará inferências enganosas. Uma discussão em torno dessa ocorrência pode ser encontrada em Giampaoli (apud NATIS, 2000, p.48). Os testes multiparâmetros para componentes de variância/covariância são fundamentados no teste da razão de verossimilhança e a filosofia do teste é bem definida por Natis (2000, p.48): Temos na hipótese nula todos os componentes que se deseja testar considerados nulos. Dessa forma, a hipótese nula corresponde a uma forma reduzida da hipótese alternativa. Vale ressaltar que tanto na hipótese nula quanto na hipótese alternativa, os modelos devem ser idênticos com relação aos efeitos fixos. A hipótese nula, nesse caso é dada por H0: T = T0 , a ser testada contra a alternativa H1: T = T1 . T0 representa uma matriz de variância/covariância associada 148 a um modelo reduzido em relação ao modelo mais geral correspondente à matriz T1 . A estatística do teste é dada por: H RV = D0 − D1 (4.70) onde D0 e D1 são as deviances proporcionadas pelo ajuste, respectivamente, dos modelos reduzido e geral. A deviance é calculada por meio de D = −2 log L (θ) , entendendo-se θ como o vetor de parâmetros do modelo e L (θ) sendo avaliada em seu máximo. Sabe-se que quanto maior a deviance pior o ajuste obtido para o modelo. A estatística em (4.70) segue uma distribuição χ 2 com (m) graus de liberdade, onde m é a diferença entre o número de parâmetros previstos para os dois modelos. Valores elevados para essa estatística indicam que a hipótese nula é muito simples para explicar os dados observados e a redução na deviance ocasionada pelo modelo mais completo se justifica. Uma implicação da existência de alternativas de estimação por MV e MVR referidas na seção 4.5 é que em MV todo e qualquer par de modelos, geral e restrito, pode ser testado por meio da razão de verossimilhança, ou seja, torna-se um teste simultâneo que pode envolver efeitos fixos e componentes de variância/covariância. Por outro lado, em MVR, um teste como esse só é possível para avaliar hipóteses formuladas a respeito dos componentes de variância/covariância (RAUDENBUSH e BRYK, 2002). 4.9 Conclusão Neste capítulo foram apresentados os processos que fundamentam as estimativas de parâmetros em MLH e MLGH aplicados a estruturas de dados correlacionados. Viu-se que os processos utilizam-se de uma complexa combinação de métodos já tradicionais em estatística com métodos adicionais mais recentes. O resultado é que as estimativas de efeitos fixos, coeficientes aleatórios de nível 1 e componentes de variância/covariância provêem ao pesquisador uma maior riqueza interpretativa para os fenômenos em estudo, isso em uma modelagem única e robusta. Com isso, no próximo capítulo, é apresentada a proposta de solução do problema de tese explorando essas potencialidades de modelagem. 149 5 NOVO MÉTODO DE CLASSIFICAÇÃO DE CONTRIBUINTES PARA FISCALIZAÇÃO 5.1 Introdução As metodologias para seleção de contribuintes para fiscalização possuem suas próprias características, vantagens e desvantagens. Na prática, viu-se pela revisão de literatura que mais importante do que seguir à risca apenas uma delas é ter conhecimento dos princípios gerais que as regem e seus principais resultados esperados, para que possam ser propostos, tempestivamente, métodos únicos ou combinados aplicáveis às necessidades, recursos, informações disponíveis e cultura organizacional próprios de cada usuário. Nesse contexto, o novo método de classificação de contribuintes proposto neste capítulo não é talhado, a princípio, para substituir nenhum processo de seleção de contribuintes para fiscalização ora existente, mas sim para fornecer mais uma opção válida especialmente nos momentos que exijam pronta reação por parte dos órgãos tributários, como ainda vai ser detalhado neste capítulo. O classificador proposto é baseado nos MLGH, haja vista que há fundamentadas evidências de que contribuintes pertencentes a um mesmo grupo ou setor de atividade econômica tendem a ser mais parecidos entre si do que contribuintes que se dedicam a distintas atividades econômicas, hipótese que é devidamente avaliada no próximo capítulo. Para a identificação dos grupos que conferem a estrutura hierárquica dos dados de trabalho, empresas aninhadas em setores de atividades econômicas, será utilizada a Classificação Nacional de Atividades Econômicas Fiscal (CNAE-Fiscal) das pessoas jurídicas, cuja estrutura está também detalhada no próximo capítulo. 5.2 Conceituação de infração e definição das variáveis resposta de interesse aos modelos lineares generalizados hierárquicos Já foi dito no capítulo introdutório que nem todos aqueles que possuem indícios de infração fiscal são efetivamente fiscalizados pelas agências tributárias. Além disso, o modus operandi da SRF, semelhante à já referida metáfora da malha 150 colhendo os contribuintes apresentando grandes indícios de infração à legislação tributária, acaba por não proporcionar uma informação dicotômica exata sobre se o contribuinte apresenta ou não indício de infração fiscal. De fato, na prática parece ser difícil de se trabalhar com essa informação, já que possivelmente seria bastante grande a quantidade de contribuintes apresentando algum tipo de indício de infração fiscal com valor superior a zero, o que inviabilizaria a fiscalização simultânea de todos eles. O fato é que não se registra essa informação nas bases de dados da SRF. Por outro lado, uma informação disponível é sobre se o contribuinte foi ou não fiscalizado. Isso permite a definição de uma primeira variável dicotômica: o contribuinte "foi fiscalizado ou não foi fiscalizado". Considerando-se que a miríade de contribuintes com as mais variadas gradações de indícios de infração fiscal força os órgãos tributários a estabelecerem regras, ou níveis de tolerância, que permitam um grau de priorização na seleção de contribuintes, isso garante que um contribuinte fiscalizado foi previamente considerado como de relevante interesse fiscal, ou, em outras palavras, prioritário à fiscalização. Além disso, assume-se aqui que os contribuintes fiscalizados pela SRF foram selecionados, salvo raras exceções como nos casos de CPI's ou demandas do Ministério Público (MP), em virtude de apresentarem indícios de infração fiscal que foram apurados com base no banco de dados de cruzamento de informações internas e externas da SRF, indicado na Figura 1 (ver capítulo introdutório). Nesse contexto e tendo em vista o exposto no parágrafo anterior, o fato de um determinado contribuinte ter sido fiscalizado informa e garante que detectou-se-lhe previamente um relevante indício de infração fiscal, e isso permite sua distinção em relação ao contribuinte que não foi fiscalizado que, portanto, não apresentou indício relevante. De posse dessa variável dicotômica informando se o contribuinte "foi fiscalizado ou não foi fiscalizado", abre-se, então, uma primeira possibilidade de classificação, por meio da modelagem da probabilidade de ocorrência da seguinte característica de interesse - efetivamente observável: "o contribuinte apresenta indício de infração à legislação tributária". Com isso pode-se estabelecer um MLGH associado à ocorrência de indício de infração fiscal, o que se denomina aqui de MLGH1. Dessa forma, daqui por diante, assume-se por "indício de infração" o indício de infração à legislação tributária de regência dos tributos administrados pela SRF e incidentes sobre as PJ (IRPJ, CSLL, PIS/PASEP, COFINS e IPI) em magnitude 151 superior a um determinado nível de tolerância, desconhecido, admitido pelo órgão e que, portanto, suscita uma subseqüente fiscalização do contribuinte potencialmente infrator. Ocorre que a base de dados de trabalho também permite o conhecimento a respeito dos contribuintes que foram efetivamente autuados após as fiscalizações da SRF. Naturalmente isso abre outra possibilidade, que é classificar contribuintes por meio de um MLGH que modele a probabilidade de ocorrência da característica de interesse indicando que "o contribuinte é infrator". Designa-se, então, um MLGH2 associado à presença (ocorrência) de infração à legislação tributária de regência dos tributos administrados pela SRF e incidentes sobre as PJ (IRPJ, CSLL, PIS/PASEP, COFINS e IPI). O MLGH1 é bastante importante, na medida em que sua variável resposta projetada resume toda a informação proporcionada pelo banco de dados de cruzamento de informações da Figura 1, o que é interessante em termos de pesquisa e de recursos financeiros. Já o MLGH2 é relevante, pois seu objetivo é modelar o comportamento tributário infrator em sua natureza. A estimação de ambos proporciona excelente oportunidade para a comparação qualitativa das variáveis que, possivelmente, expliquem a variabilidade nas respectivas respostas esperadas. Portanto, ambos os modelos justificam-se plenamente. 5.3 Processo esquemático do novo método de classificação A partir do exposto, um novo método para classificação de contribuintes para fins de fiscalização por parte de órgãos tributários pode se dar a partir do esquema ilustrado na Figura 5, a seguir. 152 Figura 5: Novo método de classificação (seleção) de contribuintes para fiscalização Deve-se recordar neste momento, como já mencionado no primeiro capítulo, que este novo método de classificação, uma vez materializado, vem a corresponder, na prática, a um processo de seleção de contribuintes para fiscalização, tal como indicado na legenda da Figura 5, fundamentando-se na previsão de comportamento e classificação de contribuintes em dois grupos distintos, os de interesse à fiscalização tributária (que comporão a programação de ações fiscais) e os demais (controlados nos dossiês de contribuintes). Essa solução genérica apresenta a vantagem de se adequar especificamente à cultura organizacional da SRF, uma vez que preserva a ideologia do sistema atual lá praticado (seleção inicial por indícios de infração e posterior auditoria), principalmente em relação aos grandes contribuintes como os que apuram o Lucro Real. Em relação ao retângulo em amarelo na figura - Previsão do Crédito Tributário Lançado (R$) - é natural que uma vez tendo sido obtida a lista de empresas prioritárias à fiscalização, de acordo com as probabilidades preditas pelo MLGH, se deseje aproveitar a ocasião para prever o valor do crédito tributário em reais esperado para as futuras auditorias a serem deflagradas, o que representaria uma complementação para a programação de ações fiscais proposta. Entretanto, esse modelo de previsão complementar não será estimado, constando na Figura 5 a título de enriquecimento do novo processo de classificação e também como sugestão para estudos futuros. Sendo assim, esta pesquisa contempla os processos encerrados pela linha tracejada da Figura 5. 153 É importante que se ressalte que na modelagem de nível 1 serão utilizadas como preditoras tão-somente as informações prestadas pelo próprio declarante em sua DIPJ (indicadores econômico-fiscais individuais e mais alguns valores contábeis brutos), de forma a que os MLGH sejam independentes de dados individuais de contribuintes prestados por fontes externas de informação. No caso do nível 2, serão pesquisadas variáveis setoriais não sigilosas de fácil e rápido acesso, que possam explicar a variabilidade nas respostas devida exclusivamente aos setores de atividades econômicas. Estas características de especificação e utilização dos modelos possibilitam uma maior agilidade de ação por parte da fiscalização tributária. 5.4 Conclusões do capítulo As conclusões gerais do capítulo 2, principalmente itens "d", "f", "g" e "h", corroboram a importância de estudos como o aqui proposto. Além disso, o trabalho de Andreoni (1992), também referido no segundo capítulo, mostra claramente a importância da tentativa de redução dos intervalos de tempo decorridos entre o cometimento de uma infração fiscal por parte do contribuinte e sua efetiva fiscalização, haja vista que esse trabalho mostrou que o contribuinte infrator pode se aproveitar disso para maximizar seus recursos, em prejuízo do Estado. A relevância da pesquisa e os resultados esperados pela adoção do novo processo da Figura 5 já foram relacionados no capítulo introdutório, mas, novamente, de maneira geral, o que se pretende é privilegiar a autonomia e agilidade de ação da fiscalização tributária, promover a economia de recursos públicos e agregar conhecimento acerca do comportamento tributário dos contribuintes PJ e dos setores econômicos, produzindo resultados inéditos e interessantes à formulação de políticas fiscais. O novo método de classificação de contribuintes para fiscalização proposto neste capítulo é aplicado no capítulo 7 (Estimação e Aplicação de Modelos à Classificação de Contribuintes para Fiscalização) a partir da análise exploratória de dados executada no próximo capítulo (Análise Exploratória de Dados Econômico-Fiscais das Pessoas Jurídicas). 154 6 ANÁLISE EXPLORATÓRIA DE DADOS ECONÔMICO-FISCAIS DAS PESSOAS JURÍDICAS 6.1 Descrição das bases de dados Os dados disponíveis para esta pesquisa são relacionados às informações prestadas à SRF pelas próprias pessoas jurídicas brasileiras em suas DIPJ referentes ao exercício 2000, ano-calendário 1999, que apuraram o imposto de renda pelo regime de apuração do Lucro Real, excluindo-se as instituições financeiras. São as grandes empresas brasileiras, uma vez que o Lucro Real foi o regime obrigatório para os contribuintes cuja receita total fosse superior ao limite anual de 24 milhões de reais, para o ano-calendário de 1999. Nesse âmbito, dispõe-se das seguintes informações individuais referentes a 172.729 contribuintes: valores contábeis brutos propriamente ditos e índices econômico-fiscais obtidos a partir das informações contábeis prestadas pelo contribuinte em DIPJ, conforme segue: a) 44 índices econômico-fiscais de resultado, mistos, de balanço e de atividades rurais; b) 10 valores contábeis brutos, quais sejam: - Lucro Operacional (LOPER), - Lucro Bruto (LBRUTO), - Receita Líquida (RECLIQ), - Lucro Real (LREAL), - Lucro antes da Contribuição Social (LACSLL), - Base de Cálculo da Contribuição Social sobre o Lucro Líquido (BCCSLL), - Receita Bruta do PIS/PASEP (RBPISP), - Base de Cálculo do PIS/PASEP (BCPISP), - Receita Bruta da COFINS (RBCOF), - Base de Cálculo da COFINS (BCCOF). Além disso, a base de dados contém a classificação CNAE-Fiscal do contribuinte. Conforme já mencionado no capítulo 5, dispõe-se da informação sobre se a pessoa jurídica foi fiscalizada e também se ela foi autuada. Isso permite a 155 consideração das variáveis binárias "contribuinte apresenta indício de infração, ou não apresenta indício de infração fiscal" e "contribuinte é infrator, ou não é infrator" para o ajuste, respectivamente, do MLGH1 e do MLGH2, utilizando-se como preditoras de nível 1 as informações individuais relacionadas nos itens "a" e "b" anteriores. 6.2 Pré-Processamento de dados Os dados de trabalho apresentaram dois tipos de situação a serem observadas na fase de pré-processamento. Alguns registros apresentam todos os seus campos assinalados com o código "IN", enquanto que em outros registros existem tanto campos codificados com "IN" quanto outros assinalados com valores numéricos. As informações obtidas com o setor de processamento de dados do SERPRO dão conta de que o código IN indica "inválido", significando que o contribuinte informou dados inválidos que foram processados pelo sistema mesmo nessas condições. De acordo com Klosgen e Zytkow (2002), a situação de dados inválidos pode ser remediada pelas seguintes medidas, a saber: desconsideração dos campos faltantes ou imputação dos dados. Também, no caso de registros parcialmente incompletos, Han e Kamber (2001) informam que pode ser adotada a estratégia de imputação dos dados por predição dos valores de campo porventura faltantes com base em uma regressão obtida a partir dos registros com dados completos. Assim, seguindo os primeiros autores, para os registros consignando códigos IN para todos os campos, foi adotada a estratégia de desconsiderá-los. Já para os registros apresentando alguns registros válidos concomitantemente com outros inválidos, a situação é diferente, pois ocorre que o campo referente à classificação CNAE-Fiscal do contribuinte foi sempre um dos inválidos. Dessa forma, para que fossem completados por regressão esses campos de classificação CNAE-Fiscal, ter-se-ia de considerar um cenário apresentando dezenas ou centenas de possibilidades de codificação CNAE-Fiscal distinta (número de agrupamentos existentes para os cinco níveis da CNAE-Fiscal, ver Quadro 2 da seção 6.3), o que tornaria tal previsão inviável. Por outro lado, Berry e Linoff (1997) consideram que na falta de uma variável categorizada, como o campo CNAE-Fiscal, pode fazer sentido sua substituição pelo valor mais comum da variável, mas 156 ressalte-se que, de acordo com Han e Kamber (2001), essa opção pode causar viés nos dados. Portanto, em um modelo multinível, em que os grupos são definidos pela classificação CNAE-Fiscal, ou seja, essa classificação é mais do que uma preditora em uma regressão, mas na verdade a definidora de uma estrutura hierárquica, a mera substituição da classificação CNAE-Fiscal faltante por uma média ou moda pode não fazer sentido algum, e ainda viesar os dados. Por isso, adotou-se a estratégia de desconsideração de todos os registros com dados parcial ou totalmente faltantes, no caso 8.263 registros, sendo que assume-se aqui que estes são registros missing completely at random13. Com isso, existem 164.466 registros completos de contribuintes, que se constituem, então, numa primeira base de dados de trabalho (BD1) que subsidiará o MLGH1. Desses, 9.757 (5,93%) foram fiscalizados por possuírem indícios de infração em relação às operações efetuadas no ano-calendário de 1999, e, portanto possuem a característica de interesse, qual seja, "apresentam indício de infração à legislação fiscal". Quanto às informações disponíveis sobre os resultados das ações fiscais referentes ao ano-calendário de 1999, após a retirada dos registros associados às fiscalizações ainda em andamento na data de 16/07/2004, ficam então 12.227 registros de fiscalizações encerradas, sendo que 8.073 (66,03%) dessas ações foram encerradas com resultado, ou seja, havendo a autuação do contribuinte, em relação às operações praticadas no ano-calendário de 1999. Forma-se assim a BD2, que serve de apoio ao MLGH2 (infração). É de se notar que o valor de contribuintes fiscalizados indicado pela BD2 excede o número de fiscalizados na BD1. Isso ocorre devido ao fato de que a BD1, conforme o solicitado por este pesquisador e atendido pela Coordenação-Geral de Fiscalização da SRF, contempla as fiscalizações efetuadas em relação ao anocalendário de 1999, mas apenas as deflagradas em função de presença de indício de infração fiscal referente às operações praticadas naquele mesmo período. Já a BD2 engloba toda e qualquer ação fiscal que inclua o período de 1999, mesmo que os indícios deflagradores da ação se refiram a outros anos que não o de 1999, porém deve ser bem entendido que todas as 8.073 autuações referem-se 13 Para detalhes sobre esse conceito ver Raudenbush e Bryk (2002, p.338), Goldstein (2003, p.136), ou Fonseca (1999, p.9). 157 exclusivamente ao ano-calendário de 1999, ano enfocado por esta pesquisa. Exemplificando, um contribuinte que tenha acusado indício de infração para o ano de 2000 pode ter tido o ano de 1999 incorporado à sua respectiva ação fiscal, inicialmente deflagrada em função do ano 2000. Esse procedimento é normal na SRF, haja vista que os últimos cinco anos têm sido incluídos na ação fiscal para fins de procedimentos de verificação preliminar, o que pode gerar uma autuação para um desses anos anteriores ao da operação principal motivada por presença de indício. O que é importante é que a BD2 relaciona todas as ações fiscais que incluem o ano de 1999 e registra todas as autuações referentes a esse mesmo ano. Um aspecto importante em termos de ligação entre a BD1 e a BD2, e que é resgatado na fase de validação de modelos, é que dentre os 9.757 registros de contribuintes da BD1 que foram selecionados para fiscalização por apresentarem indícios de infração fiscal em relação às operações efetuadas no ano-calendário de 1999, 8.728 deles constam como fiscalizados na BD2, sendo que, destes últimos, 5.180 foram autuados em relação às operações efetuadas no ano-calendário 1999, ou seja, 59,35% apresentaram infrações à legislação fiscal. Nesta pesquisa, embora se trabalhe com todos os contribuintes que entregaram DIPJ's apurando o Lucro Real no exercício 2000, excluindo as financeiras, na verdade consideram-se esses dados populacionais uma amostra de uma superpopulação maior, conforme esclarecido em Goldstein (2003, p.164): (...) cientificamente, nós tipicamente desejamos considerar a população atual como uma realização amostral obtida a partir de uma população conceitualmente infinita estendendo-se no tempo e, também, possivelmente no espaço. Esse conceito é também conhecido por uma superpopulação, permitindo generalizações e predições que vão além das unidades e indivíduos da população atual, admitindo a validade das estimativas e inferências para a população em tempos futuros. Para que se pudessem iniciar os trabalhos, procedeu-se a uma análise descritiva de variáveis para definir possíveis transformações adequadas aos trabalhos em modelos lineares. Em relação aos índices econômico-fiscais de balanço, mistos e de resultado (relacionados no quadro do Apêndice E), levantaram-se as seguintes estatísticas descritivas: valores máximo e mínimo, média, mediana, primeiro e terceiro quartis, assimetria, curtose, percentual de negativos e percentual de zeros. Também foi avaliado se, pela teoria contábil, de acordo com Iudícibus et al. (1991) e 158 Iudícibus (1995), o valor de cada um desses índices pode ou não assumir valor negativo, o que se constitui em importante informação em termos de transformação de dados no contexto da caracterização de padrões de infração tributária. Essas informações estão condensadas no Apêndice F. Observe-se que neste apêndice os índices estão codificados genericamente pela letra “I” seguida de números sequenciais, por exemplo, “07” (números estes denotados nesta seção por X), pois tendo-se em vista o item “e” da seção 2.9 e ainda os resultados esperados para esta pesquisa, particularmente MLGH que rejam indícios de infração tributária, concluiuse por descaracterizar o real significado contábil dos possíveis índices significativos a serem identificados pelo processo de modelagem. Especificamente em relação aos índices de atividade rural (11 índices), como eles são bastante rarefeitos - apenas 1,89% dos contribuintes apresentam pelo menos um deles com valor diferente de zero - optou-se por condensar toda informação por eles proporcionada em uma única variável binária denominada “Rural”, cujo objetivo é captar o efeito da pessoa jurídica ter preenchido o anexo de atividade rural em sua DIPJ. Por esse motivo os índices de atividade rural não constam do quadro do Apêndice E. Após isso foram feitos também histogramas, stem and leaf plot e box-plot para todos os índices. A título de ilustração, um exemplo dos gráficos obtidos para o índice I04 é apresentado no Apêndice G. As análises exploratórias permitiram a definição de três diretrizes gerais de transformação aplicáveis aos índices, a saber: 1) Índices que podem assumir, teoricamente, qualquer valor e que apresentam padrão de histograma similar ao de I04, no Apêndice G: uma variável assumindo log(IX + 1) para valor maior ou igual a 0 (zero) e -log(|IX| + 1) para valor negativo. 2) Índices que não podem assumir, pela teoria contábil, valor negativo e que apresentam um padrão de histograma como o de I08, no Apêndice G: uma variável assumindo valor igual a log (IX + 1), no caso do valor do índice maior ou igual a 0 (zero), e assumindo valor 0 (zero) no caso de valor negativo, associada a uma outra variável binária assumindo valor 1 (um) se o valor do índice é negativo e 0 (zero) caso contrário. 3) Índices que possuem mais de 80% dos valores iguais a 0 (zero), apresentando padrão de histograma como o de I11, no Apêndice G: duas variáveis binárias 159 assumindo valores 0 (zero) e 1 (um), uma para captar valores positivos e outra para valores negativos. A atribuição dessas diretrizes de transformação aos índices é mostrada na tabela do Apêndice F. Para um melhor aproveitamento das informações disponíveis, no caso dos índices abrangidos pelas diretrizes “2” e “3” acima, foi-lhes também testada a transformação mais geral prescrita pela diretriz “1”. Adicionalmente, para o caso dos índices enquadrados na transformação “3” e que se caracterizam concomitantemente por não assumirem, em teoria, valores negativos, testou-se ainda a diretriz de transformação “2”, estando claro que apenas uma das transformações, no caso a que se houver melhor em termos da contribuição do índice transformado para o ajuste dos modelos, será adotada nos modelos finais. A opção pelo logaritmo natural no que concerne as transformações é bastante natural, haja vista que, de acordo Arino e Frenses (2000): Utilizar a transformação logaritmo natural (log) antes da formulação de um modelo econométrico auxilia na redução do impacto dos outliers, faz com que as primeiras diferenças tornem-se taxas de crescimento e reduz a frequentemente observada variância crescente em séries temporais. Esta informação é reafirmada por Guanziroli et al. (apud Corvalão, 2002, p.39). Além disso, segundo Barbetta (2001, p.299): A transformação logarítmica aumenta as distâncias entre os valores pequenos e reduz as distâncias entre os valores grandes, tornando distribuições assimétricas de cauda longa à direita em distribuições aproximadamente simétricas. Portanto, neste trabalho, as transformações utilizam-se dos logaritmos naturais. Quanto aos valores contábeis brutos, como eles tendem a ser altamente correlacionados entre si, optou-se por uma análise em componentes principais (ACP) visando à redução de dimensionalidade de variáveis. O resumo dos resultados dessa análise (dez autovetores, assim como a variância explicada pelas componentes principais) está apresentado no Apêndice H. São utilizadas na modelagem as quatro primeiras componentes principais, que explicam 97,22% da inércia da nuvem de pontos contábeis. Com isso, as componentes principais, a variável Rural, assim como todos os índices econômico-fiscais relacionados na tabela do Apêndice F, constituem-se em candidatas a variáveis preditoras de nível 1 nas modelagens estatísticas apresentadas nesta pesquisa, mas devidamente transformados os índices conforme o já especificado. 160 6.3 Análise hierárquica exploratória Segundo o prescrito pela literatura de referência em MLGH apresentada no capítulo 3, o primeiro passo de uma modelagem hierárquica é o ajuste de um modelo nulo, de forma a se avaliar e quantificar a existência de variabilidade de nível 2 em relação à resposta esperada. Para isso, é preciso que se considere a estruturação hierárquica das unidades de interesse. 6.3.1 A estrutura hierárquica em unidades Já foi mencionado que a hierarquia dos MLGH vai ser estruturada de acordo com a classificação CNAE-Fiscal de atividades econômicas de contribuintes pessoas jurídicas. A CNAE-Fiscal é um instrumento de padronização nacional dos códigos de atividade econômica utilizados pelos diversos órgãos de administração tributária no Brasil, tanto Federal quanto Estaduais. A estrutura hierárquica pode ser visualizada pelo Quadro seguinte: Quadro 2: Estrutura da CNAE-Fiscal Número Unidades Nível Identificação Seção Primeiro 17 Código Alfabético - 1 dígito Divisão Segundo 59 Código Numérico - 2 dígitos Grupo Terceiro 216 Código Numérico - 3 dígitos(*) Classe Quarto 562 Código Numérico - 4 dígitos(*) Subclasse Quinto 1.093 Código Numérico - 7 dígitos(*) Agrupamentos Obs: os códigos com (*) estão integrados no nível imediatamente anterior Fonte: SEFAZ-RS. A partir disso, a título de exemplificação, uma determinada empresa pode assumir a seguinte classificação em níveis hierárquicos: Quadro 3: Exemplo de classificação de contribuinte PJ Seção G Divisão 51 Grupo 514 Classe 5145-4 Subclasse 5145-4/03 COMERCIO; REPARAÇÃO DE VEÍCULOS AUTOMOTORES, OBJETOS PESSOAIS E DOMÉSTICOS COMÉRCIO POR ATACADO E REPRESENTANTES COMERCIAIS E AGENTES DO COMÉRCIO COMÉRCIO ATACADISTA DE ARTIGOS DE USOS PESSOAL E DOMÉSTICO COMÉRCIO ATACADISTA DE PRODUTOS FARMACÊUTICOS, MÉDICOS, ORTOPÉDICOS E ODONTOLÓGICOS COMÉRCIO ATACADISTA DE INSTRUMENTOS E MATERIAIS MÉDICOCIRÚRGICOS HOSPITALARES E LABORATORIAIS 161 Para o estabelecimento de um MLGH, pode-se utilizar qualquer um dos níveis do Quadro 2 para a estruturação das unidades de nível 2. Ocorre que a divisão em seções provavelmente agruparia indivíduos bastante diferentes em uma mesma unidade. Por outro lado, a divisão em subclasses reduziria drasticamente o tamanho de amostra intra-unidades. Ambos os casos prejudicariam um estudo deste escopo e, nesse contexto, o meio termo talvez seja a melhor alternativa e a estruturação do nível 2 em níveis intermediários (divisões, grupos, ou classes) pode proporcionar resultados distintos, não obstante identicamente interessantes. Seguindo essa orientação, o modelo nulo apresentado na próxima subseção considera um modelo hierárquico em dois níveis, com o nível 2 estruturado de acordo com os grupos CNAE-Fiscal. 6.3.2 O MLGH1 nulo O primeiro modelo nulo tem por objetivo avaliar a existência de variabilidade exclusivamente devida aos grupos, em relação às suas quantidades percentuais médias de empresas possuindo a característica de interesse: "apresenta indício de infração à legislação fiscal". Nível 1: ηij = β 0 j (6.1) Nível 2: β 0 j = γ 00 + u 0 j (6.2) Onde, para os níveis 1 e 2, ηij : log-odds ou logito de presença de indício de infração fiscal; β 0 j : log-odds médio de presença de indício de infração fiscal para o grupo j; γ 00 : log-odds médio de presença de indício de infração fiscal ao longo dos grupos; u 0 j : efeito aleatório associado ao grupo j; τ 00 : variância entre os grupos, em termos de seus log-odds médios de presença de indício de infração fiscal; suposições do modelo: u 0 j ∼N(0, τ 00 ) e u 0 j 's independentes. O ajuste do modelo em (6.1) e (6.2) fornece as estimativas da Tabela 3: 162 Tabela 3: Estimativas unit-specific para o MLGH1 Parâmetro γ 00 τ 00 Estimativa Erro Padrão Estatística Graus de Liberdade Nível Descritivo -2,439695 0,071020 -34,35a 215 < 0,001 6122,25b 215 < 0,001 0,922650 a: a estatística do teste segue a distribuição t de student. b: a estatística do teste segue a distribuição χ2. Os níveis descritivos da Tabela 3, com base em testes de hipótese contando com estatísticas dadas em (4.62) e (4.68), demonstram que a hipótese nula é altamente implausível, indicando que há variabilidade significativa entre os grupos no que se refere aos seus log-odds médios de presença de indício de infração fiscal. Com isso, confirma-se o exposto na primeira hipótese de pesquisa, de que há que se considerar a efetiva existência de correlação de medidas intragrupos em estudos enfocando a classificação de empresas para fins de fiscalização tributária no Brasil. A estimativa population-average para o efeito fixo γ 00 segue na tabela 4. Tabela 4: Estimativa population-average para o MLGH1 Parâmetro Estimativa Erro Padrão Estatística γ 00 Graus de Liberdade Nível Descritivo -2,146207 0,070114 -30,61a 215 < 0,001 a: a estatística do teste segue a distribuição t de student. A transformação do log-odds da Tabela 3 em probabilidades, por meio da função de resposta em (3.39), fornece uma probabilidade média de presença de indício de infração para o grupo típico (estimativa unit-specific) de 8,02%, enquanto que a probabilidade média para toda a população (population-average) obtida pela Tabela 4 é maior, equivalendo a 10,47%. Essa diferença entre as duas estatísticas ratifica que há variabilidade exclusivamente devida aos grupos, considerando-se o modelo para variável resposta binária em (6.1) e (6.2). Por outro lado, se τ 00 equivalesse à zero, essas estatísticas seriam idênticas. Com isso, o próximo passo em modelagem hierárquica é avaliar a magnitude da variabilidade de nível 2. Entretanto, como já mencionado na seção 3.4, isso não é trivial em MLGH, pois o CCIC já não tem significado único aqui. Raudenbush e Bryk (2002) recomendam a análise da diferença entre as estimativas unit-specific e population-average como uma alternativa para essa avaliação. Contudo, na prática 163 esse procedimento está sujeito a certas restrições, não se aplicando a todos os casos, já que os mesmos autores informam que: Em geral, em aplicações em que as probabilidades do evento não são nem raras e nem muito comuns, ou seja, 0,80 > specific e population-average especialmente se τ 00 φ ij produzirão > 0,20, os modelos unitresultados similares, é pequeno. Isso mesmo em havendo variabilidade significativa devida ao nível 2. No caso do MLGH1, viu-se que as duas estimativas são bastante distintas, o que pressupõe uma variabilidade de grande magnitude, porém como a característica de interesse do MLGH2 apresenta probabilidade de ocorrência de cerca de 66%, e suas estimativas unit-specific e population-average tenderão a ser bem parecidas, não obstante a existência de variabilidade de nível 2, seria aconselhável a utilização de um procedimento mais geral neste trabalho. Goldstein (2003) propõe quatro procedimentos mais formais para essa análise. São eles: a) método da linearização, b) método de simulação, c) método do modelo linear binário, d) abordagem da variável latente. Todos procuram estimar um CCIC para o MLGH e são considerados processos aproximados, em virtude da existência de uma função de resposta não linear em MLGH. Em uma comparação prática entre eles, Goldstein (2003, p.110) afirma que "Existe, como esperado, similaridade de resultados para os métodos "a", "b" e "c", sendo que o fornecido por "d" é moderadamente maior". Dos quatro, o mais direto e simples é o método do modelo linear binário, que consiste apenas em ajustar um MLH com variável resposta binária, porém assumindo-a linear, e contando com função de ligação identidade, ηij = E (Yij ) = µ ij . Ele é aceitável nos casos em que a probabilidade associada à ocorrência do parâmetro de interesse não é muito próxima nem de zero e nem de um. Como essa é a situação desta pesquisa, e este método parece ser tão mais eficiente quanto os outros, ele é aplicado aqui para obtenção de um CCIC aproximado. Assim, o ajuste de um MLH com a mesma variável resposta binária utilizada no modelo expresso por (6.1) e (6.2) produz as seguintes estimativas de componentes de variância: 164 Tabela 5: Estimativas MLHG1 (modelo linear binário) Parâmetro τ 00 σ2 Estimativa Nível Descritivo 0,006760 < 0,001 0,053200 Com os resultados da Tabela 5 obtém-se uma estimativa única para a variabilidade ao nível 1, σ 2 , e isso permite o cálculo aproximado de um CCIC para o MLGH1 denotado por (6.1) e (6.2), qual seja: ρ1 = τ 00 0,00676 = = 0,1127 2 0,00676 + 0,05320 τ 00 + σ (6.3) Isso permite concluir que aproximadamente 11,27% da variabilidade total da resposta, ou seja, probabilidade do contribuinte apresentar indício de infração fiscal, é devida exclusivamente ao nível 2, grupos praticando distintas atividades econômicas. 6.3.3 O MLGH2 nulo Um outro MLGH nulo pode ser ajustado para as condições proporcionadas por BD2. Nível 1: ηij = β 0 j (6.4) Nível 2: β 0 j = γ 00 + u 0 j (6.5) Onde, para os níveis 1 e 2, ηij : log-odds ou logito de presença de infração fiscal; β 0 j : log-odds médio de presença de infratores para o grupo j; γ 00 : log-odds médio de presença de infratores ao longo dos grupos; u 0 j : efeito aleatório associado ao grupo j, τ 00 : variância entre os grupos, em termos de seus log-odds médios de presença de infratores; suposições do modelo: u 0 j ∼N(0, τ 00 ) e u 0 j 's independentes. 165 O ajuste do modelo em (6.4) e (6.5) fornece as seguintes estimativas: Tabela 6: Estimativas unit-specific para o MLGH2 Parâmetro γ 00 τ 00 Estimativa Erro Padrão Estatística Graus de Liberdade Nível Descritivo 0,621486 0,037229 16,69a 201 < 0,001 496,96b 201 < 0,001 0,114860 a: a estatística do teste segue a distribuição t de student. b: a estatística do teste segue a distribuição χ2. A partir da Tabela 6, observa-se que a hipótese nula em relação ao componente de variância é altamente implausível, indicando que há variabilidade significativa entre os grupos no que se refere aos seus log-odds médios de presença de contribuintes infratores. A estimativa population-average segue na Tabela 7: Tabela 7: Estimativa population-average para o MLGH2 Parâmetro Estimativa Erro Padrão Estatística γ 00 Graus de Liberdade Nível Descritivo 0,612763 0,037108 16,51a 201 0,001 a: a estatística do teste segue a distribuição t de student. No caso do MLGH2, a conversão dos efeitos fixos em probabilidades, por meio de (3.39), fornece uma probabilidade média de presença de infratores para o grupo típico de 65,05%, enquanto que a probabilidade média para toda a população (population-average) obtida pela Tabela 7 equivale a 64,86%. Não obstante ser pequena, essa diferença ratifica que há variabilidade na resposta exclusivamente devida aos grupos. Por fim, para completar a análise do MLGH2, deve-se avaliar a porção da variabilidade devida aos grupos, e utiliza-se o mesmo procedimento aproximado já descrito, com resultados demonstrados na Tabela 8. Tabela 8: Estimativas MLGH2 (modelo linear binário) Parâmetro τ 00 σ2 Estimativa Nível Descritivo 0,006180 0,001 0,218930 O cálculo aproximado de um CCIC para o MLGH2 denotado por (6.4) e (6.5) fornece: 166 ρ2 = τ 00 0,00618 = = 0,02745 2 0,00618 + 0,21893 τ 00 + σ (6.6) Isso permite concluir que, de forma aproximada, 2,74% da variabilidade total da resposta, ou seja, probabilidade do contribuinte ser infrator, deve-se exclusivamente ao nível 2. 6.4 Conclusão Neste capítulo foram apresentadas as características principais das bases de dados de trabalho utilizadas nesta pesquisa e foram descritos os passos de préprocessamento que subsidiaram as diretrizes de transformação aplicadas às variáveis. Em relação à primeira hipótese de pesquisa do capítulo introdutório, qual seja, a de que estudos deste escopo devem considerar e avaliar a correlação de medidas existente entre contribuintes que se dedicam às mesmas atividades econômicas, foi visto na seção anterior que, de fato, existe variabilidade na resposta exclusivamente devida a grupos praticando distintas atividades econômicas - aproximadamente 11,27% do total no caso de probabilidade de indício de infração e 2,74% do total no caso de probabilidade de infração propriamente dita - e isso deve ser incorporado às modelagens visando a classificação de contribuintes, de forma a produzir estimativas e inferências mais precisas e realistas. Com isso, confirma-se definitivamente a primeira hipótese de pesquisa. Por fim, deve-se ressaltar que foram apresentadas neste capítulo estimativas obtidas a partir do software HLM, versão 5.0. As unit-specific estimadas por meio do processo PQL ilustrado pela subseção 4.6.2, o qual envolveu um procedimento de MV para a estimação de γ e de T por meio do apresentado na subseção 4.5.4; as population-average sendo obtidas segundo o discutido na subseção 4.6.3. No capítulo 7 são estimados os modelos condicionais de níveis 1 e 2 aproveitando-se dos subsídios executadas neste capítulo. proporcionados pelas análises exploratórias 167 7 ESTIMAÇÃO E APLICAÇÃO DE MODELOS À CLASSIFICAÇÃO DE CONTRIBUINTES PARA FISCALIZAÇÃO 7.1 Extração de amostras de validação O objetivo deste trabalho é classificar contribuintes pessoas jurídicas a partir da previsão de seus comportamentos tributários e, adicionalmente, levando-se em consideração as atividades econômicas por eles praticadas. Ocorre que para avaliar a eventual classificação efetuada, é preciso que sejam extraídas amostras específicas para o processo de validação. Quanto ao tamanho das amostras, seu dimensionamento deve ser efetuado à luz da teoria da amostragem e de outros conceitos importantes em termos da avaliação da capacidade preditiva de modelos estatísticos: a especificidade e a sensitividade. Por sensitividade, entenda-se a probabilidade condicional do modelo classificar um registro ou indivíduo como positivo, em relação à característica de interesse, dado que de fato apresenta-se tal característica. Já a especificidade acusa a probabilidade condicional do modelo classificar um registro como negativo, dado que, na verdade, não se apresenta a característica de interesse (AGRESTI, 2002). Rememorando, no caso específico desta pesquisa há duas características de interesse distintas, quais sejam, presença de indício de infração fiscal em relação às informações do contribuinte (MLGH1) e presença (ocorrência) de infração por parte do contribuinte (MLGH2). Tanto a sensitividade quanto a especificidade podem, então, ser abstraídas como duas proporções populacionais a serem estimadas com base em amostras de validação extraídas a partir da divisão da população em dois estratos demarcando os elementos que possuem e os que não possuem a característica de interesse. No caso da BD1 (164.466 contribuintes, 9.757 apresentando a característica de interesse) foram extraídas duas amostras. A primeira, contendo 370 contribuintes, objetiva estimar a sensitividade do modelo e a segunda, visando avaliar a especificidade, conta com 5.864 contribuintes. Em relação à BD2 (12.227 contribuintes, 8.073 apresentando a característica de interesse) foi extraída uma amostra com 385 contribuintes para estimar a especificidade e outra com 751 para fins de sensitividade. 168 Todo esse processo de dimensionamento das amostras pode ser acompanhado pelo Apêndice I. 7.2 Variáveis candidatas aos modelos Para um completo entendimento dos resultados a serem apresentados neste capítulo, é necessário que a aplicação das diretrizes de transformação, detalhadas na seção 6.2, resulte em codificações de variáveis que permitam a pronta identificação da diretriz aplicada a cada uma delas. Assim, por convenção, denota-se a aplicação da diretriz “1” em I04 por LI04A. A aplicação da segunda diretriz em I05 é denotada por uma variável codificada como LI05B e outra LI05NEG. Já a aplicação da diretriz “3” em I29 resulta em duas variáveis binárias, I29NEG e I29POS. Este padrão de codificação é o utilizado para todos os índices econômico-fiscais, segundo o atribuído a cada um deles pela tabela do Apêndice F. Além disso, acrescente-se entre as candidatas de nível 1 (contribuintes PJ) as quatro primeiras componentes principais referentes aos valores contábeis brutos, relacionadas no Apêndice H, sendo estas denotadas por ZPC1, ZPC2, ZPC3 e ZPC4. Quanto às candidatas ao nível 2 (grupos de atividade econômicas CNAE-Fiscal), a primeira aqui considerada representa uma agregação geral para a natureza principal da atividade praticada pelos distintos grupos CNAE-Fiscal, sendo parametrizada como uma variável categorizada com 4 classes possíveis, representada por três variáveis indicadoras, sendo o setor agregado de serviços a referência. A codificação das indicadoras pode ser visualizada pelo quadro a seguir. Quadro 4: Natureza da Atividade Agregada Variável Indicadora agropecagr indagr comagr Descrição da Natureza da Atividade Agregada agricultura, pecuária, silvicultura e exploração florestal agregadas indústria agregada comércio agregado Valores zero ou um zero ou um zero ou um Importa dizer que como esta última variável é eminentemente estática no tempo, será utilizada no modelo com objetivo descritivo instantâneo (ano de 1999), e não 169 para futura classificação de contribuintes, haja vista que neste último caso estar-seia acolhendo um determinismo setorial econômico não garantido ao longo do tempo. Outra variável considerada é a ausência ou presença de exposição à economia informal. É natural que algumas atividades econômicas estejam mais expostas à informalidade que outras, e, para avaliar este efeito nas respostas esperadas para os modelos, utilizou-se como fonte de informação a pesquisa realizada pelo IBGE sobre o assunto, qual seja, a pesquisa Economia Informal Urbana, de 1997. O IBGE detectou a seguinte distribuição percentual das atividades informais (Tabela 9): Tabela 9: Distribuição percentual das atividades informais Atividade Econômica Comércio de mercadorias Serviços de reparação, pessoais, domiciliares e de diversões Indústrias da construção Indústrias de transformação e extrativa mineral Serviços técnicos e auxiliares Serviços de alojamento e alimentação Serviços de transporte Outros serviços Sem declaração Total Fonte: IBGE (1997). Número de Empresas Participação % 2.509.623 1.898.044 1.481.096 1.136.492 1.079.826 799.824 639.187 32.518 4.232 9.580.840 26,19 19,81 15,45 11,86 11,27 8,35 6,67 0,34 0,04 100,00 A partir da Tabela 9, observa-se que o comércio de mercadorias responde por 26,19% das empresas informais, participação que vai decaindo sucessivamente, passando por diversas outras atividades, até os serviços de transporte, com participação de 6,67%. Com isso, todas as atividades compreendidas neste intervalo de participação relevante que vai de 6,67% a 26,19% são aqui consideradas como expostas à informalidade, e pode-se, assim, definir uma variável binária codificada por “inform”, assumindo valores 1 (um) e 0 (zero), respectivamente para o caso de exposição e de não exposição do grupo CNAE-Fiscal à informalidade. Quanto à situação de crescimento ou retração anual das atividades econômicas praticadas pelos diversos setores econômicos brasileiros, a Tabela 10 apresenta as taxas acumuladas de variação percentual do PIB para os anos de 1998 e 1999. 170 Tabela 10: Variação percentual do PIB (1998 e 1999) Variação Percentual do PIB Subsetor 1998 AGROPECUÁRIA Lavouras -0,23 Extrativa Vegetal -7,27 Produção Animal 3,86 INDÚSTRIA Extrativa Mineral 9,04 Transformação -3,29 Construção 1,70 SIUP 4,16 SERVIÇOS Comércio -3,39 Transporte 7,18 Comunicações 6,38 Instituições Financeiras 0,15 Outros Serviços -1,10 Aluguel de Imóveis 2,10 Administração Pública 1,28 Onde SIUP: Serviços Industriais de Utilidade Pública. Fonte: IBGE (1998) e IBGE (1999). 1999 11,26 1,45 5,73 0,85 -1,25 -3,61 1,97 0,50 -0,13 8,64 0,82 -0,34 1,95 0,67 Com o subsídio da Tabela 10, é possível construir duas variáveis numéricas contínuas codificadas por VarPerc98 e VarPerc99 que sintetizam a variação percentual anual acumulada para o PIB dos diversos grupos CNAE-Fiscal. Também podem ser consideradas no estudo as exportações. Para 1999, o índice de rentabilidade dos setores exportadores de produtos brasileiros está apresentado na Tabela 11. Tabela 11: Índice de Rentabilidade dos Setores Exportadores em 1999 (continua) Subsetor Número Índice Subsetor Número Índice Agropecuário 97,3 Borracha 122,5 Extrativo Mineral 126,8 Elementos Químicos 120,7 Minerais não Metálicos 123,3 Refino Petróleo e Petroquímicos 113,0 Siderurgia 107,3 Químicos Diversos 124,5 Metalurgia de Não Ferrosos 117,8 Têxtil 120,3 Outros Produtos Metalúrgicos 135,5 Calçados Couros e Peles 109,3 Máquinas e Tratores 128,0 Café 88,6 Material Elétrico 140,2 Beneficiamento de Vegetais 137,6 Equip. Eletrônicos 104,3 Abate Animais 105,4 171 Tabela 11: Índice de Rentabilidade dos Setores Exportadores em 1999 (continuação) Subsetor Número Índice Subsetor Número Índice Veículos Automotores 129,1 Açúcar 70,0 Peças e outros Veículos 146,0 Óleos Vegetais 105,7 Madeira e Mobiliário 119,6 Outros Produtos Alimentares 123,8 Celulose, Papel e Gráfica 115,7 Indústrias Diversas 124,4 Fonte: FUNCEX, a partir de dados da SECEX, no âmbito do convênio IPEA/FUNCEX. Com isso pode-se codificar uma variável binária denominada de ”export”, que assume valores 0 (zero) ou 1 (um), este no caso do grupo CNAE-Fiscal estar contido em um dos subsetores relacionados na Tabela 11. Finalmente, foram também incluídas informações proporcionadas pelos dez valores contábeis brutos relacionados na seção 6.1. As variáveis de nível 2 candidatas aos modelos são formadas pelas médias do valor contábil bruto para cada grupo CNAE-Fiscal e sua posterior padronização, sendo codificadas por ZLOPER, ZLBRUTO, ZRECLIQ, ZLREAL, ZLACSLL, ZBCCSLL, ZRBPISP, ZBCPISP, ZRBCOF, ZBCCOF. 7.3 Processo para seleção de variáveis de níveis 1 e 2 Para as variáveis de nível 1, o procedimento adotado foi o da inclusão uma a uma das variáveis no modelo (método stepwise forward), em diversas rodadas. Devido ao grande número de observações de nível 1, (158.232 = 164.466 - 5.864 370) e (11.091 = 12.227 - 751 - 385) para o MLGH1 e o MLGH2 respectivamente, as variáveis foram avaliadas tomando-se por base o quanto a sua inclusão no modelo explica a variabilidade total devida aos contribuintes, e isso se deu pelo teste para efeito fixo, o general linear hypothesis test (GLHT), com estatística χ2 dada por (4.65). Para as variáveis qualitativas possuindo mais de uma categoria estudou-se também a diferença entre elas em termos das respostas esperadas para os modelos. Na prática esse processo busca avaliar as variáveis candidatas, com base no GLHT, considerando-as isoladamente no modelo. Ao final da primeira rodada formase um modelo provisório inicial incluindo as de melhor desempenho no GLHT. Em uma segunda rodada, testam-se individualmente novas variáveis candidatas, mas desta feita no modelo provisório inicial, e, ao final da segunda rodada, incluem-se 172 novamente as de melhor desempenho, formando-se, então, um segundo modelo provisório. As rodadas se sucedem até que se convirja para um modelo considerado final em que não há mais variáveis candidatas, mas sim incluídas ou descartadas do modelo. Nesse processo há que se cuidar também pela análise da estabilidade (desejável) dos sinais dos coeficientes de regressão a cada novo ingresso de variáveis. Saliente-se que como critério de trabalho utilizou-se a inclusão de até cinco variáveis ao final de cada rodada. É preciso registrar que nem sempre as variáveis que eventualmente mais contribuam para a explicação da resposta em termos isolados formam bons modelos em conjunto, provavelmente em virtude de correlações entre variáveis e também da questão de estabilidade de estimativas. Um exemplo disso pode ser visualizado pelo Apêndice K, relativo ao MLGH2, em que se observa que na primeira rodada as quatro variáveis que mais contribuem individualmente para o modelo são LI24A, LI01B, LI32B e LI05B. Contudo, o primeiro modelo de nível 1 provisório, denotado aqui por MLGH2_1, na prática pôde contar com LI24A, LI30A, LI02A e ZPC1 - pois LI24A anula o efeito de LI01B, LI24A e LI32B anulam LI05B, e LI30A anula o efeito de LI32B - que então lograram formar um primeiro modelo provisório contando com quatro variáveis significativas em conjunto. Já no caso das variáveis de nível 2 (grupos CNAE-Fiscal), o processo requisita o mesmo procedimento stepwise forward, mas partindo-se de um modelo de nível 1 já especificado. Ressalte-se que como o número de grupos (216) é bem menor do que o de contribuintes (158.232) utilizou-se também o teste t para verificar a significância estatística em relação à inclusão de cada uma das variáveis no modelo. Finalmente, é preciso que se registre que esse processo de seleção de variáveis, na verdade, é um dos que se demonstra factível, já que, de posse das 50 variáveis disponíveis para os níveis 1 e 2, o número de possíveis MLGH eleva-se a incríveis 250 = 1,1259 x 1015 modelos, e a estimação e avaliação de todo esse conjunto de possibilidades, em termos de suas possíveis previsões, está claramente fora do escopo desta pesquisa. 7.4 Estimativas e métricas de trabalho Em se tratando de executar previsões futuras individuais (predições), a partir de informações relativas a observações não participantes da amostra de estimação, 173 Afshartous e de Leeuw (2003) demonstraram que em MLH a utilização da regra de * predição a partir da utilização do vetor ótimo de estimativas empíricas de Bayes, β j , conforme formalizado em (4.36), é a de melhor desempenho em termos do Erro Quadrático Médio Preditivo, suplantando as predições obtidas a partir dos vetores de estimativas para β j explicitados em (4.34) e (4.35), respectivamente a estimativa de MQO e a estimativa utilizando-se do vetor γ estimado por MQG. O estudo considerou 300 possíveis combinações envolvendo diversos tamanhos de amostra (n), número de unidades de nível 2 (J), e mais 12 diferentes combinações de parâmetros populacionais τ11, τ00, τ01 ρ. Portanto, todas as estimativas e apresentadas nas próximas seções são unit-specific, haja vista serem estas as * requisitadas para a obtenção do vetor ótimo β j . Além disso, as estimativas foram obtidas a partir do processo PQL ilustrado pela subseção 4.6.2, o qual envolveu um procedimento de MV para a estimação de γ e de T por meio do apresentado na subseção 4.5.4; e da estimação empírica de Bayes para o vetor de coeficientes β j seguindo o discutido na subseção 4.5.3. Em relação à opção alternativa de estimação por PQL restrito, ou seja, obtendose estimações de MVR para T durante o processo descrito na subseção 4.6.2 e, posteriormente, estimando-se γ por MQG de acordo com a subseção 4.5.2, esta não causa maiores impactos nas estimativas de variância/covariância dos modelos. Foi verificado que os componentes da matriz T estimados pelos dois processos (PQL e PQL restrito) só diferem a partir da terceira casa decimal para ambos os modelos (ver Tabela 12), isso provavelmente devendo-se ao fato de haver um J suficientemente grande para que as estimativas de MV e de MVR sejam bastante aproximadas. Tabela 12: Estimação do componente variância para modelos nulos τ 00 PQL PQL restrito J MLGH1 nulo 0,92131 0,92719 216 MLGH2 nulo 0,10465 0,10608 202 Onde: τ 00 estimado a partir das amostras de estimação. 174 Por fim, cabe ainda registrar que as estimativas foram obtidas a partir da utilização das variáveis em sua métrica natural, já que todas as variáveis podem em teoria assumir, como de fato se verifica, valores iguais a zero. 7.5 O MLGH1 O Apêndice J apresenta detalhadamente todas as estatísticas e níveis descritivos para cada uma das rodadas de níveis 1 e 2 do MLGH1. Para o nível 1 foram executadas três rodadas de estimativas pelo processo stepwise forward (Tabelas 33, 34 e 35), em que entraram no modelo, respectivamente, LI14B, LI27B, LI18B, I29POS e I31POS na primeira; I11POS, LI08B, LI22A e LI04A na segunda; e LI06A, LI01B, LI32B, LI30B e ZPC1 na terceira. Em relação ao modelo final de nível 1 (MLGH1_1), testes de coeficientes aleatórios individuais não rejeitaram a hipótese nula para todos os coeficientes de nível 1, que são, portanto, modelados como fixos, à exceção do intercepto aleatório. É importante registrar o valor do componente de ^ variância estimado para o MLGH1_1, τ 00 = 0,25608, já que ele é utilizado no cálculo do percentual da variabilidade total da resposta explicado pelas variáveis de nível 2. Com a inclusão de variáveis de nível 2 ao MLGH1_1, em uma primeira rodada considerando-as individualmente (Tabela 36), observa-se que todas são significativas, à exceção de ZBCCOF, ZBCPISP, ZLREAL e inform. A variável mais relevante em termos de explicação da variabilidade de nível 2 é ZLOPER. Em relação à natureza da atividade agregada, o coeficiente para comagr não é significativo, e por meio de um GLHT verifica-se que seu coeficiente não possui efeito significativamente distinto da referência em termos de parametrização, o setor de serviços agregado, e com isso pode ser retirado do modelo. Como já mencionado, a natureza da atividade agregada será considerada no modelo de forma individual e com fito interpretativo. Sintetizando o processo de seleção de nível 2, em uma primeira rodada ingressaram no modelo ZLOPER, export e VrPerc99. Em uma segunda rodada (Tabela 37) apenas ZLBRUTO ingressou no modelo. Com esses resultados, um primeiro modelo (MLGH1_NAG), de cunho exclusivamente interpretativo, envolvendo a Natureza da Atividade Agregada é formalizado a seguir. MLGH1_NAG (Nível 1): 175 η ij = β 0 j + β1 j ⋅ LI08Bij + β 2 j ⋅ LI04Aij + β 3 j ⋅ I11POSij + β 4 j ⋅ LI14Bij + β 5 j ⋅ LI06Aij + β 6 j ⋅ LI22Aij + β 7 j ⋅ LI27Bij + β 8 j ⋅ LI32Bij + (7.1) β 9 j ⋅ I31POSij + β10 j ⋅ LI30Bij + β11 j ⋅ I29POSij + β12 j ⋅ LI01Bij + β13 j ⋅ LI18Bij + β14 j ⋅ ZPC1ij MLGH1_NAG (Nível 2): β 0 j = γ 00 + γ 01 ⋅ agropecagr j + γ 02 ⋅ indagr j + u0 j , (7.2) β pj = γ p 0 (7.3) p = 1,..., 14, onde, para os níveis 1 e 2, tem-se que η ij : log-odds ou logito de presença de indício de infração fiscal para o i-ésimo contribuinte do grupo j; β 0 j : log-odds de presença de indício de infração fiscal esperado para um contribuinte do grupo j apresentando valor zero para todas as covariáveis de nível 1; β pj : mudança esperada no log-odds de presença de indício de infração fiscal, dado um incremento unitário na p-ésima covariável de nível 1, ceteris paribus; γ 00 : valor esperado de β 0 j (intercepto) para os grupos pertencentes aos setores de comércio e serviços agregados; γ 01 : diferença entre os valores esperados dos β 0 j (interceptos) de grupos agropecuários, silvicultores e florestais agregados e de comércio e serviços agregados; γ 02 : diferença entre os valores esperados dos β 0 j (interceptos) de grupos industriais e de comércio e serviços agregados; u 0 j : efeito aleatório associado ao grupo j; τ 00 : variância dos interceptos β 0 j entre os grupos, corrigida por agropecagr j e indagr j ; suposições do modelo: u 0 j ∼N(0, τ 00 ). 176 Seus resultados vão sintetizados à Tabela 13: Tabela 13: Estimativas para MLGH1_NAG Parâmetro Estimativa Erro Padrão Nível Descritivo γ 00 -4,258985 0,072385 < 0,001 0,777933 0,196132 0,005 0,225233 0,087948 0,011 -0,179479 0,009783 < 0,001 0,038673 0,003669 < 0,001 0,554598 0,037126 < 0,001 0,003833 < 0,001 0,114429 0,007970 < 0,001 0,064861 0,004700 < 0,001 0,182511 0,009364 < 0,001 0,044102 0,011352 < 0,001 0,354226 0,060144 < 0,001 0,037218 0,005479 < 0,001 0,411224 0,053336 < 0,001 0,065650 0,010414 < 0,001 0,072937 0,008407 < 0,001 0,112357 0,007981 < 0,001 γ 01 (agropecagr) γ 02 (indagr) β1 j = γ 10 β 2 j = γ 20 β 3 j = γ 30 β 4 j = γ 40 β 5 j = γ 50 β 6 j = γ 60 β 7 j = γ 70 β 8 j = γ 80 β 9 j = γ 90 β10 j = γ 100 β11 j = γ 110 β12 j = γ 120 β13 j = γ 130 β14 j = γ 140 τ 00 0,093797 0,221300 < 0,001 A partir do MLGH1_NAG, da variabilidade total da resposta devida aos grupos praticando distintas atividades econômicas (nível 2) conseguiu-se explicar 13,58%. Já o MLGH1 final ajustado para fins de previsões é o que se segue. MLGH1_Final (Nível 1): η ij = β 0 j + β1 j ⋅ LI08Bij + β 2 j ⋅ LI04Aij + β 3 j ⋅ I11POSij + β 4 j ⋅ LI14Bij + β 5 j ⋅ LI06Aij + β 6 j ⋅ LI22Aij + β 7 j ⋅ LI27Bij + β 8 j ⋅ LI32Bij + β 9 j ⋅ I31POSij + β10 j ⋅ LI30Bij + β11 j ⋅ I29POSij + β12 j ⋅ LI01Bij + β13 j ⋅ LI18Bij + β14 j ⋅ ZPC1ij MLGH1_Final (Nível 2): (7.4) 177 β 0 j = γ 00 + γ 01 ⋅ VrPerc 99 j + γ 02 ⋅ ZLOPER j + (7.5) γ 03 ⋅ ZLBRUTO j + γ 04 ⋅ export j + u0 j , β pj = γ p 0 (7.6) p = 1,..., 14, onde, para os níveis 1 e 2, tem-se que ηij : log-odds ou logito de presença de indício de infração fiscal para o i-ésimo contribuinte do grupo j; β 0 j : log-odds de presença de indício de infração fiscal esperado para um contribuinte do grupo j apresentando valor zero para todas as covariáveis de nível 1; β pj : mudança esperada no log-odds de presença de indício de infração fiscal, dado um incremento unitário na p-ésima covariável de nível 1, ceteris paribus; γ 00 : valor esperado de β 0 j (intercepto) para um grupo j contando com VrPerc99 j = ZLOPER j = ZLBRUTO j = export j = 0 ; γ 01 : diferença esperada no valor de β 0 j (intercepto) para um incremento unitário em VrPerc 99 j , ceteris paribus; γ 02 : diferença esperada no valor de β 0 j (intercepto) para um incremento unitário em ZLOPER j , ceteris paribus; γ 03 : diferença esperada no valor de β 0 j (intercepto) para um incremento unitário em ZLBRUTO j , ceteris paribus; γ 04 : diferença entre os valores esperados dos β 0 j (interceptos) de grupos exportadores e não exportadores, ceteris paribus; u 0 j : efeito aleatório associado ao grupo j; τ 00 : variância dos interceptos β0 j entre os grupos, corrigida VrPerc 99 j , ZLOPER j , ZLBRUTO j e export j ; suposições do modelo: u 0 j ∼N(0, τ 00 ). As estatísticas e níveis descritivos para esse modelo são os da Tabela 14: por 178 Tabela 14: Estimativas para MLGH1_Final Parâmetro Estimativa Erro Padrão Nível Descritivo γ 00 -4,201268 0,063845 < 0,001 0,047645 0,016465 0,004 -0,186396 0,048750 < 0,001 0,150221 0,049417 0,003 0,264737 0,080968 0,002 -0,178834 0,009781 < 0,001 0,038676 0,003669 < 0,001 0,555700 0,037133 < 0,001 0,093802 0,003833 < 0,001 0,114460 0,007970 < 0,001 0,065231 0,004702 < 0,001 0,181552 0,009368 < 0,001 0,044039 0,011334 < 0,001 0,357704 0,060140 < 0,001 0,036993 0,005477 < 0,001 0,413305 0,053327 < 0,001 0,065872 0,010411 < 0,001 0,073116 0,008407 < 0,001 0,109848 0,008070 < 0,001 γ 01 (Vrperc99) γ 02 (ZLOPER) γ 03 (ZLBRUTO) γ 04 (export) β1 j = γ 10 β 2 j = γ 20 β 3 j = γ 30 β 4 j = γ 40 β 5 j = γ 50 β 6 j = γ 60 β 7 j = γ 70 β 8 j = γ 80 β 9 j = γ 90 β10 j = γ 100 β11 j = γ 110 β12 j = γ 120 β13 j = γ 130 β14 j = γ 140 τ 00 0,201230 < 0,001 A partir do MLGH1_Final, da variabilidade total da resposta devida aos grupos praticando distintas atividades econômicas (nível 2) conseguiu-se explicar 21,42%. 7.6 O MLGH2 O Apêndice K apresenta detalhadamente todas as estatísticas e níveis descritivos obtidos para cada uma das rodadas de níveis 1 e 2 do MLGH2. Para o nível 1 foram executadas cinco rodadas de estimativas pelo processo stepwise forward (Tabelas 38, 39, 40, 41 e 42), em que entraram no modelo, respectivamente, LI02A, LI24A, LI30A e ZPC1 na primeira; LI04A, LI22A e LI26B na segunda; LI10A e LI13B na terceira; LI05A e ZPC2 na quarta; e LI31A, LI25A e LI11A na quinta. Em relação ao modelo final de nível 1 (MLGH2_1), testes de 179 coeficientes aleatórios individuais não rejeitaram a hipótese nula para todos os coeficientes de nível1, à exceção do intercepto aleatório. Já o componente de variância estimado para o MLGH2_1 foi de 0,03887. Com a inclusão de variáveis de nível 2 ao MLGH2_1, segundo o apresentado na Tabela 43, observa-se que as variáveis relevantes em termos de explicação da variabilidade de nível 2 são VrPerc99, export e a natureza da atividade agregada. Em relação a esta última, por meio de um GLHT verifica-se que o coeficiente para comagr não possui efeito significativamente distinto da referência em termos de parametrização, o setor de serviços agregado, e com isso pode ser retirado do modelo. Em uma segunda rodada relativa ao nível 2 não houve ingresso de variáveis. Por fim, na fase de redução de variáveis, LI31A foi retirado dos modelos MLGH2 por perda de significância. Com isso o primeiro modelo, de cunho exclusivamente interpretativo, envolvendo a Natureza da Atividade Agregada (MLGH2_NAG) pode ser formalizado. MLGH2_NAG (Nível 1): η ij = β 0 j + β1 j ⋅ LI02Aij + β 2 j ⋅ LI04Aij + β 3 j ⋅ LI10Aij + β 4 j ⋅ LI11Aij + β 5 j ⋅ LI13Bij + β 6 j ⋅ LI05Aij + β 7 j ⋅ LI24Aij + β 8 j ⋅ LI22Aij + (7.7) β 9 j ⋅ LI26Bij + β10 j ⋅ LI25Aij + β11 j ⋅ LI30Aij + β12 j ⋅ ZPC1ij + β13 j ⋅ ZPC2ij MLGH2_NAG (Nível 2): β 0 j = γ 00 + γ 01 ⋅ agropecagr j + γ 02 ⋅ indagr j + u0 j , (7.8) β pj = γ p 0 (7.9) p = 1,..., 13, onde, para os níveis 1 e 2, tem-se que ηij : log-odds ou logito de presença (ocorrência) de infração fiscal para o i-ésimo contribuinte do grupo j; β 0 j : log-odds de presença (ocorrência) de infração fiscal esperado para um contribuinte do grupo j apresentando valor zero para todas as covariáveis de nível 1; β pj : mudança esperada no log-odds de presença (ocorrência) de infração fiscal, dado um incremento unitário na p-ésima covariável de nível 1, ceteris paribus; 180 γ 00 : valor esperado de β 0 j (intercepto) para os grupos pertencentes aos setores de comércio e serviços agregados; γ 01 : diferença entre os valores esperados dos β 0 j (interceptos) de grupos agropecuários, silvicultores e florestais agregados e de comércio e serviços agregados; γ 02 : diferença entre os valores esperados dos β 0 j (interceptos) de grupos industriais e de comércio e serviços agregados; u 0 j : efeito aleatório associado ao grupo j; τ 00 : variância dos interceptos β 0 j entre os grupos, corrigida por agropecagr j e indagr j ; suposições do modelo: u 0 j ∼N(0, τ 00 ). As estimativas para o modelo são as da Tabela 15. Tabela 15: Estimativas para MLGH2_NAG Parâmetro Estimativa Erro Padrão Nível Descritivo γ 00 0,602977 0,091643 < 0,001 -0,709302 0,136248 < 0,001 -0,150765 0,057158 0,009 -0,064246 0,014663 < 0,001 -0,046725 0,014980 0,002 0,034447 0,012501 0,006 0,031471 0,015038 0,036 -0,122959 0,026396 < 0,001 0,148317 0,033053 < 0,001 0,167816 0,025241 < 0,001 -0,029533 0,009699 0,003 -0,067432 0,021778 0,002 -0,069782 0,025502 0,007 0,015905 0,007760 0,040 0,077412 0,018593 < 0,001 -0,029637 0,013990 0,034 γ 01 (agropecagr) γ 02 (indagr) β1 j = γ 10 β 2 j = γ 20 β 3 j = γ 30 β 4 j = γ 40 β 5 j = γ 50 β 6 j = γ 60 β 7 j = γ 70 β 8 j = γ 80 β 9 j = γ 90 β10 j = γ 100 β11 j = γ 110 β12 j = γ 120 β13 j = γ 130 τ 00 0,020670 < 0,001 181 A partir do MLGH2_NAG, da variabilidade total da resposta devida aos grupos praticando distintas atividades econômicas (nível 2) conseguiu-se explicar 46,82%. Já o MLGH2_Final ajustado para fins das previsões é o que segue. MLGH2_Final (Nível 1): η ij = β 0 j + β1 j ⋅ LI02Aij + β 2 j ⋅ LI04Aij + β 3 j ⋅ LI10Aij + β 4 j ⋅ LI11Aij + β 5 j ⋅ LI13Bij + β 6 j ⋅ LI05Aij + β 7 j ⋅ LI24Aij + β 8 j ⋅ LI22Aij + (7.10) β 9 j ⋅ LI26Bij + β10 j ⋅ LI25Aij + β11 j ⋅ LI30Aij + β12 j ⋅ ZPC1ij + β13 j ⋅ ZPC2ij MLGH2_Final (Nível 2): β 0 j = γ 00 + γ 01 ⋅ exp ort j + γ 02 ⋅ VrPerc 99 j + u 0 j , (7.11) β pj = γ p 0 (7.12) p = 1,..., 13, onde, para os níveis 1 e 2, tem-se que ηij : log-odds ou logito de presença (ocorrência) de infração fiscal para o i-ésimo contribuinte do grupo j; β 0 j : log-odds de presença (ocorrência) de infração fiscal esperado para um contribuinte do grupo j apresentando valor zero para todas as covariáveis de nível 1; β pj : mudança esperada no log-odds de presença (ocorrência) de infração fiscal, dado um incremento unitário na p-ésima covariável de nível 1, ceteris paribus; γ 00 : valor esperado de β 0 j (intercepto) para um grupo j contando com VrPerc99 j = export j = 0 ; γ 01 : diferença entre os valores esperados dos β 0 j (interceptos) de grupos exportadores e não exportadores, ceteris paribus; γ 02 : diferença esperada no valor de β 0 j (intercepto) para um incremento unitário em VrPerc 99 j , ceteris paribus; u 0 j : efeito aleatório associado ao grupo j; 182 τ 00 : variância dos interceptos β 0 j entre os grupos, corrigida por VrPerc 99 j e export j ; suposições do modelo: u 0 j ∼N(0, τ 00 ). As estatísticas e níveis descritivos para esse modelo são as da Tabela 16: Tabela 16: Estimativas para MLGH2_Final Parâmetro Estimativa Erro Padrão Nível Descritivo γ 00 0,546603 0,089167 < 0,001 -0,202106 0,057097 0,001 -0,038157 0,012655 0,003 -0,063924 0,014643 < 0,001 -0,049270 0,014937 0,001 0,035916 0,012475 0,004 0,031971 0,015043 0,033 -0,125664 0,026420 < 0,001 0,147289 0,033066 < 0,001 0,167257 0,025315 < 0,001 -0,029840 0,009714 0,003 -0,063283 0,021819 0,004 -0,062478 0,025307 0,014 0,018934 0,007812 0,016 0,079879 0,018748 < 0,001 -0,029927 0,013984 0,032 γ 01 ( export) γ 02 (VrPerc99) β1 j = γ 10 β 2 j = γ 20 β 3 j = γ 30 β 4 j = γ 40 β 5 j = γ 50 β 6 j = γ 60 β 7 j = γ 70 β 8 j = γ 80 β 9 j = γ 90 β10 j = γ 100 β11 j = γ 110 β12 j = γ 120 β13 j = γ 130 τ 00 0,024860 < 0,001 A partir do MLGH2_Final, da variabilidade total da resposta devida aos grupos praticando distintas atividades econômicas conseguiu-se explicar 36,04%. 7.7 Programas utilizados para os processos de estimação Todas as estimativas apresentadas nas seções 7.5 e 7.6 foram obtidas a partir do HLM, versão 5.0, porém também é oportuno apresentar o processo de obtenção das mesmas estimativas por meio do R Project for Statistical Computing (versão 2.0.1), software de plataforma orientada a objeto e de concepção livre (inclusive código), cujo acesso está disponível a partir do endereço <http://www.r-project.org/>. Os 183 comandos utilizados para estimar o modelo MLGH2_Final, assim como obter as inferências mais importantes, estão relacionados no Apêndice L. Neste, pode ser observado que o cerne do processo se dá pela utilização da função glmmPQL, que fornece estimativas unit-specific, por meio de Máxima Verossimilhança, que diferem das procedentes do HLM somente a partir da terceira casa decimal para efeitos fixos e componente variância. 7.8 Análise de resíduos Na seção 3.4 viu-se que um MLGH é formado, dentre outras estruturas, por um modelo amostral não Normal de nível 1 em que os resíduos de nível 1 resultam heterocedasticos por dependerem dos valores preditos para φij . Por outro lado, a equação (3.42), e o formulado nas seções 7.5 e 7.6, parte da suposição de que para cada grupo j exista um vetor (u 0 j ,u1 j ,...,uQj ) T de efeitos aleatórios distribuindo-se de acordo com a distribuição Normal multivariada e contando com elementos u qj apresentando média zero e Var (u qj ) = τ qq . Assim sendo, a análise dos resíduos tem por objetivo verificar a suposição de normalidade dos efeitos aleatórios de nível 2. Em relação ao MLGH1_Final, o teste de Shapiro-Wilk não rejeita formalmente a hipótese de normalidade de resíduos (nível descritivo 0,2058), enquanto que o gráfico de probabilidade Normal (ver Figura 6 à esquerda) demonstra ser aceitável tal suposição. Quanto ao MLGH2_Final, o teste de Shapiro-Wilk apresenta nível descritivo de 0,0902, também não rejeitando a suposição de normalidade dos resíduos, cuja ordenação em relação aos quantis normais teóricos é apresentada na Figura 6 à direita. 2 1 0 Quantis Teóricos -3 -3 -2 -1 1 0 -1 -2 Quantis Teóricos 2 3 3 184 -0.5 0.0 0.5 1.0 -0.2 Resíduos -0.1 0.0 0.1 0.2 Resíduos Figura 6: Gráfico de probabilidade Normal para resíduos dos MLGH Finais 7.9 Interpretação dos modelos estimados 7.9.1 MLGH1 O efeito das variáveis de nível 1 significativas para ambos os modelos finais será abordado na seção 7.9.3 Quanto às variáveis de nível 2, os resultados para MLGH1_Final (Tabela 14) informam que um contribuinte do grupo típico, apresentando valor zero para todas as covariáveis de nível 1, e também VrPerc99 = ZLOPER = ZLBRUTO = export = 0, situação que por questão de praticidade se denomina daqui em diante de condição nula, apresenta um log-odds de probabilidade de presença de indício de infração fiscal de -4,201268 ( γ 00 estimado para MLGH1_Final), implicando numa probabilidade de apresentar indício de infração fiscal de 1,48%. A utilização de variáveis de nível 2 permite diversas interpretações fiscais. De fato, uma variação percentual unitária positiva em VrPerc99 está associada a um ^ log-odds de presença de indício de infração fiscal mais elevado, pois γ 01 = 0,047645, à razão entre odds de exp(0,047645) = 1,05, ceteris paribus, ou seja comparando dois contribuintes similares em tudo, mas pertencendo a grupos CNAE-Fiscal diferindo uma unidade em termos de VrPerc99, pode-se esperar que o odds de presença de indício de infração fiscal para o contribuinte do grupo de maior VrPerc99 equivalha a 1,05 vezes o odds de presença de indício de infração fiscal para o contribuinte do grupo de menor VrPerc99. Com o advento da mencionada variação percentual unitária positiva em VrPerc99, e partindo-se da condição nula, o contribuinte passa a contar com probabilidade de apresentar indício de 1,54%. Um 185 incremento adicional de mais nove unidades percentuais - correspondendo a um grupo CNAE-Fiscal apresentando variação anual positiva de 10% no PIB - e a razão entre odds passa a 1,61, ceteris paribus, e a probabilidade do contribuinte apresentar indício passa a ser de 2,35%, portanto 58,78% superior. A mesma direção de efeito no log-odds ocasionado por variações em VrPerc99 seguem as ^ variações unitárias positivas em ZLBRUTO e export, pois ^ γ 03 = 0,150221 e γ 04 = 0,264737, à razão entre odds de presença de indício de infração fiscal de, respectivamente, 1,16 e 1,30, ceteris paribus. Por outro lado, o efeito de um incremento unitário em ZLOPER acarreta redução no mencionado log-odds, já que ^ γ 02 = -0,186396, à razão entre odds de 0,82, ceteris paribus. Os resultados para ZLBRUTO e ZLOPER parecem consistentes com o item “b”, seção 2.9, do capítulo 2, ou seja, o método de seleção por cruzamento de informações da SRF detecta com maior probabilidade os contribuintes pertencentes aos grupos CNAE-Fiscal com renda média auferida mais elevada. Além disso, o método também detecta com maior probabilidade os contribuintes dos grupos CNAE-Fiscal exportadores, odds 30% superior em relação à referência (grupos não exportadores), ceteris paribus. Quanto ao MLGH1_NAG (Tabela 13), este mostra inicialmente que o log-odds de presença de indício de infração fiscal para um contribuinte na condição nula, ou seja, apresentando agropecagr = indagr = 0, o que, segundo a parametrização adotada, o insere internamente aos grupos de comércio e serviços agregados, pertencente ao grupo típico e apresentando valor zero para todas as covariáveis de nível 1, equivaleu a -4,258985 ( γ 00 estimado para MLGH1_NAG), implicando na probabilidade de apresentar indício de infração fiscal de 1,39%. O fato do grupo CNAE-Fiscal pertencer ao setor industrial agregado associa-se a um log-odds de presença de indício de infração fiscal superior ao dos grupos de ^ comércio e serviços agregados, pois γ 02 = 0,225233, à razão entre odds de 1,25, ceteris paribus; acarretando probabilidade do contribuinte apresentar indício, partindo-se da mencionada condição nula, de 1,74%. Já a situação do grupo estar englobado nos setores de agricultura, pecuária, silvicultura e exploração florestal ^ agregadas relaciona-se a uma elevação no log-odds ainda maior, uma vez que γ 01 = 0,777933, à razão entre os odds de 2,18, ceteris paribus; indicando uma 186 probabilidade do contribuinte apresentar indício, a partir da condição nula, de 2,99%, portanto mais de duas vezes superior à da condição inicial. Estes resultados indicam que três contribuintes absolutamente idênticos em tudo, a menos de pertencerem a grupos CNAE-Fiscal de setores agregados distintos, apresentam log-odds e respectivas probabilidades de apresentarem indício de infração fiscal de magnitudes diferentes, por ordem decrescente de probabilidades, os contribuintes de: agricultura, pecuária, silvicultura e exploração florestal agregadas; indústria; e comércio e serviços agregados; ou seja, em 1999 um contribuinte interno a um grupo agropecuário, silvicultor ou de exploração florestal possuía mais chances de ser selecionado para fiscalização, com base em presença de indício de infração fiscal, do que contribuintes que lhe eram idênticos individualmente, mas que pertenciam a grupos dos demais setores agregados. Os resultados obtidos nesta subseção, particularmente a existência de variáveis de nível 2 significativas para todos os modelos estimados, validam a terceira hipótese de pesquisa, ou seja, os MLGH levaram em consideração, de forma sistematizada, a correlação de medidas existente entre contribuintes pertencentes a um mesmo grupo de atividades econômicas e explicaram parte da variabilidade (entre grupos econômicos) aferida a partir dessa sistematização. 7.9.2 MLGH2 Quanto ao MLGH2_Final (Tabela 16), a condição nula admite concluir que um contribuinte do grupo típico, apresentando valor zero para todas as covariáveis de nível 1, e também VrPerc99 = export = 0, apresenta um log-odds de presença de infração de 0,546603 ( γ 00 estimado para MLGH2_Final), implicando numa probabilidade de ser infrator de 63,33%. Com as variáveis de nível 2, um incremento unitário positivo em VrPerc99 está ^ associado a um log-odds de presença de infração fiscal inferior, pois γ 02 = -0,03857, à razão entre odds de exp(-0,03857) = 0,96, ceteris paribus, ou seja comparando dois contribuintes similares em tudo, mas pertencendo a grupos CNAE-Fiscal diferindo uma unidade em termos de VrPerc99, pode-se esperar que o odds de presença de infração para o contribuinte do grupo de maior VrPerc99 equivalha a 0,96 vezes o odds de presença de infração para o contribuinte do grupo de menor VrPerc99. Com o advento da mencionada variação percentual unitária positiva em 187 VrPerc99, e partindo-se da condição nula, a probabilidade do contribuinte ser infrator reduz-se a 62,43%. Um incremento adicional de nove unidades percentuais a VrPerc99 - correspondendo a um grupo CNAE-Fiscal apresentando variação anual positiva de 10% no PIB - e a razão entre odds passa a 0,68, ceteris paribus, e a probabilidade do contribuinte ser infrator passa a ser de 54,01%, ou seja, 14,72% inferior, ceteris paribus. Já para o caso de export, esta assumindo valor unitário acarreta redução no log^ odds de presença de infração, uma vez que γ 01 = -0,202106, à razão entre odds de 0,82, ceteris paribus; o que implica que, partindo-se da condição nula, a probabilidade de um contribuinte pertencente a um grupo CNAE_Fiscal exportador ser infrator reduz-se a 58,53%, tudo o mais mantido constante. Quanto ao MLGH2_NAG (Tabela 15), este mostra inicialmente que o log-odds de presença de infração fiscal para um contribuinte na condição nula, ou seja, apresentando agropecagr = indagr = 0, o que, segundo a parametrização adotada o insere internamente aos grupos de comércio e serviços agregados, pertencente ao grupo típico, e apresentando valor zero para todas as covariáveis de nível 1, foi de 0,602977 ( γ 00 estimado para MLGH2_NAG), implicando numa probabilidade de ser infrator de 64,63%. O fato do grupo CNAE-Fiscal ser pertencente ao setor industrial agregado ^ associa-se a um log-odds de infração fiscal inferior, já que γ 02 = -0,150765, à razão entre odds de 0,86, ceteris paribus; o que indica que, partindo-se da condição nula, a probabilidade do contribuinte ser infrator reduz-se para 61,11%. Já a situação do grupo estar englobado nos setores de agricultura, pecuária, silvicultura e exploração ^ florestal agregadas relaciona-se a um log-odds ainda menor, pois γ 01 = -0,709302, à razão entre odds de 0,49, ceteris paribus; e, partindo-se da condição nula, a probabilidade do contribuinte ser infrator passa a ser de 47,34%, portanto 26,75% inferior. Estes resultados indicam que três contribuintes absolutamente idênticos em tudo, a menos de pertencerem a grupos CNAE-Fiscal de setores agregados distintos, apresentam log-odds de presença de infração e respectivas probabilidades de serem infratores de magnitudes diferentes, por ordem decrescente de probabilidades, os contribuintes de: comércio e serviços agregados; indústria; e 188 agricultura, pecuária, silvicultura e exploração florestal agregadas; ou seja, em 1999, um contribuinte interno a um grupo participante dos setores de comércio e serviços agregados possuía mais chances de ser infrator do que contribuintes que lhe eram idênticos individualmente, mas que pertenciam a grupos dos demais setores agregados. Além disso, deve-se destacar que, para este mesmo ano, um contribuinte de um grupo CNAE-Fiscal exportador apresentava menor probabilidade de ser infrator, odds 18% inferior em relação à referência (grupos não exportadores), ceteris paribus. Quanto à terceira hipótese de pesquisa, esta reafirma-se à luz dos resultados obtidos para as variáveis de nível 2 nesta subseção. 7.9.3 Comparação entre o MLGH1 e MLGH2 finais Inicialmente, deve-se atentar para o fato de que os modelos finais, tomados em conjunto, aproveitaram-se, em termos das variáveis significativas de nível 1, das três diretrizes de transformação de índices econômico-fiscais relacionadas na seção 6.2, ou seja, todas as transformações demonstraram-se relevantes, em algum momento, quanto à elucidação dos índices econômico-fiscais, em um universo de 33 disponíveis, realmente importantes no contexto das infrações tributárias. Além disso, as quatro primeiras componentes principais relativas aos dez valores contábeis brutos demonstraram-se de boa valia, já que o MLGH2_Final incorpora ZPC2 e ZPC1, sendo esta última ainda significativa para o MLGH1_Final. Para efeitos de comparação, a Tabela 17 lista as estimativas para os coeficientes das variáveis que se apresentaram significativas para todos os modelos estimados neste capítulo. Tabela 17: Estimativas para variáveis presentes em ambos os modelos finais Variável Nível LI04A Coeficientes Estimados MLGH1 MLGH2 1 0,038676 -0,049270 LI22A 1 0,065231 -0,029840 LI30 1 B=0,036993 A=0,018934 ZPC1 1 0,109848 0,079879 export 2 0,264737 -0,202106 VrPerc99 2 0,047645 -0,038157 agropecagr 2 0,777933 -0,709302 Indagr 2 0,225233 -0,150765 189 A tabela indica que LI04A e LI22A possuem efeitos contrários em relação aos modelos finais, com sua variação positiva contribuindo para elevar a probabilidade do contribuinte apresentar indício de infração fiscal, mas por outro lado reduzindo a probabilidade do mesmo contribuinte ser infrator. Já LI30 e ZPC1 apresentam-se com efeitos de mesma orientação para os dois modelos. Os índices de nível 1 da Tabela 17, presentes em todos os modelos estimados, podem então ser considerados como notoriamente importantes no contexto fiscal. Para as variáveis de nível 2 a situação é diferente, pois, segundo a Tabela 17, todas as estimativas trocam de sinal, indicando inversão no sentido do efeito da variável entre um e outro modelo. Muito embora a magnitude relativa de efeitos para agropecagr e indagr seja preservada, no final das contas MLGH2_NAG mostra que um contribuinte de um grupo pertencente ao setor de comércio e serviços agregados tem maior probabilidade de ser infrator do que um pertencente a um grupo do setor industrial, que por sua vez supera a do contribuinte pertencente à agricultura, pecuária, silvicultura e exploração florestal agregadas, tudo o mais mantido constante. Isso parece inconsistente com as estimativas do MLGH1_NAG, que inverte essa tendência em relação à probabilidade do contribuinte apresentar indício de infração fiscal. Também ocorre inversão de efeitos em termos das variáveis VrPerc99 e export, pois suas variações positivas diminuem as chances de infração, mas elevam a probabilidade de detecção por indício de infração fiscal. Os resultados dos dois parágrafos anteriores parecem sugerir que o sistema de seleção de contribuintes com base em indício de infração fiscal detectado por cruzamento de informações (ver subseção 1.1.1) está caminhando, em certos aspectos, em sentido contrário ao que a modelagem do cometimento da efetiva infração fiscal demonstra em suas estimativas. O levantamento das motivações que fundamentam essa inversão, em termos dos modelos estimados para mensurar a probabilidade de um contribuinte apresentar indício de infração fiscal, não se insere entre os objetivos deste trabalho. Contudo, de forma cautelosa, pode-se propor como hipótese a ser investigada futuramente a de que, de alguma maneira apriorística, o mencionado sistema de seleção por cruzamento de informações está considerando que os contribuintes que pertencem aos grupos do setor de agricultura, pecuária, silvicultura e exploração florestal agregadas, que preenchem o Anexo de Atividade Rural com muito mais freqüência do que os dos demais setores, implicando em uma DIPJ mais complexa, 190 possuem maiores possibilidades de cometer infrações; hipótese esta que o capítulo 2 demonstrou justamente ser considerada por muitas agências tributárias em seus sistemas de seleção, muito embora não de maneira unânime ou conclusiva. Além disso, o item “b” da seção 2.9 indica uma tendência conclusiva de que à medida que a renda dos contribuintes se eleva, elevam-se paralelamente as omissões de rendimentos. Isso pode sugerir, novamente de forma preliminar, que o sistema de seleção embute em si, de alguma forma, um viés prévio de que os grupos CNAE-Fiscal que mais crescem, em termos de variação percentual do PIB, são, compreensivelmente, considerados como de maior renda média auferida - fato que, entretanto, não se legitima na prática em 1999, pois dentre os 70 primeiros grupos com maior valor para ZRECLIQ (padronização da variável receita líquida = receita bruta subtraída dos impostos incidentes sobre as vendas e dos abatimentos e descontos incondicionais concedidos) apenas sete deles apresentaram variação percentual positiva do PIB. Considerando-se os resultados para o MLGH2_Final, uma das possíveis interpretações para esse tema seria a de que os contribuintes pertencentes aos grupos CNAE-Fiscal que mais cresceram ao longo do ano de 1999 tiveram menos motivos para omitirem receitas do que os contribuintes dos grupos que vivenciaram variação negativa do PIB naquele período. 7.10 Aplicação à classificação e validação dos modelos estimados 7.10.1 Desempenho das previsões para observações conhecidas No que concerne a previsão de uma resposta binária em modelos estatísticos, isso envolve basicamente a utilização de uma determinada regra de classificação operacional, e.g., probabilidade predita maior ou igual a 50% classificada como 1, caso contrário classificada como 0, o que claramente requisita a definição de um ponto de corte probabilístico por parte do analista - no caso exemplificado ele seria de 50%. Um útil instrumento de análise da capacidade preditiva destes modelos é a curva Receiver Operating Characteristic (ROC), que, segundo Agresti (2002), relaciona a sensitividade em função de (1 - especificidade) para todos os possíveis pontos de corte. Essa é uma curva em geral côncava interligando os pontos cartesianos (0,0) e (1,1), e quanto maior a área sob a curva, melhores são as previsões proporcionadas pelo modelo. Uma importante característica de análise da ROC é quando esta assume uma forma de linha reta inclinada a 45o, indicando que 191 o modelo preditivo não é superior à total aleatoriedade de decisão. Com isso, inicialmente podem ser inspecionadas as ROC para MLGH1_Final e MLGH2_Final na Figura 7. Figura 7: Curvas ROC para Amostras de Estimação. A área sob a curva ROC do MLGH1_Final é de 0,81, enquanto que sob a do MLGH2_Final é de 0,61, o que indica que ambos os modelos fornecem previsões superiores à mera aleatoriedade na decisão fiscal, sendo o MLGH1_Final o mais preditivo. Para a utilização prática dos modelos para as novas observações não constantes da amostra de estimação, uma regra de classificação tem de ser escolhida previamente pelo analista, com base na amostra de estimação disponível em mãos. Neste ponto, deve-se relembrar que BD1 representa a população propriamente dita de todos os 164.466 declarantes pelo lucro real em 1999, sendo que em cerca de 5,90% foi detectado indício de infração fiscal, estes sendo considerados os casos positivos. Já BD2 corresponde a 12.227 contribuintes fiscalizados, sendo que 66,02% deles foram identificados como infratores (casos positivos) e, na falta de outra informação, assume-se aqui que a proporção populacional de infratores é idêntica à verificada em BD2. Além disso, a extração das amostras de validação (ver Apêndice I) preservou a proporção populacional de ocorrência das características de interesse nas remanescentes amostras de estimação, tanto no caso de BD1 quanto no de BD2. Estas considerações são importantes, pois levam à conclusão de que as amostras específicas de estimação e de validação são, na verdade, amostras aleatórias da população objetivo, preservando a mesma proporção de ocorrência das características de interesse ali verificadas (apresentar indício de infração fiscal ou apresentar infração). 192 Seguindo em linhas gerais o prescrito por Neter et al. (1996) para os casos de amostras aleatórias estratificadas proporcionalmente à população, a abordagem aqui adotada para a escolha da regra de classificação envolve, utilizando-se da amostra de estimação, avaliar o desempenho de diversos pontos de corte probabilísticos possíveis à luz de uma ou mais medidas de validade interna do modelo, por exemplo, sensitividade, especificidade ou taxa de acertos, sendo que uma boa aproximação para os valores de pontos de corte a serem testados pode ser obtida entre os que se situam próximos à proporção populacional de positivos. Após isso, a regra considerada como a de melhor desempenho pelo analista é, então, submetida à amostra de validação para avaliação da capacidade preditiva do modelo em relação às novas observações. Assim, a Tabela 18 apresenta diferentes pontos de corte testados para o MLGH1_Final e seus respectivos resultados em termos da sensitividade e da especificidade, sendo desejável, no caso específico de indício de infração, que ambas assumam valores elevados, de forma a que sejam evitados os falsos negativos e falsos positivos. Tabela 18: Pontos de Corte para MLGH1_Final (Amostra Estimação) Ponto de Corte Sensitividade (%) Especificidade (%) 0,050 (5,0%) 77,31 69,20 0,055 (5,5%) 74,85 71,94 0,060 (6,0%) 72,42 74,31 0,065 (6,5%) 70,18 76,41 A partir da Tabela 18, observa-se que os pontos de corte probabilísticos que equilibram em certo grau a sensitividade e a especificidade são 0,060 e 0,055, sendo este último o ponto escolhido. Já a Tabela 19 apresenta os pontos de corte testados para o MLGH2_Final e seus respectivos graus de sensitividade e especificidade. Como este modelo envolve o cometimento da infração fiscal propriamente dita, a principal preocupação na definição do ponto de corte é que sejam evitados os falsos negativos, consequentemente elevando a pressão de fiscalização sobre os contribuintes infratores, devendo-se então buscar a máxima sensitividade para o modelo. Neste caso, evidentemente que é importante a análise da sensitividade obtida, mas contrabalançando-a não com a especificidade, mas antes com o Valor Preditivo 193 Positivo (VPP), entendendo-se o VPP como a probabilidade de um indivíduo ou registro possuir efetivamente a característica de interesse, dado ter sido classificado pelo modelo como positivo. Tabela 19: Pontos de Corte para MLGH2_Final (Amostra Estimação) Ponto de Corte Sensitividade (%) Especificidade (%) VPP (%) 0,615 (61,5%) 84,69 29,18 69,90 0,620 (62,0%) 83,13 31,04 70,08 0,622 (62,2%) 82,24 31,92 70,12 0,627 (62,7%) 80,55 33,80 70,27 0,630 (63,0%) 79,28 35,23 70,40 0,636 (63,6%) 76,78 38,47 70,80 0,642 (64,2%) 74,49 41,22 71,11 0,650 (65,0%) 70,49 45,48 71,52 0,655 (65,5%) 67,97 48,53 71,95 A partir da Tabela 19, o ponto de corte probabilístico escolhido para o caso do MLGH2_Final aplicado às novas observações é 0,620, pois pontos de corte inferiores elevam a sensitividade, mas levam o VPP a ultrapassar o limiar abaixo de 70%, enquanto que pontos de corte superiores reduzem rapidamente a sensitividade. 7.10.2 Desempenho das previsões para novas observações A aplicação do ponto de corte escolhido para o MLGH1_final à amostra de validação implica nos seguintes valores para a sensitividade (S) e especificidade (E): Tabela 20: Ponto de Corte para MLGH1_Final (Amostra Validação) Ponto de Corte Sensitividade (%) Especificidade (%) 0,055 (5,5%) 73,78 71,62 Os resultados da Tabela 20 permitem inferir que o MLGH1_Final detecta, em média, 73,78% dos casos positivos e 71,62% dos casos negativos. Os procedimentos de amostragem apresentados no Apêndice I permitem estabelecer um intervalo de 95% de confiança para uma determinada medida genérica (M) de validade interna do MLGH1_Final, estimada a partir das amostras de validação, que é dado por: 194 ^ ^ ^ ^ ⎛ ^ ⎞ ⎜ M (1 − M ) ^ M (1 − M ) ⎟ ⎜ M − 1,96 ⋅ (1 − f1 ) ⋅ (n − 1) ; M + 1,96 ⋅ (1 − f1 ) ⋅ (n − 1) ⎟ ⎜ ⎟ ⎝ ⎠ (7.13) A partir do intervalo em 7.13, os intervalos de 95% confiança para a sensitividade (S) e especificidade (E) são: ⎛ S^ ⎞ ⎜ MLGH1 ± 1,96 ⋅ 0,022459 ⎟ ⇒ 69,37% ≤ SMLGH1 ≤ 78,19% ⎝ ⎠ ⎛ E^ ⎞ ⎜ MLGH1 ± 1,96 ⋅ 0,005775 ⎟ ⇒ 70,48% ≤ E MLGH1 ≤ 72,76% ⎝ ⎠ Já no caso do MLGH2_final, o ponto de corte escolhido aplicado à amostra de validação implica nos seguintes valores para as medidas de validade interna do modelo: Tabela 21: Ponto de Corte para MLGH2_Final (Amostra Validação) Ponto de Corte Sensitividade (%) Especificidade (%) VPP (%) 0,620 (62,0%) 80,16 33,51 70,16 A Tabela 21 mostra que o MLGH2_Final, em média, detecta 80,16% dos casos de infração; e que a cada 1.000 contribuintes por ele classificados como infratores, 702 confirmarão tal previsão. Analogamente, os procedimentos de amostragem apresentados no Apêndice I permitem estabelecer que o intervalo de 95% de confiança para uma determinada medida genérica (M) de validade interna do MLGH2_Final é: ^ ^ ^ ^ ⎛ ^ ⎞ ⎜ M (1 − M ) ^ M (1 − M ) ⎟ ; M + 1,96 ⋅ ⎜ M − 1,96 ⋅ ( − 1 ) (n − 1) ⎟⎟ n ⎜ ⎝ ⎠ (7.14) Dessa forma obtêm-se os seguintes intervalos de 95% de confiança para as medidas de validade interna do MLGH2_Final: ⎛ S^ ⎞ ⎜ MLGH2 ± 1,96 ⋅ 0,014562 ⎟ ⇒ 77,30% ≤ SMLGH2 ≤ 83,02% ⎝ ⎠ ⎛ E^ ⎞ ⎜ MLGH2 ± 1,96 ⋅ 0,024088 ⎟ ⇒ 28,78% ≤ E MLGH2 ≤ 38,24% ⎝ ⎠ 195 ^ ⎛ VPP ⎞ MLGH2 ± 1,96 ⋅ 0,013581⎟ ⇒ 67,49% ≤ VPPMLGH2 ≤ 72,83% ⎜ ⎝ ⎠ Estes resultados, para ambos os modelos, indicam a estabilidade dos coeficientes estimados frente às novas observações, já que as medidas pontuais de validade interna estimadas para as amostras de validação (Tabelas 20 e 21) não diferem sensivelmente em relação às medidas a partir das amostras de estimação (Tabelas 18 e 19). Neste momento deve-se ressaltar que esses resultados relacionam-se a apenas dois dos muitos milhares de modelos possíveis, além de serem bastante sensíveis aos pontos de corte previamente escolhidos pelo analista, podendo, portanto ser aperfeiçoados, por exemplo, procedendo-se a rodadas adicionais para teste de variáveis de nível 1, ou ainda pesquisando informações ainda inexploradas contidas nas DIPJ dos contribuintes e também outros aspectos setoriais a título de novas variáveis de níveis 1 e 2. 7.11 Comparação entre os desempenhos do método novo e atual Este é o momento adequado para que seja efetuada uma comparação entre o desempenho da seleção de contribuintes efetuada com base no novo método de classificação (tendo por base o MLGH2_Final) frente ao método de seleção por cruzamento de informações utilizado pela SRF e esquematicamente ilustrado pela Figura 1 do primeiro capítulo. Inicialmente, deve-se salientar que, quanto ao método atual da SRF, não há informações disponíveis nas bases de dados de trabalho (BD1 e BD2) que possam aclarar os valores de Sensitividade e Especificidade obtidos por meio de sua utilização, isso porque 157.709 contribuintes da BD1 (164.466 - 9.757 = 157.709) não foram efetivamente fiscalizados e, portanto, não há como se apurar os falsos negativos e verdadeiros negativos proporcionados pela seleção efetuada com base nesse método. Contudo, segundo o já mencionado no capítulo 6, em BD2 constam 8.728 contribuintes selecionados para fiscalização a partir da base de dados de cruzamento de informações da SRF, sendo que, destes, 5.180 foram autuados em relação às operações praticadas no ano-calendário 1999, e estes valores fornecem exatamente os subsídios necessários para o cálculo do VPP do método atual, qual seja, VPPatual = (5.180/8.728) = 59,35%. 196 Com os subsídios do informado no parágrafo anterior e também na Tabela 21, verifica-se que o MLGH2_Final apresenta uma estimativa pontual do VPP cerca de 11 pontos percentuais superior ao VPPatual e, ainda, que seu próprio intervalo de 95% de confiança apresenta limite inferior (67,49%) mais de oito pontos percentuais superior aos 59,35% obtidos pelo processo atual. Fazendo-se uma comparação com base em lotes de 1.000 fiscalizados, os resultados indicam que a cada milhar selecionado para fiscalização com base no método atual, cerca de 594 contribuintes serão autuados por serem infratores, enquanto que já foi visto que a cada mil contribuintes classificados como infratores pelo MLGH2_Final, cerca de 702 confirmarão tal previsão, o que representa um desempenho bastante superior ao do método atual. Em se tratando da fiscalização de grandes contribuintes que apuram o Lucro Real, esta diferença em termos de VPP entre os dois métodos pode representar até bilhões de reais em termos de autuações. 7.12 Aspectos operacionais de utilização do novo método de classificação de contribuintes para fiscalização A partir da estimação, aplicação e validação dos MLGH requisitados pelo método de classificação de contribuintes proposto nesta tese, pode-se finalmente ressaltar que este presta-se aos momentos em que se exija pronta reação por parte dos órgãos tributários frente aos casos de infração, haja vista os referidos modelos terem sido especificados com as seguintes características: contarem no nível 1, dos contribuintes, tão-somente com variáveis obrigatoriamente prestadas pelo próprio sujeito passivo (contribuinte), sendo, portanto, independentes de dados individuais de contribuintes prestados por fontes externas de informação; nível 2 dispondo de variáveis setoriais não sigilosas de fácil e rápido acesso. Estes aspectos de modelagem permitem que a utilização do novo método reduza substancialmente muito do tempo de espera para a deflagração de ações fiscais mencionado na subseção 1.1.1. No caso brasileiro, as pessoas jurídicas que apuram o lucro real entregam suas DIPJ à SRF regularmente no último dia útil do mês de junho de cada ano. Imediatamente após isso, seguindo o processo proposto na Figura 5, a agência pode prontamente optar pela utilização de algum dos MLGH estimados neste capítulo e submetê-lo às DIPJ recebidas, de forma a classificar e identificar os 197 contribuintes de interesse fiscal, antecipando em meses e até em alguns anos a ação do sistema de fiscalização. No caso específico da opção por algum dos modelos estimados, deve-se ponderar, a partir da Figura 7 e dos resultados subseqüentemente obtidos a partir dos pontos de corte adotados, que o MLGH1_Final equilibra níveis similares de sensitividade e de especificidade, porém o MLGH2_Final detecta diretamente a infração fiscal e é mais sensitivo. Pelo exposto, constata-se que as mencionadas diretrizes de especificação de modelos e a conseqüente possibilidade prática de agilização da ação da fiscalização tributária validam, portanto, a quarta hipótese de pesquisa. 198 8 CONSIDERAÇÕES FINAIS O objetivo geral do trabalho foi o de desenvolver e especificar um novo método de classificação de contribuintes pessoas jurídicas brasileiras, com base na previsão de seus comportamentos tributários, objetivando classificá-las como prioritárias ou não à fiscalização, representando na prática um processo de seleção de contribuintes para fiscalização. A opção por operacionalizar o classificador por meio dos MLGH deu-se à luz da primeira e terceira hipóteses de pesquisa, quais sejam, de que qualquer estudo tributário que envolva a classificação de empresas como de relevante interesse fiscal deve levar em consideração e avaliar a correlação de medidas existente entre empresas de um mesmo setor de atividades econômicas; e de que essa correlação de medidas pode ser contabilizada adequadamente por meio de uma modelagem estatística hierárquica. Após a revisão de literatura, e do desenvolvimento do classificador propriamente dito, neste capítulo de fechamento são apresentadas as principais conclusões e contribuições proporcionadas pela pesquisa, assim como identificadas suas limitações e oportunidades para estudos futuros. 8.1 Principais resultados No primeiro capítulo foi contextualizado o tema de tese; descrito o panorama atual no plano da seleção de contribuintes para fiscalização na SRF, que se fundamenta resumidamente em uma grande base de dados de cruzamento de informações, a qual permite que os contribuintes apresentando indícios de infração fiscal sejam selecionados para fiscalização; e foram também apresentados o problema, questões e hipóteses de pesquisa. Na etapa de revisão de literatura dos aspectos tributários, capítulo 2, viu-se, principalmente, que as agência tributárias utilizam-se de métodos não aleatórios para seleção de contribuintes, de forma a elevar o retorno esperado de suas ações fiscais; que à medida em que a renda dos contribuintes se eleva, elevam-se concomitantemente as omissões de rendimentos; e que há diversos resultados indicando que contribuintes participantes de um mesmo setor de atividades econômicas tendem a ser mais parecidos entre si do que contribuintes que se dedicam a setores econômicos distintos, no que concerne a infração à legislação tributária, o que acarreta correlação de medidas intra-setores econômicos; porém a 199 mesma revisão demonstrou que essa correlação não vem sendo considerada de forma sistematizada pelos estudos científicos abordando a seleção de contribuintes para fiscalização, mas sim de forma pontual e limitada, o que confirma a segunda hipótese de pesquisa. Nos capítulos 3 e 4 foram apresentados detalhadamente os processos que fundamentam as estimativas de parâmetros em MLH e MLGH, permitindo sintetizar que suas estimativas de efeitos fixos, coeficientes aleatórios de nível 1 e componentes de variância/covariância, obtidas por meio de uma complexa combinação de métodos já tradicionais em estatística com processos adicionais mais recentes, provêem ao pesquisador, em uma modelagem única e robusta, uma maior riqueza interpretativa para os fenômenos em estudo. No capítulo 5 foi apresentado o novo método de classificação de contribuintes para fiscalização, fundado nas previsões obtidas a partir de um MLGH, cujo objetivo é ser utilizado nos momentos que exijam pronta reação por parte dos órgãos tributários. No capítulo 6 foram explorados os dados de trabalho e confirmou-se a primeira hipótese de pesquisa, qual seja, a de que estudos tributários que envolvam a classificação de contribuintes PJ para fins de fiscalização devem considerar e avaliar a correlação de medidas existente entre contribuintes que se dedicam às mesmas atividades econômicas, pois a análise exploratória hierárquica mostrou que existe, de fato, variabilidade nas respostas de interesse exclusivamente devida a grupos praticando distintas atividades econômicas aproximadamente 11,27% do total no caso de probabilidade de indício de infração e 2,74% do total no caso de probabilidade de infração propriamente dita. O capítulo 7, de estimação e aplicação de modelos à classificação, logrou obter os seguintes principais resultados prático-interpretativos: I) Dentre as diversas variáveis de nível 1 (contribuintes) significativas para os modelos estimados no capítulo 7, LI04, LI22, LI30 e a primeira componente principal em relação aos dez valores contábeis brutos (ZPC1), presentes de forma significativa em todos os modelos estimados, podem ser consideradas, em termos preditivos, como notoriamente importantes no contexto fiscal. II) Quanto aos resultados obtidos para as variáveis de nível 2 (grupos CNAE-Fiscal): 200 II.I) Foi verificado que três contribuintes absolutamente idênticos em tudo, a menos de pertencerem a grupos CNAE-Fiscal de setores agregados distintos, apresentaram log-odds e respectivas probabilidades de apresentarem indício de infração fiscal de magnitudes diferentes, por ordem decrescente de probabilidades, os contribuintes de: agricultura, pecuária, silvicultura e exploração florestal agregadas; indústria; e comércio e serviços agregados; isso significando que, em 1999, um contribuinte interno a um grupo agropecuário, silvicultor ou de exploração florestal possuía mais chances de ser selecionado para fiscalização, com base em presença de indício de infração fiscal, do que contribuintes que lhe eram idênticos individualmente, mas que pertenciam a grupos dos demais setores agregados. II.II) Por outro lado três contribuintes absolutamente idênticos em tudo, a menos de pertencerem a grupos CNAE-Fiscal de setores agregados distintos, apresentaram log-odds de presença de infração e respectivas probabilidades de serem infratores de magnitudes diferentes, por ordem decrescente de probabilidades, os contribuintes de: comércio e serviços agregados; indústria; e agricultura, pecuária, silvicultura e exploração florestal agregadas; permitindo inferir que, em 1999, um contribuinte interno a um grupo participante dos setores de comércio e serviços agregados possuía mais chances de ser infrator do que contribuintes que lhe eram idênticos individualmente, mas que pertenciam a grupos dos demais setores agregados. II.III) Em 1999, o método de seleção de contribuintes da SRF apresentava maiores probabilidades de detecção de contribuintes de grupos CNAE-Fiscal exportadores, odds 30% superior em relação à referência, ceteris paribus. Entretanto, para este mesmo ano, um contribuinte de um grupo CNAE-Fiscal exportador apresentava menor probabilidade de ser infrator, odds 18% inferior em relação à referência, ceteris paribus. II.IV) Em 1999, a variação anual percentual positiva do PIB do grupo CNAEFiscal favorecia a presença de indício de infração fiscal e conseqüentemente a detecção por parte do método de seleção da SRF; porém, neste mesmo período esta variação estava identicamente associada a uma menor probabilidade de cometimento de infração fiscal propriamente dita. 201 II.V) A existência de variáveis de nível 2 (grupos CNAE-Fiscal) significativas para todos os modelos estimados valida a terceira hipótese de pesquisa, ou seja, os MLGH levaram em consideração, de forma sistematizada, contribuintes econômicas a correlação pertencentes e explicaram a um parte de medidas mesmo da grupo variabilidade existente de entre atividades (entre grupos econômicos) aferida a partir dessa sistematização. III) Em termos de aplicação à classificação e validação dos modelos estimados: III.I) Ambos os modelos finais (MLGH1_Final e MLGH2_Final) fornecem previsões superiores à mera aleatoriedade de decisão tributária. III.II) A validação mostrou que o MLGH1_Final equilibra níveis similares de sensitividade e de especificidade, porém o MLGH2_Final detecta diretamente a infração fiscal e é mais sensitivo. III.III) O MLGH2_Final apresenta uma estimativa pontual do Valor Preditivo Positivo (70,16%) cerca de 11 pontos percentuais superior ao Valor Preditivo Positivo alcançado pelo método de seleção atual da SRF (59,35%), o que, a partir de uma comparação com base em lotes de 1.000 fiscalizados, permite concluir que a cada milhar selecionado para fiscalização pelo método atual da SRF, cerca de 594 contribuintes serão infratores, enquanto que a cada mil contribuintes classificados como infratores pelo MLGH2_Final, cerca de 702 confirmarão tal previsão, este último, portanto, um resultado claramente superior. IV) Quanto aos aspectos operacionais de utilização do novo método de classificação proposto no capítulo 5, as diretrizes de modelagem que nortearam a especificação dos MLGH responsáveis pela classificação utilização, no nível 1 (contribuintes), tão-somente de variáveis obrigatoriamente prestadas pelo próprio sujeito passivo (contribuinte), sendo, portanto, independente de dados individuais de contribuintes prestados por fontes externas de informação; e nível 2 explorando variáveis setoriais não sigilosas de fácil e rápido acesso conferem uma maior agilidade de ação ao órgão tributário e proporcionam uma redução substancial no tempo de espera para a deflagração da ação fiscal 202 mencionado na subseção 1.1.1, característica esta que, portanto, valida a quarta hipótese de pesquisa. Finalmente, a partir da execução da pesquisa e dos resultados obtidos, pôde-se constatar, como já relatado, a validação das quatro hipóteses de pesquisa relacionadas na subseção 1.1.2 e também o alcance de todos os objetivos específicos da seção 1.2. 8.2 Conclusões em relação às questões de pesquisa Em relação às questões de pesquisa relacionadas no primeiro capítulo (subseção 1.1.2) a condução do trabalho permitiu concluir pelo sintetizado a seguir: 1) Como estabelecer um método de classificação de contribuintes pessoas jurídicas, com base na previsão de seus comportamentos tributários, que as classifique, ágil e tempestivamente, em função do grau de interesse para fins de fiscalização, levando em consideração, de forma sistematizada (incorporando de forma estruturada todas as atividades econômicas das PJ), a provável correlação de medidas (informações) existente entre empresas de um mesmo setor de atividades econômicas? Esta questão principal de pesquisa foi atendida satisfatoriamente por meio da proposição, no capítulo 5, de um novo método de classificação de contribuintes PJ calcado nas previsões proporcionadas pelos MLGH estimados no capítulo 7, estes modelando a probabilidade do contribuinte ser infrator, ou de apresentar indício de infração fiscal, e levando em consideração, de forma sistematizada, a correlação de medidas existente entre empresas de um mesmo setor de atividades econômicas, por meio da abstração dos grupos CNAE-Fiscal como unidades de nível 2 dos MLGH. 2) O procedimento descrito na primeira questão de pesquisa já foi tentado por outros órgãos congêneres com sucesso? A revisão de literatura do capítulo 2 demonstrou que o mencionado procedimento sistematizado não foi objeto de relatos ou estudos científicos de escopo tributário 203 envolvendo a seleção de contribuintes para fiscalização, o que prova o ineditismo desta pesquisa. 3) Como conferir a aludida agilidade à previsão e classificação? Tal agilidade pode ser satisfatoriamente atendida a partir do exposto no item IV da seção anterior. 4) Quais as variáveis individuais das PJ (principalmente dentre seus índices econômico-fiscais) e dos setores econômicos que se sobressaem significativamente no contexto da classificação de contribuintes infratores? Esta questão de pesquisa pode ser respondida pelo exposto nos itens I e II da seção anterior. 5) O método proposto na primeira questão de pesquisa seria vantajoso? 5.1) Qual o desempenho da classificação efetuada frente ao método de seleção por cruzamento de informações utilizado pela SRF? O item III.III da seção anterior mostrou que o novo método de classificação de contribuintes tributários logrou obter um Valor Preditivo Positivo superior, em cerca de 11 pontos percentuais, ao valor para esta mesma medida alcançado pelo atual método de seleção da SRF. 5.2) O custo do desenvolvimento e implantação compensa? O classificador é menos oneroso, em termos de sua utilização, do que o processo atual de seleção esquematizado pela Figura 1, representando economia de recursos públicos. Primeiramente, porque não requisita um volumoso processamento e armazenamento de informações internas e externas sensíveis (sigilosas) para o estabelecimento de uma programação de ações fiscais, mas tão-somente, no nível 1 (contribuintes), das informações obrigatoriamente prestadas anualmente pelos próprios sujeitos passivos em suas declarações regularmente estabelecidas, haja vista a observância às diretrizes de modelagem que nortearam a especificação dos MLGH responsáveis pela classificação, como foi mencionado no item IV da seção anterior. Além disso, considerando-se o caso específico da SRF, o método proposto prescinde de mão de obra ou recursos financeiros adicionais aos já 204 despendidos e, pelo contrário, sua adoção reduz em muito os recursos tecnológicos e humanos hoje terceirizados pelo órgão. 8.3 Contribuições alcançadas Ao longo do trabalho importantes contribuições foram alcançadas: I) Em termos científicos envolvendo a formulação e condução de processos de seleção de contribuintes para fins de fiscalização, pela primeira vez foi considerada e quantificada de forma sistematizada a correlação de medidas existente entre contribuintes pertencentes a um mesmo setor de atividades econômicas, assim como foi explicada, também de maneira inédita, parte da variabilidade (entre setores econômicos) aferida diretamente a partir dessa sistematização. Esse processo se deu por meio da abstração dos grupos CNAE-Fiscal como unidades de nível 2 em uma modelagem linear generalizada hierárquica. II) Por essência, a utilização do método de classificação proposto é independente de dados individuais de contribuintes prestados por fontes externas de informação e de serviços terceirizados ou estranhos à SRF ou, em termos gerais, às agências tributárias. Portanto, consubstancia-se em método de classificação mais ágil e menos oneroso, pendente apenas de iniciativa interna ao próprio órgão tributário, o que privilegia ainda sua autonomia. III) O processo mencionado no primeiro item permitiu lançar luz, de forma inédita, sobre aspectos econômico-setoriais que influenciam ou explicam o comportamento tributário infrator dos contribuintes pessoas jurídicas. IV) Houve agregação de conhecimento à pesquisa tributária, haja vista a elucidação dos índices econômico-fiscais individuais de contribuintes, em um universo de 33 disponíveis para o trabalho, significativamente importantes no contexto das infrações fiscais. V) Adicionalmente, foi reunida e sistematizada vasta literatura a respeito da evasão e infração tributárias e também sobre os métodos estatísticos intensivamente utilizados nesta pesquisa (Modelos Lineares Generalizados, Modelos Lineares Hierárquicos e Modelos Lineares Generalizados Hierárquicos). 205 8.4 Limitações e oportunidades para estudos futuros Quanto aos possíveis desdobramentos da realização desta pesquisa, um prosseguimento natural, uma vez que, em virtude da base de dados disponível, não foram exploradas todas as possibilidades em relação às informações prestadas anualmente pelos contribuintes à SRF, é a pesquisa de informações adicionais provenientes das DIPJ e também de novos aspectos setoriais a serem testados em termos da capacidade de explicação da variabilidade das respostas esperadas consideradas na pesquisa. Nesse sentido de exploração de novas possibilidades, podem ainda ser incorporados nos modelos características regionais brasileiras e também aspectos históricos ou temporais de contribuintes. Além disso, o método de classificação proposto e aplicado nesta pesquisa se delimita aos contribuintes PJ que apuraram o Lucro Real. Pode ser compensador para as agências tributárias a especificação de processos similares isolados, ou de forma conjunta, abrangendo as PJ que apurem o Lucro Presumido ou sejam optantes do sistema SIMPLES. Outro aspecto importante é que como os resultados obtidos delimitam-se ao cometimento da infração à legislação tributária considerada em termos genéricos, reputando-se tal aspecto como devido aos dados de trabalho, é de interesse o prosseguimento do estudo das infrações, mas considerando-as discriminadamente por tributo, v.g., infração à legislação da CSLL, à legislação do PIS/PASEP etc. Pode, ainda, ser proveitosa em termos interpretativos e quantitativos a complementação do ciclo de classificação e seleção de contribuintes para fiscalização por meio da estimação do modelo responsável pela previsão do crédito tributário lançado em Reais, como foi destacado na Figura 5. Finalmente, um aspecto recomendável à SRF seria dimensionar, extrair e fiscalizar uma amostra aleatória de contribuintes relacionada aos dados informados nos exercícios 2004 ou 2005, de forma a que o classificador seja reespecificado para dados os mais recentes possíveis, e, para tanto, a expectativa é de que esta pesquisa sirva plenamente como referência de sistematização aplicável. 206 REFERÊNCIAS ACQUAVIVA, M. C. Dicionário Jurídico Brasileiro Acquaviva. São Paulo: Editora Jurídica Brasileira, 1998. ADAMS, C. For Good and Evil: The Impact of Taxes on the course of civilization. New York: Madison Books,1993. AFSHARTOUS, D.; LEEUW, J. de. Prediction in MUltilevel Models. Journal of Educational and Behavioral Statistics, 2003. No Prelo. AGRESTI, A. Categorical Data Analysis. New Jersey: John Wiley & Sons, 2002. ALI, M. M.; CECIL, H. W.; KNOBLETT, J. A. The Effects of Tax Rates and Enforcement Policies on Taxpayer Compliance: A Study of Self-Employed Taxpayers. Atlantic Economic Journal, v. 29, n. 2, p. 186-202, jun. 2001. ALM, J. A Perspective on the Experimental Analysis of Taxpayer Reporting. The Accounting Review, v. 66, n. 3, p. 577-593, Jul. 1991. ALM, J.; BAHL, R.; MURRAY, M. N. Audit selection and income tax underreporting in the tax compliance game. Journal of Development Economics, North-Holland, n. 42, p. 1-33, 1993. ALM, J.; JACKSON, B. R.; MCKEE, M. Estimating the Determinants of Taxpayer Compliance with Experimental Data. National Tax Journal, v. 45, n. 1, p. 107-114, Mar. 1992. ALM, J.; MCKEE, M. Tax Compliance as a coordination game. Journal of Economic Behavior & Organization, 2003. No Prelo. ANDRADE, D. F.; HELMS, R. W. Maximum likelihood estimates in the multivariate normal with patterned mean and covariance via the EM algorithm. Communications in Statistics, Series A - Theory and Methods, v. 13, n. 18, p. 2239-2251, 1984. ANDREONI, J. IRS as loan shark: Tax compliance with borrowing constraints. Journal of Public Economics, North-Holland, v. 49, p. 35-46, 1992. ANDREONI, S. Modelos de Efeitos Aleatórios para Análise de Dados Longitudinais Não Balanceados em Relação ao Tempo. 1989. Dissertação (Mestrado em Estatística) - Instituto de Matemática e Estatística, USP, São Paulo. ARANHA, F. Dois Modelos Espacializados do Potencial Financeiro para Produtos de Supermercados em Municípios do Estado de São Paulo. 2000. Doutorado (Doutorado em Administração) - Pós-Graduação da Escola de Administração de Empresas da FGV, São Paulo. ARINO, M. A.; FRENSES, P. H. Forecasting the Levels of Vector Autoregressive Log-Transformed Time Series. International Journal of Forecasting, n. 16, p. 111116, 2000. 207 ASSOCIAÇÃO BRASILEIRA DE ENGENHARIA DE PRODUÇÃO (ABEPRO). Saiba mais sobre a Engenharia de Produção. Disponível em <http://www.abepro.org.br/saiba_mais_1.htm>. Acesso em: 18 de mar. 2004. BAJPAI, A.C.; MUSTOE, L.R.; WALKER, D. Matemática Avançada para Engenharia. São Paulo: Hemus, 1980. BARBETTA, P. A. Estatística Aplicada às Ciências Sociais. 4. ed., Florianópolis: Editora da UFSC, 2001. BARRETO, A. S. Viability policies of the Electronic Government: Brazil facing the international context. In: 3rd IFIP Conference I3E, Workshop Technological Solutions on E-Government: Digital Divide, Security, Crime Detection and Sovereignty, 2003, Guarujá. Electronic Proceedings (ISBN 85 - 89587 - 09 - 6). BARROS, A. J. D. Modelos multinível: primeiros passos. Departamento de Medicina Social, Faculdade de Medicina, Universidade Federal de Pelotas, versão 2.0, janeiro, 2001. BECK, P. J.; DAVIS, S. J.; JUNG, W. Experimental Evidence on Taxpayer Reporting Under Uncertainty. The Accounting Review, v. 66, n. 3, p. 535-558, Jul. 1991. BECK, P. J.; JUNG, W. Taxpayer Compliance Under Uncertainty. Journal of Accounting and Public Policy. v. 8, n. 1, p. 1-27, 1989. BECK, P. J.; JUNG, W. Taxpayers' Reporting Decisions and Auditing Under Information Asymmetry, The Accounting Review, v. 64, n. 3, p. 468-487, Jul. 1989. BERRY, M. J.; LINOFF, G. Data Mining Techniques For Marketing, Sales and Customer Support. New Jersey: John Wiley & Sons, 1997. BRESLOW, N. Whiter PQL? UW Biostatistics Working Paper Series. Paper 192, 2003. BRYK, A. S.; RAUDENBUSH, S. W. Hierarchical Linear Models: Applications and Data Analysis Methods. Sage Publications, 1992. CHARNET, R.; FREIRE, C. A. de L.; CHARNET, E. M. R.; BONVINO, H. Análise de Modelos de Regressão Linear com Aplicações. Editora da Unicamp, 1999. CHEN, A.; DARST, P. W. Individual and Situational Interest: The Role of Gender and Skill. Contemporary Educational Psychology, v. 27, p. 250–269, 2002. CHUNG, J.; TRIVEDI, V. U. The Effect of Friendly Persuasion and Gender on Tax Compliance Behavior. Journal of Business Ethics, v. 47, p. 133-145, 2003. COCHRAN, W. G. Sampling Techniques. 3rd ed. New York: John Wiley & Sons, 1977. COLLINS, J. H.; PLUMLEE, R. D. The Taxpayers' Labor and Reporting Decision: The Effect of Audit Schemes. The Accounting Review, v. 66, n. 3, p. 559-575, Jul. 1991. 208 CORVALÃO, E. D. Previsão da Arrecadação do Imposto sobre Circulação de Mercadorias e Serviços em Santa Catarina: Aplicação da Abordagem Geral para Específico em Modelos Dinâmicos. 2002. Dissertação (Mestrado em Engenharia de Produção) - Programa de Pós-Graduação em Engenharia de Produção, UFSC, Florianópolis. COWELL, F. A. Tax evasion and inequity. Journal of Economic Psychology. North-Holland, v. 13, p. 521-543, 1992. DAVIDSON, R.; MACKINNON, J. G. Estimation and Inference in Econometrics. Oxford University Press, 1993. DAVIS, J. S.; HECHT, G.; PERKINS, J. D. Social Behaviors, Enforcement, and Tax Compliance Dynamics. The Accounting Review, v. 78, n. 1, p. 39-69, Jan. 2003. DEMPSTER, A.P.; LAIRD, N.M.; RUBIN, D.B. Maximum Likelihood from incomplete data via the EM algorithm. Journal of the Royal Statistical Society, Series B, v. 39, p. 1-38, 1977. DEMPSTER, A.P.; RUBIN, D. B; TSUTAKAWA, R. K. Estimation in Covariance Components Models. Journal of the American Statistical Association, v. 76, n. 374, p. 341-353, Theory and Methods Section, June 1981. DINIZ, M. H. Dicionário Jurídico. São Paulo: Saraiva, 1998. DOBSON, A. J. An Introduction to Generalized Linear Models. 2d ed. Chapman & Hall/CRC, 2002. DUTTA, P. K. Strategies and Games: theory and practice. Cambridge: MIT Press, 2001. EDWARDS, J. R. A History of Financial Accounting. London, New York: Routledge, 1989. ENGEL, E.; GALETOVIC, A.; RADDATZ, C. Estimación de la Evasión del IVA Mediante el Método de Punto Fijo. 1998, 40p. Trabalho não publicado. Disponível em <http://www.sii.cl/aprenda_sobre_impuestos/estudios/tributarios2.htm>. Acesso em: 15 set. 2003. ERARD, B. Self-selection with measurement errors a microeconometric analysis of the decision to seek tax assistance and its implications for tax compliance. Journal of Econometrics, v. 81, p. 319-356, 1997. _____. Taxation with representation: An analysis of the role of tax practitioners in tax compliance. Journal of Public Economics, North-Holland, v. 52, p. 163-197, 1993. ERARD, B.; FEINSTEIN, J. S. Honesty and evasion in the tax compliance game. The Rand Journal of Economics, v. 25, n. 1, p. 1-19, Spring 1994. FEINSTEIN, J. S. An Econometric Analysis of Tax Evasion and Its Detection. The Rand Journal of Economics, v. 22, n. 1, p. 14-35, Spring 1991. 209 FERRÃO, M. E.; ANDRADE, A. C. O sistema nacional de avaliação da educação básica e a modelagem dos dados. Coleção Estudos da Cidade, Prefeitura da Cidade do Rio de Janeiro, Rio Estudos, Rio de Janeiro, n. 48, março 2002. FERRÃO, M. E.; BELTRÃO, K. I.; SANTOS, D. P. O impacto da política de nãorepetência na proficiência de alunos da quarta série: um estudo sobre o Sudeste Brasileiro. Escola Nacional de Ciências Estatísticas, Rio de Janeiro, 2002. FERRÃO, M. E.; LEITE, I. C.; BELTRÃO, K. I. Introdução à modelagen multinível em Avaliação Educacional. Ministério do Planejamento, Orçamento e Gestão, Instituto Brasileiro de Geografia e Estatística - IBGE, Escola Nacional de Ciências Estatísticas - ENCE, Rio de Janeiro, 2001. FONSECA, F. C. E. Medidas Repetidas Categorizadas Incompletas: uma Aplicação à Confiabilidade de Cultivares. 1999 Tese (Doutorado em Agronomia) Escola Superior de Agricultura "Luiz de Queiroz", USP, Piracicaba. FOREST, A.; SHEFFRIN, S. M. Complexity and Compliance: An Empirical Investigation. National Tax Journal, v. 55, n. 2, p. 75-88, Mar. 2002. FUNCEX. Boletim Setorial Funcex, Ano VI, n. 3, jul./ago./set. 2002. Disponível em: <http://www.funcex.com.br>. Acesso em: 5 de mai. 2005. FURTADO, J. M. Dicionário de Assuntos Fiscais Tributários. Rio de Janeiro: Lia Editora SA, 1969. GOLDSTEIN, H. Multilevel Statistical Models. 3rd ed. London: Arnold, 2003. GRANDES impérios e civilizações: a história visual do mundo. Produção de edições delPrado, v. 5, 1994. 1 Videocassete (35 min.): Ntsc, son., color. Com narrativa. Didático. Port. HAN, J.; KAMBER, M. Data Mining: Concepts and Techniques. San Franciso: Morgan Kaufmann, 2001. HEYDE, C. C. Quasi-Likelihood And Its Application: A General Approach to Optimal Parameter Estimation. New York: Springer-Verlag, 1997. HLM 5 for Windows, version 5: Scientific Software International, 2000, 1 CD-ROM. HOFFMANN, D. A.; GAVIN, M. B. Centering Decisions in Hierarchical Linear Models: Implications for Research in Organizations. Journal of Management, v. 24, n. 5, p. 623-641, 1998. HOROWITZ, I.; HOROWITZ, A. R. Tax Audit Uncertainty and Work-versus-Leisure Decision. Public Finance Review, v. 28, n. 6, p. 491-510, nov. 1999. IBGE. Indicadores IBGE - Produto Interno Bruto - 4º Trimeste de 1998. Disponível em: <http://www.ibge.gov.br/home/estatistica/indicadores/pib/defaultcnt.shtm>. Acesso em: 12 dez. 2004. 210 IBGE. Indicadores IBGE - Produto Interno Bruto - 4º Trimeste de 1999. Disponível em: <http://www.ibge.gov.br/home/estatistica/indicadores/pib/defaultcnt.shtm>. Acesso em: 12 dez. 2004. INTERNAL REVENUE SERVICE (IRS). Instructions for Tax Forms. Disponível em: <http://www.irs.gov/instructions/index.html. Acesso em: 25 de mai. 2004. IUDÍCIBUS, Sérgio de. Análise de Balanços. 51. ed. São Paulo: Atlas, 1991. IUDÍCIBUS, S.; MARTINS, E.; GELBCKE, R. Manual de Contabilidade das Sociedades por Ações. 4. ed. São Paulo: Atlas, 1995. JOULFAIN, D.; HIDER, M. Differential Taxation and Tax Evasion by Small Business. National Tax Journal, v. 51, n. 4, p. 675-687, Dec. 1998. JOVER, D. H.; AYALA, B. A. A. SELECCIÓN DE CONTRIBUYENTES A FISCALIZAR, A PARTIR DE LA IMPLEMENTACIÓN DE UN SISTEMA INFORMATIZADO DISEÑADO AL EFECTO Y UNA PROPUESTA GENERAL DE PROCEDIMIENTO. - CASO CUBANO. Segundo Premio XV Concurso de Monografías CIAT/AEAT/IEF, 2001. KLOSGEN, W.; ZYTKOW, J. M. Handbook of Data Mining and Knowledge Discovery, Oxford University Press, 2002. LINDLEY, D. V.; SMITH, A. F. M. Bayes Estimates for the Linear Model. Journal of the Royal Statistical Society, Series B, n. 34, p. 1-41, 1972. LINSTER, B. G. Income tax compliance and evasion: a graphical approach. Southern Economic Journal, v. 63, n. 3, p. 788-796, Jan. 1997. MACHO-STADLER, I.; PÉREZ-CASTRILLO, J. D. Auditing with Signals. Economica, v. 69, p. 1-20, Fev. 2002. MADDALA, G. S. Econometrics. New York: McGraw-Hill, 1977. MEYER, P. L. Probabilidade Aplicações à Estatística. Rio de Janeiro: Livros Técnicos e Científicos Editora S.A., 1975. MILLS, L. F. Corporate Tax Compliance and Financial Reporting. National Tax Journal, v. 49, n. 3, p. 421-435, Sep. 1996. MONTGOMERY, D. C. Design and Analysis of Experiments. 4th ed. John Wiley & Sons, 1997. MOST, K. S. Accounting Theory. 2d ed. Columbus, Ohio: Grid Publishing Inc,1982. MURRAY, M. N. Sales Tax Compliance and Audit Selection. National Tax Journal, v. 48, n. 4, p. 515-530, Dec. 1995. NATIS, L. Modelos Lineares Hierárquicos. Estudos em avaliação educacional, Fundação Carlos Chagas, n. 23, jan/jun 2001. 211 _____. Modelos Lineares Hierárquicos. 2000. Dissertação (Mestrado em Estatística) - Instituto de Matemática e Estatística, USP, São Paulo. NETER, J.; WASSERMAN, W. Applied Linear Statistical Models. New York: John Wiley & Sons, 1974. NETER, J.; KUTNER, M. H.; NASHTSHEIM, C. J.; WASSERMAN, W. Applied Linear Regression Models. 3rd ed. Times Mirror Higher Education Group, Inc, 1996. OGLIARI, P. J. Modelos Não Lineares para Dados Longitudinais Provenientes de Experimentos em Blocos Casualizados. 1998 Tese (Doutorado em Agronomia) - Escola Superior de Agricultura "Luiz de Queiroz", USP, Piracicaba. OSBORNE, J. W. Advantages of hierarchical linear modeling. Practical Assessment, Research & Evaluation, v. 7(1), 2000. Disponível em <http://edresearch.org/pare/getvn.asp>. Acesso em: 7 ago. 2003. PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO. Curso de Engenharia de Produção. Disponível em < http://www.pucrio.br/ensinopesq/ccg/eng_producao.html>. Acesso em: 27 de set. 2005. PRESS, S. J. Sample-Audit Tax Assessment for Businesses: What's Fair? Journal of Business & Economic Statistics, v. 13, n. 6, p. 357-359, Jul. 1995. R: a language and environment for statistical computing. R Foundation for Statistical Computing. Disponível em <http://www.R-project.org>. Acesso em Out. 2004. RASMUSEN, E. Games and Information: an introduction to game theory. 2d ed. Cambridge: Blackwell Publishers, 1989. RAUDENBUSH, S. W.; BRYK, A. S. Hierarchical Linear Models: Applications and Data Analysis Methods. 2.ed. Sage Publications, 2002. RAUDENBUSH, S. W.; BRYK, A. S.; CHEONG, Y. F.; CONGDON, R. HLM 5 Hierachical Linear and Nonlinear Modeling. Lincolnwood: 2000. REINGANUM, J. F.; WILDE, L. L. A Note on Enforcement Uncertainty and Taxpayer Compliance. The Quarterly Journal of Economics, v. 103, n. 4, p. 793-798, Nov. 1988. RHOADES, S. C. The Impact of Multiple Component Reporting on Tax Compliance and Audit Strategies. The Accounting Review, v. 74, n. 3, p. 63-85, Jan. 1999. RICKETTS, M. The Economics of Business Enterprise: An Introduction to Economic Organization and the Theory of the Firm. Ashgate: Edward Elgar, 2002. SANSING, R. C. Information Acquisition in a Tax Compliance Game. Accounting Review, v. 74, n. 4, p. 874-884, October 1993. 212 SANTOS, C. A. de S. T.; FERREIRA, D. A.; OLIVEIRA, N. F; DOURADO, M. I. C.; BARRETO, M. L. Modelagem Multinível. Sitientibus, Feira de Santana, n. 22, p. 8998, jan./jun. 2000. SCOTCHMER, S. Audit Classes and Tax Enforcement Policy The American Economic Review, Nashville, v. 77, n. 2, p. 229-234, May 1987. SCOTCHMER, S. Who Profits form Taxpayer Confusion? Economics Letters, North-Holland, v. 29, p. 49-55, 1989. SCOTCHMER, S.; SLEMROD, J. Randomness in Tax Enforcement. Journal of Public Economics, North-Holland, v. 38, p. 17-32, 1989. SEARLE, S. R. Matrix Algebra Useful for Statistics, John Wiley & Sons, 1982. SECRETARIA DE FAZENDA DO RIO GRANDE DO SUL (SEFAZRS). Contribuintes/CNAE-Fiscal. Disponível em <http://www.sefaz.rs.gov.br/SEF_ROOT/SEF-InfoCNAE.htm>. Acesso em: 18 de jun. 2004. SILVA, E. L.; MENEZES, E. M. Metodologia da Pesquisa e Elaboração de Dissertação. 3. ed.Florianópolis: UFSC/PPGEP/LED, 2001. 121 p. Trabalho não publicado. Disponível em: <http://www.ppgep.ufsc.br/>. Acesso em: 12 nov. 2003. STOKER, L.; BOWERS, J. Designing multi-level studies: sampling voters and electoral contexts. 36 p. Trabalho não publicado. Disponível em <http://istsocrates.berkeley.edu/~jbowers/stokerbowersA.pdf>. Acesso em: 28 ago. 2003. TRIVEDI, V. U.; SHEHATA, M.; LYNN, B. Impact of Personal and Situational Factors on Taxpayer Compliance: An Experimental Analysis. Journal of Business Ethics, v. 47, p. 175-197, 2003. UNIVERSIDADE FEDERAL DE MINAS GERAIS. Departamento de Engenharia de Produção. Disponível em <http://www.dep.ufmg.br/graduacao/classica.html>. Acesso em: 27 de set. 2005. VARIAN, H. R. Microeconomia. 4. ed. Rio de Janeiro: Campus, 1994. _____. Microeconomic Analysis, 3rd ed. New York: WW Norton e Company, 1992. VERAMENDI, M. A. M. EL CONTROL INTEGRAL EXTENSIVO E INTENSIVO DEL CUMPLIMIENTO DE LAS OBLIGACIONES TRIBUTARIAS Y LOS LINEAMIENTOS PARA LA SELECCIÓN DE LOS CONTRIBUYENTES EN EL ÁMBITO DE LA FISCALIZACIÓN. - LA EXPERIENCIA DE LA ADMINISTRACIÓN TRIBUTARIA PERUANA. Segundo Premio XV Concurso de Monografías CIAT/AEAT/IEF, 2001. XIAO, J. Determinants of salary growth in Shenzhen, China: an analysis of formal education, on-the-job training, and adult education with a three-level model. Economics of Education Review, n. 21, p. 557-577, 2002. 213 ZHENG, T. Taxpayers' Tax and Financial Reporting Decisions in a Game Theoretical Model. Canadian Journal of Administrative Sciences, v. 19, n. 2, p. 155-172, Jun. 2002. ZORN, C. J. W. GEE Models of Judicial Behavior. Atlanta, 1998. Trabalho não publicado. 214 APÊNDICE A – O trabalho de Feinstein (1991) A primeira parte da modelagem econômica de Feinstein (1991) considera um Y1i como sendo a extensão da omissão de rendimentos na declaração i, sendo obtida a * partir de uma variável latente Y1i medindo a propensão do contribuinte a omitir rendimentos, que sob a formulação tobit é explicitada por: Y1*i = X 1i β 1 + ε 1i (A.1) ⎧Y1*i , se LY1*i > 0 Y1i = ⎨ * ⎩ 0, se LY1i ≤ 0 (A.2) e Onde X 1i : característica que afeta o cumprimento tributário, β1 : parâmetro a ser estimado, suposições do modelo: ε 1i ~ N (0 ,σ 1 ) e independentes. 2 A censura de Y1i ao nível zero se deve à possível presença de declarações que, na verdade, superestimam seus resultados tributáveis, informando valores a maior de imposto a pagar, e que, portanto, foram censuradas. Considerando-se a suposição adotada para os termos de erro, tem-se que a probabilidade de "não evasão" e de "evasão" em algum montante y são dadas, respectivamente, por: ⎛X β ⎞ Prob(não _ evasão) = 1 − Φ⎜⎜ 1i 1 ⎟⎟ ⎝ σ1 ⎠ Prob(alguma _ evasão) = 1 ⎛ y − X 1i β 1 ⎞ ⎟⎟ φ⎜ σ 1 ⎜⎝ σ 1 ⎠ (A.3) (A.4) Sendo Φ (⋅) a função densidade de probabilidade Normal acumulada e φ (⋅) a função de densidade Normal de probabilidade, ambas padronizadas. O segundo modelo proposto considera uma resposta Y2 i como sendo a extensão da detecção da omissão de rendimentos na declaração i, condicional a Y1i > 0. Similarmente, por tobit, formula-se: 215 Y2*i = X 2i β 2 + ε 2i (A.5) ⎧ 1, seLY2*i ≥ 1 ⎪ Y2 i = ⎨ 0, seLY2*i ≤ 0 ⎪Y * , seL0 < Y * < 1 2i ⎩ 2i (A.6) e Onde X 2i : característica que afeta o cumprimento tributário, β 2 : parâmetro a ser estimado, suposições do modelo: ε 2i ~ N (0,σ 12 ) e independentes. Modeladas a evasão e a detecção, o ponto chave agora é a dedução da função de verossimilhança a ser maximizada para obtenção de estimativas Primeiramente, deve-se ter em mente que ε 1i e ε 2i distribuem-se normalmente e independentemente. Relacionem-se, então, as probabilidades de ocorrência das categorias de detecção: a) Detecção Completa: ⎛ X β −1⎞ ⎟⎟ Prob(ε 2i ≥ 1 − X 2i β 2 ) = Φ⎜⎜ 2i 2 σ ⎝ ⎠ 2 (A.7) b) Não Detecção: ⎛X β ⎞ Prob(ε 2i ≤ − X 2i β 2 ) = 1 − Φ⎜⎜ 2i 2 ⎟⎟ ⎝ σ2 ⎠ (A.8) c) Detecção da Porção s, 0 < s < 1: Prob(ε 2i = s − X 2i β 2 ) = ⎛ s − X 2i β 2 ⎞ ⎜ ⎟⎟ ⋅ φ σ 2 ⎜⎝ σ 2 ⎠ 1 (A.9) Supondo que exista um conjunto A de declarações com omissão detectada e um _ conjunto complementar A de declarações sem omissão detectada, para que a probabilidade de ocorrência de um determinado i possa ser deduzida é preciso que sejam combinados os modelos em (A.1) e (A.2) com (A.5) e (A.6) e, além disso, que 216 seja claramente identificada a ocorrência de uma dessas duas possibilidades em _ relação à declaração. Nesse sentido, se um contribuinte i pertence ao conjunto A , ele não omitiu rendimentos, ou então omitiu, mas a omissão não foi detectada. Assim, a probabilidade associada ao evento i em particular é dada por: − L(i ∈ A) = Prob(não _ omissão) + Prob(omissão) ⋅ Prob(não _ detecção) (A.10) e − ⎛X β ⎞ L(i ∈ A) = 1 − Φ⎜⎜ 1i 1 ⎟⎟ + ⎝ σ1 ⎠ ∞ ⎛ X β ⎞⎤ 1 ⎛ y − X 1i β1 ⎞ ⎡ ⎟⎟ ⎢1 − Φ⎜⎜ 2i 2 ⎟⎟⎥ dy φ ⎜⎜ σ1 ⎝ σ1 ⎝ σ 2 ⎠⎦ ⎠⎣ 0 (A.11) ∫ Uma função de probabilidade de ocorrência similar também pode ser estendida para o caso em que i ∈ A . L(i ∈ A) = ⎛ Y − X 1i β 1 ⎞ ⎛ X 2i β 2 − 1 ⎞ ⎟⎟ ⋅ Φ⎜⎜ ⎟⎟ + − φ ⎜⎜ i σ σ σ1 ⎝ ⎠ ⎝ ⎠ 1 2 1 ∞ 1 ⎛ y − X 1i β 1 ⎞ 1 ⎛ Yi / y − X 2i β 2 ⎞ ⎟⎟ φ ⎜⎜ ⎟⎟dy φ ⎜⎜ σ σ σ σ ⎠ 2 ⎝ ⎠ 1 ⎝ 1 2 Yi ∫ (A.12) Em (A.12) Yi é o montante da evasão detectada, e a integral representa a chance de ocorrer uma evasão y com a fração ( Yi / y ) sendo detectada pela agência, o que implica que o valor detectado nessa integral se mantém equivalente ao valor observado y (Yi / y ) = Yi . Com base nas equações (A.11) e (A.12), uma função de log-verossimilhança total da amostra para o modelo tobit proposto é dada pelo somatório em i das probabilidades obtidas para os contribuintes pertencentes aos _ conjuntos A e A, e pode ser maximizada, iterativamente, em função de β1 , β 2 ,σ 1 ,σ 2 , conforme segue: 217 L= ⎡ _ i∈A ∑ i∈A ⎛ X 1i β 1 ⎞ ⎛ X 2i β 2 ⎞⎤ ⎟⎥ + ⎟Φ ⎜ σ 1 ⎟⎠ ⎜⎝ σ 2 ⎟⎠⎦ ∑ log ⎢⎣1 − Φ⎜⎜⎝ ⎡ 1 ⎛ Yi − X 1i β 1 ⎞ ⎛ X 2i β 2 − 1 ⎞ ⎟⎟ + ⎟⎟Φ⎜⎜ ⎢ φ ⎜⎜ σ σ σ ⎠ ⎝ ⎠ ⎝ 1 1 2 ⎢ log ⎢ ∞ ⎢ 1 φ ⎛⎜ y − X 1i β 1 ⎞⎟ 1 φ ⎛⎜ Yi / y − X 2i β 2 ⎟σ ⎜ ⎢ σ 1 ⎜⎝ σ1 σ2 ⎠ 2 ⎝ ⎣Yi ∫ ⎤ ⎥ ⎥ ⎥ ⎞ ⎥ ⎟⎟dy ⎠ ⎥⎦ (A.13) Na parte de aplicação dos modelos, os dados utilizados são do TCMP do IRS (pessoas físicas), referentes aos anos de 1982 e 1985. Esses dados envolvem uma amostra representativa dos dados das declarações de rendimentos de contribuintes pessoas físicas dos EUA e o resultado de suas fiscalizações por parte dos auditores do IRS. Com base nesses dados, as estimativas de máxima verossimilhança obtidas seguem na Tabela 22: Tabela 22: Estimativas para modelo tobit de Feinstein (1991) (continua) Variável Resposta: Valor Líquido do Rendimento Tributável Omitido Variáveis Independentes Coeficientes (Erro Padrão) Modelo 1982 Modelo 1985 Modelo Conjunto Constante -6.175 (151) -16.160 (161) -0,106 (160) AGI 6717* (342) 4.957* (659) 0,173 (382) AGI2 -277* (83,1) -206,5* (94,4) 0,181(170) AGINEG 9669* (464) 28.010* (2.136) 11620* (3.774) MTAX 12.550* (245) 25.550* (618) -4872* (413) SCEDC 4.400* (318) 7.554* (836) 4.408* (500) FARM 3.247* (428) 7.243* (1.985) 3.094* (877) RETIRED -886,3* (315) 488,4 (508) -3.219* (279) IDM -4.076 (2.992) -655 (4.238) 3.596 (3.758) IDH 312,9(1.233) -8.997* (1.851) -4.715* (925) CAPGAINS -0,00364 (0,0193) 0,0579* (204) 0,0831* (114) MARRIAGE 419,3* (210) 3.360* (240) 2,63 (237) 0,371 (0,0170) 0,281 (0,00557) 0,276 (0,0061) Equação Omissão Equação Detecção Intercepto 218 Tabela 22: Estimativas para modelo tobit de Feinstein (1991) (continuação) Variável Resposta: Valor Líquido do Rendimento Tributável Omitido Variáveis Independentes Coeficientes (Erro Padrão) Modelo 1982 Modelo 1985 Modelo Conjunto GS GRADE -0,151* (0,0185) 0,134* (0,0171) -0,0366* (0,00872) NUMFORMS 0,153* (0,0139) 0,0840* (0,00986) 0,199* (0,00905) log-Likelihood -3.364 -5.598 -9.677 *Significância ao nível de 5% Fonte: Adaptado de Feinstein (1991). Onde AGI: rendimento bruto ajustado pelo IRS, AGINEG: variável dummy indicando se o AGI resultou negativo na declaração, MTAX: taxa marginal de tributação em vigor para o contribuinte, MARRIAGE: variável dummy indicando se o contribuinte é casado, RETIRED: variável dummy indicando se o contribuinte requereu a isenção para rendimentos auferidos pelos maiores de 65 anos, SCEDC: variável dummy indicando se o formulário C foi utilizado, FARM: variável dummy indicando se o formulário F foi utilizado, IDM: variável dummy indicando se o contribuinte exerce ocupação principal de médico ou veterinário, IDH: variável dummy indicando se o contribuinte exerce as ocupações A1, D, G ou H, conforme especificado pelo IRS, CAPGAINS: valor em dólares dos ganhos de capital declarados, NUMFORMS: número de formulários preenchidos na declaração, GSGRADE: variável dummy indicando se o grau de proficiência do auditor-fiscal responsável pelo caso é superior a 11, log-Likelihood: log-Verossimilhança maximizada. Sinteticamente, os principais resultados e conclusões obtidos em relação ao processo que modela a omissão apontam para os seguintes fatos: quanto maior o rendimento do contribuinte, maior a evasão; o coeficiente para a taxa marginal de tributação é elevado e estatisticamente significativo em todos os modelos, sendo positivo para os anos de 1982 e 1985 isoladamente e negativo para esses anos em conjunto; os contribuintes casados são mais propensos à evasão; e os contribuintes 219 que preenchem os formulários C e F são significativamente mais infratores, talvez por perceberem mais oportunidades para omitir rendimentos. Além disso, o autor alega que os resultados tomados isoladamente para 1982 e 1985 são consistentes entre si. Já as conclusões em relação ao processo de detecção para 1982 e 1985 indicam que houve uma melhora na qualificação de mão de obra no IRS, já que pelos sinais dos coeficientes, viu-se que os servidores mais experientes não favoreciam uma maior detecção em 1982, resultado que se inverteu para 1985. Outro resultado surpreendente é que, ao contrário do senso comum, as revisões mais intrincadas envolvendo os formulários mais complexos favorecem uma maior detecção da infração praticada. 220 APÊNDICE B – O trabalho de Murray (1995) Murray (1995) considera que a abordagem teórica do agente-principal (ver seção 2.3) pode ser trasladada diretamente para o caso dos impostos sobre as vendas das empresas industriais dos EUA. Estas devem decidir quanto de suas vendas reportar à agência, e esta, ao receber a declaração, deve decidir sobre os valores informados e submetê-los ou não a uma auditoria, que, em ocorrendo e sendo apurados valores não declarados, implica cobrança do imposto sobre as vendas faltantes e mais as penalidades cabíveis. O modelo proposto pelo autor fundamenta-se em duas equações de comportamento, uma para a empresa e outra para a agência tributária. Para a empresa seu rendimento líquido, caso não seja fiscalizada é denotado por: π N = (1 + t ) R + tR (1 − B )(V − 1) − C (B.1) Onde t: taxa de tributação ad valorem, R: rendimento líquido do imposto, B: parcela do imposto não declarada, V: Taxa de compensação do vendedor sobre os impostos recolhidos à agência, C: Custo total de comercialização. Caso o contribuinte seja fiscalizado, seu rendimento passa a ser: π C = π N − (1 + f ) BRt (B.2) Onde t: taxa de tributação ad valorem, R: rendimento líquido do imposto, B: parcela do imposto não declarada, f: penalidade mais juros incidentes sobre o imposto não declarado. O contribuinte, neutro ao risco, deve então maximizar o valor esperado de sua função de utilidade14 a seguir, com base nos seus já definidos rendimentos: MaxE[U (π )] = (1 − Γ )U N (π N ) + ΓU C (π C ) 14 (B.3) A função de utilidade atribui um número a cada cesta de consumo possível ao consumidor e às cestas preferidas são atribuídos números maiores do que às menos preferidas, detalhes em Varian (1994, p.59). 221 Onde Γ : probabilidade de ser auditado, U N (π N ) : Função de utilidade caso não fiscalizado, U C (π C ) : Função de utilidade caso fiscalizado. O nível ótimo de rendimento não reportado é dado pela condição de primeira ordem seguinte: U 'N (.) ⎡ Γ ⎤ ⎡⎛ 1 + f ⎞ ⎤ ⋅ ⎜ = ⎟ −1 U C' (.) ⎢⎣1 − Γ ⎥⎦ ⎢⎣⎝ 1 − V ⎠ ⎥⎦ (B.4) O autor propõe que, empiricamente, essa condição seja dada pela equação: E* = Zθ + ε (B.5) Onde E * : variável latente indicando o nível ótimo de rendimento não declarado, Z : vetor de características do contribuinte, θ : vetor de coeficientes, ε : vetor de termos de erro aleatório normalmente distribuídos. Nesse caso, os fatores determinantes de valores declarados a menor são f, t, V e Γ. Já a função de potencialidade de auditoria de um contribuinte por parte do órgão tributário é dada por: A* = Xλ + YΣ + µ (B.6) Onde A * : variável latente indicando produtividade potencial ótima de auditoria, X : vetor de características da empresa, λ : pesos decisórios, Y : recursos disponíveis para auditorias, Σ : coeficientes associados aos recursos, µ : vetor de efeitos aleatórios normalmente distribuídos. A variável latente A* não é diretamente observável, mas por outro lado, podem ser observados os casos em que ela é maior do que zero e que houve efetivamente 222 a auditoria. Isso permite a especificação de duas variáveis indicadoras de trabalho, I A e I E: ⎧ 1,LL seL A* > 0 IA = ⎨ ⎩0,casoLcontrário e ⎧1, seL E* > 0 , A* > 0 IE = ⎨ ⎩ 0 ,casoLcontrário Com elas, a probabilidade de ser fiscalizado e a propensão à omissão de rendimentos podem ser estimadas, pois o nível de rendimentos não declarados pode ser calculado, condicional a uma auditoria e a uma omissão, IA = 1 e IE = 1, por: E = ZΛ + ω (B.7) Onde E : nível rendimentos não declarado, Z : vetor de características do contribuinte, Λ : vetor de coeficientes, ω : vetor de termos de erro aleatório normalmente distribuídos. Os modelos em (B.5), (B.6) e (B.7) constituem-se no fundamento teórico da análise empírica conduzida pelo autor, que teve por base os dados do Departamento de Receitas do Estado do Tennessee. O autor selecionou apenas as empresas que correspondiam ao setor de industrial, abrangendo 2.178 empresas no total, sendo que, dessas, 396 foram selecionadas para fiscalização entre 1986 e 1988. Os dados não compreenderam os critérios que nortearam a seleção desses contribuintes, nem os resultados finais posteriores às auditorias do IRS. Os procedimentos de modelagem envolveram três estágios e foram estimados com base nos dados originais informados pelos contribuintes ao Departamento de Receitas do Tennessee. No primeiro, a variável dependente é binária, indicando se o contribuinte foi fiscalizado ou não, utilizando-se a regressão probit para obtenção de probabilidades de fiscalização como resposta esperada. A tabela 23 relaciona os resultados das 223 estimativas obtidas pelo autor para as 2.178 empresas (fiscalizadas e não fiscalizadas), para dois modelos distintos: Tabela 23: Estimativas primeiro estágio (probit) de Murray(1995) Variável Resposta: Variável binária (fiscalizada/não fiscalizada) Variáveis Independentes Coeficientes (Erro Padrão) Modelo 1 Modelo 2 RSALE -7,3 x 10-7* (2,87) -6,8 x 10-7* (2,68) RSALER 4,3 x 10-7* (2,76) 3,4 x 10-7** (2,13) RUSE 9,8 x 10-6** (1,98) 9,3 x 10-6*** (1,88) RUSER -5,8 x 10-7 (1,37) -5,9 x 10-7 (1,36) REXEM 5,9 x 10-6* (4,00) 6,3 x 10-6* (4,12) REXEMR -2,6 x 10-6* (3,81) -2,7 x 10-6* (3,86) LATE -3,28* (3,02) -3,59* (3,32) AGE 0,014* (3,11) 0,013* (2,85) OUTLETS 0,006 (1,12) 0,001*** (1,75) NSOWN 0,351* (3,07) 1,82* (5,85) CORPDUM 1,84* (8,45) 1,68* (7,95) SIC1 0,300* (2,68) 0,199*** (1,72) SIC2 -0,531* (4,32) -0,497* (4,00) AUDITOR -0,013* (3,29) 0,025* (3,02) AUDITOR*NSOWN CONSTANTE -0,052* (5,29) -2,61* (10,3) -3,71* (10,3) N 2.178 2.178 χ2 794,09 824,44 *significante ao nível de 1% ** significante ao nível de 5% ***significante ao nível de 10% Fonte: Adaptado de Murray (1995) Onde RSALE: Valor declarado da receita bruta de vendas, RSALER: Diferença entre o maior e o menor valor de receita bruta de vendas declarada entre 1986 e 1988, RUSE: Valor declarado da receita de vendas para outros estados, REXEM: Valor declarado da receita de vendas isenta, 224 RUSER: Diferença entre o maior e o menor valor de receita de vendas tributável declarada entre 1986 e 1988, REXEMR: Diferença entre o maior e o menor valor de receita de vendas declarada isenta entre 1986 e 1988, LATE: Indica declaração entregue com atraso, AGE: Idade da empresa em anos, OUTLETS: Indica se a empresa possui filial, NSOWN: Indica se o proprietário da empresa reside em outro estado, CORPDUM: indica se a empresa é uma corporação, SIC1 e SIC2: Variáveis indicadoras para dois tipos de indústrias, AUDITOR: Número de auditores da força de trabalho da região da empresa. Segundo o autor, os resultados do Modelo 1 demonstram que há um claro procedimento sistemático não aleatório por parte do Estado do Tennessee ao selecionar contribuintes do setor industrial para fiscalização. Pela Tabela 23, observa-se que os contribuintes que relatam elevados valores de receitas de vendas brutas enfrentam menores probabilidades de serem fiscalizados, enquanto que os que apresentam variações nessas mesmas receitas ao longo do tempo têm maior probabilidade de serem selecionados. Outros fatores que elevam essa probabilidade são a declaração de altos valores de vendas para outros estados e de altos montantes de vendas isentas, como seria de se esperar. Contudo, uma variação sensível desse último valor ao longo do tempo surpreendentemente diminui a chance de fiscalização. Outro resultado é o de que empresas que declaram rendimentos com atraso possuem menor probabilidade associada de auditoria. Além disso, as empresas mais antigas, as que se constituem como corporação e as que têm proprietários em outros estados têm mais chances de serem fiscalizadas. Já as estimativas para o modelo 2, considerando uma interação entre AUDITOR e NSOWN, indicam que as empresas cujos proprietários moram no Estado são mais selecionadas se houver mais recursos de auditoria, enquanto que as que possuem proprietários em outros estados são menos fiscalizadas com incrementos na força de auditoria estatal. Um modelo probit para o estágio 2, para estimar as probabilidades associadas à presença de omissão de receitas, com base nas 396 empresas fiscalizadas pelo departamento de receitas do Tennessee, sendo que os valores das respostas para os 24 registros em que não houve ajuste dos rendimentos do contribuinte (ajuste 225 zero) foram censurados em zero, produziu estatísticas bem menos significativas do que o anterior, provavelmente por haver apenas 6% de empresas com ajuste zero. Como fatos relevantes, as empresas mais antigas, as que possuem proprietário em outro estado e as que possuem outros pontos de venda em filiais possuem maior probabilidade de omitir rendimentos. Em um terceiro estágio três novos modelos são estimados: um primeiro por MQO com correção de viés de seleção, com base apenas nas 372 empresas fiscalizadas em que houve ajuste dos rendimentos; o segundo, que considera todos os 2.178 componentes da amostra, e é estimado por MQO ignorando a censura da resposta em relação aos casos de ajuste zero; e um terceiro, em que se consideram todos os 396 fiscalizados, e igualmente estimado por MQO ignorando-se a censura da resposta. O objetivo é avaliar os determinantes dos valores de rendimento omitidos. A variável resposta é o valor do ajuste efetuado no rendimento do contribuinte divido por horas de auditoria (VA/HA). Seus resultados são os da Tabela 24: Tabela 24: Estimativas terceiro estágio (MQO) de Murray (1995) (continua) Variável Resposta: Valor do Ajuste/Horas de auditoria Coeficientes (Erro Padrão) Variáveis Independentes Modelo 1 Modelo 2 Modelo 3 TRUSALE 0,005* (24,1) 0,004* (49,20) 0,005* (17,2) RSALER -0,005* (8,71) -0,001* (8,76) -0,005* (5,08) RUSE -0,066 (1,41) -0,017 (1,57) -0,062 (0,785) RUSER 0,019* (3,40) 0,005* (4,84) 0,018* (1,96) REXEM -0,099* (7,73) -0,036* (12,5) -0,098* (4,45) REXEMR 0,057* (5,97) 0,017* (12,9) 0,056* (3,26) LATE 3,2 x 104*** (1,89) 7,90 (0,019) 2,9 x 104 (0,507) AGE -74,3 (1,27) 22,2* (2,72) -73,6(0,737) OUTLETS -92,4 (1,19) -11,8 (1,46) -100,0 (0,768) NSOWN -5,3 x 103** (2,31) -300,8 (1,30) -5,6 x 103 (1,48) CORPDUM -2,0 x 104** (2,10) 255,6 (1,15) -1,7 x 104 (0,608) SIC1 -2,8 x 103*** (1,75) -221,6 (0,930) -2,9 x 103 (0,960) SIC2 7,9 x 103* (2,75) -14,6 (0,078) 6,0 x 103 (1,25) AUDIT 652,6 (0,864) 226 Tabela 24: Estimativas terceiro estágio (MQO) de Murray (1995) (continuação) Variável Resposta: Valor do Ajuste/Horas de auditoria Coeficientes (Erro Padrão) Variáveis Independentes Modelo 1 Modelo 2 Modelo 3 λ1 ^ -1,3 x 104* (2,92) -1,1 x 104** (2,38) -1,2 x 104 (1,53) λ2 ^ 3,6 x 103 (1,09) CONSTANTE 4,2 x 104** (2,50) 62,7 (0,301) 3,9 x 104 (1,08) N 372 2.178 396 R2 0,62 0,54 0,62 *significante ao nível de 1% ** significante ao nível de 5% ***significante ao nível de 10% Fonte: Adaptado de Murray (1995) Onde ^ λ1 : fator de correção do viés de seleção gerado pelo probit univariado da probabilidade de ser auditado com base no estágio 1 (ver nota de rodapé 5 capítulo 2), ^ λ 2 : fator de correção do viés de seleção gerado pelo probit univariado da probabilidade de omitir rendimentos com base no estágio 2 (ver nota de rodapé 5 capítulo 2), AUDIT: probabilidade de ser auditado obtida com base no estágio 1. Pelo modelo 1 da Tabela 24, observa-se que quanto maiores as vendas brutas reais maiores são os níveis de (VA/HA). O mesmo relacionamento é verificado para uma maior variação na receita declarada de vendas para outros Estados e para grande variação na receita de vendas isenta. Por outro lado, tanto a grande variação na receita bruta de vendas quanto na receita de vendas isentas associam-se a um ^ menor (VA/HA). Para o autor, o valor significativo e negativo obtido para λ1 mostra que os fatores não observados associados à seleção (estágio 1) são negativamente correlacionados com fatores não observáveis relacionados ao nível da resposta (VA/HA). Isso sugere existência de fatores não observados influenciando a seleção, e que levam a resultados de auditoria contrários aos desejados pela agência do Tennessee. 227 Para os modelos 2 e 3 da Tabela 24 não houve censura de valores de rendimentos não ajustados como no estágio 2 e de maneira geral suas estimativas são bastante consistentes com os estágios anteriores. Como destaque para o Modelo 2, o autor considera que a estimativa para AUDIT, não significativa, indica que o sistema de seleção empregado pelo Tennessee pouco vinha promovendo o cumprimento tributário no período; e, além disso, que os contribuintes não tinham conhecimento sobre os critérios que norteavam tal sistema, ao menos em relação ao setor industrial considerado no estudo. Já no caso do Modelo 3, destaca-se nele o ^ valor de λ1 , que não é significativo, concluindo-se por não haver relação entre os fatores não observados no estágio 1 e no Modelo 3 do estágio 3. As conclusões finais do autor apontam para a verificação da existência de um ambiente em que a agência tributária do Tennessee realmente utilizava, entre 1986 e 1988, um critério de seleção específico e desconhecido do público em geral para a seleção das empresas que informaram receitas de vendas de bens em suas declarações; e que estas empresas estavam efetivamente se aproveitando das oportunidades abertas pela legislação e pelo ambiente tributário para cometerem infrações. 228 APÊNDICE C – O trabalho de Press (1995) O trabalho de Press (1995) preocupa-se com a minimização do risco envolvido na seleção de contribuintes. Baseia-se em intervalos de confiança estabelecidos a partir de amostras aleatórias da população de transações empresarias praticadas por cada contribuinte. Supondo que exista um A > 0 que indica o valor real de ^ rendimento auferido pelo contribuinte e seja A o valor estimado desse rendimento por parte do órgão tributário. Adota-se uma função de perda linear, conforme a seguir: ^ ^ ⎧⎪ k ( A − A L se L A A ) , > ,LL L( A, A) = ⎨ 1 ^ ⎪⎩k 2 ( A− A),LcasoLcontrário. ^ (C.1) Sendo k1 > 0 e k 2 > 0 . Na primeira faixa da função tem-se uma região de subestimação do rendimento e na segunda uma superestimação do mesmo. A agência deseja selecionar os contribuintes de forma a minimizar a sua perda ou risco decisório esperado, que pode ser explicitado condicionalmente por meio do Teorema de Bayes: λ ^ ∫ ∞ ^ ∫ ^ R( A, A) = k 2 ( A− A) f ( A | Q)dA + k1 ( A − A) f ( A | Q)dA (C.2) λ −∞ ^ Se tem-se Y como estimador da média do valor tributável por transação em uma ^ amostra de n transações, Q = N Y representa então o estimador do total populacional tributável para o contribuinte, e f(A|Q) representa a densidade de probabilidade posterior de A dado Q. A minimização de (C.2) se dá por sua ^ ^ diferenciação em relação a A e igualando-a a zero . Supondo-se F ( A) como a função densidade de probabilidade acumulada referente aos valores da distribuição ^ posterior de (A|Q), o valor de A que soluciona a minimização, de acordo com o autor, é o valor que atende: ^ F ( A) = k1 1 = k1 + k 2 1 + k (C.3) 229 Onde k = k2 . Prosseguindo, supondo-se que E(Q)=A, Var(Q)=s2 e que, para n k1 grandes, se utilize a aproximação à distribuição normal para definir a distribuição de (A|Q), pode-se formalizar uma variável aleatória padronizada X : X = A−Q s (C.4) Se Φ (⋅) representa a função densidade de probabilidade Normal acumulada padronizada, pode-se fazer: ^ ⎛A 1 − Q ⎞⎟ ⎜ F ( A) = = Φ⎜ 1+ k ⎜ s ⎟⎟ ⎠ ⎝ ^ (C.5) Chamando o valor entre os parênteses da função em (C.5) de -z, e devendo-se reconhecê-lo como situado no lado esquerdo da distribuição normal padronizada, ^ pois k > 1, pode-se escrever que A = Q − sz . Portanto, o melhor estimador do resultado tributável, considerando-se a função de risco, é o limite inferior do intervalo de 100 ⋅ {1 − [1/(1 + k )]} % de confiança para A, o real rendimento tributável do contribuinte. Como restaram 100 ⋅ [1/(1 + k )] % de probabilidade de superestimação dos rendimentos do contribuinte, caso a agência acredite que 5% seja uma margem segura para essa possibilidade, o melhor estimador pontual do rendimento tributável torna-se o limite inferior de um intervalo unilateral com 95% de confiança. Isso permite que seja mantida uma sensação de eqüidade para os contribuintes, pois caso seja tomado como estimador pontual o centro de um intervalo de confiança bilateral, existe 50% de chance do rendimento do contribuinte ser superestimado, o que, do ponto de vista do contribuinte, não parece justo. Se, conforme prescrito, considerando-se o limite inferior de um intervalo de confiança unilateral como ponto de corte para a seleção de contribuintes, isso claramente acabará por carrear menos tributos ao órgão fiscalizador do que se considerado o centro de um intervalo bilateral, por que não se utilizar diretamente deste último ponto de corte central? O problema é que foi visto que, aos olhos do contribuinte, isso não parece justo. Assim, a proposta do trabalho para manutenção da sensação de justiça é selecionar contribuintes eqüitativamente utilizando-se o 230 limite inferior. Contudo, de forma a reverter a conseqüente perda de arrecadação, a solução é o estreitamento do intervalo de confiança por meio da elevação do tamanho de amostra, levando-se em consideração, é claro, o custo incorrido por esse incremento amostral. Viu-se que um limite inferior para a credibilidade ^ unicaudal com base em uma distribuição Normal posterior á dada por A = Q − zs , e o erro padrão desse estimador de A é dado por: s N ⎡ N − n⎤ s = 0 1/ 2 ⎢ (n) ⎣ N − 1 ⎥⎦ Utilizando-se 1/ 2 (C.6) desse ferramental, o autor apresenta um exemplo prático considerando-se um N = 36107, s0 = 609 e uma estimativa para Q = US$ 1.640.571,00. Com o cálculo de s por meio de (C.6) e assumindo-se que a agência opta por apenas 5% de chance de superestimação do resultado do contribuinte, ^ pode-se verificar como variam os valores de A = Q − 1,645 ⋅ s em função do tamanho de amostra de transações, conforme a Tabela 25: ^ Tabela 25: relacionamento entre n e A n ^ A (US$) 1000 2000 3000 4000 5000 512.642,2 854.446,1 1.008.182,3 1.101.240,8 1.165.751,1 Fonte: Adaptado de Press (1995). Considerando-se um custo por tamanho de amostra c = 100 ⋅ n e uma taxa de tributação de 33% a ser imposta ao contribuinte, o equilíbrio, de acordo com a Tabela 25, se dá com um n de cerca de 3000 unidades amostrais. Elevar o tamanho de amostra a partir desse equilíbrio só reduzirá a arrecadação da agência tributária. Dessa forma, consegue-se elevar o ponto de corte para a definição do real rendimento do contribuinte, mantendo-se a equidade, e apenas 5% de chance de superestimá-lo. Cabe aqui um comentário final em relação a esse trabalho. Em termos de auditoria tributária aplicada, selecionar um contribuinte e atribuir-lhe um rendimento tributável real estimado com base em um ponto de corte otimizado não necessariamente carreará as receitas assim projetadas aos cofres públicos. Para a efetiva realização desses valores, o auto de infração tem de ser instruído com 231 elementos materiais que suportem a estimativa da agência, a menos que a prerrogativa de utilização dessa estimativa como prova material esteja legalmente disposta. Portanto, esse critério amostral otimizado de auditoria presta-se à fase de seleção de contribuintes, porém para servir de base à previsão dos valores esperados a serem arrecadados é preciso que os primeiros lotes selecionados dessa forma sejam avaliados em termos de resultados pós-auditoria para uma melhor avaliação dos valores de retorno. 232 APÊNDICE D – Estimação de MV por Newton-Raphson e Escores Inicialmente, deve-se reconhecer que próximo a um mínimo ou máximo local os 2 contornos das funções são quase elípticos (no R ). Esse fato concede a oportunidade para a utilização de uma aproximação quadrática da função de verossimilhança que se deseja maximizar, considerando-se o parâmetro θ. O método de Newton Raphson utiliza a série de Taylor, centrada em um ponto a, para aproximar a função de verossimilhança (BAJPAI, MUSTOE, WALKER, 1980), que é dada genericamente por: f (θ ) = ∑ ∞ k =0 f k (a) (θ −a ) k k! (D.1) A expansão dessa série até a 2ª ordem para uma função a uma variável, centrada em θ (1) fornece: f t (θ ) ≅ f (θ (1) ) + (θ − θ (1) ) f x (θ (1) ) + 1 (θ − θ (1) ) 2 f xx (θ (1) ) 2 (D.2) Generalizando essa possibilidade para uma função L( θ ) a p variáveis (parâmetros), obtém-se uma função de aproximação quadrática em torno de θ (1) (DAVIDSON e MACKINNON, 1993): 1 Lt (θ) = L(θ (1) ) + g(θ (1) )T (θ − θ (1) ) + (θ − θ (1) )T H(θ (1) )(θ − θ (1) ) 2 onde L(θ g( θ (1) (1) ) : Valor da função de verossimilhança no ponto θ (1) , ): é o gradiente ou o vetor (p x 1) de escores da função L( θ ), com elementos típicos da forma H( θ (1) (D.3) ∂L(θ) ∂θu , calculado no ponto θ (1) , ): é o Hessiano de L( θ ), uma matriz (p x p) com elementos típicos da forma ∂L2 (θ) ∂θu ∂θ v , calculado no ponto θ (1) , u e v sendo indicadores de linhas e colunas. Derivando (D.3) em relação a θ e igualando-a a zero, e, sabendo-se que H = H', obtém-se um novo valor aproximado para θ , que pode-se chamar de θ (2) : 233 g (θ (1) ) + H (θ (1) )(θ − θ (1) ) = 0 ⇒ − H (θ (1) ) −1 g (θ (1) ) = H (θ (1) ) −1 H (θ (1) )(θ − θ (1) ) ⇒ (D.4) θ (2) = θ (1) − (H (θ (1) ) −1 g (θ (1) ) ⇒ θ (s+1) = θ (s) − H(θ (s) ) −1 g (θ (s) ) sendo s = 1, 2, .... onde s: iterações do processo de maximização. Essa equação permite um esquema de aproximação sucessiva do ponto de máximo. Supondo-se que se esteja no ponto θ (1) procurando o máximo de L(θ) . Para uma função quadrática esse processo encontraria um mínimo θ (2) em um único passo. t Como a função L (θ) é uma aproximação, o esquema é iterativo até que a convergência seja atingida. Quando a diferença entre as aproximações sucessivas θ (s+1) e θ (s) é suficientemente pequena, θ (s+1) é considerado como estimador de MV (DOBSON, 2002). Deve-se acrescentar que esse processo fornecerá um mínimo global no caso da função Lt (θ) ser estritamente convexa (DAVIDSON e MACKINNON, 1993). A diferença do método dos Escores em relação ao processo descrito reside no fato de que ele trabalha com o valor esperado da matriz do Hessiano H( θ ), e não com seus valores observados, constituindo a matriz de informação de Fischer: K (θ) = E[H (θ)] (D.5) Que também pode ser entendida como uma matriz de variância/covariância dos escores ∂L(θ) ∂θu . Em geral, no caso de observações não correlacionadas e normalmente distribuídas, as derivadas segundas cruzadas em K (θ) = E[H (θ)] convergem a zero, facilitando os cálculos (DOBSON, 2002). O processo de maximização pelo método dos Escores se dá, então, da seguinte forma: θ (2) = θ (1) − K (θ (1) ) −1 g(θ (1) ) (D.6) 234 APÊNDICE E – Índices Econômico-Fiscais Quadro 5: Índices Econômico-Fiscais Utilizados na Pesquisa Lucro Real antes da Compensação (Receita Prejuízo/Lucro Líquido antes da Incentivada)/Receita CSLL Incentivada (Passivo Circulante Exigível anterior Longo + Prazo Líquida - Receita não Resultado Financeiro/ Lucro Operacional (Passivo Circulante atual + Exigível Passivo Circulante/ Exigível Longo Longo Prazo atual)/(Ativo atual) Prazo (Passivo Reserva anterior)/(Ativo anterior) Outras Despesas Operacionais/ Despesa Operacional Circulante + Exigível Longo Prazo)/(Patrimônio Líquido de Reavaliação atual/ Patrimônio Líquido atual atual) Passivo Circulante/ Patrimônio Ativo Permanente/ Patrimônio Serviços de Terceiros/ Despesa Líquido atual Líquido atual Operacional Custo/ Receita Líquida Outros Custos e Serviços/ Total Despesas com Terceiros/ Despesa Custos e Serviços Operacional Receita Financeira/Receita Líquida Lucro Lucro Operacional/Receita Líquida Líquido antes da CSLL/Receita Líquida Despesa Financeira/ Receita Líquida Custo Despesa Operacional/ Receita Líquida Mercadorias Revendidas/ Custo Outros Custos de Produção/ Total dos Custos de Produção Produtos Fabricação Caixa/ Ativo Circulante Estoque Médio Própria/ Giro Estoque Produtos (Patrimônio Líquido atual - Reserva (Passivo Exigível Lucro Líquido antes da CSLL/ de Longo Prazo)/(Ativo Circulante + (Patrimônio Líquido Atual - Lucro Realizável a Longo Prazo) Líquido antes da CSLL) (Depreciação atual - Depreciação (Manutenção de Bens + Despesa (Clientes anterior)/ de Veículos)/ Imobilizado Exigível Longo Prazo)/ Receita Reavaliação [(Patrimônio Líquido atual)/ anterior - Circulante + Reserva de Reavaliação anterior) + Lucro Líquido] (Imobilizado atual - Terrenos anterior + Depreciação Circulante + Líquida atual) Compras/ Receita Líquida Disponível/ Ativo Circulante Fornecedores/ Compras Clientes 235 APÊNDICE F – Estatísticas para os Índices Econômico-Fiscais Tabela 26: Estatísticas descritivas dos índices econômico-fiscais (continua) Índice I01 I02 I03 I04 I05 I06 I07 I08 I09 I10 I11 I12 I13 I14 I15 I16 I17 I18 I19 I20 I21 I22 I23 I24 I25 I26 I27 I28 I29 I30 VMín -675.999,15 -76.664,21 -4.519,77 -681.480,99 -249.955,97 -31.262,18 -840106,76 -10.651,73 -187,49 -780.682,66 -203.816,00 -780.682,66 -566.666,66 -966.759,90 -295.999,43 -116.867,96 -899.600,00 -415.171,88 -11.884,42 -86.651,74 -874.529,57 -874.529,57 -402.882,83 -72.724,94 -3.853,25 -939.517,32 -565.184,58 -243.820,89 -64.282,44 -315.408,40 Média 58,87 32,77 23,30 314,01 815,44 750,67 399,58 19,43 7,17 406,51 5,34 666,15 4.022,43 3.252,06 82,66 213,85 155,57 90,81 72,89 23,35 214,12 226,29 51,72 66,52 44,90 146,77 100,48 88,42 1,54 1.052,41 Curtose 34.775,31 119.675,20 154.595,00 3.539,66 1.693,14 1.752,35 1.438,94 19.032,88 24.537,41 2.186,41 121.209,60 1.379,26 308,85 369,37 20.865,43 6.797,73 3.262,45 13.364,18 29.589,58 43.797,38 2.529,98 2.480,31 18.400,37 95.992,42 46.731,56 4.802,19 9.582,62 13.130,91 84,072,29 3.083,28 QI 0,00 1,13 2,67 0,00 5,39 0,30 77,37 0,01 0,00 0,00 0,00 0,00 9,86 0,00 82,05 0,00 -15,59 0,00 0,00 0,00 -5,27 -4,45 0,00 0,00 18,60 0,00 0,00 0,00 0,00 0,00 QS 83,55 62,35 33,86 85,13 87,24 76,98 100,00 20,21 0,00 73,62 0,00 108,59 150,35 39,60 100,00 11,90 18,93 9,57 4,96 6,31 2,17 2,39 4,65 95,84 68,90 52,72 2,07 0,36 0,00 120,10 Assimetria 140,05 298,94 386,94 55,75 40,04 40,91 31,56 76,22 115,56 40,79 315,57 32,92 17,18 18,66 79,16 81,26 44,23 98,15 157,25 203,39 40,08 39,60 124,25 -284,07 153,39 46,67 88,51 109,29 -156,72 52,42 Mediana 49,97 12,81 17,38 15,32 41,10 30,32 100,00 1,12 0,00 7,73 0,00 14,30 67,90 0,00 100,00 0,07 0,00 0,00 0,00 0,00 0,00 0,00 0,00 90,93 46,24 16,82 0,00 0,00 0,00 0,00 VMáx 1.000.000,00 206.245,70 62.740,02 1.000.000,00 1.000.000,00 1.000.000,00 1.000.000,00 14.244,35 7.291,42 1.000.000,00 962.374,20 1.000.000,00 1.000.000,00 1.000.000,00 377.040,00 1.000.000,00 1.000.000,00 1.000.000,00 1.000.000,00 1.000.000,00 1.000.000,00 1.000.000,00 1.000.000,00 4.163,51 14.471,00 1.000.000,00 1.000.000,00 1.000.000,00 40.575,65 1.000.000,00 %0 40,34 13,73 21,09 21,91 15,24 23,33 11,99 24,00 81,89 17,39 94,37 15,28 15,58 63,99 15,19 49,06 14,38 56,01 70,89 49,21 25,44 25,46 44,20 25,86 18,13 26,10 49,72 61,61 90,46 71,76 %Neg 0,12 1,87 0,03 16,43 0,24 0,21 6,41 0,29 0,01 18,68 0,94 19,33 0,42 0,20 3,05 0,08 41,05 0,20 0,03 5,62 39,04 37,76 24,30 0,07 0,02 0,56 0,42 0,39 0,05 0,08 VNeg Não Sim Não Sim Não Não Sim Não Não Sim Sim Sim Não Não Sim Não Sim Não Não Sim Sim Sim Sim Não Não Não Não Não Não Não DT 2 1 2 1 2 2 1 2 3 1 3 1 2 2 1 2 1 2 2 1 1 1 1 2 2 2 2 2 3 2 236 Tabela 26: Estatísticas descritivas dos índices econômico-fiscais Índice VMín Média Curtose QI QS Assimetria Mediana VMáx %0 %Neg I31 -36.173,50 235,60 15.744,05 0,00 0,00 115,69 0,00 1.000.000,00 89,78 0,03 I32 -238.660,44 35,76 65.322,46 0,00 64,75 198,01 0,00 493.431,75 54,33 0,06 I33 -31.825,70 8,83 151.720,30 0,00 10,45 -381,71 2,69 353,28 35,79 0,003 Onde VMín: valor mínimo; QI: quartil inferior; QS: quartil superior; VMáx: valor máximo; %Neg: percentual de valores negativos para o índice; %0: percentual de valores iguais à zero para o índice; VNeg: Admissibilidade de valores negativos para o índice, de acordo com a teoria contábil; DT: diretriz de transformação aplicada ao índice (conforme definido no capítulo 6). (continuação) VNeg DT Não 3 Não 2 Não 2 237 APÊNDICE G – Exemplo de Estatísticas Descritivas e Gráficos para os Índices Econômico-Fiscais Tabela 27: Estatísticas descritivas para I04 I04 -681.480,99 0,00 15,32 21,91 Média QS Máx. 314,01 Curtose 85,13 Assimetria 1.000.000,00 %Negativos 0 20000 40000 60000 80000 Histograma de I04 frequência Mín. QI Mediana %Zeros -1000 -500 0 dados$I04 Figura 8: Histograma Parcial de I04. 500 1000 3.539,66 55,75 16,43 238 Figura 9: Boxplot de I04. Figura 10: Stem and Leaf Plot de I04. Obs: O ponto decimal está cinco dígitos à direita da barra. 239 20000 40000 60000 80000 0 frequência 120000 Histograma de I08 -500 0 500 dados$I08 Figura 11: Histograma Parcial de I08. 100000 0 50000 frequência 150000 Histograma de I11 -1000 -500 0 dados$I11 Figura 12: Histograma Parcial de I11. 500 1000 240 APÊNDICE H – Análise em Componentes Principais (Valores de Balanço) Tabela 28: Autovetores - CP: componente principal VB CP1 CP2 CP3 CP4 CP5 CP6 CP7 CP8 CP9 CP10 LOPER 0,032638 0,330129 -0,57306 -0,1317 1,023438 -0,38022 2,266754 -0,99237 -0,32508 -0,48069 LBRUTO 0,143016 0,049171 0,032638 -1,88079 -0,3581 0,223962 -0,07259 -0,41061 0,025562 0,545799 RECLIQ 0,157242 0,016496 0,197647 0,145143 0,603233 -2,02297 0,210732 3,753205 0,286018 -0,9003 LREAL -0,08142 0,279332 0,559186 -0,00298 1,970835 0,867577 -1,15853 0,267038 0,441369 0,705379 LACSSL 0,032638 0,338855 -0,47585 0,097445 -1,1875 0,047877 -2,36512 1,065135 0,214561 0,407368 BCCSSL -0,08163 0,267725 0,638426 0,256664 -1,786 -0,49998 1,43908 -0,22555 -0,04564 -0,16644 RBPISP 0,159656 0,022782 0,162104 0,441093 0,139021 -0,70187 -0,61959 -2,50738 -8,24363 30,37526 BCPISP 0,159711 0,019541 0,074869 0,399126 -0,18221 1,743195 0,584995 0,990348 -11,0404 -21,8833 RBCOF 0,159684 0,022937 0,157791 0,423622 0,12321 -0,68686 -0,64834 -2,73753 7,9498 -29,4205 BCCOF 0,159973 0,012356 0,048487 0,412324 -0,21123 1,687554 0,736165 0,915707 11,23116 21,5802 CP8 CP9 Onde VB: Valores de Balanço (Padronizados). Tabela 29: Inércia explicada CP1 %Variância %Acumulado CP2 CP3 CP4 CP5 CP6 CP7 CP10 61,412 26,470 7,040 2,296 0,987 0,824 0,630 0,312 0,026 0,004 61,412 87,882 94,922 97,219 98,205 99,029 99,658 99,970 99,996 100,00 241 APÊNDICE I – Amostras de Validação Para o caso de BD1, em que se conhece o tamanho da população, 164.466 contribuintes, dentre os quais 9.757 foram selecionados para fiscalização, pode-se recorrer a Cochran (1977), que informa que para população finita, ou seja, considerando-se uma amostragem aleatória simples sem reposição (AASs), a ^ variância de um estimador P para uma proporção populacional P associada à ocorrência de uma determinada característica de interesse é dada por: ^ Var ( P) = PQ ⎛ N − n ⎞ ⎜ ⎟ n ⎝ N −1 ⎠ (I.1) Onde N: número de elementos da população, n: tamanho de amostra, e Q=(1-P). Como o produto PQ está limitado a 0,25, pode ser prontamente avaliado o erro percentual máximo conservativo, E, para a estimativa de P, considerando-se um intervalo de confiança de 95% (neste ponto se está utilizando do resultado proporcionado pelo Teorema do Limite Central, qual seja, de que a distribuição ^ amostral de P aproxima-se da Normal, à medida que o tamanho de amostra aumenta): E = 1,96 ⎞ 0 ,25 ⎛ 1 ⎜⎜ − 1⎟⎟ N − 1⎝ f ⎠ (I.2) Nesta equação, sendo f=n/N entendida como a fração amostral. Como é desejável que após a extração das amostras de validação seja preservada na remanescente amostra de estimação a proporção populacional original de ocorrência da característica de interesse, deve-se inicialmente proceder a uma estratificação da população de BD1, com base na ocorrência/não ocorrência da característica de interesse. Com isso, o dimensionamento dos tamanhos de amostra que atendam o referido mister vai decorrer diretamente da definição de f1, entendida como a fração amostral a ser aplicada aos estratos de BD1. De posse da equação I.2 podem-se realizar ilustrativas simulações para valores de E e seus respectivos impactos em f1, considerando-se o caso de menor população estratificada (9.757 elementos possuindo a característica de interesse), o 242 qual, conseqüentemente, rege a definição do valor adequado para f1. Os resultados seguem na Tabela 30: Tabela 30: Efeitos do valor de E na fração amostral f, com N=9.757 E 0,08 0,07 0,06 0,05 0,03 PQ 0,25 0,25 0,25 0,25 0,25 f1=n1/N1 0,0151 0,0197 0,0266 0,0379 0,0986 Pela Tabela 30, observa-se que à medida que o erro percentual máximo projetado decai, a fração amostral requisitada aumenta. Isso decorre porque amostras maiores reduzem a variabilidade do estimador do parâmetro, e, conseqüentemente, sua margem de erro máxima. A fração amostral que proporciona erro de no máximo 5 pontos percentuais para mais ou para menos é, portanto, f1=0,0379 e será a adotada no caso de BD1. Outra simulação de interesse é a avaliação do erro máximo admissível E variando em função do produto PQ. Tabela 31: Efeitos do valor de PQ no erro admissível E, com N=9.757 f1=n1/N1 0,0379 0,0379 0,0379 0,0379 PQ 0,25 0,21 0,16 0,09 E 0,0500 0,0458 0,0400 0,0300 A Tabela 31 demonstra claramente como e por que se está projetando um erro máximo admissível no dimensionamento de f1 especificamente associado ao caso em que PQ=0,25. À medida que PQ decresce, mantendo-se uma mesma fração amostral f1 em relação à população, E também decresce nunca ultrapassando os 5% referentes ao pior caso (PQ=0,25). O caso do dimensionamento para BD2 é diferente. O objetivo é estimar um modelo a partir de 12.227 contribuintes fiscalizados, em que 8.073 deles são infratores, e utilizá-lo para classificar futuros contribuintes que apuram o lucro real. Ocorre que o N futuro é por definição desconhecido, mesmo que, no momento, BD1 forneça uma excelente aproximação para esse total. Por isso, no caso de BD2 o mais seguro é considerar, para fins de validação, que a população futura de contribuintes é infinita, porém podendo-se calcular as propriedades para os 243 estimadores mesmo para um N desconhecido. Sabe-se que, na prática, podem ser utilizadas as equações que regem a Amostragem Aleatória Simples com Reposição (AASc) para o caso de uma AASs aplicada a grandes populações, como é o caso. Com isso, um tamanho de amostra conservativo, considerando-se um intervalo de confiança de 95% (utilizando-se aqui novamente da aproximação à Normal já mencionada), é dado por: n= PQ ⋅ 1,96 2 0,25 ⋅ 1,96 2 = = 384,16 ≅ 385 E2 0,05 2 (I.3) A partir de I.3, f2 (fração amostral a ser aplicada aos estratos de BD2) pode ser avaliada para o menor estrato (4.154 contribuintes não possuindo a característica de interesse): f2 = 385 = 0,0927 4.154 (I.4) A Tabela 32 aplica as frações amostrais calculadas aos respectivos estratos e determina os tamanhos das amostras de validação: Tabela 32: Determinação de n para as Amostras de Validação Número de Contribuintes Número de Contribuintes (BD1) (BD2) Estrato_0 154.709 4.154 Estrato_1 9.757 8.073 (f1 x Estrato_0) = 5.864 (I.3) = 385 (f1 x Estrato_1) = 370 (f2 x Estrato_1) = 751 Amostra de Validação para Especificidade Amostra de Validação para Sensitividade Onde Estrato_0: estrato de contribuintes não apresentando a característica de interesse; Estrato_1: estrato de contribuintes apresentando a característica de interesse. 244 APÊNDICE J – Estimativas para MLGH1 (Variáveis Selecionadas Assinaladas em Negrito) Tabela 33: Estimativas para nível 1 (Primeira Rodada) (continua) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL LI14B LI14A LI27B LI27A LI18B LI18A I29POS I31POS LI01B LI01A LI28B LI31B LI31A LI28A LI14B I14NEG LI32B LI32A LI27B I27NEG LI06A LI06B I11POS LI18B I18NEG LI24B LI24A LI19B LI19A LI08B I29NEG I29POS LI29B LI08A I31NEG I31POS LI01B I01NEG LI33B LI33A LI29A LI28B I28NEG LI31B I31NEG LI32B I32NEG LI25B LI25A LI03B LI03A LI05B LI05A I11NEG I11POS LI12A LI06B 0,172415 0,171140 0,351689 0,341997 0,284630 0,279407 1,420946 1,532844 0,279868 0,277139 0,314187 0,212359 0,212040 0,304375 0,172517 0,232670 0,267907 0,266743 0,351980 0,159305 0,189349 0,189683 1,090373 0,285265 0,554854 0,251730 0,247761 0,209239 0,207867 -0,243912 1,626174 1,432352 0,332743 -0,231860 0,388702 1,533423 0,280278 0,401914 0,232947 0,232616 0,327431 0,314116 -0,045855 0,212428 0,336344 0,268452 0,754742 0,226368 0,225148 0,212929 0,211278 0,147020 0,146023 0,795700 1,109673 0,064533 0,189081 0,003360 0,003356 0,007237 0,007223 0,006374 0,006368 0,035585 0,038468 0,007034 0,007014 0,008026 0,005431 0,005429 0,008017 0,003362 0,277330 0,007414 0,007405 0,007247 0,193181 0,005850 0,005862 0,034382 0,006381 0,243078 0,007995 0,007946 0,006879 0,006877 0,008509 0,273213 0,035639 0,011754 0,008191 0,601938 0,038477 0,007047 0,367330 0,008284 0,008283 0,011757 0,008033 0,204020 0,005432 0,601711 0,007421 0,405915 0,008948 0,008933 0,008542 0,008527 0,006134 0,006112 0,076711 0,034429 0,002786 0,005870 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 1 1 2 2 1 1 1 2 2 1 1 1 1 1 2 2 1 1 2 2 2 2 1 1 1 2 2 2 2 2 2 1 1 1 1 1 1 2 2 1 2 2633,78 2600,24 2361,36 2242,05 1993,81 1925,16 1594,44 1587,83 1583,01 1561,42 1532,26 1528,96 1525,40 1441,40 2634,45 2634,45 1305,76 1297,49 2362,11 2362,11 1047,48 1047,21 1005,74 1998,32 1998,32 991,32 972,35 925,28 913,54 821,66 1622,85 1622,85 801,38 801,35 1588,43 1588,43 1583,94 1583,94 790,81 788,71 775,66 1532,24 1532,24 1529,44 1529,44 1308,44 1308,44 640,02 635,25 621,34 613,86 574,54 570,70 1106,52 1106,52 536,64 1046,48 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 2633,78 2600,24 2361,36 2242,05 1993,81 1925,16 1594,44 1587,83 1583,01 1561,42 1532,26 1528,96 1525,40 1441,40 1317,22 1317,22 1305,76 1297,49 1181,05 1181,05 1047,48 1047,21 1005,74 999,16 999,16 991,32 972,35 925,28 913,54 821,66 811,42 811,42 801,38 801,35 794,21 794,21 791,97 791,97 790,81 788,71 775,66 766,12 766,12 764,72 764,72 654,22 654,22 640,02 635,25 621,34 613,86 574,54 570,70 553,26 553,26 536,64 523,24 245 Tabela 33: Estimativas para nível 1 (Primeira Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL I06NEG L30B L30A LI04A LI24B I24NEG LI10A LI19B I19NEG ZPC1 LI13B LI13A LI11A I09POS LI08B I08NEG LI29B I29NEG LI33B I33NEG ZPC3 LI07A LI16B LI16A LI25B I25NEG LI03B I03NEG LI09B LI09A LI05B I05NEG LI26B LI26A L30B I30NEG LI20A LI13B I13NEG I09NEG I09POS LI16B I16NEG LI09B I09NEG LI02A LI26B I26NEG LI22A LI17A Rural I11NEG LI21A LI23A LI15A I13NEG I29NEG I06NEG I09NEG I26NEG I05NEG I03NEG I08NEG I28NEG -0,837749 0,102052 0,101645 0,081363 0,253663 1,277338 0,067460 0,209452 0,657722 0,177139 0,100940 0,099656 0,184492 0,608040 -0,245140 -0,892426 0,334762 1,186809 0,233050 1,596219 0,239154 0,094634 0,113157 0,112871 0,227163 1,528397 0,213965 1,426842 0,144274 0,143706 0,146722 -0,225597 0,109691 0,102769 0,102131 0,209226 0,123555 0,100189 -0,470920 1,847131 0,608869 0,113074 -0,253796 0,144471 1,801488 -0,079658 0,108914 -0,229495 0,046577 0,032400 0,811292 0,665224 0,035116 0,023966 0,017635 -0,889208 0,810871 -1,443518 1,676995 -0,504301 -0,731939 0,843506 -0,572970 -0,284719 0,505581 0,004498 0,004490 0,003607 0,008032 0,329172 0,003042 0,006881 0,490649 0,008261 0,004804 0,004763 0,008857 0,029467 0,008519 0,295504 0,011756 0,275260 0,008284 1,146854 0,012273 0,004950 0,005989 0,005977 0,008961 0,576048 0,008554 0,432206 0,008152 0,008153 0,006149 0,341128 0,006494 0,006286 0,004500 0,341837 0,007885 0,004823 0,283111 0,597223 0,029469 0,005991 0,464667 0,008152 0,595976 0,006333 0,006524 0,192467 0,004680 0,003265 0,082880 0,076917 0,004643 0,003529 0,005235 0,282437 0,277864 0,505396 0,595172 0,191592 0,340598 0,433261 0,295800 0,203877 2 1 1 1 2 2 1 2 2 1 1 1 1 1 2 2 2 2 2 2 1 1 1 1 2 2 2 2 1 1 2 2 1 1 2 2 1 2 2 2 2 2 2 2 2 1 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1046,48 514,76 512,41 508,74 997,91 997,91 491,70 926,88 926,88 459,78 441,53 437,72 433,90 425,79 832,54 832,54 818,92 818,92 792,37 792,37 379,70 365,44 356,97 356,59 644,41 644,41 629,23 629,23 313,25 310,66 574,36 574,36 285,31 267,28 515,12 515,12 245,54 441,95 441,95 434,58 434,58 357,17 357,17 321,86 321,86 158,23 286,05 286,05 99,07 98,50 95,82 74,80 57,20 46,13 11,35 9,91 8,52 8,16 7,94 6,93 4,62 3,79 3,75 1,95 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 0,001 0,002 0,004 0,005 0,005 0,008 0,030 0,049 0,050 0,159 523,24 514,76 512,41 508,74 498,95 498,95 491,70 463,44 463,44 459,78 441,53 437,72 433,90 425,79 416,27 416,27 409,46 409,46 396,19 396,19 379,70 365,44 356,97 356,59 322,21 322,21 314,61 314,61 313,25 310,66 287,18 287,18 285,31 267,28 257,56 257,56 245,54 220,97 220,97 217,29 217,29 178,59 178,59 160,93 160,93 158,23 143,02 143,02 99,07 98,50 95,82 74,80 57,20 46,13 11,35 9,91 8,52 8,16 7,94 6,93 4,62 3,79 3,75 1,95 246 Tabela 33: Estimativas para nível 1 (Primeira Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL I25NEG I01NEG I27NEG I33NEG I24NEG I16NEG I14NEG ZPC4 I19NEG ZPC2 I31NEG I18NEG I30NEG I32NEG 0,786320 -0,458036 -0,233927 1,171798 0,324287 -0,437644 -0,221479 -0,004457 0,266130 -0,003755 -0,277840 0,036726 -0,017875 0,012679 0,576788 0,367849 0,193361 1,154595 0,327793 0,464568 0,278369 0,006111 0,493893 0,007995 0,609396 0,242989 0,340335 0,407256 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1,86 1,55 1,46 1,03 0,98 0,89 0,63 0,53 0,29 0,22 0,21 0,02 0,00 0,00 0,169 0,210 0,224 0,311 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 1,86 1,55 1,46 1,03 0,98 0,89 0,63 0,53 0,29 0,22 0,21 0,02 0,00 0,00 Tabela 34: Estimativas para nível 1 (Segunda Rodada) (continua) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL I11POS LI08B LI08A LI22A LI04A LI21A LI12A ZPC1 LI30B LI30A LI10A LI32B LI32A I11NEG I11POS LI01B LI06A LI01A LI26B LI06B LI11A LI08B I08NEG LI26A ZPC3 L30B I30NEG I09POS LI32B I32NEG Rural LI01B I01NEG LI26B I26NEG LI06B I06NEG LI28B LI09B LI09A 0,700029 -0,167580 -0,159575 0,075997 0,057641 0,074119 0,043176 0,129744 0,075020 0,074728 0,043720 0,120026 0,119267 0,283070 0,709579 0,106432 0,094068 0,104248 -0,115037 0,094016 0,111594 -0,168578 -0,595045 -0,090280 0,155862 0,075073 0,128216 0,343914 0,120337 0,305203 0,791679 0,106538 0,083172 -0,115883 -0,210377 0,093312 -0,754623 0,100318 0,078816 0,078234 0,035878 0,009297 0,009031 0,004429 0,003450 0,004438 0,002661 0,008080 0,004711 0,004700 0,002901 0,008356 0,008322 0,079897 0,035970 0,008019 0,007158 0,007944 0,008786 0,007189 0,008686 0,009309 0,295891 0,007411 0,012840 0,004713 0,344978 0,030722 0,008367 0,422377 0,083278 0,008034 0,382052 0,008819 0,198581 0,007201 0,506852 0,010837 0,008577 0,008578 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 1 1 1 1 1 1 2 2 1 1 2 2 1 2 2 1 2 2 2 2 2 2 1 1 1 380,68 324,91 312,19 294,45 279,10 278,89 263,21 257,81 253,64 252,83 227,09 206,33 205,40 393,06 393,06 176,17 172,72 172,21 171,45 171,02 165,04 329,60 329,60 148,41 147,34 253,78 253,78 125,31 206,84 206,84 90,37 176,22 176,22 172,68 172,68 172,21 172,21 85,70 84,44 83,19 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 380,68 324,91 312,19 294,45 279,10 278,89 263,21 257,81 253,64 252,83 227,09 206,33 205,40 196,53 196,53 176,17 172,72 172,21 171,45 171,02 165,04 164,80 164,80 148,41 147,34 126,89 126,89 125,31 103,42 103,42 90,37 88,11 88,11 86,34 86,34 86,10 86,10 85,70 84,44 83,19 247 Tabela 34: Estimativas para nível 1 (Segunda Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL LI07A LI28A LI33B LI33A I09NEG I09POS LI15A LI17A LI02A LI09B I09NEG LI28B I28NEG LI33B I33NEG LI13A LI13B LI03B LI03A LI20A LI19B LI19A LI16A LI16B LI25B LI25A LI24B LI13B I13NEG LI03B I03NEG LI24A LI05A LI05B LI19B I19NEG LI16B I16NEG LI25B I25NEG LI24B I24NEG I09NEG LI05B I05NEG I11NEG I24NEG I13NEG I06NEG LI23A I08NEG ZPC2 I25NEG I03NEG I05NEG I16NEG ZPC4 I01NEG I28NEG I33NEG I30NEG I26NEG I19NEG I32NEG 0,043120 0,089804 0,078506 0,078231 1,793469 0,344771 -0,040568 0,024078 -0,048975 0,079021 1,763685 0,100509 0,160638 0,078590 0,723589 0,034445 0,034644 0,053940 0,052675 0,040318 0,041587 0,008007 0,034604 0,034565 0,047847 0,046837 0,038565 0,033490 -0,442877 0,054653 0,532441 0,035681 0,030437 0,030683 0,041663 0,144143 0,034443 -0,280565 0,048470 0,685518 0,040095 0,853707 1,693125 0,030387 -0,158905 0,171179 0,721621 -0,584669 -1,038975 -0,003891 -0,350877 0,006350 0,509837 0,365170 -0,256593 -0,340212 -0,003304 -0,226867 0,115907 0,536455 -0,041217 0,021763 0,053903 -0,037281 0,004896 0,010563 0,009452 0,009445 0,608078 0,030725 0,005016 0,003243 0,007090 0,008577 0,607194 0,010839 0,209209 0,009453 1,294031 0,006170 0,006323 0,009868 0,009818 0,007654 0,008027 0,008007 0,006872 0,006900 0,010186 0,010146 0,009168 0,006365 0,285965 0,009888 0,441553 0,009040 0,007799 0,007880 0,008032 0,505946 0,006903 0,467360 0,010204 0,592524 0,009204 0,351165 0,606196 0,007905 0,342481 0,080112 0,351285 0,284827 0,506719 0,003173 0,295934 0,006601 0,593850 0,441677 0,341598 0,467418 0,005555 0,384627 0,210926 1,301983 0,343596 0,195653 0,506806 0,424299 1 1 1 1 2 2 1 1 1 2 2 2 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 1 1 1 2 2 2 2 2 2 2 2 1 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 77,57 72,27 68,99 68,60 133,62 133,62 65,42 55,14 47,71 92,61 92,61 86,28 86,28 69,29 69,29 31,16 30,02 29,88 28,79 27,74 26,84 25,47 25,36 25,09 22,07 21,31 17,69 31,94 31,94 31,24 31,24 15,58 15,23 15,16 26,92 26,92 25,43 25,43 23,30 23,30 23,21 23,21 7,80 15,35 15,35 4,57 4,22 4,21 4,20 1,50 1,41 0,93 0,74 0,68 0,56 0,53 0,35 0,35 0,30 0,17 0,01 0,01 0,01 0,01 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 0,005 0,001 0,001 0,031 0,037 0,038 0,038 0,218 0,234 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 77,57 72,27 68,99 68,60 66,81 66,81 65,42 55,14 47,71 46,31 46,31 43,14 43,14 34,64 34,64 31,16 30,02 29,88 28,79 27,74 26,84 25,47 25,36 25,09 22,07 21,31 17,69 15,97 15,97 15,62 15,62 15,58 15,23 15,16 13,46 13,46 12,71 12,71 11,65 11,65 11,60 11,60 7,80 7,67 7,67 4,57 4,22 4,21 4,20 1,50 1,41 0,93 0,74 0,68 0,56 0,53 0,35 0,35 0,30 0,17 0,01 0,01 0,01 0,01 248 Tabela 35: Estimativas para nível 1 (Terceira Rodada) (continua) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL LI06A LI06B LI01B LI01A LI32B LI32A LI30B LI30A ZPC1 LI05B LI06B I06NEG LI05A LI13B LI13A ZPC3 LI01B I01NEG LI32B I32NEG L30B I30NEG I09POS LI05B I05NEG LI13B I13NEG LI07A LI09B LI09A Rural LI24B LI26B LI24A I09NEG I09POS LI03B LI16B LI16A LI03A LI25B LI25A LI26A LI33B LI33A LI09B I09NEG LI19B LI19A LI24B I24NEG LI26B I26NEG LI03B I03NEG LI16B I16NEG LI25B I25NEG LI20A LI33B I33NEG LI19B I19NEG 0,134226 0,134551 0,130612 0,128324 0,132257 0,131462 0,072111 0,071793 0,116046 0,106737 0,134080 -0,497211 0,105010 0,081742 0,079606 0,134198 0,130444 -0,134582 0,132523 0,266414 0,072184 0,183510 0,297994 0,107207 0,242995 0,081181 -0,215798 0,041003 0,067326 0,066741 0,631945 0,072140 -0,067706 0,068656 1,742952 0,298824 0,068479 0,048154 0,047931 0,067076 0,065806 0,064570 -0,047684 0,057755 0,057478 0,067523 1,715952 0,047354 0,046004 0,073512 0,725597 -0,069179 -0,388077 0,069232 0,562239 0,048128 -0,060084 0,066628 0,961562 0,033407 0,057850 0,837879 0,047486 0,245599 0,007601 0,007624 0,008338 0,008256 0,008542 0,008505 0,004766 0,004755 0,008006 0,008477 0,007637 0,508010 0,008433 0,006651 0,006550 0,012060 0,008351 0,386403 0,008552 0,416973 0,004768 0,344531 0,031185 0,008505 0,343086 0,006692 0,287065 0,005079 0,008723 0,008724 0,083474 0,009578 0,009245 0,009446 0,628419 0,031188 0,010095 0,007129 0,007105 0,010046 0,010424 0,010391 0,007909 0,009600 0,009593 0,008724 0,627676 0,008211 0,008193 0,009614 0,354230 0,009272 0,201184 0,010115 0,447493 0,007131 0,466275 0,010442 0,586870 0,007747 0,009602 1,278949 0,008215 0,506144 1 1 1 1 1 1 1 1 1 1 2 2 1 1 1 1 2 2 2 2 2 2 1 2 2 2 2 1 1 1 1 1 1 1 2 2 1 1 1 1 1 1 1 1 1 2 2 1 1 2 2 2 2 2 2 2 2 2 2 1 2 2 2 2 311,84 311,47 245,36 241,56 239,75 238,91 228,95 227,95 210,10 158,53 311,68 311,68 155,08 151,05 147,72 123,83 245,42 245,42 240,17 240,17 229,23 229,23 91,31 159,05 159,05 151,13 151,13 65,18 59,57 58,53 57,31 56,73 53,63 52,83 98,72 98,72 46,02 45,63 45,51 44,58 39,85 38,62 36,35 36,19 35,90 66,85 66,85 33,26 31,53 60,42 60,42 57,61 57,61 47,47 47,47 45,64 45,64 42,26 42,26 18,60 36,61 36,61 33,49 33,49 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 0,001 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 311,84 311,47 245,36 241,56 239,75 238,91 228,95 227,95 210,10 158,53 155,84 155,84 155,08 151,05 147,72 123,83 122,71 122,71 120,08 120,08 114,61 114,61 91,31 79,53 79,53 75,57 75,57 65,18 59,57 58,53 57,31 56,73 53,63 52,83 49,36 49,36 46,02 45,63 45,51 44,58 39,85 38,62 36,35 36,19 35,90 33,43 33,43 33,26 31,53 30,21 30,21 28,81 28,81 23,74 23,74 22,82 22,82 21,13 21,13 18,60 18,30 18,30 16,74 16,74 249 Tabela 35: Estimativas para nível 1 (Terceira Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL LI17A LI28B LI23A LI28A LI15A I09NEG LI28B I28NEG I13NEG I06NEG LI12A LI21A I24NEG I26NEG I25NEG I01NEG ZPC2 I03NEG I28NEG I33NEG LI02A ZPC4 LI10A I05NEG I16NEG I19NEG I32NEG I30NEG 0,015093 0,041682 0,011462 0,037681 -0,017007 1,656604 0,041396 -0,111159 -0,554932 -0,913344 0,009771 0,020242 0,499376 -0,277622 0,729228 -0,459447 -0,005658 0,353646 -0,146923 0,705618 -0,004227 -0,002489 0,002225 -0,116857 -0,141943 0,142596 -0,078470 0,027150 0,003716 0,011399 0,003229 0,010739 0,005150 0,627006 0,011412 0,212793 0,285858 0,508007 0,005952 0,012414 0,355726 0,199436 0,588399 0,388103 0,006630 0,447969 0,213776 1,285376 0,008508 0,005501 0,005860 0,341954 0,466304 0,507087 0,416649 0,343030 1 1 1 1 1 1 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 16,50 13,37 12,60 12,31 10,91 6,98 13,64 13,64 3,77 3,23 2,70 2,66 1,97 1,94 1,54 1,40 0,73 0,62 0,47 0,30 0,25 0,20 0,14 0,12 0,09 0,08 0,04 0,01 < 0,001 0,001 0,001 0,001 0,001 0,008 0,000 0,000 0,049 0,069 0,097 0,099 0,157 0,160 0,213 0,235 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 16,50 13,37 12,60 12,31 10,91 6,98 6,82 6,82 3,77 3,23 2,70 2,66 1,97 1,94 1,54 1,40 0,73 0,62 0,47 0,30 0,25 0,20 0,14 0,12 0,09 0,08 0,04 0,01 Tabela 36: Estimativas para nível 2 (Primeira Rodada) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL ZLOPER ZLACSLL export VrPerc99 ZLBRUTO agropecagr indagr comagr ZRECLIQ ZBCCSLL ZRBCOF ZRBPISP VrPerc98 ZBCCOF ZBCPISP ZLREAL Inform -0,180219 -0,177533 0,282205 0,047220 0,126289 0,743876 0,189473 -0,123694 0,126960 -0,107200 0,103891 0,103397 0,025516 0,092937 0,092674 -0,087641 0,008221 0,053630 0,053303 0,085579 0,017701 0,049154 0,199983 0,097118 0,143067 0,050916 0,051932 0,051388 0,051423 0,012810 0,051661 0,051682 0,051975 0,090318 1 1 1 1 1 3 3 3 1 1 1 1 1 1 1 1 1 11,29 11,09 10,87 7,12 6,60 19,24 19,24 19,24 6,22 4,26 4,09 4,04 3,97 3,24 3,22 2,84 0,01 0,001 0,001 0,001 0,008 0,010 < 0,001 < 0,001 < 0,001 0,012 0,037 0,041 0,042 0,044 0,068 0,069 0,088 >0,5 11,29 11,09 10,87 7,12 6,60 6,41 6,41 6,41 6,22 4,26 4,09 4,04 3,97 3,24 3,22 2,84 0,01 Tabela 37: Estimativas para nível 2 (Segunda Rodada) (continua) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL ZLBRUTO 0,150221 0,049417 1 9,24 0,003 9,24 250 Tabela 37: Estimativas para nível 2 (Segunda Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL VrPerc98 ZRECLIQ ZRBCOF ZRBPISP ZBCPISP ZBCCOF ZBCCSLL ZLACSLL Inform ZLREAL 0,027006 0,095117 0,083334 0,083158 0,080502 0,080203 -0,048808 0,548494 -0,085472 -0,018910 0,012921 0,053273 0,053756 0,053782 0,054020 0,054028 0,058431 0,680078 0,124644 0,060876 1 1 1 1 1 1 1 1 1 1 4,37 3,19 2,40 2,39 2,22 2,20 0,70 0,65 0,47 0,10 0,034 0,070 0,117 0,118 0,130 0,134 >0,5 >0,5 >0,5 >0,5 4,37 3,19 2,40 2,39 2,22 2,20 0,70 0,65 0,47 0,10 251 APÊNDICE K – Estimativas para MLGH2 (Variáveis Selecionadas Assinaladas em Negrito) Tabela 38: Estimativas para nível 1 (Primeira Rodada) (continua) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL LI24A LI24B LI01B LI01A LI32B LI32A LI24B I24NEG LI05B LI05A LI30A LI30B LI01B I01NEG LI02A LI06A LI06B LI32B I32NEG LI18A LI18B ZPC1 LI19B LI19A LI22A LI26A LI21A LI05B I05NEG L30B I30NEG LI27A LI26B LI16B LI06B I06NEG LI16A LI27B LI08B LI08A LI25B LI09B LI09A LI25A Rural LI18B I18NEG LI19B I19NEG LI03B I09POS LI03A LI26B I26NEG LI27B I27NEG ZPC2 0,119347 0,120994 0,093506 0,090508 0,081794 0,080524 0,120158 -0,275206 0,084124 0,082288 0,040138 0,039986 0,092829 -0,454208 -0,068924 0,067266 0,066918 0,081965 0,295916 0,057659 0,059584 0,078991 0,054693 0,053389 -0,032679 0,053879 -0,031777 0,083999 -0,052023 0,039909 -0,435356 0,051815 0,052283 0,045829 0,065452 -1,726018 0,045172 0,049864 -0,056709 -0,056051 0,058674 0,049072 0,048597 0,056580 -0,392870 0,059086 -0,176939 0,055118 1,073857 0,052163 0,154476 0,049304 0,049188 -0,599547 0,048145 -0,621241 -0,026100 0,014710 0,015060 0,013168 0,012964 0,013007 0,012957 0,015153 0,551577 0,015846 0,015585 0,007905 0,007918 0,013200 0,611790 0,014007 0,014777 0,014853 0,013017 0,874711 0,013363 0,013992 0,019060 0,013436 0,013358 0,008423 0,014158 0,008379 0,015916 0,617146 0,007920 0,675521 0,014484 0,015527 0,013674 0,014882 1,129423 0,013603 0,015245 0,017532 0,017484 0,018400 0,015520 0,015505 0,018259 0,129356 0,014047 0,450466 0,013444 1,103680 0,018136 0,054400 0,017957 0,015647 0,380591 0,015275 0,391191 0,010688 1 1 1 1 1 1 2 2 1 1 1 1 2 2 1 1 1 2 2 1 1 1 1 1 1 1 1 2 2 2 2 1 1 1 2 2 1 1 1 1 1 1 1 1 1 2 2 2 2 1 1 1 2 2 2 2 1 65,83 64,55 50,42 48,74 39,55 38,62 64,76 64,76 28,18 27,88 25,78 25,50 50,94 50,94 24,21 20,72 20,30 39,66 39,66 18,62 18,13 17,18 16,57 15,97 15,05 14,48 14,38 28,19 28,19 25,91 25,91 12,80 11,34 11,23 22,36 22,36 11,03 10,70 10,46 10,28 10,17 10,00 9,82 9,60 9,22 18,29 18,29 17,58 17,58 8,27 8,06 7,54 13,82 13,82 13,21 13,21 5,96 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 < 0,001 0,001 0,001 0,001 < 0,001 < 0,001 0,001 0,001 0,002 0,002 0,002 0,002 0,002 0,002 0,003 0,000 0,000 0,000 0,000 0,004 0,005 0,006 0,001 0,001 0,002 0,002 0,014 65,83 64,55 50,42 48,74 39,55 38,62 32,38 32,38 28,18 27,88 25,78 25,50 25,47 25,47 24,21 20,72 20,30 19,83 19,83 18,62 18,13 17,18 16,57 15,97 15,05 14,48 14,38 14,10 14,10 12,95 12,95 12,80 11,34 11,23 11,18 11,18 11,03 10,70 10,46 10,28 10,17 10,00 9,82 9,60 9,22 9,14 9,14 8,79 8,79 8,27 8,06 7,54 6,91 6,91 6,60 6,60 5,96 252 Tabela 38: Estimativas para nível 1 (Primeira Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL LI16B I16NEG LI25B I25NEG LI08B I08NEG LI17A LI04A LI03B I03NEG LI23A LI33B LI33A I26NEG LI14B LI14A I27NEG I06NEG ZPC3 I28NEG LI33B I33NEG LI14B I14NEG I24NEG I29POS LI07A LI29B I01NEG I31POS LI28B I28NEG I29NEG I29POS LI31B LI31A LI29B I29NEG LI29A I03NEG LI11A I19NEG I29NEG I18NEG I25NEG I30NEG I08NEG I13NEG LI15A LI13B I13NEG I05NEG I11POS LI10A I33NEG LI20A I14NEG LI13B I11NEG I11POS LI13A LI28A I16NEG LI12A 0,045801 -0,111491 0,060045 1,082172 -0,057106 -0,417458 -0,013622 -0,013455 0,053673 0,862819 0,011099 0,036331 0,036097 -0,748354 0,012868 0,012550 -0,707832 -1,960737 0,013639 -0,641422 0,036144 -0,607864 0,013015 0,319194 -0,743700 0,073826 -0,011560 0,028156 -0,744430 0,069463 -0,002846 -0,645119 0,430202 0,078193 0,009945 0,009620 0,029475 0,419237 0,022139 0,710875 0,012041 0,965214 0,386824 -0,348625 0,866265 -0,491864 -0,363089 0,337187 0,004987 0,006990 0,368466 -0,356928 0,034382 0,002859 -0,687422 0,006173 0,276306 0,005888 0,010757 0,034729 0,004297 0,004677 -0,210117 -0,000735 0,013677 1,229609 0,018443 1,127465 0,017540 0,547482 0,005920 0,005907 0,018182 0,809784 0,005113 0,017213 0,017181 0,377780 0,006890 0,006829 0,390167 1,129056 0,008157 0,397227 0,017218 1,432528 0,006896 0,600083 0,549629 0,057342 0,009210 0,022750 0,612571 0,059393 0,017198 0,397834 0,447550 0,057523 0,008739 0,008727 0,022796 0,447124 0,022219 0,808545 0,013736 1,104626 0,446374 0,447471 1,126175 0,675616 0,546837 0,532512 0,008440 0,013387 0,535870 0,615456 0,060081 0,005016 1,432210 0,013051 0,599797 0,013295 0,134210 0,060236 0,012821 0,016352 1,229440 0,004621 2 2 2 2 2 2 1 1 2 2 1 1 1 1 1 1 1 1 1 1 2 2 2 2 1 1 1 1 1 1 2 2 2 2 1 1 2 2 1 1 1 1 1 1 1 1 1 1 1 2 2 1 1 1 1 1 1 1 2 2 1 1 1 1 11,24 11,24 11,19 11,19 11,04 11,04 5,29 5,19 9,48 9,48 4,71 4,46 4,41 3,92 3,49 3,38 3,29 3,02 2,80 2,61 4,64 4,64 3,78 3,78 1,83 1,66 1,58 1,53 1,48 1,37 2,64 2,64 2,60 2,60 1,30 1,22 2,42 2,42 0,99 0,77 0,77 0,76 0,75 0,61 0,59 0,53 0,44 0,40 0,35 0,67 0,67 0,34 0,33 0,32 0,23 0,22 0,21 0,20 0,33 0,33 0,11 0,08 0,03 0,03 0,004 0,004 0,004 0,004 0,004 0,004 0,020 0,021 0,009 0,009 0,028 0,033 0,033 0,045 0,058 0,063 0,066 0,079 0,090 0,102 0,096 0,096 0,149 0,149 0,172 0,195 0,207 0,213 0,222 0,240 0,267 0,267 0,272 0,272 0,254 0,270 0,297 0,297 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 5,62 5,62 5,59 5,59 5,52 5,52 5,29 5,19 4,74 4,74 4,71 4,46 4,41 3,92 3,49 3,38 3,29 3,02 2,80 2,61 2,32 2,32 1,89 1,89 1,83 1,66 1,58 1,53 1,48 1,37 1,32 1,32 1,30 1,30 1,30 1,22 1,21 1,21 0,99 0,77 0,77 0,76 0,75 0,61 0,59 0,53 0,44 0,40 0,35 0,34 0,34 0,34 0,33 0,32 0,23 0,22 0,21 0,20 0,17 0,17 0,11 0,08 0,03 0,03 253 Tabela 38: Estimativas para nível 1 (Primeira Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL I32NEG ZPC4 LI28B I11NEG 0,095788 0,000579 -0,001269 0,005189 0,877061 0,005615 0,017177 0,133856 1 1 1 1 0,01 0,01 0,01 0,00 >0,5 >0,5 >0,5 >0,5 0,01 0,01 0,01 0,00 Tabela 39: Estimativas para nível 1 (Segunda Rodada) (continua) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL LI04A LI22A ZPC2 LI21A LI07A LI26B LI28B LI28A LI25A LI25B LI13A LI13B LI26A LI17A I31POS LI09B LI09A LI05A LI05B LI31A LI31B Rural LI26B I26NEG LI28B I28NEG I29POS I09POS LI23A LI25B I25NEG I06NEG LI03A LI13B I13NEG LI29A LI03B LI06B I06NEG LI12A LI05B I05NEG ZPC4 LI06A LI29B I29NEG I29POS LI06B LI03B I03NEG -0,018450 -0,025032 -0,039031 -0,023069 -0,025908 -0,050958 -0,042446 -0,038990 -0,054560 -0,053309 -0,027427 -0,027782 -0,038526 -0,011785 -0,115048 0,030497 0,030029 0,031629 0,031924 -0,015471 -0,015286 -0,227576 -0,050960 0,001154 -0,042489 -0,097297 -0,096614 0,092032 0,008577 -0,052080 0,958033 -1,724590 -0,031189 -0,026888 0,264130 -0,031684 -0,029080 0,017634 -1,663172 -0,006230 0,031393 -0,185867 0,011320 0,019901 -0,028393 0,197159 -0,094500 0,019186 -0,027630 0,756272 0,006022 0,008572 0,014081 0,008533 0,009662 0,021037 0,017869 0,017136 0,024148 0,024371 0,013349 0,013844 0,019475 0,006002 0,059139 0,015692 0,015677 0,017147 0,017487 0,008680 0,008688 0,129695 0,021058 0,396235 0,017870 0,411701 0,057492 0,055147 0,005181 0,024413 1,143514 1,131798 0,021169 0,013958 0,537924 0,022329 0,021404 0,016012 1,132772 0,004728 0,017577 0,624976 0,008827 0,015889 0,022797 0,448126 0,057687 0,015979 0,021458 0,818686 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 1 1 1 2 2 1 1 2 2 1 1 2 2 1 2 2 1 1 1 2 2 1 2 2 9,39 8,53 7,68 7,31 7,19 5,87 5,64 5,18 5,10 4,78 4,22 4,03 3,91 3,86 3,78 3,78 3,67 3,40 3,33 3,18 3,10 3,08 5,87 5,87 5,70 5,70 2,82 2,79 2,74 5,43 5,43 2,32 2,17 4,25 4,25 2,01 1,85 3,54 3,54 1,74 3,42 3,42 1,64 1,57 1,55 3,01 3,01 1,44 2,67 2,67 0,003 0,004 0,014 0,007 0,007 0,015 0,017 0,022 0,022 0,027 0,037 0,042 0,045 0,047 0,049 0,049 0,052 0,062 0,064 0,071 0,075 0,075 0,052 0,052 0,056 0,056 0,089 0,091 0,094 0,064 0,064 0,123 0,137 0,117 0,117 0,152 0,171 0,168 0,168 0,184 0,178 0,178 0,197 0,208 0,210 0,221 0,221 0,228 0,263 0,263 9,39 8,53 7,68 7,31 7,19 5,87 5,64 5,18 5,10 4,78 4,22 4,03 3,91 3,86 3,78 3,78 3,67 3,40 3,33 3,18 3,10 3,08 2,93 2,93 2,85 2,85 2,82 2,79 2,74 2,72 2,72 2,32 2,17 2,12 2,12 2,01 1,85 1,77 1,77 1,74 1,71 1,71 1,64 1,57 1,55 1,50 1,50 1,44 1,33 1,33 254 Tabela 39: Estimativas para nível 1 (Segunda Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL LI15A LI16B I03NEG LI16A LI29B I29NEG I25NEG LI08B LI08A ZPC3 LI32B LI08B I08NEG LI32A LI01B LI27B LI10A I13NEG I18NEG I19NEG LI16B I16NEG LI01A LI01B I01NEG LI14B LI14A LI27A I30NEG LI32B I32NEG I08NEG I29NEG LI19B I19NEG LI27B I27NEG LI18B I18NEG I05NEG LI14B I14NEG I01NEG I11POS LI20A I11NEG I11POS LI18A I33NEG LI11A LI19B LI33B I33NEG I27NEG LI33A I11NEG LI33B LI19A I14NEG LI18B I28NEG I26NEG I32NEG I16NEG -0,009514 0,014789 0,820431 0,014255 -0,027637 0,220835 1,073105 -0,018791 -0,018439 -0,012073 0,013762 -0,019352 -0,347275 0,012704 0,015310 -0,012240 -0,003805 0,391879 0,343466 0,801659 0,014787 -0,004598 0,012956 0,015203 -0,286617 -0,004547 -0,004424 -0,009949 -0,409126 0,013826 0,072274 -0,323565 0,254431 0,004831 0,812350 -0,012205 -0,115135 -0,003705 0,343362 -0,300665 -0,004477 0,133370 -0,294273 -0,023723 -0,004991 -0,040284 -0,025053 -0,005143 -0,490270 0,004624 0,004451 -0,004886 -0,497797 -0,117252 -0,004926 -0,036213 -0,004770 0,003692 0,149892 -0,003733 -0,087171 -0,043211 0,037288 -0,038063 0,009023 0,014451 0,815901 0,014368 0,022848 0,447642 1,138736 0,019982 0,019877 0,013244 0,016207 0,020000 0,547045 0,016111 0,019431 0,016376 0,005150 0,534139 0,470640 1,106920 0,014456 1,230912 0,018995 0,019437 0,629835 0,007080 0,007018 0,015825 0,676950 0,016225 0,873971 0,547042 0,446842 0,014207 1,107275 0,016377 0,407469 0,015470 0,470866 0,622568 0,007087 0,602234 0,633045 0,060581 0,013271 0,134817 0,060745 0,015014 1,448257 0,013845 0,014197 0,018134 1,448891 0,406983 0,018099 0,134456 0,018131 0,014117 0,601646 0,015470 0,411217 0,393454 0,872974 1,230473 1 1 1 1 2 2 1 1 1 1 1 2 2 1 1 1 1 1 1 1 2 2 1 2 2 1 1 1 1 2 2 1 1 2 2 2 2 2 2 1 2 2 1 1 1 2 2 1 1 1 1 2 2 1 1 1 1 1 1 1 1 1 1 1 1,11 1,05 1,01 0,98 1,79 1,79 0,89 0,88 0,86 0,83 0,72 1,29 1,29 0,62 0,62 0,56 0,55 0,54 0,53 0,52 1,05 1,05 0,47 0,83 0,83 0,41 0,40 0,40 0,37 0,73 0,73 0,35 0,32 0,64 0,64 0,64 0,64 0,59 0,59 0,23 0,46 0,46 0,22 0,15 0,14 0,24 0,24 0,12 0,11 0,11 0,10 0,19 0,19 0,08 0,07 0,07 0,07 0,07 0,06 0,06 0,04 0,01 0,00 0,00 0,292 0,307 0,316 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 1,11 1,05 1,01 0,98 0,89 0,89 0,89 0,88 0,86 0,83 0,72 0,64 0,64 0,62 0,62 0,56 0,55 0,54 0,53 0,52 0,52 0,52 0,47 0,41 0,41 0,41 0,40 0,40 0,37 0,36 0,36 0,35 0,32 0,32 0,32 0,32 0,32 0,29 0,29 0,23 0,23 0,23 0,22 0,15 0,14 0,12 0,12 0,12 0,11 0,11 0,10 0,09 0,09 0,08 0,07 0,07 0,07 0,07 0,06 0,06 0,04 0,01 0,00 0,00 255 Tabela 40: Estimativas para nível 1 (Terceira Rodada) (continua) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL LI10A LI12A LI13B LI13A LI07A I31POS ZPC2 LI31A LI31B LI13B I13NEG I29POS LI25A LI25B Rural LI09B LI09A LI29A I11NEG LI29B I29NEG I29POS I06NEG I09POS LI25B I25NEG LI08B LI08A LI03A LI11A LI15A LI16B LI16A LI03B LI17A ZPC3 ZPC4 LI08B I08NEG I11NEG I11POS LI29B I29NEG LI03B I03NEG LI06B I06NEG I03NEG LI28B LI28A I25NEG I18NEG LI16B I16NEG LI18B I18NEG LI01A LI28B I28NEG LI23A I19NEG I08NEG 0,055774 0,050263 -0,044713 -0,042488 -0,024020 -0,134592 -0,032399 -0,019425 -0,019248 -0,044433 0,068358 -0,119397 -0,047329 -0,045994 -0,235236 0,028374 0,027889 -0,037850 -0,228339 -0,034519 0,199343 -0,117289 -1,679574 0,081020 -0,044772 0,953955 -0,028713 -0,028075 -0,028691 0,020040 -0,011936 0,018939 0,018336 -0,026395 -0,008204 -0,015554 0,010599 -0,029412 -0,412778 -0,228416 0,010443 -0,033735 0,228353 -0,024835 0,799994 0,004490 -1,664007 0,857854 -0,019733 -0,018240 1,051232 0,432997 0,018936 -0,004482 0,010660 0,437301 -0,016266 -0,019783 -0,057622 0,003911 0,772515 -0,375084 0,011737 0,012393 0,014624 0,014083 0,009702 0,058956 0,014203 0,008682 0,008690 0,014784 0,539573 0,057613 0,024334 0,024559 0,129063 0,015717 0,015701 0,022337 0,143673 0,022807 0,448692 0,057803 1,129694 0,055357 0,024601 1,144409 0,020105 0,020000 0,021281 0,014991 0,009042 0,014574 0,014487 0,021520 0,006721 0,013385 0,009129 0,020124 0,545592 0,143676 0,062614 0,022857 0,448206 0,021575 0,818901 0,016478 1,131071 0,816424 0,019336 0,018393 1,140072 0,471176 0,014579 1,231298 0,015936 0,470646 0,020771 0,019340 0,413277 0,005433 1,107012 0,545282 1 1 1 1 1 1 1 1 1 2 2 1 1 1 1 1 1 1 1 1 2 2 1 1 2 2 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 1 1 1 1 1 2 2 2 2 1 2 2 1 1 1 22,58 16,45 9,35 9,10 6,13 5,21 5,20 5,01 4,91 9,36 9,36 4,29 3,78 3,51 3,32 3,26 3,16 2,87 2,53 2,29 4,48 4,48 2,21 2,14 4,16 4,16 2,04 1,97 1,82 1,79 1,74 1,69 1,60 1,50 1,49 1,35 1,35 2,61 2,61 2,55 2,55 2,54 2,54 2,43 2,43 2,29 2,29 1,10 1,04 0,98 0,85 0,84 1,69 1,69 1,29 1,29 0,61 1,06 1,06 0,52 0,49 0,47 < 0,001 < 0,001 0,003 0,003 0,013 0,021 0,021 0,024 0,025 0,009 0,009 0,036 0,049 0,058 0,065 0,067 0,072 0,086 0,108 0,126 0,104 0,104 0,133 0,139 0,123 0,123 0,149 0,157 0,174 0,178 0,183 0,191 0,203 0,218 0,220 0,244 0,244 0,270 0,270 0,278 0,278 0,280 0,280 0,297 0,297 0,319 0,319 0,293 0,308 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 22,58 16,45 9,35 9,10 6,13 5,21 5,20 5,01 4,91 4,68 4,68 4,29 3,78 3,51 3,32 3,26 3,16 2,87 2,53 2,29 2,24 2,24 2,21 2,14 2,08 2,08 2,04 1,97 1,82 1,79 1,74 1,69 1,60 1,50 1,49 1,35 1,35 1,31 1,31 1,28 1,28 1,27 1,27 1,21 1,21 1,14 1,14 1,10 1,04 0,98 0,85 0,84 0,84 0,84 0,65 0,65 0,61 0,53 0,53 0,52 0,49 0,47 256 Tabela 40: Estimativas para nível 1 (Terceira Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL LI05A LI18B LI01B LI05B I29NEG LI14B LI14A I05NEG I13NEG LI27B LI05B I05NEG I30NEG LI19B I19NEG LI18A LI27A LI01B I01NEG LI14B I14NEG LI06A LI27B I27NEG I33NEG LI06B LI33B I33NEG LI20A LI21A I14NEG LI32A I27NEG I11POS I28NEG LI32B I01NEG LI32B I32NEG LI19A I32NEG I16NEG LI19B LI33B LI33A 0,012163 0,010422 -0,013600 0,011435 0,269170 -0,004235 -0,004119 -0,360553 0,304489 -0,009879 0,010332 -0,319001 -0,378679 -0,000151 0,772177 0,007265 -0,007714 -0,013568 -0,062179 -0,004163 0,133948 0,006997 -0,009894 -0,071075 -0,605003 0,006143 0,000290 -0,604595 -0,003581 -0,006678 0,149450 -0,002962 -0,069902 0,010146 -0,049845 -0,001901 -0,068540 -0,001858 0,047477 -0,001185 0,052015 -0,048918 -0,000522 0,000421 0,000309 0,018140 0,015932 0,021200 0,018548 0,447382 0,007099 0,007037 0,625552 0,534631 0,017414 0,018676 0,629626 0,678105 0,014274 1,107479 0,015389 0,016693 0,021205 0,649887 0,007107 0,602805 0,016343 0,017414 0,408471 1,456266 0,016441 0,018202 1,456491 0,013332 0,024947 0,602219 0,016732 0,408193 0,062614 0,413355 0,016833 0,645707 0,016851 0,874872 0,014186 0,873935 1,230736 0,014264 0,018198 0,018169 1 1 1 1 1 1 1 1 1 1 2 2 1 2 2 1 1 2 2 2 2 1 2 2 1 1 2 2 1 1 1 1 1 1 1 1 1 2 2 1 1 1 1 1 1 0,45 0,43 0,41 0,38 0,36 0,36 0,34 0,33 0,32 0,32 0,64 0,64 0,31 0,49 0,49 0,22 0,21 0,42 0,42 0,40 0,40 0,18 0,35 0,35 0,17 0,14 0,17 0,17 0,07 0,07 0,06 0,03 0,03 0,03 0,01 0,01 0,01 0,02 0,02 0,01 0,00 0,00 0,00 0,00 0,00 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 0,45 0,43 0,41 0,38 0,36 0,36 0,34 0,33 0,32 0,32 0,32 0,32 0,31 0,24 0,24 0,22 0,21 0,21 0,21 0,20 0,20 0,18 0,18 0,18 0,17 0,14 0,09 0,09 0,07 0,07 0,06 0,03 0,03 0,03 0,01 0,01 0,01 0,01 0,01 0,01 0,00 0,00 0,00 0,00 0,00 Tabela 41: Estimativas para nível 1 (Quarta Rodada) (continua) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL LI05A LI05B LI05B I05NEG I31POS LI31A LI31B ZPC2 LI06A 0,131428 0,136375 0,135679 -0,284560 -0,132694 -0,018861 -0,018705 -0,030641 0,041969 0,032618 0,033901 0,033963 0,658510 0,057244 0,008446 0,008453 0,014108 0,020342 1 1 2 2 1 1 1 1 1 16,23 16,18 16,35 16,35 5,37 4,99 4,90 4,72 4,26 < 0,001 < 0,001 0,001 0,001 0,019 0,024 0,025 0,028 0,037 16,23 16,18 8,18 8,18 5,37 4,99 4,90 4,72 4,26 257 Tabela 41: Estimativas para nível 1 (Quarta Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL I29POS LI06B LI09B LI09A LI11A LI06B I06NEG I09POS LI29A LI07A ZPC3 I29NEG I29POS LI29B Rural LI25A I06NEG I11NEG LI25B LI15A LI08B LI08A LI28B LI28A LI25B I25NEG LI08B I08NEG I11NEG I11POS LI29B I29NEG I03NEG ZPC4 I18NEG I25NEG LI03B I03NEG I08NEG LI03A LI28B I28NEG I19NEG LI17A I11POS LI23A LI16B LI03B LI16A LI01A LI18B I18NEG I05NEG I29NEG LI19B I19NEG LI01B LI16B I16NEG I30NEG LI21A LI20A LI01B I01NEG -0,115941 0,041339 0,030699 0,030202 0,028120 0,040028 -1,522512 0,092987 -0,036814 -0,015944 0,002584 0,207746 -0,113904 -0,033451 -0,188836 -0,036135 -1,601142 -0,200045 -0,034483 -0,012456 -0,025906 -0,025112 -0,022684 -0,021512 -0,033029 1,003551 -0,026668 -0,527453 -0,199824 0,050200 -0,032687 0,235213 0,906291 0,010242 0,463642 1,080954 -0,014879 0,869828 -0,497724 -0,019455 -0,022690 -0,006490 0,911090 -0,005453 0,050371 0,004302 0,011386 -0,016711 0,011066 -0,015424 0,002668 0,464792 -0,431965 0,273901 0,000056 0,911213 -0,012130 0,011292 -0,259165 -0,365312 -0,012588 -0,005958 -0,012144 0,055100 0,056285 0,020485 0,015626 0,015611 0,015042 0,020532 1,145625 0,054858 0,022045 0,009893 0,001686 0,448565 0,056454 0,022498 0,128424 0,024644 1,143082 0,144332 0,024903 0,009083 0,020125 0,020030 0,019386 0,018472 0,024956 1,141001 0,020139 0,547066 0,144339 0,063126 0,022545 0,448139 0,816988 0,009259 0,472415 1,137235 0,021775 0,819135 0,546687 0,021451 0,019388 0,413960 1,104815 0,006721 0,063127 0,005439 0,014708 0,021713 0,014622 0,020745 0,015937 0,472344 0,653639 0,447350 0,014219 1,105251 0,021185 0,014715 1,232215 0,679533 0,024996 0,013386 0,021184 0,654594 1 1 1 1 1 2 2 1 1 1 1 2 2 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 1 1 1 1 2 2 1 1 2 2 1 1 1 1 1 1 1 1 2 2 1 1 2 2 1 2 2 1 1 1 2 2 4,24 4,07 3,86 3,74 3,49 5,75 5,75 2,87 2,79 2,60 2,35 4,45 4,45 2,21 2,16 2,15 1,96 1,92 1,92 1,88 1,66 1,57 1,37 1,36 2,65 2,65 2,58 2,58 2,55 2,55 2,48 2,48 1,23 1,22 0,96 0,90 1,70 1,70 0,83 0,82 1,37 1,37 0,68 0,66 0,64 0,63 0,60 0,59 0,57 0,55 0,99 0,99 0,44 0,37 0,68 0,68 0,33 0,64 0,64 0,29 0,25 0,20 0,33 0,33 0,037 0,041 0,047 0,050 0,058 0,055 0,055 0,086 0,091 0,103 0,121 0,106 0,106 0,133 0,137 0,139 0,158 0,162 0,162 0,167 0,195 0,207 0,240 0,242 0,265 0,265 0,274 0,274 0,278 0,278 0,289 0,289 0,266 0,268 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 4,24 4,07 3,86 3,74 3,49 2,87 2,87 2,87 2,79 2,60 2,35 2,22 2,22 2,21 2,16 2,15 1,96 1,92 1,92 1,88 1,66 1,57 1,37 1,36 1,33 1,33 1,29 1,29 1,28 1,28 1,24 1,24 1,23 1,22 0,96 0,90 0,85 0,85 0,83 0,82 0,68 0,68 0,68 0,66 0,64 0,63 0,60 0,59 0,57 0,55 0,50 0,50 0,44 0,37 0,34 0,34 0,33 0,32 0,32 0,29 0,25 0,20 0,17 0,17 258 Tabela 41: Estimativas para nível 1 (Quarta Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL I33NEG LI33B I33NEG LI27B LI32A LI14B LI14A LI14B I14NEG I16NEG I14NEG LI32B LI27B I27NEG LI27A LI32B I32NEG I27NEG LI18B LI33B LI33A I32NEG LI12A LI19A I01NEG LI19B LI18A I28NEG -0,544466 0,002459 -0,540670 -0,004721 -0,004383 -0,001909 -0,001830 -0,001842 0,130885 -0,289257 0,137185 -0,003280 -0,004728 -0,014994 -0,002954 -0,003193 0,096126 -0,064106 0,002398 0,002588 0,002416 0,103936 0,002189 -0,001184 0,051831 -0,000379 -0,000381 0,000090 1,438032 0,018218 1,438174 0,017473 0,016526 0,007208 0,007143 0,007214 0,599204 1,231510 0,598659 0,016625 0,017475 0,409737 0,016730 0,016643 0,874889 0,408367 0,015932 0,018214 0,018181 0,873981 0,025330 0,014127 0,651016 0,014209 0,015379 0,414102 1 2 2 1 1 1 1 2 2 1 1 1 2 2 1 2 2 1 1 1 1 1 1 1 1 1 1 1 0,14 0,16 0,16 0,07 0,07 0,07 0,07 0,12 0,12 0,06 0,05 0,04 0,07 0,07 0,03 0,05 0,05 0,02 0,02 0,02 0,02 0,01 0,01 0,01 0,01 0,00 0,00 0,00 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 0,14 0,08 0,08 0,07 0,07 0,07 0,07 0,06 0,06 0,06 0,05 0,04 0,04 0,04 0,03 0,03 0,03 0,02 0,02 0,02 0,02 0,01 0,01 0,01 0,01 0,00 0,00 0,00 Tabela 42: Estimativas para nível 1 (Quinta Rodada) (continua) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL I31POS LI31A LI31B ZPC3 I29POS LI09B LI09A LI25A LI11A LI25B LI07A I09POS LI29A LI15A Rural I29NEG I29POS LI29B LI25B I25NEG LI28B I08NEG I11NEG LI28A LI03A I11NEG -0,140860 -0,020018 -0,019865 -0,031945 -0,124371 0,032419 0,031907 -0,050243 0,029959 -0,048984 -0,018365 0,099966 -0,038660 -0,015069 -0,208007 0,206081 -0,122435 -0,035249 -0,047529 0,938157 -0,027133 -0,766864 -0,191695 -0,024448 -0,028296 -0,191267 0,056808 0,008382 0,008388 0,013951 0,055930 0,015626 0,015611 0,025011 0,015040 0,025277 0,009969 0,054801 0,021958 0,009140 0,127672 0,450484 0,056087 0,022407 0,025335 1,140531 0,019407 0,572071 0,144502 0,018468 0,021639 0,144507 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 1 2 2 1 1 1 1 1 2 6,15 5,70 5,61 5,24 4,94 4,30 4,18 4,04 3,97 3,76 3,39 3,33 3,10 2,72 2,65 5,14 5,14 2,47 4,38 4,38 1,95 1,80 1,76 1,75 1,71 2,92 0,013 0,016 0,017 0,021 0,025 0,036 0,038 0,042 0,044 0,050 0,062 0,065 0,074 0,095 0,099 0,074 0,074 0,112 0,110 0,110 0,158 0,177 0,181 0,182 0,188 0,231 6,15 5,70 5,61 5,24 4,94 4,30 4,18 4,04 3,97 3,76 3,39 3,33 3,10 2,72 2,65 2,57 2,57 2,47 2,19 2,19 1,95 1,80 1,76 1,75 1,71 1,46 259 Tabela 42: Estimativas para nível 1 (Quinta Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL I11POS I06NEG LI08B I08NEG LI03B LI29B I29NEG I03NEG LI03B I03NEG I11POS LI01A LI28B I28NEG LI17A LI08B I19NEG LI08A I25NEG LI01B ZPC4 LI06B I06NEG LI19B I19NEG LI23A I18NEG LI32A LI01B I01NEG LI27B LI14B LI14A I29NEG LI32B LI20A LI18B I18NEG LI27B I27NEG LI19A LI14B I14NEG LI18A LI27A I33NEG LI32B I32NEG LI19B LI18B I27NEG LI21A LI33B I33NEG I14NEG I28NEG I16NEG LI33A LI33B LI16B I16NEG LI12A I32NEG I01NEG 0,068200 -1,407027 -0,020870 -0,784406 -0,025703 -0,034507 0,235748 0,922290 -0,023827 0,862214 0,068429 -0,021807 -0,027204 -0,092466 -0,006750 -0,020060 1,092085 -0,018836 1,055665 -0,019521 0,007679 -0,000171 -1,407189 -0,005602 1,082080 0,003959 0,328360 -0,010923 -0,019507 -0,046125 -0,011278 -0,004614 -0,004489 0,276084 -0,009957 -0,007702 -0,006146 0,324071 -0,011355 -0,148507 -0,006952 -0,004538 0,152002 -0,007429 -0,007775 -0,612332 -0,009906 0,055144 -0,006053 -0,006429 -0,145372 -0,008726 -0,002918 -0,617059 0,166990 -0,083294 -0,204289 -0,002895 -0,002761 0,000449 -0,203232 -0,002484 0,079680 -0,051627 0,063371 1,169523 0,020195 0,571800 0,021908 0,022452 0,450122 0,819818 0,021974 0,822118 0,063372 0,020797 0,019410 0,412621 0,006759 0,020186 1,109384 0,020118 1,135618 0,021249 0,008830 0,023746 1,169739 0,014248 1,110027 0,005448 0,470512 0,016555 0,021251 0,648333 0,017530 0,007251 0,007186 0,449420 0,016653 0,013429 0,016033 0,470935 0,017531 0,406187 0,014160 0,007257 0,601582 0,015425 0,016762 1,431517 0,016672 0,874279 0,014240 0,016026 0,405967 0,025031 0,018281 1,431947 0,600925 0,412783 1,229680 0,018244 0,018277 0,015009 1,230192 0,025313 0,873431 0,643173 2 1 2 2 1 2 2 1 2 2 1 1 2 2 1 1 1 1 1 1 1 2 2 2 2 1 1 1 2 2 1 1 1 1 1 1 2 2 2 2 1 2 2 1 1 1 2 2 1 1 1 1 2 2 1 1 1 1 1 2 2 1 1 1 2,92 1,45 2,87 2,87 1,38 2,74 2,74 1,27 2,44 2,44 1,17 1,10 2,00 2,00 1,00 0,99 0,97 0,88 0,86 0,84 0,76 1,45 1,45 1,12 1,12 0,53 0,49 0,44 0,85 0,85 0,41 0,40 0,39 0,38 0,36 0,33 0,63 0,63 0,55 0,55 0,24 0,47 0,47 0,23 0,22 0,18 0,36 0,36 0,18 0,16 0,13 0,12 0,21 0,21 0,08 0,04 0,03 0,03 0,02 0,03 0,03 0,01 0,01 0,01 0,231 0,227 0,237 0,237 0,239 0,253 0,253 0,259 0,295 0,295 0,280 0,295 0,368 0,368 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 1,46 1,45 1,43 1,43 1,38 1,37 1,37 1,27 1,22 1,22 1,17 1,10 1,00 1,00 1,00 0,99 0,97 0,88 0,86 0,84 0,76 0,72 0,72 0,56 0,56 0,53 0,49 0,44 0,42 0,42 0,41 0,40 0,39 0,38 0,36 0,33 0,32 0,32 0,27 0,27 0,24 0,23 0,23 0,23 0,22 0,18 0,18 0,18 0,18 0,16 0,13 0,12 0,10 0,10 0,08 0,04 0,03 0,03 0,02 0,01 0,01 0,01 0,01 0,01 260 Tabela 42: Estimativas para nível 1 (Quinta Rodada) (continuação) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL LI06A LI16B LI16A LI06B 0,001336 0,000519 0,000256 0,000256 0,023590 0,015003 0,014917 0,023730 1 1 1 1 0,00 0,00 0,00 0,00 >0,5 >0,5 >0,5 >0,5 0,00 0,00 0,00 0,00 Tabela 43: Estimativas para nível 2 (Primeira Rodada) Variável Estimativa Erro Padrão Graus de Liberdade (GL) Estatística χ2 Nível Descritivo Estatística χ2/GL VrPerc99 agropecagr indagr comagr export ZLBRUTO ZBCCSLL ZRBCOF ZRBPISP ZBCPISP ZBCCOF ZRECLIQ ZLREAL ZLACSLL ZLOPER Inform VrPerc98 -0,046706 -0,706023 -0,147411 0,008347 -0,177855 -0,058072 0,058079 -0,055577 -0,055449 -0,054685 -0,054510 -0,054224 0,045799 -0,037832 -0,035489 0,018192 -0,002232 0,012977 0,140856 0,067300 0,090957 0,070496 0,050829 0,056518 0,055024 0,055056 0,054740 0,054727 0,055445 0,056405 0,063766 0,062700 0,070805 0,010615 1 3 3 3 1 1 1 1 1 1 1 1 1 1 1 1 1 12,95 29,74 29,74 29,74 6,37 1,31 1,06 1,02 1,01 1,00 0,99 0,96 0,66 0,35 0,32 0,07 0,04 < 0,001 < 0,001 < 0,001 < 0,001 0,011 0,252 0,305 0,313 0,315 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 >0,5 12,95 9,91 9,91 9,91 6,37 1,31 1,06 1,02 1,01 1,00 0,99 0,96 0,66 0,35 0,32 0,07 0,04 261 APÊNDICE L – Comandos do R Project for Statistical Computing para Estimação do MLGH2_Final Obs: Antes de serem utilizados os comandos abaixo devem ser carregados previamente os pacotes MASS e nlme e alterado o diretório padrão do R console para a pasta contendo a base de dados de trabalho. Comandos: #Importa dados da MinhaBasedeDados.dat ou MinhaBasedeDados.txt (arquivos de texto separados por tabulações possuindo vírgula como delimitador de decimais e nomes das variáveis no cabeçalho); observação: na base de dados as variáveis de nível 2 têm de ser repetidas para cada um dos registros de nível 1# MeuArquivo=read.table("MinhaBasedeDados.dat", header=TRUE, sep="", dec=","); #Cria um dataframe# MeuDataFrame=data.frame(MeuArquivo); #Estima modelo condicional para níveis 1 e 2 # MLGH2_Final<glmmPQL(AUT~EXPORT*1+VRPERC99*1+LI02A+LI04A+LI10A+LI11A+LI13B+LI05 A+LI24A+LI22A+LI26B+LI25A+LI30A+ZPC1+ZPC2,random=~1|GRUPO, family=binomial, data=MeuDataFrame); #Visualização das estimativas# summary(MLGH2_Final); #Intervalos de confiança de 95% para efeitos fixos e componentes de variância# intervals(MLGH2_Final); #Lista efeitos aleatórios preditos para o nível 2# random.effects(MLGH2_Final); #Cria dataframe de efeitos aleatórios preditos para o nível 2# r=data.frame(random.effects(MLGH2_Final)); 262 #Gráfico de probabilidade Normal para os efeitos aleatórios preditos para o nível 2# qqnorm(r$X.Intercept, datax=T, main="", xlab=" Quantis Teóricos", ylab=" Resíduos"); #Teste de normalidade shapiro-wilk para efeitos aleatórios preditos para o nível 2# shapiro.test(r$X.Intercept); #Previsões para novas observações# predict(MLGH2_Final, newdata=MinhaNovaBasedeDados);