UNIVERSIDADE FEDERAL DE SANTA CATARINA
DEPARTAMENTO DE ENGENHARIA DE PRODUÇÃO E SISTEMAS
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA
DE PRODUÇÃO
ALEXANDRE SERRA BARRETO
PREVISÃO DE COMPORTAMENTO E CLASSIFICAÇÃO DE
CONTRIBUINTES TRIBUTÁRIOS: UMA ABORDAGEM POR
MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS
Tese de Doutorado
FLORIANÓPOLIS
2005
ALEXANDRE SERRA BARRETO
PREVISÃO DE COMPORTAMENTO E CLASSIFICAÇÃO DE
CONTRIBUINTES TRIBUTÁRIOS: UMA ABORDAGEM POR
MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS
Tese de Doutorado Apresentada ao
Programa de Pós-Graduação em Engenharia de Produção
da Universidade Federal de Santa Catarina
como requisito parcial para obtenção
do Grau de Doutor em Engenharia de Produção
Orientador: Aran Bey Tcholakian Morales, Dr.
Co-Orientador: Dalton Francisco de Andrade, PhD.
FLORIANÓPOLIS
2005
ALEXANDRE SERRA BARRETO
PREVISÃO DE COMPORTAMENTO E CLASSIFICAÇÃO DE
CONTRIBUINTES TRIBUTÁRIOS: UMA ABORDAGEM POR
MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS
Esta Tese foi julgada e aprovada para a obtenção do grau de Doutor
em Engenharia de Produção no Programa de Pós-Graduação em
Engenharia de Produção da Universidade Federal de Santa Catarina
Florianópolis, 16 de setembro de 2005
______________________________________________
Edson P. Paladini
Coordenador do Programa
BANCA EXAMINADORA
____________________________________
____________________________________
Prof. Aran Bey Tcholakian Morales, Dr.
Prof. Dalton Francisco de Andrade, PhD.
UFSC
UFSC
(Orientador)
(Co-Orientador)
____________________________________
_____________________________________
Profa. Maria Inés Castiñeira, Dra.
Prof. Antonio Cezar Bornia, Dr.
Unisul
UFSC
(Moderadora)
_____________________________________
____________________________________
Prof. José Afonso Mazzon, Dr.
Prof. João Luiz Alkaim, Dr.
USP
Unisul
(Examinador Externo)
(Examinador Externo)
Dedicatória
À minha mãe, Profa. Sylvia Serra Barreto, pelo,
carinho, incentivo, orações e lições concedidas.
Ao meu pai, prof. Fernando Barreto, por proporcionar as
bases para minha formação acadêmica.
Agradecimentos
A Deus e a Jesus Cristo, que me guiaram durante a realização desta pesquisa.
Meu especial agradecimento ao Prof. Aran Bey Tcholakian Morales, pela
orientação científica constante e segura e pela confiança sempre depositada nesta
pesquisa.
Ao Prof. Dalton Francisco de Andrade, minha especial gratidão, pela atenção,
incentivo e valiosa co-orientação do trabalho; e por nossos seminários em métodos
estatísticos realizados no INE/UFSC.
Aos professores membros da banca examinadora desta tese pela contribuição
ao aperfeiçoamento deste trabalho.
Meu muito especial agradecimento ao ex-Secretário da Receita Federal, Dr.
Everardo Maciel; ao Secretário da Receita Federal, Dr. Jorge Antônio Deher Rachid;
e à Comissão de Pós-Graduação da SRF formada pelo Dr. Moacir das Dores, Dr.
Márcio Ferreira Verdi, Dra. Luciana M. Sabino de Freitas Cussi e Dr. Carlos Alberto
Barreto, pela concessão da inestimável oportunidade profissional e de pesquisa.
À Coordenadora-Geral da COSIT/SRF, Dra. Josefa Maria Coelho Marques; ao
Coordenador da DICOR/COTEC/SRF, Dr. Márcio R. Nogueira; ao CoordenadorGeral da COFIS/SRF, Dr. Marcelo Fisch B. Menezes; à Auditora-Fiscal da Receita
Federal Helena Martha Graever de Medeiros e ao Analista do SERPRO Marco
Antônio Lopes, pelo apoio proporcionado a este trabalho.
Ao Prof. Paulo José Ogliari, do INE/UFSC, por sua amizade, disciplinas
ministradas, livros disponibilizados e divertidas conversas sobre estatística.
À Universidade Federal de Santa Catarina, ao Programa de Pós-Graduação em
Engenharia de Produção, ao Programa de Pós-Graduação em Ciências da
Computação e, particularmente, aos professores José Leomar Todesco, Miguel
Angel Verdinelli, Hugo César Hoeschl, Silvia Modesto Nassar, Robert Wayne
Samohyl e Pedro Alberto Barbetta, pelas possibilidades de expansão de
pensamentos, disciplinas ministradas e oportunidades de aprendizado propiciadas
ao longo desta caminhada.
Ao meu amigo Márcio Cruvinel, Engenheiro Eletricista e Auditor-Fiscal da
Receita Federal em Brasília, pela abertura de caminhos às minhas idéias.
Agradeço também a todos os meus colegas da UFSC durante o período de
doutorado, especialmente a Damaris Fanderuff, Juliano Anderson Pacheco, Marcelo
Buscioli Tenório, Renato Corrêa Vieira, Rubson Rocha e Patrícia Bonina Zimath,
pela amizade e agradável convívio durante o período de pós-graduação em
Florianópolis.
Aos meus padrinhos Beatriz e Milton Ribeiro, pelas orações nos momentos
importantes.
Aos meus amigos e irmãos no Rio de Janeiro, Júlio Cezar Ferreira de Mello,
Marcelo Oliveira Brandão e Luiz Phillipe Lameirão Côrtes, pela amizade e
fraternidade de há muitos anos, mesmo à distância, tão importante nos longos
períodos de reflexão e isolamento.
Por fim, agradeço simbolicamente às cidades e ao povo de Florianópolis-SC,
Brasília-DF e Rio de Janeiro-RJ, nas quais esta pesquisa pôde ser proposta,
viabilizada e executada.
Epígrafe
“Já conhecemos as leis que determinam o comportamento
da matéria sob todas as condições, à exceção das mais extremas.
Particularmente conhecemos as leis básicas que perpassam toda a
química e a biologia. Certamente ainda não reduzimos estes temas ao
status de problemas resolvidos; temos, ainda assim, obtido pequeno
sucesso, por enquanto, na previsão do comportamento humano a partir
de equações matemáticas! Assim, mesmo se de fato encontramos um
conjunto completo de leis básicas, ainda estará projetada nos anos
posteriores a intelectualmente lendária tarefa de desenvolver melhores
métodos de aproximação, a fim de que possamos fazer previsões úteis
quanto aos prováveis comportamentos das situações reais complexas.
Uma teoria completa, consistente, unificada é apenas o primeiro passo:
nosso objetivo é a completa compreensão dos eventos à nossa volta e de
nossa própria existência.”
Stephen W. Hawking
Resumo
BARRETO, Alexandre Serra. Previsão de Comportamento e Classificação de
Contribuintes Tributários: Uma Abordagem por Modelos Lineares Generalizados
Hierárquicos. 2005. 262f. Tese (Doutorado em Engenharia de Produção) - Programa
de Pós-Graduação em Engenharia de Produção, UFSC, Florianópolis.
No contexto atual da administração tributária, é requisitado o controle, a curto,
médio e longo prazo, dos níveis de arrecadação de tributos e contribuições
administrados. Para que um determinado nível de arrecadação seja mantido, ou
elevado, é preciso que exista um sistema tributário estabelecido e um processo de
fiscalização permanentemente exercendo certa pressão sobre os contribuintes. A
condução desse processo é uma das atribuições regimentais das agências
tributárias e também, portanto, da Secretaria da Receita Federal, e possui como
uma de suas principais tarefas a seleção de contribuintes para fiscalização. Esta
apresenta como um dos elementos complicadores o inevitável tempo decorrido
entre o cometimento de uma infração por parte de um contribuinte e sua efetiva
detecção pela agência tributária. No que se refere à seleção de contribuintes
pessoas jurídicas, deve-se reconhecer que estes se dedicam a certas atividades
econômicas que contam com características econômico-setoriais próprias, o que
sugere que as medidas tomadas a partir de contribuintes pertencentes a um mesmo
setor de atividades econômicas tendem a ser mais parecidas entre si do que
medidas tomadas a partir de contribuintes participantes de setores econômicos
distintos, hipótese que, em se confirmando, ocasiona a correlação das observações
intra-setores. Assim, esta pesquisa propõe um novo método de classificação e
seleção de contribuintes para fiscalização, fundamentado na previsão de seus
comportamentos tributários por meio de Modelos Lineares Generalizados
Hierárquicos, que efetivamente considera e avalia, de forma sistematizada, a
correlação de medidas existente intra-setores de atividades econômicas. Os dados
de trabalho são os relacionados ao principal método de seleção de contribuintes da
Secretaria da Receita Federal e às auditorias assim deflagradas. A partir da
estimação dos modelos propostos e da utilização de variáveis preditoras individuais
de contribuintes e também de setores econômicos, foram devidamente
quantificadas e explicadas as fontes de variabilidade nas respostas de interesse
tributário aqui enfocadas. Por fim, os modelos foram aplicados à classificação de
contribuintes e avaliados, em termos de capacidade preditiva, pela estimação de
suas medidas de validade interna. Os principais resultados alcançados pela
condução da pesquisa foram: a agregação de conhecimento no que concerne a
dinâmica que rege o comportamento tributário de contribuintes e de setores
econômicos, subsidiando a formulação de políticas fiscais; a consideração, de forma
sistematizada, da correlação de medidas intra-setores econômicos, assim como a
explicação parcial da variabilidade aferida a partir dessa sistematização, em termos
da proposição de métodos para seleção de contribuintes para fiscalização; a
especificação de um novo método de seleção de contribuintes para fiscalização que
confere uma maior agilidade de ação à fiscalização tributária.
Palavras Chave: previsão, classificação, impostos, modelos lineares generalizados
hierárquicos.
Abstract
BARRETO, Alexandre Serra. Previsão de Comportamento e Classificação de
Contribuintes Tributários: Uma Abordagem por Modelos Lineares Generalizados
Hierárquicos. 2005. 262f. Tese (Doutorado em Engenharia de Produção) - Programa
de Pós-Graduação em Engenharia de Produção, UFSC, Florianópolis.
In the tributary context it is required the planning and control of taxes collection.
In order to maintain and eventually increase a reached public collection level it is
necessary an established taxation system and an audit enforcement permanently in
activity. This process is sponsored by tax agencies and has as a crucial task to
select taxpayers for audit proposals, which is challenged by the unavoidable time
gap between the occurrence of a taxpayer’s infraction and its effective detection by
the agency. With respect to corporate taxpayers it is intuitive that taxpayers
belonging to the same economic sector must be more similar than others dedicated
to different economic sectors and this assumption may cause intra-sector correlated
observations. This should be evaluated by the researcher while proposing nonrandomized taxpayer selection methods. Thus the actual research proposes a new
method to classify and select corporate taxpayers based in their tax compliance
behavior predicted by Hierarchical Generalized Linear Models, concerning and
assessing the existence of intra-sector correlated measures. The focused database
belongs to Brazilian tax agency called Secretaria da Receita Federal and is related
to its regular taxpayer selection method and subsequent audits. By estimating the
proposed models and utilizing individual and sectorial explanatory variables, the
variability in taxation measures of interest was quantified and explained. After that
proposed models were applied to classification and evaluated concerning its
prediction capabilities by the estimation of specific internal validation measures. The
more relevant results of this research were to aggregate knowledge about noncompliant tax behavior to taxation research; the consideration, in a systematized
fashion, of the correlation among observations belonging to the same economic
sector, as well as the partial explanation of the variability assessed by means of this
consideration, in respect of proposing taxpayer selection methods; and the
specification of a new method to classify and select taxpayers that privilegies the
agility of tax audit enforcement.
Key-words: forecasting, classification, taxes, hierarchical generalized linear models.
Sumário
Lista de Figuras ..................................................................................................................... xiii
Lista de Quadros ................................................................................................................... xiii
Lista de Tabelas .................................................................................................................... xiii
Lista de Siglas ........................................................................................................................xv
1 INTRODUÇÃO AO TEMA .................................................................................................. 18
1.1 Contextualização do problema .................................................................................... 19
1.1.1 Situação atual da seleção de contribuintes na SRF ............................................. 20
1.1.2 Problema, questões e hipóteses de pesquisa ...................................................... 24
1.2. Objetivos do trabalho.................................................................................................. 26
1.2.1 Objetivo geral........................................................................................................ 26
1.2.2 Objetivos específicos ............................................................................................ 27
1.3 Justificativa .................................................................................................................. 28
1.3.1 Relevância ............................................................................................................ 28
1.3.2 Ineditismo ............................................................................................................. 30
1.3.3 Complexidade ....................................................................................................... 30
1.4 Metodologia de trabalho .............................................................................................. 31
1.4.1 Procedimentos ...................................................................................................... 31
1.4.2 Classificação da pesquisa .................................................................................... 33
1.4.3 Convenções adotadas .......................................................................................... 34
1.4.4 Limitações da pesquisa ........................................................................................ 34
1.5 Delimitações do trabalho ............................................................................................. 35
1.6 Estrutura do trabalho ................................................................................................... 35
1.7 Contextualização da tese na engenharia de produção ............................................... 36
2 EVASÃO E INFRAÇÃO TRIBUTÁRIAS ............................................................................. 38
2.1 Introdução.................................................................................................................... 38
2.2 Conceitos gerais em tributação e implicações à pesquisa .......................................... 39
2.3 Modelo básico de evasão tributária ............................................................................. 41
2.4 Modelos enfocando a seleção de contribuintes para fiscalização............................... 43
2.4.1 Modelos envolvendo contribuintes pessoas físicas .............................................. 43
2.4.2 Modelos envolvendo contribuintes pessoas jurídicas........................................... 49
2.4.3 Modelos envolvendo contribuintes que auferem rendimentos por conta própria . 57
2.5 Modelos teóricos de evasão considerando políticas de incerteza............................... 63
2.6 Modelos teóricos de evasão considerando efeitos sócio-comportamentais................ 70
2.7 Experimentos para avaliação de efeitos sócio-comportamentais em evasão tributária
........................................................................................................................................... 73
2.8 Medidas de evasão tributária da economia ................................................................. 83
2.9 Conclusões gerais do capítulo..................................................................................... 84
3 MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS........................................... 86
3.1 Introdução.................................................................................................................... 86
3.2 Modelos lineares generalizados .................................................................................. 86
3.2.1 Regressão linear: simples e múltipla .................................................................... 90
3.2.2 Estrutura de dados correlacionados ..................................................................... 91
3.3 Modelos lineares hierárquicos ..................................................................................... 97
3.3.1 O modelo hierárquico nulo.................................................................................. 104
3.3.2 Alguns aspectos de locação de variáveis ........................................................... 106
3.4 Modelos lineares generalizados hierárquicos............................................................ 110
3.4.1 Opção entre as estimativas unit-specific e population-average.......................... 116
3.5 Conclusão.................................................................................................................. 118
4 INFERÊNCIA EM MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS ........... 119
4.1 Introdução.................................................................................................................. 119
4.2 Estimação por mínimos quadrados ordinários .......................................................... 119
4.3 Mínimos quadrados generalizados............................................................................ 122
4.4 Estimação por máxima verossimilhança ................................................................... 124
4.4.1 Variável resposta contínua ................................................................................. 125
4.4.2 Variável Resposta Binária................................................................................... 126
4.5 Estimação em MLH ................................................................................................... 127
4.5.1 Notação matricial e conceitos iniciais ................................................................. 127
4.5.2 Estimativas de efeitos fixos por MQG................................................................. 131
4.5.3 Estimativas empíricas de Bayes para coeficientes aleatórios de nível 1............ 132
4.5.4 Estimativas de MV para componentes de variância/covariância........................ 134
4.6 Estimação em MLGH................................................................................................. 137
4.6.1 Conceitos iniciais e notação matricial ................................................................. 137
4.6.2 Obtendo estimativas unit-specific ....................................................................... 138
4.6.3 Obtendo estimativas population-average ........................................................... 142
4.7 Intervalos de confiança em MLGH ............................................................................ 143
4.8 Testes de hipóteses em MLGH ................................................................................. 143
4.8.1 Introdução ........................................................................................................... 143
4.8.2 Testes relacionados a efeitos fixos..................................................................... 144
4.8.3 Testes relacionados a coeficientes aleatórios de nível 1.................................... 145
4.8.4 Testes relacionados a componentes de variância/covariância........................... 146
4.9 Conclusão.................................................................................................................. 148
5 NOVO MÉTODO DE CLASSIFICAÇÃO DE CONTRIBUINTES PARA FISCALIZAÇÃO. 149
5.1 Introdução.................................................................................................................. 149
5.2 Conceituação de infração e definição das variáveis resposta de interesse aos modelos
lineares generalizados hierárquicos ................................................................................ 149
5.3 Processo esquemático do novo método de classificação ......................................... 151
5.4 Conclusões do capítulo ............................................................................................. 153
6 ANÁLISE EXPLORATÓRIA DE DADOS ECONÔMICO-FISCAIS DAS PESSOAS
JURÍDICAS.......................................................................................................................... 154
6.1 Descrição das bases de dados.................................................................................. 154
6.2 Pré-Processamento de dados ................................................................................... 155
6.3 Análise hierárquica exploratória ................................................................................ 160
6.3.1 A estrutura hierárquica em unidades .................................................................. 160
6.3.2 O MLGH1 nulo .................................................................................................... 161
6.3.3 O MLGH2 nulo .................................................................................................... 164
6.4 Conclusão.................................................................................................................. 166
7 ESTIMAÇÃO E APLICAÇÃO DE MODELOS À CLASSIFICAÇÃO DE CONTRIBUINTES
PARA FISCALIZAÇÃO ........................................................................................................ 167
7.1 Extração de amostras de validação........................................................................... 167
7.2 Variáveis candidatas aos modelos ............................................................................ 168
7.3 Processo para seleção de variáveis de níveis 1 e 2.................................................. 171
7.4 Estimativas e métricas de trabalho............................................................................ 172
7.5 O MLGH1................................................................................................................... 174
7.6 O MLGH2................................................................................................................... 178
7.7 Programas utilizados para os processos de estimação ............................................ 182
7.8 Análise de resíduos ................................................................................................... 183
7.9 Interpretação dos modelos estimados....................................................................... 184
7.9.1 MLGH1 ............................................................................................................... 184
7.9.2 MLGH2 ............................................................................................................... 186
7.9.3 Comparação entre o MLGH1 e MLGH2 finais .................................................... 188
7.10 Aplicação à classificação e validação dos modelos estimados ............................... 190
7.10.1 Desempenho das previsões para observações conhecidas............................. 190
7.10.2 Desempenho das previsões para novas observações ..................................... 193
7.11 Comparação entre os desempenhos do método novo e atual ................................ 195
7.12 Aspectos operacionais de utilização do novo método de classificação de
contribuintes para fiscalização......................................................................................... 196
8 CONSIDERAÇÕES FINAIS.............................................................................................. 198
8.1 Principais resultados.................................................................................................. 198
8.2 Conclusões em relação às questões de pesquisa .................................................... 202
8.3 Contribuições alcançadas.......................................................................................... 204
8.4 Limitações e oportunidades para estudos futuros ..................................................... 205
REFERÊNCIAS ................................................................................................................... 206
APÊNDICE A – O trabalho de Feinstein (1991) .................................................................. 214
APÊNDICE B – O trabalho de Murray (1995)...................................................................... 220
APÊNDICE C – O trabalho de Press (1995) ....................................................................... 228
APÊNDICE D – Estimação de MV por Newton-Raphson e Escores................................... 232
APÊNDICE E – Índices Econômico-Fiscais ........................................................................ 234
APÊNDICE F – Estatísticas para os Índices Econômico-Fiscais ........................................ 235
APÊNDICE G – Exemplo de Estatísticas Descritivas e Gráficos para os Índices EconômicoFiscais.................................................................................................................................. 237
APÊNDICE H – Análise em Componentes Principais (Valores de Balanço) ...................... 240
APÊNDICE I – Amostras de Validação ............................................................................... 241
APÊNDICE J – Estimativas para MLGH1 (Variáveis Selecionadas Assinaladas em Negrito)
............................................................................................................................................. 244
APÊNDICE K – Estimativas para MLGH2 (Variáveis Selecionadas Assinaladas em Negrito)
............................................................................................................................................. 251
APÊNDICE L – Comandos do R Project for Statistical Computing para Estimação do
MLGH2_Final....................................................................................................................... 261
xiii
Lista de Figuras
Figura 1: Principal processo de seleção de contribuintes PJ da SRF ................................... 23
Figura 2: Metodologia de pesquisa da tese........................................................................... 32
Figura 3: Relação entre as três inclinações relacionando MA e SES. ................................ 108
Figura 4: Relacionamento entre η ij e φ ij por meio da equação (3.39). ............................. 115
Figura 5: Novo método de classificação (seleção) de contribuintes para fiscalização........ 152
Figura 6: Gráfico de probabilidade Normal para resíduos dos MLGH Finais ...................... 184
Figura 7: Curvas ROC para Amostras de Estimação. ......................................................... 191
Figura 8: Histograma Parcial de I04. ................................................................................... 237
Figura 9: Boxplot de I04....................................................................................................... 238
Figura 10: Stem and Leaf Plot de I04. ................................................................................. 238
Figura 11: Histograma Parcial de I08. ................................................................................. 239
Figura 12: Histograma Parcial de I11. ................................................................................. 239
Lista de Quadros
Quadro 1: Efeitos de fatores políticos e ambientais nas condições de equilíbrio entre
contribuintes e agência tributária........................................................................................... 67
Quadro 2: Estrutura da CNAE-Fiscal................................................................................... 160
Quadro 3: Exemplo de classificação de contribuinte PJ...................................................... 160
Quadro 4: Natureza da Atividade Agregada........................................................................ 168
Quadro 5: Índices Econômico-Fiscais Utilizados na Pesquisa............................................ 234
Lista de Tabelas
Tabela 1: Estimativas para modelo tobit de Joulfaian e Rider (1998) ................................... 58
Tabela 2: Estimativas obtidas para as duas equações propostas por Ali, Cecil e Knoblett
(2001) .................................................................................................................................... 62
Tabela 3: Estimativas unit-specific para o MLGH1.............................................................. 162
Tabela 4: Estimativa population-average para o MLGH1.................................................... 162
Tabela 5: Estimativas MLHG1 (modelo linear binário) ........................................................ 164
Tabela 6: Estimativas unit-specific para o MLGH2.............................................................. 165
Tabela 7: Estimativa population-average para o MLGH2.................................................... 165
Tabela 8: Estimativas MLGH2 (modelo linear binário) ........................................................ 165
Tabela 9: Distribuição percentual das atividades informais................................................. 169
Tabela 10: Variação percentual do PIB (1998 e 1999)........................................................ 170
Tabela 11: Índice de Rentabilidade dos Setores Exportadores em 1999............................ 170
Tabela 12: Estimação do componente variância para modelos nulos ................................ 173
Tabela 13: Estimativas para MLGH1_NAG ......................................................................... 176
Tabela 14: Estimativas para MLGH1_Final ......................................................................... 178
Tabela 15: Estimativas para MLGH2_NAG ......................................................................... 180
Tabela 16: Estimativas para MLGH2_Final ......................................................................... 182
Tabela 17: Estimativas para variáveis presentes em ambos os modelos finais.................. 188
Tabela 18: Pontos de Corte para MLGH1_Final (Amostra Estimação)............................... 192
Tabela 19: Pontos de Corte para MLGH2_Final (Amostra Estimação)............................... 193
Tabela 20: Ponto de Corte para MLGH1_Final (Amostra Validação).................................. 193
Tabela 21: Ponto de Corte para MLGH2_Final (Amostra Validação).................................. 194
Tabela 22: Estimativas para modelo tobit de Feinstein (1991)............................................ 217
Tabela 23: Estimativas primeiro estágio (probit) de Murray(1995)...................................... 223
xiv
Tabela 24: Estimativas terceiro estágio (MQO) de Murray (1995) ...................................... 225
^
Tabela 25: relacionamento entre n e A .............................................................................. 230
Tabela 26: Estatísticas descritivas dos índices econômico-fiscais...................................... 235
Tabela 27: Estatísticas descritivas para I04 ........................................................................ 237
Tabela 28: Autovetores - CP: componente principal ........................................................... 240
Tabela 29: Inércia explicada................................................................................................ 240
Tabela 30: Efeitos do valor de E na fração amostral f, com N=9.757 ................................. 242
Tabela 31: Efeitos do valor de PQ no erro admissível E, com N=9.757.............................. 242
Tabela 32: Determinação de n para as Amostras de Validação ......................................... 243
Tabela 33: Estimativas para nível 1 (Primeira Rodada) ...................................................... 244
Tabela 34: Estimativas para nível 1 (Segunda Rodada) ..................................................... 246
Tabela 35: Estimativas para nível 1 (Terceira Rodada) ...................................................... 248
Tabela 36: Estimativas para nível 2 (Primeira Rodada) ...................................................... 249
Tabela 37: Estimativas para nível 2 (Segunda Rodada) ..................................................... 249
Tabela 38: Estimativas para nível 1 (Primeira Rodada) ...................................................... 251
Tabela 39: Estimativas para nível 1 (Segunda Rodada) ..................................................... 253
Tabela 40: Estimativas para nível 1 (Terceira Rodada) ...................................................... 255
Tabela 41: Estimativas para nível 1 (Quarta Rodada)......................................................... 256
Tabela 42: Estimativas para nível 1 (Quinta Rodada) ......................................................... 258
Tabela 43: Estimativas para nível 2 (Primeira Rodada) ...................................................... 260
xv
Lista de Siglas
ACP - Análise em Componentes Principais
ANCOVA - Análise de Covariância
ANOVA - Análise de Variância
BD1 - Banco de Dados 1
BD2 - Banco de Dados 2
BCCSLL - Base de Cálculo da Contribuição Social sobre o Lucro Líquido
BCCOF - Base de Cálculo da COFINS
BCPISP - Base de Cálculo do PIS/PASEP
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
CCIC - Coeficiente de Correlação Intraclasse
CIAT - Centro Interamericano de Administrações Tributárias
CNAE-Fiscal - Classificação Nacional de Atividades Econômicas - Fiscal das
pessoas jurídicas
COFINS - Contribuição para o Financiamento da Seguridade Social (contribuição
administrada pela SRF)
COPAT - Coordenação de Política e Administração Tributária da SRF
CPI - Comissão Parlamentar de Inquérito
CSLL - Contribuição Social sobre o Lucro Líquido (contribuição administrada pela
SRF)
CTN - Código Tributário Nacional
DCTF - Declaração de Débitos e Créditos Tributários Federais
DIF - Discriminant Index Function do IRS
DIPJ - Declarações de Informações Econômico-Fiscais das Pessoas Jurídicas
DIRF - Declaração do Imposto de Renda Retido na Fonte
DOI - Declaração de Operações Imobiliárias
EM - Algoritmo Esperança-Maximização
ESDC - Estatísticas Suficientes para Dados Completos
EUA - Estados Unidos da América
GLHT - General Linear Hypothesis Test
ICMS - Imposto sobre Circulação de Mercadorias e Serviços (imposto administrado
pelos Estados)
iid - independente e identicamente distribuídas
xvi
IN - Inválido
IND - índice econômico-fiscal genérico
IPI - Imposto sobre Produtos Industrializados (imposto administrado pela SRF)
IR - Imposto de Renda (imposto administrado pela SRF)
IRPJ - Imposto de Renda das Pessoas Jurídicas (imposto administrado pela SRF)
IRPF - Imposto de Renda das Pessoas Físicas (imposto administrado pela SRF)
IRS - Internal Revenue Service dos Estados Unidos da América
IVA - Imposto sobre Valor Agregado
LACSLL - Lucro antes da Contribuição Social sobre o Lucro Líquido
LBRUTO - Lucro Bruto
LOPER - Lucro Operacional
LP - Lucro Presumido apurado pelas pessoas jurídicas
LREAL - Lucro Real apurado pelas pessoas jurídicas
MA - Mathematical Achievement (MA)
MLG - Modelos Lineares Generalizados
MLGH - Modelos Lineares Generalizados Hierárquicos
MLH - Modelos Lineares Hierárquicos
MLMG - Modelos Lineares Mistos Generalizados
MQO - Mínimos Quadrados Ordinários
MQG - Mínimos Quadrados Generalizados
MV - Máxima Verossimilhança
MVR - Máxima Verossimilhança Restrita
NR - Newton-Raphson
PASEP - Contribuição administrada pela SRF
PEC - Programa de Exame Coordenado do IRS
PIB - Produto Interno Bruto
PIS/PASEP - Contribuição para os Programas de Integração Social e de Formação
do Patrimônio do Servidor Público (contribuição administrada pela SRF)
PJ - Pessoas Jurídicas
PQL - algoritmo Penalized Quasi-Likelihood
RBCOF - Receita Bruta da COFINS
RBPISP - Receita Bruta do PIS/PASEP
RECLIQ - Receita Líquida
SECA - Self-Employment Tax dos EUA
xvii
SERPRO - Serviço Federal de Processamento de Dados
SES - Social Economic Status
SII - Servicio de Impuestos Internos do Chile
SRF - Secretaria da Receita Federal
TCMP - Programa de Avaliação do Cumprimento Tributário do IRS
TI - Tecnologia da Informação
UMS - Unidades Monetárias Simbólicas
VA - Variável Aleatória
18
1 INTRODUÇÃO AO TEMA
No contexto atual da administração tributária, é requisitado o controle, a curto,
médio e longo prazo, dos níveis de arrecadação de tributos e contribuições
administrados, haja vista sua relevância para a viabilização orçamentária do Estado.
Tal controle vem, inclusive, elevando sua importância na medida em que o critério de
déficit primário das contas públicas se insere, nos dias de hoje, como fator
determinante na vida de um país em tempos de globalização, pois tem sido
considerado como um dos indicadores de risco sistêmico da economia por parte de
organismos e empreendedores internacionais, o que, via de regra, impele à
formulação de políticas de gastos mais restritivas e a um acurado acompanhamento
dos ingressos públicos. Um planejamento pró-ativo pode ser um dos mediadores
para o alcance do controle dos fluxos de caixa públicos ou privados e, nesse
sentido, os sistemas de tributação, fiscalização e arrecadação devem ser
contemplados pelos gestores dos órgãos tributários da União, Estados ou
Municípios.
Em meio a esse turbulento cenário econômico mundial, são contemporâneos
tanto o fenômeno internet quanto a revolução em Tecnologia da Informação (TI), e o
nível de domínio e disseminação dessas novas tecnologias por parte de uma
sociedade ou organização é hoje fator determinante de suas possibilidades futuras
de sucesso econômico e social. Especificamente em termos de investimentos em TI
governamental, deve-se atentar para o fato de que o Brasil tem sido reconhecido,
inclusive internacionalmente, como uma potência mais do que emergente, atingindo
padrões de atendimento e eficiência semelhantes, e em certos casos até superiores,
aos dos países do primeiro mundo (BARRETO, 2003).
Fazendo parte atuante desse panorama econômico e tecnológico, o principal
órgão tributário brasileiro, a Secretaria da Receita Federal (SRF), responsável pela
administração, fiscalização e arrecadação de 333,58 bilhões de reais em impostos e
contribuições (ano de 2004), enquanto tem trabalhado nos termos de suas missões
institucionais, procura também acompanhar os recentes avanços em TI, e pode-se
dizer que seus esforços não têm sido infrutíferos. Por um lado, sucessivos recordes
de arrecadação têm sido percebidos ano após ano, o que, ao menos em termos de
viabilidade fiscal, não deixa de ser um fato auspicioso. Por outro lado, as políticas de
tecnologia adotadas pela SRF nos últimos anos tornaram-na depositária de vastas
19
informações econômico-fiscais de contribuintes brasileiros e uma referência mundial
no setor (BARRETO, 2003) - fato relevante, em 2005 mais de 99% dos contribuintes
brasileiros enviaram suas declarações de informações fiscais pela internet, sem a
ocorrência de maiores transtornos quanto à transmissão tempestiva e posterior
comprovação do envio dessas informações à SRF.
Essa massa de dados de informações fiscais só favorece o desenvolvimento e a
aplicação de metodologias modernas para a solução de problemas específicos da
SRF, principalmente no suporte e apoio à decisão. Em grande parte dos casos, a
solução pode ser viabilizada pela transformação da informação em estado puro em
conhecimento aplicável, no fluxo dos últimos avanços no uso de tecnologia
avançada para apoio à decisão.
O rápido aumento da capacidade de processamento computacional, associado
com o baixo custo do armazenamento, vem contribuindo para a construção de
repositórios de dados que permitem cruzar dados de diferentes fontes, procurando
identificar informações relevantes e transformando-as em conhecimento útil ao
processo decisório de uma organização. Este conjunto de metodologias e
tecnologias possui dois itens principais: o repositório de dados e os métodos de
análises exploratórias de dados, estes baseados em técnicas estatísticas e de
inteligência artificial.
1.1 Contextualização do problema
Uma das maiores preocupações da SRF tem sido o aperfeiçoamento constante
do processo de formulação e execução das políticas públicas de tributação e de
fiscalização. Para que um nível global de excelência organizacional seja atingido,
todas as subdivisões da SRF têm de ser acionadas e harmonizadas, de forma a que
suas
atribuições
e
missões
regimentais
sejam
exercidas
e
cumpridas
satisfatoriamente em todo o território nacional. Na Capital Federal, as coordenações
centrais formulam e determinam as políticas de logística e recursos humanos, de
administração e estudos tributários, de tributação, de tecnologia, de fiscalização e de
pesquisa e investigação, que por sua vez são jurisdicionadas e operacionalizadas
pelas superintendências das dez regiões fiscais do órgão sediadas, pela ordem, em
Brasília, Belém, Fortaleza, Recife, Salvador, Belo Horizonte, Rio de Janeiro, São
Paulo, Curitiba e Porto Alegre.
20
Um dos órgãos centrais em Brasília é a Coordenação-Geral de Política e
Administração Tributária (COPAT), cujas atribuições regimentais relacionam-se à
formulação de políticas e estudos em administração tributária que subsidiem os
demais sistemas da SRF. Um dos problemas identificados pela COPAT em sua
rotina operacional é a necessidade de auxiliar a programação das atividades de
fiscalização por meio de estudos que abordem o comportamento dos contribuintes
pessoas jurídicas e dos setores de atividades econômicas. Nesse contexto, seu
interesse tem sido a busca de um mecanismo que sistematize e caracterize o
comportamento destes contribuintes em relação às infrações à legislação tributária.
Para seus estudos, a COPAT dispõe das informações obrigatoriamente prestadas
pelos próprios contribuintes nas suas Declarações de Informações EconômicoFiscais das Pessoas Jurídicas (DIPJ), especialmente seus índices econômicofiscais. Com estudos desse escopo, a COPAT almeja subsidiar principalmente a
Coordenação-Geral de Fiscalização com estudos tributários que possam, agilmente,
identificar ou selecionar contribuintes prioritários à fiscalização. Além disso, espera
elevar seu nível de conhecimento em termos do fenômeno comportamental tributário
de contribuintes e setores econômicos.
A agilidade no processo de seleção de contribuintes para fiscalização é
sobremaneira importante, como fica claro a partir do exposto na próxima subseção.
1.1.1 Situação atual da seleção de contribuintes na SRF
Após a entrega das DIPJ por parte dos contribuintes Pessoas Jurídicas (PJ), a
qual se dá regularmente no último dia útil do mês de junho de cada ano, a SRF as
processa e armazena em seus bancos de dados. Posteriormente, essas informações
são adicionadas a diversas outras referentes aos pagamentos de tributos, às demais
declarações instituídas pela SRF e também às informações tributárias prestadas
compulsoriamente, ou por meio de convênio, por fontes externas de informação,
formando uma nova e ampla base de dados. Ou seja, até a efetiva programação de
um lote de fiscalizações, uma longa fase de coleta e pré-processamento dessas
informações tem de ser executada, de forma a que sejam reunidas em um único
banco de dados de cruzamento, o qual permite que os contribuintes apresentando
indícios de infração à legislação tributária de regência dos tributos administrados
pela SRF e incidentes sobre as pessoas jurídicas, quais sejam, Imposto de Renda
das Pessoas Jurídicas (IRPJ), Contribuição Social sobre o Lucro Líquido (CSLL),
21
Contribuição para os Programas de Integração Social e de Formação do Patrimônio
do Servidor Público (PIS/PASEP), Contribuição para o Financiamento da Seguridade
Social (COFINS) e Imposto sobre Produtos Industrializados (IPI), sejam finalmente
selecionados para fiscalização. É importante ressaltar que um indício de infração,
em geral, está associado a alguma inconsistência material em relação às
informações do contribuinte. A duração e a complexidade desse processo podem ser
aferidas na medida em que, conforme a atual programação operacional de seleção
de contribuintes, fundamentada na base de dados de cruzamento de informações,
as declarações entregues pelos contribuintes no exercício 2000, referentes às
atividades praticadas no ano-calendário 1999, tiveram o seu processo de seleção
para fiscalização encerrado ao final de 2003. Não é nenhum demérito para a
organização a ocorrência desse ínterim, pois isso ocorre em outras administrações
tributárias, conforme relatado no capítulo 2, haja vista que uma parte das
informações a serem agregadas ao banco de dados de seleção depende de fontes
externas e, portanto, está sujeita a esperas e eventuais atrasos. Mesmo as
informações internas à SRF, estas, antes de servirem à seleção, também têm de ser
harmonizadas, agregadas e consolidadas, pois são provenientes das diversas
declarações de informações existentes (DIPJ, DCTF, DIRF, DOI etc). Em suma,
após a recepção de todos os dados considerados necessários, essa grande massa
de informações tem de ser pré-processada antes de poder ser utilizada para
consultas e cruzamentos conjuntos.
O processo de seleção descrito no parágrafo anterior assemelha-se bastante à
difundida metáfora de uma malha colhendo os contribuintes de grande interesse
potencial à fiscalização, ou seja, prioritários. Uma vez selecionada uma empresa
(contribuinte PJ), a ação fiscal é finalmente programada e realizada, podendo durar
meses e até anos, a depender da complexidade das infrações efetivamente
encontradas, dos tributos envolvidos e da relevância fiscal da ação. Ao final da
fiscalização, duas ações são possíveis: pode ser lavrado um auto de infração
discriminando os tributos e as respectivas infrações fiscais cometidas, assim como
sua capitulação legal, e o valor em espécie dos tributos e multas a pagar; ou então a
ação fiscal pode ser encerrada sem resultado.
É importante notar que nem todas as pessoas jurídicas que possivelmente
apresentem
indícios
de
infração
fiscal
serão
efetivamente
fiscalizadas,
principalmente devido ao instituto jurídico tributário da decadência e, também, à
22
carência de servidores públicos. A decadência, prevista pelo art. 173 da Lei nº 5.172,
de 25 de Outubro de 1966, Código Tributário Nacional, extingue, após cinco anos
contados a partir do disposto nos incisos e no parágrafo único do referido artigo de
lei, o direito à constituição do crédito tributário na esfera administrativa. Portanto, as
fiscalizações prioritárias, ou seja, motivadas por vultosos indícios de infração à
legislação, vão sendo executadas paulatinamente, até que sejam encerrados os
trabalhos referentes a um determinado ano-calendário e iniciados os trabalhos
relativos ao ano-calendário subseqüente, objetivando evitar a decadência do direito
à constituição de créditos tributários relevantes. Esse procedimento está plenamente
em consonância com o verificado a partir da revisão de literatura do capítulo 2, já
que as agências têm por obrigação agir nos casos envolvendo as infrações mais
graves.
Cumpre ressaltar que todo esse pré-processamento, disponibilização e
manutenção do banco de dados de cruzamento de informações são executados, de
forma terceirizada, pelo Serviço Federal de Processamento de Dados (SERPRO),
empresa pública de prestação de serviços em tecnologia da informação, e,
conseqüentemente, isso representa um gasto de recursos públicos por parte da
SRF, tanto na parte de pré-processamento e desenvolvimento da base de dados de
seleção, quanto na sua efetiva utilização por parte dos servidores do órgão.
Deve-se, ainda, acrescentar que o aqui exposto refere-se ao principal processo
de seleção empregado pela SRF, mas não o único, já que existem ainda outros
recursos e métodos utilizados, como o de pura inadimplência ou de análise
econômico-financeira temporal de declarações, porém, atualmente podem ser
consideradas residuais as fiscalizações assim originadas, já que o órgão tem
investido cada vez mais na vertente do processamento e cruzamento de
informações.
Todo o processo de seleção de contribuintes descrito anteriormente pode ser
sinteticamente ilustrado pela Figura 1.
23
Figura 1: Principal processo de seleção de contribuintes PJ da SRF
Esse processo de seleção por cruzamento de informações é considerado como
uma referência na área de tributação. Sistemas similares ao brasileiro são utilizados
por outros países da América Latina, como Peru e Cuba (VERAMENDI, 2002;
JOVER e AYALA, 2002), e a tendência é sua maior difusão, pois há grande
intercâmbio entre as administrações tributárias dos 36 membros associados do
Centro Interamericano de Administrações Tributárias (CIAT), incluindo-se aí o Brasil.
Pode-se dizer que o processo da Figura 1 é bastante moderno e atual e vem
funcionando a contento, não fosse isso não se verificariam os sucessivos recordes
anuais de arrecadação federal. Contudo, um ponto a se considerar é quanto ao
inevitável tempo transcorrido entre o cometimento de uma infração, a prestação das
informações em DIPJ por parte do contribuinte, o processamento das informações
internas à SRF, o recebimento das informações fiscais externas à SRF, o
processamento conjunto de todos esses dados e a efetiva seleção e fiscalização do
contribuinte infrator. Esse intervalo de tempo não é de ocorrência exclusiva em
relação às auditorias da SRF, haja vista que no capítulo 2 ele é abordado como
tema de estudos tributários (por exemplo, ver seção 2.6). O fato é que quanto maior
esse tempo decorrido, maior o risco de embaraço contábil e cadastral à constituição
e cobrança do crédito tributário na esfera administrativa, já que muitas vezes quando
se vai notificar um contribuinte depois de decorrido um longo tempo do cometimento
de uma determinada infração, este pode ter incorrido em fatos contábeis relevantes falência, cisão, incorporação, fusão, ou ainda não ser localizado em seu domicílio
fiscal. Assim, qualquer esforço no sentido de agilizar a ação do sistema de
24
fiscalização é considerado positivo e relevante no contexto de órgãos tributários
como a SRF.
1.1.2 Problema, questões e hipóteses de pesquisa
Uma das maneiras de atender à solução do mencionado problema operacional
da COPAT é pelo estabelecimento de um método que classifique as pessoas
jurídicas de maneira apropriada, tanto em relação ao processo de análise e
compreensão de fenômenos comportamentais tributários, auxiliando na formulação
de políticas públicas, quanto ao de fiscalização de contribuintes e, portanto, esse
será o tema da pesquisa aqui apresentada.
Uma constatação relevante nesse momento de apresentação do problema é que
as pessoas jurídicas (empresas) subdividem-se em diversos setores de atividades
econômicas que são de naturezas distintas (v.g., indústria, comércio, serviços,
extrativas etc). Isso acarreta que os setores da economia devem ser levados em
consideração no estabelecimento de padrões de comportamento econômico-fiscais
de empresas, pois é intuitivo que empresas de um mesmo setor econômico tendem
a ser mais parecidas entre si do que empresas participantes de distintos setores da
economia, haja vista que aquelas partilham certas características contábeis
individuais e de desempenho econômico-setorial em comum que acabam por
ocasionar a correlação entre suas medidas. Além disso, acredita-se que as próprias
infrações à legislação tributária tendem a ser mais parecidas intra-setores, pois o
fenômeno da concorrência de mercado talvez faça com que sejam rapidamente
disseminadas entre empresas que são diretamente concorrentes.
Portanto o problema de pesquisa consubstancia-se nas seguintes questões
de pesquisa:
1) Como estabelecer um método de classificação de contribuintes pessoas
jurídicas, com base na previsão de seus comportamentos tributários, que as
classifique, ágil e tempestivamente, em função do grau de interesse para fins
de
fiscalização,
levando
em
consideração,
de
forma
sistematizada
(incorporando de forma estruturada todas as atividades econômicas das PJ), a
provável correlação de medidas (informações) existente entre empresas de um
mesmo setor de atividades econômicas?
25
No contexto dessa questão, é importante demarcar que tal método de
classificação, uma vez materializado, vem a corresponder, na prática, a um processo
de seleção de contribuintes para fiscalização, fundamentado na previsão de
comportamento e posterior classificação dos contribuintes em dois grupos distintos,
os de interesse à fiscalização tributária e os demais.
2) O procedimento descrito na primeira questão de pesquisa já foi tentado por
outros órgãos congêneres com sucesso?
3) Como conferir a aludida agilidade à previsão e classificação?
4) Quais as variáveis individuais das PJ (principalmente dentre seus índices
econômico-fiscais)
e
dos
setores
econômicos
que
se
sobressaem
significativamente no contexto da classificação de contribuintes infratores?
5) O método proposto na primeira questão de pesquisa seria vantajoso?
5.1) Qual o desempenho da classificação efetuada frente ao método de
seleção por cruzamento de informações utilizado pela SRF?
5.2) O custo do desenvolvimento e implantação compensa?
Ante ao exposto, uma primeira hipótese de pesquisa é de que qualquer estudo
tributário que envolva a classificação de contribuintes PJ para fins de fiscalização
deve levar em consideração e avaliar a correlação de medidas, posto que existente,
entre contribuintes que se dedicam às mesmas atividades econômicas.
Contudo, uma segunda hipótese relaciona-se ao fato de que essa correlação de
medidas não vem sendo considerada de forma sistematizada (abrangendo, de forma
estruturada, todos os setores de atividades econômicas das PJ) pelos estudos e
trabalhos já realizados envolvendo a seleção de contribuintes para fiscalização.
Conseqüentemente, formula-se, então, uma terceira hipótese relacionada à
possibilidade de consideração sistematizada da correlação de medidas intra-setores
econômicos, e de explicação, ao menos em parte, da variabilidade (entre setores
econômicos) aferida a partir dessa sistematização, durante a condução do processo
de classificação de contribuintes PJ como de relevante interesse fiscal, por meio de
uma modelagem estatística hierárquica formalizada nos termos dos Modelos
Lineares Generalizados Hierárquicos (MLGH), que encerram moderna e recente
metodologia paramétrica especificamente desenvolvida para o tratamento estatístico
26
de estruturas correlacionadas de dados que, em um único modelo, são destacadas
em níveis hierárquicos distintos e que justamente proporcionam a consideração, pelo
modelo, da correlação de medidas existente nos dados.
Por fim, uma quarta e última hipótese relaciona-se à viabilidade de especificação
de modelos hierárquicos contando, no plano (nível) dos contribuintes, tão-somente
com variáveis obrigatoriamente prestadas pelo próprio sujeito passivo (contribuinte)
em sua declaração de informações, sendo, portanto, independentes de dados
individuais de contribuintes prestados por fontes externas de informação e
possibilitando assim uma maior agilidade de ação ao processo de classificação.
Por todo o exposto, este trabalho insere-se nos seguintes contextos
científicos e tecnológicos:
I) Melhorar a eficiência da fiscalização efetuada por parte dos órgãos
tributários, especificamente em relação aos contribuintes pessoas jurídicas.
II) Classificar contribuintes PJ, em termos de interesse potencial à fiscalização,
levando em consideração, de forma sistematizada, a atividade econômica por
eles praticada, o que vem a se constituir em diferencial em relação aos
estudos científicos realizados até o momento.
III) Modernizar e aperfeiçoar os processos de previsão em administração
tributária, por meio da utilização de recente e complexa técnica estatística
paramétrica (MLGH).
Uma vez apresentados o contexto operacional, o problema e as questões de
pesquisa, os objetivos deste trabalho podem ser abordados na próxima seção.
1.2. Objetivos do trabalho
1.2.1 Objetivo geral
O trabalho aqui proposto procura desenvolver e especificar um método de
classificação de contribuintes pessoas jurídicas, com base na previsão de seus
comportamentos tributários, objetivando classificá-las como prioritárias ou não à
fiscalização, por meio de um MLGH que modele a probabilidade de ocorrência de
uma característica de interesse definida, considerando como preditoras, no plano
27
dos contribuintes (nível 1), tão-somente as informações prestadas pelo próprio
sujeito passivo e levando em consideração, no nível 2, a atividade econômica por
ele praticada.
1.2.2 Objetivos específicos
São objetivos específicos deste estudo:
a) identificar o referencial teórico e o estado da arte dos métodos e critérios para
seleção de contribuintes para fiscalização e também da questão mais geral da
modelagem em evasão tributária, por meio de uma revisão de literatura teórica e
empírica. Com isso, procura-se avaliar de que forma o problema de pesquisa tem
sido abordado no mundo científico e levantar os principais resultados já obtidos,
subsidiando a proposta de solução do referido problema;
b) levantar, pré-processar e analisar de forma exploratória os dados relevantes à
pesquisa aqui referenciada;
c) avaliar a magnitude da variabilidade no comportamento tributário empresarial
exclusivamente devida aos setores de atividades econômicas;
d) analisar os diferentes aspectos que possivelmente expliquem a variabilidade das
respostas no nível dos setores de atividades econômicas, de forma a subsidiar o
classificador proposto;
e) pesquisar e selecionar as principais variáveis explicativas da variabilidade
individual das respostas no nível dos contribuintes pessoas jurídicas, de forma a
compor um rol de variáveis candidatas ao MLGH;
f) modelar e estimar um classificador de contribuintes PJ, fundamentado em um
MLGH contando com variável resposta associada à infração tributária;
g) com base no MLGH, executar inferências e demais interpretações em relação ao
comportamento tributário de empresas e de setores econômicos;
h) validar o MLGH e apresentar os principais resultados obtidos a partir das
respectivas previsões.
28
1.3 Justificativa
1.3.1 Relevância
Com respeito ao mencionado cenário operacional da seleção de contribuintes por
cruzamento de informações da Figura 1, cumpre ressaltar que o classificador aqui
proposto não é talhado, a princípio, para substituir integralmente nenhum processo
de seleção ora existente na SRF ou em outras agências. O que se pretende é
estabelecer uma alternativa inovadora de classificação de contribuintes que tenciona
ser uma opção decisória nos momentos que exijam pronta reação por parte dos
órgãos tributários.
Exemplificando, se a utilização prática do novo método de classificação prevê
que determinado contribuinte que acaba de entregar sua declaração de informações
tem grande probabilidade de apresentar indício de infração fiscal e, portanto, o
classifica como prioritário à fiscalização, seria fortemente recomendável a
deflagração de uma subseqüente ação fiscal, haja vista o já mencionado risco de
embaraço à constituição e cobrança do crédito tributário na esfera administrativa.
Assim, por todo o exposto, podem ser relacionados como relevantes os seguintes
resultados obtidos pela consecução da presente pesquisa:
a) O classificador visa a utilizar como preditoras, no plano dos contribuintes PJ, tãosomente as informações prestadas pelos próprios sujeitos passivos em suas
declarações regularmente estabelecidas. Sendo assim, no caso da SRF, a utilização
do método aqui proposto pode se dar tão logo sejam entregues as DIPJ, no último
dia útil de junho de cada ano, portanto com uma possibilidade de grande
antecedência de ação em relação ao atual processamento por cruzamento de
informações, que, conforme já explicitado, é mais demorado em termos de
resultados, uma vez que envolve a reunião e compatibilização, em uma base de
dados única, de volumosas informações prestadas tanto pelos contribuintes, quanto
por um grande número de órgãos e entidades externas à SRF, o que resulta em um
inevitável período de espera para deflagração de ações fiscais. Portanto, o novo
método de classificação, por sua projetada agilidade, possivelmente possibilita a
recuperação de créditos tributários que antes teriam seu lançamento e cobrança
procrastinados indefinidamente em função de impedimentos cadastrais ou contábeis,
ou até inviabilizados em definitivo pelo decurso da decadência.
29
b) O classificador é menos oneroso, em termos de sua utilização, do que o processo
esquematizado pela Figura 1, representando economia de recursos públicos.
Primeiramente, porque não requisita o volumoso processamento e armazenamento
de informações internas e externas sensíveis (sigilosas) para o estabelecimento de
uma
programação
de
ações
fiscais,
mas
tão-somente
das
informações
obrigatoriamente prestadas anualmente pelos próprios contribuintes em suas
declarações regularmente estabelecidas. Ressalte-se que, no caso da SRF,
declarações desta espécie, como as DIPJ, já vêm sendo rotineiramente recebidas e
armazenadas anualmente. Em segundo lugar, porque o próprio relatório final
corporificado por esta pesquisa representa sistematização de conhecimento
passível, em tese, de ser seguida e aplicada de forma autônoma pelos próprios
órgãos tributários. Em síntese, considerando-se o caso concreto da SRF, o método
prescinde de mão de obra ou recursos financeiros adicionais aos já despendidos e,
pelo contrário, sua adoção reduz em muito os recursos técnicos e humanos hoje
terceirizados pelo órgão.
c) O classificador representa maior autonomia dos órgãos tributários em relação às
fontes externas de informação, que, como já exposto, requisitam preciosos tempo e
recursos financeiros para seu processamento e efetiva utilização; particularmente no
caso da SRF, maior autonomia estratégica e operacional é obtida em relação ao
prestador terceirizado de serviços (SERPRO), uma vez que será gerado
conhecimento inédito e alternativo aos serviços hoje terceirizados. É preciso lembrar
que conhecimento representa poder frente às situações de negociação entre as
partes de um contrato.
d) À parte o problema a ser abordado pela presente pesquisa, existem diversos
outros assuntos de responsabilidade regimental das agências e órgãos tributários
que apresentam intrinsecamente a característica da existência de informações
agrupadas entre atividades econômicas, regiões fiscais, unidades administrativas
etc. Portanto, o desenvolvimento do conhecimento e domínio empírico de
metodologias que sejam passíveis de considerar suas conseqüências nas medidas
de interesse pode contribuir para o aperfeiçoamento de processos operacionais
rotineiros nesses órgãos, no caso do Brasil, por exemplo, o estudo da adequação
dos produtos da SRF aos seus clientes - como as declarações de renda
30
informatizadas - ou o controle operacional das atividades tributárias envolvidas nas
importações/exportações nos principais portos e aeroportos brasileiros.
1.3.2 Ineditismo
a) Na fase de análise exploratória de dados, esta pesquisa quantifica, de forma
inédita e sistematizada (incorporando de forma estruturada todos os setores de
atividades econômicas das PJ), a correlação de medidas existente intra-setores
econômicos, no que se refere às infrações tributárias, por meio do cálculo de
coeficientes de correlação intraclasse.
b) Em termos da especificação de métodos para seleção de contribuintes para
fiscalização, o método de classificação proposto nesta pesquisa leva em
consideração, pela primeira vez de forma sistematizada, a correlação de medidas
existente intra-setores econômicos, assim como explica, também de forma inédita,
parte da variabilidade (entre setores econômicos) aferida a partir dessa
sistematização.
c) Esta pesquisa propõe um novo método de classificação de contribuintes que é
pioneiro quanto à utilização de modelos hierárquicos (MLH ou MLGH) em estudos
científicos de escopo tributário.
d) O estabelecimento do classificador auxilia a SRF no conhecimento da dinâmica
que rege a variabilidade no comportamento tributário individual dos contribuintes PJ
brasileiros - principalmente por elucidar e aclarar os indicadores econômico-fiscais
significativamente importantes no contexto das infrações fiscais, haja vista que estes
comporão a matéria-prima para a seleção das variáveis preditoras dos modelos - e
também dos setores de atividades econômicas, um de seus grandes interesses
atuais, produzindo resultados inéditos e relevantes à formulação de políticas
tributárias.
1.3.3 Complexidade
Primeiramente, deve-se reconhecer que a aferição da capacidade contributiva
dos contribuintes pessoas jurídicas (ver capítulo 2) é bastante mais complexa do que
no caso das pessoas físicas, pois aqueles se caracterizam por apresentarem
múltiplas operações contábeis que acabam por gerar incidências tributárias diversas.
Ademais, a própria proposição de métodos específicos para seleção de contribuintes
31
para fiscalização, segundo o verificado no capítulo 2, não vem sendo tema profuso
em trabalhos científicos, haja vista que estes vêm privilegiando estudos econômicoteóricos de difícil transposição para a prática, limitação esta, aliás, relatada por
vários dos autores referenciados no próximo capítulo, uma vez que são
constrangidos a excessivas suposições prévias; ou então aspectos interpretativos
que, embora relevantes, não possuem por escopo o pragmatismo de identificar ou
selecionar contribuintes potencialmente infratores.
Quanto aos estudos relatados no capítulo 2 versando especificamente sobre
métodos para seleção de contribuintes, estes demonstram claramente que o
comportamento do contribuinte está sujeito a uma ampla gama de variáveis, tanto
individuais quanto econômico-setoriais, que, portanto, devem ser cientificamente
integradas de forma sistematizada; fato este que, contudo, não vem ocorrendo,
segundo o manifestado na segunda hipótese de pesquisa, o que demonstra
claramente a não trivialidade do problema de tese.
Além disso, a agilização da ação de fiscalização é aspiração milenar e, no limite,
visa a que a infração fiscal seja de conhecimento e repressão instantânea,
constituindo-se em desafio cuja complexidade e importância ficam patentes a partir
da leitura da subseção 1.1.1 deste capítulo, na qual foi relatado que a fiscalização
brasileira vem agindo com defasagem, em relação ao cometimento de infrações
fiscais, de alguns anos, o que não obstante estar em consonância com o verificado
pela revisão de literatura, situa-se longe do considerado ideal.
Pelo exposto nos parágrafos acima, a complexidade do problema e questões de
pesquisa justificam plenamente um estudo em nível de doutorado.
1.4 Metodologia de trabalho
1.4.1 Procedimentos
Esta pesquisa propõe um método de classificação de contribuintes para fins de
fiscalização tributária que incorpora em si a correlação de medidas existente nos
dados de trabalho. As hipóteses que alicerçam a pesquisa foram relacionadas na
subseção 1.1.2.
A partir destes subsídios, uma fundamentação teórica do tema da evasão
tributária, dos métodos de seleção de contribuintes e de métodos estatísticos Modelos Lineares Generalizados (MLG), Modelos Lineares Hierárquicos (MLH) e
32
Modelos Lineares Generalizados Hierárquicos (MLGH) - a serem aplicados para a
viabilização da solução proposta tem de ser levada a termo para a consecução dos
objetivos de pesquisa. Nesse contexto, o fluxograma da Figura 2 ilustra de forma
sintética a metodologia de pesquisa adotada.
Figura 2: Metodologia de pesquisa da tese.
Em relação à fase de ajuste e validação de modelos na Figura 2, devido às
oportunidades proporcionadas pelas bases de dados de trabalho, conforme
detalhado no capítulo 5, nesta pesquisa são modelados dois MLGH, ambos
prestando-se de forma autônoma e simultânea à classificação de contribuintes, com
o objetivo de prever como resposta esperada a probabilidade de ocorrência de duas
características de interesse distintas, mas identicamente importantes no âmbito
tributário, quais sejam, presença de indício de infração fiscal e presença de efetiva
infração fiscal.
Para a formalização dos modelos e de suas respostas esperadas, os indícios de
infração e infrações propriamente ditas foram considerados em sua forma geral abrangendo os tributos administrados pela SRF e incidentes sobre as PJ, quais
sejam, IRPJ, CSLL, PIS/PASEP, COFINS e IPI - e não especificamente por imposto
ou contribuição, aspecto este devido, integralmente, à característica dos dados
disponibilizados para o trabalho.
33
Quanto às preditoras, ressalte-se que os MLGH levam em consideração tanto
variáveis explicativas do comportamento individual dos contribuintes PJ quanto
variáveis que justificam a variabilidade da resposta entre os setores econômicos.
Os dados disponíveis (população objetivo) para esta pesquisa são: os
relacionados às informações prestadas à SRF pelas pessoas jurídicas brasileiras,
em suas DIPJ referentes ao exercício 2000, ano-calendário 1999, que apuraram o
imposto de renda pelo regime do Lucro Real, excluindo-se as instituições
financeiras; as informações relacionadas às fiscalizações programadas e executadas
pela SRF em relação a esse mesmo ano calendário; e também aspectos econômicosetoriais levantados pelo próprio autor desta pesquisa.
Quanto aos aspectos de amostragem, os dados de trabalho foram previamente
divididos em duas amostras: estimação e validação (ver Apêndice I). O objetivo aqui
é viabilizar o processo tradicional em modelagem estatística, que envolve a
estimação de parâmetros do modelo e sua posterior validação através de uma
amostra adicional de dados.
1.4.2 Classificação da pesquisa
O processo de pesquisa aqui enfocado pode ser classificado sob quatro aspectos
distintos, de acordo com Silva e Menezes (2001, p. 20-21), a saber:
I) Quanto à sua natureza, a presente pesquisa é aplicada, uma vez que "objetiva
gerar conhecimentos para aplicação prática dirigidos à solução de problemas
específicos". No caso desta pesquisa, o problema é o identificado na seção 1.1.2.
II) Quanto à abordagem do problema, a pesquisa é predominantemente quantitativa,
uma vez que se vai utilizar intensivamente de métodos estatísticos para sua
consecução.
III) Do ponto de vista de seus objetivos, esta pesquisa classifica-se como explicativa,
pois almeja "identificar os fatores que determinam e contribuem para a ocorrência
dos fenômenos", sendo que os fenômenos já ocorreram.
IV) Por fim, em relação aos procedimentos técnicos a serem adotados para seu
alcance, a pesquisa classifica-se como bibliográfica, já que perfaz uma intensiva
revisão de literatura sobre o tema de pesquisa e sobre as ferramentas estatísticas a
serem aplicadas na solução proposta; e também como um estudo de caso, já que
34
"envolve o estudo profundo e exaustivo de um ou poucos objetos de maneira que se
permita o seu amplo e detalhado conhecimento".
1.4.3 Convenções adotadas
Quanto às citações diretas de autores apresentadas no texto, adiante-se aqui que
em todos os casos envolvendo referências bibliográficas grafadas em línguas que
não a Portuguesa, a tradução foi executada pelo próprio autor desta pesquisa.
No corpo do trabalho, quando inseridas em um contexto estatístico descritivo, as
expressões singulares "significância", "significante" e "significativa", entendem-se,
respectivamente, por "significância estatística", "estatisticamente significante" e
"estatisticamente significativa". Além disso, as palavras auditado e fiscalizado são
consideradas sinônimas no contexto do texto.
Em termos da apresentação de resultados de trabalhos de autores estrangeiros
no capítulo 2, considerou-se por tradução de tax a palavra "imposto", que
corresponde à tradução literal para a língua Portuguesa. Entretanto, no Brasil a
palavra "tributo" é diferente de "imposto", conforme está conceituado no próximo
capítulo, sendo o primeiro o gênero e o segundo a espécie. Adicionalmente, a
natureza de um tributo independe de sua denominação, e isso por vezes é
controverso no Brasil, inclusive juridicamente. Assim, optou-se por traduzir a
expressão tax evasion por "evasão tributária", de forma a adequá-la ao conceito
mais genérico de tributo no Brasil.
Em relação às várias referências bibliográficas citadas nas seções 3.1 e 4.1,
estas estão ordenadas por grau de contribuição para o desenvolvimento da pesquisa
lá delineada.
1.4.4 Limitações da pesquisa
Em relação à base de dados de trabalho, ressalte-se que não foram
disponibilizadas à pesquisa todas as informações prestadas anualmente pelos
contribuintes em suas DIPJ entregues à SRF, mas somente um subconjunto dessas
informações, como detalhado no capítulo 6, fato que torna esta uma pesquisa ainda
não esgotada no contexto das DIPJ.
Além disso, o método de classificação proposto e aplicado neste trabalho se
limita aos contribuintes PJ que apuraram o Lucro Real no exercício 2000, anocalendário 1999, não sendo válidos, portanto, para outros tipos contribuintes. A
35
opção por limitar a pesquisa a esse tipo de contribuintes deveu-se à relevância fiscal
dos mesmos e também aos dados disponibilizados para o trabalho.
Outro ponto importante é que, conforme já mencionado, os aspectos
relacionados aos indícios e infrações tributárias foram aqui considerados em termos
genéricos, e não especificamente por tributo, o que pode ter reduzido a capacidade
explicativa/preditiva dos modelos estimados.
1.5 Delimitações do trabalho
A partir da subseção 1.4.1, verifica-se que todas as estimativas, inferências e
interpretações aqui apresentadas referem-se exclusivamente aos contribuintes PJ
brasileiros, declarantes pelo Lucro Real no exercício 2000, e aos seus indícios de
infração, e infrações propriamente ditas, à legislação tributária de regência dos
tributos e contribuições administrados pela SRF e incidentes sobre as PJ (IRPJ,
CSLL, PIS/PASEP, COFINS e IPI), em relação às operações efetuadas no anocalendário 1999. Entretanto, deve-se ressaltar que o conceito de superpopulação
abordado no capítulo 6 permite que essas estimativas e inferências sejam
generalizadas além das unidades e indivíduos da população objetivo desta
pesquisa, admitindo, portanto, sua utilização para previsões em relação a novas e
futuras observações.
Por outro lado, esta pesquisa não possui por escopo analisar, propor ou avaliar
softwares ou sistemas de banco de dados para o armazenamento das informações
utilizadas como subsídios aos MLGH, nem estabelecer ou atribuir responsabilidades
a repartições/divisões ou servidores dos órgãos tributários, quanto à implementação
do novo método de classificação proposto.
1.6 Estrutura do trabalho
O trabalho encontra-se dividido em oito capítulos, mais as referências
bibliográficas e os apêndices, sendo o primeiro esta introdução, que trata dos
objetivos e organização da tese.
No capítulo 2 está contemplada a revisão bibliográfica teórica e empírica
relacionada à infração e evasão tributárias. Nos capítulos 3 e 4 estão desenvolvidos
os conceitos teóricos e empíricos relacionados aos Modelos Lineares Hierárquicos e
aos Modelos Lineares Generalizados Hierárquicos. No capítulo 5 é apresentada a
36
solução para o problema de tese, assim como são relacionadas as suposições que a
sustentam.
No capítulo 6 são apresentadas as bases de dados de trabalho, detalhados os
passos executados na fase de pré-processamento e relacionados os principais
resultados obtidos pela análise exploratória descritiva de variáveis e pela análise
exploratória hierárquica.
No capítulo 7 encontra-se a fase de estimação dos MLGH propostos com base
nas amostras de estimação, sendo ainda apresentadas as demais análises e
interpretações tipicamente obtidas a partir de trabalhos deste escopo. Ao final deste
capítulo os modelos são aplicados à classificação de contribuintes e validados em
termos de suas previsões.
O capítulo 8 faz o fechamento do trabalho, apresentando as principais
conclusões e resultados, destacando as principais contribuições alcançadas e
relacionando sugestões e oportunidades para estudos futuros.
1.7 Contextualização da tese na engenharia de produção
Para uma contextualização desta pesquisa na engenharia de produção,
inicialmente deve-se resgatar seu conceito e áreas específicas de conhecimento
estatuídas, pelas comunidades profissional e acadêmica, como estando a ela
relacionadas.
Quanto à conceituação, segundo a Associação Brasileira de Engenharia de
Produção (ABEPRO):
É o ramo da Engenharia que estuda formas de gestão dos sistemas de
produção de bens e serviços. É um dos ramos mais modernos e valorizados
da Engenharia, tendo surgido e crescido devido à necessidade de
aperfeiçoar, racionalizar, otimizar os meios de produção, cada vez mais
necessários nos tempos modernos, devido ao incremento progressivo da
competitividade de mercado.
A concepção clássica, que segundo o curso de Engenharia de Produção da
Universidade Federal de Minas Gerais é adotada tanto pela ABEPRO quanto pelo
Institute of Industrial Engineering, dos Estados Unidos da América, informa que:
Compete à Engenharia de Produção o projeto, a implantação, a melhoria e
a manutenção de sistemas produtivos integrados, envolvendo homens,
materiais e equipamentos, especificar, prever e avaliar os resultados obtidos
destes sistemas, recorrendo a conhecimentos especializados da
matemática, física, ciências sociais, conjuntamente com os princípios e
métodos de análise e projeto da engenharia.
37
Já a Pontifícia Universidade Católica do Rio de Janeiro a conceitua, inclusive em
termos de áreas de conhecimento sedimentares, da seguinte forma:
A Engenharia de Produção é o ramo da engenharia que lida com a
concepção, projeto e gerenciamento de sistemas produtivos de bens e
serviços, caracterizados pela integração entre homens, materiais,
equipamentos e o meio ambiente, para o incremento da produtividade e da
qualidade. Como área de conhecimento, fundamenta-se nas ciências
matemáticas, físicas e sociais, bem como em princípios e métodos da
engenharia e da computação, constituindo o elo entre a tecnologia
propriamente dita e a administração de organizações produtivas.
Especificamente quanto às típicas áreas de conhecimento a serem dominadas
pelo Engenheiro de Produção, a homepage da ABEPRO posiciona que:
O engenheiro de produção tem como área específica de conhecimento os
métodos gerenciais, a implantação de sistemas informatizados para a
gerência de empresas, o uso de métodos para melhoria da eficiência
das empresas e a utilização de sistemas de controle dos processos da
empresa (grifo nosso).
A partir desses conceitos, que são bastante convergentes entre si, verifica-se que
a engenharia de produção, sinteticamente, visa, dentre outras competências, à
otimização e racionalização dos processos produtivos de bens e serviços,
especificando, prevendo e avaliando os resultados obtidos a partir destes processos,
sempre visando à melhoria da eficiência das organizações, sejam públicas ou
privadas. Para a materialização destes objetivos, fundamenta-se nas ciências
matemáticas, físicas e sociais, bem como em princípios e métodos das engenharias
e da ciência da computação, constituindo o elo entre a tecnologia propriamente dita
e a administração de organizações produtivas.
Nesse contexto, como o objetivo geral aqui proposto (ver subseção 1.2.1) visa à
melhoria da eficiência da fiscalização tributária, ao propor, especificar e avaliar um
novo método (processo) de classificação de contribuintes pessoas jurídicas, que
intenta ser mais ágil e menos oneroso do que os processos de seleção por
cruzamento de informações, por meio da utilização de avançados métodos
estatísticos (matemáticos) de previsão, este se encontra, portanto, plenamente
enquadrado nas áreas de conhecimento tipicamente enfocadas pela engenharia de
produção.
38
2 EVASÃO E INFRAÇÃO TRIBUTÁRIAS
2.1 Introdução
A atividade de seleção de contribuintes para fins de fiscalização tributária faz
parte de uma das preocupações da humanidade ao longo dos séculos, a instituição
e cobrança de tributos. Sem dúvida, os tributos foram importante pilar de
sustentação das maiores civilizações surgidas desde a remota antiguidade, como
nos casos da Egípcia, Romana e do Império Asteca. Contudo, eles foram também
um de seus fatores de colapso (ADAMS, 1993). Sabe-se que a crise econômica
verificada nos períodos precedentes a sua queda reduziu drasticamente a
arrecadação tributária do Império Romano, enfraquecendo por conseqüência suas
numerosas legiões. Por outro lado, Roma chegou a pagar tributos aos considerados
bárbaros para que não fosse atacada, isso em sua fase mais decadente (GRANDES
impérios e civilizações: a história visual do mundo, 1994).
Na idade média, o crescimento populacional das cidades européias e o
florescimento do comércio impulsionaram a arrecadação de tributos, agora
instituídos por cidades-estado ou reinos. Nesse contexto, a adoção pelos italianos
dos algarismos arábicos, em detrimento dos romanos, e a criação do método das
partidas dobradas suportaram um maior desenvolvimento e registro das atividades
dos bancos, das corporações de artesãos, e das trocas em geral. No período de
renascimento cultural europeu, a acumulação de tributos arrecadados contribuiu
bastante para o surgimento, já na era moderna, das grandes navegações e do
pujante mercantilismo praticado entre Europa e Oriente Médio. Desde os fins do
século 15 que o registro dessas numerosas operações comerciais já passara a ser
feito em grandes livros de dupla entrada, pela chamada contabilidade moderna,
atribuída ao monge franciscano e matemático Luca Pacioli, isso colaborando para o
fortalecimento, controle e prosperidade das instituições comerciais (MOST, 1982;
EDWARDS, 1989). Obviamente a ação do fisco foi também influenciada
tecnicamente por esse ambiente comercial e contábil. Tanto é assim que hoje, em
2005, as empresas brasileiras enviam por internet suas DIPJ às bases de dados da
SRF, informando-a de suas operações anuais seguindo um padrão contábil bastante
similar ao estabelecido por esses métodos já centenários. Já na era contemporânea,
a revolução industrial, as novas tecnologias eletrônicas e de comunicação, e a
39
globalização continuam impelindo os governos a adaptarem suas atividades de
tributação às novas tecnologias e práticas comerciais e industriais internacionais.
Esta é uma pesquisa que também se insere nesse esforço de adaptação e
modernização tributária.
2.2 Conceitos gerais em tributação e implicações à pesquisa
Antes de ser abordado diretamente o tema da pesquisa, pode-se recorrer aos
dicionários jurídicos (DINIZ, 1998; ACQUAVIVA, 1998; FURTADO, 1969), para que
sejam definidos alguns conceitos gerais em tributação que serão úteis ao longo
deste capítulo:
a) Contribuinte ou Sujeito Passivo: é aquele sobre o qual incide o tributo.
b) Tributo: é entendido como uma prestação pecuniária compulsória, criado e gerido
pelo Estado, visando ao custeio de serviços públicos. O tributo é o gênero, de que
são espécies o imposto, a taxa e a contribuição de melhoria.
c) Imposto: é uma espécie de tributo que não enseja uma contraprestação
individualizada para aqueles que o recolhem, e nisso se distingue da taxa e da
contribuição de melhoria.
d) Infração Tributária: ocorre quando um contribuinte pratica uma infração à
legislação tributária de forma deliberada ou não.
e) Evasão Tributária: ocorre quando um contribuinte pratica uma infração à
legislação tributária de forma deliberada.
f) Elisão tributária: procedimento lícito que se realiza antes da ocorrência do fato
gerador do tributo, visando a um menor pagamento de tributos.
g) Carga tributária: designa a totalidade de tributos que recai sobre uma coletividade,
em função da riqueza produzida. Em geral, é calculada pela razão entre a
arrecadação tributária total do país e seu Produto Interno Bruto. Contudo, pode ser
calculada individualmente, cada contribuinte suportando sua própria carga tributária.
Além disso, considerando-se agora um tributo bastante enfocado nos trabalhos
apresentados nas próximas seções, o imposto de renda, observa-se que sua
instituição, e conseqüentemente conceituação, no Brasil deveu-se à Lei nº 5.172, de
25 de Outubro de 1966, Código Tributário Nacional (CTN), cujo art. 43 dispõe
textualmente que:
40
Art. 43. O imposto, de competência da União, sobre a renda e proventos de
qualquer natureza tem como fato gerador a aquisição da disponibilidade
econômica ou jurídica:
I - de renda, assim entendido o produto do capital, do trabalho ou da
combinação de ambos;
II - de proventos de qualquer natureza, assim entendidos os acréscimos
patrimoniais não compreendidos no inciso anterior.
Quanto às informações que podem ser abstraídas a partir do citado artigo de lei,
primeiramente, verifica-se que o imposto de renda é de competência da União, e,
portanto, no Brasil ela o institui, arrecada e fiscaliza. Em segundo lugar, para sua
correta cobrança, é preciso que se saiba avaliar o real valor dos rendimentos
auferidos pelo contribuinte, ou seja, sua capacidade contributiva, conhecimento que,
em princípio, só ele e o fisco têm legitimidade para conhecer. Contudo, na prática,
essa é uma tarefa bastante delicada, já que envolve valores monetários
resguardados por sigilo bancário e fiscal. Além disso, verifica-se uma tendência já
atávica em parcela da sociedade visando dificultar ao máximo o acesso
governamental a essas informações vitais para sua sobrevivência. Por isso, os
Estados contemporâneos acabam atribuindo regimentalmente a seus órgãos
tributários a responsabilidade pelo estudo da infração e evasão tributárias e de seus
efeitos, bem como pela formulação de soluções que contornem essas dificuldades.
É importante ressaltar que todos esses aspectos legais e ambientais identificados
em relação ao imposto de renda podem ser estendidos aos demais tributos de
incidência direta (que são suportados pelo próprio contribuinte) administrados pela
SRF.
No universo fiscal, o que se pode dizer é que quando se trata de pessoas
jurídicas, a dificuldade da tarefa de seleção de contribuintes se eleva, já que a gama
de operações comerciais e industriais geradoras de tributos, e conseqüentemente a
complexidade dos registros desses fatos contábeis e fiscais, é bastante grande,
tornando a mensuração da capacidade contributiva do contribuinte uma tarefa bem
mais intrincada do que no caso das pessoas físicas.
Outro aspecto importante é que como os efeitos tributários em relação à
arrecadação já se fazem sentir pela mera ocorrência da infração, havendo ou não
volição em sua prática, os órgãos tributários, ao formularem planos de seleção de
contribuintes, procuram identificar contribuintes infratores em geral.
Em relação à pesquisa científica, observou-se que o estudo de critérios para
seleção de contribuintes para fiscalização é uma das especificidades da linha de
41
estudos mais genérica em evasão tributária, e nela está contido. Nesta revisão
procura-se enfocar ambos, continente e conteúdo, porém mais profundamente o
último, pois se considera oportuno o levantamento de seu estado da arte na
pesquisa científica. Com isso, todos os trabalhos que enfocam objetivamente a
seleção de contribuintes para fiscalização encontrados nas bases de dados
pesquisadas estão referenciados e contemplados ao longo da seção 2.4. Os
trabalhos foram pesquisados e obtidos a partir das bases de dados dos grandes
portais
internacionais
de
informações
científicas
ISI
Web
of
Knowledge
<www.isi.webofknowledge.com>, ABInform <www.proquest.com>, Science Direct
<www.sciencedirect.com> e do portal de informações científicas da CAPES
<www.periodicos.capes.gov.br> envolvendo periódicos, teses e dissertações.
Também foi consultado o site do Centro Interamericano de Administrações
Tributárias (CIAT) <www.ciat.org>.
2.3 Modelo básico de evasão tributária
As primeiras modelagens econômicas formais de evasão tributária e do
comportamento dos contribuintes foram conduzidas por Allingham e Sandmo (1972)
e Srinivasan (1973) (ERARD e FEINSTEIN, 1994; HOROWITZ e HOROWITZ,
2000). Nelas, o modelo fundamenta-se em um contribuinte que deve decidir sobre o
valor de seus rendimentos a reportar à agência tributária com base no seu nível real
de rendimento, em uma taxa proporcional de tributo a pagar, em uma dada
probabilidade de ser auditado e em uma penalidade proporcional ao rendimento
omitido, cuja taxa é superior à taxa proporcional de tributação, a ser paga caso lhe
seja detectada alguma infração na fase de auditoria. Todas essas variáveis são
consideradas exógenas em relação à decisão do contribuinte, que depende também
de sua atitude em relação ao risco. Como ele toma a decisão de quanto reportar
racionalmente à luz da maximização de seus rendimentos, optando por declarar
rendimentos a menos quando a expectativa do ganho assim obtido supera o
montante de tributo e penalidade a ser suportado em uma eventual auditoria, tratase efetivamente de uma modelagem de evasão tributária. Os principais resultados
obtidos a partir dessa contextualização demonstram que, para o contribuinte neutro
ao risco, os valores declarados à agência se elevam à medida que a probabilidade
de detecção e a taxa de penalidade se elevam e decrescem à medida que a taxa de
42
tributação aumenta. Outras situações ficaram menos claras nessa modelagem
inicial, que pode ser denominada de "básica" em termos de evasão tributária, e tem
sido objeto de numerosos refinamentos desde então (ALI; CECIL; KNOBLETT, 2001;
BECK e JUNG, 1989).
Partindo desse modelo original, Graetz et al. (1986), Reinganum e Wilde (1986) e
Beck e Jung (1989) avançaram ao modelar a evasão tributária como um jogo de
ações seqüenciais entre contribuinte e agência tributária, isso por meio da Teoria
dos Jogos1. O comportamento do contribuinte se dá conforme já definido pela
modelagem básica. Contudo, simultaneamente existe uma agência tributária que,
sujeita a um orçamento operacional prévio, e à luz da informação prestada pelo
contribuinte, conduz suas ações de auditoria de forma a maximizar sua função de
retorno líquido em termos de arrecadação de tributos. Agora, essa função considera
o valor declarado pelo contribuinte e o valor esperado de seus reais rendimentos
para a tomada de decisão da agência (SANSING, 1993; ERARD e FEINSTEIN,
1994). Em geral, essa abordagem reconhece formalmente que o ambiente é
caracterizado pela incerteza – a agência não conhece o real rendimento do
contribuinte e o contribuinte não conhece as reais capacidades de fiscalização da
agência, apenas tem informação sobre uma dada probabilidade objetiva de ser
fiscalizado – e tais tipos de situações têm sido classificadas pelos estudiosos como
sendo um jogo de informações assimétricas, em que cada parte possui suas
próprias estratégias e em que pelo menos uma das partes sabe algo desconhecido
da outra (RASMUSEN, 1989). Existem ainda sofisticações em termos dessa
contextualização teórica dos jogos tributários assimétricos, como, por exemplo,
quando o contribuinte desconhece o custo de auditoria defrontado pela agência,
desconhece a probabilidade objetiva de ser fiscalizado e também quando apresenta
incerteza em relação ao correto quantum por ele devido em termos de tributos;
situações estas, aliás, exploradas por alguns dos trabalhos apresentados nas
próximas seções.
Nesse jogo de informações assimétricas, abre-se, portanto, a possibilidade de
ligação entre as políticas tributárias e a decisão do contribuinte, e ele também é
conhecido no contexto da economia como abordagem do agente-principal aplicada
ao sistema tributário. Em termos arquetípicos, essa abordagem envolve dois
1
Para detalhes em Teoria dos Jogos, ver Rasmusen (1989) ou Dutta (2001).
43
indivíduos ou grupos de pessoas - o principal e o agente - inter-relacionados
tacitamente ou de direito, em que o principal contrata o agente para que, sob
remuneração, execute determinada tarefa, que, por sua vez, exige um dispêndio de
energia ou força por parte do agente. Ambas as partes tentam maximizar seus
interesses, que em maior ou menor grau são conflitantes entre si, e, a um dado
momento do jogo, o agente adquire uma vantagem em termos de informação em
relação ao principal (RASMUSEN, 1989). Seja no contexto tributário ou em qualquer
outro, o importante é que ambas as partes dessa relação possuem suas próprias
equações de comportamento e também preços ou ganhos de equilíbrio2.
Estas duas modelagens, básica e abordagem do agente-principal, foram e ainda
são muito adotadas como ponto de partida para diversos estudos mais modernos e
sofisticados, tanto os que procuram avaliar o impacto de políticas tributárias
alternativas e os efeitos de diversas variáveis sociais e comportamentais no nível de
evasão tributária da economia, quanto os que se preocupam especificamente com
métodos de seleção de contribuintes, haja vista que a partir da abordagem do
agente-principal os modelos passaram a reconhecer formalmente que as
informações prestadas pelo contribuinte influenciam a decisão posterior da agência
em relação a fiscalizá-lo ou não. Os trabalhos considerados pelo autor desta tese
como mais relevantes e estreitamente relacionados com o tema da pesquisa, e que
efetivamente aplicam e desenvolvem os conceitos previamente abordados neste
capítulo, são apresentados a seguir.
2.4 Modelos enfocando a seleção de contribuintes para fiscalização
2.4.1 Modelos envolvendo contribuintes pessoas físicas
Pelo exposto até aqui, viu-se que a maior dificuldade de uma agência tributária
está em medir a correta capacidade contributiva de cada indivíduo, principalmente
em um ambiente marcado pela incerteza. Essa tarefa é tão complexa e delicada,
que mesmo quando bem sucedida em certo grau ela nem sempre produz efeitos
publicitários favoráveis ao Estado.
2
No contexto da Teoria dos Jogos, o conceito de equilíbrio difere do microeconômico associado a um
preço que iguala a oferta e a demanda, significando, na verdade, o conjunto das melhores estratégias
para cada um dos jogadores, sendo, ainda, tecnicamente distinto do resultado de equilíbrio - o
conjunto dos ganhos proporcionados pelas melhores estratégias (RASMUSEN, 1989).
44
De fato uma pesquisa de opinião efetuada em meio aos contribuintes dos
Estados Unidos da América (EUA) demonstrou que apenas 48% deles achavam que
o Internal Revenue Service (IRS) dos EUA era consistente em relação às decisões
firmadas em processos individuais de fiscalização de contribuintes, e que isso
provavelmente ocorria devido às diferenças individuais nas competências dos
agentes tributários. Mas essa sensação poderia também ser creditada à
aleatoriedade na seleção de contribuintes por parte dos órgãos tributários, pois foi
provado matematicamente que ela faz parte do delicado jogo de equilíbrio
econômico entre a maximização da arrecadação da agência e dos rendimentos
líquidos do contribuinte. Dessa forma, para a redução de aleatoriedade e promoção
de maior justiça social, as agências incorrem em um custo operacional que deve ser
balanceado pelo processo de maximização de suas receitas (SCOTCHMER e
SLEMROD, 1988).
Nesse contexto, uma das maneiras de reduzir a aleatoriedade de maneira
economicamente viável, assumindo-se um custo unitário da ação fiscal como fixo, se
dá pela elevação do valor esperado do resultado da ação fiscal, fazendo com que o
custo em reduzir a aleatoriedade seja amortizado por vantagens adicionais em
termos de arrecadação. Portanto, melhores critérios de seleção têm sido
pesquisados e utilizados parcial ou totalmente em lugar da aleatoriedade de seleção.
Esses esforços não têm sido infrutíferos já que há referências bibliográficas
indicando que diversos métodos de seleção não aleatórios, como pelo histórico
temporal do contribuinte, ou então pelo critério Discriminant Index Function (DIF)
utilizado pelo IRS dos EUA, apresentam retorno líquido superior ao obtido por
métodos puramente aleatórios. Em relação ao DIF, esse método produz um índice
resultante de um processo estatístico multivariado que leva em consideração
diversas informações sobre as pessoas físicas dos EUA, principalmente as
declaradas pelo próprio contribuinte, para calcular o afastamento ou distância de
cada indivíduo em relação à média geral. Os que estejam mais afastados são então
selecionados para auditoria. Calcula-se que atualmente cerca de 50% das auditorias
estadunidenses são motivadas com base neste critério, porém, apesar de já ter sido
instado diversas vezes a divulgar os critérios e pesos utilizados para construção do
DIF, o IRS os mantém em estrito sigilo (ALM e MCKEE, 2003).
Nesse sentido, Macho-Stadler e Perez-Castrillo (2002) advogam que o mais
importante aspecto para o sucesso do planejamento de auditoria de um órgão
45
tributário é a fase de seleção dos contribuintes e que essa pode até se dar de forma
totalmente aleatória, mas os órgãos têm procurado utilizar critérios que favoreçam a
seleção dos potencialmente mais interessantes. Além disso, acrescentam que em
trabalhos regulares de auditoria, o contribuinte tem a vantagem competitiva de saber
o seu real rendimento, que é ignorado pela agência, e os critérios aleatórios não
revertem essa vantagem. Contudo, existem formas de atenuá-la, e citam como
exemplo o DIF, pois os contribuintes são informados de sua existência, mas não
conhecem sua fórmula, o que, em certo grau, equilibra o jogo de forças tributário.
Seguindo essa tendência, o trabalho proposto por eles fundamenta-se em uma
modelagem econômica em que os órgãos possuem informações positivamente
correlacionadas com o real rendimento do contribuinte e que são agrupadas em uma
única variável aleatória, denominada de “sinal”, cuja realização não é conhecida pelo
contribuinte. Assim, os selecionados serão aqueles com maior sinal. De acordo com
os autores, a linha de se modelar economicamente sistemas de seleção com a
adoção de sinais positivamente correlacionados com os verdadeiros rendimentos
dos contribuintes foi originalmente proposta por Scotchmer (1987), em sua
modelagem de classes de auditoria. Contudo, neste último estudo as características
que compõem o sinal que divide os contribuintes em classes são plenamente
conhecidas pelos contribuintes, tais como sexo, ocupação, etc, o que reduz em certo
grau a vantagem competitiva obtida pela agência tributária pela adoção do critério.
Sinteticamente, o modelo proposto pelos autores utiliza uma estrutura em que o
valor a pagar verdadeiro i divide-se em três valores possíveis, i ∈ {0,m,1}. É
executada uma normalização em que os níveis zero e um correspondem,
respectivamente, ao menor e ao maior valor de rendimentos reais I dentre o universo
de contribuintes, sendo que m ∈ (0,1). O contribuinte é considerado neutro ao risco e
tende a informar um valor a pagar r(i) ∈ {0,m,1} que maximize seu rendimento
líquido, sendo que, por segurança, ele informará o maior dos r(i) que lhe sejam
indiferentes. Já a agência tributária deseja maximizar o recolhimento de tributos
sobre o rendimento, dado um certo orçamento disponível para suas atividades, B,
sendo c o custo para auditoria de um único contribuinte. Um sinal s proposto pelos
autores é suposto como livre de custo e pode assumir apenas dois valores, s ∈
{d(down),u(up)}, e a probabilidade de realização do sinal up é dada por:
Prob(s = u|i) = αi
(2.1)
46
Assume-se que α0 ≥ αm ≥ α1 e como o sinal é forçosamente positivamente
correlacionado com o rendimento real I, um sinal u provavelmente estará associado
a um elevado valor de tributos a pagar i. Com base nos sinais observados e no custo
de auditoria, a fiscalização alocará seus recursos selecionando contribuintes de
forma a maximizar o recolhimento de tributos. A probabilidade de um contribuinte ser
fiscalizado é dada por p(R,s), sendo R o rendimento declarado, e, por meio da
utilização dos sinais down e up, a pressão de auditoria sobre um determinado
contribuinte auferindo rendimentos I e declarando R é dada por:
P(I,R) = (1-αI) p(R,d) + αI p(R,u)
(2.2)
A seleção por sinais apresenta uma importante característica. A pressão de
auditoria sobre um contribuinte varia em função das políticas de auditoria e de seu
verdadeiro rendimento. Assim dois contribuintes com rendimentos reais I distintos,
mas reportando o mesmo valor R e contando com as mesmas probabilidades de
serem fiscalizados p(R,s), perceberão diferentes pressões P(I,R), e isso significa que
alterações nas políticas tributárias afetarão diferentemente os contribuintes na
medida de seus verdadeiros rendimentos. Isso em princípio reverte o jogo tributário
a favor da agência. Os autores modelam teoricamente o comportamento tributário de
contribuintes e agência com base em diversos lemas matemáticos e pressupostos
de trabalho (não apresentados aqui), com o objetivo de que um perfil ótimo de
alocação de recursos e de probabilidades de fiscalização seja identificado e adotado
pela agência.
Os autores alegam que sua modelagem apresenta algumas limitações que são
típicas dos trabalhos que seguem a abordagem do agente-principal, quais sejam: o
órgão tributário se compromete previamente a executar uma política de auditoria
específica (o que na prática pode não ocorrer) e é considerado avesso ao risco; os
contribuintes são neutros em relação ao risco e optam por declarar unicamente em
função da maximização de seus rendimentos líquidos; e, também, o rendimento do
contribuinte é exógeno ao problema. Mas a principal limitação identificada por eles é
a de que os valores a pagar i dos contribuintes estão constrangidos a apenas três
possíveis valores, {0,m,1}, que apesar de poderem ser estendidos a uma faixa maior
de rendimentos, isso elevaria substancialmente a complexidade da modelagem de
comportamento tributário efetuada e subseqüente auditoria.
47
Em relação a esse estudo, cabe comentar que a grande dificuldade tributária é
justamente a definição dos "sinais" a serem utilizados, de forma a que a correta
capacidade contributiva de cada um seja revelada. Isso, no entanto, não foi o
enfoque do trabalho, que pressupõe sua existência prévia para a modelagem teórica
da alocação ótima de recursos de auditoria da agência tributária.
Feinstein (1991) apresenta um trabalho econométrico específico para detecção
de infração tributária de contribuintes pessoas físicas e, inicialmente, alega que uma
das grandes dificuldades em trabalhos desse escopo é o fato de que, em geral, não
há registros dicotômicos informando sobre contribuintes que evadem e contribuintes
que não evadem tributos. Na verdade, dispõe-se de informações sobre os
contribuintes em que foi detectada evasão. Adicionalmente, o autor alega que nem
toda a evasão praticada por um contribuinte identificado como possível infrator pode
ter sido detectada pela agência, mas somente uma parte dela, já que os servidores
do Estado não são considerados perfeitos. Essa última situação constitui-se no
diferencial de seu trabalho, já que inclusive ele utiliza características dos auditores
da agência tributária dos EUA para avaliar a fração da evasão detectada. Para lidar
com essa situação de detecção parcial ele divide sua modelagem em duas partes,
um processo de omissão e outro de detecção, chamando-a de "fracional". No
Apêndice A encontra-se apresentado o cerne da modelagem econométrica praticada
pelo autor, incluindo a especificação da função de verossimilhança adequada à
distribuição de probabilidade conjunta resultante das características da modelagem
fracional empregada. Na parte de aplicação dos modelos propostos pelo autor, os
dados utilizados são do IRS e de seu Programa de Avaliação do Cumprimento
Tributário (TCMP) das pessoas físicas, referentes aos anos de 1982 e 1985,
envolvendo uma amostra das declarações de rendimentos de contribuintes pessoas
físicas dos EUA e o resultado das fiscalizações efetuadas por parte dos auditores do
IRS.
Os principais resultados e conclusões obtidos em relação à parte que modela a
evasão, cuja variável resposta é o valor líquido do rendimento tributável omitido,
apontam para os seguintes fatos: quanto maior o rendimento do contribuinte, maior a
evasão; o coeficiente para a taxa marginal de tributação3 é elevado e
estatisticamente significativo em todos os modelos, sendo positivo para os anos de
3
Taxa marginal de tributação é o montante adicional de tributo pago devido ao recebimento de uma
unidade adicional de rendimento.
48
1982 e 1985 considerados isoladamente, e negativo para os dados anuais em
conjunto; os contribuintes casados são mais propensos à evasão; e os contribuintes
que preenchem os formulários C e F4 são significativamente mais infratores, talvez
por perceberem mais oportunidades para omitir rendimentos. Além disso, o autor
alega que os resultados isolados para 1982 e 1985 são consistentes entre si.
Já as conclusões em relação à parte de detecção para 1982 e 1985, cuja
resposta é a fração detectada do rendimento omitido, indicam que houve uma
melhoria na qualificação de mão de obra no IRS, já que pelos sinais dos coeficientes
para 1982, viu-se que lá os servidores mais experientes não favoreciam uma maior
detecção, resultado que se inverteu em 1985. Outro resultado surpreendente é que,
ao contrário do senso comum, as revisões mais intrincadas envolvendo os
formulários mais complexos favorecem uma maior detecção da infração praticada.
Como limitações de seu trabalho o autor expõe que a utilização de um modelo
fracional de evasão, e subseqüente detecção condicionada à presença de evasão,
sujeita o trabalho a mais suposições prévias do que as exigidas por outras
modelagens mais simplificadas.
Um trabalho que faz referência ao anterior como sendo um dos fundamentos de
sua pesquisa é o de Erard (1997). Este autor também fraciona sua modelagem em
mais de uma equação. A primeira, assim como a de Feinstein (1991), também
procura modelar a infração tributária cometida pelo contribuinte, mas leva em
consideração em sua formalização o controle sobre se a declaração foi preparada
por um especialista tributário ou pelo próprio contribuinte. Já a segunda representa o
diferencial de seu trabalho, pois procura classificar o resultado obtido pelo primeiro
modelo como relacionado a infrações não intencionais, ou então deliberadas. A
terceira equação, assim como a segunda de Feinstein (1991), procura, com base em
informações da agência tributária, aferir o grau de detecção da evasão indicada pela
primeira equação, se total, parcial, ou então não detectada. Contudo, como a
primeira equação controla se a declaração é autopreparada ou com ajuda de
terceiros, isso implica que a terceira equação também tem de incorporar o controle
sobre esse efeito. Posteriormente, uma função de verossimilhança adequada à
distribuição de probabilidade conjunta resultante da modelagem proposta é deduzida
4
De acordo com o IRS, o Formulário C é utilizado para informar os ganhos ou perdas dos que se
dedicam às firmas individuais e o Formulário F é utilizado para informar os ganhos ou perdas dos que
se dedicam às atividades rurais.
49
pelo autor de forma a possibilitar sua aplicação empírica. Na parte prática utilizam-se
os mesmos dados do TCMP dos anos de 1982 e 1985 e, não coincidentemente, no
tocante à parte da modelagem já controlada por Feinstein (1991), os resultados
obtidos foram bastante similares. Contudo, em relação à parte não controlada pelo
trabalho de Feinstein (1991), seus resultados são bastante interessantes e podem
ser sintetizados pela constatação de que as infrações tributárias deliberadas têm
maior probabilidade de ocorrer em declarações preparadas pelos próprios
contribuintes. Contudo, quando presentes em declarações preparadas por
especialistas, as infrações deliberadas tendem a ser de maior magnitude. Já as
limitações do trabalho, de acordo com o próprio pesquisador, são similares, e até
mais agravadas, às identificadas por Feinstein (1991) em sua modelagem: a
existência de muitas suposições interligando as diversas e complexas modelagens
condicionais entre si. O trabalho de Erard (1997) possui interesse relativo aqui, já
que a preocupação principal desta pesquisa é a identificação do potencial de
infração à legislação tributária com base nas declarações de rendimentos das
pessoas jurídicas brasileiras, mas independentemente de ele ser atribuído a ações
praticadas de forma deliberada ou não intencional.
2.4.2 Modelos envolvendo contribuintes pessoas jurídicas
Um trabalho de citação pertinente por enfocar de maneira empírica aspectos
relativos ao comportamento tributário das pessoas jurídicas é o desenvolvido por
Mills (1996). Este autor inicialmente argumenta que as leis tributárias abrem diversas
brechas para o planejamento tributário - que pode ser considerado uma espécie de
elisão fiscal - e, além disso, há vantagens competitivas empresariais envolvendo a
utilização de planejamento tributário como auxílio à decisão sobre os valores a
reportar ao IRS. Por outro lado, há indícios preliminares de que quanto maior a
desconformidade entre os rendimentos tributável e contábil informado na declaração
entregue ao IRS, maior será o eventual ajuste do rendimento praticado pelo IRS. Há
que se reconhecer também que há regimes tributários nos EUA cujas legislações
impõem resultados tributário e contábil mais conformes entre si, situação que varia
em função de determinadas atividades econômicas. Todos esses fatores associados
levam à suposição de que o contribuinte, ao decidir sobre suas declarações, executa
uma minimização conjunta dos custos incorridos com suas declarações, dos tributos
pagos espontaneamente e dos eventuais custos adicionais com auditorias. No limite,
50
um planejamento desse escopo poderia levar uma empresa a publicar um
rendimento contábil o maior possível, ao mesmo tempo em que reportando um
rendimento tributável de valor inferior ou equivalente a zero.
O autor investiga esse complexo relacionamento econômico-tributário por meio
de um estudo empírico enfocando as indústrias de manufatura selecionadas pelo
Programa de Exame Coordenado (PEC) do IRS, entre 1982 e 1993. Os dados são
relativos às declarações enviadas pelas indústrias ao IRS, sendo que, dessas, 70%
tinham ações comercializadas em bolsa, e o restante sendo mantidas sob controle
do governo dos EUA ou de empresas estrangeiras. Quanto ao PEC, o autor comenta
que suas auditorias são, em geral, bastante profundas e detalhadas, porém bastante
lentas. Das auditorias iniciadas em 1982 somente 50% chegaram a uma conclusão
administrativa sete anos depois. Com base nesses dados e nas publicações
financeiras das indústrias, o autor construiu diversas medidas de conformidade entre
aqueles dois rendimentos, de forma a formular sua primeira hipótese de pesquisa,
qual seja: os ajustes tributários efetuados pelo IRS elevam-se na medida em que se
elevam os excessos entre os rendimentos financeiro e tributável, ceteris paribus.
Para testar essa hipótese, o autor efetuou uma regressão linear múltipla conforme o
seguinte modelo:
BTINCi ,t
ADTRi
= β 0 + β1 MTRi ,t
+
BEGASS i ,t
BEGASS i ,t
β 2 PTS i ,t + β 3 PUBLICi ,t + β 4
β5
ITCi ,t
BEGASS i ,t
+ β6
FORINCi ,t
BEGASS i ,t
NPPEi ,t
BEGASS i ,t
+
(2.3)
^
+ β 7 λi ,t + ε i
Para t = 0 (ano de 1982),..., 11 (ano de 1993), onde
ADTR: ajuste no resultado efetuado pelo IRS,
BEGASS: valor inicial dos ativos no balanço informado ao IRS,
MTR: estimativa da taxa marginal de tributação da empresa,
BTINC: Rendimento contábil antes dos impostos, subtraído do rendimento tributável
declarado (medida de conformidade entre os dois valores),
PTS: medida, em escala de pontos, do tamanho e complexidade da auditoria
efetuada pelo IRS,
51
PUBLIC: variável dummy responsável por captar o efeito da empresa ser suportada
por recursos públicos,
NPPE: depreciação inicial líquida informada ao IRS,
ITC: reinvestimento do crédito tributário apurado solicitado na declaração de
rendimentos,
FORINC: variável responsável por captar o efeito de ganhos de capital não
repatriados, no caso das empresas que declaram atividades no exterior,
^
λ i : fator de correção do viés de seleção da amostra, construído a partir do
procedimento em dois estágios de Heckman5.
Um outro aspecto também abordado pelo autor cuida dos custos de atendimento
à legislação tributária incorridos pelas empresas dos EUA. A partir de estudos e
levantamentos efetuados por Slemrod (1989) e Slemrod e Blumenthal (1996),
constatou-se que tais custos elevaram-se em 77% desde 1986 e que, no mesmo
período, a complexidade da legislação tributária elevou-se de forma idêntica, de
acordo com uma pesquisa executada por meio de um questionário aplicado às
empresas, sugerindo que essa situação provavelmente contribuiu para elevação dos
custos tributários. Além disso, o trabalho de Scotchmer e Slemrod (1989) mostra que
um maior grau de incerteza em relação aos aspectos tributários, considerado direta
e positivamente relacionado com a complexidade legal, faz com que o contribuinte
avesso ao risco pague mais impostos. Contudo, de acordo com Mills (1996), nenhum
desses estudos levou em consideração a incerteza do IRS em relação ao verdadeiro
valor devido pelo contribuinte, nem avaliou a possibilidade das grandes empresas
serem propensas ao risco, diferentemente da suposição de neutralidade
tradicionalmente empregada para as pessoas físicas. Esses aspectos poderiam
sugerir, no caso das grandes empresas, que a complexidade legal está associada a
um menor cumprimento tributário, já que abre oportunidade para maiores e mais
sofisticados planejamentos fiscais, que, em geral, estão distantes das pessoas
físicas.
Assim, o autor procura avaliar se a tendência identificada por Slemrod em relação
às pessoas físicas se inverte no caso das grandes corporações, ou seja, se uma
maior complexidade legal leva a níveis inferiores de cumprimento tributário. Como o
custo opcional de planejamento tributário está contabilmente contido no custo
5
Para detalhes sobre esse processo de correção do viés, ver Greene (apud Mills, 1996, p.426).
52
contábil total de atendimento à legislação tributária, ele formulou uma segunda
hipótese de pesquisa, qual seja: o valor dos tributos pagos é negativamente
relacionado com custos discricionários de atendimento tributário, ceteris paribus.
Para avaliá-la o autor utilizou dados de pagamentos de tributos originários do IRS
e também uma pesquisa que avaliou os custos tributários das empresas industriais
relacionadas no PEC do IRS realizada por Slemrod e Blumenthal (1996). Para
avaliação dessa hipótese o autor modelou uma regressão linear múltipla conforme
segue:
USCUR _ 91i = β0 + β1 PLAN i + β2 PLAN i ⋅ USASS i +
β3 PAGEi + β4 PLAN i ⋅ FORi + β5 INDk,i ⋅ USASS i +
(2.4)
β6 PLAN i ⋅ INDk,i ⋅ USASS i + εi
Onde
USCUR_91: pagamento de tributo individual em 1991,
PLAN: logaritmo natural dos custos de planejamento e pesquisa tributária adicionado
de um,
USASS: ativos situados nos EUA reportados pela empresa,
PAGES: número de fichas das declarações individuais de rendimento,
FOR: razão entre os ativos situados no exterior e os ativos totais,
IND: variáveis dummy com o objetivo de captar o efeito de K diferentes subdivisões
do setor industrial dos EUA.
Os resultados gerais do trabalho confirmam a primeira hipótese de pesquisa, pois
os ajustes efetuados pelas auditorias do IRS efetivamente crescem na medida em
que decresce a conformidade entre os rendimentos financeiro e tributário reportados
à agência tributária, isso a uma taxa entre 10% e 20%. Além disso, trabalhos em
andamento, conduzidos à época pelo autor, apresentaram resultados preliminares
indicando que nas áreas onde os incentivos tributários são elevados em relação aos
incentivos de informação contábil, os rendimentos tributável e contábil mantêm-se
mais conformes entre si, o que corrobora a participação de um esquema de
planejamento tributário atuando na decisão do contribuinte. O ajuste de uma
regressão probit6 - não apresentada no artigo original - produziu interessantes
6
Modelo de regressão utilizado no caso de variável resposta binária, em que uma função de resposta
não linear similar à logística é obtida por meio de uma transformação envolvendo a distribuição de
53
resultados em relação à probabilidade da empresa ser fiscalizada pelo IRS, e ela é
maior no caso de presença de resultados tributáveis originados do exterior e caso a
empresa mantenha o controle de seu capital em poder privado. Por outro lado, essa
probabilidade decresce caso o resultado declarado ao IRS seja um prejuízo.
Em relação à hipótese dois, também confirmada, os resultados sintetizam que as
empresas que gastam mais em planejamento tributário, provavelmente devido à
complexidade da legislação, efetivamente pagam menos tributos. Entretanto, o autor
alerta que isso não significa que as que gastam menos poderiam se beneficiar com
maiores dispêndios nessa atividade, já que se supõe que cada uma delas esteja em
seu ponto ótimo de planejamento, considerando as peculiaridades legais e
econômicas verificadas para cada uma das subdivisões de atividades fabris. Em
relação à magnitude do efeito de redução dos pagamentos, as empresas públicas e
as de manufatura são as que mais se beneficiam desse efeito, proporcionalmente
aos desembolsos efetuados.
Viu-se que Mills (1996) mostrou empiricamente a significância estatística das
diferenças entre os rendimentos tributário e financeiro reportados quanto ao correto
cumprimento tributário. Aproveitando a oportunidade dessa constatação, vale dizer
que o trabalho de Mills e Sansing (2000) incorporou esse conceito na modelagem
econômica teórica do relacionamento entre contribuinte pessoa jurídica e agência
tributária (ZENG, 2002). Nesse modelo, o contribuinte inicialmente verifica,
privadamente, qual será o seu rendimento tributável e calcula o tributo a pagar.
Posteriormente, em sua decisão em relação aos valores a reportar à agência, ele
decide-se em relação a três opções de declaração: uma declaração em que ambos
os rendimentos são idênticos; uma declaração em que o contábil é superior ao
tributável; ou então uma em que o tributável é superior ao contábil. Saliente-se que
nessa modelagem o rendimento total contábil é considerado exógeno ao problema
e, portanto, a decisão do contribuinte recai apenas em relação ao valor tributável a
declarar. Finalmente, o contribuinte se decide e informa seus valores à agência, que
os analisa e define sobre uma possível fiscalização. Como as declarações de
pessoas jurídicas são bem mais complexas do que as de pessoas físicas, no ponto
ótimo de ambos os comportamentos, esse trabalho demonstrou que o contribuinte
adota uma estratégia mista, em que algumas transações têm rendimentos omitidos e
probabilidade Normal acumulada (NETER et al., 1996). Detalhes em Davidson e Mackinnon (1993, p.
514-516).
54
outras não. Da mesma maneira a agência não fiscaliza todas as operações que
possuem indícios de omissão, mas somente uma parte delas, principalmente devido
às restrições orçamentárias.
Por outro lado, Zeng (2002) alega que a decisão do contribuinte em relação aos
valores a declarar é simultânea, pesando a uma só vez seus tributos realmente
devidos, os efeitos de uma possível auditoria, e os custos incorridos em
planejamento tributário com o objetivo de validar seu eventual rendimento contábil
elevado. Por isso, para ele, o rendimento contábil a reportar é, na verdade,
endógeno ao problema, correlacionado com o rendimento tributável e com o custo
incorrido no planejamento tributário e, ainda, é dependente da estratégia de seleção
da agência. Basicamente, a contribuição de Zeng (2002) foi incorporar à modelagem
tributária a decisão simultânea do contribuinte sobre como declarar seu rendimento
tributável e também os aspectos financeiros envolvidos na declaração, incluindo-se
aí seu rendimento contábil e as despesas incorridas com seu eventual planejamento
tributário.
Dessa forma, seu modelo econômico teórico de jogo apresenta resumidamente a
seguinte dinâmica. Inicialmente, o contribuinte verifica reservadamente seu
rendimento tributável, calculando o tributo a pagar, e seu rendimento total contábil.
Por simplicidade de modelagem, o autor admite apenas dois valores possíveis para
ambos os rendimentos, "alto" e "baixo", sendo que estes são positivamente
correlacionados entre si. Posteriormente, ele decide como declarar à agência seus
rendimentos tributável e contábil com base na minimização conjunta dos custos com
pagamento de tributos e dos custos não tributários. Caso seja verificado um
rendimento tributário real baixo, assume-se que o contribuinte sempre informa o
valor real ao IRS.
Com base nas informações prestadas pelo contribuinte, a agência deve decidir se
o contribuinte será selecionado para fiscalização ou não, mas generalizando o já
tradicionalmente assumido nas pesquisas, a agência agora não conhece ambos os
rendimentos reais do contribuinte, tributável e contábil. Além disso, ela deseja
maximizar seu rendimento líquido sujeito às inevitáveis restrições orçamentárias.
Caso o contribuinte não seja fiscalizado, seu pagamento total é dado pela soma do
tributo pago com base no rendimento tributável declarado, do custo financeiro
incorrido caso ele tenha declarado um rendimento contábil baixo, e do custo de
transação no caso dele ter alterado seu valor de rendimento contábil real na
55
declaração. No caso de haver uma auditoria, o montante pago pelo contribuinte é
dado pela soma do tributo pago originalmente com o tributo adicional apurado, mais
uma penalidade proporcional ao tributo evadido, adicionada do custo não transferível
de suportar a auditoria e, ainda, dos custos financeiro e de transação incorridos,
respectivamente, caso ele tenha declarado um rendimento contábil baixo e tenha
alterado seu valor de rendimento contábil real na declaração.
Estabelecendo as equações de equilíbrio, com base nas probabilidades inferidas
das estratégias de maximização e minimização da agência e do contribuinte, ambas
sujeitas a certos lemas e pressupostos matemáticos (não apresentados aqui), e
realizando a análise estática comparativa7 por derivações parciais dessas equações
em relação às variáveis tributárias que as compõem, chega-se às seguintes
principais conclusões: a agência é mais propensa a selecionar e fiscalizar um
contribuinte apresentando alto rendimento contábil declarado e baixo rendimento
tributável do que um apresentando os dois rendimentos baixos, o que é plenamente
consistente com os trabalhos anteriores de Mills (1996) e Mills e Sansing (2000), e o
autor acrescenta que diferentes setores de atividades incentivam em níveis distintos
a não conformidade entre esses dois rendimentos. Além disso, a agência tem maior
probabilidade de fiscalizar um contribuinte apresentando os dois rendimentos baixos
e informando baixo custo financeiro, do que um na mesma situação, mas
apresentando elevado custo financeiro incorrido na declaração. E, finalmente, o grau
de correlação entre os dois rendimentos reais, tributável e contábil, afeta a decisão
do contribuinte sobre como reportá-los à agência tributária, e esse é outro fator que
apresenta variação entre os setores econômicos. Adicionalmente, o autor informa
que todas essas três conclusões teóricas implicam na realização futura de estudos
empíricos para seu aprofundamento e consolidação.
Os resultados teóricos e estatísticos relacionados aos últimos trabalhos
demonstraram que o IRS utiliza, ou utilizou em determinado momento, o critério não
aleatório de presença de desconformidade entre o resultado tributável e contábil
para seleção de contribuintes pessoas jurídicas. Isso sugere uma possível
formulação de critério semelhante no Brasil. Contudo sua implementação deve
passar inicialmente pela análise e adequação à nossa legislação específica.
7
Para detalhes em Análise Estática Comparativa ver Varian (1992, p.110).
56
Outro trabalho envolvendo pessoas jurídicas, o de Murray (1995), enfoca a
seleção de contribuintes pessoas jurídicas no Estado do Tenessee nos EUA. Este
autor considera que a pesquisa em evasão tributária tem estado por demais
concentrada nas pessoas físicas, encontrando-se poucos trabalhos abordando as
pessoas jurídicas. No caso, seu trabalho enfoca especificamente a fiscalização do
imposto cobrado sobre as vendas do setor industrial, que, segundo ele, representou
24,7% da arrecadação total de impostos nos EUA em 1993. O autor modelou três
equações de regressão distintas, cujas variáveis resposta são: contribuinte
fiscalizado/não fiscalizado, ocorrência de ajuste/não ocorrência de ajuste do
rendimento e valor do ajuste do rendimento/horas de auditoria. As duas primeiras
variáveis são binárias e a última uma razão contínua. Devido à multiplicidade de
modelagens praticadas neste trabalho, os detalhes e resultados práticos do estudo,
que teve por base os dados do Departamento de Receitas do Estado do Tennessee
referentes aos anos de 1986 e 1988 (pessoas jurídicas do setor industrial
fiscalizadas e os eventuais ajustes praticados), podem ser consultados no Apêndice
B.
Adiantando aqui as principais conclusões do autor para a primeira regressão com
resposta binária, estas apontam para que os contribuintes que relataram elevados
valores de receitas de vendas brutas enfrentaram menores probabilidades de serem
fiscalizados, enquanto que os que apresentaram variações nessas mesmas receitas
ao longo do tempo contaram com maior probabilidade de serem auditados.
O segundo modelo produziu bem menos estatísticas significativas do que o
primeiro provavelmente por haver apenas 6% de empresas com ajuste zero na base
de dados. Foram arrolados como resultados estatísticos relevantes o fato de que as
empresas mais antigas, as que possuem proprietário em outro Estado e as que
possuem pontos de venda em filiais apresentaram maior probabilidade de omitirem
rendimentos.
Já pelo terceiro modelo, verificou-se que quanto maiores as vendas brutas reais,
maiores são os níveis de ajuste do rendimento/horas de auditoria.
Por fim, em termos de pessoas jurídicas, relacione-se o trabalho de Press (1995),
que propõe uma metodologia para seleção de contribuintes para fiscalização com
base em amostragem. A idéia é estabelecer um intervalo de confiança para o total
populacional, em dólares, das transações da pessoa jurídica, com base em uma
amostra aleatória dessas transações. Exemplificando, a partir de uma amostra de
57
notas fiscais, pode-se estabelecer o intervalo de confiança para a receita total do
contribuinte e selecioná-lo ou não para fiscalização com base na comparação com o
valor por ele declarado. Mais detalhes sobre esse interessante trabalho são
apresentados no Apêndice C.
2.4.3 Modelos envolvendo contribuintes que auferem rendimentos por
conta própria
O trabalho de Joulfaian e Rider (1998) enfocou o comportamento tributário dos
que trabalham por conta própria dos EUA. Os autores argumentam que há um senso
comum, justificado até, creditando menores pagamentos voluntários de tributos aos
que se ocupam por conta própria, se comparados com os empregados assalariados.
De fato, estimativas do IRS informam que a declaração voluntária de rendimentos de
salários nos EUA é de cerca de 99% do montante pago anualmente, enquanto que a
mesma estimativa para todos os outros rendimentos não ultrapassa 80%. Em geral,
isso é atribuído à dificuldade de se avaliar os reais rendimentos obtidos pelos que
auferem rendimentos por conta própria, devido à crônica ausência de informações
compulsoriamente prestadas por terceiros, que por outro lado são fartamente
existentes no caso dos assalariados. Contudo, o IRS também informa diferenças
sensíveis no próprio cumprimento tributário voluntário dos que recebem por conta
própria, atingindo respectivamente 41% e 84% para firmas individuais e para os que
recebem rendimentos de royalties e aluguéis. Nesse caso, é certo que existe
também diferença entre essas atividades quanto à quantidade de informações
tributárias prestadas ao IRS: os aluguéis tendem a ser mais bem informados por
terceiros que sejam locatários e por imobiliárias do que outros tipos de rendimentos
por contraprestação ou venda de serviços e produtos. Contudo, há ainda um outro
efeito a ser considerado, que é a existência de diferentes tratamentos tributários,
mesmo entre os que recebem por conta própria. Nos EUA as firmas individuais que
auferem valores abaixo de um certo limite estão sujeitas a um imposto adicional
chamado de Self-Employment Tax (SECA), mas que não é exigido dos contribuintes
que auferem rendimentos recebidos de aluguéis. Assim, com o advento da SECA
adicional, isso sugeriria que o pagamento de tributos por parte daqueles
contribuintes seria superior ao dos últimos, considerando-se uma mesma faixa de
rendimentos. Contudo, ainda as estimativas do IRS dão conta de que, em 1988,
58
apenas 50% dos tributos arrecadados pela SECA foram voluntariamente reportados
ao IRS, contra um nível de 84% em relação ao imposto de renda total. Isso indica
que, hipoteticamente, esta diferença de tributação adicional SECA efetivamente
vinha afetando o cumprimento tributário voluntário dos contribuintes.
Como a preocupação dos autores é examinar o comportamento tributário dos
contribuintes que auferem rendimentos por conta própria, é preciso que seja isolado
o efeito da SECA em relação a essa categoria de sujeitos passivos. Para isso, os
autores modelam a omissão de rendimentos detectada pelo IRS, estimando-a por
meio dos dados de declarações de rendimentos prestadas por três subdivisões do
universo de contribuintes que auferem rendimentos por conta própria, a saber:
rendimentos das firmas individuais, dos que praticam atividades rurais e dos que
recebem por locação imobiliária. Para tanto, utilizam informações sobre as auditorias
efetuadas nesses contribuintes por ocasião do TCMP do IRS nos anos de 1985 e
1988, todos agrupados em uma amostra conjunta. A variável resposta do modelo é o
logaritmo natural (log) da omissão de rendimentos detectada na declaração do
contribuinte, e a estimação se deu por máxima verossimilhança tobit8, em virtude da
presença de declarações que superestimaram seus rendimentos declarados, e que,
portanto, foram censuradas em termos da resposta. O modelo foi estimado duas
vezes, sendo que na segunda estimação foi considerado o adicional da taxa SECA.
Os resultados das estimativas vão condensados na Tabela 1.
Tabela 1: Estimativas para modelo tobit de Joulfaian e Rider (1998)
(continua)
Variável Resposta: log da omissão de rendimentos detectada
Variáveis independentes
Equação 1
Equação 2
Intercepto
-8,626 (0,534)
-8,515 (0,531)
Dummy 1988
-0,411 (0,116)
-0,332 (0,115)
15,342 (1,917)
14,892 (1,912)
Idade x 10
8
Coeficientes (Erro Padrão)
-2
O termo tobit seria uma contração de Tobin's probit, já que a utilização de uma variável resposta
censurada em certos valores observados para uma variável latente foi originalmente proposta por
Tobin em 1958. Além disso, sabe-se que o modelo probit, adequado às respostas binárias, pode ser
obtido pelo mesmo efeito de censura da resposta ao nível zero. As estimativas tobit em geral são
obtidas por Máxima Verossimilhança, pois há evidências de que a utilização de Mínimos Quadrados
Ordinários em casos de dados truncados ou censurados leva a estimativas inconsistentes que variam
bastante em função da porcentagem de observações censuradas ou truncadas, sendo que esse
problema aumenta à medida que mais observações são retiradas da amostra, ou então censuradas.
Detalhes em Davidson e Mackinnon (1993, p. 537-542).
59
Tabela 1: Estimativas para modelo tobit de Joulfaian e Rider (1998)
(continuação)
Variável Resposta: log da omissão de rendimentos detectada
Variáveis independentes
Coeficientes (Erro Padrão)
Equação 1
Equação 1
-18,054 (1,928)
-17,657 (1,924)
TF
-0,134 (0,091)
-0,115 (0,090)
Sul
-0,130 (0,154)
-0,119 (0,154)
Oeste
0,217 (0,163)
0,247 (0,163)
Norte
0,053 (0,179)
0,032 (0,179)
OTR
-1,029 (0,511)
2
Idade x 10
-4
OTR + SECA
2,222 (0,527)
Taxa de Auditoria
-28,380 (1,856)
-30,302 (1,795)
log (Rendimento)
1,118 (0,040)
1,012 (0,040)
SCHF
0,917 (0,200)
1,053 (0,197)
SCHC
2,349 (0,185)
2,481 (0,179)
N
9.023
9.023
Obs: O autor não tabelou os níveis descritivos para as variáveis.
Fonte: Adaptado de Joulfaian e Rider (1998).
Onde
Dummy 1988: variável dummy para captar o efeito do ano de 1988,
Idade: idade do contribuinte,
TF: número de dependentes do contribuinte,
Sul: variável dummy para captar o efeito regional do sul dos EUA,
Oeste: variável dummy para captar o efeito regional do oeste do EUA,
Norte: variável dummy para captar o efeito regional do norte do EUA,
OTR: taxa marginal de tributação para o contribuinte,
OTR + SECA: taxa marginal de tributação adicionada da SECA,
Taxa de Auditoria: probabilidade objetiva do contribuinte ser fiscalizado,
log(Rendimento): logaritmo natural do rendimento ajustado pelo IRS,
SCHF: variável dummy indicando o preenchimento da cédula F da declaração,
SCHC: variável dummy indicando o preenchimento da cédula C da declaração,
N: número de observações computadas.
No caso da variável taxa de auditoria, ela procura espelhar a probabilidade
objetiva do contribuinte ser fiscalizado nos anos de 1985 e 1988, mas com base
60
apenas nos dados de 1988, e para obtê-la foi executada previamente uma regressão
com transformação probit, contando com as seguintes variáveis explicativas: o
rendimento ajustado pelo IRS, variáveis indicadoras das três distintas fontes de
rendimento, e os ganhos de capital informados pelo contribuinte. Contudo, os
autores salientam algumas limitações a respeito da utilização dessa variável.
Primeiramente, em um modelo que procura estimar o comportamento do contribuinte
em relação às suas atitudes tributárias, deveria ter sido utilizada a probabilidade de
ser fiscalizado ou auditado percebida pelo contribuinte, mas essa é obviamente uma
medida bastante difícil de ser observada. Portanto foi considerada uma proxy dessa
variável, a probabilidade objetiva de auditoria de rendimentos pelo IRS. De fato, em
teoria, a probabilidade de detecção de omissão de rendimentos é diferente da
probabilidade de ocorrência de uma auditoria, e, portanto, a probabilidade objetiva
de ser auditado pode ser bastante diferente da "sensação" de probabilidade
percebida pelo contribuinte. Além disso, essa probabilidade objetiva depende da
própria declaração de rendimentos informada pelo contribuinte, e, assim, ela é
potencialmente endógena em relação ao modelo formulado.
Quanto aos resultados relatados pelos autores, a primeira equação indica que as
omissões variam significativamente com a idade, região, rendimento, taxa tributária e
taxa de auditoria. Especificamente em relação à taxa de auditoria, seu coeficiente é
negativo e significativo, implicando em uma elasticidade9 (avaliada na média) de 0,70, indicando que um aumento de dez por cento nessa taxa implicaria em redução
de sete por cento nas omissões. Já em relação à taxa de tributação, ela é
significativa e possui coeficiente negativo, indicando que maiores taxas levariam a
menores valores omitidos, o que não é de se estranhar, segundo os autores, já que
o estudo do efeito da variação das taxas de tributação no cumprimento tributário de
contribuintes tem produzido reiteradamente resultados ambíguos, inclusive como
tem sido relatado neste capítulo. Na equação 2, incorporando o efeito do adicional
SECA, todos os resultados são consistentes com a equação anterior, com exceção
da taxa tributária, agora com coeficiente positivo e significativo. Isso indica que
maiores taxas acarretarão maiores infrações. Portanto, o autor conclui que o efeito
do imposto adicional SECA tem de ser levado em consideração em estudos
tributários, em função de sua influência no sinal do efeito da variação da taxa de
9
Variação percentual no montante omitido dividido pela variação percentual da taxa de auditoria.
Detalhes sobre esse conceito ver em Varian (1994, p. 293).
61
tributação no nível de omissão dos rendimentos informados ao IRS por parte dos
que recebem rendimentos por conta própria nos EUA.
Pelo último estudo, viu-se que o IRS possui relatórios informando que a
declaração voluntária de rendimentos dos que trabalham por conta própria está em
patamar inferior ao dos assalariados. Aproveitando-se desse mote, pode-se
apresentar as conclusões de um estudo correlato, o de Ali, Cecil e Knoblett (2001).
Estes autores realizam um trabalho motivado, segundo eles, pela limitação das
abordagens eminentemente teóricas de evasão, que possuem capacidade preditiva
reduzida tanto pela ambigüidade de resultados obtidos quanto pelo excesso de
suposições prévias; pela limitação das abordagens empíricas em termos de sua
inadequação à situação real dos indivíduos auferindo rendimentos por conta própria;
pelas restrições do acesso público à rica base de dados do programa TCMP do IRS
e, por fim; pela falta de atenção geral em relação à riqueza das informações públicas
divulgadas pelo relatório anual do IRS. Seu trabalho procura suprir tais limitações,
modelando econometricamente a evolução no tempo do relacionamento entre o
cumprimento tributário dos contribuintes que auferem rendimentos por conta própria
e outras variáveis de política tributária, como taxa de tributação, taxa de auditoria,
taxa de penalidade e nível e fonte dos rendimentos recebidos.
Com esse objetivo, os autores utilizam-se dos dados do TCMP entre os anos de
1980 e 1995, envolvendo apenas os contribuintes que preencheram as cédulas C e
F do formulário do IRS. Reconhecendo a aplicabilidade da abordagem do agenteprincipal, foram modeladas duas equações de comportamento, uma referente ao
contribuinte e outra referente à agência tributária, assumindo-se que qualquer
infração plausível de, na prática, ser detectada pelos órgãos tributários pode ser
detectada pelo método de seleção usualmente empregado pelo IRS e, dessa forma,
a taxa objetiva de auditoria pode ser considerada uma proxy para probabilidade de
detecção de infrações. Contudo, há a suposição adicional de que a probabilidade de
detecção (taxa de auditoria) é endógena ao problema e determinada conjuntamente
pelas ações do contribuinte e agência. A Tabela 2 mostra os resultados obtidos para
as estimativas das duas equações de comportamento propostas, sendo a primeira
estimada por dois métodos distintos. A primeira coluna de estimativas refere-se ao
contribuinte, tem por variável dependente o seu rendimento declarado e foi estimada
por mínimos quadrados ordinários (MQO). A segunda coluna também se refere ao
rendimento declarado pelo contribuinte, mas foi estimada por mínimos quadrados
62
em dois estágios (MQDE). A terceira coluna mostra as estimativas que explicam a
taxa de auditoria do IRS e foi estimada por MQO. Os dados foram dispostos
temporalmente e não foram consideradas defasagens nas variáveis.
Tabela 2: Estimativas obtidas para as duas equações propostas por Ali, Cecil e
Knoblett (2001)
Resposta:
Rendimento
Declarado
Variáveis independentes
Resposta: Taxa de
Auditoria
Coeficientes (Erro Padrão)
FormC
RendimA
(RendimA)2
Resposta: Rendimento
Declarado
-6.999,25 (7.520,8)
-408,440 (9.854,00)
-0,950 (1,42)
1,040* (0,04)
1,090*(0,066)
9,98x10-6 (7,44x10-6)
-5,12x10-7* (9,09x10-8) -8,15x10-7* (1,66x10-7) -1,78x10-11 (-1,7x10-11)
Taxa Aud
2.489,54* (930,62)
2.981,440 (4.086,3)
0,017* (0,0032)
0,055* (0,015)
-3.740,99* (828,34)
-9.797,930* (2.768,32)
6,240 (144,38)
75,500 (184,54)
0,0077 (0,026)
-3,16 x10-4 (5,35x10-4)
-0,0024** (0,0011)
9,21x10-8 (9,44x10-8)
278,250** (137,25)
446,730*** (257,59)
0,033 (0,024)
43,230 (140,42)
102,000 (177,77)
-0,011 (0,030)
9,40x10-4 (6,62x10-4)
0,0013*** (7,94x10-4)
-3,35x10-8 (1,30x10-7)
-91,380 (161,92)
-133,618 (257,37)
0,039 (0,030)
(Taxa Aud)(RendimA)
(Taxa Aud)(FormC)
Taxa Trib
(Taxa Trib)(RendimA)
(Taxa Trib)(FormC)
Taxa Pen
(Taxa Pen)(RendimA)
(Taxa Pen)(FormC)
COA
0,140 (0,086)
Ano
-0,280 (0,19)
Constante
-11.336,40 (7.236,98)
-16.266,70 (9.380,95)
563,72 (378,33)
87
87
87
N
*significante ao nível de 1%
** significante ao nível de 5%
***significante ao nível de 10%
Fonte: Adaptado de Ali, Cecil e Knoblett (2001).
Onde
Rendimento
Declarado:
Valor
deflacionado
do
rendimento
declarado
pelo
contribuinte médio (base 1983-1984),
FormC: Variável dummy para captar o efeito do preenchimento do formulário C,
RendimA: Valor do rendimento ajustado (rendimento real) após auditoria do
contribuinte médio,
Taxa Aud: porcentagem de declarações fiscalizadas,
63
Taxa Trib: Taxa marginal de tributação incidente sobre o contribuinte médio em
relação ao seu rendimento declarado,
Taxa Pen: Taxa de penalidade incidente sobre os tributos faltantes na declaração,
COA: Custo operacional unitário de auditoria,
Ano: Ano de referência do dado.
Os principais resultados obtidos pela condução do trabalho são os seguintes: a
principal variável explicativa dos rendimentos declarados é o rendimento do
contribuinte. À medida que estes se elevam, os valores declarados elevam-se
identicamente, mas a uma taxa decrescente e, por fim, estes declinam para níveis
de rendimento mais elevados. A partir do coeficiente não significativo para a taxa de
tributação e pelas interações envolvendo a mesma, verifica-se que sua elevação
encoraja as omissões, sendo esse efeito mais acentuado para os contribuintes com
rendimentos elevados e para os que preenchem a cédula F. Por outro lado, os
valores declarados elevam-se com acréscimos nas taxas de auditoria e de
penalidade. As interações permitiram aferir que tanto a taxa de auditoria quanto de
penalidade fornecem políticas de contenção de omissões de rendimentos eficazes,
principalmente para os que auferem maiores rendimentos e no caso de contribuintes
que preenchem o formulário F.
Finalmente, o trabalho de Alm, Bahl e Murray (1993) também abordou os
contribuintes que auferem rendimentos por conta própria, no caso os da Jamaica.
Seus resultados sugerem que a agência jamaicana utiliza efetivamente um critério
de seleção não aleatório que tem por base as informações prestadas pelos
contribuintes. Além disso, encontram outros resultados consistentes com alguns dos
trabalhos já apresentados, como de que a taxa marginal de tributação e o valor dos
rendimentos do contribuinte são positivamente correlacionados com a omissão de
rendimentos.
2.5 Modelos teóricos de evasão considerando políticas de incerteza
Identifica-se um grupo de pesquisas econômicas que, sem enfocar diretamente a
seleção de contribuintes para fiscalização tributária, procura avaliar os efeitos de
diversas alternativas de políticas fiscais governamentais no nível de evasão
tributária, o que acaba por afetar indiretamente os aspectos de seleção de
contribuintes.
64
Fazendo parte desse grupo está o estudo sobre se a existência de um nível
tolerável de evasão tributária, conseqüência natural da utilização de algum critério
não aleatório de seleção de contribuintes, como alguns dos que foram apresentados
nas seções anteriores, deve ou não ser divulgado à sociedade.
Reinganum e Wilde (1988) informam que, com base nas linhas do formulário de
informação entregue pelos contribuintes, o critério DIF do IRS indica um possível
grau de omissão de rendimentos. Também relatam ter o IRS informado em juízo que
nem todos os que apresentam indícios de infração fiscal são efetivamente objeto de
auditorias, já que têm de ser priorizados os indivíduos que apresentem maior relação
custo/benefício de ação. Contudo os esforços no sentido de que fosse divulgado o
nível de tolerância de infração foram todos anulados pelo IRS, que mantém esses
níveis em segredo. Também no Brasil a prática tem sido se evitar ao máximo a
divulgação, inclusive internamente, desses níveis toleráveis de infração tributária.
Nesse contexto, existem estudos debruçando-se sobre essa questão, de forma a
aclarar se efetivamente tanto segredo é de fato benéfico ou constitui-se em mais
uma cautela sem fundamentação teórica ou prática. Com esse objetivo, os últimos
autores modelam economicamente a hipotética situação do IRS e do contribuinte
pessoa física, na qual em caso de detecção de alguma omissão por parte do
contribuinte, o IRS deverá levar em consideração a relação custo/benefício da ação
fiscal, e isso pressupõe que um certo grau de infração é tolerado pelo órgão.
Em sua modelagem de jogo assimétrico tributário, os autores propõem um
continuum de contribuintes reportando rendimentos x, sendo que há também uma
correspondente variável aleatória contínua de rendimentos reais, I, aos quais está
associada uma função densidade de probabilidade F(I), rendimentos estes que, se
descobertos pelo órgão tributário, podem implicar na cobrança de tributos à taxa t e
na imposição de penalidades monetárias à taxa θ, ambas sobre a parcela (I - x).
Ocorre que sobre qualquer ação de fiscalização e cobrança recai um custo c, que
não é conhecido por parte do contribuinte, pois, para ele, c é considerada uma
variável aleatória com função densidade de probabilidade F(c). Com isso, a
arrecadação da agência equivale a (tx), caso não haja ação fiscal, e a [tI + tθ(I - x) c], caso o contribuinte seja fiscalizado. Portanto, vale a pena forçar o cumprimento
estrito da lei e fiscalizar o contribuinte somente se c < c’(x) = [t(1 + θ)(I - x)], ou,
alternativamente, se x < x’(c) = I – c/t(1 + θ), caso contrário, a ação fiscal é
65
desconsiderada pelo órgão. Prosseguindo nesse escopo de modelagem e
assumindo-se que ambos, agência e contribuinte, são neutros ao risco e só visam
maximizar seus rendimentos, o estudo modela o comportamento de contribuinte e
agência por meio das condições de primeira e segunda ordem para um mínimo ou
máximo. Em relação ao contribuinte, o valor ótimo a ser reportado por ele, x*, é
função de um grau de incerteza ε em relação ao nível tolerável de omissão de
rendimentos admitido pela agência, [I - x’(c)], e mais I, t, θ e c. Nessas condições, a
análise do valor de x* em função de variações em ε demonstra que à medida que ε
se eleva (o que significa um aumento na dispersão da variável c), o valor do
rendimento reportado aumenta, não é afetado, ou decai, em função da taxa de
penalidade ser maior, igual, ou menor do que um. Já no processo que responde
pelos interesses do IRS, suas receitas tributárias ótimas, R*, variam em função de x*,
I, t, θ, ε e c e sua equação de equilíbrio permite concluir a mesma relação anterior
em relação ao acréscimo/decréscimo da receita tributária ótima R* em função da
elevação de ε e variações em θ. Considerando-se um θ < 1, caso específico da
legislação estadunidense à época do estudo, a análise permite concluir por um
equilíbrio, entre os valores declarados e as receitas tributárias, a um nível
intermediário de ε, recomendando, portanto, ao IRS a manutenção de um relativo
sigilo neste campo, alertando-se, ainda, para o fato de que um grau de incerteza ao
limite não é garantido em termos de aumento de arrecadação.
Em relação a esse ponto, é importante ressaltar que no Brasil vivenciou-se até a
edição da lei nº 9.430, de 26 de dezembro de 1996, uma multa por infração no valor
de 100%. Esse valor foi reduzido após a vigência da referida lei para 75%. Isso
indica que no momento, de acordo com o último estudo, o Brasil vive a mesma
situação dos EUA (em 1988) em relação ao grau de incerteza a ser imposto ao
contribuinte em termos de critérios de seleção e grau de tolerância à infração.
Também abordando a incerteza que permeia a decisão tributária do contribuinte,
o trabalho de Beck e Jung (1989a) isola dois efeitos em sua modelagem econômica,
um em relação a um hipotético grau de tolerância à infração por parte do órgão
tributário, devido ao indefectível custo unitário envolvido em uma ação fiscal, e outro
em relação à complexidade da legislação tributária. Em seu estudo, eles relacionam
que muitos trabalhos anteriores não relaxam duas das condições originalmente
propostas pelo mencionado modelo básico de evasão tributária do início da década
66
de setenta, quais sejam, de que o contribuinte conhece uma taxa de penalidade
proporcional à infração e que é transferida à agência tributária juntamente com o
tributo devido, e conhece também uma probabilidade objetiva fixa de ser fiscalizado.
Essas duas suposições são claramente rígidas em relação ao mundo real. Por isso,
seu trabalho flexibiliza a penalidade de forma a que sejam avaliados os efeitos de
diferentes estruturas punitivas em relação ao tributo omitido. No caso, são
consideradas as penalidades tradicionais e também a possibilidade de imposição de
penalidades conhecidas como não transferíveis ao órgão tributário. Estas se
caracterizam por serem não proporcionais ao tributo devido, já que em um ambiente
de incerteza tributária para ambas as partes, muita coisa pode acontecer durante
uma auditoria que possa fazer com que a penalidade decaia em relação à sua
previsão proporcional inicial. No Brasil, por exemplo, se o contribuinte paga seu
débito até o prazo de vencimento, que se dá em 30 dias contados da data da
ciência, a multa é reduzida em 30%. Além disso, tais penalidades também se
caracterizam por serem não totalmente transferíveis ao órgão tributário, já que os
dispêndios de tempo e de dinheiro do contribuinte durante a fase de auditoria são
teoricamente considerados como parcelas desta penalidade. Além disso, ao
ponderar de forma sensata que as próprias informações prestadas pelo contribuinte
afetam a sua probabilidade de ser fiscalizado, o trabalho flexibiliza também a taxa de
auditoria, fazendo com que o contribuinte faça um juízo de valor em relação aos
efeitos de suas decisões tributárias no incremento ou decréscimo de sua
probabilidade posterior, p, de ser fiscalizado. Essa última flexibilização procura
justamente suprimir uma das limitações identificadas no trabalho de Joulfaian e
Rider (1998), no qual se relatou que a sensação de probabilidade de ser fiscalizado
percebida pelo contribuinte depende de suas próprias ações ao declarar
rendimentos, sendo distinta da probabilidade objetiva de ser fiscalizado.
O trabalho de Beck e Jung (1989a) considera que o processo decisório da
agência, que se assume que seja neutra ao risco e se comporte racionalmente,
sabedora que é da análise prévia executada pelo contribuinte em relação às suas
possibilidades de ser auditado, envolve decidir sobre como classificar os
contribuintes com base em certos critérios, de forma a que suas ações fiscais
retornem os maiores valores possíveis, levando-se em consideração o custo c
dessas ações. Contudo, a incerteza da agência reside no desconhecimento do
rendimento real do contribuinte. Já no processo decisório do contribuinte, ele deve
67
decidir quanto declarar em função de seu rendimento real, taxa tributária e de
penalidade, e agora também de seu juízo de valor p. De posse dessas informações
ele estima o potencial benefício que sua declaração conferiria à agência, caso fosse
fiscalizado. Entretanto a decisão fica embaraçada pela sua ignorância em relação ao
custo unitário de uma ação fiscal, o que em última instância significa o ponto de
corte da agência em termos de tolerância às infrações fiscais. Utilizando o conceito
de equilíbrio seqüencial de Kreps e Wilson (apud BECK e JUNG, 1989a, p. 473),
uma vez que a primeira decisão é do contribuinte e só depois a agência pode decidir
sobre a sua, o delicado equilíbrio de jogo entre essas duas estratégias é
analiticamente encontrado e suas principais implicações são expostas no Quadro 1.
Quadro 1: Efeitos de fatores políticos e ambientais nas condições de
equilíbrio entre contribuintes e agência tributária
Penalidades
Fator
Proporcional
Não Transferível
+/-
-
+
+/+
+/+/-
+/+/-
+
+/+
Aumento da Penalidade:
Omissão de Receitas
SPF
Aumento da Taxa Tributária:
Omissão de Receitas
SPF
Aumento da Incerteza Quanto ao
Custo de Auditoria:
Omissão de Receitas
SPF
Aumento da Incerteza da Legislação:
Omissão de Receitas
SPF
Onde SPF: Sensação de Probabilidade de ser Fiscalizado; (+/-): indica divergências variando em
função de relações específicas entre os demais parâmetros do modelo econômico.
Fonte: Adaptado de Beck e Jung (1989a).
De maneira geral as conclusões que podem ser extraídas do Quadro 1 indicam
que o aumento da taxa de penalidade, taxa de tributação e incerteza da legislação
diminuem a propensão à infração quando a penalidade é proporcional ao tributo
devido e é transferível ao órgão tributário. Além disso, como já foi sugerido por
Reinganum e Wilde (1988), o aumento da incerteza em relação ao custo da ação
fiscal (ponto de corte) pode aumentar ou diminuir a propensão a cometer infrações,
dependendo das condições iniciais estabelecidas para alguns dos parâmetros. Já no
68
caso das penalidades não transferíveis e não proporcionais ao imposto faltante, o
aumento da taxa de tributação e da incerteza em relação à legislação pode
aumentar ou diminuir a propensão à infração tributária. Assim a incerteza quanto à
legislação é afetada pela estrutura da penalidade, enquanto que a incerteza quanto
ao custo da ação fiscal (ponto de corte) não depende da estrutura da penalidade,
embora apresente resultados ambíguos em ambas as estruturas consideradas.
Em termos de implicações em políticas de tributação, os autores afirmam que é
tradicional o entendimento de que a complexidade legal é necessária para suportar
um certo nível de bem estar social, e também de que ela é resultado do lobby
efetuado no Poder Legislativo pelas categorias que se beneficiam por essa situação.
Mas, de acordo com o Quadro 1, a complexidade legal, que aumenta a incerteza do
contribuinte em relação à legislação, provoca um decréscimo na propensão à
omissão de rendimentos, já que é senso comum entre os contribuintes de que eles
enfrentam uma taxa proporcional de penalidade. Por isso, na realidade, a
complexidade legal pode estar sendo suportada pelas próprias agências de forma a
manterem seus níveis de arrecadação. Outra conclusão teórica importante, que não
está traduzida no Quadro 1, é que, segundo os autores, a menos da situação em
que a probabilidade percebida de ser fiscalizado seja superior a 50%, a elevação da
incerteza quanto ao custo de auditoria, que afeta o ponto de corte na seleção de
contribuintes, leva a uma menor propensão do contribuinte a cometer infrações.
Como é muito difícil, por questões orçamentárias, que a força de trabalho
governamental permita que aquela probabilidade se eleve acima de 50%, seria
recomendável aos órgãos tributários a não divulgação de seus critérios de seleção e
de seus níveis de tolerância publicamente.
Corroborando esse resultado em relação à complexidade da legislação, no
trabalho de Scotchmer (1988) prova-se teoricamente que existe um ponto ótimo em
que o resultado da arrecadação tributária é máximo, e que requisita um determinado
grau de incerteza do contribuinte em relação ao correto atendimento à legislação
tributária. Nesse trabalho também se considera a teoria de evasão básica contando
com a maximização dos interesses monetários, mas adiciona-se um novo
ingrediente, a possibilidade dos contribuintes reduzirem suas incertezas por meio de
consultorias tributárias. Nesse mesmo sentido, em relação à complexidade da
legislação, também concluiu o já citado trabalho de Beck e Jung (1989a).
69
Também abordando esses aspectos de incerteza tributária, Forest e Sheffrin
(2002) procuram elucidar, por meio dos dados da pesquisa de opinião do
contribuinte efetuada pelo IRS em 1990, se a simplificação da legislação tributária
dos EUA poderia levar a uma melhoria na contenção dos níveis de infração à
legislação tributária do imposto de renda das pessoas físicas naquele país. Em
relação à metodologia de trabalho, inicialmente os autores informam que a amostra
original de respondentes foi reduzida em função da não consideração das respostas
"não sei". A análise econométrica parte da hipótese inicial de que a relação
complexidade/evasão é mediada por uma estrutura intermediária:
Complexidade ⇒ Sensação de Injustiça ⇒ Evasão
Essa estrutura é, então, estudada por meio da modelagem logística recursiva
apresentada em Maddala (apud FOREST e SHEFFRIN, 2002, p. 1983), que resultou
em um modelo probit ordinal com o objetivo de aclarar os fatores que influenciam
cada um dos estágios desse relacionamento mediado pela injustiça.
As conclusões finais apontam que não é esperado que uma maior simplificação
da legislação tributária estadunidense leve a maiores níveis de cumprimento
tributário, ao menos com base nos resultados da referida pesquisa de opinião
utilizada. Não houve a presença significativa de ligação sistemática (correlação)
entre os referidos estágios. Como limitação do trabalho, os autores alertam que ele
se fundamenta em uma pesquisa de opinião que não está isenta de viés.
Em outro trabalho de modelagem econômica de autoria de Beck e Jung (1989b),
é também considerado o efeito da incerteza do contribuinte em relação à legislação
tributária. Consistentemente com trabalhos prévios, incrementos na probabilidade
objetiva de ser fiscalizado, na taxa proporcional de penalidade e no nível de aversão
ao risco do contribuinte implicam em maiores cumprimentos tributários. Já outros
fatores são considerados interdependentes com estes parâmetros e produzem
resultados tanto consistentes quanto divergentes em relação aos obtidos por outros
autores, como no caso da taxa de tributação. A elevação desta, no caso do
contribuinte avesso ao risco, provoca maiores valores declarados, caso a taxa de
penalidade seja proporcional ao tributo faltante, e isso é consistente com o Quadro
1. Por outro lado, o contribuinte neutro ao risco não afeta sua decisão em função de
alterações na taxa de tributação. Já a alteração na incerteza em relação à legislação
tributária interdepende das taxas de tributação e de penalidade, da probabilidade de
70
auditoria e das preferências do contribuinte em relação ao risco. A conclusão dos
autores é que o aumento dessa incerteza levaria à diminuição de evasão tributária,
caso os parâmetros associados a maiores cumprimentos (taxa de penalidade e
probabilidade objetiva de ser auditado) já fossem elevados. Caso contrário, os
ganhos na contenção de omissões de rendimentos são atenuados, e por isso, a
incerteza em relação à legislação é considerada como uma espécie de reforço aos
incentivos já existentes.
2.6 Modelos teóricos de evasão considerando efeitos sóciocomportamentais
Foram apresentados até aqui trabalhos que utilizam intensivamente a teoria
básica em que a opção do contribuinte por omitir ou não rendimentos passa pela
maximização de seu rendimento líquido, à luz de uma probabilidade de detecção e
conseqüente punição, ponderada por seu posicionamento em relação ao risco.
Contudo, a taxa de fiscalização de contribuintes nos EUA situa-se na faixa de menos
de 1%, e, além disso, as penalidades pagas constituem-se em uma fração dos
tributos faltantes. É intuitivo que outros fatores devem explicar o pagamento
espontâneo de tributos que não somente esses clássicos fatores (ALM, 1991).
Apesar de a modelagem básica ter apresentado resultados teóricos e práticos
relevantes à pesquisa em evasão, ela parte de um princípio reducionista da natureza
humana que é contrário à observação dos fatos reais. A título de ilustração da
complexidade de fatores decisórios a serem considerados no âmbito tributário, podese rememorar a história do escritor estadunidense Henry David Thoreau, autor do
clássico "A desobediência Civil", que em 1837 recusou-se ao pagamento dos
impostos devidos ao governo dos EUA em protesto contra a má vontade estatal em
combater de forma ativa a escravidão. Ele teve de amargar uma noite na cadeia
(ERARD e FEINSTEIN, 1994).
Assim, muitos fatores sociais e comportamentais têm sido considerados nas
modelagens econômicas de evasão, implicando em estudos tributários cada vez
mais complexos, porém, em contrapartida, mais aproximados à realidade. Suas
principais propostas e resultados vão, então, relacionados sinteticamente nesta
seção.
71
Fazendo parte dessa iniciativa, o estudo de Erard e Feinstein (1994) representa
substantivo avanço no esforço de atrair mais à realidade as abordagens teóricas, ao
considerar,
em
suas
análises
matemáticas,
o
conceito
de
honestidade/desonestidade. Com efeito, nem sempre o contribuinte parece agir de
acordo com o homo-economicus, sendo por vezes honesto a ponto de recusar
incentivos à evasão, o que justifica a incorporação desse conceito às modelagens
tributárias, havendo inclusive indícios científicos disso apresentados em Alexander e
Feinstein (apud ERARD e FEINSTEIN, 1994, p. 9).
Erard e Feinstein (1994) partem de modelagem inicial similar às já apresentadas,
em que há um continuum de contribuintes reportando rendimentos x, e auferindo
rendimento reais, I, aos quais está associada uma função densidade de
probabilidade f(I). Assume-se que os contribuintes fazem parte de determinadas
classes de auditoria, de forma que há tantas f(I) quantas classes existentes. O
contribuinte é considerado neutro ao risco e deseja maximizar seu rendimento
líquido. Existe uma probabilidade dele ser fiscalizado p(x), e caso isso ocorra e seja
descoberto um rendimento real I > x, ele paga um valor t(I - x) de imposto, à taxa
constante t, e uma penalidade θ(I - x), à taxa proporcional θ, sendo que todos esses
elementos influenciam em sua decisão de quanto reportar, x. A solução, similar à já
obtida por diversos autores, chega a uma maximização cuja condição de primeira
ordem relaciona um único rendimento real correspondente a um único montante de
rendimento declarado. Condicional aos valores declarados, a agência escolhe uma
função de auditoria p(x) que maximiza seu resultado líquido obtido com a cobrança
dos impostos e penalidades, sujeito a um orçamento prévio e a um custo unitário de
auditoria constante.
A situação de contribuintes que desejam declarar corretamente pode ser
incorporada a essa modelagem pela suposição adicional de que em cada nível de
rendimento exista uma fração Q de contribuintes que declare sempre de forma
honesta. Ocorre que isso acaba com a maioria dos equilíbrios já encontrados na
modelagem teórica, haja vista que agora as classes e suas funções p(x) devem
atender às situações envolvendo contribuintes honestos e desonestos.
A modelagem com esse advento qualitativo apresenta ponto ótimo para a
agência sensível ao nível de Q, requisitando simulações para que as análises de
diferentes políticas públicas possam ser sintetizadas. Portanto, no estudo são
simuladas várias funções de auditoria p(x) para as situações de Q = 0, Q = 0,2 e Q =
72
0,5. Em todas as funções, o rendimento real do contribuinte distribui-se de acordo
com a função densidade de probabilidade log-Normal truncada. Os resultados
indicam que baixos rendimentos declarados associam-se a maiores chances de
serem fiscalizados. Além disso, demonstra-se que a carga tributária, que encerra o
conceito de razão entre o valor esperado dos tributos e penalidades pagas e os
rendimentos reais totais, é regressiva (diminuindo com a elevação do rendimento
real) para uma larga faixa de rendimentos reais de contribuintes desonestos. Já para
os contribuintes honestos, utilizou-se nas simulações uma carga fixa à taxa de t =
0,3. Mas é claro que em caso de auditoria, a carga tributária posterior imposta aos
desonestos será superior à regular. Contudo, para obtenção desse resultado a
simulação teve de fixar certas quantidades arbitrariamente, assim como a forma
funcional da densidade de probabilidade dos rendimentos reais, de maneira que se
demonstra que, com o advento do controle de honestidade pelo modelo, a efetiva
regressividade ou progressividade do sistema tributário varia em função dos
parâmetros Q, t, θ, da forma funcional da referida função densidade dos I, do custo
de auditoria e do orçamento da agência tributária.
O mais importante é que os autores alertam que em sistemas tributários com
severas restrições orçamentárias, ou em que o custo de auditoria seja elevado,
implicando em uma probabilidade objetiva de ser fiscalizado bastante reduzida, a
carga tributária para os contribuintes desonestos tende a ser substancialmente
inferior à dos honestos, situação essa não desejada, porém, diga-se de passagem,
não muito difícil de ocorrer em tempos de dificuldades econômicas globais.
As limitações desse último trabalho são de identificação imediata: Q é
considerada exógena ao problema de evasão, e, além disso, não pode variar em
função dos rendimentos recebidos, o que já se viu que é irreal.
Outros trabalhos diversos seguem evoluindo as modelagens teóricas ao
incorporarem
mais
e
mais
fatores
multidisciplinares
como
possivelmente
determinantes da evasão tributária. Dentre esses pode ser citado o trabalho de
Linster (1997) que encontra graficamente o ponto de equilíbrio entre evasão e
arrecadação tributária ao longo de uma população contando com diferentes
gradações de aversão ao risco. O trabalho de Andreoni (1992), que modela a
situação tributária do contribuinte neutro ao risco que maximiza sua renda líquida,
mas sofre com restrições de crédito ou de liquidez. O autor mostra que esse
contribuinte tem uma motivação a mais para evadir tributos: aproveita-se do
73
inevitável tempo decorrido entre o cometimento de uma infração, sua possível
seleção por parte do órgão tributário e a efetiva ocorrência de uma auditoria, para
avaliar se vale a pena reportar rendimentos a menor ao fisco visando transferir
recursos do futuro para o presente e eliminando assim suas constrições
momentâneas. O autor propõe que a agência tributária, nessas situações, assuma
positivamente a existência desse intervalo de tempo para a ação e trabalhe de forma
não a visar à maximização de suas receitas líquidas, mas sim ao bem estar social da
população, admitindo essa possibilidade de tomada de crédito ao Estado por parte
do contribuinte. Ainda, os trabalhos de Beck e Jung (1989b) e de Erard (1993) que
consideram a utilização de especialistas tributários e contábeis na preparação das
declarações do contribuinte e seus possíveis efeitos na evasão de tributos. O
trabalho de Chung e Trivedi (2003), que considera os efeitos do sexo do contribuinte
e da utilização da persuasão amigável no nível de evasão tributária. O trabalho de
Davis, Hecht e Perkins (2003) considera os efeitos dos comportamentos sociais no
nível de evasão tributária. Horowitz e Horowitz (2000) analisam o efeito da opção
entre trabalho e lazer na modelagem econômica tributária entre contribuinte e
agência. Encerrando essa lista não esgotada de trabalhos explorando efeitos sóciocomportamentais, Rhoades (1999) quebra o conceito de um único valor de
rendimento a ser declarado, estabelecendo uma modelagem flexibilizada em que se
reporta um valor multicomponente à agência tributária, o que claramente se
aproxima à situação real.
2.7 Experimentos para avaliação de efeitos sócio-comportamentais
em evasão tributária
Viu-se ao final da seção anterior que fatores comportamentais e sociais devem
ser considerados nas análises de evasão e as modelagens teóricas têm aceitado
esse desafio. Isso também pode ser empreendido pela criação de ambientes
microeconômicos em laboratório, por meio do planejamento e análise de
experimentos. Uma das vantagens é que estes não ficam constrangidos por
excessivas
suposições
e
simplificações,
permitindo
maior
flexibilidade
na
incorporação de efeitos de difícil avaliação por modelagens puramente teóricas.
O primeiro trabalho experimental tributário foi executado por Friedland et al.
(1978), que, ao examinar como as respostas individuais em termos de rendimentos
74
declarados variam em função de alterações nos fatores quantitativos taxa de
tributação, taxa de penalidade e probabilidade de ser fiscalizado, conclui por um
maior cumprimento da legislação tributária nos casos de elevação da taxa de
penalidade e da probabilidade de ser auditado, principalmente no caso da primeira.
Esses resultados são bastante consistentes com os trabalhos econômicos teóricos.
Já uma elevação na taxa de tributação eleva a probabilidade e a magnitude das
omissões de rendimentos. A partir desse trabalho, diversos outros têm adotado essa
mesma linha nos últimos anos (ALM, 1991).
É oportuno que nesta pesquisa fique registrado em linhas gerais como se dá o
delineamento de um experimento tributário. Para tal recorre-se ao estudo de Alm,
Jackson e Mackee (1992) onde se relata que uma das grandes dificuldades da
pesquisa empírica sobre comportamento tributário é a ausência de informações
confiáveis sobre as escolhas tributárias dos contribuintes, já que não lhes é
interessante divulgar suas opções. Com efeito, nos EUA, grande parte dessa
pesquisa tem sido realizada com base nos dados do TCMP. Contudo, os autores
informam também que esses dados, até recentemente àquele momento, eram
relacionados ao ano de 1969, sendo, portanto, bastante antigos. Dessa forma, ou os
pesquisadores optam por dados desatualizados, ou então partem para pesquisas de
campo em meio aos próprios contribuintes, mas esbarrando justamente no mutismo
geral em torno do tema tributário. Assim, a pesquisa dos autores fundamenta-se em
dados originados por experimentos conduzidos em laboratório utilizados para
estimar a resposta individual do contribuinte pessoa física frente às diversas
alterações nas políticas tributárias, situação típica em que a existência de dados
relacionados é inexistente ou de difícil obtenção.
O projeto do experimento considera o tradicional sistema de relacionamento
existente nas modelagens econômicas de sistemas sócio-tributários. O indivíduo
percebe rendimentos e paga os tributos devidos com base no valor declarado ao
órgão competente; existe uma probabilidade dele ser selecionado para fiscalização
e, eventualmente, o indivíduo estará sujeito às penalidades legais caso haja
detecção de alguma evasão de sua parte. O indivíduo pode também receber um
benefício público, a depender do nível do somatório dos pagamentos de todo o
conjunto de indivíduos. Nesse contexto, diversas alternativas de políticas públicas
são impostas e seus efeitos sobre os valores declarados registrados.
75
A transposição desse projeto para a prática se deu com a realização de um
experimento contando com quatro fatores, quais sejam: taxa de tributação (níveis
0,10, 0,30 e 0,50), probabilidade objetiva de auditoria (níveis 0,02, 0,04, 0,06), taxa
de penalidade (níveis 1,0, 2,0 e 3,0) a ser paga pelo valor não reportado, e
presença/ausência de um benefício público (em dois níveis). Saliente-se que nem
todas as combinações possíveis para os níveis dos fatores foram consideradas nas
oito sessões experimentais. Cada sessão contou com vinte e cinco rodadas (sendo
as cinco primeiras de prática instrucional). Cada uma das sessões do experimento
foi replicada concorrentemente em três grupos contando com cinco pessoas
distintas, sendo que ao final de cada sessão os indivíduos eram realocados em três
novos grupos de cinco. Isso perfez, então, 300 repetições válidas para cada uma
das oito sessões consideradas. No início da primeira rodada, os indivíduos
(unidades experimentais), devidamente identificados, receberam dez unidades
monetárias simbólicas (UMS). Ao final de cada rodada, cada um deles tinha direito,
com base em um critério aleatório, a auferir uma das cinco faixas de rendimento
disponíveis - essa era uma informação mantida em sigilo - e, com base nela,
escolhia o valor de renda a reportar e efetuava o pagamento dos tributos por ele
devidos, com base na taxa de tributação válida para aquela sessão. O valor
porventura omitido à tributação não era taxado e penalizado em um primeiro
momento, contudo existia uma probabilidade do indivíduo ser selecionado para
fiscalização, o que caso ocorresse, englobaria a totalidade dos valores não
reportados nas rodadas anteriores da mesma sessão. A probabilidade objetiva de
fiscalização era ajustada com base em um globo contendo uma bola indicadora para
cada indivíduo e mais algumas bolas adicionais em branco cuja quantidade variava
em função da política tributária definida para cada sessão (no caso a probabilidade
de ser auditado). Ao final de cada rodada, uma bola era retirada do globo de forma a
indicar se haveria algum indivíduo selecionado para fiscalização. O experimento
contou com indivíduos voluntários, sem nível superior, e sem registro de participação
em experimentos, que foram informados de que ao fim do experimento as UMS
porventura por eles acumuladas ser-lhes-iam remuneradas devidamente convertidas
em espécie. A duração média de cada sessão foi de uma hora, sendo que o custo
médio de cada sessão foi de 300 UMS. Ao final de todo o processo, cada indivíduo
ganhou entre 15 e 25 UMS. A partir da realização do experimento e dos resultados
obtidos, os autores sugerem que o valor de renda declarado pelo contribuinte ao
76
final de cada rodada segue a seguinte equação, que foi estimada a partir de um
modelo hipotético inicial de pesquisa:
^
DECLARED = −0,1458 + 0,3943 ⋅ INCOME −
2,3630 ⋅ TAXRATE + 0,0252 ⋅ FINERATE +
5,7502 ⋅ AUDITRATE − 0,4068 ⋅ PUBLICGOOD +
(2.5)
0,9153 ⋅ PUBLICGOOD ⋅ GROUPFUND
Onde
DECLARED: valor do rendimento informado pelo indivíduo,
INCOME: é o rendimento recebido pelo indivíduo,
TAXRATE: valor da taxa de tributação incidente sobre o valor declarado,
FINERATE: penalidade imposta sobre os valores omitidos,
AUDITRATE: probabilidade objetiva de ser fiscalizado,
PUBLICGOOD: variável dummy com o objetivo de captar o efeito de concessão do
benefício público,
GROUPFUND: valor acumulado de benefícios recebidos por cada indivíduo até a
rodada anterior.
Essa equação foi estimada utilizando-se regressão tobit, já que DECLARED foi
censurada em zero. Esse resultado permitiu aos autores concluir principalmente que
maiores rendimentos e maiores probabilidades de ser fiscalizado efetivamente levam
a maiores valores declarados voluntariamente. Já um acréscimo na taxa de
tributação responde por menores valores reportados. Mas os autores alertam que
esse último ponto é bastante controverso em termos de resultados teóricos e
empíricos obtidos em pesquisas anteriores, como inclusive já pôde ser verificado ao
longo deste capítulo. Além disso, maiores penalidades causam maiores valores
declarados, de acordo com o coeficiente de FINERATE, porém este foi não
significativo e isso se justifica, segundo os autores, pelas baixas probabilidades
objetivas de fiscalização verificadas na prática e, também, as consideradas no
experimento, variando entre 2% e 6%. Isso faz com que ela seja relativamente
indiferente ao indivíduo. Em relação a essa probabilidade objetiva, sua elevação
influencia positivamente os valores declarados espontaneamente, um resultado
coerente com os obtidos por diversos outros estudos. Contudo, ela nem sempre
representa um remédio adequado à evasão tributária, em função dos custosos
77
recursos humanos e materiais requisitados para sua elevação de forma sensível. A
presença de benefício público é pouco significativa estatisticamente, e ademais seu
coeficiente é negativo. Por outro lado a interação entre o benefício público e o
montante de benefícios acumulados pelos indivíduos possui coeficiente positivo e
significativo, o que sugere que os indivíduos desejam receber os benefícios públicos,
sem, contudo, contribuir para tal.
Como principal limitação de seu trabalho, os últimos autores alegam que os
resultados são fruto de um experimento artificial que, em última instância, não
reproduz todas as condições da realidade. De fato, este último trabalho não levou
em consideração as diferentes propensões ao risco existentes entre indivíduos, e
que foram consideradas em Beck, Davis e Jung (1991). Este envolve um
experimento semelhante ao descrito, com a diferença de que, inicialmente,
formulam-se as hipóteses prévias de pesquisa por meio da modelagem matemática
das relações econômicas entre contribuinte e órgão tributário, sendo as principais:
H1: ceteris paribus, sob a neutralidade de risco, o valor declarado aumenta com o
aumento da taxa de penalidade e da probabilidade de auditoria;
H2: ceteris paribus, sob a neutralidade de risco, o montante declarado não é afetado
pela taxa de tributação;
H3: o aumento na taxa de tributação, sob aversão ao risco, resulta em maior valor
declarado; e
H4: o aumento (de um valor ∆) na incerteza em relação ao correto cumprimento
tributário, sob aversão ao risco, resulta em maior (menor) valor declarado, quando ∆
é maior (menor) do que um determinado valor de equilíbrio denotado por Z (a
equação que fornece o valor de Z pode ser acessada no texto integral do trabalho).
Posteriormente, para avaliar empiricamente as hipóteses prévias, realizam-se os
experimentos para aferir os efeitos da combinação nos níveis dos fatores
quantitativos, quais sejam, taxa de tributação, probabilidade de auditoria, e
penalidade aplicável, e do fator qualitativo incerteza (alta ou baixa), isso em dois
grupos distintos de universitários de graduação (112 unidades experimentais), os
avessos ao risco e os neutros ao risco. As preferências em relação ao risco foram
medidas a partir de um instrumento do tipo questionário e de técnicas adequadas
para esse fim.
78
Seus resultados relatam que, para os contribuintes neutros ao risco, as hipóteses
um e dois se confirmam: são reportados maiores valores de rendimentos quando da
imposição de maiores taxas de penalidade e de probabilidade de auditoria. Já a taxa
de tributação não foi significativa, e confirmou-se a hipótese três, ela não afeta o
comportamento desse tipo de contribuinte. Além disso, esse comportamento é
afetado por dois tipos de interação, probabilidade de auditoria e incerteza, e taxa de
penalidade e incerteza. Neste caso, entenda-se por incerteza a já considerada
complexidade da legislação tributária. Em relação às interações, a conclusão é de
que uma redução na incerteza leva a maiores rendimentos declarados a baixas
taxas de penalidade, mas por outro lado leva a menores rendimentos declarados a
elevadas probabilidades de auditoria. Saliente-se que alguns dos resultados obtidos
em relação aos contribuintes neutros ao risco são distintos dos relatados por Alm,
Jackson e Mackee (1992).
Para os contribuintes avessos ao risco os resultados não são tão relevantes e as
hipóteses três e quatro são marginalmente significantes, respectivamente (p < 0,077)
e (p < 0,069).
As principais limitações identificadas para esse trabalho experimental estão
relacionadas à vinculação prévia das hipóteses de pesquisa à modelagem
econômica, e assim, todas as limitações e simplificações inerentes às modelagens
teóricas transferem-se, ato contínuo, ao experimento.
Um trabalho que agregou informações psicológicas, sociais e morais aos
experimentos é o de Trivedi, Shehata e Lynn (2003). Nele estudam-se os efeitos de
três fatores contextuais qualitativos (eqüidade/iniqüidade da taxação em quatro
níveis, presença/ausência de auditorias em dois níveis e comportamento tributário
dos pares em três níveis) no nível de cumprimento das obrigações tributárias.
Contudo, esses efeitos são ajustados pela consideração de variáveis individuais
quantitativas e qualitativas, quais sejam, reação frente ao risco, desenvolvimento
moral, orientação de valor, idade, renda familiar, nível educacional, sexo, situação
empregado/desempregado e experiência como contribuinte. Por meio da aplicação
de um instrumento do tipo questionário em uma universidade do Canadá, o
desenvolvimento moral, a orientação de valor e a reação frente ao risco dos
indivíduos foram medidas por meio de técnicas consagradas para esse fim.
Esclarecendo, um maior desenvolvimento moral está associado a maiores noções
de justiça, sociedade e direitos e obrigações individuais. Já a maior orientação de
79
valor está associada a maiores níveis de atenção ao bem comum. O objetivo é testar
quatro hipóteses prévias de pesquisa, quais sejam:
H1a: o cumprimento tributário não depende do nível de desenvolvimento moral do
contribuinte;
H1b: o cumprimento tributário não depende do nível de orientação de valor do
contribuinte;
H1c: o cumprimento tributário não depende do nível de propensão ao risco do
contribuinte;
H2: o cumprimento tributário não depende da presença ou ausência de auditorias;
H3: o cumprimento tributário não depende da ciência sobre o comportamento
tributário dos pares; e
H4: o cumprimento tributário não é afetado (reduz-se) pela elevação da taxa de
tributação em presença de eqüidade (iniqüidade) de tributação.
Nesse contexto, os autores selecionaram como indivíduos participantes do
experimento
aqueles
que
pudessem
ser
enquadrados
como
potenciais
representantes, independentemente da idade, da população adulta entre quarenta e
quarenta e cinco anos, tipicamente a faixa etária mais populosa em termos de
contribuintes ativos naquele país, e que também pudessem ser avaliados em termos
de suas características demográficas e de preferências em relação aos fatores
individuais considerados pelo estudo. Posteriormente, foram selecionados os 109
mais adequados, que foram alocados em cinco grupos distintos de tratamento e um
de controle, que manteve as condições dos fatores contextuais constantes até o
final. Os grupos de tratamento serviram de laboratório para alterações nos níveis dos
fatores
contextuais,
quais
sejam,
presença/ausência
de
auditorias,
equidade/iniqüidade de tributação e comportamento tributário dos pares.
Com base em uma Análise de Covariância (ANCOVA) todas as hipóteses nulas
foram rejeitadas. As principais conclusões em relação aos fatores individuais
reportam que, embora a idade do contribuinte (coeficiente negativo) e a condição de
contribuinte
experiente
(coeficiente
positivo)
não
sejam
significativas
individualmente, essas características estão presentes nas interações significativas
entre idade e preferência ao risco, e entre experiência como contribuinte e
orientação de valor, ambas com coeficientes negativos, configurando-se para a
primeira uma situação de reforço de efeitos e para a segunda um antagonismo de
80
efeitos, em relação a um maior cumprimento tributário. O nível educacional, o
desenvolvimento moral e a orientação de valor são significativos individualmente,
como seria de se esperar, apresentando coeficientes positivos. Já a preferência pelo
risco é significativa, com coeficiente naturalmente negativo.
Quanto às três condições de tratamento contextuais, os autores procederam a
testes de médias considerando os seus diferentes níveis. A elevação da
probabilidade de ser fiscalizado de 0% para 25% (este último um valor bastante
elevado) efetivamente causou uma elevação no cumprimento tributário e os autores
consideram que esse é um sinal de que não somente desenvolvimento moral e
orientação de valor podem garantir a correta atenção às normas tributárias. Em
relação à eqüidade/iniqüidade da taxação, a situação de eqüidade demonstrou
diferenças significativas de médias sob distintas taxações, 10% e 30%, sendo o
cumprimento mais favorecido pela menor dessas taxas. A situação de iniqüidade
demonstrou um resultado interessante: embora a prestação da informação ao
contribuinte de que seus pares estavam sendo taxados mais brandamente não
tenha influenciado negativamente o cumprimento tributário, o caso inverso, em que o
contribuinte foi informado estar sendo favorecido por menores taxações fez com que
seus cumprimentos se elevassem. Isso é importante na medida em que abre uma
nova frente para pesquisas, ao sugerir que a iniqüidade produz diferentes
comportamentos tributários variando em função da posição relativa do contribuinte
entre vítima ou beneficiário tributário.
Finalmente, em relação ao comportamento dos pares, houve uma significativa
diferença para menos nas médias de cumprimento tributário após a revelação da
informação de que seus pares estavam declarando valores abaixo do efetivamente
recebido. Significância essa que não se verificou quando a revelação consistiu em
maiores valores declarados pelos pares. Esses resultados, se juntados ainda aos
relacionados à iniqüidade, formam uma área ainda conflituosa em termos de efeitos
tributários.
Como limitações de seu trabalho, os autores identificam as mesmas já relatadas
em relação aos experimentos em laboratório.
O trabalho de Collins e Plumlee (1991) foi o primeiro a avaliar experimentalmente
o relacionamento entre três esquemas distintos de seleção para auditoria e as taxas
de tributação e de penalidade. Os esquemas de seleção variaram entre o puramente
aleatório, um com base no valor declarado pelo contribuinte e em um ponto de corte
81
predeterminado, e um terceiro com base em uma estimativa do real rendimento do
contribuinte fundamentada no seu nível de habilidade em auferir rendimentos.
Observe-se que a definição desses três níveis implica em que a probabilidade de ser
auditado passa a ser diferente para cada um deles, já que aos indivíduos não é
admitido
conhecimento
a
respeito
dos
valores
declarados
pelos
demais
participantes.
Os principais resultados obtidos indicam que os indivíduos que recebem maiores
rendimentos durante as sessões são os mais propensos à declaração com omissão.
Já em relação aos esquemas de seleção utilizados ao final das rodadas, os
resultados informam que os que utilizam algum tipo de critério são mais eficazes do
que o puramente aleatório, sendo mais efetivos em presença de baixas taxas de
tributação e altas taxas de penalidade. Finalizando, os autores não propõem
nenhuma política de tributação específica, uma vez que recomendam estudos
adicionais visando avaliar a sensibilidade dos resultados obtidos em face de maiores
possibilidades de variação nos níveis dos fatores, principalmente taxas e recursos de
auditoria e taxas de penalidade.
Por fim, Alm e Mckee (2003) também avaliam os efeitos dos métodos de seleção
de contribuintes nas omissões de rendimentos por meio de um experimento tributário
nos moldes anteriormente descritos. Testam um critério puramente aleatório contra
um critério não aleatório tendo por base uma simplificação do DIF empregado pelo
IRS, considerando a distância entre o rendimento declarado pelo indivíduo e a média
dos rendimentos declarados pelo grupo ao qual ele pertence para, com isso, efetuar
a seleção. Ao reconhecerem a capacidade de coordenação dos grupos sociais,
admitem também uma novidade experimental, a possibilidade dos indivíduos dos
grupos de tratamento comunicarem-se entre si, após receberem as instruções e
simularem o experimento, mas antes dele ser efetivamente iniciado. O objetivo aqui
é possibilitar a discussão real que efetivamente ocorre nos grupos sociais de
contribuintes.
Os resultados advindos desse experimento primeiramente demonstram que o
critério DIF simplificado resulta em elevados níveis de cumprimento tributário, já que
os indivíduos apresentaram dificuldades em reportar rendimentos muitos baixos
quando a ele submetidos. Contudo, verificou-se que a instituição da palestra entre
os indivíduos permitiu-lhes uma considerável coordenação, o que resultou em níveis
muito baixos de cumprimento tributário mesmo sob o DIF. Com o advento desse
82
efeito negativo, foi utilizado como medida adicional ao DIF um critério aleatório que
restabeleceu, então, melhores níveis de rendimentos declarados.
Dessa forma, em um ambiente em que os contribuintes sabem que a agência
tributária utiliza um método não aleatório para seleção, e podem discutir estes
aspectos entre si livremente, mesmo sendo os fundamentos do método mantidos em
sigilo pela agência, os autores recomendam uma política tributária ótima ao IRS.
Considerando-se que há um orçamento limitado para as operações, deve-se praticar
a seleção e fiscalização de contribuintes com base no DIF, e caso o orçamento não
se esgote, propõe-se a realização de mais algumas auditorias com base em algum
outro critério não aleatório de seleção. Ao lado disso, deve ser feita a seleção de
uma pequena amostra puramente aleatória de contribuintes para fiscalização, de
forma a que seja impresso um certo grau de incerteza em relação às ações da
agência, e, também, para a geração de novos dados para atualização contínua do
método DIF.
Concluindo, pode-se dizer que os experimentos vêm tendo utilização crescente
em termos tributários, e outros trabalhos poderiam ter seus procedimentos
apresentados aqui. Por concisão, pode-se relacionar que eles vêm apontando para
os seguintes resultados principais: maiores taxas de tributação geralmente levam a
maiores omissões de rendimentos (este ponto deve ser observado com reservas, a
partir de todo o exposto neste capítulo); as elevações na taxa de penalidade e na
probabilidade de ser fiscalizado têm o efeito de conter as omissões de rendimentos;
muitos contribuintes superestimam suas chances reais de serem fiscalizados; os
contribuintes declaram valores menores quando sentem que estão sendo tratados
de forma tributária injusta em relação aos outros indivíduos; e, os indivíduos
declaram mais rendimentos quando percebem que há efetivas políticas públicas que
pessoalmente apóiam sendo suportadas pelos impostos pagos pela sociedade.
Como
limitações
dos
trabalhos
experimentais,
tem-se
costumeiramente
argumentado que os mais antigos nem sempre seguiam aspectos hoje cediços em
termos de teoria de experimentação; outros nem sempre especificavam níveis para
os fatores de forma condizente com o mundo real; e, também, que os participantes
dos experimentos podem não ser representativos dos contribuintes. Entretanto, a
maior crítica feita se refere à artificialidade. É claramente diferente a sensação de
optar por omitir rendimentos em um laboratório de ensaio e no mundo real (ALM,
1991).
83
2.8 Medidas de evasão tributária da economia
Como exemplo de estudo com o objetivo de medir o grau de evasão tributária em
uma economia pode-se apresentar o trabalho de Engel, Galetovic e Raddatz (1998),
que mede a evasão tributária envolvendo a arrecadação do Imposto sobre Valor
Agregado (IVA) no Chile. Os autores informam que as medidas de evasão tomadas
em trabalhos anteriores levam em consideração a comparação entre os pagamentos
efetivos e o potencial teórico proporcionado pela observação das contas nacionais.
Contudo esse método é afligido pela constatação de que mesmo estas não estão
isentas de evasão, assim como de que os resultados obtidos não são passíveis de
serem avaliados em termos de sua precisão. Assim, esse trabalho propõe-se a
medir a evasão do IVA por meio do método do ponto fixo, enfocando
especificamente a venda de bens e serviços em estabelecimentos comerciais. O
método do ponto fixo é bastante utilizado em auditoria fiscal e consiste basicamente
em alocar um auditor-fiscal em um ponto de venda das empresas por um período
predeterminado de tempo, em geral por um dia. Assim, a evasão é medida
comparando-se as vendas efetuadas neste dia de total controle fiscal, em que se
assegurou não haver evasão, com as vendas escrituradas pelo contribuinte nos dias
anteriores. Contudo, segundo os autores, esse método apresenta estimativas
imprecisas em nível individual, já que existe uma variabilidade muito grande nas
vendas diárias de uma empresa. Assim, seu método aperfeiçoa essas estimativas
pelo reconhecimento de que alguns grupos de empresas são mais similares entre si.
Dessa forma, as médias das estimativas de evasão pontuais são a base para as
estimativas de evasão de cada um dos subgrupos, que por sua vez comporão as
médias de evasão dos grupos, que por fim, resultarão em uma média global de
evasão. Ocorre que os autores propõem uma ponderação para o cálculo da média
em cada subgrupo, com base no coeficiente de variação (CV) estimado a partir das
medidas de evasão individual de cada empresa. De fato, as vendas diárias
escrituradas em cada empresa são consideradas variáveis aleatórias independente
e identicamente distribuídas (iid) com função de distribuição log-Normal, pois
assumem somente valores maiores ou iguais à zero, com média
µ e variância σ 2 ,
porém, as vendas medidas para cada empresa i possuem seu próprio coeficiente de
variação CVi = σ i / µ i . Além disso, de forma a ser descartada a possibilidade de
que as observações de vendas nulas correspondam a dias em que efetivamente não
84
houve vendas, só compõem as estimativas agregadas de evasão as medidas
tomadas em empresas que escrituraram pelo menos sete notas fiscais no dia do
ponto fixo, número esse considerado razoável pelos autores para a assunção de
que, uma vez verificado, a probabilidade de não haver vendas em alguns dos dias
anteriores ao ponto fixo é muito baixa. O cálculo da estimativa média da evasão total
da economia segue o mesmo processo em cascata ascendente, pois essa
estimativa é ponderada em função da contribuição de cada grupo para a
variabilidade total da medida de evasão.
A realização desse procedimento descrito em uma amostra de 347 empresas,
contando com o imprescindível apoio do Servicio de Impuestos Internos (SII) do
Chile e de seus auditores-fiscais, produziu os seguintes resultados principais. A
estimativa de evasão agregada de IVA devida a vendas de produtos ou serviços não
escrituradas em notas fiscais alçou a marca de 24,4%, com erro padrão de 3,9%. Os
setores com maior evasão estimada, com suas respectiva taxas de evasão e erros
padrões, foram o de comércio atacadista, 73% e 12%, serviços financeiros diversos,
27% e 5%, e restaurantes e hotéis, 13% e 3%. Com esse trabalho, os autores
provaram que no Chile, e possivelmente em todos os países, existe uma
variabilidade na evasão tributária devida aos diferentes setores de atividades
econômicas. Contudo, aqui algumas limitações devem ser levadas em consideração,
principalmente a suposição de que sete notas fiscais seriam suficientes para a
assunção de que houve vendas em todos os dias do período anterior ao ponto fixo.
2.9 Conclusões gerais do capítulo
A partir da revisão de literatura efetuada, podem-se relacionar como principais
conclusões, válidas para todos os tipos de contribuintes e considerando-se o
imposto incidente sobre a renda, as seguintes:
a) Todos os trabalhos convergem no sentido de que elevações na taxa de
penalidade e na probabilidade de ser fiscalizado reduzem as omissões de
rendimento e reprimem a evasão tributária;
b) À medida que os rendimentos se elevam, as omissões de rendimentos são
maiores;
c) Não há consenso sobre os efeitos de elevações da taxa de tributação sobre a
evasão tributária, observando-se diversos resultados ambivalentes ao longo desta
85
revisão de literatura, e com o complicador adicional de que este efeito parece variar
em função de alterações em outras covariáveis atuantes no sistema econômicotributário;
d) Os estudos teóricos e experimentais apontam para a maior eficiência dos
métodos de seleção de contribuintes não aleatórios em relação aos puramente
aleatórios;
e) O sigilo em relação ao critério de seleção, e seu conseqüente nível de tolerância
à infração, é favorável à agência tributária e promove a contenção de evasão
tributária e uma maior arrecadação;
f) Apresentaram-se diversos resultados indicando que contribuintes que se dedicam
às mesmas atividades econômicas tendem a ser mais parecidos entre si do que
contribuintes que se dedicam a atividades distintas, no que concerne a infração à
legislação tributária, o que reforça o assumido na primeira hipótese de pesquisa;
g) Os trabalhos empíricos enfocando especificamente a seleção de contribuintes
para fiscalização são raros e, mesmo os existentes, só valem para poucos setores
de atividades econômicas. Portanto, confirma-se aqui a segunda hipótese de
pesquisa, já que esta revisão demonstrou claramente que a correlação de medidas
existente entre contribuintes que praticam uma mesma atividade econômica não
vem sendo considerada de forma sistematizada por estudos desse escopo, mas de
forma pontual e limitada, em geral por meio de variáveis dummies com o objetivo de
captar os efeitos de alguns poucos grupos de contribuintes;
h) Verificou-se uma maior ênfase nos estudos enfocando as pessoas físicas, o que
simplifica sobremaneira o enfoque de trabalho ao reduzir a incidência tributária a
apenas um imposto, o de renda, e sujeitá-la a um menor número de variáveis.
86
3 MODELOS LINEARES GENERALIZADOS HIERÁRQUICOS
3.1 Introdução
Este capítulo aborda alguns aspectos relacionados aos Modelos Lineares
Generalizados que subsidiam a posterior caracterização dos Modelos Lineares
Hierárquicos. Assim, conceitos que envolvem os Modelos Lineares e Modelos
Lineares Generalizados (MLG) detalhados em Dobson (2002), Neter e Wasserman
(1974) e Neter et al. (1996), além de noções auxiliares de teoria estatística e de
amostragem discutidas em Meyer (1975) e Cochran (1977), são abordados na seção
3.2. Na seção 3.3 são apresentados e formalizados os Modelos Lineares
Hierárquicos (MLH), seguindo principalmente as noções descritas em Raudenbush e
Bryk (2002) e Bryk e Raudenbush (1992). Os conceitos introduzidos nas seções 3.2
e 3.3 fundamentam a generalização da modelagem linear hierárquica com vistas a
viabilizar sua aplicação às distribuições de probabilidade da família exponencial.
Portanto, na seção 3.4 são formalizados os Modelos Lineares Generalizados
Hierárquicos (MLGH) segundo o conceituado em Raudenbush e Bryk (2002). Estes
tópicos em modelagem linear são considerados fundamentais para o entendimento e
acompanhamento do processo de execução da presente pesquisa.
3.2 Modelos lineares generalizados
A unidade de muitos métodos estatísticos é evocada por um modelo linear
generalizado, à qual está vinculada a idéia de uma família exponencial de
distribuições de probabilidades associadas a uma variável aleatória (VA).
Considerando-se uma VA Y cuja distribuição de probabilidade de ocorrência dos
elementos de seu espaço amostral esteja associada a um único parâmetro θ, podese dizer que essa distribuição pertence à família exponencial se sua função de
probabilidade, ou, a depender do caso, função densidade de probabilidade, puder
ser expressa por:
f (Y ;θ ) = s (Y )t (θ ) exp[a (Y )b(θ )]
Em (3.1), fazendo-se s (Y ) = exp d (Y ) e t (θ ) = exp c(θ ) , obtém-se:
(3.1)
87
f (Y ; θ ) = exp[a(Y ) b( θ) + c(θ) + d (Y )]
(3.2)
Caso a (Y ) = Y , tem-se o caso da função de probabilidade na forma canônica. As
funções d (Y ) , c (θ ) e b(θ ) são funções genéricas da família exponencial que são
determinadas uma vez especificada a distribuição de probabilidade (Binomial ou
Poisson ou Normal) a ser utilizada no estudo. A equação (3.2) é bastante genérica e
aplicável a toda a família das distribuições exponenciais. No caso do MLG, ela
possui certas características próprias interessantes, e que são enumeradas a seguir:
1. Considerando-se um conjunto de variáveis aleatórias independentes Y1 ,..., Yn ,
suas funções de probabilidades pertencentes à família exponencial apresentam a
forma canônica (padrão), onde a( Y ) = Y , e dependem, cada uma delas, de um
único parâmetro θ i , conforme abaixo:
f (Yi ;θ i ) = exp[Yi bi (θ i ) + ci (θ i ) + d i (Yi )]
(3.3)
θ i , eles serão considerados como
Se existirem outros parâmetros além de
parâmetros de perturbação fazendo parte das funções, também conhecidas, bi, ci e
di e sendo tratados como se fossem conhecidos.
2. As distribuições de probabilidades para todos os Yi 's são idênticas e apresentam
a mesma forma exponencial, de maneira que os subscritos em b, c e d não são
necessários formalmente e a função densidade de probabilidade conjunta dos Yi 's é
dada pelo seguinte produtório:
f (Y1 ,...,Yn ;θ 1 ,...,θ n ) =
n
∏ exp[Y b(θ ) + c(θ ) + d (Y )]
i
i
i
(3.4)
i
i =1
Desenvolvendo-o tem-se que:
⎡
f (Y1 ,...,Yn ;θ 1 ,...,θ n ) = exp ⎢
⎣
Em geral, os parâmetros
n
∑
i =1
Yi b(θ i ) +
n
∑
i =1
c(θ i ) +
n
∑
i =1
⎤
d (Yi )⎥
⎦
(3.5)
θ i não possuem interesse imediato, pois se admite que
eles sejam distintos para cada um dos Yi e a modelagem nessas condições seria
bastante embaraçosa. Na verdade o interesse é contar com um número menor de
88
parâmetros
β1 , β 2 ,..., β p , p < n, que se apliquem a quaisquer i. Supondo-se que o
valor esperado de Yi assuma um valor E (Yi ) = µi , e sendo
então, para os MLG pode-se utilizar uma função de
µ i uma função de θ i ,
µ i , tal que:
g ( µi ) = x i β = η i
T
(3.6)
Nessa equação g(.) é uma função de ligação, x i é um vetor de ordem (p x 1) de
variáveis explicativas - por simplicidade de exposição não se considera o intercepto
neste momento - e β é o vetor de parâmetros de ordem (p x 1) do modelo. Observese que com o advento da função de ligação, quaisquer tipos de variáveis resposta
podem ser modeladas, sejam lineares ou não lineares, haja vista que a função de
ligação associa essa resposta genérica esperada a uma função linear nos
parâmetros, ou seja, está-se modelando na verdade uma transformação do valor
esperado da VA resposta. Dessa forma, um MLG é composto por:
1. Variáveis resposta aleatórias Y1 ,..., Yn estatisticamente independentes que se
consideram distribuídas de acordo com a mesma distribuição de probabilidades da
família exponencial;
2. Um vetor β (p x 1) de parâmetros do modelo e uma matriz X de ordem (n x p)
T
formada por n vetores x i de variáveis explicativas, conforme segue:
⎡ β1 ⎤
⎡ x11 L x1 p ⎤
⎢ ⎥
⎢
⎥
β=⎢ M ⎥ e X=⎢ M O M ⎥
⎢β p ⎥
⎢ xn1 L xnp ⎥
⎣ ⎦
⎣
⎦
3. Uma função de ligação monótona e diferenciável:
g ( µi ) = x i β = η i
T
(3.7)
onde tem-se que:
E (Yi ) = µ i
(3.8)
Utilizando-se dessa composição genérica, a escolha da função de ligação
adequada ao modelo depende da natureza da resposta a ser estudada, se ela é
contínua, binária, politômica, de contagem, ordinal etc. Com isso, é possível
89
identificar e utilizar a distribuição de probabilidades da família exponencial a ela
aplicável.
Exemplificando esse processo, e aproveitando que na parte executiva deste
trabalho será abordado um caso em que se modela uma VA resposta binária,
considere-se agora um experimento E, e que A seja um evento binário a ele
−
associado. Assume-se que P(A) = φ e P( A ) = 1 - φ , e que essas probabilidades
mantêm-se constantes ao longo das n repetições de E. O espaço amostral deste
experimento é dado por todos os conjuntos possíveis de {a1, a2,..., an} sendo que,
−
nele, ai ou é A ou A , a depender da ocorrência ou não do evento A na i-ésima
repetição de E. Defina-se a VA de interesse Y como representando o número de
vezes em que A ocorre, fato que se considera coloquialmente como um sucesso, em
n repetições independentes de E. Os valores assumidos por Y são, claramente, 0,
1, 2,..., n; e a cada um desses valores está associada uma probabilidade P( Y = k)
de ocorrência, sendo k = 0, 1, 2, ..., n. Essas definições do experimento levam
diretamente a que Y siga a conhecida distribuição Binomial de probabilidades com
parâmetros n e φ, em relação ao seu espaço amostral. Sua função de probabilidade
é formalmente definida por:
⎛n⎞
f (Y ;φ ) = ⎜⎜ ⎟⎟φ Y (1 − φ ) n−Y
⎝Y ⎠
(3.9)
E que pode também ser expressa por:
⎡
⎛ n ⎞⎤
f (Y ;φ ) = exp ⎢Ylogφ − Ylog (1 − φ ) + nlog (1 − φ ) + log ⎜⎜ ⎟⎟⎥
⎝ Y ⎠⎦
⎣
(3.10)
⎛n⎞
Sendo ⎜⎜ ⎟⎟ o coeficiente Binomial.
Y
⎝ ⎠
⎛n⎞
⎛ φ ⎞
⎟⎟ , c( φ )= n log (1 − φ ) e d( Y )= log ⎜⎜ ⎟⎟ em
⎝1 − φ ⎠
⎝Y ⎠
Fazendo-se a( Y )= Y , b( φ )= log ⎜⎜
(3.10), obtém-se exatamente a equação geral (3.2) em função de Y e
φ , o que
demonstra que a distribuição Binomial de probabilidades pode ser justamente
considerada um caso particular da família exponencial de distribuições.
90
Viu-se aqui o caso da distribuição Binomial, mas encontram-se tabelados na
literatura de referência os valores que devem ser assumidos por b, c e d em função
da distribuição da família exponencial a ser considerada, se Binomial, Poisson, ou
Normal.
Nas próximas seções serão apresentados alguns exemplos de MLG, partindo do
caso mais simples, a regressão simples, até o ponto a ser empregado nesta
pesquisa, os Modelos Lineares Generalizados Hierárquicos, assim como alguns
aspectos que motivam sua utilização na prática. Neste capítulo os modelos serão
apresentados por meio de uma ilustração de aplicação na área tributária, de maneira
que o interesse momentâneo neste capítulo passa a ser o estudo do relacionamento
do Lucro Real (LR) das empresas (pessoas jurídicas), que é uma medida bastante
importante, pois forma a base de cálculo de incidência do imposto de renda das
empresas no Brasil, em função de um determinado indicador econômico-fiscal
designado genericamente por IND.
3.2.1 Regressão linear: simples e múltipla
O mais simples e imediato dos submodelos dos MLG é a regressão linear,
simples ou múltipla. Para o estudo exemplo, tomando-se uma amostra de empresas
de um determinado setor de atividades econômicas, poder-se-ia chegar ao seguinte
modelo de regressão simples, linear nos parâmetros e na preditora.
Modelo 1:
Yi = β 0 + β1 X i + ε i
(3.11)
com i = 1, 2,..., n, onde
Yi : LR da i-ésima empresa,
X i : IND da i-ésima empresa,
β 0 : LR esperado para IND igual a zero,
β1 : mudança esperada no LR da empresa para um incremento unitário no IND,
ε i : erro aleatório associado a i-ésima empresa,
suposições do modelo:
εi
∼ N(0,
σ 2 ) e ε i 's independentes.
Ressalte-se que uma regressão múltipla apresentaria a mesma formulação de
(3.11) e apenas haveria outras preditoras além de X i .
91
Amostrando-se empresas de um outro setor teríamos uma outra relação de
regressão similar à do modelo 1 e aplicável ao novo setor de atividades.
Possivelmente estas duas regressões possuiriam interceptos e inclinações distintas.
O setor de maior intercepto ( β 0 ) teria o maior valor esperado de LR para um nível
do IND igual a zero. Por outro lado, o setor que possuísse a maior inclinação ( β1 ) da
reta de regressão possuiria um relacionamento LR-IND mais forte, resultando que
X seria mais preditivo em relação à Y neste setor do que no de menor β1 . A partir
da hipótese de efetiva constatação da existência de retas de regressão diferentes
para os setores, qual seria a explicação lógica para isso? O que faz com que um
setor tenha resposta esperada mais elevada, enquanto que em outro a variável
explicativa não seja tão preditiva em relação à resposta? A resposta reside no fato
de existir, nessa ilustração, uma clara hierarquia entre os dados, consistindo em
empresas aninhadas ou agrupadas em setores de atividades econômicas que por
sua vez podem estar aninhados em outra unidade amostral superior. Trata-se,
portanto, de uma típica situação apresentando estruturas de dados correlacionados,
e essa é a razão de, por hipótese, existirem retas de regressão distintas para cada
uma das unidades (setores), já que, provavelmente, cada uma delas possui certos
aspectos e características próprias que as distinguem em maior ou menor grau das
outras unidades.
3.2.2 Estrutura de dados correlacionados
O modelo 1 proposto anteriormente se aplica quando os termos ε i são
considerados como não correlacionados, com média zero e variância constante, o
que, combinado com a suposição de que os erros são normalmente distribuídos,
resulta na suposição adicional tradicional em regressão, qual seja, de que os efeitos
aleatórios são independentes entre si.
Contudo, existem duas situações típicas em que essa suposição de
independência deve ser relaxada, sob pena de obtenção de resultados não
consistentes (DOBSON, 2002). A primeira é quando as respostas são medidas
repetidamente ao longo do tempo, sendo obtidas a partir das mesmas fontes. Por
exemplo, as notas em exames escolares provenientes do mesmo grupo de alunos
ao longo do curso primário. Esse é um caso clássico de dados longitudinais. Nesse
caso, as medidas tomadas a partir do mesmo indivíduo tendem a ser mais parecidas
92
entre si do que as medidas tomadas em indivíduos distintos, em função das
características pessoais de cada aluno, e também de outros fatores contextuais. Por
exemplo, a proficiência em português medida em diversas faixas etárias de uma
criança, além de estar relacionada claramente com a quantidade de estudo dessa
criança ao longo do tempo, possivelmente estará também relacionada com seus
fatores genéticos e com o nível sócio-econômico de seus pais. Por isso, dados
longitudinais oriundos de um grupo de indivíduos de controle tendem a exibir
correlação entre medidas sucessivas pertencentes ao mesmo indivíduo, haja vista
que ele está sujeito a certas condições únicas que não são partilhadas pelos outros
indivíduos. A outra situação é quando as respostas de interesse são medidas a partir
de
indivíduos
agrupados
em
unidades
distintas.
Essa
possibilidade
é
freqüentemente denominada na literatura por estrutura aninhada ou hierárquica de
dados. Exemplificando, sejam as medidas de altura de uma amostra de mulheres de
dezoito anos selecionadas a partir de uma amostra de países, os países formando a
primeira unidade de amostragem e as mulheres a segunda; na verdade uma
subunidade de amostragem. Nesse caso é natural que se imagine que as mulheres
de um mesmo país tendem a possuir alturas mais parecidas entre si do que se
comparadas com as de outros países, pois aquelas compartilham certas condições
sócio-econômicas e ambientais. Um estudo comparativo dessas medidas que
desconsidere a hierarquia natural dos dados (correlação entre medidas do mesmo
grupo), pode levar a resultados enganosos. Por isso, no caso do modelo 1, Lucro
Real explicado por IND, é intuitivo que deve haver retas de regressão distintas
ajustáveis aos diversos setores componentes da amostra, justamente porque as
medidas das empresas de um mesmo setor tendem a ser mais parecidas entre si do
que se comparadas com as de outros setores.
Embora intuitivo o exposto nos últimos parágrafos, a explicação matemática para
a existência de correlações nas medidas individuais em modelos lineares se
fundamenta no fato de que os indivíduos provenientes do mesmo grupo ou unidade
tendem a compartilhar valores em muitas variáveis observáveis. Contudo, algumas
dessas variáveis não são observadas na prática, e, portanto, não são computáveis
pelo modelo, o que implica que seu efeito acaba sendo absorvido pelo termo de erro
aleatório ou resíduo
εi ,
ocasionando a correlação entre eles que, supostamente,
93
deveriam ser independentes de acordo com as suposições que os sustentam
(ARANHA, 2000).
Havendo sido reconhecida a possibilidade de existência de estruturas de dados
correlacionados, como no caso de empresas aninhadas em setores de atividades
econômicas, uma hipótese ingênua para seu tratamento pode levar a uma
modelagem que desconheça os grupos que estruturam os dados e que trabalhe com
todas as empresas de forma desagregada, exatamente como proposto no Modelo 1.
Nesse caso, tem-se de assumir que os erros aleatórios são independentemente
distribuídos. Ora, as empresas de setores distintos são claramente passíveis de
serem consideradas independentes, porém as empresas de um mesmo setor
partilham de diversas características econômico-tributárias em comum, que não
sendo totalmente observadas ocasionam erros intragrupos correlacionados entre si.
Nesse caso, segundo Goldstein (2003), as estimativas e inferências (intervalos de
confiança e testes de hipóteses) produzidas por esse modelo têm propensão à
imprecisão por subestimarem os reais erros padrões dos estimadores, e ela é tanto
maior quanto mais significativa for a variabilidade das médias do LR intra-setores.
Portanto, o Modelo 1 de regressão tradicional só é aplicável para o estudo em um
único setor.
Outra alternativa intuitiva para o estudo do relacionamento LR-IND seria trabalhar
de forma totalmente agregada, somente com as médias dos grupos. Ou seja, as
variáveis disponíveis em nível individual seriam consolidadas no nível hierárquico
superior (setores), com isso tem-se um segundo modelo.
Modelo 2:
−
−
−
Y. j = β 0 + β1 X . j + ε . j
(3.12)
j = 1, ..., J, onde
−
Y. j : LR médio do setor j,
−
X . j : IND médio do setor j,
β 0 : LR agregado esperado para um nível do IND médio igual a zero,
β1 : mudança esperada no LR agregado para um incremento unitário no IND médio,
−
ε . j : erro médio aleatório associado ao setor j,
94
−
suposições:
−
ε . j ∼ N(0, σ 2 ) e ε . j 's independentes.
O modelo 2 considera uma agregação total, portanto se está perdendo a
informação originada pelos dados individuais de empresas e essa perda é tanto
maior em função da maior variabilidade entre os setores. Além disso, segundo Bryk
e Raudenbush (1992, p.xiv), “a variabilidade devida aos indivíduos, em geral,
corresponde à maior parcela da variabilidade total em estruturas correlacionadas”.
Outra modelagem possível para o exemplo seria proporcionada pelo modelo a
seguir.
Modelo 3:
Yij = β 0 j + β1 j X ij + ε i
(3.13)
sendo i= 1,2,...nj e j = 1,2,...,J, onde
Yij : LR da i-ésima empresa do setor j,
X ij : IND da i-ésima empresa do setor j,
β 0 j : LR esperado do setor j para IND igual a zero,
β1 j : mudança esperada no LR da i-ésima empresa do setor j para incremento
unitário no IND,
ε i : erro aleatório associado a i-ésima empresa,
suposições:
εi
∼ N(0, σ ) e
2
ε i 's independentes.
Este modelo leva em consideração as possíveis diferenças de interceptos e
inclinações entre os grupos j, mas admite apenas o efeito aleatório referente a iésima empresa, o que não permitiria a distinção dos efeitos aleatórios intergrupos,
remanescendo a suposição de termos de erros aleatórios não correlacionados.
Como
isso provavelmente
não
se
sustentaria,
novamente
produzir-se-iam
inferências pouco precisas nesse caso.
Outra possibilidade seria designar a cada setor uma equação distinta. Ter-se-ia,
portanto, J equações, mantidas as demais suposições de distribuição dos erros e
especificação de subscritos.
Modelo 4:
Yi1 = β 01 + β11 X i1 + ε i1
95
Yi 2 = β 02 + β12 X i 2 + ε i 2
(...)
YiJ = β 0 J + β1J X iJ + ε iJ
(3.14)
sendo i = 1,2,...nj e j = 1,2,...,J, onde
Yij : LR da i-ésima empresa do setor j,
X ij : IND da i-ésima empresa do setor j,
β 0 j : LR esperado para o setor j para um nível do IND igual a zero,
β1 j : mudança esperada no LR da empresa para incremento unitário no IND, para o
setor j,
ε ij : erro aleatório associado a i-ésima empresa do setor j,
suposições:
ε ij ∼ N(0, σ 2 ) e ε ij 's independentes.
Esta modelagem também considera as diferenças de interceptos e inclinações
entre setores, e as suposições dos erros podem ser suficientemente atendidas, pois
há um termo de erro específico para setor em cada uma das J equações, que, como
são aplicáveis apenas a um único grupo, podem sustentar satisfatoriamente erros
independentes entre si. Entretanto, a dificuldade aqui está associada ao excessivo
número de equações a serem estimadas, podendo-se chegar aos milhares, a
depender do problema estudado. Além disso, perde-se bastante em função da
impossibilidade da exploração das fontes de variabilidade das medidas entre grupos,
isso sem falar na possibilidade de alguns grupos não conterem dados suficientes
para que a estimação de sua equação seja possível, em função do reduzido número
de graus de liberdade resultante.
Por fim, uma outra alternativa para tratamento de dados correlacionados seria a
modelagem de uma única equação, em que os grupos seriam considerados por
meio de centenas de variáveis dummy cuja função seria captar o efeito dos grupos
em relação à resposta. Neste caso, além da indevida suposição de independência
entre os erros do modelo, a dificuldade estaria em ajustar um bom modelo de
regressão com tantas variáveis (além das explicativas, centenas de dummies), e,
ainda, em presença da possibilidade de ocorrência da falta de dados para as
estimativas dos parâmetros.
96
A conclusão é que a correlação entre os dados tem de ser incorporada à
modelagem de alguma maneira, de forma a produzir inferências estatísticas válidas,
mas isso é contrário a algumas das suposições iniciais que sustentam as estimativas
dos modelos lineares anteriormente apresentados, particularmente a independência
entre os efeitos aleatórios do modelo. A possibilidade de se ajustar uma equação
para cada grupo seria operacionalmente custosa e fortemente condicionada à
quantidade de dados existente em cada grupo.
É relevante registrar que a consideração das estruturas de correlação dos dados
durante o processo de estimação em MLG já é bem conhecida, e pode ser posta em
prática por meio da utilização de uma matriz bloco-diagonal de covariâncias no
processo regular de estimação dos parâmetros, cada bloco da matriz sendo
responsável por estruturar as variâncias/covariâncias em cada um dos grupos,
conforme segue:
⎡V j
⎢0
V=⎢
⎢
⎢
⎣0
0
Vj
0
0⎤
0⎥
⎥
⎥
O
⎥
Vj ⎦
A consideração de matrizes de variância/covariância para as observações implica na
utilização de procedimentos de estimação especificamente desenvolvidos para esse
fim (ver seção 4.3). Em geral, as diferenças nas estimativas residem na obtenção de
intervalos de confiança mais conservadores, porém, eventualmente até as
estimativas pontuais poderão ser distintas das obtidas pela estimação com matrizes
de variância/covariância diagonais, a depender da estrutura empregada. Atualmente
já
são
bem
conhecidas
dos
pesquisadores
diversas
estruturas
de
variância/covariância consideradas adequadas para certos tipos de aplicações
(DOBSON, 2002; DAVIDSON e MACKINNON, 1993). Entretanto, um fato importante
é que esse processo proporciona inferências mais precisas, isso é certo, sem,
contudo, possibilitar a explicação da variabilidade das medidas intergrupos, que é
diretamente decorrente das estruturas de covariância presentes nos grupos.
Uma solução que incorpore em si a existência de correlação entre as medidas
internas das unidades e que proporcione também a possibilidade de explicá-la é
partir para a modelagem hierárquica, um desenvolvimento dos MLG especialmente
talhado para os casos em que seja violada a hipótese de erros não correlacionados.
97
3.3 Modelos lineares hierárquicos
Esta seção discutirá a lógica e a formulação inerente aos Modelos Lineares
Hierárquicos, que se caracterizam por conferir uma estrutura de hierarquia aos
modelos lineares e que são também conhecidos como Modelos Multiníveis. As
idéias aqui expostas de forma introdutória estão amplamente desenvolvidas em Bryk
e Raudenbush (1992), que, conjuntamente com Goldstein (1995), é considerada
como uma das literaturas de referência na área. Entretanto, a denominação de
"Modelo Linear Hierárquico" é bem mais antiga e, de acordo com Natis (2000, p.3),
“ela surgiu originalmente como fruto dos trabalhos de Lindley e Smith (1972) e Smith
(1973) sobre a estimação Bayesiana de modelos lineares”.
Voltando atenção à seção anterior, nela apresentou-se a dificuldade de utilizar
modelos de regressão considerando uma variável resposta que apresente termos de
erros correlacionados, já que isso, além de derrubar algumas das suposições típicas
que os sustentam, pode causar imprecisão nas estimativas, dificuldade de
operacionalização dos modelos e até a infactibilidade de produção das inferências.
Mas se a própria designação "Modelo Linear Hierárquico" já existe há décadas,
então por que sua utilização prática é relativamente recente? A resposta é que,
apesar de muitos estudos e pesquisas sociais envolverem dados hierárquicos já há
bastante tempo, os estudos no passado recente freqüentemente não eram efetivos
no tratamento dessas estruturas. Isso se deveu em grande parte às limitações
impostas pelas próprias técnicas de estimação dos parâmetros em amostras de
dados não balanceados (grupos possuindo número de elementos distintos entre si)
e, adicionalmente, apresentando erros correlacionados. Nesse contexto, os estudos
apresentavam muitas vezes problemas de cálculo e imprecisão nas estimativas,
acarretando um desestímulo na exploração desses modelos durante a década de
setenta. Contudo, na década seguinte, avanços estatísticos isolados foram reunidos
de forma a aperfeiçoar as estimativas hierárquicas. Em Natis (2000) pode ser
consultada uma breve cronologia das pesquisas em estatística que representaram
substantivos avanços para a modelagem hierárquica ao longo das três últimas
décadas. Tudo isso resultou recentemente no aperfeiçoamento de diferentes
pacotes computacionais concebidos especificamente para MLH, que têm se
98
constituído em fator de disseminação dessas modelagens, sendo bastante
populares atualmente o HLM10 e o MLwiN11.
A partir desses desenvolvimentos, a maior parte das barreiras à utilização de
MLH foi sendo removida pouco a pouco e os pesquisadores puderam propor
hipóteses de pesquisa mais ricas, proporcionando a aferição das variabilidades
devidas a cada nível e a provisão de uma modelagem única fornecendo estimativas
individuais e também para os grupos, por meio da ponderação conjunta dos
resultados em função da precisão fornecida por cada uma das unidades, como
exposto no capítulo 4.
A ilustração estudando o relacionamento do LR e do IND na população de
empresas e setores pode ser modelada por um MLH em dois níveis, empresa e
setor. Considere-se uma população de setores (unidade amostral de nível 2) de
onde foram amostradas J unidades aleatoriamente. De cada uma dessas J
unidades, foram selecionados randomicamente nj indivíduos da população de
empresas (unidade amostral de nível 1). Com isso pode-se formular o Modelo 5.
Nível 1:
−
Yij = β 0 j + β1 j ( X ij − X . j ) + rij
(3.15)
Nível 2:
β 0 j = γ 00 + u 0 j ,
(3.16)
β1 j = γ 10 + u1 j
(3.17)
i = 1,...,nj e j = 1,...,J, onde, para os níveis 1 e 2,
Yij : LR da i-ésima empresa do setor j,
X ij : IND da i-ésima empresa do setor j,
−
X . j : média amostral do IND no setor j,
−
β 0 j : LR esperado para uma empresa do setor j com X ij = X . j ,
10
11
Pacote produzido e distribuído pela Scientific Software International, Inc.
Pacote produzido e distribuído pelo Centre for Multilevel Modelling.
99
β1 j : mudança esperada no LR quando X ij aumenta uma unidade em relação à
−
X.j ,
rij : erro aleatório associado a i-ésima empresa do setor j,
γ 00 : valor esperado do intercepto para a população de setores,
γ 10 : valor esperado da inclinação de regressão IND-LR para a população de setores,
u 0 j : efeito aleatório do setor j no intercepto β 0 j ,
u1 j : efeito aleatório do setor j na inclinação β1 j ,
τ 00 : variância populacional dos interceptos,
τ 11 : variância populacional das inclinações,
τ 01 : covariância populacional entre interceptos e inclinações,
suposições do modelo:
rij ∼N(0, σ 2 ) e rij 's independentes,
u 0 j ∼N(0, τ 00 ) e u 0 j 's independentes,
u1 j ∼N(0, τ 11 ) e u1 j 's independentes,
Cov( u 0 j , u1 j ) =
τ 01 e
u 0 j 's e u1 j 's independentes dos rij 's.
É importante observar que o IND está centrado na média de cada grupo, um aspecto
de locação da variável X ij que é bastante importante em MLH (ver subseção 3.3.2).
O índice j nas equações (3.15) a (3.17) possibilita que cada setor tenha seu
próprio intercepto e inclinação, existindo possibilidade de efeitos aleatórios próprios
tanto para o nível 1, quanto para o nível 2, quais sejam rij , u 0 j e u1 j ,
respectivamente. Isso permite que as medidas internas de um mesmo setor sejam
correlacionadas na medida da maior similaridade intra-setores.
O modelo 5 permite reconhecer as fontes de variabilidade dos dados nos
diversos níveis, permitindo explorar outra funcionalidade interessante desses
modelos, que é a possibilidade de explicação da variabilidade de interceptos e
inclinações por meio de variáveis preditoras específicas de nível 2. Prosseguindo,
pode-se tentar explicar a variabilidade no LR entre os setores econômicos por meio
100
de uma variável binária indicando se houve ou não crescimento econômico no setor
em um determinado período. Com isso, tem-se o Modelo 6 a seguir.
Nível 1:
−
Yij = β 0 j + β1 j ( X ij − X . j ) + rij
(3.18)
Nível 2:
β 0 j = γ 00 + γ 01W j + u 0 j ,
(3.19)
β1 j = γ 10 + γ 11W j + u1 j
(3.20)
i= 1,...,nj
e j =1,...,J, sendo que W j = 0 se o setor apresentou estagnação ou
retração e W j = 1 se o setor cresceu em um determinado ano. Para este modelo,
chamado condicional ao nível 2, tem-se, para os níveis 1 e 2, que
γ 00 : valor esperado do intercepto para setores que não apresentaram crescimento,
γ 01 : diferença esperada no intercepto entre setores que apresentaram e que não
apresentaram crescimento,
γ 10 : valor esperado da inclinação de regressão IND-LR em setores que não
cresceram,
γ 11 : diferença entre os valores esperados das inclinações de regressão IND-LR
entre setores que apresentaram e que não apresentaram crescimento,
u 0 j : efeito aleatório do setor j no intercepto β 0 j , ceteris paribus,
u1 j : efeito aleatório do setor j na inclinação β 1 j , ceteris paribus,
τ 00 : variância populacional dos interceptos ajustada por W j ,
τ 11 : variância populacional das inclinações ajustada por W j ,
τ 01 : covariância populacional entre interceptos e inclinações,
suposições do modelo:
rij ∼N(0, σ 2 ) e rij 's independentes;
u 0 j ∼N(0, τ 00 ) e u 0 j 's independentes;
u1 j ∼N(0, τ 11 ) e u1 j 's independentes;
101
Cov( u 0 j , u1 j ) =
τ 01 e
u 0 j 's e u1 j 's independentes dos rij 's.
Deve-se salientar que agora os efeitos aleatórios de nível 2, u 0 j e u1 j , são
efeitos residuais ou condicionais após o controle da variabilidade nesse nível por
W j . Além disso, é claro que ambos os modelos 5 e 6 podem ser expandidos para
tantas variáveis de níveis 1 e 2 quantas forem necessárias.
Não é possível estimar os parâmetros das equações (3.18), (3.19) e (3.20)
diretamente, já que se têm variáveis resposta de nível 2 não observáveis. Entretanto,
substituindo (3.19) e (3.20) em (3.18), obtém-se a equação (3.21) correspondente ao
modelo combinado para os dois níveis:
_
_
Yij = γ 00 + γ 01W j + γ 10 ( X ij − X . j ) + γ 11W j ( X ij − X . j ) +
(3.21)
_
u 0 j + u1 j ( X ij − X . j ) + rij
Pelo teorema de Gauss-Markov, sabe-se que a estimação de parâmetros
tradicionalmente adotada em regressão linear, pelo método dos Mínimos Quadrados
Ordinários (MQO), produz estimativas não viesadas e de menor variância (maior
eficiência), mas sustentando-se na suposição crucial de que os termos de erro sejam
não correlacionados e distribuam-se com variância constante (DAVIDSON e
MACKINNON, 1993). Já na equação (3.21), observa-se que o efeito aleatório
_
combinado,
u 0 j + u1 j ( X ij − X . j ) + rij , não se sujeita a estas suposições.
Primeiramente porque eles são dependentes internamente em cada grupo, uma vez
que os u 0 j e u1 j são idênticos para as empresas do setor j. Além disso, eles
_
apresentam heterocedasticidade, pois a porção u 0 j + u1 j ( X ij − X . j ) depende de
_
u 0 j e de u1 j , que variam entre os setores, e de ( X ij − X ⋅ j ) , cuja variabilidade se dá
entre empresas do mesmo setor. Conseqüentemente, os modelos de regressão
tradicionais e seus princípios de estimação não são apropriados para modelagens
com coeficientes aleatórios como em MLH (BRYK e RAUDENBUSH, 1992).
No que tange essa inadequação, e corroborando o já discutido na seção 3.2,
Goldstein (2003, p.23) afirma que:
102
Nos casos em que a correlação intragrupos é pequena, existe uma boa
correspondência entre as estimativas de MQO e de MLH. Entretanto, não
sendo esse o caso, à medida que os nj das unidades crescem, as
estimativas de MQO vão subestimando mais e mais os erros padrões dos
estimadores dos coeficientes do modelo, levando a inferências incorretas.
A conseqüência disso é que, em geral, procedimentos iterativos de máxima
verossimilhança são utilizados para a estimação dos parâmetros em MLH. Ressaltese que o grande problema neste caso é justamente a presença de erros
correlacionados, já que a presença apenas de heterocedasticidade de variância dos
erros poderia ser remediada pela estimação por Mínimos Quadrados Ponderados.
Em relação aos resultados passíveis de serem obtidos por esta modelagem,
Osborne (2000) comparou as estimativas obtidas para uma amostra de dados do
National Education Longitudinal Survey of 1988 dos Estados Unidos da América, por
três estratégias distintas de modelagem, a saber: desagregada, totalmente agregada
e hierárquica. Assumiu-se que o modelo hierárquico fornece a melhor estimativa
para o real relacionamento entre as preditoras e a variável resposta e, portanto,
constituiu-se na referência de análise. As conclusões apontaram para uma
propensão à subestimação significativa dos erros padrões dos estimadores dos
efeitos de nível 2 por parte da estratégia desagregada. Por outro lado, a estratégia
agregada tendeu à superestimação das magnitudes dos coeficientes dos efeitos de
nível 1 e à subestimação das magnitudes dos coeficientes dos efeitos de nível 2.
Sua conclusão final foi de que as estratégias agregada e desagregada estimadas
por MQO não produzem resultados correspondendo ao real relacionamento entre a
resposta e as preditoras. Essas conclusões corroboram os estudos de Kreft e de
Leeuw (apud Santos et al., 2000, p.74) que indicam que os modelos hierárquicos
fornecem estimativas geralmente mais conservadoras em relação à estratégia
desagregada de trabalho.
Uma distinção entre efeitos fixos, coeficientes aleatórios e componentes de
variância/covariância tem de ser feita quando da análise dos MLH e seus diferentes
níveis. Os efeitos fixos não variam entre os grupos, sendo o caso dos
γ 's nas
equações (3.19) e (3.10). Aos coeficientes aleatórios de nível 1 é admitido variação
ao longo das unidades, podendo-se modelá-los como possuindo, alternativamente,
efeito aleatório - sendo esse o caso dos coeficientes das equações (3.16) e (3.17) efeito fixo ou, ainda, variando deterministicamente.
103
Modelos como o 5 e 6 proporcionam também a estimativa dos componentes de
variância residuais dos níveis 1 e 2, respectivamente
covariância entre os efeitos aleatórios de nível 2,
σ 2 , τ 00 e τ 11 , mais a
τ 01 . O conjunto desses efeitos
aleatórios forma a matriz T - que simboliza a matriz de variâncias/covariâncias do
nível 2 - e sua dimensão variará em função do número de efeitos aleatórios
presentes neste nível.
É justamente por meio dessas estimativas de variância que surge uma das mais
interessantes características proporcionadas pelos MLH: a estimação de médias
individuais da resposta para cada uma das unidades. Tomando-se por exemplo o
modelo 5, viu-se que u 0 j significa o efeito aleatório do setor j no intercepto
β0 j .
Pois o conhecimento desses efeitos para cada um dos grupos j subsidia as
estimativas empíricas de Bayes,
β 0* j , que, adiantando o detalhado no capítulo 4,
compõem uma ponderação ótima dos estimadores de mínimos quadrados ordinários
^
e da média geral ( γ 00 ) para produzir estimativas de interceptos para cada grupo j,
sendo que esse mesmo processo pode ser repetido para tantos coeficientes
aleatórios de nível 1 quantos existam. Isso confere ao método um grande atrativo
interpretativo, já que com um único modelo obtêm-se estimativas ótimas para cada
grupo, e que, além disso, segundo Lindley e Smith (apud Bryk e Raudenbush, 1992,
p.40), são os estimadores dos interceptos
β 0 j de menor valor de erro quadrático
médio esperado.
Em resumo, os MLH representam o fenômeno estudado de forma mais fidedigna,
já que não pressupõem indevidamente a independência dos termos de erros
aleatórios nas equações de regressão, possibilitam o ajuste de um único modelo
levando em consideração os efeitos aleatórios intragrupos, e produzem inferências
mais apropriadas e resultados mais interessantes, ao darem ocasião à explicação da
variabilidade da resposta segundo os diferentes níveis hierárquicos.
Essa modelagem tem sido utilizada nos mais diversos ramos do conhecimento,
porém, a prevalência ainda é na área educacional. A partir de pesquisas no portal da
CAPES e também na internet, podem ser relacionados, a título de ilustração não
esgotada da aplicação desses modelos, o estudo do Sistema Nacional de Avaliação
da Educação Básica de autoria de Ferrão e Andrade (2002); o estudo da
104
modelagem multinível em avaliação educacional de Ferrão, Leite e Beltrão (2001); o
estudo epidemiológico efetuado por Barros (2001); os estudos em avaliação
educacional envolvendo o sistema escolar do Estado de São Paulo por Natis (2001);
o estudo do impacto da política de não-repetência na proficiência de alunos da
quarta série do primário, de Ferrão, Beltrão e Santos (2002); um estudo em três
níveis dos determinantes de aumento salarial na China, relacionando treinamento de
recursos humanos, educação formal e experiência profissional, por Xiao (2002);
estudos em educação física relacionando o nível de coordenação motora com
habilidades individuais e o sexo do aluno, por Chen e Darst (2002); estudos
aplicados aos aspectos de locação de variáveis e seus efeitos organizacionais em
administração de empresas, por Hoffmann e Gavin (1998); e o estudo hierárquico
envolvendo amostras de eleitores e de distritos eleitorais nos Estados Unidos da
América, por Stoker e Bowers (2002).
3.3.1 O modelo hierárquico nulo
As equações (3.18), (3.19) e (3.20) são o que se pode chamar de Modelo Linear
Hierárquico completo, em que há a presença de preditoras em todos os seus níveis.
Contudo, quando alguns dos termos destas equações são igualados a zero, então
incorre-se em algum dos submodelos do caso completo.
Na literatura de referência podem ser consultados diversos submodelos de MLH,
mas neste trabalho é apresentado apenas o chamado "modelo nulo ou
incondicional", já que na aplicação prática de modelagem hierárquica sua estimação
inicial é sempre recomendada para a avaliação da variabilidade da resposta devida
a cada um dos níveis hierárquicos.
Este modelo é a estrutura mais simples possível do MLH em dois níveis, não
possuindo variáveis preditoras em nenhum de seus níveis (totalmente não
condicional) e, assim, o coeficiente
β 1 j no nível 1 equivale a zero para todo j. Suas
equações são:
Nível 1:
Yij = β 0 j + rij
onde
β 0 j : valor da resposta esperada para o setor j,
(3.22)
105
rij : erro aleatório associado a i-ésima empresa do setor j,
suposições do modelo: rij ∼ N (0, σ ) e rij 's independentes entre si.
2
O nível 2 possui apenas uma equação, qual seja:
β 0 j = γ 00 + u 0 j
(3.23)
onde
γ 00 : valor da resposta esperada para toda a população de setores,
u 0 j : efeito aleatório associado ao setor j,
suposições do modelo: u 0 j ∼ N(0, τ 00 ) e u 0 j 's independentes.
Substituindo (3.22) em (3.23) obtém-se o modelo combinado:
Yij = γ 00 + u 0 j + rij
(3.24)
O modelo nulo pode ser considerado um primeiro passo em modelagens
hierárquicas, pois permite a avaliação da variabilidade da resposta em cada um dos
níveis. Para obter essa informação, inicialmente sabe-se que a variabilidade total da
resposta em (3.24) é dada por:
Var (Yij ) = Var (u 0 j + rij ) = τ 00 + σ 2
(3.25)
Ademais, a covariância entre dois indivíduos do mesmo setor é dada por
Cov( u 0 j + rij , u 0 j + rkj ) =
τ 00 , para i ≠ k, uma vez que os erros de nível 1 relacionados
a indivíduos pertencentes à mesma unidade j são considerados independentes entre
si. Com isso, uma possível matriz de estruturação de variâncias/covariâncias para
um setor j, contando hipoteticamente com três empresas, é dada por:
⎡τ 00 + σ 2
τ 00
τ 00 ⎤
⎥
⎢
V j = ⎢ τ 00
τ 00 + σ 2
τ 00 ⎥
⎢ τ 00
τ 00
τ 00 + σ 2 ⎥⎦
⎣
Essa matriz fornece justamente um dos blocos da matriz bloco-diagonal de
variâncias/covariâncias apresentada na seção 3.2. A partir dessa estrutura, pode-se
calcular a correlação entre dois indivíduos do mesmo grupo, que equivale a:
106
ρ=
Cov (Yij ,Ykj )
Var (Yij ) ⋅ Var( Ykj )
=
τ 00
(τ 00 + σ 2 ) ⋅ (τ 00 + σ 2 )
=
τ 00
τ 00 + σ 2
(3.26)
O resultado em (3.26) é chamado de Coeficiente de Correlação Intraclasse (CCIC) e
mede a proporção da variabilidade da resposta devida exclusivamente ao nível 2.
Por isso, sua estimação é importante, na medida em que quanto maior for o CCIC,
mais se está auferindo ganhos de precisão nas estimativas por meio da utilização do
MLH.
3.3.2 Alguns aspectos de locação de variáveis
Uma vez estimado um modelo nulo, um pesquisador provavelmente desejará
incluir variáveis preditoras em seu modelo. Assim, nesta subseção é contemplada
uma discussão em torno das alternativas de locação de variáveis em MLH e seus
possíveis resultados nas estimativas do modelo. Por locação de variáveis entendase a questão da escolha da métrica da variável a ser utilizada na modelagem.
Um aspecto importante a se reconhecer é que, em modelos com coeficientes
aleatórios, como o MLH, a alteração da métrica de uma variável preditora produz
efeitos distintos em relação ao modelo com coeficientes fixos (regressão tradicional).
Neste, o fato de se acrescentar uma constante às medidas de uma variável afeta
apenas a magnitude do intercepto, sendo mantidos os demais resultados
(coeficientes e estimativas de variância). Já nos modelos com coeficientes
aleatórios, os aspectos de locação afetam os procedimentos de inferência e seus
resultados, e, na prática, a depender da locação escolhida, são obtidas diferentes
respostas.
Existem três hipóteses básicas de eleição para possíveis locações, quais sejam:
a métrica natural, o centro na grande média e o centro na média do grupo.
Em MLH, a métrica natural de uma variável X deve ser alterada se ela não fizer
sentido na prática, pois pode levar a resultados incorretos e com viés. Já em relação
às demais alternativas de locação, o efeito mais imediato se dá em relação à
interpretação dos interceptos estimados.
De fato, o centro na grande média implica em utilizar um preditor de nível 1 da
seguinte forma:
−
Yij = β 0 j + β1 j ( X ij − X .. ) + rij
(3.27)
107
−
Com a locação ( X ij − X .. ) aplicada ao modelo em (3.27), a variável X está
centrada em torno de sua grande média de forma propositada, pois assim, ao ser
calculada a média da variável resposta para o grupo j em (3.27) e explicitando-a em
termos de
β 0 j , obtém-se:
−
−
−
−
β 0 j = Y. j − β1 j ( X . j − X .. ) + r. j
(3.28)
Apurando-se o valor esperado chega-se a:
−
−
β 0 j = µ j − β1 j ( X . j − X .. )
A conclusão é que
(3.29)
β 0 j representa agora exatamente o que tradicionalmente se
deseja, por exemplo, ao se proceder a uma ANCOVA12 com efeitos aleatórios, uma
resposta média esperada para o grupo j, ( µ j ), ajustada por diferenças no X ij médio
dos grupos, o que implicará em avaliações mais precisas em relação ao efeito do
tratamento em estudo. Neste modelo
τ 00 será a variância dos interceptos ajustados
β0 j .
No caso do centro na média dos grupos tem-se que:
−
( X ij − X . j )
(3.30)
Essa locação resulta que o intercepto equivale ao resultado médio não ajustado para
o grupo j, pois aplicando (3.30) ao modelo em (3.27) e seguindo as mesmas
operações executadas em (3.27) e (3.28) obtém-se que:
β0 j = µ j
(3.31)
Essas duas últimas são as locações mais utilizadas em MLH. Entretanto, se for
conhecida a média populacional de uma variável, pode-se centrá-la em torno dela.
Há ainda outras opções, como as que envolvem a locação de variáveis categóricas e
seus possíveis efeitos, mas que não serão discutidas aqui.
12
Para detalhes sobre ANCOVA ver Montgomery (1997, p.149).
108
As alternativas de locação em MLH acabam influenciando também as estimativas
e a interpretação dos demais coeficientes do modelo. Voltando ao modelo 1
desagregado da equação (3.11), tem-se:
Yi = β 0 + β 1 X i + ε i
Neste modelo pode-se igualar a inclinação
β1 = β t . Tem-se também o modelo 2, o
agregado, da equação (3.12):
−
−
−
Y. j = β 0 + β1 X . j + ε . j
e pode-se fazer sua inclinação
β1 = β b . Se houver ainda um terceiro modelo
representado por:
−
−
Yij − Y. j = β1 ( X ij − X . j ) + u j
(3.32)
neste caso está-se modelando uma inclinação que é compartilhada por todos os
grupos j, e nele pode-se fazer
β1 = β w . A Figura 3, exibida em Raudenbush e Bryk
(2002, p.137) ao exporem o estudo sobre o Mathematical Achievement (MA) e o
Social Economic Status (SES) de alunos aninhados em escolas, demonstra o
relacionamento a duas dimensões entre essas três distintas inclinações.
Figura 3: Relação entre as três inclinações relacionando MA e SES.
Fonte: Raudenbush e Bryk (2002, p. 137).
109
A observação dessa figura informa que a estimativa de
composição, destituída de interpretação, de
β t é usualmente uma
β w e β b , o que, dependendo do
interesse da pesquisa em relação a esses parâmetros, pode levar a um embaraço
na interpretação dos resultados.
Em Bryk e Raudenbush (1992, p.118) e Natis (2000, p.29) são apresentadas
diferentes modelagens hierárquicas e seus parâmetros (efeitos fixos) explicitados em
termos de
β w , β b e β t . Sinteticamente, um modelo similar ao da equação (3.27),
isto é, com X centrada em sua grande média, fornece um efeito fixo equivalente a:
γ 10 =
W1 β w + W2 β b
W1 + W2
(3.33)
Nessa equação W1 e W2 são pesos que promovem uma ponderação entre
βw e
β b . Já no caso de um modelo idêntico, mas com X centrada na média dos grupos
como em (3.30), o mesmo parâmetro fixo equivale a:
γ 10 = β w
(3.34)
e que capta uma inclinação que é compartilhada por todos os grupos j. O importante
é que diferentes alternativas de locação produzem resultados distintos e que devem
ser interpretados corretamente.
Em termos práticos, se é plausível que, para a população,
β w e β b são bastante
distintos, e o interesse principal é estudar o relacionamento entre a preditora de nível
1 e a variável resposta, verifica-se que a inclinação obtida com X centrada em sua
grande média é desaconselhável para a avaliação desse efeito, já que a estimação
do coeficiente em (3.33) produzirá um resultado único que é uma composição tanto
de
β w e β b , e não passível de interpretação. Nesse caso deve-se, então, utilizar a
modelagem com X centrada na média dos grupos, pois obter-se-á uma estimativa
única e sem viés para
β w . Caso seja razoável admitir que β w = β b , então as duas
opções de locação de X fornecerão estimativas consideradas adequadas.
Uma outra maneira de aferir o efeito de X intra e intergrupos é por meio da
inclusão no modelo do chamado efeito contextual. Tecnicamente ele ocorre quando
o efeito de uma característica (preditora) permanece relacionado com a variável
resposta mesmo após ter sido controlado no nível 1. Freqüentemente eles são
110
causados por aspectos normativos inerentes aos grupos; pelo efeito contextual estar
agindo como substituto de outras variáveis omitidas no modelo, ou, ainda, devido à
pobreza na mensuração de certas características individuais. Matematicamente, ele
equivale a
βc = βb − β w
(3.35)
Em MLH, esse efeito é estimado na prática pela consideração da preditora X ij no
−
nível 1, e também de sua média X . j como preditora do intercepto no nível 2. Aqui
também há um diferencial na abordagem, que se dá em função da locação de X .
Entretanto, ambas levam a estimativas que possibilitam apartar tanto
β w quanto β b
em estimativas individuais.
Exemplificando esse efeito para um exemplo educacional, e entendendo-se o
NSE como sendo a variável que mede o nível sócio econômico de alunos em
escolas, Natis (2000, p. 26) argumenta que:
O NSE médio de uma escola pode ser mais importante no desempenho do
aluno que seu NSE individual. A variável NSE no nível aluno pode
representar uma medida de recursos financeiros e intelectuais em seu
ambiente familiar. Já no nível escola pode ser uma medida de recursos da
escola e ambiente normativo.
Além dos aspectos aqui discutidos, as alternativas de locação também causam
outros efeitos em inferências e que devem ser levados em conta, como no caso das
estimativas de variâncias dos coeficientes de nível 1 e nas estimativas de
coeficientes aleatórios de nível 1. Esses detalhes são minuciosamente explorados
em Bryk e Raudenbush (1992).
Por todo o exposto, pode-se dizer que não há uma regra fixa para a escolha da
locação dos preditores em modelagens hierárquicas, já que isso vai depender de
aspectos interpretativos e de outros até, como a presença de multicolinearidade
entre as preditoras, e ainda questões envolvendo estabilidade computacional
(NATIS, 2000).
3.4 Modelos lineares generalizados hierárquicos
Na seção anterior viu-se que os modelos lineares hierárquicos prestam-se bem
aos casos em que se supõem variáveis resposta normalmente distribuídas em cada
um dos níveis. Em modelos lineares, mesmo quando uma variável contínua é
111
assimétrica, uma transformação pode prontamente torná-la aproximadamente
Normal e mais adequada à modelagem. Entretanto, em muitas aplicações de
regressão, a variável resposta de interesse é qualitativa, com dois ou mais
resultados possíveis, ou uma variável de contagem, muito comum em certos tipos de
estudos, como os epidemiológicos e, da mesma forma, deseja-se estimar essa
resposta não só em termos de características individuais, mas também de grupos.
Essa generalização em termos de aplicação pode ser alcançada plenamente pelos
Modelos Lineares Generalizados Hierárquicos (MLGH). Portanto, nesta seção serão
empregados e estendidos os conceitos de MLG e de MLH já discutidos, de forma a
que seja alcançada e apresentada a generalização hierárquica segundo o enfoque
de Raudenbush e Bryk (2002), pois na verdade um MLH é de fato um caso particular
de MLGH.
Primeiramente, observe-se que os MLGH apresentam a mesma estruturação em
níveis já conhecida, adequando-se, portanto, à hierarquia que se deseja modelar. O
nível 1 de um MLGH consiste em três partes distintas, a saber: um modelo amostral,
uma função de ligação e um modelo estrutural.
À semelhança dos MLG, em MLGH as funções de resposta podem seguir as
diferentes distribuições da família exponencial, a depender do interesse do estudo,
mas o modelo estrutural linear de nível 1 mantém-se por meio de uma função de
ligação linear nos parâmetros, como na equação (3.7). Neste trabalho, conforme a
seção 5.2, a parte de aplicação envolve variáveis resposta dicotômicas. Portanto, o
caso específico da resposta binária será apresentado a seguir.
Para a especificação do modelo amostral não Normal de nível 1, recorre-se
novamente ao experimento E descrito na seção 3.2. Ocorre que o interesse aqui é
modelar uma estrutura hierárquica de dados e, assim, devem ser identificados
indivíduos de grupos distintos por meio da consideração dos conhecidos subscritos i
e j. Assim, agora a VA vinculada ao experimento passa a ser representada por Yij ,
que, associada a uma determinada população, representa o número de sucessos
em termos da ocorrência de uma dada característica populacional, em nij repetições
independentes do experimento E. Portanto, ela assume valores 0, 1,..., nij, sendo
que a probabilidade de sucesso em cada uma das repetições se mantém e é
representada por
φij . Esse tipo de VA é muito utilizado na prática. Exemplificando,
Yij poderia representar o número de reprovações do aluno i da escola j durante o
112
ensino médio, sendo nij o número total de disciplinas cursadas pelo referido aluno. A
partir do exposto, a distribuição de probabilidades de Yij segue a conhecida
distribuição Binomial com função de probabilidade dada pela equação (3.9), mas
agora com parâmetros adaptados à hierarquia, nij e
φij :
Yij | φ ij ∼ B(nij ,φ ij )
(3.36)
Com isso, têm-se como verdadeiros os seguintes resultados:
E (Yij | φ ij ) = nijφij
(3.37)
Var (Yij | φ ij ) = nijφ ij (1 − φ ij )
(3.38)
Se houver apenas uma repetição em E, então se está trabalhando sob as
condições da distribuição Bernoulli de probabilidades, definida pelas mesmas
equações (3.36) a (3.38), porém contando com nij = 1 e a VA só podendo assumir
valores zero ou um, sendo, portanto binária ou dicotômica.
No caso de variáveis resposta contínuas não há restrições em relação à resposta
esperada a ser estimada pelo MLH. Contudo, no caso de variáveis resposta binárias,
como a VA associada ao experimento E com apenas uma repetição, esses valores
têm de estar restritos ao intervalo [0,1], já que, de acordo com (3.37), para o caso
Bernoulli, o valor da resposta esperada significa a probabilidade de que Yij = 1 .
Freqüentemente isso implica em transformações que acabam por tornar a resposta
esperada a ser estimada pelo modelo uma função não linear. A transformação mais
comumente empregada utiliza a função exponencial para garantir valores
compreendidos naquele intervalo, resultando na função de resposta logística:
⎛ exp(ηij ) ⎞
⎟
E (Yij ) = φij = ⎜
⎜ 1 + exp(η ) ⎟
ij ⎠
⎝
(3.39)
É interessante notar que o objetivo da transformação em (3.39) é plenamente
atingido, já que enquanto
ηij pode assumir qualquer valor real, φij , por seu turno,
está constrito ao intervalo [0,1], como desejado. Dessa forma, na prática, o valor a
ser estimado pelo modelo será
ηij , também conhecido como resposta logística
esperada e, para a formalização do modelo genérico estrutural de nível 1, ele pode
113
ser relacionado a um modelo linear, contando com Q variáveis explicativas e p
parâmetros, resultando em:
Q
ηij = β 0 j + β 1 j X 1ij + ... + β Qj X Qij = β 0 j +
∑β
qj
X qij
(3.40)
q =1
q = 0, 1, ..., Q, onde
β qj : coeficientes de nível 1,
X qij : preditor de nível 1 para o caso i da unidade j.
Observe-se que enquanto nos modelos lineares em que a VA resposta é
normalmente distribuída, esta é efetivamente observável, isso não ocorre aqui em
relação a
ηij , um parâmetro não observável a ser predito pelo MLGH. O resultado
disso é que não há termo de efeito aleatório na equação (3.40). Além disso, nessa
equação mantém-se a parte linear do MLGH, pois observa-se que ela é linear nos
parâmetros
β qj .
Com o advento do modelo estrutural de nível 1, o valor esperado da resposta em
(3.39) significa agora a probabilidade de que Yij = 1 , dados os níveis para as
preditoras em (3.40); e
ηij se vincula à resposta esperada pela conhecida função de
ligação logito, pois explicitando (3.39) em termos de η ij , obtém-se:
⎛ φ ij ⎞
⎟
⎟
⎝ 1 − φ ij ⎠
ηij = log ⎜⎜
Por isso,
(3.41)
ηij também é conhecido como o logaritmo natural do odds (log-odds) de
sucesso em relação à VA resposta. Ademais, neste momento pode-se reconhecer
que o MLH apresentado nas seções anteriores é um caso particular de MLGH, em
que a equação (3.41) reduz-se a
ηij = E (Yij ) = µ ij , conhecida como função de
ligação identidade.
Para o modelo estrutural de nível 2, não há novidades em relação às equações
(3.19) e (3.20), e, portanto, podem ser obtidos diretamente os p coeficientes
aleatórios em (3.40), equivalendo a:
114
Sq
β qj = γ q 0 +
∑γ
Wsj + u qj
(3.42)
qs
s =1
q = 0, 1,..., Q; s = 0, 1,..., Sq; onde
γ qs : coeficientes de nível 2 (efeitos fixos),
Wsj : preditora de nível 2,
u qj : efeito aleatório de nível 2 em relação ao coeficiente β qj .
T
As suposições são de que, para cada grupo j, exista um vetor (u 0 j ,u1 j ,...,uQj ) de
efeitos aleatórios distribuindo-se de acordo com a distribuição Normal multivariada e
contando com elementos u qj apresentando média zero e Var (u qj ) = τ qq . Também,
para
cada
dupla
de
efeitos
aleatórios
de
mesma
unidade,
vale
que
Cov (u qj ,u q' j ) = τ qq' .
Novamente, em MLGH o conjunto de efeitos aleatórios de nível 2 forma uma
matriz T - simbolizando a matriz de variâncias/covariâncias do nível 2 - e sua
dimensão variará em função do número de efeitos aleatórios presentes neste nível,
podendo alçar a dimensão máxima [(Q+1) x (Q+1)].
No que concerne a aplicação prática dos MLGH, um aspecto interpretativo
importante é a análise do impacto dos coeficientes estimados no odds de sucesso a
ser previsto. De fato, é por meio dessa análise que se identificam os coeficientes que
efetivamente favorecem a probabilidade de sucesso em relação à VA resposta, e
quais os que não a favorecem.
Outro aspecto relevante em MLGH, e que é ocasionado pela própria
característica de se modelar uma função de resposta não linear, como em (3.39), é
que o CCIC aqui não é tão informativo, como em MLH. Para o caso da distribuição
Binomial, ou no caso da Bernoulli, viu-se por meio de (3.38) que a variabilidade da
resposta devida ao nível 1 varia em função de
φij , ocasionando uma
heterocedasticidade de variância neste nível, que, conseqüentemente, não pode ter
sua magnitude avaliada de forma global por uma razão constante, como em (3.26),
já que ela varia em função das próprias probabilidades previstas pelo modelo.
Contudo, existem formas de se avaliar a variabilidade devida ao nível 2. Uma
possibilidade é analisar os resultados para as estimativas unit-specific e population-
115
average, que são duas das estimativas tipicamente obtidas em processos de
estimação de MLGH. Elas serão sempre distintas no caso de funções de ligação não
lineares. Esse fato pode ser mais bem compreendido a partir da observação da
Figura 4, que é uma reprodução da apresentada em Raudenbush e Bryk (2002,
p.298), expondo graficamente o relacionamento existente entre
ηij e φij por meio da
função em (3.39).
Figura 4: Relacionamento entre
ηij e φij
por meio da equação (3.39).
Fonte: Raudenbush e Briyk (2002, p. 298).
A Figura 4 refere-se especificamente aos resultados obtidos para um estudo de
repetência de alunos nas escolas da Tailândia, modelado por um MLGH nulo ou
^
incondicional. Nesse exemplo, o
no centro da distribuição dos
ηij médio equivale a γ 00 = -2,22, e está localizado
ηij , conforme o histograma na parte superior da figura;
neste momento deve-se ter lembrança da suposição de efeitos aleatórios de nível 2
distribuindo-se normalmente e, portanto, de maneira simétrica. Pode-se convertê-lo
em probabilidades pela função em (3.39), obtendo-se então:
⎛ exp(−2,22) ⎞
⎟⎟ = 0,097
exp
+
−
1
(
2,22)
⎝
⎠
φij (0) = ⎜⎜
(3.43)
Esse valor, por correspondência, representa a mediana da distribuição dos
φij e,
também, a probabilidade de repetência para a escola ou unidade típica, para a qual
tem-se um u 0 j = 0. Por isso essa estimativa é conhecida por unit-specific ou
116
subject-specific. Mas ocorre que a distribuição dos valores de
φij é assimétrica,
como se vê pelo histograma à direita da figura, e sua média é, portanto, distinta da
mediana. Na ilustração da figura, a média de repetência para toda a população de
escolas é superior à mediana calculada em (3.43), e ela é obtida por meio da
equação (3.39) tomada ao longo de toda a população de unidades j. Essa estimativa
é conhecida por population-average. Para o exemplo de repetência escolar na
Tailândia, os autores obtiveram que o valor esperado para toda a população
equivale a:
*
⎛ exp(γ 00 + u0 j ) ⎞
(
)
exp
γ
00
⎟=
E (Yij ) = φij (u0 j ) = E ⎜
= 0,151
⎜ 1 + exp(γ + u ) ⎟ 1 + exp(γ * )
00
0j ⎠
00
⎝
O asterisco em
(3.44)
*
γ 00
é utilizado para diferenciar esse efeito fixo population-average do
parâmetro unit-specific
γ 00 que se obtém a partir da equação (3.39). Portanto, nesse
caso, a repetência esperada para toda a população em (3.44), E (Yij ) = 0 ,151 , é
superior à obtida em (3.43).
Voltando-se à questão de aferição da variabilidade devida exclusivamente ao
nível 2, (Raudenbush e Bryk, 2002, p.298) “consideram que uma forma de abordá-la
se dá justamente pela inspeção de gráficos como o da Figura 4”. No caso, podem
ser comparadas as estimativas de tendência central unit-specific e populationaverage obtidas, respectivamente, por (3.43) e (3.44). Quanto mais distintas elas
forem, maior é a assimetria da distribuição dos valores de
φij , e, intuitivamente, isso
leva à suposição de que maiores são as variabilidades exclusivamente devidas ao
nível 2. Contudo, essa análise apresenta algumas limitações e outras alternativas
mais formais para essa análise podem ser encontradas em Snjiders e Bosker (apud
Raudenbush e Bryk, 2002, p. 334) e Goldstein (2003).
3.4.1 Opção entre as estimativas unit-specific e population-average
Além de distintas, essas estimativas respondem por diferentes propósitos de
pesquisa, principalmente ao se trabalhar com modelos condicionais, nos quais
procura-se explicar a variabilidade da resposta em ambos os níveis. Considerando
um modelo condicional em que há a presença de uma preditora em cada um dos
117
dois níveis envolvendo empresas e setores econômicos, a probabilidade de sucesso,
dado um determinado u 0 j , é obtida por:
⎛
⎞
1
⎟
E (Yij | u 0 j ) = ⎜
⎜ 1 + exp[−(γ + γ W + γ X + u )] ⎟
00
01
j
10
ij
0j
⎝
⎠
(3.45)
Em (3.45), que, de acordo com (3.39), fornece uma estimativa unit-specific, observase que
γ 01 é a diferença no log-odds de sucesso entre empresas que possuem o
mesmo nível de X , mas que pertencem a setores diferindo uma unidade em W ,
mantido constante o efeito u 0 j . Já por
γ 10 entende-se a diferença esperada para o
log-odds de sucesso entre duas empresas que diferem uma unidade em X ,
mantidos constantes u 0 j e W j .
Entretanto, os interesses da pesquisa podem requisitar o conhecimento da
diferença esperada no log-odds de sucesso entre empresas que possuem o mesmo
nível de X , mas que pertençam a setores diferindo uma unidade em W para
quaisquer valores de u 0 j em meio a toda população de setores. Para essa questão
especificamente a equação (3.45) não fornece resposta e tem-se de recorrer a uma
extensão de (3.44) para o caso condicional:
⎛
⎞
1
⎟
E (Yij ) = φ ij = ⎜
⎜ 1 + exp[−(γ * + γ * W + γ * X )] ⎟
00
01
j
10
ij
⎝
⎠
(3.46)
A principal diferença entre (3.45) e (3.46) é que esta última não fixa, ou mantém
constante, o valor de u 0 j , e portanto
*
γ 01
representará exatamente a resposta para o
foco da pesquisa, ou seja, a diferença no log-odds de sucesso entre duas empresas
de mesmo X
mas que pertencem a setores diferindo uma unidade no W ,
indiferentemente dos possíveis valores de u 0 j tomados ao longo da população.
Portanto, se em um estudo deseja-se saber o efeito esperado de uma alteração
em W
na média de um setor em particular, em que tem-se constante um
determinado valor para u 0 j , deve-se privilegiar a estimativa unit-specific. Por outro
lado, se o caso é avaliar o efeito esperado desta mesma alteração em W na média
118
geral, mas para toda a população de setores, deve-se recorrer à estimativa
population-average.
3.5 Conclusão
Por todo o exposto, viu-se que os MLH e MLGH incorporam aspectos de
modelagem estatística especialmente desenvolvidos para aplicações envolvendo
estruturas de dados correlacionados. As diversas possibilidades de modelagens,
escolhas de locação e métodos de estimação utilizados por esses modelos, além de
produzirem inferências mais realistas, promovem uma maior riqueza interpretativa
para os resultados obtidos, proporcionando, por exemplo, que cada grupo possua
sua própria média através de uma modelagem única e possibilitando ao pesquisador
a tentativa de explicação dessas diferenças de médias. Como esta pesquisa envolve
a aplicação destes modelos, e, ao lado disso, a sistematização conjunta dos
robustos métodos estatísticos e computacionais que permitem a estimação de
parâmetros em modelos hierárquicos é de realização relativamente recente,
considera-se oportuna a abordagem sintética no próximo capítulo dos aspectos de
inferência empregados em MLH e em MLGH.
119
4
INFERÊNCIA
EM
MODELOS
LINEARES
GENERALIZADOS
HIERÁRQUICOS
4.1 Introdução
Neste capítulo são abordados alguns métodos de estimação, bastante utilizados
em modelos lineares e modelos lineares generalizados, importantes na medida em
que são intensamente aplicados em conjunto com métodos adicionais, para a
produção de estimativas em MLH e MLGH. Assim, os aspectos que envolvem as
estimativas de mínimos quadrados, detalhados em Neter et al. (1996) e Charnet et
al. (1999), são enfocados nas seções 4.2 e 4.3, e o método de máxima
verossimilhança, sob os enfoques de Davidson e Mackinnon (1993), Neter et al.
(1996) e Dobson (2002), na seção 4.4. Nas seções 4.5 e 4.6, os diversos conceitos
de estimação aplicados em MLH e MLGH são apresentados, de acordo com a
composição de métodos e algoritmos proposta por Raudenbush e Bryk (2002) e Bryk
e Raudenbush (1992). Um aspecto relevante proporcionado pelo estudo do
conteúdo apresentado neste capítulo é que, ao ser acompanhado em seqüência o
processo de obtenção das estimativas, obtém-se uma melhor compreensão do
significado, eficiência e limitações proporcionadas pelas estimativas em MLH e
MLGH. A seção 4.7 faz menção aos intervalos de confiança. Ao final do capítulo,
seção 4.8, alguns aspectos de inferência e testes de hipótese em MLH e MLGH
serão sinteticamente apresentados.
4.2 Estimação por mínimos quadrados ordinários
A estimação por MQO vem a ser a de utilização mais imediata em estatística, já
que é a aplicável para os modelos de regressão simples, linear nos parâmetros e na
preditora. Além disso, é um modelo com erros normais. Seja um modelo genérico,
semelhante ao modelo em (3.11), seguindo essas características:
Yi = β 0 + β1 X i + ε i
i = 1, 2,..., n,
suposições do modelo:
(4.1)
120
ε i 's ~ N(0, σ 2 ) e independentes.
O método de MQO empregado para a estimação de
β 0 e β 1 considera o desvio
de Yi em relação ao seu valor esperado. Assim, o critério é minimizar a função Q,
que corresponde à soma dos n desvios elevados ao quadrado.
n
Q=
∑ (Y − β
i
0
− β1 X i ) 2
(4.2)
i =1
β 0 e β1 serão aqueles que minimizam Q e essa solução pode
Os estimadores de
ser obtida de forma analítica ou numérica. É de pleno conhecimento que por
derivadas parciais de Q em relação a
β 0 e β1 e igualando-as a zero obtêm-se os
seguintes estimadores de MQO:
1
b0 = (
n
n
n
∑Y − b ∑ X )
1
i
i =1
i
(4.3)
i =1
e
n
b1 =
∑
−
−
( X i − X )(Yi − Y )
i =1
n
∑( X
−
i
(4.4)
− X )2
i =1
Quando a complexidade da equação de regressão se eleva, é preciso que se
achem as soluções sob a forma matricial, de forma a facilitar os cálculos
computacionais.
Estruturando os dados sob forma de matrizes e vetores, necessita-se de quatro
estruturas distintas: para observações, para variáveis, para os coeficientes e para os
termos de erros aleatórios. Sejam um vetor de parâmetros β de ordem (p x 1), uma
matriz de especificação conhecida de ordem (n x p), de posto completo, X , formada
por uma coluna de elementos 1 e mais uma coluna para cada uma das (p - 1)
variáveis explicativas, um vetor Y de observações de ordem (n x 1) e um vetor ε (n
x 1) de erros aleatórios, conforme segue:
121
⎡1 x11
⎡ β0 ⎤
⎢1 x
⎢ β ⎥
21
1 ⎥
⎢
, X=⎢
β=
⎢M M
⎢ M ⎥
⎢
⎢
⎥
⎣1 xn1
⎣ β p −1 ⎦
L x1, p −1 ⎤
⎡Y1 ⎤
⎡ε 1 ⎤
⎥
⎢
⎥
⎢ ⎥
L x2 , p −1
⎥ , Y = ⎢Y2 ⎥ e ε = ⎢ε 2 ⎥
O
M ⎥
⎢M⎥
⎢M⎥
⎥
⎢ ⎥
⎢ ⎥
L xn , p −1 ⎦
⎣ε n ⎦
⎣Yn ⎦
Isso permite que um modelo de regressão múltipla possa ser escrito da seguinte
forma:
Y = Xβ + ε
(4.5)
suposições do modelo:
E (ε) = 0 e Var(ε) = σ 2 I .
O critério para a solução de MQO agora é minimizar:
n
Q=
∑ (Y − β
i
0
− β 1 X i1 − ... − β p −1 X i , p −1 ) 2
(4.6)
i =1
Charnet et al. (1999, p.176) informam que "o produto de um vetor pelo seu
transposto é igual à soma dos quadrados de seus elementos". Então tem-se:
Q = (Y − Xβ)T (Y − Xβ) = (Y T − β T XT )(Y − Xβ)
= Y T Y − Y T Xβ − β T XT Y + β T XT Xβ
(4.7)
Sabendo-se que todas as parcelas resultantes em (4.7) são escalares, isso resulta
em:
Q = Y T Y − 2Y T Xβ + β T XT Xβ
(4.8)
A condição de primeira ordem para obtenção do mínimo de Q implica em derivar
(4.8) em relação a β e igualá-la a zero, obtendo-se o sistema de equações normais
para regressão múltipla, em notação matricial:
∂Q ∂Y T Y
∂Y T Xβ ∂β T XT Xβ
=
−2
+
=0=
∂β
∂β
∂β
∂β
0 − 2(Y T X)T + 2 XT Xb = 0 =
− 2 XT Y + 2 XT Xb = 0 ⇒ XT Xb = XT Y
(4.9)
122
O vetor que anula a derivada e soluciona o sistema resultante em (4.9) é denotado
agora por b , um vetor de estimativas de MQO:
b = ( XT X) −1 XT Y
(4.10)
É claro que a condição de segunda ordem para obtenção de um mínimo tem de
ser verificada. A derivada parcial de segunda ordem de Q em relação ao vetor β
T
T
T
fornece uma matriz igual a 2 X X . Considerando-se a forma quadrática a X Xa ,
verifica-se que a X Xa ≥ 0 para todo a, e equivale a zero apenas no caso de
T
T
a = 0 , sendo a um vetor de elementos ai de ordem (n x 1). Portanto, a matriz
T
simétrica X X é positiva definida, verificando-se assim a condição de segunda
ordem para um mínimo, sendo que b é o vetor de estimativas de mínimos
quadrados ordinários. É de se salientar que no caso de a X Xa ≥ 0 para todo a,
T
T
T
mas sendo igual a zero para algum a ≠ 0, dir-se-ia X X ser positiva semidefinida
(SEARLE, 1982).
As estimativas de MQO possuem certas propriedades, garantidas pela prova do
Teorema de Gauss-Markov, a saber (DAVIDSON e MACKINNON, 1993; NETER et
al., 1996):
1. As estimativas dos parâmetros são não viesadas, o que indica que, para o modelo
em (4.5):
E (b) = β
(4.11)
2. Sob as suposições dos modelos em (4.1) e (4.5) os estimadores de MQO são os
mais eficientes (de menor variância) dentre os estimadores não viesados que sejam
uma função linear do vetor de observações Y .
4.3 Mínimos quadrados generalizados
A partir desta seção, certas suposições simplificadoras que sustentam os
modelos em (4.1) e (4.5) são sucessivamente relaxadas. Uma primeira possibilidade
seria um modelo que contasse com erros aleatórios heterocedasticos. Nesse caso
poder-se-ia utilizar um processo intermediário denominado de mínimos quadrados
ponderados, que não será apresentado aqui uma vez que não é aproveitado em
MLH, porém seus princípios podem ser acessados em Neter et al. (1996).
123
O método de Mínimos Quadrados Generalizados (MQG), como já informa sua
denominação, é uma generalização do MQO aplicável no caso em que os termos de
erro são não só heterocedasticos, mas também correlacionados entre si
(DAVIDSON e MACKINNON, 1993). Com isso, a propriedade 2 acima passa a não
ser mais válida para os estimadores de MQO, devendo ser considerada no processo
de estimação uma matriz
V estruturando as variâncias/covariâncias das
observações da variável resposta, de forma a que sejam encontrados os
estimadores de máxima eficiência. Então seja o seguinte modelo:
Y = Xβ + ε
(4.12)
suposições:
E (ε) = 0 e Var (ε) = σ 2 V .
Em (4.12) V é uma matriz, conhecida, de variância/covariância de ordem (n x n).
Para a obtenção de estimativas por mínimos quadrados, a violação das suposições
em (4.1) e (4.5) requisita uma transformação do modelo. Premultiplicando-se (4.12)
por V
−1/2
, obtém-se:
V −1/2 Y = V −1/2 Xβ + V −1/2 ε
Como
(4.13)
V −1/2 é simétrica, verifica-se que V −1/2 V −1/2 = V −1 e V 1/2 V 1/2 = V 1 .
Calculam-se agora:
E (V −1/2 ε) = V −1/2 E (ε) = 0
(4.14)
e
Var (V −1/2 ε) = V −1/2Var (ε)(V −1/2 )T
= V −1/2Var (ε)V −1/2 = V −1/2σ 2 VV −1/2
(4.15)
= σ 2 V −1/2 VV −1/2 = σ 2 V −1/2 V 1/2 V 1/2 V −1/2 = σ 2 I
A partir de (4.14) e (4.15), verifica-se que o modelo transformado em (4.13) na
verdade envolve termos de erro independentes, com média zero e variância
constante, o que possibilita a aplicação da equação de MQO em (4.10) para
obtenção das estimativas de maior eficiência e, com isso, obtêm-se diretamente os
estimadores de MQG:
124
b MQG = (XT V −1 X) −1 X T V −1 Y
(4.16)
Var (b MQG ) = σ 2 (XT V −1 X)−1
(4.17)
e
Maddala (1977, p.450) prova que "o estimador MQG é mais eficiente do que o de
MQO, na medida em que Var (b MQO ) − Var (b MQG ) fornece uma matriz positiva
semidefinida", ou seja, os estimadores de MQG possuem menor variância.
Quando a matriz V é não conhecida, o que ocorre em grande parte dos casos,
pode-se partir diretamente para as estimativas de máxima verossimilhança, ou então
utilizar o método de MQG iterativo. Neste, por meio de (4.16) e de uma matriz V (0)
inicial, usualmente a matriz identidade, obtém-se o vetor b, e, conseqüentemente, as
^
predições Y = Xb e os resíduos e = Y − Xb . De posse dos resíduos, estima-se
uma nova V
(1)
= eeT , e volta-se à equação (4.16) e, assim procedendo-se,
sucessivamente, até a convergência de b (DOBSON, 2002).
Finalmente, vale ressaltar que os métodos de mínimos quadrados não requisitam
que seja especificada a forma funcional da distribuição de probabilidade conjunta
dos Yi , para obtenção de suas estimativas.
4.4 Estimação por máxima verossimilhança
Outro método de estimação de parâmetros bastante utilizado, quando a forma
funcional da distribuição de probabilidade dos termos de erro é especificada, é o de
Máxima Verossimilhança (MV). A idéia básica do método, como diz seu nome, é
encontrar um conjunto de estimadores dos parâmetros, tal que a probabilidade de se
ter obtido a amostra de dados em mãos seja a máxima possível. Para isso, a função
de probabilidade conjunta da amostra sob o modelo especificado é avaliada para
cada uma das observações da variável resposta, sendo tratada como uma função
dos parâmetros do modelo. O método busca, portanto, a maior consistência possível
com a amostra de dados.
De maneira geral, a verossimilhança é dada pela função de probabilidade
conjunta da amostra proporcionada pelas n observações, em função do vetor de
125
parâmetros do modelo, β , sendo denotada por L( β ). O método escolhe como
estimador de MV um vetor b que forneça o maior valor possível para a função L( β ).
4.4.1 Variável resposta contínua
Considere-se novamente o modelo em (4.1) e suas suposições em relação aos
termos de erro. Nesse caso, seguem essa mesma distribuição as observações Yi ,
com média
β 0 + β1 X i e desvio padrão σ . Os estimadores de β 0 e β1 podem ser
obtidos por MV de forma analítica ou numérica. Ambos utilizam a densidade da
distribuição de probabilidades ao nível de Yi , como uma medida de consistência da
observação Yi , dadas uma média e uma variância para a distribuição populacional.
Como no modelo (4.1), assume-se a normalidade e independência dos termos de
erro e, assim, a verossimilhança da amostra pode ser obtida por meio da função
densidade de probabilidade Normal, em função dos parâmetros do modelo,
β 0 , β1 , σ 2 :
L ( β 0 , β 1 ,σ ) =
2
n
∏
i =1
⎤
⎡ 1
−
exp
(Yi − β 0 − β 1 X i ) 2 ⎥
2 1/ 2
2
⎢
(2πσ )
⎣ 2σ
⎦
1
(4.18)
Desenvolvendo (4.18) obtém-se:
⎡ 1
L( β 0 , β1 ,σ ) =
exp
⎢−
2
( 2πσ 2 ) n / 2
⎣ 2σ
2
1
n
∑
i =1
⎤
(Yi − β 0 − β1 X i ) 2 ⎥
⎦
(4.19)
Os valores que maximizam a equação (4.19) podem ser obtidos por meio de
derivadas parciais em relação aos parâmetros, igualando-as a zero e solucionando o
sistema de equações resultante.
Pode haver a conveniência de se trabalhar com a maximização do logaritmo
natural de
L( β 0 , β1 ,σ 2 ) , e os mesmos parâmetros que maximizam (4.19)
maximizam o l og[ L( β 0 , β1 ,σ )] (MADDALA, 1977; DAVIDSON e MACKINNON,
2
1993).
Os valores para os estimadores de
β 0 e β1 obtidos por MV são os mesmos
obtidos por MQO e, portanto, possuem as mesmas propriedades dos estimadores
enumeradas na seção 4.2. Contudo, a estimativa de
σ 2 obtida por esse processo é
126
viesada (para menos) e geralmente dá-se preferência à estimativa não viesada
proporcionada pelos erros quadráticos médios com (n - p) graus de liberdade, sendo
p o número de parâmetros estimados do modelo. Essa última estimativa pode ser
obtida por um processo de máxima verossimilhança restrita (MVR), que corrige o
σ 2 . Detalhes a respeito da estimação por MVR podem
viés na estimativa de MV de
ser encontrados em Andreoni (1989) e Ogliari (1998).
4.4.2 Variável Resposta Binária
Neste trabalho vai-se lidar com uma variável resposta binária, sendo de interesse
a discussão de estimativas de MV nesse caso. Voltando ao experimento E
mencionado no capítulo 3, se houver apenas uma repetição para cada VA, então se
está trabalhando sob a distribuição Bernoulli de probabilidades, e a VA só pode
assumir valor zero ou um. Com isso, a função de probabilidades de Yi é dada por:
P (Yi = k ) = φ ik (1 − φ i ) n−k
(4.20)
Assumindo-se que as VA são independentes, a função de probabilidade conjunta
dos Yi equivale a:
g (Yi ,...,Yn ; φi ,..., φ n ) =
n
∏φ
k
i
(1 − φi ) n−k
(4.21)
i =1
Novamente, pode ser mais cômodo trabalhar com o logaritmo natural da função de
probabilidade conjunta:
log[ g (Yi ,...,Yn ;φ i ,...,φ n )] = log
n
∏φ
k
i
(1 − φ i ) n−k
i =1
n
=
∑
i =1
Utilizando
o
logito
nos
log (φ i 1 − φ i ) = β 0 + β1 X i ,
⎡
⎛ φ
⎢Yi log ⎜⎜ i
⎢⎣
⎝1 − φi
moldes
e
do
⎞⎤
⎟⎥ +
⎟
⎠⎥⎦
definido
denotando
n
∑ [log (1 − φ )]
(4.22)
i
i =1
na
equação
(3.41),
com
log[ g (Yi ,...,Yn ;φ i ,...,φ n )]
por
log L( β 0 , β1 ) para definir que se considera agora essa a função de logverossimilhança dos parâmetros ( β 0 , β1 ) a serem estimados, dada uma amostra de
dados, a equação (4.22) pode ser expandida para:
127
log L ( β 0 , β1 ) =
n
∑ Y (β
i
0
+ β1 X i ) −
i =1
n
∑ log [1 + exp( β
0
+ β 1 X i )]
(4.23)
i =1
Essa é justamente a função de log-verossilhança aplicável nos casos de regressão
logística. A partir de uma amostra de observações, as estimativas de máxima
verossimilhança dos parâmetros são dadas pelos valores de ( β 0 , β 1 ) que
maximizam essa função, que é não linear nos parâmetros. Contudo, não há uma
solução explícita para que sejam encontrados tais valores e, por isso, métodos
iterativos têm de ser usados (NETER et al., 1996).
Alguns métodos numéricos podem ser empregados nas situações em que não é
possível encontrar explicitamente os estimadores que maximizam a função de
verossimilhança L( β ), principalmente quando essa função é fortemente não linear
(MADDALA, 1977). Dentre eles pode-se relacionar os de Cauchy, gradiente
ascendente, Newton Raphson (NR), Davidson-Fletcher-Powell e dos Escores
(semelhante ao NR). Há evidências de que o método dos Escores, quando factível, é
preferível devido à simplificação da matriz de derivadas segundas da função de
verossimilhança proporcionada por ele, em relação ao método de NR (MADDALA,
1977; DOBSON, 2002). No Apêndice D são apresentados os procedimentos
envolvendo a estimação numérica de MV pelos métodos de NR e dos Escores.
4.5 Estimação em MLH
4.5.1 Notação matricial e conceitos iniciais
Antes de serem abordados diretamente os aspectos de estimação em MLH, é
preciso que primeiro sejam introduzidos os modelos gerais de níveis 1 e 2 em
notação matricial.
Nível 1:
Yj = X jβ j + rj
onde
Y j : vetor (nj x 1) de respostas,
X j : matriz [nj x (Q + 1)] de preditoras de nível 1,
(4.24)
128
β j : vetor [(Q + 1) x 1] de parâmetros desconhecidos,
r j : vetor (nj x 1) de erros aleatórios,
I : matriz identidade (nj x nj),
σ 2 : parâmetro de variância de nível 1 desconhecido,
suposições do modelo: r j ∼ N (0,σ I ) .
2
Nível 2:
β j = Wj γ + u j
(4.25)
onde
W j : matriz bloco-diagonal de preditoras de nível 2, de ordem [(Q + 1) x F],
γ : vetor de efeitos fixos de ordem (F x 1),
u j : vetor de efeitos aleatórios de nível 2, de ordem [(Q + 1) x 1],
T : matriz de variância/covariância residual de ordem [(Q + 1) x (Q + 1)], indicando a
dispersão dos β j em torno de sua média W j γ ,
suposições: u j ∼ N (0 ,T) .
Em Natis (2000) encontra-se detalhada ilustração da matriz W j e sua estruturação
característica em termos de um empilhamento de vetores.
O processo de estimação em MLH com dois níveis aproveita-se intensivamente
dos métodos descritos nas seções anteriores, principalmente MV e MQG, mas
requisitando ainda métodos estatísticos adicionais para obtenção de suas diversas
estimativas. Um aspecto importante é que segundo a composição de métodos
proposta por Raudenbush e Bryk (2002), são utilizados conceitos combinados de
inferência amostral clássica e de inferência Bayesiana, para fins da estimação dos
efeitos
fixos,
coeficientes
aleatórios
de
nível
1
e
componentes
de
variância/covariância em MLH. Isso ficará claro com o exposto a seguir.
Na abordagem Bayesiana, as inferências sobre um vetor de parâmetros u são
baseadas em uma distribuição prévia a ele atribuída, que é revisada, uma vez que
sejam observados os dados amostrais, por meio do teorema de Bayes, resultando
em uma distribuição condicional ou posterior em relação aos dados.
129
Considerando-se vários parâmetros desconhecidos, por exemplo u , γ ,σ , seja
2
f (Y | u , γ ,σ 2 ) a densidade de probabilidade de Y dados os parâmetros e p ( γ ) a
densidade de probabilidade a priori para γ . Por Bayes a função densidade de
probabilidade condicional posterior conjunta para os parâmetros desconhecidos é
dada por:
p (u , γ ,σ 2 | Y ) =
f ( Y | u , γ ,σ 2 ) p (u | γ ,σ 2 ) p (σ 2 | γ ) p ( γ )
∫∫∫ f (Y | u ,γ ,σ
2
(4.26)
) p (u | γ ,σ 2 ) p (σ 2 | γ ) p ( γ ) dudσ 2 dγ
Caso o parâmetro focal (principal) seja efetivamente u , para obter sua densidade
de probabilidade marginal condicionada unicamente às observações basta integrar
(4.26) e, assim, a incerteza em relação aos parâmetros γ e
σ 2 é levada em
consideração no processo de estimação:
∫∫ p(u, γ,σ | Y)dσ dγ
= p (u | Y,σ , γ ) p (σ , γ | Y ) dσ dγ
∫∫
∑∑ p(u | Y,σ , γ ) p(σ , γ | Y)
p (u | Y ) =
2
2
2
M
2
(4.27)
L
2
m
≅
2
2
m
l
l
m =1 l =1
M
L
∑∑ p(σ
2
m
, γ l | Y)
m =1 l =1
Essas integrações não são, em geral, passíveis de avaliação e uma opção
adotada em MLH é a estimativa empírica de Bayes, na qual se utiliza uma função de
probabilidade posterior condicionada às estimativas pontuais dos parâmetros, em
lugar de uma integração em relação aos parâmetros. A função de probabilidade
condicional empírica equivalente a (4.27) é dada por:
^
^
^
^
p (u | Y , γ ,σ ) =
2
^
^
f ( Y | u , γ ,σ ) p (u | γ ,σ 2 )
^
^
∫ f (Y | u ,γ ,σ
2
2
^
^
(4.28)
) p (u | γ ,σ ) du
2
Ambos estes conceitos, integração para contabilização da incerteza em relação
aos parâmetros e estimação empírica de Bayes (ver subseções 4.5.2, 4.5.3 e 4.5.4),
130
permeiam as estimativas em MLH. Nesse sentido, tem-se por f ( Y | u, γ , T, σ 2 )
uma função densidade de probabilidade condicional de Y , e por p (u | γ ,T ,σ )
2
uma função densidade de probabilidade condicional de efeitos aleatórios de nível 2.
Com os conceitos anteriores, uma função de verossimilhança para a amostra, dados
os parâmetros a serem estimados, a menos de u , é dada por:
L( Y | γ ,T ,σ 2 ) =
∫ f (Y | γ ,T,σ
2
,u) p (u | γ ,T ,σ 2 ) du
(4.29)
O processo de estimação por MV em MLH pode ser sintetizado em duas etapas:
avaliar a função de verossimilhança em (4.29) e, posteriormente, maximizá-la em
função de γ ,T ,σ . Combinando MV e inferência Bayesiana, existem alguns
2
processos alternativos para esse fim.
O primeiro é a estimação por MV dos parâmetros desconhecidos γ , T e
σ 2,
procedendo-se, posteriormente, à estimação empírica de Bayes de β j . Pode-se
simbolizá-la por L( γ , T , σ | Y ).
2
Uma outra alternativa é a maximização da verossimilhança em (4.29), em função
apenas de T e
σ 2 , ao mesmo tempo considerando-se, ao menos em teoria, todos
os valores possíveis de γ , denotados por γ m , nos moldes de (4.27), e,
posteriormente, procedendo-se à estimação de γ por MQG e à estimação empírica
de Bayes para β j . Ela pode ser simbolizada por L( T , σ | γ m , Y ). Essa alternativa
2
pode ser considerada parcialmente Bayesiana, ao integrar a função de
verossimilhança em relação aos possíveis valores de γ . Ao lado disso, por realizar
uma maximização marginal da função de verossimilhança, é também considerada
uma estimação por MVR.
Em relação a esse processo de MVR aplicado a MLH, Raudenbush e Bryk (2002,
p.53) sintetizam que:
Nos casos em que o número de unidades de nível 2, J, é grande, os dois
métodos produzirão resultados bastante similares. Entretanto, quando J é
pequeno, as estimativas de variância de MV serão menores do que as de
MVR (...) por um fator de aproximadamente (J - F)/J, onde F é o número
total de elementos no vetor de efeitos fixos, γ .
Nesse mesmo sentido, Goldstein (2003, p.21) confirma que:
131
Procedimentos de MV produzem estimativas viesadas dos parâmetros
aleatórios, porque não levam em consideração a variância amostral dos
parâmetros fixos. Isso é importante em amostras pequenas e podemos
produzir estimativas não viesadas utilizando uma modificação conhecida
como máxima verossimilhança restrita.
A conclusão é que a segunda alternativa de estimação, considerando a incerteza
em relação a γ por meio de um processo de MVR, fortalece as estimativas de
variância/covariância nos casos de J pequenos.
Para a operacionalização dessas alternativas de estimação mencionadas,
segundo Raudenbush e Bryk (2002, p.439), "a integral em (4.29) é, geralmente, de
fácil avaliação e o problema passa a ser sua maximização". De fato, vai ser visto que
os efeitos fixos e coeficientes aleatórios de nível 1 dependem das estimativas dos
componentes de variância/covariância, que, por seu turno, dependem daquelas
primeiras estimativas. Essa característica recursiva pode ser solucionada por meio
do algoritmo Esperança-Maximização (EM) a ser apresentado na seção 4.5.4.
4.5.2 Estimativas de efeitos fixos por MQG
Apresenta-se nesta seção a alternativa de estimação em MLH por MVR, o que
implica na utilização de MQG para estimação de γ . Com a notação matricial
adotada na seção anterior e substituindo (4.25) em (4.24), obtém-se o modelo
combinado de níveis 1 e 2:
Yj = X j Wj γ + X ju j + rj
(4.30)
T
−1
T
Premultiplicando (4.30) por (X j X j ) X j obtém-se:
(XTj X j ) −1 XTj Y j = (XTj X j ) −1 XTj X j W j γ +
(XTj X j ) −1 XTj X j u j + (XTj X j ) −1 XTj r j ⇒
(4.31)
^
β j = Wj γ + u j + e j
^
Nessa equação, assumindo-se que X j possua posto completo, β j pode ser
entendido como o estimador de MQO de β j . Como e j ∼ N(0, V j ), a variância total
^
de β j , dado W j , equivale a:
132
^
Var (β j ) = Var (u j + e j ) = T + V j
(4.32)
onde
^
V j = σ ( X X j ) : matriz de variância de β j como estimador de β j .
2
T
j
−1
^
Como considera-se que são obtidos previamente T e
^
σ 2 por meio da
maximização de L( T , σ | γ m , Y ) em um processo anterior, isso resulta que a
2
estimativa condicional de efeitos fixos pode ser obtida utilizando-se as estimativas de
MQO para cada grupo j como variável resposta de uma estimação por MQG (pois os
dados são não balanceados e possuem variabilidades distintas) aplicada à equação
(4.31), conforme segue:
^
γ=(
∑
W Tj ∆ −j 1 W j ) −1
j
∑
^
W Tj ∆ −j 1 β j
(4.33)
j
onde ∆ j = T + V j .
Portanto, o estimador de MQG pondera as estimativas de cada grupo pela precisão
∆ −j 1 proporcionada por cada um dos grupos j.
Essa equação é funcional nos casos em que haja nj suficientes para estimação
^
de β j por MQO em todos os grupos j, e também em que todos os coeficientes de
nível 1 possuam efeito aleatório. Podem ser consultados em Raudenbush e Bryk
(2002) os desenvolvimentos que resultam numa equação equivalente à (4.33)
aplicável nos casos em que essas condições restritivas são relaxadas.
O caso da opção por estimar efeitos fixos por MV, maximizando uma função
L( γ , T , σ | Y ), está contemplado na discussão a ser apresentada na seção 4.5.4.
2
4.5.3 Estimativas empíricas de Bayes para coeficientes aleatórios de
nível 1
Viu-se na seção 4.5.1 que a estimativa de β j é obtida pelo processo empírico de
Bayes em ambas as alternativas de estimação, por MV ou MVR. Inicialmente, um
estimador imediato para β j pode ser obtido por MQO:
133
^
β j = (XTj X j ) −1 X Tj Y j
(4.34)
Uma segunda opção é adotar como estimador o valor esperado obtido por meio da
^
equação (4.31), considerando-se o valor estimado para γ por MQG:
^
^
β j = Wj γ
(4.35)
A partir dessas duas últimas equações, um estimador otimizado para β j pode ser
obtido pelo conceito de estimador de Bayes (LINDLEY e SMITH, 1972), sendo que,
^
^
nesse caso, β j responde pela estimativa inicial de MQO e W j γ pela estimativa
condicionada posterior:
^
^
β*j = Λ j β j + (1 − Λ j ) W j γ
(4.36)
onde tem-se que:
Λ j = T ( T + V j ) −1
(4.37)
Em (4.37) exprime-se a razão entre T , a real variabilidade de β j em torno de sua
média, e a variabilidade total (T + V j )
−1
^
verificada para β j . Segundo Morris (1983),
caso seja baseado em estimativas para T e V j , o estimador em (4.36) é
denominado de empírico de Bayes (apud BRYK e RAUDENBUSH,1992, p.40). Além
^
disso, em (4.37) observa-se que quanto mais eficiente for β j como um estimador de
β j , maior peso será a ele conferido em (4.36), caso contrário, é privilegiada a
^
grande média W j γ . Como T e V j , em geral, representam matrizes de
variância/covariância, que são estimadas por meio do exposto na próxima subseção,
isso implica que as estimativas mais confiáveis obtidas para alguns coeficientes
^
aleatórios do vetor β j podem auxiliar as estimativas de coeficientes obtidos com
menor precisão, fortalecendo as estimativas em geral. A medida em (4.37) é
importante em termos de aplicação prática de MLH, já que pode ser entendida como
uma medida multivariada de confiabilidade das estimativas. Em verdade, à medida
134
que J se eleva, a estimativa empírica de Bayes tende a ser a de menor erro
quadrático médio em relação aos métodos de estimação alternativos.
Com a estimativa composta obtida em (4.36), ambos os resíduos de nível 2
podem ser prontamente obtidos para cada grupo j. Os resíduos de MQO são dados
por:
^
^
^
u j = β j − Wj γ
(4.38)
Já os resíduos empíricos de Bayes exprimem-se por:
^*
^
u j = β*j − W j γ
(4.39)
4.5.4 Estimativas de MV para componentes de variância/covariância
Nesta seção é abordada a estimação dos componentes de variância/covariância
totalmente por MV, o que implica, de acordo com a seção 4.5.1, na maximização de
L( γ , T , σ | Y ), ou seja, neste caso não é necessária a estimação de γ pelo
2
processo apresentado na seção 4.5.2.
Um método muito utilizado em MLH para maximização dessa função de
verossimilhança é o algoritmo EM. Segundo Andreoni (1989, p.48):
O algoritmo EM, apresentado por Dempster, Laird e Rubin (1977), é um
processo iterativo para calcular estimativas de máxima verossimilhança em
situações que possam ser consideradas como tendo dados incompletos ou
não observáveis. A idéia básica do EM é considerar os dados observáveis Y
como uma parte de um sistema maior de dados completos U = (Y,W), onde
W são os dados incompletos ou não observáveis.
O passo M seria o responsável por maximizar a função de verossimilhança para a
hipótese de dados completos. Contudo, como os dados são na verdade incompletos,
M é posto em pratica por meio da substituição das estatísticas suficientes para
dados completos pelas suas esperanças condicionais aos dados observados e às
estimativas em vigor para os parâmetros e obtidas pelo passo E (ANDRADE e
HELMS, 1984).
No caso de MLH, na verdade a equação (4.30) pode ser considerada um caso
particular de um modelo misto mais geral da forma:
Y j = A fj θ f + A rj θ rj + r j
onde
(4.40)
135
A fj = X j W j ,
A rj = X j ,
θf = γ,
θ rj = u j ,
suposições: r j ∼N (0 ,σ I ) e θ rj ∼ N (0 ,T) .
2
Note-se que a matriz X j foi distribuída em duas novas: A fj engloba as
preditoras de nível 1 cujos coeficientes contam com efeitos fixos no nível 2, ao passo
que A rj contém as preditoras de nível 1 cujos coeficientes possuem efeito aleatório
no nível 2. Portanto, o modelo em (4.40) é mais genérico, na medida em que ele não
requisita que todos os coeficientes de nível 1 possuam tanto efeito fixo quanto
aleatório.
No sentido do já mencionado, o EM vai considerar que os Y j são
dados
observados e θ rj os faltantes. Portanto, os dados completos são denotados por
U= ( Y j ,θ rj ) , enquanto que γ , T e
σ 2 têm de ser estimados por MV. Se os dados
estivessem completos, a estimativa de θ f poderia ser obtida pela aplicação de
MQO em (4.40), após a subtração de A rj θ rj em ambos os seus lados.
^
θf =(
∑A
T
fj
A fj ) −1
j
∑A
T
fj
(Y j − A rj θ rj )
(4.41)
j
Os estimadores para dados completos de T e
σ 2 podem também ser
explicitados:
^
T = J −1
∑θ θ
rj
T
rj
(4.42)
j
^
σ =N
2
−1
^T ^
∑r
j
rj
(4.43)
j
As equações (4.41), (4.42) e (4.43) permitem definir as estatísticas suficientes para
dados completos (ESDC) que maximizam L( γ , T , σ | Y ), denotadas por:
2
136
∑A
T
fj
A rj θ rj ,
j
∑ θ θ , ∑ Y A θ e ∑θ A
rj
T
j
T
rj
j
rj
T
rj
rj
j
T
rj
A rj θ rj
(4.44)
j
As ESDC, que são obtidas no passo M, não podem ainda ser calculadas, pois há
dados faltantes ( θ rj ). Contudo, no passo E podem ser estimadas suas esperanças
condicionadas aos valores de Y e às estimativas iniciais para θ f , T e
σ2.
A questão então passa a ser avaliar E(ESDC| Y , θ f , T , σ ) e isso requer a
2
distribuição condicional posterior dos dados faltantes, θ rj , em relação a Y , θ f , T e
σ 2 . Pelos desenvolvimentos de Morrison (1967), Smith (1973) (apud
RAUDENBUSH e BRYK, 2002, p.442-443) e Dempster, Rubin e Tsutakawa (1981),
ela é dada por:
(θ rj | Y ,θ f ,T ,σ 2 ) ∼N (θ*rj ,σ 2 C −j 1 )
(4.45)
onde
θ*rj = C −j 1 A Trj (Y j − A fj θ f ) , e
C j = A Trj A rj + σ 2 T -1 .
Por meio de (4.45) consegue-se completar os dados, e a s-ésima iteração do
algoritmo EM, s = 1, 2,..., começa pelo passo E, avaliando-se os valores esperados
condicionados para as ESDC, quais sejam:
⎛
E⎜
⎜
⎝
⎛
E⎜
⎜
⎝
⎛
E⎜
⎜
⎝
∑
⎞
A Tfj A rj θ rj | Y ,θ f ,σ 2 ,T ⎟ =
⎟
⎠
∑
⎞
θ rj θTrj | Y ,θ f ,σ 2 ,T ⎟ =
⎟
⎠
∑θ θ
∑
⎞
r Tj r j | Y, θ f ,σ 2 , T ⎟ =
⎟
⎠
∑r
j
j
j
∑A
A rj θ*rj
(4.46)
j
* *T
rj rj
j
j
T
fj
*T
j
+σ 2
∑C
r *j + σ 2 tr
−1
j
(4.47)
j
∑C
−1
j
A Trj A rj
(4.48)
j
Essas equações são avaliadas por meio de estimativas anteriores de θ f ,σ ,T
2
*
obtidas no passo (s - 1), e com a subseqüente atualização de θ rj e C j . Após isso,
vai-se ao passo M, substituindo-se os valores de (4.46), (4.47) e (4.48),
137
respectivamente, em (4.41), (4.42) e (4.43) de forma a se obterem novas estimativas
para θ f ,σ ,T . Com as novas estimativas obtidas retorna-se ao passo E, em um
2
processo iterativo, até que a convergência dos parâmetros seja atingida.
É interessante frisar que o algoritmo EM não exige que a função de
verossimilhança seja especificamente avaliada a cada iteração, pois pode-se provar
que a substituição de E(ESDC| Y , θ f , T , σ ) nas equações que formam o passo M,
2
(4.41),
(4.42)
e
(4.43),
garante
novas
estimativas
com
maior
valor
de
verossimilhança. Entretanto, seu cálculo pode ser informativo em relação ao
andamento do processo de maximização (DEMPSTER, LAIRD e RUBIN, 1977;
DEMPSTER, RUBIN e TSUTAKAWA, 1981). Caso esse seja um dos interesses do
pesquisador, tem-se, para o caso MV, que a integral na equação (4.29), a função de
verossimilhança a ser maximizada pelo EM, é uma função de θ f , T , e
σ 2 avaliada
para Y e θ rj conhecidos (dados), e é simbolizada por:
logL(θ f , T,σ 2 | Y, θ rj ) ≅ − Nlog (σ 2 ) − Jlog | T | −
∑ (Y − A
∑θ T θ
j
fj
θ f − A rj θ rj )T (Y j − A fj θ f − A rj θ rj ) σ 2 −
(4.49)
j
T
rj
−1
rj
j
Em Bryk e Raudenbush (1992) pode ser consultada detalhadamente toda a
formulação para a estimação equivalente à apresentada nesta subseção aplicável
no caso de opção por estimativas de MVR.
Finalmente, é importante frisar que o apresentado aqui não representa a única
alternativa para estimação em MLH, já que um algoritmo por MQG iterativo também
pode ser utilizado, inclusive para solução do impasse sobre o que estimar primeiro,
se os efeitos fixos ou os componentes de variância/covariância, podendo também
ser adaptado para fornecer estimativas não viesadas por mínimos quadrados
generalizados iterativo restrito (GOLDSTEIN, 2003).
4.6 Estimação em MLGH
4.6.1 Conceitos iniciais e notação matricial
138
A estimação em MLGH também se caracteriza por incorporar todos os métodos
já discutidos anteriormente neste trabalho, mas combinando-os com processos
adicionais, em razão de se defrontar com uma função de resposta não linear.
Mantém-se o emprego da notação matricial utilizada até aqui quando forem
coincidentes os caracteres.
Até a seção anterior, consideraram-se modelos com efeitos aleatórios
normalmente distribuídos em ambos os níveis. Contudo, em MLGH esta situação se
complica, já que se viu no capítulo 3 que eles são formados por um modelo amostral
de nível 1 não Normal e por um modelo estrutural de nível 2 contando com efeitos
aleatórios normalmente distribuídos. Uma função de verossimilhança similar à
apresentada em (4.29) é a seguinte:
L(Y | γ ) =
∫ f ( Y | γ , u ) p (u | γ ) d u
(4.50)
Observe-se que lá em MLH os dois fatores do produto no integrando são
normalmente distribuídos, e isso implica na normalidade da função. Essa situação
facilita a dedução da função de verossimilhança e o problema maior passa a ser sua
maximização. Já no caso de um MLGH, a questão é que a primeira parcela do
integrando é agora Binomial, Poisson ou Multinomial, sendo especificamente
Binomial no caso prático abordado nesta pesquisa, acarretando que a distribuição
conjunta interna à integral em (4.50) é, na verdade, mista, por exemplo, BinomialNormal. A conseqüência é que a função de verossimilhança em MLGH tem de ser
encontrada de forma numérica, assim como sua maximização.
4.6.2 Obtendo estimativas unit-specific
Uma das abordagens para se obter a função de verossimilhança e sua
maximização em MLGH é a Penalized Quasi-Likelihood (PQL). Em relação à
terminologia "Quasi-Likelihood", o que se pode dizer, de acordo com Zorn (1998,
p.9) é que:
Enquanto máxima verossimilhança padrão requisita a especificação da
distribuição condicional da variável resposta, quasi-likelihood necessita
apenas que se defina o relacionamento entre o valor esperado da resposta
e as covariáveis, e entre a média e a variância da variável resposta.
Maiores detalhes em Quasi-Likelihood podem ser encontrados em Heyde (1997).
139
Nesse contexto, o processo de estimação em PQL, utilizado nos casos de
modelos lineares mistos generalizados (MLMG), envolve o ajuste sucessivo de um
MLMG contando com uma variável resposta de trabalho e com pesos iterativos que
dependem dos parâmetros estimados em um passo anterior (BRESLOW, 2003). Em
relação à aplicação de PQL em MLGH, ela envolve a linearização da função de
resposta e a utilização de uma espécie de ponderação por pesos no nível 1. Para
isso, é preciso que se parta do modelo amostral não Normal já conhecido: Seja a
variável resposta Yij seguindo a distribuição Bernoulli mencionada na seção 3.4 e
com a aplicação da função de ligação logito da equação (3.41), considere-se o
seguinte modelo:
Yij = φ ij + ε ij
(4.51)
Nele verificam-se as seguintes propriedades:
E (ε ij ) = 0 e Var (ε ij ) = wij = φ ij (1 − φ ij )
(4.52)
Pode-se recordar, a partir do exposto no capítulo 3, que o valor esperado da função
de resposta do modelo em (4.51) significa a probabilidade de que Yij = 1 , dados os
níveis para as preditoras do modelo estrutural de nível 1 em (3.40). Esse modelo
pode ser linearizado pela expansão de
φij por meio da série de Taylor (apresentada
no Apêndice D) de primeira ordem centrada em
ηij(s ) . Sabendo-se que φ ij é definido
pela equação (3.39) obtém-se:
φij ≈ φij( s ) +
onde
dφij
dη ij
(η ij − η ij( s ) )
(4.53)
η ij( s ) entende-se como ηij sendo avaliado para uma estimativa inicial φij(s ) , ou
seja, η
(s)
ij
⎛ φij( s ) ⎞
⎟.
= log ⎜
⎜ 1 − φ (s) ⎟
ij ⎠
⎝
Tem-se também que:
dφij
dηij
= wij = φij (1 − φ ij )
(4.54)
140
Avaliando (4.54) em
φ ij( s ) e substituindo em (4.51) tem-se que:
Yij ≈ φ ij( s ) + wij( s ) (ηij − ηij( s ) ) + ε ij
(4.55)
Essa equação pode ser escrita levando-se todas as parcelas observáveis para o
lado esquerdo do sinal de igualdade:
Yij − φ ij( s )
wij( s )
+ ηij( s ) = ηij +
ε ij
(4.56)
wij( s )
O ponto importante é que (4.56) pode ser escrita sob a conhecida forma de um MLH
idêntico ao modelo combinado de níveis 1 e 2 em (4.30), mas contando ainda com o
subscrito i:
Yij* ( s ) = A Tfij γ + A Trij u j + eij
(4.57)
onde
=
*( s )
ij
Y
Yij − φij( s )
(s)
ij
w
ε ij
eij =
wij( s )
+ ηij( s ) ,
,
suposições:
eij ∼N(0, wij( s )−1 ), e u j ∼N(0, T ).
A partir de (4.56) e (4.57), uma estimativa para ηij é dada por:
(s)
η
(s)
ij
^ (s)
= A γ + A Trij u*j( s )
T
fij
(4.58)
onde
A Tfij : vetor que forma i-ésima linha da matriz A fj ,
A Trij : vetor que forma i-ésima linha da matriz A rj .
* (s )
Além disso, (4.58) requisita uma avaliação para u j , que pode ser calculada pela
aplicação de MQG em (4.57), eliminando-se os subscritos i, e com a devida atenção
prestada à variabilidade de u j :
141
u
*( s )
j
= ( A W A rj + T
T
rj
(s)
j
( s ) −1 −1
T
rj
( s)
j
) A W (Y
*( s )
j
^ (s)
− A fj γ )
(4.59)
onde
W j( s ) : matriz diagonal de pesos wij( s ) ,..., wn( sj )j .
Observe-se que (4.57) justifica a utilização de um processo de estimação como o
descrito na subseção 4.5.4 para obtenção de suas estimativas e, contando com essa
possibilidade, o PQL funciona em dois estágios.
Em um estágio inicial, o modelo em (4.57) tem sua verossimilhança, L( T , γ |
Yij* ( s ) , wij( s )−1 ), maximizada a partir de estimativas iniciais para φij( s ) e, ato contínuo,
para
ηij(s) , wij(s) e Yij* ( s ) . Com as novas estimativas obtidas para T ( s +1) e γ ( s +1) , em um
* ( s +1)
estágio 2 deve-se obter u j
wij( s +1) = φij( s +1) (1 − φij( s +1) ) ,
* ( s +1)
linearizadas Yij
e,
( s +1)
e ηij
, o que permite que se recalculem os pesos
conseqüentemente,
novas
variáveis
resposta
. Com isso, volta-se ao estágio inicial em um esquema iterativo,
até que a convergência dos parâmetros seja atingida.
Em relação às estimativas obtidas por esse processo, pode-se recorrer ao
comentário de MacKonway et al. (apud BRESLOW, 2003, p.ii) "Penalized QuasiLikelihood é uma técnica para inferência aproximada em MLMG e não um método
estatístico exato em sentido estrito". Isso se deve à linearização da função de
resposta e a subseqüente assunção de sua distribuição dar-se de forma
aproximadamente Normal, como de fato assumido em (4.57). Isso obviamente causa
certos distúrbios ao processo de estimação e Breslow e Lin (apud RAUDENBUSH e
BRYK, 2002, p.459) alertam que em casos de variâncias de nível 2 muito elevadas,
o PQL obtém "estimativas de variância e de efeitos fixos negativamente viesadas".
Resgatando que o título dessa subseção remete o leitor ao exposto na seção 3.4,
em relação ao significado das estimativas unit-specific e population-average, concluise, a partir da observação de (4.58), que o valor ali estimado é condicionado a um
dado vetor u j , e, por isso, o PQL presta-se e obtém as estimativas unit-specific.
Finalmente, muito embora PQL seja o método mais utilizado pela literatura de
referência em MLGH (RAUDENBUSH e BRYK, 2002; GOLDSTEIN, 2003), a
aproximação do integrando em (4.50) pelo método de Laplace é também uma
142
alternativa viável para realização das inferências em MLGH (RAUDENBUSH e
BRYK, 2002).
4.6.3 Obtendo estimativas population-average
As estimativas population-average são obtidas por meio de uma abordagem
similar à de Generalized Estimating Equation (GEE), popularizada por Zeger et al.
(1988) (RAUDENBUSH e BRYK, 2002). GEE é uma abordagem de estimação
marginal, ou population-averaged, que difere das propostas de estimativas unitspecific na medida em que estas modelam a distribuição de probabilidade da
variável dependente como uma função das covariáveis e de um parâmetro
específico de grupo ou unidade, enquanto que aquela modela a esperança marginal
da variável resposta apenas como função das covariáveis, também possuindo raízes
nas mencionadas abordagens de quasi-likelihood (ZORN, 1998). Não obstante seu
princípio de estimação, GEE também leva em consideração a correlação de medidas
intragrupos requisitada em MLH e MLGH, por meio da utilização das estimativas dos
componentes de variância/covariância previamente obtidas para o modelo unitspecific, em um processo de estimação dos efeitos fixos por MQG. Assim, no que
concerne a equação linearizada (4.57), a intenção agora é desconsiderar o vetor de
parâmetros aleatórios de nível 2, da seguinte forma:
Yij* ( s ) = A Tfij γ + ε ij
(4.60)
onde
VPA : matriz de variância/covariância dos termos de erros aleatórios,
η
(s)
ij
^ (s)
=A γ ,
T
fij
suposições:
ε ij ∼ N(0, VPA ).
Como se está modelando um MLH, os termos aleatórios em (4.60) devem ainda ser
considerados como correlacionados internamente em cada grupo. A chave do
sucesso nesse processo é a utilização de uma matriz de variância/covariância
apropriada, aqui denotada por VPA , e que pode ser aproximada a partir das
estimativas obtidas para o processo unit-specific, isso segundo o proposto por Zeger
et al. (apud RAUDENBUSH e BRYK, 2002, p.303). Dessa forma, eliminando-se o
143
subscrito i e aplicando MQG a (4.60), obtém-se a estimativa population-averaged
para o vetor de efeitos fixos:
^
γ PA = (
∑A
T
fj
−1
VPAj
A j ) −1
j
∑A
T
fj
−1
VPAj
Yj
(4.61)
j
Como em (4.60) observa-se que não há um parâmetro específico de grupo, os
efeitos aleatórios de nível 2 são absorvidos pelo termo de erro
ε ij . Portanto, todas
as inferências e interpretações subseqüentes proporcionadas pela estimação do
modelo não estarão sujeitas, ou condicionadas, a um dado vetor u j e isso é
importante, a depender dos interesses da pesquisa, como foi comentado na
subseção 3.4.1.
4.7 Intervalos de confiança em MLGH
Todas as estimativas anteriormente referidas em termos de MLH e MLGH foram
pontuais. As inferências em termos de intervalos de confiança para os efeitos fixos e
coeficientes aleatórios de nível 1 podem ser obtidas em função dessas estimativas
pontuais e das estimativas dos erros padrões diretamente decorrentes das
estimativas de variância dos estimadores. Os detalhes sobre o estabelecimento de
intervalos de confiança em MLH e em MLGH, cujos procedimentos são os mesmos
prescritos para MLH, podem ser acessados em Raudenbush e Bryk (2002) e
Goldstein (2003).
4.8 Testes de hipóteses em MLGH
4.8.1 Introdução
Nesta seção estar-se-á complementando os aspectos de inferência em MLH e
MLGH, por meio da apresentação dos conceitos que envolvem testes de hipóteses,
e que são de plena aplicação na fase prática de ajuste e redução de MLH. A notação
matricial utilizada aqui é mantida, em relação ao capítulo 3 e seções anteriores deste
capítulo, quando coincidentes os símbolos matemáticos.
Um aspecto que simplifica a análise nesta seção é que, devido às especificações
estruturais dos modelos apresentados até esta altura, mormente a linearização da
144
resposta praticada em MLGH, os testes são realizados de forma praticamente
idêntica em MLH e MLGH. A única exceção se dá em relação ao teste de razão de
verossimilhança (ver subseção 4.8.4), não disponível em PQL, porém possível por
LAPLACE (RAUDENBUSH et al., 2000).
Portanto, o conteúdo apresentado em seqüência é prontamente aplicável tanto
em MLH quanto MLGH, a menos da referida exceção. Nas subseções 4.8.2 a 4.8.4
são apresentados os princípios que norteiam os referidos testes de hipóteses,
seguindo, principalmente, o proposto por Bryk e Raudenbush (1992).
4.8.2 Testes relacionados a efeitos fixos
Testar um único parâmetro envolve a seguinte hipótese nula:
H0: γ qs = 0 .
Isso implica em testar se o efeito de uma determinada preditora de nível 2, W sj ,
equivale a zero. A estatística de interesse é dada por:
^
z=
γ qs
^
(V γ )
^
(4.62)
1/ 2
qs
onde
^
γ qs : estimativa para o qs-ésimo efeito fixo,
^
^
V γ : variância estimada para γ qs .
^
qs
Essa estatística, que exprime a razão entre o coeficiente estimado e seu erro
padrão, segue, assintoticamente, uma distribuição Normal padronizada. Contudo,
considerar (4.62) seguindo uma distribuição t com número de graus de liberdade
dado por (J - Sq - 1) permite inferências mais acuradas (RAUDENBUSH e BRYK,
2002).
Um teste envolvendo diversos efeitos fixos pode ser também executado. Seja um
vetor de efeitos fixos γ = ( γ00 ,γ01 ,γ10 ,γ11 ) . O interesse pode ser testar se γ01 e γ11
T
são iguais a zero. Isso pode ser levado a termo pelo general linear hypothesis test
(GLHT). A hipótese nula multiparâmetro é dada por:
145
⎛ γ 01 ⎞
⎟⎟ = 0
⎝ 11 ⎠
H0: C T γ = ⎜⎜
γ
onde
⎛ 0 1 0 0⎞
⎟⎟ .
C T = ⎜⎜
0
0
0
1
⎝
⎠
Sendo conhecida a precisão amostral dos grupos j conforme definido em (4.33), a
^
variância de γ é definida por:
⎛
Var ( γ ) = ⎜
⎜
⎝
^
∑
j
−1
⎞
W Tj ∆ −j1 W j ⎟ = V^
⎟
γ
⎠
(4.63)
−1
Ocorre que em geral não se conhece ∆ j , que tem de ser estimado. Dessa forma a
estimativa da variância do estimador de γ é explicitada por:
⎛
Var ( γ ) = ⎜
⎜
⎝
^
^
∑
j
−1
^
⎞
^
W Tj ∆ j W j ⎟ = V γ
⎟
⎠
^ −1
T
(4.64)
^
e o vetor de contraste C γ tem, então, sua estimativa de variância dada por
^
^
^
^
Var (C T γ ) = C T V γ C , denotada por V c . Com isso, uma estatística para o GLHT é
^
dada aproximadamente por:
^T
^ −1
^
H = γ C V c CT γ
(4.65)
que, sob a hipótese nula, segue assintoticamente uma distribuição
χ 2 com número
T
de graus de liberdade dado pela quantidade de linhas da matriz C .
4.8.3 Testes relacionados a coeficientes aleatórios de nível 1
O teste envolvendo um único coeficiente segue basicamente a mesma filosofia
em relação aos efeitos fixos. Seja a hipótese nula:
H0:
β qj = 0 .
146
Pelo acompanhamento do exposto na subseção 4.5.3 fica fácil ver por que, agora, o
pesquisador tem a opção de utilizar no teste as estimativas de MQO ou então as
empíricas de Bayes. Empregando-se aqui a empírica de Bayes tem-se:
z=
β qj*
(4.66)
Vqq*1/2
j
onde
β qj* : q-ésima estimativa empírica de Bayes do grupo j,
*
Vqqj
: q-ésimo elemento diagonal da matriz de dispersão posterior dos coeficientes
β qj .
Essa estatística z segue, assintoticamente, uma distribuição Normal padronizada.
O teste para múltiplos
β qj pode ser posto em prática a partir da seguinte
hipótese nula:
H0: C β = 0
T
onde
β : vetor de ordem [J(Q + 1) x 1] de coeficientes aleatórios de nível 1.
A estatística utilizada no teste para estimativas empíricas de Bayes é:
H EB = β *T C(C T V *C) −1 C T β *
(4.67)
onde
V * : matriz de ordem [J(Q + 1) x J(Q + 1)] de variância/covariância dos coeficientes
aleatórios de nível 1.
É preciso que se ressalte que existem ainda outras possíveis alternativas para
realização desse teste disponíveis ao pesquisador, não apresentadas aqui, que
podem ser consultadas em Raudenbush e Bryk (2002).
4.8.4 Testes relacionados a componentes de variância/covariância
Uma das preocupações do pesquisador em modelos hierárquicos é avaliar se os
coeficientes aleatórios de nível 1 efetivamente possuem efeito aleatório ou devem
ser especificados como fixos em relação aos grupos. Isso pode ser aferido por um
147
teste de componentes de variância/covariância. Quando ele envolve um único
parâmetro, a hipótese nula é:
H0:
τ qq = 0 .
No caso de todos - ou quase todos - os grupos propiciarem uma estimativa de MQO
para
β qj , uma estatística possível para o teste, já que a estimativa da variância do
^
^
estimador de
β qj , sob a hipótese nula, é equivalente a V j = σ 2 ( XTj X j ) −1 , é dada
por:
h=
∑
j
⎛ β^ − γ^ −
⎜ qj
q0
⎝
∑
γ qsWsj ⎞⎟
s =1
⎠
Sq ^
2
^
V qqj
(4.68)
onde
^
^
V qqj : q-ésimo elemento diagonal de V j .
Essa estatística segue aproximadamente uma distribuição
χ 2 com (J - Sq - 1) graus
de liberdade. Outra opção para o teste é utilizar a estatística:
^
^
z = τ qq ⎡⎢Var (τ qq )1 / 2 ⎤⎥
⎦
⎣
(4.69)
que é, assintoticamente, aproximadamente Normal, mas nos casos em que
τ qq é
muito próximo de zero essa aproximação será bastante pobre e, conseqüentemente,
proporcionará inferências enganosas. Uma discussão em torno dessa ocorrência
pode ser encontrada em Giampaoli (apud NATIS, 2000, p.48).
Os testes multiparâmetros para componentes de variância/covariância são
fundamentados no teste da razão de verossimilhança e a filosofia do teste é bem
definida por Natis (2000, p.48):
Temos na hipótese nula todos os componentes que se deseja testar
considerados nulos. Dessa forma, a hipótese nula corresponde a uma forma
reduzida da hipótese alternativa. Vale ressaltar que tanto na hipótese nula
quanto na hipótese alternativa, os modelos devem ser idênticos com relação
aos efeitos fixos.
A hipótese nula, nesse caso é dada por H0: T = T0 , a ser testada contra a
alternativa H1: T = T1 . T0 representa uma matriz de variância/covariância associada
148
a um modelo reduzido em relação ao modelo mais geral correspondente à matriz T1 .
A estatística do teste é dada por:
H RV = D0 − D1
(4.70)
onde D0 e D1 são as deviances proporcionadas pelo ajuste, respectivamente, dos
modelos reduzido e geral. A deviance é calculada por meio de D = −2 log L (θ) ,
entendendo-se θ como o vetor de parâmetros do modelo e L (θ) sendo avaliada em
seu máximo. Sabe-se que quanto maior a deviance pior o ajuste obtido para o
modelo. A estatística em (4.70) segue uma distribuição
χ 2 com (m) graus de
liberdade, onde m é a diferença entre o número de parâmetros previstos para os
dois modelos. Valores elevados para essa estatística indicam que a hipótese nula é
muito simples para explicar os dados observados e a redução na deviance
ocasionada pelo modelo mais completo se justifica.
Uma implicação da existência de alternativas de estimação por MV e MVR
referidas na seção 4.5 é que em MV todo e qualquer par de modelos, geral e restrito,
pode ser testado por meio da razão de verossimilhança, ou seja, torna-se um teste
simultâneo que pode envolver efeitos fixos e componentes de variância/covariância.
Por outro lado, em MVR, um teste como esse só é possível para avaliar hipóteses
formuladas a respeito dos componentes de variância/covariância (RAUDENBUSH e
BRYK, 2002).
4.9 Conclusão
Neste capítulo foram apresentados os processos que fundamentam as
estimativas de parâmetros em MLH e MLGH aplicados a estruturas de dados
correlacionados. Viu-se que os processos utilizam-se de uma complexa combinação
de métodos já tradicionais em estatística com métodos adicionais mais recentes. O
resultado é que as estimativas de efeitos fixos, coeficientes aleatórios de nível 1 e
componentes de variância/covariância provêem ao pesquisador uma maior riqueza
interpretativa para os fenômenos em estudo, isso em uma modelagem única e
robusta. Com isso, no próximo capítulo, é apresentada a proposta de solução do
problema de tese explorando essas potencialidades de modelagem.
149
5 NOVO MÉTODO DE CLASSIFICAÇÃO DE CONTRIBUINTES PARA
FISCALIZAÇÃO
5.1 Introdução
As metodologias para seleção de contribuintes para fiscalização possuem suas
próprias características, vantagens e desvantagens. Na prática, viu-se pela revisão
de literatura que mais importante do que seguir à risca apenas uma delas é ter
conhecimento dos princípios gerais que as regem e seus principais resultados
esperados, para que possam ser propostos, tempestivamente, métodos únicos ou
combinados aplicáveis às necessidades, recursos, informações disponíveis e cultura
organizacional próprios de cada usuário.
Nesse contexto, o novo método de classificação de contribuintes proposto neste
capítulo não é talhado, a princípio, para substituir nenhum processo de seleção de
contribuintes para fiscalização ora existente, mas sim para fornecer mais uma opção
válida especialmente nos momentos que exijam pronta reação por parte dos órgãos
tributários, como ainda vai ser detalhado neste capítulo.
O classificador proposto é baseado nos MLGH, haja vista que há fundamentadas
evidências de que contribuintes pertencentes a um mesmo grupo ou setor de
atividade econômica tendem a ser mais parecidos entre si do que contribuintes que
se dedicam a distintas atividades econômicas, hipótese que é devidamente avaliada
no próximo capítulo. Para a identificação dos grupos que conferem a estrutura
hierárquica dos dados de trabalho, empresas aninhadas em setores de atividades
econômicas, será utilizada a Classificação Nacional de Atividades Econômicas Fiscal (CNAE-Fiscal) das pessoas jurídicas, cuja estrutura está também detalhada
no próximo capítulo.
5.2 Conceituação de infração e definição das variáveis resposta de
interesse aos modelos lineares generalizados hierárquicos
Já foi dito no capítulo introdutório que nem todos aqueles que possuem indícios
de infração fiscal são efetivamente fiscalizados pelas agências tributárias. Além
disso, o modus operandi da SRF, semelhante à já referida metáfora da malha
150
colhendo os contribuintes apresentando grandes indícios de infração à legislação
tributária, acaba por não proporcionar uma informação dicotômica exata sobre se o
contribuinte apresenta ou não indício de infração fiscal. De fato, na prática parece
ser difícil de se trabalhar com essa informação, já que possivelmente seria bastante
grande a quantidade de contribuintes apresentando algum tipo de indício de infração
fiscal com valor superior a zero, o que inviabilizaria a fiscalização simultânea de
todos eles. O fato é que não se registra essa informação nas bases de dados da
SRF.
Por outro lado, uma informação disponível é sobre se o contribuinte foi ou não
fiscalizado. Isso permite a definição de uma primeira variável dicotômica: o
contribuinte "foi fiscalizado ou não foi fiscalizado". Considerando-se que a miríade de
contribuintes com as mais variadas gradações de indícios de infração fiscal força os
órgãos tributários a estabelecerem regras, ou níveis de tolerância, que permitam um
grau de priorização na seleção de contribuintes, isso garante que um contribuinte
fiscalizado foi previamente considerado como de relevante interesse fiscal, ou, em
outras palavras, prioritário à fiscalização.
Além disso, assume-se aqui que os contribuintes fiscalizados pela SRF foram
selecionados, salvo raras exceções como nos casos de CPI's ou demandas do
Ministério Público (MP), em virtude de apresentarem indícios de infração fiscal que
foram apurados com base no banco de dados de cruzamento de informações
internas e externas da SRF, indicado na Figura 1 (ver capítulo introdutório). Nesse
contexto e tendo em vista o exposto no parágrafo anterior, o fato de um determinado
contribuinte ter sido fiscalizado informa e garante que detectou-se-lhe previamente
um relevante indício de infração fiscal, e isso permite sua distinção em relação ao
contribuinte que não foi fiscalizado que, portanto, não apresentou indício relevante.
De posse dessa variável dicotômica informando se o contribuinte "foi fiscalizado ou
não foi fiscalizado", abre-se, então, uma primeira possibilidade de classificação, por
meio da modelagem da probabilidade de ocorrência da seguinte característica de
interesse - efetivamente observável: "o contribuinte apresenta indício de infração à
legislação tributária". Com isso pode-se estabelecer um MLGH associado à
ocorrência de indício de infração fiscal, o que se denomina aqui de MLGH1.
Dessa forma, daqui por diante, assume-se por "indício de infração" o indício de
infração à legislação tributária de regência dos tributos administrados pela SRF e
incidentes sobre as PJ (IRPJ, CSLL, PIS/PASEP, COFINS e IPI) em magnitude
151
superior a um determinado nível de tolerância, desconhecido, admitido pelo órgão e
que, portanto, suscita uma subseqüente fiscalização do contribuinte potencialmente
infrator.
Ocorre que a base de dados de trabalho também permite o conhecimento a
respeito dos contribuintes que foram efetivamente autuados após as fiscalizações da
SRF. Naturalmente isso abre outra possibilidade, que é classificar contribuintes por
meio de um MLGH que modele a probabilidade de ocorrência da característica de
interesse indicando que "o contribuinte é infrator". Designa-se, então, um MLGH2
associado à presença (ocorrência) de infração à legislação tributária de regência dos
tributos administrados pela SRF e incidentes sobre as PJ (IRPJ, CSLL, PIS/PASEP,
COFINS e IPI).
O MLGH1 é bastante importante, na medida em que sua variável resposta
projetada resume toda a informação proporcionada pelo banco de dados de
cruzamento de informações da Figura 1, o que é interessante em termos de
pesquisa e de recursos financeiros. Já o MLGH2 é relevante, pois seu objetivo é
modelar o comportamento tributário infrator em sua natureza. A estimação de ambos
proporciona excelente oportunidade para a comparação qualitativa das variáveis
que, possivelmente, expliquem a variabilidade nas respectivas respostas esperadas.
Portanto, ambos os modelos justificam-se plenamente.
5.3 Processo esquemático do novo método de classificação
A partir do exposto, um novo método para classificação de contribuintes para fins
de fiscalização por parte de órgãos tributários pode se dar a partir do esquema
ilustrado na Figura 5, a seguir.
152
Figura 5: Novo método de classificação (seleção) de contribuintes para fiscalização
Deve-se recordar neste momento, como já mencionado no primeiro capítulo, que
este novo método de classificação, uma vez materializado, vem a corresponder, na
prática, a um processo de seleção de contribuintes para fiscalização, tal como
indicado na legenda da Figura 5, fundamentando-se na previsão de comportamento
e classificação de contribuintes em dois grupos distintos, os de interesse à
fiscalização tributária (que comporão a programação de ações fiscais) e os demais
(controlados nos dossiês de contribuintes).
Essa solução genérica apresenta a vantagem de se adequar especificamente à
cultura organizacional da SRF, uma vez que preserva a ideologia do sistema atual lá
praticado
(seleção
inicial
por
indícios
de
infração
e
posterior
auditoria),
principalmente em relação aos grandes contribuintes como os que apuram o Lucro
Real. Em relação ao retângulo em amarelo na figura - Previsão do Crédito Tributário
Lançado (R$) - é natural que uma vez tendo sido obtida a lista de empresas
prioritárias à fiscalização, de acordo com as probabilidades preditas pelo MLGH, se
deseje aproveitar a ocasião para prever o valor do crédito tributário em reais
esperado para as futuras auditorias a serem deflagradas, o que representaria uma
complementação para a programação de ações fiscais proposta. Entretanto, esse
modelo de previsão complementar não será estimado, constando na Figura 5 a título
de enriquecimento do novo processo de classificação e também como sugestão para
estudos futuros. Sendo assim, esta pesquisa contempla os processos encerrados
pela linha tracejada da Figura 5.
153
É importante que se ressalte que na modelagem de nível 1 serão utilizadas como
preditoras tão-somente as informações prestadas pelo próprio declarante em sua
DIPJ (indicadores econômico-fiscais individuais e mais alguns valores contábeis
brutos), de forma a que os MLGH sejam independentes de dados individuais de
contribuintes prestados por fontes externas de informação. No caso do nível 2, serão
pesquisadas variáveis setoriais não sigilosas de fácil e rápido acesso, que possam
explicar a variabilidade nas respostas devida exclusivamente aos setores de
atividades econômicas. Estas características de especificação e utilização dos
modelos possibilitam uma maior agilidade de ação por parte da fiscalização
tributária.
5.4 Conclusões do capítulo
As conclusões gerais do capítulo 2, principalmente itens "d", "f", "g" e "h",
corroboram a importância de estudos como o aqui proposto. Além disso, o trabalho
de Andreoni (1992), também referido no segundo capítulo, mostra claramente a
importância da tentativa de redução dos intervalos de tempo decorridos entre o
cometimento de uma infração fiscal por parte do contribuinte e sua efetiva
fiscalização, haja vista que esse trabalho mostrou que o contribuinte infrator pode se
aproveitar disso para maximizar seus recursos, em prejuízo do Estado.
A relevância da pesquisa e os resultados esperados pela adoção do novo
processo da Figura 5 já foram relacionados no capítulo introdutório, mas,
novamente, de maneira geral, o que se pretende é privilegiar a autonomia e
agilidade de ação da fiscalização tributária, promover a economia de recursos
públicos e agregar conhecimento acerca do comportamento tributário dos
contribuintes PJ e dos setores econômicos, produzindo resultados inéditos e
interessantes à formulação de políticas fiscais.
O novo método de classificação de contribuintes para fiscalização proposto neste
capítulo é aplicado no capítulo 7 (Estimação e Aplicação de Modelos à Classificação
de Contribuintes para Fiscalização) a partir da análise exploratória de dados
executada no próximo capítulo (Análise Exploratória de Dados Econômico-Fiscais
das Pessoas Jurídicas).
154
6 ANÁLISE EXPLORATÓRIA DE DADOS ECONÔMICO-FISCAIS DAS
PESSOAS JURÍDICAS
6.1 Descrição das bases de dados
Os dados disponíveis para esta pesquisa são relacionados às informações
prestadas à SRF pelas próprias pessoas jurídicas brasileiras em suas DIPJ
referentes ao exercício 2000, ano-calendário 1999, que apuraram o imposto de
renda pelo regime de apuração do Lucro Real, excluindo-se as instituições
financeiras. São as grandes empresas brasileiras, uma vez que o Lucro Real foi o
regime obrigatório para os contribuintes cuja receita total fosse superior ao limite
anual de 24 milhões de reais, para o ano-calendário de 1999.
Nesse âmbito, dispõe-se das seguintes informações individuais referentes a
172.729 contribuintes: valores contábeis brutos propriamente ditos e índices
econômico-fiscais obtidos a partir das informações contábeis prestadas pelo
contribuinte em DIPJ, conforme segue:
a) 44 índices econômico-fiscais de resultado, mistos, de balanço e de atividades
rurais;
b) 10 valores contábeis brutos, quais sejam:
- Lucro Operacional (LOPER),
- Lucro Bruto (LBRUTO),
- Receita Líquida (RECLIQ),
- Lucro Real (LREAL),
- Lucro antes da Contribuição Social (LACSLL),
- Base de Cálculo da Contribuição Social sobre o Lucro Líquido (BCCSLL),
- Receita Bruta do PIS/PASEP (RBPISP),
- Base de Cálculo do PIS/PASEP (BCPISP),
- Receita Bruta da COFINS (RBCOF),
- Base de Cálculo da COFINS (BCCOF).
Além disso, a base de dados contém a classificação CNAE-Fiscal do contribuinte.
Conforme já mencionado no capítulo 5, dispõe-se da informação sobre se a
pessoa jurídica foi fiscalizada e também se ela foi autuada. Isso permite a
155
consideração das variáveis binárias "contribuinte apresenta indício de infração, ou
não apresenta indício de infração fiscal" e "contribuinte é infrator, ou não é infrator"
para o ajuste, respectivamente, do MLGH1 e do MLGH2, utilizando-se como
preditoras de nível 1 as informações individuais relacionadas nos itens "a" e "b"
anteriores.
6.2 Pré-Processamento de dados
Os dados de trabalho apresentaram dois tipos de situação a serem observadas
na fase de pré-processamento. Alguns registros apresentam todos os seus campos
assinalados com o código "IN", enquanto que em outros registros existem tanto
campos codificados com "IN" quanto outros assinalados com valores numéricos. As
informações obtidas com o setor de processamento de dados do SERPRO dão
conta de que o código IN indica "inválido", significando que o contribuinte informou
dados inválidos que foram processados pelo sistema mesmo nessas condições.
De acordo com Klosgen e Zytkow (2002), a situação de dados inválidos pode ser
remediada pelas seguintes medidas, a saber: desconsideração dos campos faltantes
ou imputação dos dados. Também, no caso de registros parcialmente incompletos,
Han e Kamber (2001) informam que pode ser adotada a estratégia de imputação dos
dados por predição dos valores de campo porventura faltantes com base em uma
regressão obtida a partir dos registros com dados completos.
Assim, seguindo os primeiros autores, para os registros consignando códigos IN
para todos os campos, foi adotada a estratégia de desconsiderá-los. Já para os
registros apresentando alguns registros válidos concomitantemente com outros
inválidos, a situação é diferente, pois ocorre que o campo referente à classificação
CNAE-Fiscal do contribuinte foi sempre um dos inválidos.
Dessa forma, para que fossem completados por regressão esses campos de
classificação CNAE-Fiscal, ter-se-ia de considerar um cenário apresentando
dezenas ou centenas de possibilidades de codificação CNAE-Fiscal distinta (número
de agrupamentos existentes para os cinco níveis da CNAE-Fiscal, ver Quadro 2 da
seção 6.3), o que tornaria tal previsão inviável. Por outro lado, Berry e Linoff (1997)
consideram que na falta de uma variável categorizada, como o campo CNAE-Fiscal,
pode fazer sentido sua substituição pelo valor mais comum da variável, mas
156
ressalte-se que, de acordo com Han e Kamber (2001), essa opção pode causar viés
nos dados.
Portanto, em um modelo multinível, em que os grupos são definidos pela
classificação CNAE-Fiscal, ou seja, essa classificação é mais do que uma preditora
em uma regressão, mas na verdade a definidora de uma estrutura hierárquica, a
mera substituição da classificação CNAE-Fiscal faltante por uma média ou moda
pode não fazer sentido algum, e ainda viesar os dados. Por isso, adotou-se a
estratégia de desconsideração de todos os registros com dados parcial ou
totalmente faltantes, no caso 8.263 registros, sendo que assume-se aqui que estes
são registros missing completely at random13.
Com isso, existem 164.466 registros completos de contribuintes, que se
constituem, então, numa primeira base de dados de trabalho (BD1) que subsidiará o
MLGH1. Desses, 9.757 (5,93%) foram fiscalizados por possuírem indícios de
infração em relação às operações efetuadas no ano-calendário de 1999, e, portanto
possuem a característica de interesse, qual seja, "apresentam indício de infração à
legislação fiscal".
Quanto às informações disponíveis sobre os resultados das ações fiscais
referentes ao ano-calendário de 1999, após a retirada dos registros associados às
fiscalizações ainda em andamento na data de 16/07/2004, ficam então 12.227
registros de fiscalizações encerradas, sendo que 8.073 (66,03%) dessas ações
foram encerradas com resultado, ou seja, havendo a autuação do contribuinte, em
relação às operações praticadas no ano-calendário de 1999. Forma-se assim a BD2,
que serve de apoio ao MLGH2 (infração).
É de se notar que o valor de contribuintes fiscalizados indicado pela BD2 excede
o número de fiscalizados na BD1. Isso ocorre devido ao fato de que a BD1,
conforme o solicitado por este pesquisador e atendido pela Coordenação-Geral de
Fiscalização da SRF, contempla as fiscalizações efetuadas em relação ao anocalendário de 1999, mas apenas as deflagradas em função de presença de indício
de infração fiscal referente às operações praticadas naquele mesmo período.
Já a BD2 engloba toda e qualquer ação fiscal que inclua o período de 1999,
mesmo que os indícios deflagradores da ação se refiram a outros anos que não o de
1999, porém deve ser bem entendido que todas as 8.073 autuações referem-se
13
Para detalhes sobre esse conceito ver Raudenbush e Bryk (2002, p.338), Goldstein (2003, p.136),
ou Fonseca (1999, p.9).
157
exclusivamente ao ano-calendário de 1999, ano enfocado por esta pesquisa.
Exemplificando, um contribuinte que tenha acusado indício de infração para o ano
de 2000 pode ter tido o ano de 1999 incorporado à sua respectiva ação fiscal,
inicialmente deflagrada em função do ano 2000. Esse procedimento é normal na
SRF, haja vista que os últimos cinco anos têm sido incluídos na ação fiscal para fins
de procedimentos de verificação preliminar, o que pode gerar uma autuação para um
desses anos anteriores ao da operação principal motivada por presença de indício.
O que é importante é que a BD2 relaciona todas as ações fiscais que incluem o ano
de 1999 e registra todas as autuações referentes a esse mesmo ano.
Um aspecto importante em termos de ligação entre a BD1 e a BD2, e que é
resgatado na fase de validação de modelos, é que dentre os 9.757 registros de
contribuintes da BD1 que foram selecionados para fiscalização por apresentarem
indícios de infração fiscal em relação às operações efetuadas no ano-calendário de
1999, 8.728 deles constam como fiscalizados na BD2, sendo que, destes últimos,
5.180 foram autuados em relação às operações efetuadas no ano-calendário 1999,
ou seja, 59,35% apresentaram infrações à legislação fiscal.
Nesta pesquisa, embora se trabalhe com todos os contribuintes que entregaram
DIPJ's apurando o Lucro Real no exercício 2000, excluindo as financeiras, na
verdade consideram-se esses dados populacionais uma amostra de uma
superpopulação maior, conforme esclarecido em Goldstein (2003, p.164):
(...) cientificamente, nós tipicamente desejamos considerar a população
atual como uma realização amostral obtida a partir de uma população
conceitualmente infinita estendendo-se no tempo e, também, possivelmente
no espaço.
Esse conceito é também conhecido por uma superpopulação, permitindo
generalizações e predições que vão além das unidades e indivíduos da população
atual, admitindo a validade das estimativas e inferências para a população em
tempos futuros.
Para que se pudessem iniciar os trabalhos, procedeu-se a uma análise descritiva
de variáveis para definir possíveis transformações adequadas aos trabalhos em
modelos lineares. Em relação aos índices econômico-fiscais de balanço, mistos e de
resultado (relacionados no quadro do Apêndice E), levantaram-se as seguintes
estatísticas descritivas: valores máximo e mínimo, média, mediana, primeiro e
terceiro quartis, assimetria, curtose, percentual de negativos e percentual de zeros.
Também foi avaliado se, pela teoria contábil, de acordo com Iudícibus et al. (1991) e
158
Iudícibus (1995), o valor de cada um desses índices pode ou não assumir valor
negativo, o que se constitui em importante informação em termos de transformação
de dados no contexto da caracterização de padrões de infração tributária. Essas
informações estão condensadas no Apêndice F. Observe-se que neste apêndice os
índices estão codificados genericamente pela letra “I” seguida de números
sequenciais, por exemplo, “07” (números estes denotados nesta seção por X), pois
tendo-se em vista o item “e” da seção 2.9 e ainda os resultados esperados para esta
pesquisa, particularmente MLGH que rejam indícios de infração tributária, concluiuse por descaracterizar o real significado contábil dos possíveis índices significativos
a serem identificados pelo processo de modelagem.
Especificamente em relação aos índices de atividade rural (11 índices), como
eles são bastante rarefeitos - apenas 1,89% dos contribuintes apresentam pelo
menos um deles com valor diferente de zero - optou-se por condensar toda
informação por eles proporcionada em uma única variável binária denominada
“Rural”, cujo objetivo é captar o efeito da pessoa jurídica ter preenchido o anexo de
atividade rural em sua DIPJ. Por esse motivo os índices de atividade rural não
constam do quadro do Apêndice E.
Após isso foram feitos também histogramas, stem and leaf plot e box-plot para
todos os índices. A título de ilustração, um exemplo dos gráficos obtidos para o
índice I04 é apresentado no Apêndice G.
As análises exploratórias permitiram a definição de três diretrizes gerais de
transformação aplicáveis aos índices, a saber:
1) Índices que podem assumir, teoricamente, qualquer valor e que apresentam
padrão de histograma similar ao de I04, no Apêndice G: uma variável assumindo
log(IX + 1) para valor maior ou igual a 0 (zero) e -log(|IX| + 1) para valor negativo.
2) Índices que não podem assumir, pela teoria contábil, valor negativo e que
apresentam um padrão de histograma como o de I08, no Apêndice G: uma variável
assumindo valor igual a log (IX + 1), no caso do valor do índice maior ou igual a 0
(zero), e assumindo valor 0 (zero) no caso de valor negativo, associada a uma outra
variável binária assumindo valor 1 (um) se o valor do índice é negativo e 0 (zero)
caso contrário.
3) Índices que possuem mais de 80% dos valores iguais a 0 (zero), apresentando
padrão de histograma como o de I11, no Apêndice G: duas variáveis binárias
159
assumindo valores 0 (zero) e 1 (um), uma para captar valores positivos e outra para
valores negativos.
A atribuição dessas diretrizes de transformação aos índices é mostrada na tabela
do Apêndice F. Para um melhor aproveitamento das informações disponíveis, no
caso dos índices abrangidos pelas diretrizes “2” e “3” acima, foi-lhes também testada
a transformação mais geral prescrita pela diretriz “1”. Adicionalmente, para o caso
dos
índices
enquadrados
na
transformação
“3”
e
que
se
caracterizam
concomitantemente por não assumirem, em teoria, valores negativos, testou-se
ainda a diretriz de transformação “2”, estando claro que apenas uma das
transformações, no caso a que se houver melhor em termos da contribuição do
índice transformado para o ajuste dos modelos, será adotada nos modelos finais.
A opção pelo logaritmo natural no que concerne as transformações é bastante
natural, haja vista que, de acordo Arino e Frenses (2000):
Utilizar a transformação logaritmo natural (log) antes da formulação de um
modelo econométrico auxilia na redução do impacto dos outliers, faz com
que as primeiras diferenças tornem-se taxas de crescimento e reduz a
frequentemente observada variância crescente em séries temporais.
Esta informação é reafirmada por Guanziroli et al. (apud Corvalão, 2002, p.39). Além
disso, segundo Barbetta (2001, p.299):
A transformação logarítmica aumenta as distâncias entre os valores
pequenos e reduz as distâncias entre os valores grandes, tornando
distribuições assimétricas de cauda longa à direita em distribuições
aproximadamente simétricas.
Portanto, neste trabalho, as transformações utilizam-se dos logaritmos naturais.
Quanto aos valores contábeis brutos, como eles tendem a ser altamente
correlacionados entre si, optou-se por uma análise em componentes principais
(ACP) visando à redução de dimensionalidade de variáveis. O resumo dos
resultados dessa análise (dez autovetores, assim como a variância explicada pelas
componentes principais) está apresentado no Apêndice H. São utilizadas na
modelagem as quatro primeiras componentes principais, que explicam 97,22% da
inércia da nuvem de pontos contábeis.
Com isso, as componentes principais, a variável Rural, assim como todos os
índices econômico-fiscais relacionados na tabela do Apêndice F, constituem-se em
candidatas a variáveis preditoras de nível 1 nas modelagens estatísticas
apresentadas nesta pesquisa, mas devidamente transformados os índices conforme
o já especificado.
160
6.3 Análise hierárquica exploratória
Segundo o prescrito pela literatura de referência em MLGH apresentada no
capítulo 3, o primeiro passo de uma modelagem hierárquica é o ajuste de um
modelo nulo, de forma a se avaliar e quantificar a existência de variabilidade de nível
2 em relação à resposta esperada. Para isso, é preciso que se considere a
estruturação hierárquica das unidades de interesse.
6.3.1 A estrutura hierárquica em unidades
Já foi mencionado que a hierarquia dos MLGH vai ser estruturada de acordo com
a classificação CNAE-Fiscal de atividades econômicas de contribuintes pessoas
jurídicas. A CNAE-Fiscal é um instrumento de padronização nacional dos códigos de
atividade econômica utilizados pelos diversos órgãos de administração tributária no
Brasil, tanto Federal quanto Estaduais. A estrutura hierárquica pode ser visualizada
pelo Quadro seguinte:
Quadro 2: Estrutura da CNAE-Fiscal
Número
Unidades
Nível
Identificação
Seção
Primeiro
17
Código Alfabético - 1 dígito
Divisão
Segundo
59
Código Numérico - 2 dígitos
Grupo
Terceiro
216
Código Numérico - 3 dígitos(*)
Classe
Quarto
562
Código Numérico - 4 dígitos(*)
Subclasse
Quinto
1.093
Código Numérico - 7 dígitos(*)
Agrupamentos
Obs: os códigos com (*) estão integrados no nível imediatamente anterior
Fonte: SEFAZ-RS.
A partir disso, a título de exemplificação, uma determinada empresa pode
assumir a seguinte classificação em níveis hierárquicos:
Quadro 3: Exemplo de classificação de contribuinte PJ
Seção
G
Divisão
51
Grupo
514
Classe
5145-4
Subclasse
5145-4/03
COMERCIO; REPARAÇÃO DE VEÍCULOS AUTOMOTORES, OBJETOS
PESSOAIS E DOMÉSTICOS
COMÉRCIO POR ATACADO E REPRESENTANTES COMERCIAIS E AGENTES
DO COMÉRCIO
COMÉRCIO ATACADISTA DE ARTIGOS DE USOS PESSOAL E DOMÉSTICO
COMÉRCIO ATACADISTA DE PRODUTOS FARMACÊUTICOS, MÉDICOS,
ORTOPÉDICOS E ODONTOLÓGICOS
COMÉRCIO ATACADISTA DE INSTRUMENTOS E MATERIAIS MÉDICOCIRÚRGICOS HOSPITALARES E LABORATORIAIS
161
Para o estabelecimento de um MLGH, pode-se utilizar qualquer um dos níveis
do Quadro 2 para a estruturação das unidades de nível 2. Ocorre que a divisão em
seções provavelmente agruparia indivíduos bastante diferentes em uma mesma
unidade. Por outro lado, a divisão em subclasses reduziria drasticamente o tamanho
de amostra intra-unidades. Ambos os casos prejudicariam um estudo deste escopo
e, nesse contexto, o meio termo talvez seja a melhor alternativa e a estruturação do
nível 2 em níveis intermediários (divisões, grupos, ou classes) pode proporcionar
resultados distintos, não obstante identicamente interessantes. Seguindo essa
orientação, o modelo nulo apresentado na próxima subseção considera um modelo
hierárquico em dois níveis, com o nível 2 estruturado de acordo com os grupos
CNAE-Fiscal.
6.3.2 O MLGH1 nulo
O primeiro modelo nulo tem por objetivo avaliar a existência de variabilidade
exclusivamente devida aos grupos, em relação às suas quantidades percentuais
médias de empresas possuindo a característica de interesse: "apresenta indício de
infração à legislação fiscal".
Nível 1:
ηij = β 0 j
(6.1)
Nível 2:
β 0 j = γ 00 + u 0 j
(6.2)
Onde, para os níveis 1 e 2,
ηij : log-odds ou logito de presença de indício de infração fiscal;
β 0 j : log-odds médio de presença de indício de infração fiscal para o grupo j;
γ 00 : log-odds médio de presença de indício de infração fiscal ao longo dos grupos;
u 0 j : efeito aleatório associado ao grupo j;
τ 00 : variância entre os grupos, em termos de seus log-odds médios de presença de
indício de infração fiscal;
suposições do modelo: u 0 j ∼N(0, τ 00 ) e u 0 j 's independentes.
O ajuste do modelo em (6.1) e (6.2) fornece as estimativas da Tabela 3:
162
Tabela 3: Estimativas unit-specific para o MLGH1
Parâmetro
γ 00
τ 00
Estimativa
Erro Padrão
Estatística
Graus de
Liberdade
Nível Descritivo
-2,439695
0,071020
-34,35a
215
< 0,001
6122,25b
215
< 0,001
0,922650
a: a estatística do teste segue a distribuição t de student.
b: a estatística do teste segue a distribuição χ2.
Os níveis descritivos da Tabela 3, com base em testes de hipótese contando com
estatísticas dadas em (4.62) e (4.68), demonstram que a hipótese nula é altamente
implausível, indicando que há variabilidade significativa entre os grupos no que se
refere aos seus log-odds médios de presença de indício de infração fiscal. Com isso,
confirma-se o exposto na primeira hipótese de pesquisa, de que há que se
considerar a efetiva existência de correlação de medidas intragrupos em estudos
enfocando a classificação de empresas para fins de fiscalização tributária no Brasil.
A estimativa population-average para o efeito fixo
γ 00 segue na tabela 4.
Tabela 4: Estimativa population-average para o MLGH1
Parâmetro
Estimativa
Erro Padrão
Estatística
γ 00
Graus de
Liberdade
Nível
Descritivo
-2,146207
0,070114
-30,61a
215
< 0,001
a: a estatística do teste segue a distribuição t de student.
A transformação do log-odds da Tabela 3 em probabilidades, por meio da função
de resposta em (3.39), fornece uma probabilidade média de presença de indício de
infração para o grupo típico (estimativa unit-specific) de 8,02%, enquanto que a
probabilidade média para toda a população (population-average) obtida pela Tabela
4 é maior, equivalendo a 10,47%. Essa diferença entre as duas estatísticas ratifica
que há variabilidade exclusivamente devida aos grupos, considerando-se o modelo
para variável resposta binária em (6.1) e (6.2). Por outro lado, se
τ 00 equivalesse à
zero, essas estatísticas seriam idênticas.
Com isso, o próximo passo em modelagem hierárquica é avaliar a magnitude da
variabilidade de nível 2. Entretanto, como já mencionado na seção 3.4, isso não é
trivial em MLGH, pois o CCIC já não tem significado único aqui. Raudenbush e Bryk
(2002) recomendam a análise da diferença entre as estimativas unit-specific e
population-average como uma alternativa para essa avaliação. Contudo, na prática
163
esse procedimento está sujeito a certas restrições, não se aplicando a todos os
casos, já que os mesmos autores informam que:
Em geral, em aplicações em que as probabilidades do evento não são nem
raras e nem muito comuns, ou seja, 0,80 >
specific
e
population-average
especialmente se
τ 00
φ ij
produzirão
> 0,20, os modelos unitresultados
similares,
é pequeno.
Isso mesmo em havendo variabilidade significativa devida ao nível 2. No caso do
MLGH1, viu-se que as duas estimativas são bastante distintas, o que pressupõe
uma variabilidade de grande magnitude, porém como a característica de interesse
do MLGH2 apresenta probabilidade de ocorrência de cerca de 66%, e suas
estimativas unit-specific e population-average tenderão a ser bem parecidas, não
obstante a existência de variabilidade de nível 2, seria aconselhável a utilização de
um procedimento mais geral neste trabalho.
Goldstein (2003) propõe quatro procedimentos mais formais para essa análise.
São eles:
a) método da linearização,
b) método de simulação,
c) método do modelo linear binário,
d) abordagem da variável latente.
Todos procuram estimar um CCIC para o MLGH e são considerados processos
aproximados, em virtude da existência de uma função de resposta não linear em
MLGH. Em uma comparação prática entre eles, Goldstein (2003, p.110) afirma que
"Existe, como esperado, similaridade de resultados para os métodos "a", "b" e "c",
sendo que o fornecido por "d" é moderadamente maior". Dos quatro, o mais direto e
simples é o método do modelo linear binário, que consiste apenas em ajustar um
MLH com variável resposta binária, porém assumindo-a linear, e contando com
função de ligação identidade,
ηij = E (Yij ) = µ ij . Ele é aceitável nos casos em que a
probabilidade associada à ocorrência do parâmetro de interesse não é muito
próxima nem de zero e nem de um. Como essa é a situação desta pesquisa, e este
método parece ser tão mais eficiente quanto os outros, ele é aplicado aqui para
obtenção de um CCIC aproximado. Assim, o ajuste de um MLH com a mesma
variável resposta binária utilizada no modelo expresso por (6.1) e (6.2) produz as
seguintes estimativas de componentes de variância:
164
Tabela 5: Estimativas MLHG1 (modelo linear binário)
Parâmetro
τ 00
σ2
Estimativa
Nível Descritivo
0,006760
< 0,001
0,053200
Com os resultados da Tabela 5 obtém-se uma estimativa única para a variabilidade
ao nível 1,
σ 2 , e isso permite o cálculo aproximado de um CCIC para o MLGH1
denotado por (6.1) e (6.2), qual seja:
ρ1 =
τ 00
0,00676
=
= 0,1127
2
0,00676 + 0,05320
τ 00 + σ
(6.3)
Isso permite concluir que aproximadamente 11,27% da variabilidade total da
resposta, ou seja, probabilidade do contribuinte apresentar indício de infração fiscal,
é devida exclusivamente ao nível 2, grupos praticando distintas atividades
econômicas.
6.3.3 O MLGH2 nulo
Um outro MLGH nulo pode ser ajustado para as condições proporcionadas por
BD2. Nível 1:
ηij = β 0 j
(6.4)
Nível 2:
β 0 j = γ 00 + u 0 j
(6.5)
Onde, para os níveis 1 e 2,
ηij : log-odds ou logito de presença de infração fiscal;
β 0 j : log-odds médio de presença de infratores para o grupo j;
γ 00 : log-odds médio de presença de infratores ao longo dos grupos;
u 0 j : efeito aleatório associado ao grupo j,
τ 00 : variância entre os grupos, em termos de seus log-odds médios de presença de
infratores;
suposições do modelo:
u 0 j ∼N(0, τ 00 ) e u 0 j 's independentes.
165
O ajuste do modelo em (6.4) e (6.5) fornece as seguintes estimativas:
Tabela 6: Estimativas unit-specific para o MLGH2
Parâmetro
γ 00
τ 00
Estimativa
Erro Padrão
Estatística
Graus de
Liberdade
Nível Descritivo
0,621486
0,037229
16,69a
201
< 0,001
496,96b
201
< 0,001
0,114860
a: a estatística do teste segue a distribuição t de student.
b: a estatística do teste segue a distribuição χ2.
A partir da Tabela 6, observa-se que a hipótese nula em relação ao componente
de variância é altamente implausível, indicando que há variabilidade significativa
entre os grupos no que se refere aos seus log-odds médios de presença de
contribuintes infratores. A estimativa population-average segue na Tabela 7:
Tabela 7: Estimativa population-average para o MLGH2
Parâmetro
Estimativa
Erro Padrão
Estatística
γ 00
Graus de
Liberdade
Nível
Descritivo
0,612763
0,037108
16,51a
201
0,001
a: a estatística do teste segue a distribuição t de student.
No caso do MLGH2, a conversão dos efeitos fixos em probabilidades, por meio
de (3.39), fornece uma probabilidade média de presença de infratores para o grupo
típico de 65,05%, enquanto que a probabilidade média para toda a população
(population-average) obtida pela Tabela 7 equivale a 64,86%. Não obstante ser
pequena, essa diferença ratifica que há variabilidade na resposta exclusivamente
devida aos grupos.
Por fim, para completar a análise do MLGH2, deve-se avaliar a porção da
variabilidade devida aos grupos, e utiliza-se o mesmo procedimento aproximado já
descrito, com resultados demonstrados na Tabela 8.
Tabela 8: Estimativas MLGH2 (modelo linear binário)
Parâmetro
τ 00
σ2
Estimativa
Nível Descritivo
0,006180
0,001
0,218930
O cálculo aproximado de um CCIC para o MLGH2 denotado por (6.4) e (6.5)
fornece:
166
ρ2 =
τ 00
0,00618
=
= 0,02745
2
0,00618 + 0,21893
τ 00 + σ
(6.6)
Isso permite concluir que, de forma aproximada, 2,74% da variabilidade total da
resposta, ou seja, probabilidade do contribuinte ser infrator, deve-se exclusivamente
ao nível 2.
6.4 Conclusão
Neste capítulo foram apresentadas as características principais das bases de
dados de trabalho utilizadas nesta pesquisa e foram descritos os passos de préprocessamento que subsidiaram as diretrizes de transformação aplicadas às
variáveis.
Em relação à primeira hipótese de pesquisa do capítulo introdutório, qual seja, a
de que estudos deste escopo devem considerar e avaliar a correlação de medidas
existente entre contribuintes que se dedicam às mesmas atividades econômicas, foi
visto na seção anterior que, de fato, existe variabilidade na resposta exclusivamente
devida a grupos praticando distintas atividades econômicas - aproximadamente
11,27% do total no caso de probabilidade de indício de infração e 2,74% do total no
caso de probabilidade de infração propriamente dita - e isso deve ser incorporado às
modelagens visando a classificação de contribuintes, de forma a produzir estimativas
e inferências mais precisas e realistas. Com isso, confirma-se definitivamente a
primeira hipótese de pesquisa.
Por fim, deve-se ressaltar que foram apresentadas neste capítulo estimativas
obtidas a partir do software HLM, versão 5.0. As unit-specific estimadas por meio do
processo PQL ilustrado pela subseção 4.6.2, o qual envolveu um procedimento de
MV para a estimação de γ e de T por meio do apresentado na subseção 4.5.4; as
population-average sendo obtidas segundo o discutido na subseção 4.6.3.
No capítulo 7 são estimados os modelos condicionais de níveis 1 e 2
aproveitando-se
dos
subsídios
executadas neste capítulo.
proporcionados
pelas
análises
exploratórias
167
7 ESTIMAÇÃO E APLICAÇÃO DE MODELOS À CLASSIFICAÇÃO DE
CONTRIBUINTES PARA FISCALIZAÇÃO
7.1 Extração de amostras de validação
O objetivo deste trabalho é classificar contribuintes pessoas jurídicas a partir da
previsão de seus comportamentos tributários e, adicionalmente, levando-se em
consideração as atividades econômicas por eles praticadas. Ocorre que para avaliar
a eventual classificação efetuada, é preciso que sejam extraídas amostras
específicas para o processo de validação. Quanto ao tamanho das amostras, seu
dimensionamento deve ser efetuado à luz da teoria da amostragem e de outros
conceitos importantes em termos da avaliação da capacidade preditiva de modelos
estatísticos: a especificidade e a sensitividade. Por sensitividade, entenda-se a
probabilidade condicional do modelo classificar um registro ou indivíduo como
positivo, em relação à característica de interesse, dado que de fato apresenta-se tal
característica. Já a especificidade acusa a probabilidade condicional do modelo
classificar um registro como negativo, dado que, na verdade, não se apresenta a
característica de interesse (AGRESTI, 2002).
Rememorando, no caso específico desta pesquisa há duas características de
interesse distintas, quais sejam, presença de indício de infração fiscal em relação às
informações do contribuinte (MLGH1) e presença (ocorrência) de infração por parte
do contribuinte (MLGH2).
Tanto a sensitividade quanto a especificidade podem, então, ser abstraídas como
duas proporções populacionais a serem estimadas com base em amostras de
validação extraídas a partir da divisão da população em dois estratos demarcando
os elementos que possuem e os que não possuem a característica de interesse.
No caso da BD1 (164.466 contribuintes, 9.757 apresentando a característica de
interesse) foram extraídas duas amostras. A primeira, contendo 370 contribuintes,
objetiva estimar a sensitividade do modelo e a segunda, visando avaliar a
especificidade, conta com 5.864 contribuintes.
Em relação à BD2 (12.227 contribuintes, 8.073 apresentando a característica de
interesse) foi extraída uma amostra com 385 contribuintes para estimar a
especificidade e outra com 751 para fins de sensitividade.
168
Todo esse processo de dimensionamento das amostras pode ser acompanhado
pelo Apêndice I.
7.2 Variáveis candidatas aos modelos
Para um completo entendimento dos resultados a serem apresentados neste
capítulo, é necessário que a aplicação das diretrizes de transformação, detalhadas
na seção 6.2, resulte em codificações de variáveis que permitam a pronta
identificação da diretriz aplicada a cada uma delas.
Assim, por convenção, denota-se a aplicação da diretriz “1” em I04 por LI04A. A
aplicação da segunda diretriz em I05 é denotada por uma variável codificada como
LI05B e outra LI05NEG. Já a aplicação da diretriz “3” em I29 resulta em duas
variáveis binárias, I29NEG e I29POS. Este padrão de codificação é o utilizado para
todos os índices econômico-fiscais, segundo o atribuído a cada um deles pela tabela
do Apêndice F.
Além disso, acrescente-se entre as candidatas de nível 1 (contribuintes PJ) as
quatro primeiras componentes principais referentes aos valores contábeis brutos,
relacionadas no Apêndice H, sendo estas denotadas por ZPC1, ZPC2, ZPC3 e
ZPC4.
Quanto às candidatas ao nível 2 (grupos de atividade econômicas CNAE-Fiscal),
a primeira aqui considerada representa uma agregação geral para a natureza
principal da atividade praticada pelos distintos grupos CNAE-Fiscal, sendo
parametrizada como uma variável categorizada com 4 classes possíveis,
representada por três variáveis indicadoras, sendo o setor agregado de serviços a
referência. A codificação das indicadoras pode ser visualizada pelo quadro a seguir.
Quadro 4: Natureza da Atividade Agregada
Variável Indicadora
agropecagr
indagr
comagr
Descrição da Natureza da Atividade Agregada
agricultura, pecuária, silvicultura e exploração florestal
agregadas
indústria agregada
comércio agregado
Valores
zero ou um
zero ou um
zero ou um
Importa dizer que como esta última variável é eminentemente estática no tempo,
será utilizada no modelo com objetivo descritivo instantâneo (ano de 1999), e não
169
para futura classificação de contribuintes, haja vista que neste último caso estar-seia acolhendo um determinismo setorial econômico não garantido ao longo do tempo.
Outra variável considerada é a ausência ou presença de exposição à economia
informal. É natural que algumas atividades econômicas estejam mais expostas à
informalidade que outras, e, para avaliar este efeito nas respostas esperadas para
os modelos, utilizou-se como fonte de informação a pesquisa realizada pelo IBGE
sobre o assunto, qual seja, a pesquisa Economia Informal Urbana, de 1997. O IBGE
detectou a seguinte distribuição percentual das atividades informais (Tabela 9):
Tabela 9: Distribuição percentual das atividades informais
Atividade Econômica
Comércio de mercadorias
Serviços de reparação, pessoais, domiciliares e de diversões
Indústrias da construção
Indústrias de transformação e extrativa mineral
Serviços técnicos e auxiliares
Serviços de alojamento e alimentação
Serviços de transporte
Outros serviços
Sem declaração
Total
Fonte: IBGE (1997).
Número de
Empresas
Participação %
2.509.623
1.898.044
1.481.096
1.136.492
1.079.826
799.824
639.187
32.518
4.232
9.580.840
26,19
19,81
15,45
11,86
11,27
8,35
6,67
0,34
0,04
100,00
A partir da Tabela 9, observa-se que o comércio de mercadorias responde por
26,19% das empresas informais, participação que vai decaindo sucessivamente,
passando por diversas outras atividades, até os serviços de transporte, com
participação de 6,67%. Com isso, todas as atividades compreendidas neste intervalo
de participação relevante que vai de 6,67% a 26,19% são aqui consideradas como
expostas à informalidade, e pode-se, assim, definir uma variável binária codificada
por “inform”, assumindo valores 1 (um) e 0 (zero), respectivamente para o caso de
exposição e de não exposição do grupo CNAE-Fiscal à informalidade.
Quanto à situação de crescimento ou retração anual das atividades econômicas
praticadas pelos diversos setores econômicos brasileiros, a Tabela 10 apresenta as
taxas acumuladas de variação percentual do PIB para os anos de 1998 e 1999.
170
Tabela 10: Variação percentual do PIB (1998 e 1999)
Variação Percentual do PIB
Subsetor
1998
AGROPECUÁRIA
Lavouras
-0,23
Extrativa Vegetal
-7,27
Produção Animal
3,86
INDÚSTRIA
Extrativa Mineral
9,04
Transformação
-3,29
Construção
1,70
SIUP
4,16
SERVIÇOS
Comércio
-3,39
Transporte
7,18
Comunicações
6,38
Instituições Financeiras
0,15
Outros Serviços
-1,10
Aluguel de Imóveis
2,10
Administração Pública
1,28
Onde SIUP: Serviços Industriais de Utilidade Pública.
Fonte: IBGE (1998) e IBGE (1999).
1999
11,26
1,45
5,73
0,85
-1,25
-3,61
1,97
0,50
-0,13
8,64
0,82
-0,34
1,95
0,67
Com o subsídio da Tabela 10, é possível construir duas variáveis numéricas
contínuas codificadas por VarPerc98 e VarPerc99 que sintetizam a variação
percentual anual acumulada para o PIB dos diversos grupos CNAE-Fiscal.
Também podem ser consideradas no estudo as exportações. Para 1999, o
índice de rentabilidade dos setores exportadores de produtos brasileiros está
apresentado na Tabela 11.
Tabela 11: Índice de Rentabilidade dos Setores Exportadores em 1999
(continua)
Subsetor
Número Índice
Subsetor
Número Índice
Agropecuário
97,3
Borracha
122,5
Extrativo Mineral
126,8
Elementos Químicos
120,7
Minerais não Metálicos
123,3
Refino Petróleo e Petroquímicos
113,0
Siderurgia
107,3
Químicos Diversos
124,5
Metalurgia de Não Ferrosos
117,8
Têxtil
120,3
Outros Produtos Metalúrgicos
135,5
Calçados Couros e Peles
109,3
Máquinas e Tratores
128,0
Café
88,6
Material Elétrico
140,2
Beneficiamento de Vegetais
137,6
Equip. Eletrônicos
104,3
Abate Animais
105,4
171
Tabela 11: Índice de Rentabilidade dos Setores Exportadores em 1999
(continuação)
Subsetor
Número Índice
Subsetor
Número Índice
Veículos Automotores
129,1
Açúcar
70,0
Peças e outros Veículos
146,0
Óleos Vegetais
105,7
Madeira e Mobiliário
119,6
Outros Produtos Alimentares
123,8
Celulose, Papel e Gráfica
115,7
Indústrias Diversas
124,4
Fonte: FUNCEX, a partir de dados da SECEX, no âmbito do convênio IPEA/FUNCEX.
Com isso pode-se codificar uma variável binária denominada de ”export”, que
assume valores 0 (zero) ou 1 (um), este no caso do grupo CNAE-Fiscal estar contido
em um dos subsetores relacionados na Tabela 11.
Finalmente, foram também incluídas informações proporcionadas pelos dez
valores contábeis brutos relacionados na seção 6.1. As variáveis de nível 2
candidatas aos modelos são formadas pelas médias do valor contábil bruto para
cada grupo CNAE-Fiscal e sua posterior padronização, sendo codificadas por
ZLOPER, ZLBRUTO, ZRECLIQ, ZLREAL, ZLACSLL, ZBCCSLL, ZRBPISP,
ZBCPISP, ZRBCOF, ZBCCOF.
7.3 Processo para seleção de variáveis de níveis 1 e 2
Para as variáveis de nível 1, o procedimento adotado foi o da inclusão uma a
uma das variáveis no modelo (método stepwise forward), em diversas rodadas.
Devido ao grande número de observações de nível 1, (158.232 = 164.466 - 5.864 370) e (11.091 = 12.227 - 751 - 385) para o MLGH1 e o MLGH2 respectivamente, as
variáveis foram avaliadas tomando-se por base o quanto a sua inclusão no modelo
explica a variabilidade total devida aos contribuintes, e isso se deu pelo teste para
efeito fixo, o general linear hypothesis test (GLHT), com estatística χ2 dada por
(4.65). Para as variáveis qualitativas possuindo mais de uma categoria estudou-se
também a diferença entre elas em termos das respostas esperadas para os
modelos.
Na prática esse processo busca avaliar as variáveis candidatas, com base no
GLHT, considerando-as isoladamente no modelo. Ao final da primeira rodada formase um modelo provisório inicial incluindo as de melhor desempenho no GLHT. Em
uma segunda rodada, testam-se individualmente novas variáveis candidatas, mas
desta feita no modelo provisório inicial, e, ao final da segunda rodada, incluem-se
172
novamente as de melhor desempenho, formando-se, então, um segundo modelo
provisório. As rodadas se sucedem até que se convirja para um modelo considerado
final em que não há mais variáveis candidatas, mas sim incluídas ou descartadas do
modelo. Nesse processo há que se cuidar também pela análise da estabilidade
(desejável) dos sinais dos coeficientes de regressão a cada novo ingresso de
variáveis. Saliente-se que como critério de trabalho utilizou-se a inclusão de até
cinco variáveis ao final de cada rodada.
É preciso registrar que nem sempre as variáveis que eventualmente mais
contribuam para a explicação da resposta em termos isolados formam bons modelos
em conjunto, provavelmente em virtude de correlações entre variáveis e também da
questão de estabilidade de estimativas. Um exemplo disso pode ser visualizado pelo
Apêndice K, relativo ao MLGH2, em que se observa que na primeira rodada as
quatro variáveis que mais contribuem individualmente para o modelo são LI24A,
LI01B, LI32B e LI05B. Contudo, o primeiro modelo de nível 1 provisório, denotado
aqui por MLGH2_1, na prática pôde contar com LI24A, LI30A, LI02A e ZPC1 - pois
LI24A anula o efeito de LI01B, LI24A e LI32B anulam LI05B, e LI30A anula o efeito
de LI32B - que então lograram formar um primeiro modelo provisório contando com
quatro variáveis significativas em conjunto.
Já no caso das variáveis de nível 2 (grupos CNAE-Fiscal), o processo requisita o
mesmo procedimento stepwise forward, mas partindo-se de um modelo de nível 1 já
especificado. Ressalte-se que como o número de grupos (216) é bem menor do que
o de contribuintes (158.232) utilizou-se também o teste t para verificar a significância
estatística em relação à inclusão de cada uma das variáveis no modelo.
Finalmente, é preciso que se registre que esse processo de seleção de variáveis,
na verdade, é um dos que se demonstra factível, já que, de posse das 50 variáveis
disponíveis para os níveis 1 e 2, o número de possíveis MLGH eleva-se a incríveis
250 = 1,1259 x 1015 modelos, e a estimação e avaliação de todo esse conjunto de
possibilidades, em termos de suas possíveis previsões, está claramente fora do
escopo desta pesquisa.
7.4 Estimativas e métricas de trabalho
Em se tratando de executar previsões futuras individuais (predições), a partir de
informações relativas a observações não participantes da amostra de estimação,
173
Afshartous e de Leeuw (2003) demonstraram que em MLH a utilização da regra de
*
predição a partir da utilização do vetor ótimo de estimativas empíricas de Bayes, β j ,
conforme formalizado em (4.36), é a de melhor desempenho em termos do Erro
Quadrático Médio Preditivo, suplantando as predições obtidas a partir dos vetores de
estimativas para β j explicitados em (4.34) e (4.35), respectivamente a estimativa de
MQO e a estimativa utilizando-se do vetor γ estimado por MQG. O estudo
considerou 300 possíveis combinações envolvendo diversos tamanhos de amostra
(n), número de unidades de nível 2 (J), e mais 12 diferentes combinações de
parâmetros populacionais
τ11, τ00, τ01
ρ. Portanto, todas as estimativas
e
apresentadas nas próximas seções são unit-specific, haja vista serem estas as
*
requisitadas para a obtenção do vetor ótimo β j .
Além disso, as estimativas foram obtidas a partir do processo PQL ilustrado pela
subseção 4.6.2, o qual envolveu um procedimento de MV para a estimação de γ e
de T por meio do apresentado na subseção 4.5.4; e da estimação empírica de
Bayes para o vetor de coeficientes β j seguindo o discutido na subseção 4.5.3.
Em relação à opção alternativa de estimação por PQL restrito, ou seja, obtendose estimações de MVR para T durante o processo descrito na subseção 4.6.2 e,
posteriormente, estimando-se γ por MQG de acordo com a subseção 4.5.2, esta
não causa maiores impactos nas estimativas de variância/covariância dos modelos.
Foi verificado que os componentes da matriz T estimados pelos dois processos
(PQL e PQL restrito) só diferem a partir da terceira casa decimal para ambos os
modelos (ver Tabela 12), isso provavelmente devendo-se ao fato de haver um J
suficientemente grande para que as estimativas de MV e de MVR sejam bastante
aproximadas.
Tabela 12: Estimação do componente variância para modelos nulos
τ 00
PQL
PQL restrito
J
MLGH1 nulo
0,92131
0,92719
216
MLGH2 nulo
0,10465
0,10608
202
Onde: τ 00 estimado a partir das amostras de estimação.
174
Por fim, cabe ainda registrar que as estimativas foram obtidas a partir da
utilização das variáveis em sua métrica natural, já que todas as variáveis podem em
teoria assumir, como de fato se verifica, valores iguais a zero.
7.5 O MLGH1
O Apêndice J apresenta detalhadamente todas as estatísticas e níveis descritivos
para cada uma das rodadas de níveis 1 e 2 do MLGH1. Para o nível 1 foram
executadas três rodadas de estimativas pelo processo stepwise forward (Tabelas 33,
34 e 35), em que entraram no modelo, respectivamente, LI14B, LI27B, LI18B,
I29POS e I31POS na primeira; I11POS, LI08B, LI22A e LI04A na segunda; e LI06A,
LI01B, LI32B, LI30B e ZPC1 na terceira. Em relação ao modelo final de nível 1
(MLGH1_1), testes de coeficientes aleatórios individuais não rejeitaram a hipótese
nula para todos os coeficientes de nível 1, que são, portanto, modelados como fixos,
à exceção do intercepto aleatório. É importante registrar o valor do componente de
^
variância estimado para o MLGH1_1,
τ 00 = 0,25608, já que ele é utilizado no cálculo
do percentual da variabilidade total da resposta explicado pelas variáveis de nível 2.
Com a inclusão de variáveis de nível 2 ao MLGH1_1, em uma primeira rodada
considerando-as
individualmente
(Tabela
36),
observa-se
que
todas
são
significativas, à exceção de ZBCCOF, ZBCPISP, ZLREAL e inform. A variável mais
relevante em termos de explicação da variabilidade de nível 2 é ZLOPER.
Em
relação à natureza da atividade agregada, o coeficiente para comagr não é
significativo, e por meio de um GLHT verifica-se que seu coeficiente não possui
efeito significativamente distinto da referência em termos de parametrização, o setor
de serviços agregado, e com isso pode ser retirado do modelo. Como já
mencionado, a natureza da atividade agregada será considerada no modelo de
forma individual e com fito interpretativo.
Sintetizando o processo de seleção de nível 2,
em uma primeira rodada
ingressaram no modelo ZLOPER, export e VrPerc99. Em uma segunda rodada
(Tabela 37) apenas ZLBRUTO ingressou no modelo.
Com esses resultados, um primeiro modelo (MLGH1_NAG), de cunho
exclusivamente interpretativo, envolvendo a Natureza da Atividade Agregada é
formalizado a seguir.
MLGH1_NAG (Nível 1):
175
η ij = β 0 j + β1 j ⋅ LI08Bij + β 2 j ⋅ LI04Aij +
β 3 j ⋅ I11POSij + β 4 j ⋅ LI14Bij + β 5 j ⋅ LI06Aij +
β 6 j ⋅ LI22Aij + β 7 j ⋅ LI27Bij + β 8 j ⋅ LI32Bij +
(7.1)
β 9 j ⋅ I31POSij + β10 j ⋅ LI30Bij + β11 j ⋅ I29POSij +
β12 j ⋅ LI01Bij + β13 j ⋅ LI18Bij + β14 j ⋅ ZPC1ij
MLGH1_NAG (Nível 2):
β 0 j = γ 00 + γ 01 ⋅ agropecagr j + γ 02 ⋅ indagr j + u0 j ,
(7.2)
β pj = γ p 0
(7.3)
p = 1,..., 14,
onde, para os níveis 1 e 2, tem-se que
η ij : log-odds ou logito de presença de indício de infração fiscal para o i-ésimo
contribuinte do grupo j;
β 0 j : log-odds de presença de indício de infração fiscal esperado para um
contribuinte do grupo j apresentando valor zero para todas as covariáveis de nível 1;
β pj : mudança esperada no log-odds de presença de indício de infração fiscal, dado
um incremento unitário na p-ésima covariável de nível 1, ceteris paribus;
γ 00 : valor esperado de β 0 j (intercepto) para os grupos pertencentes aos setores de
comércio e serviços agregados;
γ 01 : diferença entre os valores esperados dos β 0 j (interceptos) de grupos
agropecuários, silvicultores e florestais agregados e de comércio e serviços
agregados;
γ 02 : diferença entre os valores esperados dos β 0 j (interceptos) de grupos
industriais e de comércio e serviços agregados;
u 0 j : efeito aleatório associado ao grupo j;
τ 00 : variância dos interceptos β 0 j entre os grupos, corrigida por agropecagr j e
indagr j ;
suposições do modelo: u 0 j ∼N(0, τ 00 ).
176
Seus resultados vão sintetizados à Tabela 13:
Tabela 13: Estimativas para MLGH1_NAG
Parâmetro
Estimativa
Erro Padrão
Nível Descritivo
γ 00
-4,258985
0,072385
< 0,001
0,777933
0,196132
0,005
0,225233
0,087948
0,011
-0,179479
0,009783
< 0,001
0,038673
0,003669
< 0,001
0,554598
0,037126
< 0,001
0,003833
< 0,001
0,114429
0,007970
< 0,001
0,064861
0,004700
< 0,001
0,182511
0,009364
< 0,001
0,044102
0,011352
< 0,001
0,354226
0,060144
< 0,001
0,037218
0,005479
< 0,001
0,411224
0,053336
< 0,001
0,065650
0,010414
< 0,001
0,072937
0,008407
< 0,001
0,112357
0,007981
< 0,001
γ 01 (agropecagr)
γ 02 (indagr)
β1 j = γ 10
β 2 j = γ 20
β 3 j = γ 30
β 4 j = γ 40
β 5 j = γ 50
β 6 j = γ 60
β 7 j = γ 70
β 8 j = γ 80
β 9 j = γ 90
β10 j = γ 100
β11 j = γ 110
β12 j = γ 120
β13 j = γ 130
β14 j = γ 140
τ 00
0,093797
0,221300
< 0,001
A partir do MLGH1_NAG, da variabilidade total da resposta devida aos grupos
praticando distintas atividades econômicas (nível 2) conseguiu-se explicar 13,58%.
Já o MLGH1 final ajustado para fins de previsões é o que se segue.
MLGH1_Final (Nível 1):
η ij = β 0 j + β1 j ⋅ LI08Bij + β 2 j ⋅ LI04Aij +
β 3 j ⋅ I11POSij + β 4 j ⋅ LI14Bij + β 5 j ⋅ LI06Aij +
β 6 j ⋅ LI22Aij + β 7 j ⋅ LI27Bij + β 8 j ⋅ LI32Bij +
β 9 j ⋅ I31POSij + β10 j ⋅ LI30Bij + β11 j ⋅ I29POSij +
β12 j ⋅ LI01Bij + β13 j ⋅ LI18Bij + β14 j ⋅ ZPC1ij
MLGH1_Final (Nível 2):
(7.4)
177
β 0 j = γ 00 + γ 01 ⋅ VrPerc 99 j + γ 02 ⋅ ZLOPER j +
(7.5)
γ 03 ⋅ ZLBRUTO j + γ 04 ⋅ export j + u0 j ,
β pj = γ p 0
(7.6)
p = 1,..., 14,
onde, para os níveis 1 e 2, tem-se que
ηij : log-odds ou logito de presença de indício de infração fiscal para o i-ésimo
contribuinte do grupo j;
β 0 j : log-odds de presença de indício de infração fiscal esperado para um
contribuinte do grupo j apresentando valor zero para todas as covariáveis de nível 1;
β pj : mudança esperada no log-odds de presença de indício de infração fiscal, dado
um incremento unitário na p-ésima covariável de nível 1, ceteris paribus;
γ 00 : valor esperado de β 0 j (intercepto) para um grupo j contando com
VrPerc99 j = ZLOPER j = ZLBRUTO j = export j = 0 ;
γ 01 : diferença esperada no valor de β 0 j (intercepto) para um incremento unitário em
VrPerc 99 j , ceteris paribus;
γ 02 : diferença esperada no valor de β 0 j (intercepto) para um incremento unitário em
ZLOPER j , ceteris paribus;
γ 03 : diferença esperada no valor de β 0 j (intercepto) para um incremento unitário em
ZLBRUTO j , ceteris paribus;
γ 04 : diferença entre os valores esperados dos β 0 j (interceptos) de grupos
exportadores e não exportadores, ceteris paribus;
u 0 j : efeito aleatório associado ao grupo j;
τ 00 :
variância
dos
interceptos
β0 j
entre
os
grupos,
corrigida
VrPerc 99 j , ZLOPER j , ZLBRUTO j e export j ;
suposições do modelo: u 0 j ∼N(0, τ 00 ).
As estatísticas e níveis descritivos para esse modelo são os da Tabela 14:
por
178
Tabela 14: Estimativas para MLGH1_Final
Parâmetro
Estimativa
Erro Padrão
Nível Descritivo
γ 00
-4,201268
0,063845
< 0,001
0,047645
0,016465
0,004
-0,186396
0,048750
< 0,001
0,150221
0,049417
0,003
0,264737
0,080968
0,002
-0,178834
0,009781
< 0,001
0,038676
0,003669
< 0,001
0,555700
0,037133
< 0,001
0,093802
0,003833
< 0,001
0,114460
0,007970
< 0,001
0,065231
0,004702
< 0,001
0,181552
0,009368
< 0,001
0,044039
0,011334
< 0,001
0,357704
0,060140
< 0,001
0,036993
0,005477
< 0,001
0,413305
0,053327
< 0,001
0,065872
0,010411
< 0,001
0,073116
0,008407
< 0,001
0,109848
0,008070
< 0,001
γ 01 (Vrperc99)
γ 02 (ZLOPER)
γ 03 (ZLBRUTO)
γ 04 (export)
β1 j = γ 10
β 2 j = γ 20
β 3 j = γ 30
β 4 j = γ 40
β 5 j = γ 50
β 6 j = γ 60
β 7 j = γ 70
β 8 j = γ 80
β 9 j = γ 90
β10 j = γ 100
β11 j = γ 110
β12 j = γ 120
β13 j = γ 130
β14 j = γ 140
τ 00
0,201230
< 0,001
A partir do MLGH1_Final, da variabilidade total da resposta devida aos grupos
praticando distintas atividades econômicas (nível 2) conseguiu-se explicar 21,42%.
7.6 O MLGH2
O Apêndice K apresenta detalhadamente todas as estatísticas e níveis
descritivos obtidos para cada uma das rodadas de níveis 1 e 2 do MLGH2.
Para o nível 1 foram executadas cinco rodadas de estimativas pelo processo
stepwise forward (Tabelas 38, 39, 40, 41 e 42), em que entraram no modelo,
respectivamente, LI02A, LI24A, LI30A e ZPC1 na primeira; LI04A, LI22A e LI26B na
segunda; LI10A e LI13B na terceira; LI05A e ZPC2 na quarta; e LI31A, LI25A e
LI11A na quinta. Em relação ao modelo final de nível 1 (MLGH2_1), testes de
179
coeficientes aleatórios individuais não rejeitaram a hipótese nula para todos os
coeficientes de nível1, à exceção do intercepto aleatório. Já o componente de
variância estimado para o MLGH2_1 foi de 0,03887.
Com a inclusão de variáveis de nível 2 ao MLGH2_1, segundo o apresentado na
Tabela 43, observa-se que as variáveis relevantes em termos de explicação da
variabilidade de nível 2 são VrPerc99, export e a natureza da atividade agregada.
Em relação a esta última, por meio de um GLHT verifica-se que o coeficiente para
comagr não possui efeito significativamente distinto da referência em termos de
parametrização, o setor de serviços agregado, e com isso pode ser retirado do
modelo. Em uma segunda rodada relativa ao nível 2 não houve ingresso de
variáveis. Por fim, na fase de redução de variáveis, LI31A foi retirado dos modelos
MLGH2 por perda de significância.
Com isso o primeiro modelo, de cunho exclusivamente interpretativo, envolvendo
a Natureza da Atividade Agregada (MLGH2_NAG) pode ser formalizado.
MLGH2_NAG (Nível 1):
η ij = β 0 j + β1 j ⋅ LI02Aij + β 2 j ⋅ LI04Aij +
β 3 j ⋅ LI10Aij + β 4 j ⋅ LI11Aij + β 5 j ⋅ LI13Bij +
β 6 j ⋅ LI05Aij + β 7 j ⋅ LI24Aij + β 8 j ⋅ LI22Aij +
(7.7)
β 9 j ⋅ LI26Bij + β10 j ⋅ LI25Aij + β11 j ⋅ LI30Aij +
β12 j ⋅ ZPC1ij + β13 j ⋅ ZPC2ij
MLGH2_NAG (Nível 2):
β 0 j = γ 00 + γ 01 ⋅ agropecagr j + γ 02 ⋅ indagr j + u0 j ,
(7.8)
β pj = γ p 0
(7.9)
p = 1,..., 13, onde, para os níveis 1 e 2, tem-se que
ηij : log-odds ou logito de presença (ocorrência) de infração fiscal para o i-ésimo
contribuinte do grupo j;
β 0 j : log-odds de presença (ocorrência) de infração fiscal esperado para um
contribuinte do grupo j apresentando valor zero para todas as covariáveis de nível 1;
β pj : mudança esperada no log-odds de presença (ocorrência) de infração fiscal,
dado um incremento unitário na p-ésima covariável de nível 1, ceteris paribus;
180
γ 00 : valor esperado de β 0 j (intercepto) para os grupos pertencentes aos setores de
comércio e serviços agregados;
γ 01 : diferença entre os valores esperados dos β 0 j (interceptos) de grupos
agropecuários, silvicultores e florestais agregados e de comércio e serviços
agregados;
γ 02 : diferença entre os valores esperados dos β 0 j (interceptos) de grupos
industriais e de comércio e serviços agregados;
u 0 j : efeito aleatório associado ao grupo j;
τ 00 : variância dos interceptos β 0 j entre os grupos, corrigida por agropecagr j e
indagr j ;
suposições do modelo: u 0 j ∼N(0, τ 00 ).
As estimativas para o modelo são as da Tabela 15.
Tabela 15: Estimativas para MLGH2_NAG
Parâmetro
Estimativa
Erro Padrão
Nível Descritivo
γ 00
0,602977
0,091643
< 0,001
-0,709302
0,136248
< 0,001
-0,150765
0,057158
0,009
-0,064246
0,014663
< 0,001
-0,046725
0,014980
0,002
0,034447
0,012501
0,006
0,031471
0,015038
0,036
-0,122959
0,026396
< 0,001
0,148317
0,033053
< 0,001
0,167816
0,025241
< 0,001
-0,029533
0,009699
0,003
-0,067432
0,021778
0,002
-0,069782
0,025502
0,007
0,015905
0,007760
0,040
0,077412
0,018593
< 0,001
-0,029637
0,013990
0,034
γ 01 (agropecagr)
γ 02 (indagr)
β1 j = γ 10
β 2 j = γ 20
β 3 j = γ 30
β 4 j = γ 40
β 5 j = γ 50
β 6 j = γ 60
β 7 j = γ 70
β 8 j = γ 80
β 9 j = γ 90
β10 j = γ 100
β11 j = γ 110
β12 j = γ 120
β13 j = γ 130
τ 00
0,020670
< 0,001
181
A partir do MLGH2_NAG, da variabilidade total da resposta devida aos grupos
praticando distintas atividades econômicas (nível 2) conseguiu-se explicar 46,82%.
Já o MLGH2_Final ajustado para fins das previsões é o que segue.
MLGH2_Final (Nível 1):
η ij = β 0 j + β1 j ⋅ LI02Aij + β 2 j ⋅ LI04Aij +
β 3 j ⋅ LI10Aij + β 4 j ⋅ LI11Aij + β 5 j ⋅ LI13Bij +
β 6 j ⋅ LI05Aij + β 7 j ⋅ LI24Aij + β 8 j ⋅ LI22Aij +
(7.10)
β 9 j ⋅ LI26Bij + β10 j ⋅ LI25Aij + β11 j ⋅ LI30Aij +
β12 j ⋅ ZPC1ij + β13 j ⋅ ZPC2ij
MLGH2_Final (Nível 2):
β 0 j = γ 00 + γ 01 ⋅ exp ort j + γ 02 ⋅ VrPerc 99 j + u 0 j ,
(7.11)
β pj = γ p 0
(7.12)
p = 1,..., 13, onde, para os níveis 1 e 2, tem-se que
ηij : log-odds ou logito de presença (ocorrência) de infração fiscal para o i-ésimo
contribuinte do grupo j;
β 0 j : log-odds de presença (ocorrência) de infração fiscal esperado para um
contribuinte do grupo j apresentando valor zero para todas as covariáveis de nível 1;
β pj : mudança esperada no log-odds de presença (ocorrência) de infração fiscal,
dado um incremento unitário na p-ésima covariável de nível 1, ceteris paribus;
γ 00 : valor esperado de β 0 j (intercepto) para um grupo j contando com
VrPerc99 j = export j = 0 ;
γ 01 : diferença entre os valores esperados dos β 0 j (interceptos) de grupos
exportadores e não exportadores, ceteris paribus;
γ 02 : diferença esperada no valor de β 0 j (intercepto) para um incremento unitário em
VrPerc 99 j , ceteris paribus;
u 0 j : efeito aleatório associado ao grupo j;
182
τ 00 : variância dos interceptos β 0 j entre os grupos, corrigida por VrPerc 99 j e
export j ;
suposições do modelo: u 0 j ∼N(0, τ 00 ).
As estatísticas e níveis descritivos para esse modelo são as da Tabela 16:
Tabela 16: Estimativas para MLGH2_Final
Parâmetro
Estimativa
Erro Padrão
Nível Descritivo
γ 00
0,546603
0,089167
< 0,001
-0,202106
0,057097
0,001
-0,038157
0,012655
0,003
-0,063924
0,014643
< 0,001
-0,049270
0,014937
0,001
0,035916
0,012475
0,004
0,031971
0,015043
0,033
-0,125664
0,026420
< 0,001
0,147289
0,033066
< 0,001
0,167257
0,025315
< 0,001
-0,029840
0,009714
0,003
-0,063283
0,021819
0,004
-0,062478
0,025307
0,014
0,018934
0,007812
0,016
0,079879
0,018748
< 0,001
-0,029927
0,013984
0,032
γ 01 ( export)
γ 02 (VrPerc99)
β1 j = γ 10
β 2 j = γ 20
β 3 j = γ 30
β 4 j = γ 40
β 5 j = γ 50
β 6 j = γ 60
β 7 j = γ 70
β 8 j = γ 80
β 9 j = γ 90
β10 j = γ 100
β11 j = γ 110
β12 j = γ 120
β13 j = γ 130
τ 00
0,024860
< 0,001
A partir do MLGH2_Final, da variabilidade total da resposta devida aos grupos
praticando distintas atividades econômicas conseguiu-se explicar 36,04%.
7.7 Programas utilizados para os processos de estimação
Todas as estimativas apresentadas nas seções 7.5 e 7.6 foram obtidas a partir do
HLM, versão 5.0, porém também é oportuno apresentar o processo de obtenção das
mesmas estimativas por meio do R Project for Statistical Computing (versão 2.0.1),
software de plataforma orientada a objeto e de concepção livre (inclusive código),
cujo acesso está disponível a partir do endereço <http://www.r-project.org/>. Os
183
comandos utilizados para estimar o modelo MLGH2_Final, assim como obter as
inferências mais importantes, estão relacionados no Apêndice L. Neste, pode ser
observado que o cerne do processo se dá pela utilização da função glmmPQL, que
fornece estimativas unit-specific, por meio de Máxima Verossimilhança, que diferem
das procedentes do HLM somente a partir da terceira casa decimal para efeitos fixos
e componente variância.
7.8 Análise de resíduos
Na seção 3.4 viu-se que um MLGH é formado, dentre outras estruturas, por um
modelo amostral não Normal de nível 1 em que os resíduos de nível 1 resultam
heterocedasticos por dependerem dos valores preditos para
φij . Por outro lado, a
equação (3.42), e o formulado nas seções 7.5 e 7.6, parte da suposição de que para
cada grupo j exista um vetor (u 0 j ,u1 j ,...,uQj )
T
de efeitos aleatórios distribuindo-se
de acordo com a distribuição Normal multivariada e contando com elementos u qj
apresentando média zero e Var (u qj ) = τ qq . Assim sendo, a análise dos resíduos tem
por objetivo verificar a suposição de normalidade dos efeitos aleatórios de nível 2.
Em relação ao MLGH1_Final, o teste de Shapiro-Wilk não rejeita formalmente a
hipótese de normalidade de resíduos (nível descritivo 0,2058), enquanto que o
gráfico de probabilidade Normal (ver Figura 6 à esquerda) demonstra ser aceitável
tal suposição. Quanto ao MLGH2_Final, o teste de Shapiro-Wilk apresenta nível
descritivo de 0,0902, também não rejeitando a suposição de normalidade dos
resíduos, cuja ordenação em relação aos quantis normais teóricos é apresentada na
Figura 6 à direita.
2
1
0
Quantis Teóricos
-3
-3
-2
-1
1
0
-1
-2
Quantis Teóricos
2
3
3
184
-0.5
0.0
0.5
1.0
-0.2
Resíduos
-0.1
0.0
0.1
0.2
Resíduos
Figura 6: Gráfico de probabilidade Normal para resíduos dos MLGH Finais
7.9 Interpretação dos modelos estimados
7.9.1 MLGH1
O efeito das variáveis de nível 1 significativas para ambos os modelos finais será
abordado na seção 7.9.3
Quanto às variáveis de nível 2, os resultados para MLGH1_Final (Tabela 14)
informam que um contribuinte do grupo típico, apresentando valor zero para todas as
covariáveis de nível 1, e também VrPerc99 = ZLOPER = ZLBRUTO = export = 0,
situação que por questão de praticidade se denomina daqui em diante de condição
nula, apresenta um log-odds de probabilidade de presença de indício de infração
fiscal de -4,201268 ( γ 00
estimado para MLGH1_Final), implicando numa
probabilidade de apresentar indício de infração fiscal de 1,48%.
A utilização de variáveis de nível 2 permite diversas interpretações fiscais. De
fato, uma variação percentual unitária positiva em VrPerc99 está associada a um
^
log-odds de presença de indício de infração fiscal mais elevado, pois
γ 01 = 0,047645,
à razão entre odds de exp(0,047645) = 1,05, ceteris paribus, ou seja comparando
dois contribuintes similares em tudo, mas pertencendo a grupos CNAE-Fiscal
diferindo uma unidade em termos de VrPerc99, pode-se esperar que o odds de
presença de indício de infração fiscal para o contribuinte do grupo de maior
VrPerc99 equivalha a 1,05 vezes o odds de presença de indício de infração fiscal
para o contribuinte do grupo de menor VrPerc99. Com o advento da mencionada
variação percentual unitária positiva em VrPerc99, e partindo-se da condição nula, o
contribuinte passa a contar com probabilidade de apresentar indício de 1,54%. Um
185
incremento adicional de mais nove unidades percentuais - correspondendo a um
grupo CNAE-Fiscal apresentando variação anual positiva de 10% no PIB - e a razão
entre odds passa a 1,61, ceteris paribus, e a probabilidade do contribuinte
apresentar indício passa a ser de 2,35%, portanto 58,78% superior. A mesma
direção de efeito no log-odds ocasionado por variações em VrPerc99 seguem as
^
variações unitárias positivas em ZLBRUTO e export, pois
^
γ 03 = 0,150221 e γ 04 =
0,264737, à razão entre odds de presença de indício de infração fiscal de,
respectivamente, 1,16 e 1,30, ceteris paribus. Por outro lado, o efeito de um
incremento unitário em ZLOPER acarreta redução no mencionado log-odds, já que
^
γ 02 = -0,186396, à razão entre odds de 0,82, ceteris paribus. Os resultados para
ZLBRUTO e ZLOPER parecem consistentes com o item “b”, seção 2.9, do capítulo
2, ou seja, o método de seleção por cruzamento de informações da SRF detecta
com maior probabilidade os contribuintes pertencentes aos grupos CNAE-Fiscal com
renda média auferida mais elevada. Além disso, o método também detecta com
maior probabilidade os contribuintes dos grupos CNAE-Fiscal exportadores, odds
30% superior em relação à referência (grupos não exportadores), ceteris paribus.
Quanto ao MLGH1_NAG (Tabela 13), este mostra inicialmente que o log-odds de
presença de indício de infração fiscal para um contribuinte na condição nula, ou seja,
apresentando agropecagr = indagr = 0, o que, segundo a parametrização adotada, o
insere internamente aos grupos de comércio e serviços agregados, pertencente ao
grupo típico e apresentando valor zero para todas as covariáveis de nível 1,
equivaleu a -4,258985 ( γ 00
estimado para MLGH1_NAG), implicando na
probabilidade de apresentar indício de infração fiscal de 1,39%.
O fato do grupo CNAE-Fiscal pertencer ao setor industrial agregado associa-se a
um log-odds de presença de indício de infração fiscal superior ao dos grupos de
^
comércio e serviços agregados, pois
γ 02 = 0,225233, à razão entre odds de 1,25,
ceteris paribus; acarretando probabilidade do contribuinte apresentar indício,
partindo-se da mencionada condição nula, de 1,74%. Já a situação do grupo estar
englobado nos setores de agricultura, pecuária, silvicultura e exploração florestal
^
agregadas relaciona-se a uma elevação no log-odds ainda maior, uma vez que
γ 01 =
0,777933, à razão entre os odds de 2,18, ceteris paribus; indicando uma
186
probabilidade do contribuinte apresentar indício, a partir da condição nula, de 2,99%,
portanto mais de duas vezes superior à da condição inicial.
Estes resultados indicam que três contribuintes absolutamente idênticos em tudo,
a menos de pertencerem a grupos CNAE-Fiscal de setores agregados distintos,
apresentam log-odds e respectivas probabilidades de apresentarem indício de
infração fiscal de magnitudes diferentes, por ordem decrescente de probabilidades,
os contribuintes de: agricultura, pecuária, silvicultura e exploração florestal
agregadas; indústria; e comércio e serviços agregados; ou seja, em 1999 um
contribuinte interno a um grupo agropecuário, silvicultor ou de exploração florestal
possuía mais chances de ser selecionado para fiscalização, com base em presença
de indício de infração fiscal, do que contribuintes que lhe eram idênticos
individualmente, mas que pertenciam a grupos dos demais setores agregados.
Os resultados obtidos nesta subseção, particularmente a existência de variáveis
de nível 2 significativas para todos os modelos estimados, validam a terceira
hipótese de pesquisa, ou seja, os MLGH levaram em consideração, de forma
sistematizada, a correlação de medidas existente entre contribuintes pertencentes a
um mesmo grupo de atividades econômicas e explicaram parte da variabilidade
(entre grupos econômicos) aferida a partir dessa sistematização.
7.9.2 MLGH2
Quanto ao MLGH2_Final (Tabela 16), a condição nula admite concluir que um
contribuinte do grupo típico, apresentando valor zero para todas as covariáveis de
nível 1, e também VrPerc99 = export = 0, apresenta um log-odds de presença de
infração de 0,546603 ( γ 00
estimado para MLGH2_Final), implicando numa
probabilidade de ser infrator de 63,33%.
Com as variáveis de nível 2, um incremento unitário positivo em VrPerc99 está
^
associado a um log-odds de presença de infração fiscal inferior, pois
γ 02 = -0,03857,
à razão entre odds de exp(-0,03857) = 0,96, ceteris paribus, ou seja comparando
dois contribuintes similares em tudo, mas pertencendo a grupos CNAE-Fiscal
diferindo uma unidade em termos de VrPerc99, pode-se esperar que o odds de
presença de infração para o contribuinte do grupo de maior VrPerc99 equivalha a
0,96 vezes o odds de presença de infração para o contribuinte do grupo de menor
VrPerc99. Com o advento da mencionada variação percentual unitária positiva em
187
VrPerc99, e partindo-se da condição nula, a probabilidade do contribuinte ser infrator
reduz-se a 62,43%. Um incremento adicional de nove unidades percentuais a
VrPerc99 - correspondendo a um grupo CNAE-Fiscal apresentando variação anual
positiva de 10% no PIB - e a razão entre odds passa a 0,68, ceteris paribus, e a
probabilidade do contribuinte ser infrator passa a ser de 54,01%, ou seja, 14,72%
inferior, ceteris paribus.
Já para o caso de export, esta assumindo valor unitário acarreta redução no log^
odds de presença de infração, uma vez que
γ 01 = -0,202106, à razão entre odds de
0,82, ceteris paribus; o que implica que, partindo-se da condição nula, a
probabilidade de um contribuinte pertencente a um grupo CNAE_Fiscal exportador
ser infrator reduz-se a 58,53%, tudo o mais mantido constante.
Quanto ao MLGH2_NAG (Tabela 15), este mostra inicialmente que o log-odds de
presença de infração fiscal para um contribuinte na condição nula, ou seja,
apresentando agropecagr = indagr = 0, o que, segundo a parametrização adotada o
insere internamente aos grupos de comércio e serviços agregados, pertencente ao
grupo típico, e apresentando valor zero para todas as covariáveis de nível 1, foi de
0,602977 ( γ 00 estimado para MLGH2_NAG), implicando numa probabilidade de ser
infrator de 64,63%.
O fato do grupo CNAE-Fiscal ser pertencente ao setor industrial agregado
^
associa-se a um log-odds de infração fiscal inferior, já que
γ 02 = -0,150765, à razão
entre odds de 0,86, ceteris paribus; o que indica que, partindo-se da condição nula,
a probabilidade do contribuinte ser infrator reduz-se para 61,11%. Já a situação do
grupo estar englobado nos setores de agricultura, pecuária, silvicultura e exploração
^
florestal agregadas relaciona-se a um log-odds ainda menor, pois
γ 01 = -0,709302, à
razão entre odds de 0,49, ceteris paribus; e, partindo-se da condição nula, a
probabilidade do contribuinte ser infrator passa a ser de 47,34%, portanto 26,75%
inferior.
Estes resultados indicam que três contribuintes absolutamente idênticos em tudo,
a menos de pertencerem a grupos CNAE-Fiscal de setores agregados distintos,
apresentam log-odds de presença de infração e respectivas probabilidades de
serem
infratores
de
magnitudes
diferentes,
por
ordem
decrescente
de
probabilidades, os contribuintes de: comércio e serviços agregados; indústria; e
188
agricultura, pecuária, silvicultura e exploração florestal agregadas; ou seja, em 1999,
um contribuinte interno a um grupo participante dos setores de comércio e serviços
agregados possuía mais chances de ser infrator do que contribuintes que lhe eram
idênticos individualmente, mas que pertenciam a grupos dos demais setores
agregados. Além disso, deve-se destacar que, para este mesmo ano, um
contribuinte de um grupo CNAE-Fiscal exportador apresentava menor probabilidade
de ser infrator, odds 18% inferior em relação à referência (grupos não exportadores),
ceteris paribus.
Quanto à terceira hipótese de pesquisa, esta reafirma-se à luz dos resultados
obtidos para as variáveis de nível 2 nesta subseção.
7.9.3 Comparação entre o MLGH1 e MLGH2 finais
Inicialmente, deve-se atentar para o fato de que os modelos finais, tomados em
conjunto, aproveitaram-se, em termos das variáveis significativas de nível 1, das três
diretrizes de transformação de índices econômico-fiscais relacionadas na seção 6.2,
ou seja, todas as transformações demonstraram-se relevantes, em algum momento,
quanto à elucidação dos índices econômico-fiscais, em um universo de 33
disponíveis, realmente importantes no contexto das infrações tributárias. Além disso,
as quatro primeiras componentes principais relativas aos dez valores contábeis
brutos demonstraram-se de boa valia, já que o MLGH2_Final incorpora ZPC2 e
ZPC1, sendo esta última ainda significativa para o MLGH1_Final. Para efeitos de
comparação, a Tabela 17 lista as estimativas para os coeficientes das variáveis que
se apresentaram significativas para todos os modelos estimados neste capítulo.
Tabela 17: Estimativas para variáveis presentes em ambos os modelos finais
Variável
Nível
LI04A
Coeficientes Estimados
MLGH1
MLGH2
1
0,038676
-0,049270
LI22A
1
0,065231
-0,029840
LI30
1
B=0,036993
A=0,018934
ZPC1
1
0,109848
0,079879
export
2
0,264737
-0,202106
VrPerc99
2
0,047645
-0,038157
agropecagr
2
0,777933
-0,709302
Indagr
2
0,225233
-0,150765
189
A tabela indica que LI04A e LI22A possuem efeitos contrários em relação aos
modelos finais, com sua variação positiva contribuindo para elevar a probabilidade
do contribuinte apresentar indício de infração fiscal, mas por outro lado reduzindo a
probabilidade do mesmo contribuinte ser infrator. Já LI30 e ZPC1 apresentam-se
com efeitos de mesma orientação para os dois modelos. Os índices de nível 1 da
Tabela 17, presentes em todos os modelos estimados, podem então ser
considerados como notoriamente importantes no contexto fiscal.
Para as variáveis de nível 2 a situação é diferente, pois, segundo a Tabela 17,
todas as estimativas trocam de sinal, indicando inversão no sentido do efeito da
variável entre um e outro modelo. Muito embora a magnitude relativa de efeitos para
agropecagr e indagr seja preservada, no final das contas MLGH2_NAG mostra que
um contribuinte de um grupo pertencente ao setor de comércio e serviços agregados
tem maior probabilidade de ser infrator do que um pertencente a um grupo do setor
industrial, que por sua vez supera a do contribuinte pertencente à agricultura,
pecuária, silvicultura e exploração florestal agregadas, tudo o mais mantido
constante. Isso parece inconsistente com as estimativas do MLGH1_NAG, que
inverte essa tendência em relação à probabilidade do contribuinte apresentar indício
de infração fiscal. Também ocorre inversão de efeitos em termos das variáveis
VrPerc99 e export, pois suas variações positivas diminuem as chances de infração,
mas elevam a probabilidade de detecção por indício de infração fiscal.
Os resultados dos dois parágrafos anteriores parecem sugerir que o sistema de
seleção de contribuintes com base em indício de infração fiscal detectado por
cruzamento de informações (ver subseção 1.1.1) está caminhando, em certos
aspectos, em sentido contrário ao que a modelagem do cometimento da efetiva
infração fiscal demonstra em suas estimativas. O levantamento das motivações que
fundamentam essa inversão, em termos dos modelos estimados para mensurar a
probabilidade de um contribuinte apresentar indício de infração fiscal, não se insere
entre os objetivos deste trabalho.
Contudo, de forma cautelosa, pode-se propor como hipótese a ser investigada
futuramente a de que, de alguma maneira apriorística, o mencionado sistema de
seleção por cruzamento de informações está considerando que os contribuintes que
pertencem aos grupos do setor de agricultura, pecuária, silvicultura e exploração
florestal agregadas, que preenchem o Anexo de Atividade Rural com muito mais
freqüência do que os dos demais setores, implicando em uma DIPJ mais complexa,
190
possuem maiores possibilidades de cometer infrações; hipótese esta que o capítulo
2 demonstrou justamente ser considerada por muitas agências tributárias em seus
sistemas de seleção, muito embora não de maneira unânime ou conclusiva.
Além disso, o item “b” da seção 2.9 indica uma tendência conclusiva de que à
medida que a renda dos contribuintes se eleva, elevam-se paralelamente as
omissões de rendimentos. Isso pode sugerir, novamente de forma preliminar, que o
sistema de seleção embute em si, de alguma forma, um viés prévio de que os
grupos CNAE-Fiscal que mais crescem, em termos de variação percentual do PIB,
são, compreensivelmente, considerados como de maior renda média auferida - fato
que, entretanto, não se legitima na prática em 1999, pois dentre os 70 primeiros
grupos com maior valor para ZRECLIQ (padronização da variável receita líquida =
receita bruta subtraída dos impostos incidentes sobre as vendas e dos abatimentos
e descontos incondicionais concedidos) apenas sete deles apresentaram variação
percentual positiva do PIB. Considerando-se os resultados para o MLGH2_Final,
uma das possíveis interpretações para esse tema seria a de que os contribuintes
pertencentes aos grupos CNAE-Fiscal que mais cresceram ao longo do ano de 1999
tiveram menos motivos para omitirem receitas do que os contribuintes dos grupos
que vivenciaram variação negativa do PIB naquele período.
7.10 Aplicação à classificação e validação dos modelos estimados
7.10.1 Desempenho das previsões para observações conhecidas
No que concerne a previsão de uma resposta binária em modelos estatísticos,
isso envolve basicamente a utilização de uma determinada regra de classificação
operacional, e.g., probabilidade predita maior ou igual a 50% classificada como 1,
caso contrário classificada como 0, o que claramente requisita a definição de um
ponto de corte probabilístico por parte do analista - no caso exemplificado ele seria
de 50%. Um útil instrumento de análise da capacidade preditiva destes modelos é a
curva Receiver Operating Characteristic (ROC), que, segundo Agresti (2002),
relaciona a sensitividade em função de (1 - especificidade) para todos os possíveis
pontos de corte. Essa é uma curva em geral côncava interligando os pontos
cartesianos (0,0) e (1,1), e quanto maior a área sob a curva, melhores são as
previsões proporcionadas pelo modelo. Uma importante característica de análise da
ROC é quando esta assume uma forma de linha reta inclinada a 45o, indicando que
191
o modelo preditivo não é superior à total aleatoriedade de decisão. Com isso,
inicialmente podem ser inspecionadas as ROC para MLGH1_Final e MLGH2_Final
na Figura 7.
Figura 7: Curvas ROC para Amostras de Estimação.
A área sob a curva ROC do MLGH1_Final é de 0,81, enquanto que sob a do
MLGH2_Final é de 0,61, o que indica que ambos os modelos fornecem previsões
superiores à mera aleatoriedade na decisão fiscal, sendo o MLGH1_Final o mais
preditivo.
Para a utilização prática dos modelos para as novas observações não constantes
da amostra de estimação, uma regra de classificação tem de ser escolhida
previamente pelo analista, com base na amostra de estimação disponível em mãos.
Neste ponto, deve-se relembrar que BD1 representa a população propriamente
dita de todos os 164.466 declarantes pelo lucro real em 1999, sendo que em cerca
de 5,90% foi detectado indício de infração fiscal, estes sendo considerados os casos
positivos. Já BD2 corresponde a 12.227 contribuintes fiscalizados, sendo que
66,02% deles foram identificados como infratores (casos positivos) e, na falta de
outra informação, assume-se aqui que a proporção populacional de infratores é
idêntica à verificada em BD2. Além disso, a extração das amostras de validação (ver
Apêndice I) preservou a proporção populacional de ocorrência das características de
interesse nas remanescentes amostras de estimação, tanto no caso de BD1 quanto
no de BD2. Estas considerações são importantes, pois levam à conclusão de que as
amostras específicas de estimação e de validação são, na verdade, amostras
aleatórias da população objetivo, preservando a mesma proporção de ocorrência
das características de interesse ali verificadas (apresentar indício de infração fiscal
ou apresentar infração).
192
Seguindo em linhas gerais o prescrito por Neter et al. (1996) para os casos de
amostras aleatórias estratificadas proporcionalmente à população, a abordagem
aqui adotada para a escolha da regra de classificação envolve, utilizando-se da
amostra de estimação, avaliar o desempenho de diversos pontos de corte
probabilísticos possíveis à luz de uma ou mais medidas de validade interna do
modelo, por exemplo, sensitividade, especificidade ou taxa de acertos, sendo que
uma boa aproximação para os valores de pontos de corte a serem testados pode ser
obtida entre os que se situam próximos à proporção populacional de positivos. Após
isso, a regra considerada como a de melhor desempenho pelo analista é, então,
submetida à amostra de validação para avaliação da capacidade preditiva do
modelo em relação às novas observações.
Assim, a Tabela 18 apresenta diferentes pontos de corte testados para o
MLGH1_Final e seus respectivos resultados em termos da sensitividade e da
especificidade, sendo desejável, no caso específico de indício de infração, que
ambas assumam valores elevados, de forma a que sejam evitados os falsos
negativos e falsos positivos.
Tabela 18: Pontos de Corte para MLGH1_Final (Amostra Estimação)
Ponto de Corte
Sensitividade (%)
Especificidade (%)
0,050 (5,0%)
77,31
69,20
0,055 (5,5%)
74,85
71,94
0,060 (6,0%)
72,42
74,31
0,065 (6,5%)
70,18
76,41
A partir da Tabela 18, observa-se que os pontos de corte probabilísticos que
equilibram em certo grau a sensitividade e a especificidade são 0,060 e 0,055,
sendo este último o ponto escolhido.
Já a Tabela 19 apresenta os pontos de corte testados para o MLGH2_Final e
seus respectivos graus de sensitividade e especificidade. Como este modelo envolve
o cometimento da infração fiscal propriamente dita, a principal preocupação na
definição do ponto de corte é que sejam evitados os falsos negativos,
consequentemente elevando a pressão de fiscalização sobre os contribuintes
infratores, devendo-se então buscar a máxima sensitividade para o modelo. Neste
caso, evidentemente que é importante a análise da sensitividade obtida, mas
contrabalançando-a não com a especificidade, mas antes com o Valor Preditivo
193
Positivo (VPP), entendendo-se o VPP como a probabilidade de um indivíduo ou
registro possuir efetivamente a característica de interesse, dado ter sido classificado
pelo modelo como positivo.
Tabela 19: Pontos de Corte para MLGH2_Final (Amostra Estimação)
Ponto de Corte
Sensitividade (%)
Especificidade (%)
VPP (%)
0,615 (61,5%)
84,69
29,18
69,90
0,620 (62,0%)
83,13
31,04
70,08
0,622 (62,2%)
82,24
31,92
70,12
0,627 (62,7%)
80,55
33,80
70,27
0,630 (63,0%)
79,28
35,23
70,40
0,636 (63,6%)
76,78
38,47
70,80
0,642 (64,2%)
74,49
41,22
71,11
0,650 (65,0%)
70,49
45,48
71,52
0,655 (65,5%)
67,97
48,53
71,95
A partir da Tabela 19, o ponto de corte probabilístico escolhido para o caso do
MLGH2_Final aplicado às novas observações é 0,620, pois pontos de corte
inferiores elevam a sensitividade, mas levam o VPP a ultrapassar o limiar abaixo de
70%, enquanto que
pontos de corte superiores reduzem rapidamente a
sensitividade.
7.10.2 Desempenho das previsões para novas observações
A aplicação do ponto de corte escolhido para o MLGH1_final à amostra de
validação implica nos seguintes valores para a sensitividade (S) e especificidade (E):
Tabela 20: Ponto de Corte para MLGH1_Final (Amostra Validação)
Ponto de Corte
Sensitividade (%)
Especificidade (%)
0,055 (5,5%)
73,78
71,62
Os resultados da Tabela 20 permitem inferir que o MLGH1_Final detecta, em
média, 73,78% dos casos positivos e 71,62% dos casos negativos.
Os procedimentos de amostragem apresentados no Apêndice I permitem
estabelecer um intervalo de 95% de confiança para uma determinada medida
genérica (M) de validade interna do MLGH1_Final, estimada a partir das amostras
de validação, que é dado por:
194
^
^
^
^
⎛ ^
⎞
⎜
M (1 − M ) ^
M (1 − M ) ⎟
⎜ M − 1,96 ⋅ (1 − f1 ) ⋅ (n − 1) ; M + 1,96 ⋅ (1 − f1 ) ⋅ (n − 1) ⎟
⎜
⎟
⎝
⎠
(7.13)
A partir do intervalo em 7.13, os intervalos de 95% confiança para a sensitividade
(S) e especificidade (E) são:
⎛ S^
⎞
⎜ MLGH1 ± 1,96 ⋅ 0,022459 ⎟ ⇒ 69,37% ≤ SMLGH1 ≤ 78,19%
⎝
⎠
⎛ E^
⎞
⎜ MLGH1 ± 1,96 ⋅ 0,005775 ⎟ ⇒ 70,48% ≤ E MLGH1 ≤ 72,76%
⎝
⎠
Já no caso do MLGH2_final, o ponto de corte escolhido aplicado à amostra de
validação implica nos seguintes valores para as medidas de validade interna do
modelo:
Tabela 21: Ponto de Corte para MLGH2_Final (Amostra Validação)
Ponto de Corte
Sensitividade (%)
Especificidade (%)
VPP (%)
0,620 (62,0%)
80,16
33,51
70,16
A Tabela 21 mostra que o MLGH2_Final, em média, detecta 80,16% dos casos
de infração; e que a cada 1.000 contribuintes por ele classificados como infratores,
702 confirmarão tal previsão.
Analogamente, os procedimentos de amostragem apresentados no Apêndice I
permitem estabelecer que o intervalo de 95% de confiança para uma determinada
medida genérica (M) de validade interna do MLGH2_Final é:
^
^
^
^
⎛ ^
⎞
⎜
M (1 − M ) ^
M (1 − M ) ⎟
; M + 1,96 ⋅
⎜ M − 1,96 ⋅
(
−
1
)
(n − 1) ⎟⎟
n
⎜
⎝
⎠
(7.14)
Dessa forma obtêm-se os seguintes intervalos de 95% de confiança para as
medidas de validade interna do MLGH2_Final:
⎛ S^
⎞
⎜ MLGH2 ± 1,96 ⋅ 0,014562 ⎟ ⇒ 77,30% ≤ SMLGH2 ≤ 83,02%
⎝
⎠
⎛ E^
⎞
⎜ MLGH2 ± 1,96 ⋅ 0,024088 ⎟ ⇒ 28,78% ≤ E MLGH2 ≤ 38,24%
⎝
⎠
195
^
⎛ VPP
⎞
MLGH2 ± 1,96 ⋅ 0,013581⎟ ⇒ 67,49% ≤ VPPMLGH2 ≤ 72,83%
⎜
⎝
⎠
Estes resultados, para ambos os modelos, indicam a estabilidade dos
coeficientes estimados frente às novas observações, já que as medidas pontuais de
validade interna estimadas para as amostras de validação (Tabelas 20 e 21) não
diferem sensivelmente em relação às medidas a partir das amostras de estimação
(Tabelas 18 e 19).
Neste momento deve-se ressaltar que esses resultados relacionam-se a apenas
dois dos muitos milhares de modelos possíveis, além de serem bastante sensíveis
aos pontos de corte previamente escolhidos pelo analista, podendo, portanto ser
aperfeiçoados, por exemplo, procedendo-se a rodadas adicionais para teste de
variáveis de nível 1, ou ainda pesquisando informações ainda inexploradas contidas
nas DIPJ dos contribuintes e também outros aspectos setoriais a título de novas
variáveis de níveis 1 e 2.
7.11 Comparação entre os desempenhos do método novo e atual
Este é o momento adequado para que seja efetuada uma comparação entre o
desempenho da seleção de contribuintes efetuada com base no novo método de
classificação (tendo por base o MLGH2_Final) frente ao método de seleção por
cruzamento de informações utilizado pela SRF e esquematicamente ilustrado pela
Figura 1 do primeiro capítulo.
Inicialmente, deve-se salientar que, quanto ao método atual da SRF, não há
informações disponíveis nas bases de dados de trabalho (BD1 e BD2) que possam
aclarar os valores de Sensitividade e Especificidade obtidos por meio de sua
utilização, isso porque 157.709 contribuintes da BD1 (164.466 - 9.757 = 157.709)
não foram efetivamente fiscalizados e, portanto, não há como se apurar os falsos
negativos e verdadeiros negativos proporcionados pela seleção efetuada com base
nesse método. Contudo, segundo o já mencionado no capítulo 6, em BD2 constam
8.728 contribuintes selecionados para fiscalização a partir da base de dados de
cruzamento de informações da SRF, sendo que, destes, 5.180 foram autuados em
relação às operações praticadas no ano-calendário 1999, e estes valores fornecem
exatamente os subsídios necessários para o cálculo do VPP do método atual, qual
seja, VPPatual = (5.180/8.728) = 59,35%.
196
Com os subsídios do informado no parágrafo anterior e também na Tabela 21,
verifica-se que o MLGH2_Final apresenta uma estimativa pontual do VPP cerca de
11 pontos percentuais superior ao VPPatual e, ainda, que seu próprio intervalo de
95% de confiança apresenta limite inferior (67,49%) mais de oito pontos percentuais
superior aos 59,35% obtidos pelo processo atual. Fazendo-se uma comparação com
base em lotes de 1.000 fiscalizados, os resultados indicam que a cada milhar
selecionado para fiscalização com base no método atual, cerca de 594 contribuintes
serão autuados por serem infratores, enquanto que já foi visto que a cada mil
contribuintes classificados como infratores pelo MLGH2_Final, cerca de 702
confirmarão tal previsão, o que representa um desempenho bastante superior ao do
método atual. Em se tratando da fiscalização de grandes contribuintes que apuram o
Lucro Real, esta diferença em termos de VPP entre os dois métodos pode
representar até bilhões de reais em termos de autuações.
7.12 Aspectos operacionais de utilização do novo método de
classificação de contribuintes para fiscalização
A partir da estimação, aplicação e validação dos MLGH requisitados pelo método
de classificação de contribuintes proposto nesta tese, pode-se finalmente ressaltar
que este presta-se aos momentos em que se exija pronta reação por parte dos
órgãos tributários frente aos casos de infração, haja vista os referidos modelos terem
sido especificados com as seguintes características: contarem no nível 1, dos
contribuintes, tão-somente com variáveis obrigatoriamente prestadas pelo próprio
sujeito passivo (contribuinte), sendo, portanto, independentes de dados individuais
de contribuintes prestados por fontes externas de informação; nível 2 dispondo de
variáveis setoriais não sigilosas de fácil e rápido acesso. Estes aspectos de
modelagem permitem que a utilização do novo método reduza substancialmente
muito do tempo de espera para a deflagração de ações fiscais mencionado na
subseção 1.1.1.
No caso brasileiro, as pessoas jurídicas que apuram o lucro real entregam suas
DIPJ à SRF regularmente no último dia útil do mês de junho de cada ano.
Imediatamente após isso, seguindo o processo proposto na Figura 5, a agência
pode prontamente optar pela utilização de algum dos MLGH estimados neste
capítulo e submetê-lo às DIPJ recebidas, de forma a classificar e identificar os
197
contribuintes de interesse fiscal, antecipando em meses e até em alguns anos a
ação do sistema de fiscalização. No caso específico da opção por algum dos
modelos estimados, deve-se ponderar, a partir da Figura 7 e dos resultados
subseqüentemente obtidos a partir dos pontos de corte adotados, que o
MLGH1_Final equilibra níveis similares de sensitividade e de especificidade, porém
o MLGH2_Final detecta diretamente a infração fiscal e é mais sensitivo.
Pelo exposto, constata-se que as mencionadas diretrizes de especificação de
modelos e a conseqüente possibilidade prática de agilização da ação da fiscalização
tributária validam, portanto, a quarta hipótese de pesquisa.
198
8 CONSIDERAÇÕES FINAIS
O objetivo geral do trabalho foi o de desenvolver e especificar um novo método
de classificação de contribuintes pessoas jurídicas brasileiras, com base na previsão
de seus comportamentos tributários, objetivando classificá-las como prioritárias ou
não à fiscalização, representando na prática um processo de seleção de
contribuintes para fiscalização. A opção por operacionalizar o classificador por meio
dos MLGH deu-se à luz da primeira e terceira hipóteses de pesquisa, quais sejam,
de que qualquer estudo tributário que envolva a classificação de empresas como de
relevante interesse fiscal deve levar em consideração e avaliar a correlação de
medidas existente entre empresas de um mesmo setor de atividades econômicas; e
de que essa correlação de medidas pode ser contabilizada adequadamente por
meio de uma modelagem estatística hierárquica.
Após a revisão de literatura, e do desenvolvimento do classificador propriamente
dito, neste capítulo de fechamento são apresentadas as principais conclusões e
contribuições proporcionadas pela pesquisa, assim como identificadas suas
limitações e oportunidades para estudos futuros.
8.1 Principais resultados
No primeiro capítulo foi contextualizado o tema de tese; descrito o panorama
atual no plano da seleção de contribuintes para fiscalização na SRF, que se
fundamenta resumidamente em uma grande base de dados de cruzamento de
informações, a qual permite que os contribuintes apresentando indícios de infração
fiscal sejam selecionados para fiscalização; e foram também apresentados o
problema, questões e hipóteses de pesquisa.
Na etapa de revisão de literatura dos aspectos tributários, capítulo 2, viu-se,
principalmente, que as agência tributárias utilizam-se de métodos não aleatórios
para seleção de contribuintes, de forma a elevar o retorno esperado de suas ações
fiscais; que à medida em que a renda dos contribuintes se eleva, elevam-se
concomitantemente as omissões de rendimentos; e que há diversos resultados
indicando que contribuintes participantes de um mesmo setor de atividades
econômicas tendem a ser mais parecidos entre si do que contribuintes que se
dedicam a setores econômicos distintos, no que concerne a infração à legislação
tributária, o que acarreta correlação de medidas intra-setores econômicos; porém a
199
mesma revisão demonstrou que essa correlação não vem sendo considerada
de forma sistematizada pelos estudos científicos abordando a seleção de
contribuintes para fiscalização, mas sim de forma pontual e limitada, o que
confirma a segunda hipótese de pesquisa.
Nos capítulos 3 e 4 foram apresentados detalhadamente os processos que
fundamentam as estimativas de parâmetros em MLH e MLGH, permitindo sintetizar
que suas estimativas de efeitos fixos, coeficientes aleatórios de nível 1 e
componentes de variância/covariância, obtidas por meio de uma complexa
combinação de métodos já tradicionais em estatística com processos adicionais
mais recentes, provêem ao pesquisador, em uma modelagem única e robusta, uma
maior riqueza interpretativa para os fenômenos em estudo.
No capítulo 5 foi apresentado o novo método de classificação de contribuintes
para fiscalização, fundado nas previsões obtidas a partir de um MLGH, cujo objetivo
é ser utilizado nos momentos que exijam pronta reação por parte dos órgãos
tributários.
No capítulo 6 foram explorados os dados de trabalho e confirmou-se a primeira
hipótese de pesquisa, qual seja, a de que estudos tributários que envolvam a
classificação de contribuintes PJ para fins de fiscalização devem considerar e
avaliar a correlação de medidas existente entre contribuintes que se dedicam
às mesmas atividades econômicas, pois a análise exploratória hierárquica
mostrou que existe, de fato, variabilidade nas respostas de interesse
exclusivamente devida a grupos praticando distintas atividades econômicas aproximadamente 11,27% do total no caso de probabilidade de indício de
infração e 2,74% do total no caso de probabilidade de infração propriamente
dita.
O capítulo 7, de estimação e aplicação de modelos à classificação, logrou obter
os seguintes principais resultados prático-interpretativos:
I) Dentre as diversas variáveis de nível 1 (contribuintes) significativas para os
modelos estimados no capítulo 7, LI04, LI22, LI30 e a primeira componente principal
em relação aos dez valores contábeis brutos (ZPC1), presentes de forma
significativa em todos os modelos estimados, podem ser consideradas, em termos
preditivos, como notoriamente importantes no contexto fiscal.
II) Quanto aos resultados obtidos para as variáveis de nível 2 (grupos CNAE-Fiscal):
200
II.I) Foi verificado que três contribuintes absolutamente idênticos em tudo, a
menos de pertencerem a grupos CNAE-Fiscal de setores agregados distintos,
apresentaram log-odds e respectivas probabilidades de apresentarem indício
de infração fiscal de magnitudes diferentes, por ordem decrescente de
probabilidades, os contribuintes de: agricultura, pecuária, silvicultura e
exploração florestal agregadas; indústria; e comércio e serviços agregados;
isso significando que, em 1999, um contribuinte interno a um grupo
agropecuário, silvicultor ou de exploração florestal possuía mais chances de
ser selecionado para fiscalização, com base em presença de indício de
infração fiscal, do que contribuintes que lhe eram idênticos individualmente,
mas que pertenciam a grupos dos demais setores agregados.
II.II) Por outro lado três contribuintes absolutamente idênticos em tudo, a
menos de pertencerem a grupos CNAE-Fiscal de setores agregados distintos,
apresentaram log-odds de presença de infração e respectivas probabilidades
de serem infratores de magnitudes diferentes, por ordem decrescente de
probabilidades, os contribuintes de: comércio e serviços agregados; indústria;
e agricultura, pecuária, silvicultura e exploração florestal agregadas;
permitindo inferir que, em 1999, um contribuinte interno a um grupo
participante dos setores de comércio e serviços agregados possuía mais
chances de ser infrator do que contribuintes que lhe eram idênticos
individualmente, mas que pertenciam a grupos dos demais setores
agregados.
II.III) Em 1999, o método de seleção de contribuintes da SRF apresentava
maiores probabilidades de detecção de contribuintes de grupos CNAE-Fiscal
exportadores, odds 30% superior em relação à referência, ceteris paribus.
Entretanto, para este mesmo ano, um contribuinte de um grupo CNAE-Fiscal
exportador apresentava menor probabilidade de ser infrator, odds 18% inferior
em relação à referência, ceteris paribus.
II.IV) Em 1999, a variação anual percentual positiva do PIB do grupo CNAEFiscal favorecia a presença de indício de infração fiscal e conseqüentemente
a detecção por parte do método de seleção da SRF; porém, neste mesmo
período esta variação estava identicamente associada a uma menor
probabilidade de cometimento de infração fiscal propriamente dita.
201
II.V) A existência de variáveis de nível 2 (grupos CNAE-Fiscal)
significativas para todos os modelos estimados valida a terceira
hipótese de pesquisa, ou seja, os MLGH levaram em consideração, de
forma
sistematizada,
contribuintes
econômicas
a
correlação
pertencentes
e
explicaram
a
um
parte
de
medidas
mesmo
da
grupo
variabilidade
existente
de
entre
atividades
(entre
grupos
econômicos) aferida a partir dessa sistematização.
III) Em termos de aplicação à classificação e validação dos modelos estimados:
III.I) Ambos os modelos finais (MLGH1_Final e MLGH2_Final) fornecem
previsões superiores à mera aleatoriedade de decisão tributária.
III.II) A validação mostrou que o MLGH1_Final equilibra níveis similares de
sensitividade e de especificidade, porém o MLGH2_Final detecta diretamente
a infração fiscal e é mais sensitivo.
III.III) O MLGH2_Final apresenta uma estimativa pontual do Valor Preditivo
Positivo (70,16%) cerca de 11 pontos percentuais superior ao Valor Preditivo
Positivo alcançado pelo método de seleção atual da SRF (59,35%), o que, a
partir de uma comparação com base em lotes de 1.000 fiscalizados, permite
concluir que a cada milhar selecionado para fiscalização pelo método atual da
SRF, cerca de 594 contribuintes serão infratores, enquanto que a cada mil
contribuintes classificados como infratores pelo MLGH2_Final, cerca de 702
confirmarão tal previsão, este último, portanto, um resultado claramente
superior.
IV) Quanto aos aspectos operacionais de utilização do novo método de
classificação proposto no capítulo 5, as diretrizes de modelagem que
nortearam a especificação dos MLGH responsáveis pela classificação utilização, no nível 1 (contribuintes), tão-somente de variáveis obrigatoriamente
prestadas pelo próprio sujeito passivo (contribuinte), sendo, portanto, independente
de dados individuais de contribuintes prestados por fontes externas de informação; e
nível 2 explorando variáveis setoriais não sigilosas de fácil e rápido acesso conferem uma maior agilidade de ação ao órgão tributário e proporcionam uma
redução substancial no tempo de espera para a deflagração da ação fiscal
202
mencionado na subseção 1.1.1, característica esta que, portanto, valida a
quarta hipótese de pesquisa.
Finalmente, a partir da execução da pesquisa e dos resultados obtidos, pôde-se
constatar, como já relatado, a validação das quatro hipóteses de pesquisa
relacionadas na subseção 1.1.2 e também o alcance de todos os objetivos
específicos da seção 1.2.
8.2 Conclusões em relação às questões de pesquisa
Em relação às questões de pesquisa relacionadas no primeiro capítulo (subseção
1.1.2) a condução do trabalho permitiu concluir pelo sintetizado a seguir:
1) Como estabelecer um método de classificação de contribuintes pessoas
jurídicas, com base na previsão de seus comportamentos tributários, que as
classifique, ágil e tempestivamente, em função do grau de interesse para fins
de
fiscalização,
levando
em
consideração,
de
forma
sistematizada
(incorporando de forma estruturada todas as atividades econômicas das PJ), a
provável correlação de medidas (informações) existente entre empresas de um
mesmo setor de atividades econômicas?
Esta questão principal de pesquisa foi atendida satisfatoriamente por meio da
proposição, no capítulo 5, de um novo método de classificação de contribuintes PJ
calcado nas previsões proporcionadas pelos MLGH estimados no capítulo 7, estes
modelando a probabilidade do contribuinte ser infrator, ou de apresentar indício de
infração fiscal, e levando em consideração, de forma sistematizada, a correlação de
medidas existente entre empresas de um mesmo setor de atividades econômicas,
por meio da abstração dos grupos CNAE-Fiscal como unidades de nível 2 dos
MLGH.
2) O procedimento descrito na primeira questão de pesquisa já foi tentado por
outros órgãos congêneres com sucesso?
A revisão de literatura do capítulo 2 demonstrou que o mencionado procedimento
sistematizado não foi objeto de relatos ou estudos científicos de escopo tributário
203
envolvendo a seleção de contribuintes para fiscalização, o que prova o ineditismo
desta pesquisa.
3) Como conferir a aludida agilidade à previsão e classificação?
Tal agilidade pode ser satisfatoriamente atendida a partir do exposto no item IV
da seção anterior.
4) Quais as variáveis individuais das PJ (principalmente dentre seus índices
econômico-fiscais)
e
dos
setores
econômicos
que
se
sobressaem
significativamente no contexto da classificação de contribuintes infratores?
Esta questão de pesquisa pode ser respondida pelo exposto nos itens I e II da
seção anterior.
5) O método proposto na primeira questão de pesquisa seria vantajoso?
5.1) Qual o desempenho da classificação efetuada frente ao método de
seleção por cruzamento de informações utilizado pela SRF?
O item III.III da seção anterior mostrou que o novo método de classificação de
contribuintes tributários logrou obter um Valor Preditivo Positivo superior, em
cerca de 11 pontos percentuais, ao valor para esta mesma medida alcançado
pelo atual método de seleção da SRF.
5.2) O custo do desenvolvimento e implantação compensa?
O classificador é menos oneroso, em termos de sua utilização, do que o
processo atual de seleção esquematizado pela Figura 1, representando
economia de recursos públicos. Primeiramente, porque não requisita um
volumoso processamento e armazenamento de informações internas e
externas sensíveis (sigilosas) para o estabelecimento de uma programação
de ações fiscais, mas tão-somente, no nível 1 (contribuintes), das informações
obrigatoriamente prestadas anualmente pelos próprios sujeitos passivos em
suas declarações regularmente estabelecidas, haja vista a observância às
diretrizes de modelagem que nortearam a especificação dos MLGH
responsáveis pela classificação, como foi mencionado no item IV da seção
anterior. Além disso, considerando-se o caso específico da SRF, o método
proposto prescinde de mão de obra ou recursos financeiros adicionais aos já
204
despendidos e, pelo contrário, sua adoção reduz em muito os recursos
tecnológicos e humanos hoje terceirizados pelo órgão.
8.3 Contribuições alcançadas
Ao longo do trabalho importantes contribuições foram alcançadas:
I) Em termos científicos envolvendo a formulação e condução de processos de
seleção de contribuintes para fins de fiscalização, pela primeira vez foi considerada e
quantificada de forma sistematizada a correlação de medidas existente entre
contribuintes pertencentes a um mesmo setor de atividades econômicas, assim
como foi explicada, também de maneira inédita, parte da variabilidade (entre setores
econômicos) aferida diretamente a partir dessa sistematização. Esse processo se
deu por meio da abstração dos grupos CNAE-Fiscal como unidades de nível 2 em
uma modelagem linear generalizada hierárquica.
II) Por essência, a utilização do método de classificação proposto é independente de
dados individuais de contribuintes prestados por fontes externas de informação e de
serviços terceirizados ou estranhos à SRF ou, em termos gerais, às agências
tributárias. Portanto, consubstancia-se em método de classificação mais ágil e
menos oneroso, pendente apenas de iniciativa interna ao próprio órgão tributário, o
que privilegia ainda sua autonomia.
III) O processo mencionado no primeiro item permitiu lançar luz, de forma inédita,
sobre aspectos econômico-setoriais que influenciam ou explicam o comportamento
tributário infrator dos contribuintes pessoas jurídicas.
IV) Houve agregação de conhecimento à pesquisa tributária, haja vista a elucidação
dos índices econômico-fiscais individuais de contribuintes, em um universo de 33
disponíveis para o trabalho, significativamente importantes no contexto das infrações
fiscais.
V) Adicionalmente, foi reunida e sistematizada vasta literatura a respeito da evasão e
infração tributárias e também sobre os métodos estatísticos intensivamente
utilizados nesta pesquisa (Modelos Lineares Generalizados, Modelos Lineares
Hierárquicos e Modelos Lineares Generalizados Hierárquicos).
205
8.4 Limitações e oportunidades para estudos futuros
Quanto aos possíveis desdobramentos da realização desta pesquisa, um
prosseguimento natural, uma vez que, em virtude da base de dados disponível, não
foram exploradas todas as possibilidades em relação às informações prestadas
anualmente pelos contribuintes à SRF, é a pesquisa de informações adicionais
provenientes das DIPJ e também de novos aspectos setoriais a serem testados em
termos da capacidade de explicação da variabilidade das respostas esperadas
consideradas na pesquisa.
Nesse sentido de exploração de novas possibilidades, podem ainda ser
incorporados nos modelos características regionais brasileiras e também aspectos
históricos ou temporais de contribuintes.
Além disso, o método de classificação proposto e aplicado nesta pesquisa se
delimita aos contribuintes PJ que apuraram o Lucro Real. Pode ser compensador
para as agências tributárias a especificação de processos similares isolados, ou de
forma conjunta, abrangendo as PJ que apurem o Lucro Presumido ou sejam
optantes do sistema SIMPLES.
Outro aspecto importante é que como os resultados obtidos delimitam-se ao
cometimento da infração à legislação tributária considerada em termos genéricos,
reputando-se tal aspecto como devido aos dados de trabalho, é de interesse o
prosseguimento do estudo das infrações, mas considerando-as discriminadamente
por tributo, v.g., infração à legislação da CSLL, à legislação do PIS/PASEP etc.
Pode, ainda, ser proveitosa em termos interpretativos e quantitativos a
complementação do ciclo de classificação e seleção de contribuintes para
fiscalização por meio da estimação do modelo responsável pela previsão do crédito
tributário lançado em Reais, como foi destacado na Figura 5.
Finalmente, um aspecto recomendável à SRF seria dimensionar, extrair e
fiscalizar uma amostra aleatória de contribuintes relacionada aos dados informados
nos exercícios 2004 ou 2005, de forma a que o classificador seja reespecificado
para dados os mais recentes possíveis, e, para tanto, a expectativa é de que esta
pesquisa sirva plenamente como referência de sistematização aplicável.
206
REFERÊNCIAS
ACQUAVIVA, M. C. Dicionário Jurídico Brasileiro Acquaviva. São Paulo: Editora
Jurídica Brasileira, 1998.
ADAMS, C. For Good and Evil: The Impact of Taxes on the course of
civilization. New York: Madison Books,1993.
AFSHARTOUS, D.; LEEUW, J. de. Prediction in MUltilevel Models. Journal of
Educational and Behavioral Statistics, 2003. No Prelo.
AGRESTI, A. Categorical Data Analysis. New Jersey: John Wiley & Sons, 2002.
ALI, M. M.; CECIL, H. W.; KNOBLETT, J. A. The Effects of Tax Rates and
Enforcement Policies on Taxpayer Compliance: A Study of Self-Employed
Taxpayers. Atlantic Economic Journal, v. 29, n. 2, p. 186-202, jun. 2001.
ALM, J. A Perspective on the Experimental Analysis of Taxpayer Reporting. The
Accounting Review, v. 66, n. 3, p. 577-593, Jul. 1991.
ALM, J.; BAHL, R.; MURRAY, M. N. Audit selection and income tax underreporting in
the tax compliance game. Journal of Development Economics, North-Holland, n.
42, p. 1-33, 1993.
ALM, J.; JACKSON, B. R.; MCKEE, M. Estimating the Determinants of Taxpayer
Compliance with Experimental Data. National Tax Journal, v. 45, n. 1, p. 107-114,
Mar. 1992.
ALM, J.; MCKEE, M. Tax Compliance as a coordination game. Journal of Economic
Behavior & Organization, 2003. No Prelo.
ANDRADE, D. F.; HELMS, R. W. Maximum likelihood estimates in the multivariate
normal with patterned mean and covariance via the EM algorithm. Communications
in Statistics, Series A - Theory and Methods, v. 13, n. 18, p. 2239-2251, 1984.
ANDREONI, J. IRS as loan shark: Tax compliance with borrowing constraints.
Journal of Public Economics, North-Holland, v. 49, p. 35-46, 1992.
ANDREONI, S. Modelos de Efeitos Aleatórios para Análise de Dados
Longitudinais Não Balanceados em Relação ao Tempo. 1989. Dissertação
(Mestrado em Estatística) - Instituto de Matemática e Estatística, USP, São Paulo.
ARANHA, F. Dois Modelos Espacializados do Potencial Financeiro para
Produtos de Supermercados em Municípios do Estado de São Paulo. 2000.
Doutorado (Doutorado em Administração) - Pós-Graduação da Escola de
Administração de Empresas da FGV, São Paulo.
ARINO, M. A.; FRENSES, P. H. Forecasting the Levels of Vector Autoregressive
Log-Transformed Time Series. International Journal of Forecasting, n. 16, p. 111116, 2000.
207
ASSOCIAÇÃO BRASILEIRA DE ENGENHARIA DE PRODUÇÃO (ABEPRO). Saiba
mais sobre a Engenharia de Produção. Disponível em
<http://www.abepro.org.br/saiba_mais_1.htm>. Acesso em: 18 de mar. 2004.
BAJPAI, A.C.; MUSTOE, L.R.; WALKER, D. Matemática Avançada para
Engenharia. São Paulo: Hemus, 1980.
BARBETTA, P. A. Estatística Aplicada às Ciências Sociais. 4. ed., Florianópolis:
Editora da UFSC, 2001.
BARRETO, A. S. Viability policies of the Electronic Government: Brazil facing the
international context. In: 3rd IFIP Conference I3E, Workshop Technological Solutions
on E-Government: Digital Divide, Security, Crime Detection and Sovereignty, 2003,
Guarujá. Electronic Proceedings (ISBN 85 - 89587 - 09 - 6).
BARROS, A. J. D. Modelos multinível: primeiros passos. Departamento de
Medicina Social, Faculdade de Medicina, Universidade Federal de Pelotas, versão
2.0, janeiro, 2001.
BECK, P. J.; DAVIS, S. J.; JUNG, W. Experimental Evidence on Taxpayer Reporting
Under Uncertainty. The Accounting Review, v. 66, n. 3, p. 535-558, Jul. 1991.
BECK, P. J.; JUNG, W. Taxpayer Compliance Under Uncertainty. Journal of
Accounting and Public Policy. v. 8, n. 1, p. 1-27, 1989.
BECK, P. J.; JUNG, W. Taxpayers' Reporting Decisions and Auditing Under
Information Asymmetry, The Accounting Review, v. 64, n. 3, p. 468-487, Jul. 1989.
BERRY, M. J.; LINOFF, G. Data Mining Techniques For Marketing, Sales and
Customer Support. New Jersey: John Wiley & Sons, 1997.
BRESLOW, N. Whiter PQL? UW Biostatistics Working Paper Series. Paper 192,
2003.
BRYK, A. S.; RAUDENBUSH, S. W. Hierarchical Linear Models: Applications and
Data Analysis Methods. Sage Publications, 1992.
CHARNET, R.; FREIRE, C. A. de L.; CHARNET, E. M. R.; BONVINO, H. Análise de
Modelos de Regressão Linear com Aplicações. Editora da Unicamp, 1999.
CHEN, A.; DARST, P. W. Individual and Situational Interest: The Role of Gender and
Skill. Contemporary Educational Psychology, v. 27, p. 250–269, 2002.
CHUNG, J.; TRIVEDI, V. U. The Effect of Friendly Persuasion and Gender on Tax
Compliance Behavior. Journal of Business Ethics, v. 47, p. 133-145, 2003.
COCHRAN, W. G. Sampling Techniques. 3rd ed. New York: John Wiley & Sons,
1977.
COLLINS, J. H.; PLUMLEE, R. D. The Taxpayers' Labor and Reporting Decision:
The Effect of Audit Schemes. The Accounting Review, v. 66, n. 3, p. 559-575, Jul.
1991.
208
CORVALÃO, E. D. Previsão da Arrecadação do Imposto sobre Circulação de
Mercadorias e Serviços em Santa Catarina: Aplicação da Abordagem Geral
para Específico em Modelos Dinâmicos. 2002. Dissertação (Mestrado em
Engenharia de Produção) - Programa de Pós-Graduação em Engenharia de
Produção, UFSC, Florianópolis.
COWELL, F. A. Tax evasion and inequity. Journal of Economic Psychology.
North-Holland, v. 13, p. 521-543, 1992.
DAVIDSON, R.; MACKINNON, J. G. Estimation and Inference in Econometrics.
Oxford University Press, 1993.
DAVIS, J. S.; HECHT, G.; PERKINS, J. D. Social Behaviors, Enforcement, and Tax
Compliance Dynamics. The Accounting Review, v. 78, n. 1, p. 39-69, Jan. 2003.
DEMPSTER, A.P.; LAIRD, N.M.; RUBIN, D.B. Maximum Likelihood from incomplete
data via the EM algorithm. Journal of the Royal Statistical Society, Series B, v. 39,
p. 1-38, 1977.
DEMPSTER, A.P.; RUBIN, D. B; TSUTAKAWA, R. K. Estimation in Covariance
Components Models. Journal of the American Statistical Association, v. 76, n.
374, p. 341-353, Theory and Methods Section, June 1981.
DINIZ, M. H. Dicionário Jurídico. São Paulo: Saraiva, 1998.
DOBSON, A. J. An Introduction to Generalized Linear Models. 2d ed. Chapman &
Hall/CRC, 2002.
DUTTA, P. K. Strategies and Games: theory and practice. Cambridge: MIT Press,
2001.
EDWARDS, J. R. A History of Financial Accounting. London, New York:
Routledge, 1989.
ENGEL, E.; GALETOVIC, A.; RADDATZ, C. Estimación de la Evasión del IVA
Mediante el Método de Punto Fijo. 1998, 40p. Trabalho não publicado. Disponível
em <http://www.sii.cl/aprenda_sobre_impuestos/estudios/tributarios2.htm>. Acesso
em: 15 set. 2003.
ERARD, B. Self-selection with measurement errors a microeconometric analysis of
the decision to seek tax assistance and its implications for tax compliance. Journal
of Econometrics, v. 81, p. 319-356, 1997.
_____. Taxation with representation: An analysis of the role of tax practitioners in tax
compliance. Journal of Public Economics, North-Holland, v. 52, p. 163-197, 1993.
ERARD, B.; FEINSTEIN, J. S. Honesty and evasion in the tax compliance game. The
Rand Journal of Economics, v. 25, n. 1, p. 1-19, Spring 1994.
FEINSTEIN, J. S. An Econometric Analysis of Tax Evasion and Its Detection. The
Rand Journal of Economics, v. 22, n. 1, p. 14-35, Spring 1991.
209
FERRÃO, M. E.; ANDRADE, A. C. O sistema nacional de avaliação da educação
básica e a modelagem dos dados. Coleção Estudos da Cidade, Prefeitura da
Cidade do Rio de Janeiro, Rio Estudos, Rio de Janeiro, n. 48, março 2002.
FERRÃO, M. E.; BELTRÃO, K. I.; SANTOS, D. P. O impacto da política de nãorepetência na proficiência de alunos da quarta série: um estudo sobre o
Sudeste Brasileiro. Escola Nacional de Ciências Estatísticas, Rio de Janeiro, 2002.
FERRÃO, M. E.; LEITE, I. C.; BELTRÃO, K. I. Introdução à modelagen multinível
em Avaliação Educacional. Ministério do Planejamento, Orçamento e Gestão,
Instituto Brasileiro de Geografia e Estatística - IBGE, Escola Nacional de Ciências
Estatísticas - ENCE, Rio de Janeiro, 2001.
FONSECA, F. C. E. Medidas Repetidas Categorizadas Incompletas: uma
Aplicação à Confiabilidade de Cultivares. 1999 Tese (Doutorado em Agronomia) Escola Superior de Agricultura "Luiz de Queiroz", USP, Piracicaba.
FOREST, A.; SHEFFRIN, S. M. Complexity and Compliance: An Empirical
Investigation. National Tax Journal, v. 55, n. 2, p. 75-88, Mar. 2002.
FUNCEX. Boletim Setorial Funcex, Ano VI, n. 3, jul./ago./set. 2002. Disponível em:
<http://www.funcex.com.br>. Acesso em: 5 de mai. 2005.
FURTADO, J. M. Dicionário de Assuntos Fiscais Tributários. Rio de Janeiro: Lia
Editora SA, 1969.
GOLDSTEIN, H. Multilevel Statistical Models. 3rd ed. London: Arnold, 2003.
GRANDES impérios e civilizações: a história visual do mundo. Produção de edições
delPrado, v. 5, 1994. 1 Videocassete (35 min.): Ntsc, son., color. Com narrativa.
Didático. Port.
HAN, J.; KAMBER, M. Data Mining: Concepts and Techniques. San Franciso:
Morgan Kaufmann, 2001.
HEYDE, C. C. Quasi-Likelihood And Its Application: A General Approach to
Optimal Parameter Estimation. New York: Springer-Verlag, 1997.
HLM 5 for Windows, version 5: Scientific Software International, 2000, 1 CD-ROM.
HOFFMANN, D. A.; GAVIN, M. B. Centering Decisions in Hierarchical Linear Models:
Implications for Research in Organizations. Journal of Management, v. 24, n. 5, p.
623-641, 1998.
HOROWITZ, I.; HOROWITZ, A. R. Tax Audit Uncertainty and Work-versus-Leisure
Decision. Public Finance Review, v. 28, n. 6, p. 491-510, nov. 1999.
IBGE. Indicadores IBGE - Produto Interno Bruto - 4º Trimeste de 1998.
Disponível em:
<http://www.ibge.gov.br/home/estatistica/indicadores/pib/defaultcnt.shtm>. Acesso
em: 12 dez. 2004.
210
IBGE. Indicadores IBGE - Produto Interno Bruto - 4º Trimeste de 1999. Disponível
em: <http://www.ibge.gov.br/home/estatistica/indicadores/pib/defaultcnt.shtm>.
Acesso em: 12 dez. 2004.
INTERNAL REVENUE SERVICE (IRS). Instructions for Tax Forms. Disponível em:
<http://www.irs.gov/instructions/index.html. Acesso em: 25 de mai. 2004.
IUDÍCIBUS, Sérgio de. Análise de Balanços. 51. ed. São Paulo: Atlas, 1991.
IUDÍCIBUS, S.; MARTINS, E.; GELBCKE, R. Manual de Contabilidade das
Sociedades por Ações. 4. ed. São Paulo: Atlas, 1995.
JOULFAIN, D.; HIDER, M. Differential Taxation and Tax Evasion by Small Business.
National Tax Journal, v. 51, n. 4, p. 675-687, Dec. 1998.
JOVER, D. H.; AYALA, B. A. A. SELECCIÓN DE CONTRIBUYENTES A
FISCALIZAR, A PARTIR DE LA IMPLEMENTACIÓN DE UN SISTEMA
INFORMATIZADO DISEÑADO AL EFECTO Y UNA PROPUESTA GENERAL DE
PROCEDIMIENTO. - CASO CUBANO. Segundo Premio XV Concurso de
Monografías CIAT/AEAT/IEF, 2001.
KLOSGEN, W.; ZYTKOW, J. M. Handbook of Data Mining and Knowledge
Discovery, Oxford University Press, 2002.
LINDLEY, D. V.; SMITH, A. F. M. Bayes Estimates for the Linear Model. Journal of
the Royal Statistical Society, Series B, n. 34, p. 1-41, 1972.
LINSTER, B. G. Income tax compliance and evasion: a graphical approach.
Southern Economic Journal, v. 63, n. 3, p. 788-796, Jan. 1997.
MACHO-STADLER, I.; PÉREZ-CASTRILLO, J. D. Auditing with Signals.
Economica, v. 69, p. 1-20, Fev. 2002.
MADDALA, G. S. Econometrics. New York: McGraw-Hill, 1977.
MEYER, P. L. Probabilidade Aplicações à Estatística. Rio de Janeiro: Livros
Técnicos e Científicos Editora S.A., 1975.
MILLS, L. F. Corporate Tax Compliance and Financial Reporting. National Tax
Journal, v. 49, n. 3, p. 421-435, Sep. 1996.
MONTGOMERY, D. C. Design and Analysis of Experiments. 4th ed. John Wiley &
Sons, 1997.
MOST, K. S. Accounting Theory. 2d ed. Columbus, Ohio: Grid Publishing Inc,1982.
MURRAY, M. N. Sales Tax Compliance and Audit Selection. National Tax Journal,
v. 48, n. 4, p. 515-530, Dec. 1995.
NATIS, L. Modelos Lineares Hierárquicos. Estudos em avaliação educacional,
Fundação Carlos Chagas, n. 23, jan/jun 2001.
211
_____. Modelos Lineares Hierárquicos. 2000. Dissertação (Mestrado em
Estatística) - Instituto de Matemática e Estatística, USP, São Paulo.
NETER, J.; WASSERMAN, W. Applied Linear Statistical Models. New York: John
Wiley & Sons, 1974.
NETER, J.; KUTNER, M. H.; NASHTSHEIM, C. J.; WASSERMAN, W. Applied
Linear Regression Models. 3rd ed. Times Mirror Higher Education Group, Inc,
1996.
OGLIARI, P. J. Modelos Não Lineares para Dados Longitudinais Provenientes
de Experimentos em Blocos Casualizados. 1998 Tese (Doutorado em Agronomia)
- Escola Superior de Agricultura "Luiz de Queiroz", USP, Piracicaba.
OSBORNE, J. W. Advantages of hierarchical linear modeling. Practical
Assessment, Research & Evaluation, v. 7(1), 2000. Disponível em
<http://edresearch.org/pare/getvn.asp>. Acesso em: 7 ago. 2003.
PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO. Curso de
Engenharia de Produção. Disponível em < http://www.pucrio.br/ensinopesq/ccg/eng_producao.html>. Acesso em: 27 de set. 2005.
PRESS, S. J. Sample-Audit Tax Assessment for Businesses: What's Fair? Journal
of Business & Economic Statistics, v. 13, n. 6, p. 357-359, Jul. 1995.
R: a language and environment for statistical computing. R Foundation for Statistical
Computing. Disponível em <http://www.R-project.org>. Acesso em Out. 2004.
RASMUSEN, E. Games and Information: an introduction to game theory. 2d ed.
Cambridge: Blackwell Publishers, 1989.
RAUDENBUSH, S. W.; BRYK, A. S. Hierarchical Linear Models: Applications and
Data Analysis Methods. 2.ed. Sage Publications, 2002.
RAUDENBUSH, S. W.; BRYK, A. S.; CHEONG, Y. F.; CONGDON, R. HLM 5 Hierachical Linear and Nonlinear Modeling. Lincolnwood: 2000.
REINGANUM, J. F.; WILDE, L. L. A Note on Enforcement Uncertainty and Taxpayer
Compliance. The Quarterly Journal of Economics, v. 103, n. 4, p. 793-798, Nov.
1988.
RHOADES, S. C. The Impact of Multiple Component Reporting on Tax Compliance
and Audit Strategies. The Accounting Review, v. 74, n. 3, p. 63-85, Jan. 1999.
RICKETTS, M. The Economics of Business Enterprise: An Introduction to
Economic Organization and the Theory of the Firm. Ashgate: Edward Elgar,
2002.
SANSING, R. C. Information Acquisition in a Tax Compliance Game. Accounting
Review, v. 74, n. 4, p. 874-884, October 1993.
212
SANTOS, C. A. de S. T.; FERREIRA, D. A.; OLIVEIRA, N. F; DOURADO, M. I. C.;
BARRETO, M. L. Modelagem Multinível. Sitientibus, Feira de Santana, n. 22, p. 8998, jan./jun. 2000.
SCOTCHMER, S. Audit Classes and Tax Enforcement Policy The American
Economic Review, Nashville, v. 77, n. 2, p. 229-234, May 1987.
SCOTCHMER, S. Who Profits form Taxpayer Confusion? Economics Letters,
North-Holland, v. 29, p. 49-55, 1989.
SCOTCHMER, S.; SLEMROD, J. Randomness in Tax Enforcement. Journal of
Public Economics, North-Holland, v. 38, p. 17-32, 1989.
SEARLE, S. R. Matrix Algebra Useful for Statistics, John Wiley & Sons, 1982.
SECRETARIA DE FAZENDA DO RIO GRANDE DO SUL (SEFAZRS).
Contribuintes/CNAE-Fiscal. Disponível em
<http://www.sefaz.rs.gov.br/SEF_ROOT/SEF-InfoCNAE.htm>. Acesso em: 18 de jun.
2004.
SILVA, E. L.; MENEZES, E. M. Metodologia da Pesquisa e Elaboração de
Dissertação. 3. ed.Florianópolis: UFSC/PPGEP/LED, 2001. 121 p. Trabalho não
publicado. Disponível em: <http://www.ppgep.ufsc.br/>. Acesso em: 12 nov. 2003.
STOKER, L.; BOWERS, J. Designing multi-level studies: sampling voters and
electoral contexts. 36 p. Trabalho não publicado. Disponível em <http://istsocrates.berkeley.edu/~jbowers/stokerbowersA.pdf>. Acesso em: 28 ago. 2003.
TRIVEDI, V. U.; SHEHATA, M.; LYNN, B. Impact of Personal and Situational Factors
on Taxpayer Compliance: An Experimental Analysis. Journal of Business Ethics, v.
47, p. 175-197, 2003.
UNIVERSIDADE FEDERAL DE MINAS GERAIS. Departamento de Engenharia de
Produção. Disponível em <http://www.dep.ufmg.br/graduacao/classica.html>.
Acesso em: 27 de set. 2005.
VARIAN, H. R. Microeconomia. 4. ed. Rio de Janeiro: Campus, 1994.
_____. Microeconomic Analysis, 3rd ed. New York: WW Norton e Company, 1992.
VERAMENDI, M. A. M. EL CONTROL INTEGRAL EXTENSIVO E INTENSIVO DEL
CUMPLIMIENTO DE LAS OBLIGACIONES TRIBUTARIAS Y LOS
LINEAMIENTOS PARA LA SELECCIÓN DE LOS CONTRIBUYENTES EN EL
ÁMBITO DE LA FISCALIZACIÓN. - LA EXPERIENCIA DE LA ADMINISTRACIÓN
TRIBUTARIA PERUANA. Segundo Premio XV Concurso de Monografías
CIAT/AEAT/IEF, 2001.
XIAO, J. Determinants of salary growth in Shenzhen, China: an analysis of formal
education, on-the-job training, and adult education with a three-level model.
Economics of Education Review, n. 21, p. 557-577, 2002.
213
ZHENG, T. Taxpayers' Tax and Financial Reporting Decisions in a Game Theoretical
Model. Canadian Journal of Administrative Sciences, v. 19, n. 2, p. 155-172, Jun.
2002.
ZORN, C. J. W. GEE Models of Judicial Behavior. Atlanta, 1998. Trabalho não
publicado.
214
APÊNDICE A – O trabalho de Feinstein (1991)
A primeira parte da modelagem econômica de Feinstein (1991) considera um Y1i
como sendo a extensão da omissão de rendimentos na declaração i, sendo obtida a
*
partir de uma variável latente Y1i medindo a propensão do contribuinte a omitir
rendimentos, que sob a formulação tobit é explicitada por:
Y1*i = X 1i β 1 + ε 1i
(A.1)
⎧Y1*i , se LY1*i > 0
Y1i = ⎨
*
⎩ 0, se LY1i ≤ 0
(A.2)
e
Onde
X 1i : característica que afeta o cumprimento tributário,
β1 : parâmetro a ser estimado,
suposições do modelo: ε 1i ~ N (0 ,σ 1 ) e independentes.
2
A censura de Y1i ao nível zero se deve à possível presença de declarações que, na
verdade, superestimam seus resultados tributáveis, informando valores a maior de
imposto a pagar, e que, portanto, foram censuradas. Considerando-se a suposição
adotada para os termos de erro, tem-se que a probabilidade de "não evasão" e de
"evasão" em algum montante y são dadas, respectivamente, por:
⎛X β ⎞
Prob(não _ evasão) = 1 − Φ⎜⎜ 1i 1 ⎟⎟
⎝ σ1 ⎠
Prob(alguma _ evasão) =
1 ⎛ y − X 1i β 1 ⎞
⎟⎟
φ⎜
σ 1 ⎜⎝ σ 1
⎠
(A.3)
(A.4)
Sendo Φ (⋅) a função densidade de probabilidade Normal acumulada e
φ (⋅) a
função de densidade Normal de probabilidade, ambas padronizadas.
O segundo modelo proposto considera uma resposta Y2 i como sendo a extensão
da detecção da omissão de rendimentos na declaração i, condicional a Y1i > 0.
Similarmente, por tobit, formula-se:
215
Y2*i = X 2i β 2 + ε 2i
(A.5)
⎧ 1, seLY2*i ≥ 1
⎪
Y2 i = ⎨ 0, seLY2*i ≤ 0
⎪Y * , seL0 < Y * < 1
2i
⎩ 2i
(A.6)
e
Onde
X 2i : característica que afeta o cumprimento tributário,
β 2 : parâmetro a ser estimado,
suposições do modelo:
ε 2i ~ N (0,σ 12 ) e independentes.
Modeladas a evasão e a detecção, o ponto chave agora é a dedução da função
de verossimilhança a ser maximizada para obtenção de estimativas Primeiramente,
deve-se
ter
em
mente
que
ε 1i
e
ε 2i
distribuem-se
normalmente
e
independentemente. Relacionem-se, então, as probabilidades de ocorrência das
categorias de detecção:
a) Detecção Completa:
⎛ X β −1⎞
⎟⎟
Prob(ε 2i ≥ 1 − X 2i β 2 ) = Φ⎜⎜ 2i 2
σ
⎝
⎠
2
(A.7)
b) Não Detecção:
⎛X β ⎞
Prob(ε 2i ≤ − X 2i β 2 ) = 1 − Φ⎜⎜ 2i 2 ⎟⎟
⎝ σ2 ⎠
(A.8)
c) Detecção da Porção s, 0 < s < 1:
Prob(ε 2i = s − X 2i β 2 ) =
⎛ s − X 2i β 2 ⎞
⎜
⎟⎟
⋅
φ
σ 2 ⎜⎝ σ 2
⎠
1
(A.9)
Supondo que exista um conjunto A de declarações com omissão detectada e um
_
conjunto complementar A de declarações sem omissão detectada, para que a
probabilidade de ocorrência de um determinado i possa ser deduzida é preciso que
sejam combinados os modelos em (A.1) e (A.2) com (A.5) e (A.6) e, além disso, que
216
seja claramente identificada a ocorrência de uma dessas duas possibilidades em
_
relação à declaração. Nesse sentido, se um contribuinte i pertence ao conjunto A ,
ele não omitiu rendimentos, ou então omitiu, mas a omissão não foi detectada.
Assim, a probabilidade associada ao evento i em particular é dada por:
−
L(i ∈ A) = Prob(não _ omissão) +
Prob(omissão) ⋅ Prob(não _ detecção)
(A.10)
e
−
⎛X β ⎞
L(i ∈ A) = 1 − Φ⎜⎜ 1i 1 ⎟⎟ +
⎝ σ1 ⎠
∞
⎛ X β ⎞⎤
1 ⎛ y − X 1i β1 ⎞ ⎡
⎟⎟ ⎢1 − Φ⎜⎜ 2i 2 ⎟⎟⎥ dy
φ ⎜⎜
σ1 ⎝ σ1
⎝ σ 2 ⎠⎦
⎠⎣
0
(A.11)
∫
Uma função de probabilidade de ocorrência similar também pode ser estendida para
o caso em que i ∈ A .
L(i ∈ A) =
⎛ Y − X 1i β 1 ⎞ ⎛ X 2i β 2 − 1 ⎞
⎟⎟ ⋅ Φ⎜⎜
⎟⎟ +
− φ ⎜⎜ i
σ
σ
σ1
⎝
⎠ ⎝
⎠
1
2
1
∞
1 ⎛ y − X 1i β 1 ⎞ 1 ⎛ Yi / y − X 2i β 2 ⎞
⎟⎟ φ ⎜⎜
⎟⎟dy
φ ⎜⎜
σ
σ
σ
σ
⎠ 2 ⎝
⎠
1 ⎝
1
2
Yi
∫
(A.12)
Em (A.12) Yi é o montante da evasão detectada, e a integral representa a chance
de ocorrer uma evasão y com a fração ( Yi / y ) sendo detectada pela agência, o
que implica que o valor detectado nessa integral se mantém equivalente ao valor
observado y (Yi / y ) = Yi . Com base nas equações (A.11) e (A.12), uma função de
log-verossimilhança total da amostra para o modelo tobit proposto é dada pelo
somatório em i das probabilidades obtidas para os contribuintes pertencentes aos
_
conjuntos A e A, e pode ser maximizada, iterativamente, em função de
β1 , β 2 ,σ 1 ,σ 2 , conforme segue:
217
L=
⎡
_
i∈A
∑
i∈A
⎛ X 1i β 1 ⎞ ⎛ X 2i β 2 ⎞⎤
⎟⎥ +
⎟Φ ⎜
σ 1 ⎟⎠ ⎜⎝ σ 2 ⎟⎠⎦
∑ log ⎢⎣1 − Φ⎜⎜⎝
⎡ 1 ⎛ Yi − X 1i β 1 ⎞ ⎛ X 2i β 2 − 1 ⎞
⎟⎟ +
⎟⎟Φ⎜⎜
⎢ φ ⎜⎜
σ
σ
σ
⎠
⎝
⎠
⎝
1
1
2
⎢
log ⎢ ∞
⎢ 1 φ ⎛⎜ y − X 1i β 1 ⎞⎟ 1 φ ⎛⎜ Yi / y − X 2i β 2
⎟σ ⎜
⎢ σ 1 ⎜⎝
σ1
σ2
⎠ 2 ⎝
⎣Yi
∫
⎤
⎥
⎥
⎥
⎞ ⎥
⎟⎟dy
⎠ ⎥⎦
(A.13)
Na parte de aplicação dos modelos, os dados utilizados são do TCMP do IRS
(pessoas físicas), referentes aos anos de 1982 e 1985. Esses dados envolvem uma
amostra representativa dos dados das declarações de rendimentos de contribuintes
pessoas físicas dos EUA e o resultado de suas fiscalizações por parte dos auditores
do IRS. Com base nesses dados, as estimativas de máxima verossimilhança obtidas
seguem na Tabela 22:
Tabela 22: Estimativas para modelo tobit de Feinstein (1991)
(continua)
Variável Resposta: Valor Líquido do Rendimento Tributável Omitido
Variáveis
Independentes
Coeficientes (Erro Padrão)
Modelo 1982
Modelo 1985
Modelo Conjunto
Constante
-6.175 (151)
-16.160 (161)
-0,106 (160)
AGI
6717* (342)
4.957* (659)
0,173 (382)
AGI2
-277* (83,1)
-206,5* (94,4)
0,181(170)
AGINEG
9669* (464)
28.010* (2.136)
11620* (3.774)
MTAX
12.550* (245)
25.550* (618)
-4872* (413)
SCEDC
4.400* (318)
7.554* (836)
4.408* (500)
FARM
3.247* (428)
7.243* (1.985)
3.094* (877)
RETIRED
-886,3* (315)
488,4 (508)
-3.219* (279)
IDM
-4.076 (2.992)
-655 (4.238)
3.596 (3.758)
IDH
312,9(1.233)
-8.997* (1.851)
-4.715* (925)
CAPGAINS
-0,00364 (0,0193)
0,0579* (204)
0,0831* (114)
MARRIAGE
419,3* (210)
3.360* (240)
2,63 (237)
0,371 (0,0170)
0,281 (0,00557)
0,276 (0,0061)
Equação Omissão
Equação Detecção
Intercepto
218
Tabela 22: Estimativas para modelo tobit de Feinstein (1991)
(continuação)
Variável Resposta: Valor Líquido do Rendimento Tributável Omitido
Variáveis
Independentes
Coeficientes (Erro Padrão)
Modelo 1982
Modelo 1985
Modelo Conjunto
GS GRADE
-0,151* (0,0185)
0,134* (0,0171)
-0,0366* (0,00872)
NUMFORMS
0,153* (0,0139)
0,0840* (0,00986)
0,199* (0,00905)
log-Likelihood
-3.364
-5.598
-9.677
*Significância ao nível de 5%
Fonte: Adaptado de Feinstein (1991).
Onde
AGI: rendimento bruto ajustado pelo IRS,
AGINEG: variável dummy indicando se o AGI resultou negativo na declaração,
MTAX: taxa marginal de tributação em vigor para o contribuinte,
MARRIAGE: variável dummy indicando se o contribuinte é casado,
RETIRED: variável dummy indicando se o contribuinte requereu a isenção para
rendimentos auferidos pelos maiores de 65 anos,
SCEDC: variável dummy indicando se o formulário C foi utilizado,
FARM: variável dummy indicando se o formulário F foi utilizado,
IDM: variável dummy indicando se o contribuinte exerce ocupação principal de
médico ou veterinário,
IDH: variável dummy indicando se o contribuinte exerce as ocupações A1, D, G ou
H, conforme especificado pelo IRS,
CAPGAINS: valor em dólares dos ganhos de capital declarados,
NUMFORMS: número de formulários preenchidos na declaração,
GSGRADE: variável dummy indicando se o grau de proficiência do auditor-fiscal
responsável pelo caso é superior a 11,
log-Likelihood: log-Verossimilhança maximizada.
Sinteticamente, os principais resultados e conclusões obtidos em relação ao
processo que modela a omissão apontam para os seguintes fatos: quanto maior o
rendimento do contribuinte, maior a evasão; o coeficiente para a taxa marginal de
tributação é elevado e estatisticamente significativo em todos os modelos, sendo
positivo para os anos de 1982 e 1985 isoladamente e negativo para esses anos em
conjunto; os contribuintes casados são mais propensos à evasão; e os contribuintes
219
que preenchem os formulários C e F são significativamente mais infratores, talvez
por perceberem mais oportunidades para omitir rendimentos. Além disso, o autor
alega que os resultados tomados isoladamente para 1982 e 1985 são consistentes
entre si.
Já as conclusões em relação ao processo de detecção para 1982 e 1985 indicam
que houve uma melhora na qualificação de mão de obra no IRS, já que pelos sinais
dos coeficientes, viu-se que os servidores mais experientes não favoreciam uma
maior detecção em 1982, resultado que se inverteu para 1985. Outro resultado
surpreendente é que, ao contrário do senso comum, as revisões mais intrincadas
envolvendo os formulários mais complexos favorecem uma maior detecção da
infração praticada.
220
APÊNDICE B – O trabalho de Murray (1995)
Murray (1995) considera que a abordagem teórica do agente-principal (ver seção
2.3) pode ser trasladada diretamente para o caso dos impostos sobre as vendas das
empresas industriais dos EUA. Estas devem decidir quanto de suas vendas reportar
à agência, e esta, ao receber a declaração, deve decidir sobre os valores
informados e submetê-los ou não a uma auditoria, que, em ocorrendo e sendo
apurados valores não declarados, implica cobrança do imposto sobre as vendas
faltantes e mais as penalidades cabíveis.
O modelo proposto pelo autor fundamenta-se em duas equações de
comportamento, uma para a empresa e outra para a agência tributária. Para a
empresa seu rendimento líquido, caso não seja fiscalizada é denotado por:
π N = (1 + t ) R + tR (1 − B )(V − 1) − C
(B.1)
Onde
t: taxa de tributação ad valorem,
R: rendimento líquido do imposto,
B: parcela do imposto não declarada,
V: Taxa de compensação do vendedor sobre os impostos recolhidos à agência,
C: Custo total de comercialização.
Caso o contribuinte seja fiscalizado, seu rendimento passa a ser:
π C = π N − (1 + f ) BRt
(B.2)
Onde
t: taxa de tributação ad valorem,
R: rendimento líquido do imposto,
B: parcela do imposto não declarada,
f: penalidade mais juros incidentes sobre o imposto não declarado.
O contribuinte, neutro ao risco, deve então maximizar o valor esperado de sua
função de utilidade14 a seguir, com base nos seus já definidos rendimentos:
MaxE[U (π )] = (1 − Γ )U N (π N ) + ΓU C (π C )
14
(B.3)
A função de utilidade atribui um número a cada cesta de consumo possível ao consumidor e às
cestas preferidas são atribuídos números maiores do que às menos preferidas, detalhes em Varian
(1994, p.59).
221
Onde
Γ : probabilidade de ser auditado,
U N (π N ) : Função de utilidade caso não fiscalizado,
U C (π C ) : Função de utilidade caso fiscalizado.
O nível ótimo de rendimento não reportado é dado pela condição de primeira
ordem seguinte:
U 'N (.) ⎡ Γ ⎤ ⎡⎛ 1 + f ⎞ ⎤
⋅ ⎜
=
⎟ −1
U C' (.) ⎢⎣1 − Γ ⎥⎦ ⎢⎣⎝ 1 − V ⎠ ⎥⎦
(B.4)
O autor propõe que, empiricamente, essa condição seja dada pela equação:
E* = Zθ + ε
(B.5)
Onde
E * : variável latente indicando o nível ótimo de rendimento não declarado,
Z : vetor de características do contribuinte,
θ : vetor de coeficientes,
ε : vetor de termos de erro aleatório normalmente distribuídos.
Nesse caso, os fatores determinantes de valores declarados a menor são f, t, V e
Γ.
Já a função de potencialidade de auditoria de um contribuinte por parte do órgão
tributário é dada por:
A* = Xλ + YΣ + µ
(B.6)
Onde
A * : variável latente indicando produtividade potencial ótima de auditoria,
X : vetor de características da empresa,
λ : pesos decisórios,
Y : recursos disponíveis para auditorias,
Σ : coeficientes associados aos recursos,
µ : vetor de efeitos aleatórios normalmente distribuídos.
A variável latente A* não é diretamente observável, mas por outro lado, podem
ser observados os casos em que ela é maior do que zero e que houve efetivamente
222
a auditoria. Isso permite a especificação de duas variáveis indicadoras de trabalho,
I A e I E:
⎧ 1,LL seL A* > 0
IA = ⎨
⎩0,casoLcontrário
e
⎧1, seL E* > 0 , A* > 0
IE = ⎨
⎩ 0 ,casoLcontrário
Com elas, a probabilidade de ser fiscalizado e a propensão à omissão de
rendimentos podem ser estimadas, pois o nível de rendimentos não declarados
pode ser calculado, condicional a uma auditoria e a uma omissão, IA = 1 e IE = 1,
por:
E = ZΛ + ω
(B.7)
Onde
E : nível rendimentos não declarado,
Z : vetor de características do contribuinte,
Λ : vetor de coeficientes,
ω : vetor de termos de erro aleatório normalmente distribuídos.
Os modelos em (B.5), (B.6) e (B.7) constituem-se no fundamento teórico da
análise empírica conduzida pelo autor, que teve por base os dados do Departamento
de Receitas do Estado do Tennessee. O autor selecionou apenas as empresas que
correspondiam ao setor de industrial, abrangendo 2.178 empresas no total, sendo
que, dessas, 396 foram selecionadas para fiscalização entre 1986 e 1988. Os dados
não compreenderam os critérios que nortearam a seleção desses contribuintes, nem
os resultados finais posteriores às auditorias do IRS. Os procedimentos de
modelagem envolveram três estágios e foram estimados com base nos dados
originais informados pelos contribuintes ao Departamento de Receitas do
Tennessee.
No primeiro, a variável dependente é binária, indicando se o contribuinte foi
fiscalizado ou não, utilizando-se a regressão probit para obtenção de probabilidades
de fiscalização como resposta esperada. A tabela 23 relaciona os resultados das
223
estimativas obtidas pelo autor para as 2.178 empresas (fiscalizadas e não
fiscalizadas), para dois modelos distintos:
Tabela 23: Estimativas primeiro estágio (probit) de Murray(1995)
Variável Resposta: Variável binária (fiscalizada/não fiscalizada)
Variáveis Independentes
Coeficientes (Erro Padrão)
Modelo 1
Modelo 2
RSALE
-7,3 x 10-7* (2,87)
-6,8 x 10-7* (2,68)
RSALER
4,3 x 10-7* (2,76)
3,4 x 10-7** (2,13)
RUSE
9,8 x 10-6** (1,98)
9,3 x 10-6*** (1,88)
RUSER
-5,8 x 10-7 (1,37)
-5,9 x 10-7 (1,36)
REXEM
5,9 x 10-6* (4,00)
6,3 x 10-6* (4,12)
REXEMR
-2,6 x 10-6* (3,81)
-2,7 x 10-6* (3,86)
LATE
-3,28* (3,02)
-3,59* (3,32)
AGE
0,014* (3,11)
0,013* (2,85)
OUTLETS
0,006 (1,12)
0,001*** (1,75)
NSOWN
0,351* (3,07)
1,82* (5,85)
CORPDUM
1,84* (8,45)
1,68* (7,95)
SIC1
0,300* (2,68)
0,199*** (1,72)
SIC2
-0,531* (4,32)
-0,497* (4,00)
AUDITOR
-0,013* (3,29)
0,025* (3,02)
AUDITOR*NSOWN
CONSTANTE
-0,052* (5,29)
-2,61* (10,3)
-3,71* (10,3)
N
2.178
2.178
χ2
794,09
824,44
*significante ao nível de 1%
** significante ao nível de 5%
***significante ao nível de 10%
Fonte: Adaptado de Murray (1995)
Onde
RSALE: Valor declarado da receita bruta de vendas,
RSALER: Diferença entre o maior e o menor valor de receita bruta de vendas
declarada entre 1986 e 1988,
RUSE: Valor declarado da receita de vendas para outros estados,
REXEM: Valor declarado da receita de vendas isenta,
224
RUSER: Diferença entre o maior e o menor valor de receita de vendas tributável
declarada entre 1986 e 1988,
REXEMR: Diferença entre o maior e o menor valor de receita de vendas declarada
isenta entre 1986 e 1988,
LATE: Indica declaração entregue com atraso,
AGE: Idade da empresa em anos,
OUTLETS: Indica se a empresa possui filial,
NSOWN: Indica se o proprietário da empresa reside em outro estado,
CORPDUM: indica se a empresa é uma corporação,
SIC1 e SIC2: Variáveis indicadoras para dois tipos de indústrias,
AUDITOR: Número de auditores da força de trabalho da região da empresa.
Segundo o autor, os resultados do Modelo 1 demonstram que há um claro
procedimento sistemático não aleatório por parte do Estado do Tennessee ao
selecionar contribuintes do setor industrial para fiscalização. Pela Tabela 23,
observa-se que os contribuintes que relatam elevados valores de receitas de vendas
brutas enfrentam menores probabilidades de serem fiscalizados, enquanto que os
que apresentam variações nessas mesmas receitas ao longo do tempo têm maior
probabilidade de serem selecionados. Outros fatores que elevam essa probabilidade
são a declaração de altos valores de vendas para outros estados e de altos
montantes de vendas isentas, como seria de se esperar. Contudo, uma variação
sensível desse último valor ao longo do tempo surpreendentemente diminui a
chance de fiscalização. Outro resultado é o de que empresas que declaram
rendimentos com atraso possuem menor probabilidade associada de auditoria. Além
disso, as empresas mais antigas, as que se constituem como corporação e as que
têm proprietários em outros estados têm mais chances de serem fiscalizadas.
Já as estimativas para o modelo 2, considerando uma interação entre AUDITOR
e NSOWN, indicam que as empresas cujos proprietários moram no Estado são mais
selecionadas se houver mais recursos de auditoria, enquanto que as que possuem
proprietários em outros estados são menos fiscalizadas com incrementos na força
de auditoria estatal.
Um modelo probit para o estágio 2, para estimar as probabilidades associadas à
presença de omissão de receitas, com base nas 396 empresas fiscalizadas pelo
departamento de receitas do Tennessee, sendo que os valores das respostas para
os 24 registros em que não houve ajuste dos rendimentos do contribuinte (ajuste
225
zero) foram censurados em zero, produziu estatísticas bem menos significativas do
que o anterior, provavelmente por haver apenas 6% de empresas com ajuste zero.
Como fatos relevantes, as empresas mais antigas, as que possuem proprietário em
outro estado e as que possuem outros pontos de venda em filiais possuem maior
probabilidade de omitir rendimentos.
Em um terceiro estágio três novos modelos são estimados: um primeiro por MQO
com correção de viés de seleção, com base apenas nas 372 empresas fiscalizadas
em que houve ajuste dos rendimentos; o segundo, que considera todos os 2.178
componentes da amostra, e é estimado por MQO ignorando a censura da resposta
em relação aos casos de ajuste zero; e um terceiro, em que se consideram todos os
396 fiscalizados, e igualmente estimado por MQO ignorando-se a censura da
resposta. O objetivo é avaliar os determinantes dos valores de rendimento omitidos.
A variável resposta é o valor do ajuste efetuado no rendimento do contribuinte divido
por horas de auditoria (VA/HA). Seus resultados são os da Tabela 24:
Tabela 24: Estimativas terceiro estágio (MQO) de Murray (1995)
(continua)
Variável Resposta: Valor do Ajuste/Horas de auditoria
Coeficientes (Erro Padrão)
Variáveis
Independentes
Modelo 1
Modelo 2
Modelo 3
TRUSALE
0,005* (24,1)
0,004* (49,20)
0,005* (17,2)
RSALER
-0,005* (8,71)
-0,001* (8,76)
-0,005* (5,08)
RUSE
-0,066 (1,41)
-0,017 (1,57)
-0,062 (0,785)
RUSER
0,019* (3,40)
0,005* (4,84)
0,018* (1,96)
REXEM
-0,099* (7,73)
-0,036* (12,5)
-0,098* (4,45)
REXEMR
0,057* (5,97)
0,017* (12,9)
0,056* (3,26)
LATE
3,2 x 104*** (1,89)
7,90 (0,019)
2,9 x 104 (0,507)
AGE
-74,3 (1,27)
22,2* (2,72)
-73,6(0,737)
OUTLETS
-92,4 (1,19)
-11,8 (1,46)
-100,0 (0,768)
NSOWN
-5,3 x 103** (2,31)
-300,8 (1,30)
-5,6 x 103 (1,48)
CORPDUM
-2,0 x 104** (2,10)
255,6 (1,15)
-1,7 x 104 (0,608)
SIC1
-2,8 x 103*** (1,75)
-221,6 (0,930)
-2,9 x 103 (0,960)
SIC2
7,9 x 103* (2,75)
-14,6 (0,078)
6,0 x 103 (1,25)
AUDIT
652,6 (0,864)
226
Tabela 24: Estimativas terceiro estágio (MQO) de Murray (1995)
(continuação)
Variável Resposta: Valor do Ajuste/Horas de auditoria
Coeficientes (Erro Padrão)
Variáveis
Independentes
Modelo 1
Modelo 2
Modelo 3
λ1
^
-1,3 x 104* (2,92)
-1,1 x 104** (2,38)
-1,2 x 104 (1,53)
λ2
^
3,6 x 103 (1,09)
CONSTANTE
4,2 x 104** (2,50)
62,7 (0,301)
3,9 x 104 (1,08)
N
372
2.178
396
R2
0,62
0,54
0,62
*significante ao nível de 1%
** significante ao nível de 5%
***significante ao nível de 10%
Fonte: Adaptado de Murray (1995)
Onde
^
λ1 : fator de correção do viés de seleção gerado pelo probit univariado da
probabilidade de ser auditado com base no estágio 1 (ver nota de rodapé 5 capítulo 2),
^
λ 2 : fator de correção do viés de seleção gerado pelo probit univariado da
probabilidade de omitir rendimentos com base no estágio 2 (ver nota de rodapé 5 capítulo 2),
AUDIT: probabilidade de ser auditado obtida com base no estágio 1.
Pelo modelo 1 da Tabela 24, observa-se que quanto maiores as vendas brutas
reais maiores são os níveis de (VA/HA). O mesmo relacionamento é verificado para
uma maior variação na receita declarada de vendas para outros Estados e para
grande variação na receita de vendas isenta. Por outro lado, tanto a grande variação
na receita bruta de vendas quanto na receita de vendas isentas associam-se a um
^
menor (VA/HA). Para o autor, o valor significativo e negativo obtido para λ1 mostra
que os fatores não observados associados à seleção (estágio 1) são negativamente
correlacionados com fatores não observáveis relacionados ao nível da resposta
(VA/HA). Isso sugere existência de fatores não observados influenciando a seleção,
e que levam a resultados de auditoria contrários aos desejados pela agência do
Tennessee.
227
Para os modelos 2 e 3 da Tabela 24 não houve censura de valores de
rendimentos não ajustados como no estágio 2 e de maneira geral suas estimativas
são bastante consistentes com os estágios anteriores. Como destaque para o
Modelo 2, o autor considera que a estimativa para AUDIT, não significativa, indica
que o sistema de seleção empregado pelo Tennessee pouco vinha promovendo o
cumprimento tributário no período; e, além disso, que os contribuintes não tinham
conhecimento sobre os critérios que norteavam tal sistema, ao menos em relação ao
setor industrial considerado no estudo. Já no caso do Modelo 3, destaca-se nele o
^
valor de λ1 , que não é significativo, concluindo-se por não haver relação entre os
fatores não observados no estágio 1 e no Modelo 3 do estágio 3.
As conclusões finais do autor apontam para a verificação da existência de um
ambiente em que a agência tributária do Tennessee realmente utilizava, entre 1986
e 1988, um critério de seleção específico e desconhecido do público em geral para a
seleção das empresas que informaram receitas de vendas de bens em suas
declarações; e que estas empresas estavam efetivamente se aproveitando das
oportunidades abertas pela legislação e pelo ambiente tributário para cometerem
infrações.
228
APÊNDICE C – O trabalho de Press (1995)
O trabalho de Press (1995) preocupa-se com a minimização do risco envolvido
na seleção de contribuintes. Baseia-se em intervalos de confiança estabelecidos a
partir de amostras aleatórias da população de transações empresarias praticadas
por cada contribuinte. Supondo que exista um A > 0 que indica o valor real de
^
rendimento auferido pelo contribuinte e seja A o valor estimado desse rendimento
por parte do órgão tributário. Adota-se uma função de perda linear, conforme a
seguir:
^
^
⎧⎪ k ( A − A
L
se
L
A
A
)
,
>
,LL
L( A, A) = ⎨ 1 ^
⎪⎩k 2 ( A− A),LcasoLcontrário.
^
(C.1)
Sendo k1 > 0 e k 2 > 0 . Na primeira faixa da função tem-se uma região de
subestimação do rendimento e na segunda uma superestimação do mesmo. A
agência deseja selecionar os contribuintes de forma a minimizar a sua perda ou
risco decisório esperado, que pode ser explicitado condicionalmente por meio do
Teorema de Bayes:
λ
^
∫
∞
^
∫
^
R( A, A) = k 2 ( A− A) f ( A | Q)dA + k1 ( A − A) f ( A | Q)dA
(C.2)
λ
−∞
^
Se tem-se Y como estimador da média do valor tributável por transação em uma
^
amostra de n transações, Q = N Y
representa então o estimador do total
populacional tributável para o contribuinte, e f(A|Q) representa a densidade de
probabilidade posterior de A dado Q. A minimização de (C.2) se dá por sua
^
^
diferenciação em relação a A e igualando-a a zero . Supondo-se F ( A) como a
função densidade de probabilidade acumulada referente aos valores da distribuição
^
posterior de (A|Q), o valor de A que soluciona a minimização, de acordo com o
autor, é o valor que atende:
^
F ( A) =
k1
1
=
k1 + k 2 1 + k
(C.3)
229
Onde k =
k2
. Prosseguindo, supondo-se que E(Q)=A, Var(Q)=s2 e que, para n
k1
grandes, se utilize a aproximação à distribuição normal para definir a distribuição de
(A|Q), pode-se formalizar uma variável aleatória padronizada X :
X =
A−Q
s
(C.4)
Se Φ (⋅) representa a função densidade de probabilidade Normal acumulada
padronizada, pode-se fazer:
^
⎛A
1
− Q ⎞⎟
⎜
F ( A) =
= Φ⎜
1+ k
⎜ s ⎟⎟
⎠
⎝
^
(C.5)
Chamando o valor entre os parênteses da função em (C.5) de -z, e devendo-se
reconhecê-lo como situado no lado esquerdo da distribuição normal padronizada,
^
pois k > 1, pode-se escrever que A = Q − sz . Portanto, o melhor estimador do
resultado tributável, considerando-se a função de risco, é o limite inferior do intervalo
de 100 ⋅ {1 − [1/(1 + k )]} % de confiança para A, o real rendimento tributável do
contribuinte. Como restaram 100 ⋅ [1/(1 + k )] % de probabilidade de superestimação
dos rendimentos do contribuinte, caso a agência acredite que 5% seja uma margem
segura para essa possibilidade, o melhor estimador pontual do rendimento tributável
torna-se o limite inferior de um intervalo unilateral com 95% de confiança. Isso
permite que seja mantida uma sensação de eqüidade para os contribuintes, pois
caso seja tomado como estimador pontual o centro de um intervalo de confiança
bilateral, existe 50% de chance do rendimento do contribuinte ser superestimado, o
que, do ponto de vista do contribuinte, não parece justo.
Se, conforme prescrito, considerando-se o limite inferior de um intervalo de
confiança unilateral como ponto de corte para a seleção de contribuintes, isso
claramente acabará por carrear menos tributos ao órgão fiscalizador do que se
considerado o centro de um intervalo bilateral, por que não se utilizar diretamente
deste último ponto de corte central? O problema é que foi visto que, aos olhos do
contribuinte, isso não parece justo. Assim, a proposta do trabalho para manutenção
da sensação de justiça é selecionar contribuintes eqüitativamente utilizando-se o
230
limite inferior. Contudo, de forma a reverter a conseqüente perda de arrecadação, a
solução é o estreitamento do intervalo de confiança por meio da elevação do
tamanho de amostra, levando-se em consideração, é claro, o custo incorrido por
esse incremento amostral. Viu-se que um limite inferior para a credibilidade
^
unicaudal com base em uma distribuição Normal posterior á dada por A = Q − zs , e
o erro padrão desse estimador de A é dado por:
s N ⎡ N − n⎤
s = 0 1/ 2 ⎢
(n) ⎣ N − 1 ⎥⎦
Utilizando-se
1/ 2
(C.6)
desse
ferramental,
o
autor
apresenta
um
exemplo
prático
considerando-se um N = 36107, s0 = 609 e uma estimativa para Q = US$
1.640.571,00. Com o cálculo de s por meio de (C.6) e assumindo-se que a agência
opta por apenas 5% de chance de superestimação do resultado do contribuinte,
^
pode-se verificar como variam os valores de A = Q − 1,645 ⋅ s em função do
tamanho de amostra de transações, conforme a Tabela 25:
^
Tabela 25: relacionamento entre n e A
n
^
A (US$)
1000
2000
3000
4000
5000
512.642,2
854.446,1
1.008.182,3
1.101.240,8
1.165.751,1
Fonte: Adaptado de Press (1995).
Considerando-se um custo por tamanho de amostra c = 100 ⋅ n e uma taxa de
tributação de 33% a ser imposta ao contribuinte, o equilíbrio, de acordo com a
Tabela 25, se dá com um n de cerca de 3000 unidades amostrais. Elevar o tamanho
de amostra a partir desse equilíbrio só reduzirá a arrecadação da agência tributária.
Dessa forma, consegue-se elevar o ponto de corte para a definição do real
rendimento do contribuinte, mantendo-se a equidade, e apenas 5% de chance de
superestimá-lo.
Cabe aqui um comentário final em relação a esse trabalho. Em termos de
auditoria tributária aplicada, selecionar um contribuinte e atribuir-lhe um rendimento
tributável real estimado com base em um ponto de corte otimizado não
necessariamente carreará as receitas assim projetadas aos cofres públicos. Para a
efetiva realização desses valores, o auto de infração tem de ser instruído com
231
elementos materiais que suportem a estimativa da agência, a menos que a
prerrogativa de utilização dessa estimativa como prova material esteja legalmente
disposta. Portanto, esse critério amostral otimizado de auditoria presta-se à fase de
seleção de contribuintes, porém para servir de base à previsão dos valores
esperados a serem arrecadados é preciso que os primeiros lotes selecionados
dessa forma sejam avaliados em termos de resultados pós-auditoria para uma
melhor avaliação dos valores de retorno.
232
APÊNDICE D – Estimação de MV por Newton-Raphson e Escores
Inicialmente, deve-se reconhecer que próximo a um mínimo ou máximo local os
2
contornos das funções são quase elípticos (no R ). Esse fato concede a
oportunidade para a utilização de uma aproximação quadrática da função de
verossimilhança que se deseja maximizar, considerando-se o parâmetro
θ. O
método de Newton Raphson utiliza a série de Taylor, centrada em um ponto a, para
aproximar a função de verossimilhança (BAJPAI, MUSTOE, WALKER, 1980), que é
dada genericamente por:
f (θ ) =
∑
∞
k =0
f k (a)
(θ −a ) k
k!
(D.1)
A expansão dessa série até a 2ª ordem para uma função a uma variável, centrada
em θ
(1)
fornece:
f t (θ ) ≅ f (θ (1) ) + (θ − θ (1) ) f x (θ (1) ) + 1 (θ − θ (1) ) 2 f xx (θ (1) )
2
(D.2)
Generalizando essa possibilidade para uma função L( θ ) a p variáveis
(parâmetros), obtém-se uma função de aproximação quadrática em torno de θ
(1)
(DAVIDSON e MACKINNON, 1993):
1
Lt (θ) = L(θ (1) ) + g(θ (1) )T (θ − θ (1) ) + (θ − θ (1) )T H(θ (1) )(θ − θ (1) )
2
onde L(θ
g( θ
(1)
(1)
) : Valor da função de verossimilhança no ponto θ (1) ,
): é o gradiente ou o vetor (p x 1) de escores da função L( θ ), com elementos
típicos da forma
H( θ
(1)
(D.3)
∂L(θ)
∂θu
, calculado no ponto θ
(1)
,
): é o Hessiano de L( θ ), uma matriz (p x p) com elementos típicos da forma
∂L2 (θ)
∂θu ∂θ v
, calculado no ponto θ
(1)
, u e v sendo indicadores de linhas e
colunas.
Derivando (D.3) em relação a θ e igualando-a a zero, e, sabendo-se que H = H',
obtém-se um novo valor aproximado para θ , que pode-se chamar de θ
(2)
:
233
g (θ (1) ) + H (θ (1) )(θ − θ (1) ) = 0 ⇒
− H (θ (1) ) −1 g (θ (1) ) = H (θ (1) ) −1 H (θ (1) )(θ − θ (1) ) ⇒
(D.4)
θ (2) = θ (1) − (H (θ (1) ) −1 g (θ (1) ) ⇒
θ (s+1) = θ (s) − H(θ (s) ) −1 g (θ (s) )
sendo s = 1, 2, ....
onde
s: iterações do processo de maximização.
Essa equação permite um esquema de aproximação sucessiva do ponto de máximo.
Supondo-se que se esteja no ponto θ
(1)
procurando o máximo de L(θ) . Para uma
função quadrática esse processo encontraria um mínimo θ
(2)
em um único passo.
t
Como a função L (θ) é uma aproximação, o esquema é iterativo até que a
convergência seja atingida. Quando a diferença entre as aproximações sucessivas
θ (s+1) e θ (s) é suficientemente pequena, θ (s+1) é considerado como estimador de MV
(DOBSON, 2002). Deve-se acrescentar que esse processo fornecerá um mínimo
global no caso da função
Lt (θ) ser estritamente convexa (DAVIDSON e
MACKINNON, 1993).
A diferença do método dos Escores em relação ao processo descrito reside no
fato de que ele trabalha com o valor esperado da matriz do Hessiano H( θ ), e não
com seus valores observados, constituindo a matriz de informação de Fischer:
K (θ) = E[H (θ)]
(D.5)
Que também pode ser entendida como uma matriz de variância/covariância dos
escores
∂L(θ)
∂θu
. Em geral, no caso de observações não correlacionadas e
normalmente distribuídas, as derivadas segundas cruzadas em K (θ) = E[H (θ)]
convergem a zero, facilitando os cálculos (DOBSON, 2002). O processo de
maximização pelo método dos Escores se dá, então, da seguinte forma:
θ (2) = θ (1) − K (θ (1) ) −1 g(θ (1) )
(D.6)
234
APÊNDICE E – Índices Econômico-Fiscais
Quadro 5: Índices Econômico-Fiscais Utilizados na Pesquisa
Lucro Real antes da Compensação
(Receita
Prejuízo/Lucro Líquido antes da
Incentivada)/Receita
CSLL
Incentivada
(Passivo
Circulante
Exigível
anterior
Longo
+
Prazo
Líquida
-
Receita
não
Resultado
Financeiro/
Lucro
Operacional
(Passivo Circulante atual + Exigível
Passivo Circulante/ Exigível Longo
Longo Prazo atual)/(Ativo atual)
Prazo
(Passivo
Reserva
anterior)/(Ativo anterior)
Outras
Despesas
Operacionais/
Despesa Operacional
Circulante
+
Exigível
Longo Prazo)/(Patrimônio Líquido
de
Reavaliação
atual/
Patrimônio Líquido atual
atual)
Passivo
Circulante/
Patrimônio
Ativo
Permanente/
Patrimônio
Serviços de Terceiros/ Despesa
Líquido atual
Líquido atual
Operacional
Custo/ Receita Líquida
Outros Custos e Serviços/ Total
Despesas com Terceiros/ Despesa
Custos e Serviços
Operacional
Receita Financeira/Receita Líquida
Lucro
Lucro Operacional/Receita Líquida
Líquido
antes
da
CSLL/Receita Líquida
Despesa
Financeira/
Receita
Líquida
Custo
Despesa
Operacional/
Receita
Líquida
Mercadorias
Revendidas/
Custo
Outros Custos de Produção/ Total
dos Custos de Produção
Produtos
Fabricação
Caixa/ Ativo Circulante
Estoque Médio
Própria/ Giro Estoque Produtos
(Patrimônio Líquido atual - Reserva
(Passivo
Exigível
Lucro Líquido antes da CSLL/
de
Longo Prazo)/(Ativo Circulante +
(Patrimônio Líquido Atual - Lucro
Realizável a Longo Prazo)
Líquido antes da CSLL)
(Depreciação atual - Depreciação
(Manutenção de Bens + Despesa
(Clientes
anterior)/
de Veículos)/ Imobilizado
Exigível Longo Prazo)/ Receita
Reavaliação
[(Patrimônio
Líquido
atual)/
anterior
-
Circulante
+
Reserva de Reavaliação anterior) +
Lucro Líquido]
(Imobilizado
atual
-
Terrenos anterior + Depreciação
Circulante
+
Líquida
atual)
Compras/ Receita Líquida
Disponível/ Ativo Circulante
Fornecedores/ Compras
Clientes
235
APÊNDICE F – Estatísticas para os Índices Econômico-Fiscais
Tabela 26: Estatísticas descritivas dos índices econômico-fiscais
(continua)
Índice
I01
I02
I03
I04
I05
I06
I07
I08
I09
I10
I11
I12
I13
I14
I15
I16
I17
I18
I19
I20
I21
I22
I23
I24
I25
I26
I27
I28
I29
I30
VMín
-675.999,15
-76.664,21
-4.519,77
-681.480,99
-249.955,97
-31.262,18
-840106,76
-10.651,73
-187,49
-780.682,66
-203.816,00
-780.682,66
-566.666,66
-966.759,90
-295.999,43
-116.867,96
-899.600,00
-415.171,88
-11.884,42
-86.651,74
-874.529,57
-874.529,57
-402.882,83
-72.724,94
-3.853,25
-939.517,32
-565.184,58
-243.820,89
-64.282,44
-315.408,40
Média
58,87
32,77
23,30
314,01
815,44
750,67
399,58
19,43
7,17
406,51
5,34
666,15
4.022,43
3.252,06
82,66
213,85
155,57
90,81
72,89
23,35
214,12
226,29
51,72
66,52
44,90
146,77
100,48
88,42
1,54
1.052,41
Curtose
34.775,31
119.675,20
154.595,00
3.539,66
1.693,14
1.752,35
1.438,94
19.032,88
24.537,41
2.186,41
121.209,60
1.379,26
308,85
369,37
20.865,43
6.797,73
3.262,45
13.364,18
29.589,58
43.797,38
2.529,98
2.480,31
18.400,37
95.992,42
46.731,56
4.802,19
9.582,62
13.130,91
84,072,29
3.083,28
QI
0,00
1,13
2,67
0,00
5,39
0,30
77,37
0,01
0,00
0,00
0,00
0,00
9,86
0,00
82,05
0,00
-15,59
0,00
0,00
0,00
-5,27
-4,45
0,00
0,00
18,60
0,00
0,00
0,00
0,00
0,00
QS
83,55
62,35
33,86
85,13
87,24
76,98
100,00
20,21
0,00
73,62
0,00
108,59
150,35
39,60
100,00
11,90
18,93
9,57
4,96
6,31
2,17
2,39
4,65
95,84
68,90
52,72
2,07
0,36
0,00
120,10
Assimetria
140,05
298,94
386,94
55,75
40,04
40,91
31,56
76,22
115,56
40,79
315,57
32,92
17,18
18,66
79,16
81,26
44,23
98,15
157,25
203,39
40,08
39,60
124,25
-284,07
153,39
46,67
88,51
109,29
-156,72
52,42
Mediana
49,97
12,81
17,38
15,32
41,10
30,32
100,00
1,12
0,00
7,73
0,00
14,30
67,90
0,00
100,00
0,07
0,00
0,00
0,00
0,00
0,00
0,00
0,00
90,93
46,24
16,82
0,00
0,00
0,00
0,00
VMáx
1.000.000,00
206.245,70
62.740,02
1.000.000,00
1.000.000,00
1.000.000,00
1.000.000,00
14.244,35
7.291,42
1.000.000,00
962.374,20
1.000.000,00
1.000.000,00
1.000.000,00
377.040,00
1.000.000,00
1.000.000,00
1.000.000,00
1.000.000,00
1.000.000,00
1.000.000,00
1.000.000,00
1.000.000,00
4.163,51
14.471,00
1.000.000,00
1.000.000,00
1.000.000,00
40.575,65
1.000.000,00
%0
40,34
13,73
21,09
21,91
15,24
23,33
11,99
24,00
81,89
17,39
94,37
15,28
15,58
63,99
15,19
49,06
14,38
56,01
70,89
49,21
25,44
25,46
44,20
25,86
18,13
26,10
49,72
61,61
90,46
71,76
%Neg
0,12
1,87
0,03
16,43
0,24
0,21
6,41
0,29
0,01
18,68
0,94
19,33
0,42
0,20
3,05
0,08
41,05
0,20
0,03
5,62
39,04
37,76
24,30
0,07
0,02
0,56
0,42
0,39
0,05
0,08
VNeg
Não
Sim
Não
Sim
Não
Não
Sim
Não
Não
Sim
Sim
Sim
Não
Não
Sim
Não
Sim
Não
Não
Sim
Sim
Sim
Sim
Não
Não
Não
Não
Não
Não
Não
DT
2
1
2
1
2
2
1
2
3
1
3
1
2
2
1
2
1
2
2
1
1
1
1
2
2
2
2
2
3
2
236
Tabela 26: Estatísticas descritivas dos índices econômico-fiscais
Índice
VMín
Média
Curtose
QI
QS
Assimetria
Mediana
VMáx
%0
%Neg
I31
-36.173,50
235,60
15.744,05
0,00
0,00
115,69
0,00
1.000.000,00 89,78
0,03
I32
-238.660,44
35,76
65.322,46
0,00
64,75
198,01
0,00
493.431,75
54,33
0,06
I33
-31.825,70
8,83
151.720,30
0,00
10,45
-381,71
2,69
353,28
35,79
0,003
Onde VMín: valor mínimo; QI: quartil inferior; QS: quartil superior; VMáx: valor máximo; %Neg: percentual de valores negativos para o índice;
%0: percentual de valores iguais à zero para o índice; VNeg: Admissibilidade de valores negativos para o índice, de acordo com a teoria contábil;
DT: diretriz de transformação aplicada ao índice (conforme definido no capítulo 6).
(continuação)
VNeg
DT
Não
3
Não
2
Não
2
237
APÊNDICE G – Exemplo de Estatísticas Descritivas e Gráficos para
os Índices Econômico-Fiscais
Tabela 27: Estatísticas descritivas para I04
I04
-681.480,99
0,00
15,32
21,91
Média
QS
Máx.
314,01
Curtose
85,13
Assimetria
1.000.000,00 %Negativos
0
20000
40000
60000
80000
Histograma de I04
frequência
Mín.
QI
Mediana
%Zeros
-1000
-500
0
dados$I04
Figura 8: Histograma Parcial de I04.
500
1000
3.539,66
55,75
16,43
238
Figura 9: Boxplot de I04.
Figura 10: Stem and Leaf Plot de I04.
Obs: O ponto decimal está cinco dígitos à direita da barra.
239
20000 40000 60000 80000
0
frequência
120000
Histograma de I08
-500
0
500
dados$I08
Figura 11: Histograma Parcial de I08.
100000
0
50000
frequência
150000
Histograma de I11
-1000
-500
0
dados$I11
Figura 12: Histograma Parcial de I11.
500
1000
240
APÊNDICE H – Análise em Componentes Principais (Valores de Balanço)
Tabela 28: Autovetores - CP: componente principal
VB
CP1
CP2
CP3
CP4
CP5
CP6
CP7
CP8
CP9
CP10
LOPER
0,032638
0,330129
-0,57306
-0,1317
1,023438
-0,38022
2,266754
-0,99237
-0,32508
-0,48069
LBRUTO
0,143016
0,049171
0,032638
-1,88079
-0,3581
0,223962
-0,07259
-0,41061
0,025562
0,545799
RECLIQ
0,157242
0,016496
0,197647
0,145143
0,603233
-2,02297
0,210732
3,753205
0,286018
-0,9003
LREAL
-0,08142
0,279332
0,559186
-0,00298
1,970835
0,867577
-1,15853
0,267038
0,441369
0,705379
LACSSL
0,032638
0,338855
-0,47585
0,097445
-1,1875
0,047877
-2,36512
1,065135
0,214561
0,407368
BCCSSL
-0,08163
0,267725
0,638426
0,256664
-1,786
-0,49998
1,43908
-0,22555
-0,04564
-0,16644
RBPISP
0,159656
0,022782
0,162104
0,441093
0,139021
-0,70187
-0,61959
-2,50738
-8,24363
30,37526
BCPISP
0,159711
0,019541
0,074869
0,399126
-0,18221
1,743195
0,584995
0,990348
-11,0404
-21,8833
RBCOF
0,159684
0,022937
0,157791
0,423622
0,12321
-0,68686
-0,64834
-2,73753
7,9498
-29,4205
BCCOF
0,159973
0,012356
0,048487
0,412324
-0,21123
1,687554
0,736165
0,915707
11,23116
21,5802
CP8
CP9
Onde VB: Valores de Balanço (Padronizados).
Tabela 29: Inércia explicada
CP1
%Variância
%Acumulado
CP2
CP3
CP4
CP5
CP6
CP7
CP10
61,412
26,470
7,040
2,296
0,987
0,824
0,630
0,312
0,026
0,004
61,412
87,882
94,922
97,219
98,205
99,029
99,658
99,970
99,996
100,00
241
APÊNDICE I – Amostras de Validação
Para o caso de BD1, em que se conhece o tamanho da população, 164.466
contribuintes, dentre os quais 9.757 foram selecionados para fiscalização, pode-se
recorrer a Cochran (1977), que informa que para população finita, ou seja,
considerando-se uma amostragem aleatória simples sem reposição (AASs), a
^
variância de um estimador P para uma proporção populacional P associada à
ocorrência de uma determinada característica de interesse é dada por:
^
Var ( P) =
PQ ⎛ N − n ⎞
⎜
⎟
n ⎝ N −1 ⎠
(I.1)
Onde N: número de elementos da população, n: tamanho de amostra, e Q=(1-P).
Como o produto PQ está limitado a 0,25, pode ser prontamente avaliado o erro
percentual máximo conservativo, E, para a estimativa de P, considerando-se um
intervalo de confiança de 95% (neste ponto se está utilizando do resultado
proporcionado pelo Teorema do Limite Central, qual seja, de que a distribuição
^
amostral de P aproxima-se da Normal, à medida que o tamanho de amostra
aumenta):
E = 1,96
⎞
0 ,25 ⎛ 1
⎜⎜ − 1⎟⎟
N − 1⎝ f
⎠
(I.2)
Nesta equação, sendo f=n/N entendida como a fração amostral.
Como é desejável que após a extração das amostras de validação seja
preservada na remanescente amostra de estimação a proporção populacional
original de ocorrência da característica de interesse, deve-se inicialmente proceder a
uma estratificação da população de BD1, com base na ocorrência/não ocorrência da
característica de interesse. Com isso, o dimensionamento dos tamanhos de amostra
que atendam o referido mister vai decorrer diretamente da definição de f1, entendida
como a fração amostral a ser aplicada aos estratos de BD1.
De posse da equação I.2 podem-se realizar ilustrativas simulações para valores
de E e seus respectivos impactos em f1, considerando-se o caso de menor
população estratificada (9.757 elementos possuindo a característica de interesse), o
242
qual, conseqüentemente, rege a definição do valor adequado para f1. Os resultados
seguem na Tabela 30:
Tabela 30: Efeitos do valor de E na fração amostral f, com N=9.757
E
0,08
0,07
0,06
0,05
0,03
PQ
0,25
0,25
0,25
0,25
0,25
f1=n1/N1
0,0151
0,0197
0,0266
0,0379
0,0986
Pela Tabela 30, observa-se que à medida que o erro percentual máximo
projetado decai, a fração amostral requisitada aumenta. Isso decorre porque
amostras maiores reduzem a variabilidade do estimador do parâmetro, e,
conseqüentemente, sua margem de erro máxima. A fração amostral que proporciona
erro de no máximo 5 pontos percentuais para mais ou para menos é, portanto,
f1=0,0379 e será a adotada no caso de BD1.
Outra simulação de interesse é a avaliação do erro máximo admissível E
variando em função do produto PQ.
Tabela 31: Efeitos do valor de PQ no erro admissível E, com N=9.757
f1=n1/N1
0,0379
0,0379
0,0379
0,0379
PQ
0,25
0,21
0,16
0,09
E
0,0500
0,0458
0,0400
0,0300
A Tabela 31 demonstra claramente como e por que se está projetando um erro
máximo admissível no dimensionamento de f1 especificamente associado ao caso
em que PQ=0,25. À medida que PQ decresce, mantendo-se uma mesma fração
amostral f1 em relação à população, E também decresce nunca ultrapassando os 5%
referentes ao pior caso (PQ=0,25).
O caso do dimensionamento para BD2 é diferente. O objetivo é estimar um
modelo a partir de 12.227 contribuintes fiscalizados, em que 8.073 deles são
infratores, e utilizá-lo para classificar futuros contribuintes que apuram o lucro real.
Ocorre que o N futuro é por definição desconhecido, mesmo que, no momento, BD1
forneça uma excelente aproximação para esse total. Por isso, no caso de BD2 o
mais seguro é considerar, para fins de validação, que a população futura de
contribuintes é infinita, porém podendo-se calcular as propriedades para os
243
estimadores mesmo para um N desconhecido. Sabe-se que, na prática, podem ser
utilizadas as equações que regem a Amostragem Aleatória Simples com Reposição
(AASc) para o caso de uma AASs aplicada a grandes populações, como é o caso.
Com isso, um tamanho de amostra conservativo, considerando-se um intervalo de
confiança de 95% (utilizando-se aqui novamente da aproximação à Normal já
mencionada), é dado por:
n=
PQ ⋅ 1,96 2 0,25 ⋅ 1,96 2
=
= 384,16 ≅ 385
E2
0,05 2
(I.3)
A partir de I.3, f2 (fração amostral a ser aplicada aos estratos de BD2) pode ser
avaliada para o menor estrato (4.154 contribuintes não possuindo a característica de
interesse):
f2 =
385
= 0,0927
4.154
(I.4)
A Tabela 32 aplica as frações amostrais calculadas aos respectivos estratos e
determina os tamanhos das amostras de validação:
Tabela 32: Determinação de n para as Amostras de Validação
Número de Contribuintes
Número de Contribuintes
(BD1)
(BD2)
Estrato_0
154.709
4.154
Estrato_1
9.757
8.073
(f1 x Estrato_0) = 5.864
(I.3) = 385
(f1 x Estrato_1) = 370
(f2 x Estrato_1) = 751
Amostra de Validação para
Especificidade
Amostra de Validação para
Sensitividade
Onde
Estrato_0: estrato de contribuintes não apresentando a característica de interesse;
Estrato_1: estrato de contribuintes apresentando a característica de interesse.
244
APÊNDICE J – Estimativas para MLGH1 (Variáveis Selecionadas
Assinaladas em Negrito)
Tabela 33: Estimativas para nível 1 (Primeira Rodada)
(continua)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística χ2
Nível
Descritivo
Estatística
χ2/GL
LI14B
LI14A
LI27B
LI27A
LI18B
LI18A
I29POS
I31POS
LI01B
LI01A
LI28B
LI31B
LI31A
LI28A
LI14B
I14NEG
LI32B
LI32A
LI27B
I27NEG
LI06A
LI06B
I11POS
LI18B
I18NEG
LI24B
LI24A
LI19B
LI19A
LI08B
I29NEG
I29POS
LI29B
LI08A
I31NEG
I31POS
LI01B
I01NEG
LI33B
LI33A
LI29A
LI28B
I28NEG
LI31B
I31NEG
LI32B
I32NEG
LI25B
LI25A
LI03B
LI03A
LI05B
LI05A
I11NEG
I11POS
LI12A
LI06B
0,172415
0,171140
0,351689
0,341997
0,284630
0,279407
1,420946
1,532844
0,279868
0,277139
0,314187
0,212359
0,212040
0,304375
0,172517
0,232670
0,267907
0,266743
0,351980
0,159305
0,189349
0,189683
1,090373
0,285265
0,554854
0,251730
0,247761
0,209239
0,207867
-0,243912
1,626174
1,432352
0,332743
-0,231860
0,388702
1,533423
0,280278
0,401914
0,232947
0,232616
0,327431
0,314116
-0,045855
0,212428
0,336344
0,268452
0,754742
0,226368
0,225148
0,212929
0,211278
0,147020
0,146023
0,795700
1,109673
0,064533
0,189081
0,003360
0,003356
0,007237
0,007223
0,006374
0,006368
0,035585
0,038468
0,007034
0,007014
0,008026
0,005431
0,005429
0,008017
0,003362
0,277330
0,007414
0,007405
0,007247
0,193181
0,005850
0,005862
0,034382
0,006381
0,243078
0,007995
0,007946
0,006879
0,006877
0,008509
0,273213
0,035639
0,011754
0,008191
0,601938
0,038477
0,007047
0,367330
0,008284
0,008283
0,011757
0,008033
0,204020
0,005432
0,601711
0,007421
0,405915
0,008948
0,008933
0,008542
0,008527
0,006134
0,006112
0,076711
0,034429
0,002786
0,005870
1
1
1
1
1
1
1
1
1
1
1
1
1
1
2
2
1
1
2
2
1
1
1
2
2
1
1
1
1
1
2
2
1
1
2
2
2
2
1
1
1
2
2
2
2
2
2
1
1
1
1
1
1
2
2
1
2
2633,78
2600,24
2361,36
2242,05
1993,81
1925,16
1594,44
1587,83
1583,01
1561,42
1532,26
1528,96
1525,40
1441,40
2634,45
2634,45
1305,76
1297,49
2362,11
2362,11
1047,48
1047,21
1005,74
1998,32
1998,32
991,32
972,35
925,28
913,54
821,66
1622,85
1622,85
801,38
801,35
1588,43
1588,43
1583,94
1583,94
790,81
788,71
775,66
1532,24
1532,24
1529,44
1529,44
1308,44
1308,44
640,02
635,25
621,34
613,86
574,54
570,70
1106,52
1106,52
536,64
1046,48
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
2633,78
2600,24
2361,36
2242,05
1993,81
1925,16
1594,44
1587,83
1583,01
1561,42
1532,26
1528,96
1525,40
1441,40
1317,22
1317,22
1305,76
1297,49
1181,05
1181,05
1047,48
1047,21
1005,74
999,16
999,16
991,32
972,35
925,28
913,54
821,66
811,42
811,42
801,38
801,35
794,21
794,21
791,97
791,97
790,81
788,71
775,66
766,12
766,12
764,72
764,72
654,22
654,22
640,02
635,25
621,34
613,86
574,54
570,70
553,26
553,26
536,64
523,24
245
Tabela 33: Estimativas para nível 1 (Primeira Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística χ2
Nível
Descritivo
Estatística
χ2/GL
I06NEG
L30B
L30A
LI04A
LI24B
I24NEG
LI10A
LI19B
I19NEG
ZPC1
LI13B
LI13A
LI11A
I09POS
LI08B
I08NEG
LI29B
I29NEG
LI33B
I33NEG
ZPC3
LI07A
LI16B
LI16A
LI25B
I25NEG
LI03B
I03NEG
LI09B
LI09A
LI05B
I05NEG
LI26B
LI26A
L30B
I30NEG
LI20A
LI13B
I13NEG
I09NEG
I09POS
LI16B
I16NEG
LI09B
I09NEG
LI02A
LI26B
I26NEG
LI22A
LI17A
Rural
I11NEG
LI21A
LI23A
LI15A
I13NEG
I29NEG
I06NEG
I09NEG
I26NEG
I05NEG
I03NEG
I08NEG
I28NEG
-0,837749
0,102052
0,101645
0,081363
0,253663
1,277338
0,067460
0,209452
0,657722
0,177139
0,100940
0,099656
0,184492
0,608040
-0,245140
-0,892426
0,334762
1,186809
0,233050
1,596219
0,239154
0,094634
0,113157
0,112871
0,227163
1,528397
0,213965
1,426842
0,144274
0,143706
0,146722
-0,225597
0,109691
0,102769
0,102131
0,209226
0,123555
0,100189
-0,470920
1,847131
0,608869
0,113074
-0,253796
0,144471
1,801488
-0,079658
0,108914
-0,229495
0,046577
0,032400
0,811292
0,665224
0,035116
0,023966
0,017635
-0,889208
0,810871
-1,443518
1,676995
-0,504301
-0,731939
0,843506
-0,572970
-0,284719
0,505581
0,004498
0,004490
0,003607
0,008032
0,329172
0,003042
0,006881
0,490649
0,008261
0,004804
0,004763
0,008857
0,029467
0,008519
0,295504
0,011756
0,275260
0,008284
1,146854
0,012273
0,004950
0,005989
0,005977
0,008961
0,576048
0,008554
0,432206
0,008152
0,008153
0,006149
0,341128
0,006494
0,006286
0,004500
0,341837
0,007885
0,004823
0,283111
0,597223
0,029469
0,005991
0,464667
0,008152
0,595976
0,006333
0,006524
0,192467
0,004680
0,003265
0,082880
0,076917
0,004643
0,003529
0,005235
0,282437
0,277864
0,505396
0,595172
0,191592
0,340598
0,433261
0,295800
0,203877
2
1
1
1
2
2
1
2
2
1
1
1
1
1
2
2
2
2
2
2
1
1
1
1
2
2
2
2
1
1
2
2
1
1
2
2
1
2
2
2
2
2
2
2
2
1
2
2
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1046,48
514,76
512,41
508,74
997,91
997,91
491,70
926,88
926,88
459,78
441,53
437,72
433,90
425,79
832,54
832,54
818,92
818,92
792,37
792,37
379,70
365,44
356,97
356,59
644,41
644,41
629,23
629,23
313,25
310,66
574,36
574,36
285,31
267,28
515,12
515,12
245,54
441,95
441,95
434,58
434,58
357,17
357,17
321,86
321,86
158,23
286,05
286,05
99,07
98,50
95,82
74,80
57,20
46,13
11,35
9,91
8,52
8,16
7,94
6,93
4,62
3,79
3,75
1,95
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
0,001
0,002
0,004
0,005
0,005
0,008
0,030
0,049
0,050
0,159
523,24
514,76
512,41
508,74
498,95
498,95
491,70
463,44
463,44
459,78
441,53
437,72
433,90
425,79
416,27
416,27
409,46
409,46
396,19
396,19
379,70
365,44
356,97
356,59
322,21
322,21
314,61
314,61
313,25
310,66
287,18
287,18
285,31
267,28
257,56
257,56
245,54
220,97
220,97
217,29
217,29
178,59
178,59
160,93
160,93
158,23
143,02
143,02
99,07
98,50
95,82
74,80
57,20
46,13
11,35
9,91
8,52
8,16
7,94
6,93
4,62
3,79
3,75
1,95
246
Tabela 33: Estimativas para nível 1 (Primeira Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística χ2
Nível
Descritivo
Estatística
χ2/GL
I25NEG
I01NEG
I27NEG
I33NEG
I24NEG
I16NEG
I14NEG
ZPC4
I19NEG
ZPC2
I31NEG
I18NEG
I30NEG
I32NEG
0,786320
-0,458036
-0,233927
1,171798
0,324287
-0,437644
-0,221479
-0,004457
0,266130
-0,003755
-0,277840
0,036726
-0,017875
0,012679
0,576788
0,367849
0,193361
1,154595
0,327793
0,464568
0,278369
0,006111
0,493893
0,007995
0,609396
0,242989
0,340335
0,407256
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1,86
1,55
1,46
1,03
0,98
0,89
0,63
0,53
0,29
0,22
0,21
0,02
0,00
0,00
0,169
0,210
0,224
0,311
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
1,86
1,55
1,46
1,03
0,98
0,89
0,63
0,53
0,29
0,22
0,21
0,02
0,00
0,00
Tabela 34: Estimativas para nível 1 (Segunda Rodada)
(continua)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
I11POS
LI08B
LI08A
LI22A
LI04A
LI21A
LI12A
ZPC1
LI30B
LI30A
LI10A
LI32B
LI32A
I11NEG
I11POS
LI01B
LI06A
LI01A
LI26B
LI06B
LI11A
LI08B
I08NEG
LI26A
ZPC3
L30B
I30NEG
I09POS
LI32B
I32NEG
Rural
LI01B
I01NEG
LI26B
I26NEG
LI06B
I06NEG
LI28B
LI09B
LI09A
0,700029
-0,167580
-0,159575
0,075997
0,057641
0,074119
0,043176
0,129744
0,075020
0,074728
0,043720
0,120026
0,119267
0,283070
0,709579
0,106432
0,094068
0,104248
-0,115037
0,094016
0,111594
-0,168578
-0,595045
-0,090280
0,155862
0,075073
0,128216
0,343914
0,120337
0,305203
0,791679
0,106538
0,083172
-0,115883
-0,210377
0,093312
-0,754623
0,100318
0,078816
0,078234
0,035878
0,009297
0,009031
0,004429
0,003450
0,004438
0,002661
0,008080
0,004711
0,004700
0,002901
0,008356
0,008322
0,079897
0,035970
0,008019
0,007158
0,007944
0,008786
0,007189
0,008686
0,009309
0,295891
0,007411
0,012840
0,004713
0,344978
0,030722
0,008367
0,422377
0,083278
0,008034
0,382052
0,008819
0,198581
0,007201
0,506852
0,010837
0,008577
0,008578
1
1
1
1
1
1
1
1
1
1
1
1
1
2
2
1
1
1
1
1
1
2
2
1
1
2
2
1
2
2
1
2
2
2
2
2
2
1
1
1
380,68
324,91
312,19
294,45
279,10
278,89
263,21
257,81
253,64
252,83
227,09
206,33
205,40
393,06
393,06
176,17
172,72
172,21
171,45
171,02
165,04
329,60
329,60
148,41
147,34
253,78
253,78
125,31
206,84
206,84
90,37
176,22
176,22
172,68
172,68
172,21
172,21
85,70
84,44
83,19
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
380,68
324,91
312,19
294,45
279,10
278,89
263,21
257,81
253,64
252,83
227,09
206,33
205,40
196,53
196,53
176,17
172,72
172,21
171,45
171,02
165,04
164,80
164,80
148,41
147,34
126,89
126,89
125,31
103,42
103,42
90,37
88,11
88,11
86,34
86,34
86,10
86,10
85,70
84,44
83,19
247
Tabela 34: Estimativas para nível 1 (Segunda Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
LI07A
LI28A
LI33B
LI33A
I09NEG
I09POS
LI15A
LI17A
LI02A
LI09B
I09NEG
LI28B
I28NEG
LI33B
I33NEG
LI13A
LI13B
LI03B
LI03A
LI20A
LI19B
LI19A
LI16A
LI16B
LI25B
LI25A
LI24B
LI13B
I13NEG
LI03B
I03NEG
LI24A
LI05A
LI05B
LI19B
I19NEG
LI16B
I16NEG
LI25B
I25NEG
LI24B
I24NEG
I09NEG
LI05B
I05NEG
I11NEG
I24NEG
I13NEG
I06NEG
LI23A
I08NEG
ZPC2
I25NEG
I03NEG
I05NEG
I16NEG
ZPC4
I01NEG
I28NEG
I33NEG
I30NEG
I26NEG
I19NEG
I32NEG
0,043120
0,089804
0,078506
0,078231
1,793469
0,344771
-0,040568
0,024078
-0,048975
0,079021
1,763685
0,100509
0,160638
0,078590
0,723589
0,034445
0,034644
0,053940
0,052675
0,040318
0,041587
0,008007
0,034604
0,034565
0,047847
0,046837
0,038565
0,033490
-0,442877
0,054653
0,532441
0,035681
0,030437
0,030683
0,041663
0,144143
0,034443
-0,280565
0,048470
0,685518
0,040095
0,853707
1,693125
0,030387
-0,158905
0,171179
0,721621
-0,584669
-1,038975
-0,003891
-0,350877
0,006350
0,509837
0,365170
-0,256593
-0,340212
-0,003304
-0,226867
0,115907
0,536455
-0,041217
0,021763
0,053903
-0,037281
0,004896
0,010563
0,009452
0,009445
0,608078
0,030725
0,005016
0,003243
0,007090
0,008577
0,607194
0,010839
0,209209
0,009453
1,294031
0,006170
0,006323
0,009868
0,009818
0,007654
0,008027
0,008007
0,006872
0,006900
0,010186
0,010146
0,009168
0,006365
0,285965
0,009888
0,441553
0,009040
0,007799
0,007880
0,008032
0,505946
0,006903
0,467360
0,010204
0,592524
0,009204
0,351165
0,606196
0,007905
0,342481
0,080112
0,351285
0,284827
0,506719
0,003173
0,295934
0,006601
0,593850
0,441677
0,341598
0,467418
0,005555
0,384627
0,210926
1,301983
0,343596
0,195653
0,506806
0,424299
1
1
1
1
2
2
1
1
1
2
2
2
2
2
2
1
1
1
1
1
1
1
1
1
1
1
1
2
2
2
2
1
1
1
2
2
2
2
2
2
2
2
1
2
2
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
77,57
72,27
68,99
68,60
133,62
133,62
65,42
55,14
47,71
92,61
92,61
86,28
86,28
69,29
69,29
31,16
30,02
29,88
28,79
27,74
26,84
25,47
25,36
25,09
22,07
21,31
17,69
31,94
31,94
31,24
31,24
15,58
15,23
15,16
26,92
26,92
25,43
25,43
23,30
23,30
23,21
23,21
7,80
15,35
15,35
4,57
4,22
4,21
4,20
1,50
1,41
0,93
0,74
0,68
0,56
0,53
0,35
0,35
0,30
0,17
0,01
0,01
0,01
0,01
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
0,005
0,001
0,001
0,031
0,037
0,038
0,038
0,218
0,234
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
77,57
72,27
68,99
68,60
66,81
66,81
65,42
55,14
47,71
46,31
46,31
43,14
43,14
34,64
34,64
31,16
30,02
29,88
28,79
27,74
26,84
25,47
25,36
25,09
22,07
21,31
17,69
15,97
15,97
15,62
15,62
15,58
15,23
15,16
13,46
13,46
12,71
12,71
11,65
11,65
11,60
11,60
7,80
7,67
7,67
4,57
4,22
4,21
4,20
1,50
1,41
0,93
0,74
0,68
0,56
0,53
0,35
0,35
0,30
0,17
0,01
0,01
0,01
0,01
248
Tabela 35: Estimativas para nível 1 (Terceira Rodada)
(continua)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
LI06A
LI06B
LI01B
LI01A
LI32B
LI32A
LI30B
LI30A
ZPC1
LI05B
LI06B
I06NEG
LI05A
LI13B
LI13A
ZPC3
LI01B
I01NEG
LI32B
I32NEG
L30B
I30NEG
I09POS
LI05B
I05NEG
LI13B
I13NEG
LI07A
LI09B
LI09A
Rural
LI24B
LI26B
LI24A
I09NEG
I09POS
LI03B
LI16B
LI16A
LI03A
LI25B
LI25A
LI26A
LI33B
LI33A
LI09B
I09NEG
LI19B
LI19A
LI24B
I24NEG
LI26B
I26NEG
LI03B
I03NEG
LI16B
I16NEG
LI25B
I25NEG
LI20A
LI33B
I33NEG
LI19B
I19NEG
0,134226
0,134551
0,130612
0,128324
0,132257
0,131462
0,072111
0,071793
0,116046
0,106737
0,134080
-0,497211
0,105010
0,081742
0,079606
0,134198
0,130444
-0,134582
0,132523
0,266414
0,072184
0,183510
0,297994
0,107207
0,242995
0,081181
-0,215798
0,041003
0,067326
0,066741
0,631945
0,072140
-0,067706
0,068656
1,742952
0,298824
0,068479
0,048154
0,047931
0,067076
0,065806
0,064570
-0,047684
0,057755
0,057478
0,067523
1,715952
0,047354
0,046004
0,073512
0,725597
-0,069179
-0,388077
0,069232
0,562239
0,048128
-0,060084
0,066628
0,961562
0,033407
0,057850
0,837879
0,047486
0,245599
0,007601
0,007624
0,008338
0,008256
0,008542
0,008505
0,004766
0,004755
0,008006
0,008477
0,007637
0,508010
0,008433
0,006651
0,006550
0,012060
0,008351
0,386403
0,008552
0,416973
0,004768
0,344531
0,031185
0,008505
0,343086
0,006692
0,287065
0,005079
0,008723
0,008724
0,083474
0,009578
0,009245
0,009446
0,628419
0,031188
0,010095
0,007129
0,007105
0,010046
0,010424
0,010391
0,007909
0,009600
0,009593
0,008724
0,627676
0,008211
0,008193
0,009614
0,354230
0,009272
0,201184
0,010115
0,447493
0,007131
0,466275
0,010442
0,586870
0,007747
0,009602
1,278949
0,008215
0,506144
1
1
1
1
1
1
1
1
1
1
2
2
1
1
1
1
2
2
2
2
2
2
1
2
2
2
2
1
1
1
1
1
1
1
2
2
1
1
1
1
1
1
1
1
1
2
2
1
1
2
2
2
2
2
2
2
2
2
2
1
2
2
2
2
311,84
311,47
245,36
241,56
239,75
238,91
228,95
227,95
210,10
158,53
311,68
311,68
155,08
151,05
147,72
123,83
245,42
245,42
240,17
240,17
229,23
229,23
91,31
159,05
159,05
151,13
151,13
65,18
59,57
58,53
57,31
56,73
53,63
52,83
98,72
98,72
46,02
45,63
45,51
44,58
39,85
38,62
36,35
36,19
35,90
66,85
66,85
33,26
31,53
60,42
60,42
57,61
57,61
47,47
47,47
45,64
45,64
42,26
42,26
18,60
36,61
36,61
33,49
33,49
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
0,001
0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
311,84
311,47
245,36
241,56
239,75
238,91
228,95
227,95
210,10
158,53
155,84
155,84
155,08
151,05
147,72
123,83
122,71
122,71
120,08
120,08
114,61
114,61
91,31
79,53
79,53
75,57
75,57
65,18
59,57
58,53
57,31
56,73
53,63
52,83
49,36
49,36
46,02
45,63
45,51
44,58
39,85
38,62
36,35
36,19
35,90
33,43
33,43
33,26
31,53
30,21
30,21
28,81
28,81
23,74
23,74
22,82
22,82
21,13
21,13
18,60
18,30
18,30
16,74
16,74
249
Tabela 35: Estimativas para nível 1 (Terceira Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
LI17A
LI28B
LI23A
LI28A
LI15A
I09NEG
LI28B
I28NEG
I13NEG
I06NEG
LI12A
LI21A
I24NEG
I26NEG
I25NEG
I01NEG
ZPC2
I03NEG
I28NEG
I33NEG
LI02A
ZPC4
LI10A
I05NEG
I16NEG
I19NEG
I32NEG
I30NEG
0,015093
0,041682
0,011462
0,037681
-0,017007
1,656604
0,041396
-0,111159
-0,554932
-0,913344
0,009771
0,020242
0,499376
-0,277622
0,729228
-0,459447
-0,005658
0,353646
-0,146923
0,705618
-0,004227
-0,002489
0,002225
-0,116857
-0,141943
0,142596
-0,078470
0,027150
0,003716
0,011399
0,003229
0,010739
0,005150
0,627006
0,011412
0,212793
0,285858
0,508007
0,005952
0,012414
0,355726
0,199436
0,588399
0,388103
0,006630
0,447969
0,213776
1,285376
0,008508
0,005501
0,005860
0,341954
0,466304
0,507087
0,416649
0,343030
1
1
1
1
1
1
2
2
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
16,50
13,37
12,60
12,31
10,91
6,98
13,64
13,64
3,77
3,23
2,70
2,66
1,97
1,94
1,54
1,40
0,73
0,62
0,47
0,30
0,25
0,20
0,14
0,12
0,09
0,08
0,04
0,01
< 0,001
0,001
0,001
0,001
0,001
0,008
0,000
0,000
0,049
0,069
0,097
0,099
0,157
0,160
0,213
0,235
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
16,50
13,37
12,60
12,31
10,91
6,98
6,82
6,82
3,77
3,23
2,70
2,66
1,97
1,94
1,54
1,40
0,73
0,62
0,47
0,30
0,25
0,20
0,14
0,12
0,09
0,08
0,04
0,01
Tabela 36: Estimativas para nível 2 (Primeira Rodada)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
ZLOPER
ZLACSLL
export
VrPerc99
ZLBRUTO
agropecagr
indagr
comagr
ZRECLIQ
ZBCCSLL
ZRBCOF
ZRBPISP
VrPerc98
ZBCCOF
ZBCPISP
ZLREAL
Inform
-0,180219
-0,177533
0,282205
0,047220
0,126289
0,743876
0,189473
-0,123694
0,126960
-0,107200
0,103891
0,103397
0,025516
0,092937
0,092674
-0,087641
0,008221
0,053630
0,053303
0,085579
0,017701
0,049154
0,199983
0,097118
0,143067
0,050916
0,051932
0,051388
0,051423
0,012810
0,051661
0,051682
0,051975
0,090318
1
1
1
1
1
3
3
3
1
1
1
1
1
1
1
1
1
11,29
11,09
10,87
7,12
6,60
19,24
19,24
19,24
6,22
4,26
4,09
4,04
3,97
3,24
3,22
2,84
0,01
0,001
0,001
0,001
0,008
0,010
< 0,001
< 0,001
< 0,001
0,012
0,037
0,041
0,042
0,044
0,068
0,069
0,088
>0,5
11,29
11,09
10,87
7,12
6,60
6,41
6,41
6,41
6,22
4,26
4,09
4,04
3,97
3,24
3,22
2,84
0,01
Tabela 37: Estimativas para nível 2 (Segunda Rodada)
(continua)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
ZLBRUTO
0,150221
0,049417
1
9,24
0,003
9,24
250
Tabela 37: Estimativas para nível 2 (Segunda Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
VrPerc98
ZRECLIQ
ZRBCOF
ZRBPISP
ZBCPISP
ZBCCOF
ZBCCSLL
ZLACSLL
Inform
ZLREAL
0,027006
0,095117
0,083334
0,083158
0,080502
0,080203
-0,048808
0,548494
-0,085472
-0,018910
0,012921
0,053273
0,053756
0,053782
0,054020
0,054028
0,058431
0,680078
0,124644
0,060876
1
1
1
1
1
1
1
1
1
1
4,37
3,19
2,40
2,39
2,22
2,20
0,70
0,65
0,47
0,10
0,034
0,070
0,117
0,118
0,130
0,134
>0,5
>0,5
>0,5
>0,5
4,37
3,19
2,40
2,39
2,22
2,20
0,70
0,65
0,47
0,10
251
APÊNDICE K – Estimativas para MLGH2 (Variáveis Selecionadas
Assinaladas em Negrito)
Tabela 38: Estimativas para nível 1 (Primeira Rodada)
(continua)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
LI24A
LI24B
LI01B
LI01A
LI32B
LI32A
LI24B
I24NEG
LI05B
LI05A
LI30A
LI30B
LI01B
I01NEG
LI02A
LI06A
LI06B
LI32B
I32NEG
LI18A
LI18B
ZPC1
LI19B
LI19A
LI22A
LI26A
LI21A
LI05B
I05NEG
L30B
I30NEG
LI27A
LI26B
LI16B
LI06B
I06NEG
LI16A
LI27B
LI08B
LI08A
LI25B
LI09B
LI09A
LI25A
Rural
LI18B
I18NEG
LI19B
I19NEG
LI03B
I09POS
LI03A
LI26B
I26NEG
LI27B
I27NEG
ZPC2
0,119347
0,120994
0,093506
0,090508
0,081794
0,080524
0,120158
-0,275206
0,084124
0,082288
0,040138
0,039986
0,092829
-0,454208
-0,068924
0,067266
0,066918
0,081965
0,295916
0,057659
0,059584
0,078991
0,054693
0,053389
-0,032679
0,053879
-0,031777
0,083999
-0,052023
0,039909
-0,435356
0,051815
0,052283
0,045829
0,065452
-1,726018
0,045172
0,049864
-0,056709
-0,056051
0,058674
0,049072
0,048597
0,056580
-0,392870
0,059086
-0,176939
0,055118
1,073857
0,052163
0,154476
0,049304
0,049188
-0,599547
0,048145
-0,621241
-0,026100
0,014710
0,015060
0,013168
0,012964
0,013007
0,012957
0,015153
0,551577
0,015846
0,015585
0,007905
0,007918
0,013200
0,611790
0,014007
0,014777
0,014853
0,013017
0,874711
0,013363
0,013992
0,019060
0,013436
0,013358
0,008423
0,014158
0,008379
0,015916
0,617146
0,007920
0,675521
0,014484
0,015527
0,013674
0,014882
1,129423
0,013603
0,015245
0,017532
0,017484
0,018400
0,015520
0,015505
0,018259
0,129356
0,014047
0,450466
0,013444
1,103680
0,018136
0,054400
0,017957
0,015647
0,380591
0,015275
0,391191
0,010688
1
1
1
1
1
1
2
2
1
1
1
1
2
2
1
1
1
2
2
1
1
1
1
1
1
1
1
2
2
2
2
1
1
1
2
2
1
1
1
1
1
1
1
1
1
2
2
2
2
1
1
1
2
2
2
2
1
65,83
64,55
50,42
48,74
39,55
38,62
64,76
64,76
28,18
27,88
25,78
25,50
50,94
50,94
24,21
20,72
20,30
39,66
39,66
18,62
18,13
17,18
16,57
15,97
15,05
14,48
14,38
28,19
28,19
25,91
25,91
12,80
11,34
11,23
22,36
22,36
11,03
10,70
10,46
10,28
10,17
10,00
9,82
9,60
9,22
18,29
18,29
17,58
17,58
8,27
8,06
7,54
13,82
13,82
13,21
13,21
5,96
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
< 0,001
0,001
0,001
0,001
< 0,001
< 0,001
0,001
0,001
0,002
0,002
0,002
0,002
0,002
0,002
0,003
0,000
0,000
0,000
0,000
0,004
0,005
0,006
0,001
0,001
0,002
0,002
0,014
65,83
64,55
50,42
48,74
39,55
38,62
32,38
32,38
28,18
27,88
25,78
25,50
25,47
25,47
24,21
20,72
20,30
19,83
19,83
18,62
18,13
17,18
16,57
15,97
15,05
14,48
14,38
14,10
14,10
12,95
12,95
12,80
11,34
11,23
11,18
11,18
11,03
10,70
10,46
10,28
10,17
10,00
9,82
9,60
9,22
9,14
9,14
8,79
8,79
8,27
8,06
7,54
6,91
6,91
6,60
6,60
5,96
252
Tabela 38: Estimativas para nível 1 (Primeira Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
LI16B
I16NEG
LI25B
I25NEG
LI08B
I08NEG
LI17A
LI04A
LI03B
I03NEG
LI23A
LI33B
LI33A
I26NEG
LI14B
LI14A
I27NEG
I06NEG
ZPC3
I28NEG
LI33B
I33NEG
LI14B
I14NEG
I24NEG
I29POS
LI07A
LI29B
I01NEG
I31POS
LI28B
I28NEG
I29NEG
I29POS
LI31B
LI31A
LI29B
I29NEG
LI29A
I03NEG
LI11A
I19NEG
I29NEG
I18NEG
I25NEG
I30NEG
I08NEG
I13NEG
LI15A
LI13B
I13NEG
I05NEG
I11POS
LI10A
I33NEG
LI20A
I14NEG
LI13B
I11NEG
I11POS
LI13A
LI28A
I16NEG
LI12A
0,045801
-0,111491
0,060045
1,082172
-0,057106
-0,417458
-0,013622
-0,013455
0,053673
0,862819
0,011099
0,036331
0,036097
-0,748354
0,012868
0,012550
-0,707832
-1,960737
0,013639
-0,641422
0,036144
-0,607864
0,013015
0,319194
-0,743700
0,073826
-0,011560
0,028156
-0,744430
0,069463
-0,002846
-0,645119
0,430202
0,078193
0,009945
0,009620
0,029475
0,419237
0,022139
0,710875
0,012041
0,965214
0,386824
-0,348625
0,866265
-0,491864
-0,363089
0,337187
0,004987
0,006990
0,368466
-0,356928
0,034382
0,002859
-0,687422
0,006173
0,276306
0,005888
0,010757
0,034729
0,004297
0,004677
-0,210117
-0,000735
0,013677
1,229609
0,018443
1,127465
0,017540
0,547482
0,005920
0,005907
0,018182
0,809784
0,005113
0,017213
0,017181
0,377780
0,006890
0,006829
0,390167
1,129056
0,008157
0,397227
0,017218
1,432528
0,006896
0,600083
0,549629
0,057342
0,009210
0,022750
0,612571
0,059393
0,017198
0,397834
0,447550
0,057523
0,008739
0,008727
0,022796
0,447124
0,022219
0,808545
0,013736
1,104626
0,446374
0,447471
1,126175
0,675616
0,546837
0,532512
0,008440
0,013387
0,535870
0,615456
0,060081
0,005016
1,432210
0,013051
0,599797
0,013295
0,134210
0,060236
0,012821
0,016352
1,229440
0,004621
2
2
2
2
2
2
1
1
2
2
1
1
1
1
1
1
1
1
1
1
2
2
2
2
1
1
1
1
1
1
2
2
2
2
1
1
2
2
1
1
1
1
1
1
1
1
1
1
1
2
2
1
1
1
1
1
1
1
2
2
1
1
1
1
11,24
11,24
11,19
11,19
11,04
11,04
5,29
5,19
9,48
9,48
4,71
4,46
4,41
3,92
3,49
3,38
3,29
3,02
2,80
2,61
4,64
4,64
3,78
3,78
1,83
1,66
1,58
1,53
1,48
1,37
2,64
2,64
2,60
2,60
1,30
1,22
2,42
2,42
0,99
0,77
0,77
0,76
0,75
0,61
0,59
0,53
0,44
0,40
0,35
0,67
0,67
0,34
0,33
0,32
0,23
0,22
0,21
0,20
0,33
0,33
0,11
0,08
0,03
0,03
0,004
0,004
0,004
0,004
0,004
0,004
0,020
0,021
0,009
0,009
0,028
0,033
0,033
0,045
0,058
0,063
0,066
0,079
0,090
0,102
0,096
0,096
0,149
0,149
0,172
0,195
0,207
0,213
0,222
0,240
0,267
0,267
0,272
0,272
0,254
0,270
0,297
0,297
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
5,62
5,62
5,59
5,59
5,52
5,52
5,29
5,19
4,74
4,74
4,71
4,46
4,41
3,92
3,49
3,38
3,29
3,02
2,80
2,61
2,32
2,32
1,89
1,89
1,83
1,66
1,58
1,53
1,48
1,37
1,32
1,32
1,30
1,30
1,30
1,22
1,21
1,21
0,99
0,77
0,77
0,76
0,75
0,61
0,59
0,53
0,44
0,40
0,35
0,34
0,34
0,34
0,33
0,32
0,23
0,22
0,21
0,20
0,17
0,17
0,11
0,08
0,03
0,03
253
Tabela 38: Estimativas para nível 1 (Primeira Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
I32NEG
ZPC4
LI28B
I11NEG
0,095788
0,000579
-0,001269
0,005189
0,877061
0,005615
0,017177
0,133856
1
1
1
1
0,01
0,01
0,01
0,00
>0,5
>0,5
>0,5
>0,5
0,01
0,01
0,01
0,00
Tabela 39: Estimativas para nível 1 (Segunda Rodada)
(continua)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
LI04A
LI22A
ZPC2
LI21A
LI07A
LI26B
LI28B
LI28A
LI25A
LI25B
LI13A
LI13B
LI26A
LI17A
I31POS
LI09B
LI09A
LI05A
LI05B
LI31A
LI31B
Rural
LI26B
I26NEG
LI28B
I28NEG
I29POS
I09POS
LI23A
LI25B
I25NEG
I06NEG
LI03A
LI13B
I13NEG
LI29A
LI03B
LI06B
I06NEG
LI12A
LI05B
I05NEG
ZPC4
LI06A
LI29B
I29NEG
I29POS
LI06B
LI03B
I03NEG
-0,018450
-0,025032
-0,039031
-0,023069
-0,025908
-0,050958
-0,042446
-0,038990
-0,054560
-0,053309
-0,027427
-0,027782
-0,038526
-0,011785
-0,115048
0,030497
0,030029
0,031629
0,031924
-0,015471
-0,015286
-0,227576
-0,050960
0,001154
-0,042489
-0,097297
-0,096614
0,092032
0,008577
-0,052080
0,958033
-1,724590
-0,031189
-0,026888
0,264130
-0,031684
-0,029080
0,017634
-1,663172
-0,006230
0,031393
-0,185867
0,011320
0,019901
-0,028393
0,197159
-0,094500
0,019186
-0,027630
0,756272
0,006022
0,008572
0,014081
0,008533
0,009662
0,021037
0,017869
0,017136
0,024148
0,024371
0,013349
0,013844
0,019475
0,006002
0,059139
0,015692
0,015677
0,017147
0,017487
0,008680
0,008688
0,129695
0,021058
0,396235
0,017870
0,411701
0,057492
0,055147
0,005181
0,024413
1,143514
1,131798
0,021169
0,013958
0,537924
0,022329
0,021404
0,016012
1,132772
0,004728
0,017577
0,624976
0,008827
0,015889
0,022797
0,448126
0,057687
0,015979
0,021458
0,818686
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
2
2
2
2
1
1
1
2
2
1
1
2
2
1
1
2
2
1
2
2
1
1
1
2
2
1
2
2
9,39
8,53
7,68
7,31
7,19
5,87
5,64
5,18
5,10
4,78
4,22
4,03
3,91
3,86
3,78
3,78
3,67
3,40
3,33
3,18
3,10
3,08
5,87
5,87
5,70
5,70
2,82
2,79
2,74
5,43
5,43
2,32
2,17
4,25
4,25
2,01
1,85
3,54
3,54
1,74
3,42
3,42
1,64
1,57
1,55
3,01
3,01
1,44
2,67
2,67
0,003
0,004
0,014
0,007
0,007
0,015
0,017
0,022
0,022
0,027
0,037
0,042
0,045
0,047
0,049
0,049
0,052
0,062
0,064
0,071
0,075
0,075
0,052
0,052
0,056
0,056
0,089
0,091
0,094
0,064
0,064
0,123
0,137
0,117
0,117
0,152
0,171
0,168
0,168
0,184
0,178
0,178
0,197
0,208
0,210
0,221
0,221
0,228
0,263
0,263
9,39
8,53
7,68
7,31
7,19
5,87
5,64
5,18
5,10
4,78
4,22
4,03
3,91
3,86
3,78
3,78
3,67
3,40
3,33
3,18
3,10
3,08
2,93
2,93
2,85
2,85
2,82
2,79
2,74
2,72
2,72
2,32
2,17
2,12
2,12
2,01
1,85
1,77
1,77
1,74
1,71
1,71
1,64
1,57
1,55
1,50
1,50
1,44
1,33
1,33
254
Tabela 39: Estimativas para nível 1 (Segunda Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
LI15A
LI16B
I03NEG
LI16A
LI29B
I29NEG
I25NEG
LI08B
LI08A
ZPC3
LI32B
LI08B
I08NEG
LI32A
LI01B
LI27B
LI10A
I13NEG
I18NEG
I19NEG
LI16B
I16NEG
LI01A
LI01B
I01NEG
LI14B
LI14A
LI27A
I30NEG
LI32B
I32NEG
I08NEG
I29NEG
LI19B
I19NEG
LI27B
I27NEG
LI18B
I18NEG
I05NEG
LI14B
I14NEG
I01NEG
I11POS
LI20A
I11NEG
I11POS
LI18A
I33NEG
LI11A
LI19B
LI33B
I33NEG
I27NEG
LI33A
I11NEG
LI33B
LI19A
I14NEG
LI18B
I28NEG
I26NEG
I32NEG
I16NEG
-0,009514
0,014789
0,820431
0,014255
-0,027637
0,220835
1,073105
-0,018791
-0,018439
-0,012073
0,013762
-0,019352
-0,347275
0,012704
0,015310
-0,012240
-0,003805
0,391879
0,343466
0,801659
0,014787
-0,004598
0,012956
0,015203
-0,286617
-0,004547
-0,004424
-0,009949
-0,409126
0,013826
0,072274
-0,323565
0,254431
0,004831
0,812350
-0,012205
-0,115135
-0,003705
0,343362
-0,300665
-0,004477
0,133370
-0,294273
-0,023723
-0,004991
-0,040284
-0,025053
-0,005143
-0,490270
0,004624
0,004451
-0,004886
-0,497797
-0,117252
-0,004926
-0,036213
-0,004770
0,003692
0,149892
-0,003733
-0,087171
-0,043211
0,037288
-0,038063
0,009023
0,014451
0,815901
0,014368
0,022848
0,447642
1,138736
0,019982
0,019877
0,013244
0,016207
0,020000
0,547045
0,016111
0,019431
0,016376
0,005150
0,534139
0,470640
1,106920
0,014456
1,230912
0,018995
0,019437
0,629835
0,007080
0,007018
0,015825
0,676950
0,016225
0,873971
0,547042
0,446842
0,014207
1,107275
0,016377
0,407469
0,015470
0,470866
0,622568
0,007087
0,602234
0,633045
0,060581
0,013271
0,134817
0,060745
0,015014
1,448257
0,013845
0,014197
0,018134
1,448891
0,406983
0,018099
0,134456
0,018131
0,014117
0,601646
0,015470
0,411217
0,393454
0,872974
1,230473
1
1
1
1
2
2
1
1
1
1
1
2
2
1
1
1
1
1
1
1
2
2
1
2
2
1
1
1
1
2
2
1
1
2
2
2
2
2
2
1
2
2
1
1
1
2
2
1
1
1
1
2
2
1
1
1
1
1
1
1
1
1
1
1
1,11
1,05
1,01
0,98
1,79
1,79
0,89
0,88
0,86
0,83
0,72
1,29
1,29
0,62
0,62
0,56
0,55
0,54
0,53
0,52
1,05
1,05
0,47
0,83
0,83
0,41
0,40
0,40
0,37
0,73
0,73
0,35
0,32
0,64
0,64
0,64
0,64
0,59
0,59
0,23
0,46
0,46
0,22
0,15
0,14
0,24
0,24
0,12
0,11
0,11
0,10
0,19
0,19
0,08
0,07
0,07
0,07
0,07
0,06
0,06
0,04
0,01
0,00
0,00
0,292
0,307
0,316
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
1,11
1,05
1,01
0,98
0,89
0,89
0,89
0,88
0,86
0,83
0,72
0,64
0,64
0,62
0,62
0,56
0,55
0,54
0,53
0,52
0,52
0,52
0,47
0,41
0,41
0,41
0,40
0,40
0,37
0,36
0,36
0,35
0,32
0,32
0,32
0,32
0,32
0,29
0,29
0,23
0,23
0,23
0,22
0,15
0,14
0,12
0,12
0,12
0,11
0,11
0,10
0,09
0,09
0,08
0,07
0,07
0,07
0,07
0,06
0,06
0,04
0,01
0,00
0,00
255
Tabela 40: Estimativas para nível 1 (Terceira Rodada)
(continua)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
LI10A
LI12A
LI13B
LI13A
LI07A
I31POS
ZPC2
LI31A
LI31B
LI13B
I13NEG
I29POS
LI25A
LI25B
Rural
LI09B
LI09A
LI29A
I11NEG
LI29B
I29NEG
I29POS
I06NEG
I09POS
LI25B
I25NEG
LI08B
LI08A
LI03A
LI11A
LI15A
LI16B
LI16A
LI03B
LI17A
ZPC3
ZPC4
LI08B
I08NEG
I11NEG
I11POS
LI29B
I29NEG
LI03B
I03NEG
LI06B
I06NEG
I03NEG
LI28B
LI28A
I25NEG
I18NEG
LI16B
I16NEG
LI18B
I18NEG
LI01A
LI28B
I28NEG
LI23A
I19NEG
I08NEG
0,055774
0,050263
-0,044713
-0,042488
-0,024020
-0,134592
-0,032399
-0,019425
-0,019248
-0,044433
0,068358
-0,119397
-0,047329
-0,045994
-0,235236
0,028374
0,027889
-0,037850
-0,228339
-0,034519
0,199343
-0,117289
-1,679574
0,081020
-0,044772
0,953955
-0,028713
-0,028075
-0,028691
0,020040
-0,011936
0,018939
0,018336
-0,026395
-0,008204
-0,015554
0,010599
-0,029412
-0,412778
-0,228416
0,010443
-0,033735
0,228353
-0,024835
0,799994
0,004490
-1,664007
0,857854
-0,019733
-0,018240
1,051232
0,432997
0,018936
-0,004482
0,010660
0,437301
-0,016266
-0,019783
-0,057622
0,003911
0,772515
-0,375084
0,011737
0,012393
0,014624
0,014083
0,009702
0,058956
0,014203
0,008682
0,008690
0,014784
0,539573
0,057613
0,024334
0,024559
0,129063
0,015717
0,015701
0,022337
0,143673
0,022807
0,448692
0,057803
1,129694
0,055357
0,024601
1,144409
0,020105
0,020000
0,021281
0,014991
0,009042
0,014574
0,014487
0,021520
0,006721
0,013385
0,009129
0,020124
0,545592
0,143676
0,062614
0,022857
0,448206
0,021575
0,818901
0,016478
1,131071
0,816424
0,019336
0,018393
1,140072
0,471176
0,014579
1,231298
0,015936
0,470646
0,020771
0,019340
0,413277
0,005433
1,107012
0,545282
1
1
1
1
1
1
1
1
1
2
2
1
1
1
1
1
1
1
1
1
2
2
1
1
2
2
1
1
1
1
1
1
1
1
1
1
1
2
2
2
2
2
2
2
2
2
2
1
1
1
1
1
2
2
2
2
1
2
2
1
1
1
22,58
16,45
9,35
9,10
6,13
5,21
5,20
5,01
4,91
9,36
9,36
4,29
3,78
3,51
3,32
3,26
3,16
2,87
2,53
2,29
4,48
4,48
2,21
2,14
4,16
4,16
2,04
1,97
1,82
1,79
1,74
1,69
1,60
1,50
1,49
1,35
1,35
2,61
2,61
2,55
2,55
2,54
2,54
2,43
2,43
2,29
2,29
1,10
1,04
0,98
0,85
0,84
1,69
1,69
1,29
1,29
0,61
1,06
1,06
0,52
0,49
0,47
< 0,001
< 0,001
0,003
0,003
0,013
0,021
0,021
0,024
0,025
0,009
0,009
0,036
0,049
0,058
0,065
0,067
0,072
0,086
0,108
0,126
0,104
0,104
0,133
0,139
0,123
0,123
0,149
0,157
0,174
0,178
0,183
0,191
0,203
0,218
0,220
0,244
0,244
0,270
0,270
0,278
0,278
0,280
0,280
0,297
0,297
0,319
0,319
0,293
0,308
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
22,58
16,45
9,35
9,10
6,13
5,21
5,20
5,01
4,91
4,68
4,68
4,29
3,78
3,51
3,32
3,26
3,16
2,87
2,53
2,29
2,24
2,24
2,21
2,14
2,08
2,08
2,04
1,97
1,82
1,79
1,74
1,69
1,60
1,50
1,49
1,35
1,35
1,31
1,31
1,28
1,28
1,27
1,27
1,21
1,21
1,14
1,14
1,10
1,04
0,98
0,85
0,84
0,84
0,84
0,65
0,65
0,61
0,53
0,53
0,52
0,49
0,47
256
Tabela 40: Estimativas para nível 1 (Terceira Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
LI05A
LI18B
LI01B
LI05B
I29NEG
LI14B
LI14A
I05NEG
I13NEG
LI27B
LI05B
I05NEG
I30NEG
LI19B
I19NEG
LI18A
LI27A
LI01B
I01NEG
LI14B
I14NEG
LI06A
LI27B
I27NEG
I33NEG
LI06B
LI33B
I33NEG
LI20A
LI21A
I14NEG
LI32A
I27NEG
I11POS
I28NEG
LI32B
I01NEG
LI32B
I32NEG
LI19A
I32NEG
I16NEG
LI19B
LI33B
LI33A
0,012163
0,010422
-0,013600
0,011435
0,269170
-0,004235
-0,004119
-0,360553
0,304489
-0,009879
0,010332
-0,319001
-0,378679
-0,000151
0,772177
0,007265
-0,007714
-0,013568
-0,062179
-0,004163
0,133948
0,006997
-0,009894
-0,071075
-0,605003
0,006143
0,000290
-0,604595
-0,003581
-0,006678
0,149450
-0,002962
-0,069902
0,010146
-0,049845
-0,001901
-0,068540
-0,001858
0,047477
-0,001185
0,052015
-0,048918
-0,000522
0,000421
0,000309
0,018140
0,015932
0,021200
0,018548
0,447382
0,007099
0,007037
0,625552
0,534631
0,017414
0,018676
0,629626
0,678105
0,014274
1,107479
0,015389
0,016693
0,021205
0,649887
0,007107
0,602805
0,016343
0,017414
0,408471
1,456266
0,016441
0,018202
1,456491
0,013332
0,024947
0,602219
0,016732
0,408193
0,062614
0,413355
0,016833
0,645707
0,016851
0,874872
0,014186
0,873935
1,230736
0,014264
0,018198
0,018169
1
1
1
1
1
1
1
1
1
1
2
2
1
2
2
1
1
2
2
2
2
1
2
2
1
1
2
2
1
1
1
1
1
1
1
1
1
2
2
1
1
1
1
1
1
0,45
0,43
0,41
0,38
0,36
0,36
0,34
0,33
0,32
0,32
0,64
0,64
0,31
0,49
0,49
0,22
0,21
0,42
0,42
0,40
0,40
0,18
0,35
0,35
0,17
0,14
0,17
0,17
0,07
0,07
0,06
0,03
0,03
0,03
0,01
0,01
0,01
0,02
0,02
0,01
0,00
0,00
0,00
0,00
0,00
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
0,45
0,43
0,41
0,38
0,36
0,36
0,34
0,33
0,32
0,32
0,32
0,32
0,31
0,24
0,24
0,22
0,21
0,21
0,21
0,20
0,20
0,18
0,18
0,18
0,17
0,14
0,09
0,09
0,07
0,07
0,06
0,03
0,03
0,03
0,01
0,01
0,01
0,01
0,01
0,01
0,00
0,00
0,00
0,00
0,00
Tabela 41: Estimativas para nível 1 (Quarta Rodada)
(continua)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
LI05A
LI05B
LI05B
I05NEG
I31POS
LI31A
LI31B
ZPC2
LI06A
0,131428
0,136375
0,135679
-0,284560
-0,132694
-0,018861
-0,018705
-0,030641
0,041969
0,032618
0,033901
0,033963
0,658510
0,057244
0,008446
0,008453
0,014108
0,020342
1
1
2
2
1
1
1
1
1
16,23
16,18
16,35
16,35
5,37
4,99
4,90
4,72
4,26
< 0,001
< 0,001
0,001
0,001
0,019
0,024
0,025
0,028
0,037
16,23
16,18
8,18
8,18
5,37
4,99
4,90
4,72
4,26
257
Tabela 41: Estimativas para nível 1 (Quarta Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
I29POS
LI06B
LI09B
LI09A
LI11A
LI06B
I06NEG
I09POS
LI29A
LI07A
ZPC3
I29NEG
I29POS
LI29B
Rural
LI25A
I06NEG
I11NEG
LI25B
LI15A
LI08B
LI08A
LI28B
LI28A
LI25B
I25NEG
LI08B
I08NEG
I11NEG
I11POS
LI29B
I29NEG
I03NEG
ZPC4
I18NEG
I25NEG
LI03B
I03NEG
I08NEG
LI03A
LI28B
I28NEG
I19NEG
LI17A
I11POS
LI23A
LI16B
LI03B
LI16A
LI01A
LI18B
I18NEG
I05NEG
I29NEG
LI19B
I19NEG
LI01B
LI16B
I16NEG
I30NEG
LI21A
LI20A
LI01B
I01NEG
-0,115941
0,041339
0,030699
0,030202
0,028120
0,040028
-1,522512
0,092987
-0,036814
-0,015944
0,002584
0,207746
-0,113904
-0,033451
-0,188836
-0,036135
-1,601142
-0,200045
-0,034483
-0,012456
-0,025906
-0,025112
-0,022684
-0,021512
-0,033029
1,003551
-0,026668
-0,527453
-0,199824
0,050200
-0,032687
0,235213
0,906291
0,010242
0,463642
1,080954
-0,014879
0,869828
-0,497724
-0,019455
-0,022690
-0,006490
0,911090
-0,005453
0,050371
0,004302
0,011386
-0,016711
0,011066
-0,015424
0,002668
0,464792
-0,431965
0,273901
0,000056
0,911213
-0,012130
0,011292
-0,259165
-0,365312
-0,012588
-0,005958
-0,012144
0,055100
0,056285
0,020485
0,015626
0,015611
0,015042
0,020532
1,145625
0,054858
0,022045
0,009893
0,001686
0,448565
0,056454
0,022498
0,128424
0,024644
1,143082
0,144332
0,024903
0,009083
0,020125
0,020030
0,019386
0,018472
0,024956
1,141001
0,020139
0,547066
0,144339
0,063126
0,022545
0,448139
0,816988
0,009259
0,472415
1,137235
0,021775
0,819135
0,546687
0,021451
0,019388
0,413960
1,104815
0,006721
0,063127
0,005439
0,014708
0,021713
0,014622
0,020745
0,015937
0,472344
0,653639
0,447350
0,014219
1,105251
0,021185
0,014715
1,232215
0,679533
0,024996
0,013386
0,021184
0,654594
1
1
1
1
1
2
2
1
1
1
1
2
2
1
1
1
1
1
1
1
1
1
1
1
2
2
2
2
2
2
2
2
1
1
1
1
2
2
1
1
2
2
1
1
1
1
1
1
1
1
2
2
1
1
2
2
1
2
2
1
1
1
2
2
4,24
4,07
3,86
3,74
3,49
5,75
5,75
2,87
2,79
2,60
2,35
4,45
4,45
2,21
2,16
2,15
1,96
1,92
1,92
1,88
1,66
1,57
1,37
1,36
2,65
2,65
2,58
2,58
2,55
2,55
2,48
2,48
1,23
1,22
0,96
0,90
1,70
1,70
0,83
0,82
1,37
1,37
0,68
0,66
0,64
0,63
0,60
0,59
0,57
0,55
0,99
0,99
0,44
0,37
0,68
0,68
0,33
0,64
0,64
0,29
0,25
0,20
0,33
0,33
0,037
0,041
0,047
0,050
0,058
0,055
0,055
0,086
0,091
0,103
0,121
0,106
0,106
0,133
0,137
0,139
0,158
0,162
0,162
0,167
0,195
0,207
0,240
0,242
0,265
0,265
0,274
0,274
0,278
0,278
0,289
0,289
0,266
0,268
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
4,24
4,07
3,86
3,74
3,49
2,87
2,87
2,87
2,79
2,60
2,35
2,22
2,22
2,21
2,16
2,15
1,96
1,92
1,92
1,88
1,66
1,57
1,37
1,36
1,33
1,33
1,29
1,29
1,28
1,28
1,24
1,24
1,23
1,22
0,96
0,90
0,85
0,85
0,83
0,82
0,68
0,68
0,68
0,66
0,64
0,63
0,60
0,59
0,57
0,55
0,50
0,50
0,44
0,37
0,34
0,34
0,33
0,32
0,32
0,29
0,25
0,20
0,17
0,17
258
Tabela 41: Estimativas para nível 1 (Quarta Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
I33NEG
LI33B
I33NEG
LI27B
LI32A
LI14B
LI14A
LI14B
I14NEG
I16NEG
I14NEG
LI32B
LI27B
I27NEG
LI27A
LI32B
I32NEG
I27NEG
LI18B
LI33B
LI33A
I32NEG
LI12A
LI19A
I01NEG
LI19B
LI18A
I28NEG
-0,544466
0,002459
-0,540670
-0,004721
-0,004383
-0,001909
-0,001830
-0,001842
0,130885
-0,289257
0,137185
-0,003280
-0,004728
-0,014994
-0,002954
-0,003193
0,096126
-0,064106
0,002398
0,002588
0,002416
0,103936
0,002189
-0,001184
0,051831
-0,000379
-0,000381
0,000090
1,438032
0,018218
1,438174
0,017473
0,016526
0,007208
0,007143
0,007214
0,599204
1,231510
0,598659
0,016625
0,017475
0,409737
0,016730
0,016643
0,874889
0,408367
0,015932
0,018214
0,018181
0,873981
0,025330
0,014127
0,651016
0,014209
0,015379
0,414102
1
2
2
1
1
1
1
2
2
1
1
1
2
2
1
2
2
1
1
1
1
1
1
1
1
1
1
1
0,14
0,16
0,16
0,07
0,07
0,07
0,07
0,12
0,12
0,06
0,05
0,04
0,07
0,07
0,03
0,05
0,05
0,02
0,02
0,02
0,02
0,01
0,01
0,01
0,01
0,00
0,00
0,00
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
0,14
0,08
0,08
0,07
0,07
0,07
0,07
0,06
0,06
0,06
0,05
0,04
0,04
0,04
0,03
0,03
0,03
0,02
0,02
0,02
0,02
0,01
0,01
0,01
0,01
0,00
0,00
0,00
Tabela 42: Estimativas para nível 1 (Quinta Rodada)
(continua)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
I31POS
LI31A
LI31B
ZPC3
I29POS
LI09B
LI09A
LI25A
LI11A
LI25B
LI07A
I09POS
LI29A
LI15A
Rural
I29NEG
I29POS
LI29B
LI25B
I25NEG
LI28B
I08NEG
I11NEG
LI28A
LI03A
I11NEG
-0,140860
-0,020018
-0,019865
-0,031945
-0,124371
0,032419
0,031907
-0,050243
0,029959
-0,048984
-0,018365
0,099966
-0,038660
-0,015069
-0,208007
0,206081
-0,122435
-0,035249
-0,047529
0,938157
-0,027133
-0,766864
-0,191695
-0,024448
-0,028296
-0,191267
0,056808
0,008382
0,008388
0,013951
0,055930
0,015626
0,015611
0,025011
0,015040
0,025277
0,009969
0,054801
0,021958
0,009140
0,127672
0,450484
0,056087
0,022407
0,025335
1,140531
0,019407
0,572071
0,144502
0,018468
0,021639
0,144507
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
2
2
1
2
2
1
1
1
1
1
2
6,15
5,70
5,61
5,24
4,94
4,30
4,18
4,04
3,97
3,76
3,39
3,33
3,10
2,72
2,65
5,14
5,14
2,47
4,38
4,38
1,95
1,80
1,76
1,75
1,71
2,92
0,013
0,016
0,017
0,021
0,025
0,036
0,038
0,042
0,044
0,050
0,062
0,065
0,074
0,095
0,099
0,074
0,074
0,112
0,110
0,110
0,158
0,177
0,181
0,182
0,188
0,231
6,15
5,70
5,61
5,24
4,94
4,30
4,18
4,04
3,97
3,76
3,39
3,33
3,10
2,72
2,65
2,57
2,57
2,47
2,19
2,19
1,95
1,80
1,76
1,75
1,71
1,46
259
Tabela 42: Estimativas para nível 1 (Quinta Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
I11POS
I06NEG
LI08B
I08NEG
LI03B
LI29B
I29NEG
I03NEG
LI03B
I03NEG
I11POS
LI01A
LI28B
I28NEG
LI17A
LI08B
I19NEG
LI08A
I25NEG
LI01B
ZPC4
LI06B
I06NEG
LI19B
I19NEG
LI23A
I18NEG
LI32A
LI01B
I01NEG
LI27B
LI14B
LI14A
I29NEG
LI32B
LI20A
LI18B
I18NEG
LI27B
I27NEG
LI19A
LI14B
I14NEG
LI18A
LI27A
I33NEG
LI32B
I32NEG
LI19B
LI18B
I27NEG
LI21A
LI33B
I33NEG
I14NEG
I28NEG
I16NEG
LI33A
LI33B
LI16B
I16NEG
LI12A
I32NEG
I01NEG
0,068200
-1,407027
-0,020870
-0,784406
-0,025703
-0,034507
0,235748
0,922290
-0,023827
0,862214
0,068429
-0,021807
-0,027204
-0,092466
-0,006750
-0,020060
1,092085
-0,018836
1,055665
-0,019521
0,007679
-0,000171
-1,407189
-0,005602
1,082080
0,003959
0,328360
-0,010923
-0,019507
-0,046125
-0,011278
-0,004614
-0,004489
0,276084
-0,009957
-0,007702
-0,006146
0,324071
-0,011355
-0,148507
-0,006952
-0,004538
0,152002
-0,007429
-0,007775
-0,612332
-0,009906
0,055144
-0,006053
-0,006429
-0,145372
-0,008726
-0,002918
-0,617059
0,166990
-0,083294
-0,204289
-0,002895
-0,002761
0,000449
-0,203232
-0,002484
0,079680
-0,051627
0,063371
1,169523
0,020195
0,571800
0,021908
0,022452
0,450122
0,819818
0,021974
0,822118
0,063372
0,020797
0,019410
0,412621
0,006759
0,020186
1,109384
0,020118
1,135618
0,021249
0,008830
0,023746
1,169739
0,014248
1,110027
0,005448
0,470512
0,016555
0,021251
0,648333
0,017530
0,007251
0,007186
0,449420
0,016653
0,013429
0,016033
0,470935
0,017531
0,406187
0,014160
0,007257
0,601582
0,015425
0,016762
1,431517
0,016672
0,874279
0,014240
0,016026
0,405967
0,025031
0,018281
1,431947
0,600925
0,412783
1,229680
0,018244
0,018277
0,015009
1,230192
0,025313
0,873431
0,643173
2
1
2
2
1
2
2
1
2
2
1
1
2
2
1
1
1
1
1
1
1
2
2
2
2
1
1
1
2
2
1
1
1
1
1
1
2
2
2
2
1
2
2
1
1
1
2
2
1
1
1
1
2
2
1
1
1
1
1
2
2
1
1
1
2,92
1,45
2,87
2,87
1,38
2,74
2,74
1,27
2,44
2,44
1,17
1,10
2,00
2,00
1,00
0,99
0,97
0,88
0,86
0,84
0,76
1,45
1,45
1,12
1,12
0,53
0,49
0,44
0,85
0,85
0,41
0,40
0,39
0,38
0,36
0,33
0,63
0,63
0,55
0,55
0,24
0,47
0,47
0,23
0,22
0,18
0,36
0,36
0,18
0,16
0,13
0,12
0,21
0,21
0,08
0,04
0,03
0,03
0,02
0,03
0,03
0,01
0,01
0,01
0,231
0,227
0,237
0,237
0,239
0,253
0,253
0,259
0,295
0,295
0,280
0,295
0,368
0,368
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
1,46
1,45
1,43
1,43
1,38
1,37
1,37
1,27
1,22
1,22
1,17
1,10
1,00
1,00
1,00
0,99
0,97
0,88
0,86
0,84
0,76
0,72
0,72
0,56
0,56
0,53
0,49
0,44
0,42
0,42
0,41
0,40
0,39
0,38
0,36
0,33
0,32
0,32
0,27
0,27
0,24
0,23
0,23
0,23
0,22
0,18
0,18
0,18
0,18
0,16
0,13
0,12
0,10
0,10
0,08
0,04
0,03
0,03
0,02
0,01
0,01
0,01
0,01
0,01
260
Tabela 42: Estimativas para nível 1 (Quinta Rodada)
(continuação)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
LI06A
LI16B
LI16A
LI06B
0,001336
0,000519
0,000256
0,000256
0,023590
0,015003
0,014917
0,023730
1
1
1
1
0,00
0,00
0,00
0,00
>0,5
>0,5
>0,5
>0,5
0,00
0,00
0,00
0,00
Tabela 43: Estimativas para nível 2 (Primeira Rodada)
Variável
Estimativa
Erro Padrão
Graus de
Liberdade
(GL)
Estatística
χ2
Nível
Descritivo
Estatística
χ2/GL
VrPerc99
agropecagr
indagr
comagr
export
ZLBRUTO
ZBCCSLL
ZRBCOF
ZRBPISP
ZBCPISP
ZBCCOF
ZRECLIQ
ZLREAL
ZLACSLL
ZLOPER
Inform
VrPerc98
-0,046706
-0,706023
-0,147411
0,008347
-0,177855
-0,058072
0,058079
-0,055577
-0,055449
-0,054685
-0,054510
-0,054224
0,045799
-0,037832
-0,035489
0,018192
-0,002232
0,012977
0,140856
0,067300
0,090957
0,070496
0,050829
0,056518
0,055024
0,055056
0,054740
0,054727
0,055445
0,056405
0,063766
0,062700
0,070805
0,010615
1
3
3
3
1
1
1
1
1
1
1
1
1
1
1
1
1
12,95
29,74
29,74
29,74
6,37
1,31
1,06
1,02
1,01
1,00
0,99
0,96
0,66
0,35
0,32
0,07
0,04
< 0,001
< 0,001
< 0,001
< 0,001
0,011
0,252
0,305
0,313
0,315
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
>0,5
12,95
9,91
9,91
9,91
6,37
1,31
1,06
1,02
1,01
1,00
0,99
0,96
0,66
0,35
0,32
0,07
0,04
261
APÊNDICE L – Comandos do R Project for Statistical Computing
para Estimação do MLGH2_Final
Obs: Antes de serem utilizados os comandos abaixo devem ser carregados
previamente os pacotes MASS e nlme e alterado o diretório padrão do R console
para a pasta contendo a base de dados de trabalho.
Comandos:
#Importa dados da MinhaBasedeDados.dat ou MinhaBasedeDados.txt (arquivos de
texto separados por tabulações possuindo vírgula como delimitador de decimais e
nomes das variáveis no cabeçalho); observação: na base de dados as variáveis de
nível 2 têm de ser repetidas para cada um dos registros de nível 1#
MeuArquivo=read.table("MinhaBasedeDados.dat", header=TRUE, sep="", dec=",");
#Cria um dataframe#
MeuDataFrame=data.frame(MeuArquivo);
#Estima modelo condicional para níveis 1 e 2 #
MLGH2_Final<glmmPQL(AUT~EXPORT*1+VRPERC99*1+LI02A+LI04A+LI10A+LI11A+LI13B+LI05
A+LI24A+LI22A+LI26B+LI25A+LI30A+ZPC1+ZPC2,random=~1|GRUPO,
family=binomial, data=MeuDataFrame);
#Visualização das estimativas#
summary(MLGH2_Final);
#Intervalos de confiança de 95% para efeitos fixos e componentes de variância#
intervals(MLGH2_Final);
#Lista efeitos aleatórios preditos para o nível 2#
random.effects(MLGH2_Final);
#Cria dataframe de efeitos aleatórios preditos para o nível 2#
r=data.frame(random.effects(MLGH2_Final));
262
#Gráfico de probabilidade Normal para os efeitos aleatórios preditos para o nível 2#
qqnorm(r$X.Intercept, datax=T, main="", xlab=" Quantis Teóricos", ylab="
Resíduos");
#Teste de normalidade shapiro-wilk para efeitos aleatórios preditos para o nível 2#
shapiro.test(r$X.Intercept);
#Previsões para novas observações#
predict(MLGH2_Final, newdata=MinhaNovaBasedeDados);
Download

Alexandre_Serra_Barreto