Revista do Centro Universitário Planalto do Distrito Federal – UNIPLAN – Volume 3 Nº 3 ISSN 1807-4855 Cesubra Scientia Volume 3, Nº 3, 2006 ISSN 1807-4855 Sociedade Objetivo de Ensino Superior Presidente Doutor João Carlos Di Gênio Diretor Administrativo Administrador Hildebrando José Rossi Filho Diretor Financeiro Administrador Rudge Allegretti Diretor Pedagógico Professor Jorge Brihy Centro Universitário Planalto do Distrito Federal Reitor Prof. Dr. Yugo Okida Vice-Reitor Prof. MS. Fabio Nogueira Carlucci Pró-Reitor Acadêmico Prof. Dr. Humberto Vendelino Richter Pró-Reitor Administrativo Prof. MS. Robson do Nascimento Coordenadora Geral Prof.(a) Maria Cecília Matos Grisi Secretário Geral Administrador Armindo Corrêa Brito Comissão Editorial Prof. Dr. Angel Rodolfo Baigorri Prof. Dr. Carlos Alberto Fernandes de Oliveira Prof.(a) Dr.(a) Cláudia da Silva Costa Prof. Dr. Demóstenes Moreira Prof. Dr. Eui Jung Chang Prof. Dr. João Estevão Giunti Ribeiro Prof.(a) Dr.(a) Maria Raquel Speri Prof. Dr. Humberto Vendelino Richter Produção Gráfica Agência Práxis - Agência Modelo do Cesubra Editoração Eletrônica Geraldo de Assis Amaral Revisão Professora Claudete Matarazzo Nogueira Carlucci Capa Wilton Oliveira Cardoso Matérias assinadas são de exclusiva responsabilidade dos autores. Direitos autorais reservados. Citação parcial permitida com referência à fonte. Cesubra Scientia Volume 3, Nº 3, 2006 ISSN 1807-4855 SUMÁRIO BRASÍLIA ESTADO PERFEITO X DESIGUALDADES SOCIAIS TESE E ANTÍTESE Leila Soares Teixeira............................................................................741 DESENVOLVIMENTO HISTÓRICO DA CRIPTOGRAFIA Jorge Loureiro Dias...............................................................................749 ANÁLISE FATORIAL - UMA ANÁLISE DO TESTE NÃO VERBAL DE RACIOCÍNIO PARA CRIANÇAS Adriano Campos Menezes; Fernando Sabbi Melgarejo; Ronaldo Augusto da Silva Fernandes..................................................................763 Brasília Estado Perfeito X Desigualdades Sociais Tese e Antítese Leila Soares Teixeira1 Resumo: O presente artigo trata da leitura da cidade de Brasília onde esta aparece como um sistema que se comunica objetivamente ao materializar aspectos individuais e sociais, particulares e universais, buscando transformar e utilizar o urbanismo como forma de superação ou diminuição das desigualdades sociais. Palavras-chave: Instrumento, controle social, modernismo, equilíbrio, desigualdade, planejamento. 1 Leila Soares Teixeira, Mestre em Arquitetura e Urbanismo. Professora do Centro Universitário Planalto do Distrito Federal – UNIPLAN. Endereço eletrônico: [email protected]. 741 Introdução Historicamente o urbanismo foi usado algumas vezes como instrumento de controle social, e embora tenha sido um ideal modernista, não se tornou possível gerar mudanças estruturais através deste. Brasília nasceu como uma expressão de um projeto geo-político de ocupação territorial, aliada a uma determinação governamental. E como afirma Lúcio Costa nasceu pronta, onde poucas cidades ou talvez nenhuma tenha sido concebida de forma tão inteira (Costa,1991). Sendo esta basicamente vinculada a Carta de Atenas, recebeu também outras influências como a Unidade de Vizinhança de Clarence Perry2 Para analisar e formular qualquer tipo de conceito sobre Brasília, é preciso em um primeiro momento resgatar o contexto social, político e cultural da época de sua concepção onde o país vivia um clima de euforia com a idéia desenvolvimentista de J.K.. O modelo era de expansão e “modernização”. O país teve neste período de governo a maior aceleração que um processo urbano tenha sofrido em comparação a qualquer outro do mundo. A concepção da cidade de Brasília traz em si um modelo racionalista “Ela deve ser concebida não como simples organismo capaz de preencher satisfatoriamente e sem esforço as funções vitais próprias de uma cidade moderna qualquer, não apenas como urbs, mas como civitas, possuidora dos atributos inerentes a uma capital. ... Cidade planejada para o trabalho ordenado e eficiente, mas ao mesmo tempo cidade viva e aprazível... a característica fundamental do plano era permitir em cada área de vizinhança, constituída por quatro super quadras a convivência de pessoas de padrões econômicos diferentes, e isto sem mútuo constrangimento porquanto cada quadra teria moradores de determinado padrão. Diluídas assim as diferenças do status econômico ao longo do eixo rodoviário-residencial, a cidade não ficaria estratificada em áreas rigidamente diferenciadas, e se teria 2 Vêr Holanda em O Espaço de Exceção. Brasília: Editora da Universidade de Brasília 742 demonstrado, na prática, como resolver, no sistema capitalista, o problema social da coexistência urbana de classes.3” Estas palavras evidenciam a preocupação de Lúcio Costa em transformar e utilizar o urbanismo como forma de superação ou diminuição das desigualdades sociais. Hoje Brasília é como toda cidade de porte metropolitano cheia de desequilíbrios sociais. Embora seja uma cidade única, sofre com a realidade da dinâmica social do país que apresenta este desequilíbrio, planejada e idealizada por Lúcio Costa, ainda assim não responde de acordo com os aspectos práticos as expectativas da população da cidade. Mas por outro, se apresenta como bela alcançando através do sujeito uma totalidade. “Quanto ao projeto é assim que sendo monumental e cômodo, eficiente acolhedor e íntimo...” (Costa, 1991). Marco Teórico Planejamento urbano: um breve histórico Até o pós guerra o estudo do espaço e das cidades eram reservados a geógrafos e arquitetos que só trabalhavam a questão interna em sua funcionalidade. Não se levava em conta os fatores econômicos, políticos ou ideológicos que influenciavam diretamente no processo e na dinâmica do crescimento das cidades. Os geógrafos se limitavam a descrição e catalogação das mesmas4. Foi a partir da evolução do sistema capitalista que ocorreu a explosão das cidades e a dinâmica espacial foi então influenciada drasticamente, criando-se a necessidade de um estudo agora com um âmbito maior. O interesse passou a ir além do catalogar, a questão agora era, planejar e se necessário intervir. “a Carta de Atenas abre todas as portas do urbanismo moderno.é uma resposta ao atual caos das cidades. Colocada nas mãos de autoridades ,detalhada, comentada, iluminada por uma explicação 3 Lúcio Costa, Relatório do Plano Piloto de Brasília, GDF, 1991, p. 20 “a geografia nesta época parece Ter sido de se apresentar como o campo de estudo da terra sendo mais uma demonstração da relação homem e natureza”.(Gomes,1978:44) 4 743 suficiente, é o instrumento pelo qual será guiado o destino das cidades” .(discurso de Gean Giradeaudoux – nº 4. CIAM- Carta de Atenas, 1950 Dentro deste contexto o fenômeno urbano metropolitano consolidou-se nacionalmente reforçando a existência de regiões (metropolitanas), fazendo emergir aglomerações urbanas de diferentes portes. Espaços assentados sobre diversos territórios pedindo suporte material, infra estrutura (Habitação, equipamento e outros). Houve neste processo uma velocidade e uma complexidade na transformação, evidenciando o fato de que não se esgotaram as reflexões nem é ultrapassado discutir e rediscutir o tema. Brasília - cidade, o planejamento e os diversos atores Como já foi abordado, qualquer que seja a análise feita esta não pode ser desligada do contexto social. É preciso sempre partir deste contexto e os problemas que o envolvem. Instrumentos como a ilegalidade institucionalizada e a especulação imobiliária apoiadas na convivência entre o poder público e empreendedores, dá hoje, nova dimensão a cidade. Diante das constatações e tendências , é preciso compreender que a organização de um espaço passa por algo maior do que sua reconstrução ou mero arranjo espacial onde as políticas estatais e suas ações têm que ser analisadas como um processo onde deva constar a participação e interação dos diversos atores envolvidos, moradores, associação deputados, governo, e outros. Brasília - Planejamento e Gestão democrática A gestão democrática deve ser entendida como forma de planejar, produzir, operar e governar as cidades , garantir o acesso a informações e participação sobre os processos decisórios do poder local. Esta gestão cria uma nova ordem legal urbana que promova proteção legal e segurança jurídica para as pessoas da comunidade onde a política de prevenção sustente uma medida essencial para evitar a continuidade das ocupações de áreas consideradas de preservação e 744 proteção ambiental, sem deixar de contemplar o direito a moradia que é reconhecido como um direito humano e está em diversos tratados internacionais dos quais o estado Brasileiro participa. “As chaves para o planejamento urbano estão nas quatro funções: moradia, trabalho, lazer, circulação.”(LE CORBUSIER,1957 - Citado em HOLSTOn. J. 1993).” Esta para ter eficácia pressupõe a ação positiva do estado por meio de execução de políticas públicas. Observando-se que, nos últimos dez5 anos, Brasília viu-se transformar radicalmente, a cidade hoje esta longe de uma proposta racional de planejamento prévio para grande parte de suas “novas cidades”, aqui e ali surgiram assentamentos , sem que as autoridades competentes ousassem barrar. O surgimento destas localidades se traduziu em um processo de descrédito, ou desconfiança na força da ordem constituída e séria desconfiança nas ordens normativas. A uma nova realidade estampada na cidade. Onde houve uma mudança agregando forças vindas de: mercado imobiliário, governo e população. Estas dimensões econômicas e territoriais sem o menor planejamento trouxeram em si preocupações que causam a cidade organizada um certo desconforto. Estas situações resultam na total e rápida transformação da paisagem do Distrito Federal. Onde a não preocupação com infra estruturas como; escolas, hospitais, lazer e outros, além do prejuízo financeiro da ilegalidade que é gigantesco já que os impostos não podem ser recolhidos. Não há aí o entendimento de que a urbanização e organização de uma cidade, passa pela organização de compromissos entre vários atores sociais. E além do conjunto de intenções desses atores , não se leva em conta o aspecto do lugar como; fisiográficos, bióticos, e antrópicos, fazendo com que a cidade padeça em um palco de disputas corporativas a luz da composição de forças onde diversos são os novos atores, 5 Correio Brasiliense, janeiro de 2005. 745 fazendo-se necessário a formulação de novas políticas para compensar estas disputas. “A cidade é, antes de mais nada, um sistema de costumes e tradições, aos quais correspondem atitudes e sentimentos organizados, que transcendem o mero agrupamento de indivíduos e de convivências sociais.”(lefebvre). “a crescente necessidade de enfrentar os problemas psicológicos, técnicos, organizacionais e políticos da urbanização maciça foi um dos canteiros em que floresceram os movimentos modernistas.” (HARVEY D. 1993) Considerações finais A moradia é um bem ao qual a análise de direito de Propriedade se ajusta com particular adequação. Como decorrência da heterogeneidade de sua composição, permite que seja feita, variadas combinações e graus, a compra dos serviços que presta (espaço, acessibilidade, amenidades e outros) aos quais o consumidor associa diferentes níveis de utilidade. A posse da habitação pode representar para o indivíduo, desde a satisfação de poder e prestígio social a garantia de privacidade e independência. Os assentamentos irregulares estabelecem neste cenário (Brasília Distrito Federal) uma “cidade virtual”, que não se relaciona com as condições reais de produção da cidade pelo mercado. Estes novos espaços redesenham a realidade da cidade e vão de frente com leis ineficientes as respostas destes problemas. O Distrito Federal tem em sua lei orgânica a definição de que a política de desenvolvimento urbano objetiva a melhor qualidade de vida de sua população, a ocupação ordenada de seu território, o uso de bens e serviços e a distribuição dos serviços e equipamentos públicos a todos os cidadãos do lugar. Diante deste contexto Planejar é um sonho? É apenas um quadro desenhado pelo Arquiteto? Platão afirmava que sonhos criam asas e voam. E que as metas servem como modelos de movimento e comportamento. 746 Talvez quando um número suficiente de pessoas ver o quadro e seguir o seu lampejo, a utopia encontrará seu lugar no mapa. “No céu há um modelo de cidade assim, e aquele que quiser poderá contemplai-la, e contemplado-a, orientar-se segundo o que viu. Mas se realmente existe, algum dia haverá tal cidade na terra(...) elas irão agir de acordo com as leis da cidade, e de nenhuma outra” (Platão). Referências bibliográficas AZUELA, Antonio - La política, el papel del Estado y la relación Estado-Sociedad in: Políticas Urbanas y la urbanización de la política. Universidad Autônoma Metropolitana, México, 1989. CODEPLAN, (1995) : O Relatório Técnico sobre a Nova Capital da República. Relatório. COSTA, L. Relatório do Plano Piloto de Brasília. Brasília: GDF, 1991. ESTATUTO DA CIDADE – Guia para implementação pelos municípios e cidadão_Câmara Legislativa, Brasília-DF, 2001. FINEP. Habitação Popular: inventário da ação do Governo. S.P., FINEP/projeto,1985.vol 2. GOMES, Nelson Zanata; Desplazamiento de un organismo como uma medida contínua de la conducta; (tese de mestrado) - México, UNAM, 1977. GOTTDIENER, Mark. A produção social do espaço. Ed. EDUSP, S.P., 1997. HARVEY,D. Condição pós-moderna: uma pesquisa sobre as origens da mudança cultural. São Paulo: Ed. Loyola, 1993. 747 HOLANDA, F. A Cidade e a Questão da beleza. In Anais do 4 SEDUR. Brasília: FAU-UnB, 1995. HOLSTON, J. A cidade modernista: Uma crítica de Brasília e sua utopia. S.P. : Cia. Das letras, 1993. LA CARTA de Atenas: el Urbanismo de los CIAM. Buenos Aires: Ed. Contemporânea, 1950. Tradução por Galfina Galvez de Williams. LEFEBVRE, H. La Producion del l’espaçe. O retorno da dialética.. Paris, Anthropos 1981. PAVIANI, A. Brasília: ideologia e realidade: espaço urbano em questão. S.P.: Projeto Ed. Associados Ltda., 1986. SAULE, Jr. N. Direito a Cidade: Trilhas legais para o direito as cidades sustentáveis. Polis, S. P. , 1999. 748 Desenvolvimento Histórico da Criptografia Jorge Loureiro Dias1 Resumo: A história da criptografia se confunde com a história da Humanidade devido à inerente necessidade de segurança das comunicações. Confunde-se, também, com a história da criptoanálise, ciência rival que busca decifrar os algoritmos e chaves utilizadas para criptografrar uma mensagem. O presente artigo procura apresentar os principais fatos que marcaram o desenvolvimento histórico da criptografia e criptoanálise, da Idade Antiga aos dias atuais. Também serão apresentadas algumas iniciativas adotadas para inserir o Brasil no cenário mundial da comunicação segura. Palavras-chave: cifras, chave simétrica, criptografia, decriptografia, informação, segurança. 1 Jorge Loureiro Dias é Professor do Centro Universitário Planalto do Distrito Federal. Endereço eletrônico: [email protected] 749 Introdução Na história da humanidade, sempre houve a necessidade de evitar que informações confidenciais caíssem nas mãos de inimigos ou se tornassem públicas. As primeiras medidas adotadas para manutenção do sigilo consistiam, basicamente, em esconder a mensagem , técnica que veio a ser conhecida como esteganografia. Assim, mensagens eram escondidas dentro de animais, tatuadas no couro cabeludo (ocultas depois que o cabelo crescia), cobertas com cera e , mais recentemente, microfilmadas e escondidas em pontos de um texto comum. Embora utilizada até hoje, a esteganografia permite que a mensagem, uma vez descoberta, seja lida facilmente. Criptografia é a ciência da escrita de mensagens em cifras ou códigos permitindo que só o destinatário a decifre e compreenda, possibilitando uma comunicação segura. Caminhando lado a lado com a criptografia, encontra-se sua maior rival : a criptoanálise, cujo objetivo primordial é transformar a mensagem criptografada em texto claro, desvendando o segredo. Criptografia da idade antiga à idade moderna Acredita-se que uma das primeiras utilizações da criptografia foi feita pelo escriba do faraó Khnumhotep II, por volta de 1900 a.C, no antigo Egito, que resolveu trocar trechos das escritas em argila que indicavam os caminhos para os tesouros guardados nas pirâmides, de forma que só os sacerdotes poderiam decifrá-los. A criptografia também proliferou na Mesopotâmia, onde os “intaglios” (peças de pedra com símbolos de identificação), funcionavam como certificados rudimentares. Os hebreus, por volta de 600 a 500 a.C, valiam-se das cifras ATBASH, ALBAM, ATBAH , que consistiam da substituição simples de uma letra por outra (substituição monoalfabética). O ATBASH foi utilizado para escrever o “Livro do Profeta Jeremias” e correspondia a trocar a primeira letra (Aleph) do alfabeto pela última (Taw) e assim 750 sucessivamente. No alfabeto latino, a correspondência seria: A B C D E Z Y X W V Tabela 1 – Cifra de ATBASH F U G T H S I R J Q K P L O M N Assim, a palavra cifrada XIRKGLTIZURZ, corresponde ao texto CRIPTOGRAFIA. Um exemplo de criptografia de transposição é o bastão de Licurgo, utilizado pelo general espartano Panasius, por volta de 475 a.C, que consistia em escrever a mensagem em uma fita enrolada em um bastão padrão. Ao término, a fita era desenrolada e entregue ao mensageiro que a usava como cinto. Para decifrar o código, o destinatário simplesmente enrolava a fita no seu bastão e lia o conteúdo. Figura 1 – Bastão de Licurgo 751 O código de Políbio é um exemplo de cifra de substituição que troca letras pela combinação de dois números referentes a sua posição. 1 2 3 4 5 1 A B C D E 2 F G H I J 3 K/Q L M N O 4 P R S T U 5 V W X Y Z Figura 2 – Código de Políbio Assim a palavra CRIPTOGRAFIA seria transmitida como: 134224414435224211212411. Júlio César, por volta de 50 a.C, foi o criador da cifra mais famosa da Antiguidade, o código de César, que consistia, basicamente, na substituição de uma letra pela que lhe sucedia em três posições. A B C D E F G H I J K L M N O P Q R S T U V W X Y Z D E F G H I J K L M N O P Q R S T U V W X Y Z A B C Figura 3 – Código de César A palavra CRIPTOGRAFIA seria transmitida como FULSWRJUDILD. O código de César ainda é utilizado nos dias de hoje, alterando-se o valor do deslocamento, como a cifra ROT13, de 1984, que usava deslocamento de 13 letras (A=N). Outra variação é a utilização de uma palavra-chave , como por exemplo TROCADO. 752 A B C D E F G H I J K L M N O P Q R S T U V W X Y Z T R O C A D B E F G H I J K L M N P Q R S U V W X Y Figura 4 – Código de César com palavra-chave Na Idade Média, a contribuição maior foi dada pelos árabes, principalmente pelo temor da Inquisição, que assolava o mundo ocidental. Nos anos 700, al-Khalil, apresenta o método da “palavra provável”, utilizado para decifrar mensagens. Nos anos 800, al-Kindi, filósofo árabe e autor de mais de 290 livros, escreve um tratado sobre a utilização da “análise de freqüência”, para decifrar mensagens. O método consiste em analisar a repetição de uma letra na mensagem, e substituí-la pelas letras mais costumeiramente usadas , como “a”, “e”, “o”, etc. Com a chegada da Renascença, encerrando o período de trevas da Idade Média, o estudo e aperfeiçoamento da criptografia ganham força, incentivados principalmente pelos Governos, cientes de que informação era poder. No final dos anos 1400, Leon Battista Alberti, conhecido como "O Pai da Criptologia Ocidental", apresenta a substituição polialfabética, uma nova técnica que permitia que diferentes símbolos cifrados pudessem representar o mesmo símbolo do texto claro, dificultando sobremaneira a aplicação da análise de freqüência. Nos anos 1500, Heinrich Cornelius Agrippa apresenta a cifra de Pig Pen (Porco no chiqueiro), que substitui letras por símbolos. Aperfeiçoando as idéias de Alberti, Blaise de Vigenère, em 1549, apresenta a cifra de Vigenère, um dos marcos da criptografia e que resistiu a todas as técnicas de criptoanálises por três séculos, até ser quebrada por Babagge e Kasiski já nos anos 1800. 753 A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 0 A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 1 B C D E F G H I J K L M N O P Q R S T U V W X Y Z A 2 C D E F G H I J K L M N O P Q R S T U V W X Y Z A B 3 D E F G H I J K L M N O P Q R S T U V W X Y Z A B C 4 E F G H I J K L M N O P Q R S T U V W X Y Z A B C D 5 F G H I J K L M N O P Q R S T U V W X Y Z A B C D E 6 G H I J K L M N O P Q R S T U V W X Y Z A B C D E F 7 H I J K L M N O P Q R S T U V W X Y Z A B C D E F G 8 I J K L M N O P Q R S T U V W X Y Z A B C D E F G H 9 J K L M N O P Q R S T U V W X Y Z A B C D E F G H I 10 K L M N O P Q R S T U V W X Y Z A B C D E F G H I J 11 L M N O P Q R S T U V W X Y Z A B C D E F G H I J K 12 M N O P Q R S T U V W X Y Z A B C D E F G H I J K L 13 N O P Q R S T U V W X Y Z A B C D E F G H I J K L M 14 O P Q R S T U V W X Y Z A B C D E F G H I J K L M N 15 P Q R S T U V W X Y Z A B C D E F G H I J K L M N O 16 Q R S T U V W X Y Z A B C D E F G H I J K L M N O P 17 R S T U V W X Y Z A B C D E F G H I J K L M N O P Q 18 S T U V W X Y Z A B C D E F G H I J K L M N O P Q R 19 T U V W X Y Z A B C D E F G H I J K L M N O P Q R S 20 U V W X Y Z A B C D E F G H I J K L M N O P Q R S T 21 V W X Y Z A B C D E F G H I J K L M N O P Q R S T U 22 W X Y Z A B C D E F G H I J K L M N O P Q R S T U V 23 X Y Z A B C D E F G H I J K L M N O P Q R S T U V W 24 Y Z A B C D E F G H I J K L M N O P Q R S T U V W X 25 Z A B C D E F G H I J K L M N O P Q R S T U V W X Y Figura 5 – Carreiras de Vigenère. 754 A cifra de Vigenère é polialfabética e pode ser considerado como uma variante do Código de César, só que, ao invés de deslocar cada letra um número fixo de posições para obter a letra cifrada, o deslocamento é variável e determinado por uma frase ou palavra-chave. Abaixo, segue um exemplo de utilização de cifragem da frase “cifra de Vigenère”, utilizando a palavra-chave “cripto” e a tabela de Vigenère acima. Texto Claro C I F R A D E V I G E N E R E Chave C R I P T O C R I P T O C R I Deslocamento 2 17 8 15 19 14 2 17 8 15 19 14 2 17 8 Z N G G M Q V G I M Cifrado E T R X B Figura 6 – Exemplo da cifra de Vigenère. Com o passar dos anos, novas cifras foram surgindo, cada vez mais sofisticadas devido aos avanços nas áreas da Matemática. Gottfried Wilhelm von Leibniz (1646-1716), apresentou um estudo inovador que lançou nova luz sobre o cálculo diferencial e integral, a máquina de calcular e descreveu minuciosamente o sistema binário. Como se pode notar, até o final da Idade Média a criptografia era predominantemente manual e pautada na utilização de cifras monoalfabéticas. Os métodos de análise de freqüência e palavra provável provaram ser eficientes técnicas de criptoanálise, até o surgimento da Cifra de Vigenère. A esteganografia também foi fartamente utilizada nesta época. Na Idade Moderna, cifras mais complexas proliferaram, graças aos incentivos dos governantes, os avanços matemáticos e descobrimentos. A utilização da criptografia era seletiva e utilizada, quase sempre, por governantes e militares. 755 Criptografia contemporânea e atual A Idade Contemporânea foi marcada por grandes avanços tecnológicos e a Revolução Industrial. Em 1795, Thomas Jefferson apresenta o “cilindro de Jefferson”, que realiza criptografia polialfabética de forma rápida e eficiente. Basicamente, escrevia-se a mensagem em uma linha e enviava-se uma outra linha qualquer do cilindro para um destinatário que possuísse um cilindro igual. Após arrumar os discos para refletir a linha criptografada, o destinatário procurava a frase em claro em alguma das outras linhas. Figura 7 – Cilindro de Jefferson. Surgem, neste período, o código Braille, para os cegos e o código Morse , para as transmissões telegráficas. Em 1854, Charles Barbage quebra a cifra de Vigenère e apresenta suas calculadoras : a máquina das diferenças e a máquina analítica, precursoras dos computadores. Em 1924 começam a surgir os primeiros protótipos de máquinas de criptografar, como a máquina SIGABA (M-134-C), inventada nos EUA ,por William F. Friedman, alcunhado o “pai da criptoanálise”, pelos americanos. No período da Segunda Guerra Mundial, os nazistas aperfeiçoam e fazem uso intenso da máquina Enigma, composta de teclado com 26 letras, um quadro com 26 lâmpadas, um dispositivo denominado "scrambler" constituído por três rotores e um quadro com cavilhas denominado "Steckerboard" que aumentava o nível de segurança. 756 Cada tecla e cada lâmpada eram conectadas por 26 fios, os rotores moviam-se de forma independente de modo a produzirem uma correspondência entre a letra original e a cifrada. Nenhuma letra podia ser cifrada por ela própria. Para complicar ainda mais os submarinos alemães, conhecidos como “ U-Boat” , utilizavam Enigmas de 4 rotores. Figura 8 – Máquina Enigma. O indecifrável código da Enigma foi quebrado pela equipe chefiada por Alan Turin, utilizando a máquina The Bombe e o computador Colussus, virando a guerra para o lado dos aliados . Por volta de 1970, começa o “boom” dos computadores. A IBM apresenta a cifra Lúcifer ao NBS (National Bureau of Standards) o qual, após avaliar o algoritmo com a ajuda da NSA (National Security Agency), introduz algumas modificações (como as Caixas S e uma chave menor) e adota a cifra como padrão de encriptação de dados para os EUA o FIPS PUB-46, conhecido hoje como DES (Data Encryption Standard). Basicamente o DES funciona através dos seguintes passos: • uma substituição fixa, chamada de permutação inicial, de 64 bits em 64 bits; • uma transformação, que depende de uma chave de 48 bits, e que preserva a metade direita; • uma troca das duas metades de 32 bits cada uma; • repetem-se os passos 2 e 3 durante 16 vezes; e • inversão da permutação inicial. 757 O DES é um algoritmo simétrico e, desde seu nascimento foi considerado passível de quebra por meio do método da força bruta. Para manter-se, o DES evoluiu, chegando ao 3DES, que de forma sumária é executar o DES três vezes, na mensagem. Em 1977, Ronald L. Rivest, Adi Shamir e Leonard M. Adleman apresentam o algoritmo assimétrico RSA, base dos sistemas de chave pública, que causaram uma verdadeira revolução no mundo da criptologia. Além de trabalhar com funções matemáticas complexas, realizando operações com números primos extremamente grandes, a criptografia de chave pública eliminou o problema de transmissão da chave, ponto frágil dos algoritmos simétricos. O usuário passou a ter um par de chaves: uma privada, de conhecimento e posse apenas do usuário e uma pública, de conhecimento geral. Qualquer mensagem criptografada com uma das chaves só pode ser decriptografada com a outra. Em 1990, surge a Criptografia Quântica, que usa fótons únicos para transmitir um fluxo de bits chave para uma posterior cifragem Vernam da mensagem (ou outros usos). Ainda nos anos 90, Phil Zimmerman apresentou ao mundo o PGP (Pretty Good Privacy), programa de computador gratuito que, utilizando padrões de criptografia assimétrica e simétrica , garantiu privacidade das comunicações ao usuário comum e tornou-se padrão para cifrar mensagens transmitidas pela Internet. No mesmo período, surge a criptoanálise diferencial, desenvolvida por Biham e Shamir. Utilizada para decifrar as mensagens criptografadas pelo DES, esta técnica compara pares de textos em claro e pares de textos cifrados, buscando padrões que possibilitem traduzir a mensagem. Em 2000, depois de quase trinta anos como padrão, o DES não resistiu aos progressos na criptoanálise e a capacidade de processamento distribuída, sendo decifrado pela máquina EFF DES Cracker em 56 e depois em 22 horas. Para substituí-lo o Governo Americano selecionou o algoritmo de Rijndael , que deu origem ao Advanced Encryption Standard (AES), padrão atual. Do início da Idade Contemporânea aos dias atuais, a explosiva 758 evolução dos meios de comunicações e o advento da Internet fizeram com que a criptografia passasse a ser uma necessidade de todos os segmentos da sociedade. Máquinas mecânicas e digitais substituíram a criptografia manual, tornando o processo de cifragem cada vez mais complexo e pesado. O grande marco do período foi, sem dúvida, o surgimento da criptografia assimétrica. Criptografia no Brasil Tradicionalmente, o Brasil, como a maior parte dos países , sempre foi um consumidor de tecnologias de segurança, importando os meios criptográficos necessários para salvaguardar suas comunicações. Na década de 70, o Ministério das Relações Exteriores (MRE) e o então Serviço Nacional de Informações (SNI), por determinação da Presidência da República, iniciaram os trabalhos de criação do Centro de Pesquisas e Desenvolvimento para Segurança das Comunicações (CEPESC), com o objetivo principal de prover uma tecnologia de segurança nacional, o mais independente possível dos produtos estrangeiros. Atualmente, vinculado à Agência Brasileira de Inteligência (ABIN), o CEPESC dispõe de vários produtos criptográficos, como telefone seguro com criptografia de voz e dados e o módulo criptográfico portátil externo, para cifragem de dados de microcomputador, todos com tecnologia totalmente nacional, inclusive os algoritmos de criptografia. Coube ao CEPESC, também, a criação e implementação, em software básico, de módulos criptográficos destinados a proteger o transporte dos resultados eleitorais entre as urnas e os computadores totalizadores do “Sistema de Voto Eletrônico”, adotado pelo TSE, além de autenticar e validar, digitalmente, os arquivos, códigos e programas executáveis da urna eletrônica, bem como implementar e executar os protocolos de estabelecimento e gerenciamento de chaves criptográficas. Outra iniciativa do Governo Federal para desenvolvimento da segurança da informação foi a criação, através da Medida Provisória 2200, de agosto de 2001, da Infra-Estrutura de Chaves Públicas 759 Brasileira, a ICP-Brasil, gerenciada pelo Instituto de Tecnologia da Informação (ITI), da Casa Civil, com a finalidade de prover certificação digital, utilizando criptografia assimétrica. Utilizando o SERPRO como principal Autoridade Certificadora, a ICP-Brasil já foi adotada por várias instituições, inclusive Secretaria da Receita Federal, que, desde 2005, já implementou a certificação digital na declaração do imposto de renda. Conclusão A necessidade de comunicar-se de forma sigilosa remonta ao início da História da Humanidade. Com o advento da escrita, aprimoram-se as técnicas de manutenção de segredos, surgindo a esteganografia, criptografia e, concomitantemente, a criptoanálise, tentando decifrar o que foi transmitido. Inicialmente restrita aos círculos do poder, com a massificação dos meios de comunicação, a criptografia passou a ser uma necessidade diária de cada cidadão. Correio eletrônico, sítios de bancos, comércio eletrônico são exemplos de serviços que não podem sobreviver sem a segurança oferecida pelos sistemas criptográficos. Com o advento de computadores cada vez mais potentes, a manutenção do segredo é apenas questão de tempo. O grande objetivo atual é manter o tempo de decifração maior que o tempo de vida útil da mensagem. Novas perspectivas surgem a cada dia, como a criptografia quântica, que tenta substituir a Matemática pela Física na elaboração de segredos e a conjunção de técnicas criptográficas e biométricas, como os leitores óticos de retina e outras partes do corpo, para identificação e autorização de acesso a um recurso, fazendo com que você seja a sua senha. 760 Referências bibliográficas A Linha do Tempo da Criptografia medieval. Disponível em: http://www.swimmer.org/morton/enigma.html. Acesso em 12/05/2006. COUTINHO, S.C. Números inteiros e criptografia RSA. Rio de Janeiro: IMPA/SBM, 1997. MENEZES, A. J. et al. Handbook of applied cryptography. Boca Raton, FL.: CRC Press, 1997. Enigma Machine. Disponível em: http://www.swimmer.org/morton/enigma.html. Acesso em 02/07/2006. SINGH, Simon. O livro dos códigos. Record, 2001. 761 Análise fatorial. Uma Análise do Teste Não Verbal de Raciocínio para Crianças Adriano Campos Menezes 1 Fernando Sabbi Melgarejo 2 Ronaldo Augusto da Silva Fernandes 3 Resumo: O presente artigo mostra um estudo aplicado à análise fatorial, utilizando como base de dados o Teste Não Verbal de Raciocínio para crianças (TNVRI), desenvolvido por Pasquali (1997), tendo como referência os princípios que orientaram a criação das matrizes progressivas de Raven. Nesse sentido, analisam-se aspectos como fatorabilidade, extração e rotação dos fatores, os quais são essenciais para construção de um modelo de análise fatorial adequado, ou seja, busca-se explicar a variância comum entre as variáveis de um determinado campo do conhecimento, por um número menor de fatores, reduzindo a ordem da matriz de covariância. O estudo demonstra a importância e aplicabilidade da análise fatorial como instrumento para predizer os fenômenos empíricos, por meio de uma representação simplificada (conjunto reduzido de fatores). Palavras-chave: Análise Fatorial; Componentes Fatorabilidade; Testes Psicológicos; Rotação de Fatores.. Principais; 1 Adriano Campos Menezes, Mestre e Doutorando da Universidade Católica de Brasília – UCB em Economia de Empresas, Professor da Universidade Católica de Brasília UCB e Analista Sênior do Banco do Brasil. Endereço Eletrônico – [email protected]. 2 Fernando Sabbi Melgarejo, Mestre em Economia de Empresas pela Universidade Católica de Brasília – UCB, Professor da Universidade Católica de Brasília - UCB e Gerente de Divisão do Banco do Brasil. Endereço Eletrônico: [email protected] 3 Ronaldo Augusto da Silva Fernandes, Mestre em Economia de Empresas pela Universidade Católica de Brasília, Professor do Centro Universitário Planalto do Distrito Federal - UNIPLAN. Endereço Eletrônico: [email protected] 763 Introdução O propósito deste estudo consiste em examinar a aplicabilidade das técnicas estatísticas, utilizando a análise fatorial para o Teste Não Verbal de Raciocínio para Crianças (TNVRI), desenvolvido Pasquali (1997). A importância da utilização estatística da análise fatorial, objetiva explicar a variância comum entre as variáveis de um determinado campo do conhecimento, por um número menor de fatores, ou seja, a redução da ordem da matriz de covariância. O presente artigo está dividido em quatro partes, incluindo esta. Inicialmente, na seção 2, abordaremos o assunto efetuando uma vasta revisão teórica sobre a aplicação estatística da análise fatorial no estudo TNVRI e descrevemos os testes e os critérios adotados. Na seção 3, é descrito o método de extração e rotação dos fatores relevantes para este trabalho. Em seguida, na seção 4, foram expostos os principais resultados, bem como as análises. Por fim, na última parte, as conclusões decorrentes deste estudo aplicado. 2. Referencial teórico Recentes estudos foram realizados aplicando os princípios da análise fatorial no contexto de testes de raciocínio. Quanto ao TNVRI, desenvolvido por Pasquali (1997), baseia-se nos princípios que orientaram a criação das matrizes progressivas de Raven. A este respeito, Pondaag (1999), Palácios (1999) e Caixeta (1999) são unânimes em afirmar que o trabalho de Raven (1997) origina-se de três vertentes teóricas. De acordo com Pondaag (1999), a primeira vertente, “a teoria dos fatores de Spearman (fator “g”) (1904ab, 1907, 1913,1927, 1938), demonstra que as relações entre um série de variáveis (as intercorrelações) podiam ser explicadas por um único grande fator, chamado de fator geral. O que este fator não explica das variáveis constitui algo específico de cada variável e, portanto, de interesse secundário ou irrelevante”. A segunda vertente, a teoria de Gestalt, 764 segundo Caixeta (1999), “...revela-se na construção dos itens, ou seja, eles foram elaborados de forma que a solução se baseasse na percepção espacial ou lógica de uma gestalt (forma)”. Ainda segundo Caixeta (1999), a última corrente, “fala de um desenvolvimento em etapas e numa direção progressiva”. Entretanto, Pondaag (1999) salienta que Pasquali (1997) não considera necessário se admitir a teoria dos dois fatores para se poder aproveitar das idéias de Spearman e de Raven. Em pesquisas feitas sobre as matrizes progressivas de Raven, ele verificou que referidos testes são compostos dos seguintes fatores: percepção da gestalt, raciocínio analógico, raciocínio analógico abstrato e dedução reflexiva. Estes fatores são altamente relacionados, o que define que os teste de Raven medem um grande fator, o do raciocínio, em conseqüência disso, os testes utilizaram a teoria dos dois fatores. 3. Metodologia O método aplicado nesta pesquisa visa, fundamentalmente, explicar a variância comum das variáveis por meio de um conjunto reduzido de fatores. Destarte, para extração dos fatores utilizou-se o método do Principal Axis Factoring (PAF), o qual, da mesma forma que o Principal Components (PC), consiste em resolver uma equação eigen (equação do valor próprio), sendo que as estimativas para comunalidades representam o quadrado das correlações múltiplas. Na rotação dos fatores emprega-se um método de rotação oblíqua proposto por Jennrich e Sampson (1966), definido como Direct Oblimin, baseado na análise direta das cargas fatoriais dos fatores primários. Quanto aos critérios para se definir a fatorabilidade da matriz de correlação, fez-se uso dos seguintes métodos estatísticos, quais sejam: I. O tamanho da matriz da correlação – A fatorabilidade da matriz é aceitável se, pelo menos, 50% das correlações estiverem fora do intervalo de 0,30 e –0,30. Caso contrário, pode-se restringir a sua fatorabilidade; II. Teste de adequação da amostra de Kaiser-Meyer-Olkin (KMO) – Se a matriz anti-imagem for 0, o KMO será igual a 1 e a matriz de 765 correlação é perfeitamente fatorizável. Quanto mais distante de um for esta estatística, mais precária se torna a fatorabilidade da matriz de covariância, pois indica que as variáveis não têm muita coisa em comum. Kaiser (1974) caracteriza os valores do KMO como sendo: 0,90 – maravilhoso; 0,80 – meritório; 0,70 – mediano; 0,60 – medíocre; 0,50 – miserável; e os valores abaixo de 0,50 – inaceitáveis; III. Quadrados dos coeficientes de correlações múltiplas (R2) – mede a grandeza de associação linear entre as variáveis; IV. O determinante da matriz de correlação – o valor do determinante deve ser muito próximo de zero, indicando que a matriz pode ser reduzida. Tendo em vista que análise fatorial tende a expressar grande número de variáveis por um conjunto reduzido de fatores, é necessário definir critérios para escolha do número de fatores (extração), os quais são relacionados a seguir: I. Eigenvalues – de acordo com Kaiser (1974), este critério consiste em eliminar os componentes e fatores que apresentem os eigenvalues menores do que um, pois explica menos que a variância total de uma única variável; II. Teste scree – para Carttell (1966), tem por objetivo plotar os eigenvalues e descobrir por inspeção visual onde os pontos que representam os componentes passam de uma inclinação acentuada para uma quase horizontal, retendo apenas os que se encontram a esquerda deste ponto; III. Critério Harman (1967) – neste critério são considerados os fatores que explicam pelo menos 3% da variância total das variáveis, por ser o nível mínimo de relevância para um determinado fator. Após avaliados todos os critérios mencionados anteriormente, a decisão de quantos fatores devem ser escolhidos, ainda depende da análise da independência, da suficiência (matriz residual), e também da consistência dos fatores, os quais são definidos a seguir: I. Independência dos fatores – a correlação entre os fatores deve situar-se abaixo de 0,30, caso contrário, haverá problemas de multicolinearidades entre os fatores. 766 II. Matriz residual – esta matriz resulta da diferença entre a matriz de correlação das variáveis observadas e a matriz reproduzida a partir da matriz fatorial. Os resíduos acima de 0,05 são considerados elevados, e aceita-se que somente 5% de tais resíduos sejam considerados grandes. A rejeição desta hipótese indica que existe algum outro fator a ser extraído, ou seja, os fatores extraídos não são suficientes. III. Consistência do Fator – Baseia-se na análise do alfa de Cronbach, a qual considera-se um fator dito consistente, se o seu coeficiente de fidedignidade apresentar um alfa maior ou igual a 0,80. 4. Análises e Resultados Neste estudo, a amostra é composta de um teste com 60 itens aplicados a 600 alunos da escola pública, com idades entre 05 e 15 anos, nível sócio-econômico médio ou baixo, residentes no estado do Rio Grande do Sul e Distrito Federal. A construção do Teste Não Verbal de Raciocínio para Crianças (TNVRI) foi baseada nos princípios que orientaram a criação das Matrizes Progressivas de Raven (1902-1907), cuja utilização atualmente é bastante comum. O tamanho da amostra mostrou-se suficiente e adequada para análises. De acordo com Pondaag (1999), quanto à adequação da amostra, a única regra que todos os teóricos estão de acordo é que ela deve ter mais de 200 casos, exceto no caso em que os fatores sejam poucos e bem fundamentados, situação em que análise fatorial com até 50 casos pode fazer sentido4. O SPSS (Statistics Package For the Social Sciences), por meio do critério de Jenrich e Sampson (1966), rotação Oblíqua (Direct Oblimin), utilizando-se o método de extração Principal Axis Factoring, foi aplicado a esta base de dados. Como descrito anteriormente, a análise através do método do Principal Axis Factoring resume-se basicamente em quatro etapas, as quais serão exploradas a seguir. 4 “Há duas regras que auxiliam nesta decisão: se o pesquisador sabe mais ou menos o número de fatores que a matriz contém deve usar 100 casos para cada fator; se o pesquisador não tiver nenhuma idéia sobre o número de fatores contidos na matriz, deve usar cerca de 10 casos para cada variável observada”. (Pondaag,1999) 767 4.1 Fatorabilidade da Matriz de Correlação Após extração da matriz de correlação, é necessário, tendo em vista a determinação dos fatores ou componentes principais, verificar se esta pode ser considerada como fatorável5. Para isto, a fatorabilidade da matriz de correlação será comprovada por meio da realização dos testes estatísticos mencionados na seção 3. Quanto ao tamanho das correlações, verificamos que apenas 7% dessas estão fora do intervalo de 0,30 e –0,30, situação que, a princípio, inviabiliza a análise fatorial. Entretanto, pelo resultado do teste de adequação da amostra de Kaiser-Meyer-Olkin (KMO), a fatorabilidade da matriz de correlação se apresenta viável, vis-à-vis o KMO de 0,874, tabela 1.1 anexa. Para Kaiser (1974) apenas os valores acima de 0,50 são adequados e ele classifica o resultado aqui obtido como meritório. Além disso, os quadrados dos coeficientes de correlações múltiplas (R2), que medem a grandeza de associação linear entre as variáveis, corroboram com o KMO, pois a maioria dos R2 são superiores a 0,70. Finalmente, para reforçar ainda mais as estatísticas supra citadas, o determinante da matriz de correlação é muito próxima de zero, reforçando que a matriz pode ser reduzida, não obstante que poderemos encontrar dificuldades, no que pese as distorções advindas do tamanho inadequado das correlações. 4.2 Número de Fatores ou Componentes Nesta etapa, tem-se o intuito de determinar as quantidades ótimas de fatores ou componentes principais, os quais serão fundamentais para expressar as variáveis observadas em um número reduzido de variáveis hipotéticas. Para tanto, a análise fatorial tem dois objetivos principais: o primeiro expressa uma provável função linear entre as variáveis; e segundo, reduzir a ordem da matriz de correlação para um número de 5 Segundo Pasquali (2000), caso as variáveis sejam independentes, não existirá fatores ou componentes comuns, e a análise produzirá tantos fatores quantas forem as variáveis. 768 componentes que seja menor que as variáveis observadas (Pasquali, 2000). O primeiro critério que foi utilizado para definir o número de fatores comuns entre as variáveis, consiste em observar as recomendações de Kaiser (1974), que sugere rejeitar os componentes ou fatores que apresentem eigenvalues menores do que um. Assim sendo, 19 fatores são escolhidos. Outro critério é o teste Scree, que de acordo com Cattell (1966), sugere utilizar o gráfico para tomar decisão do número de componentes importantes a reter. Desta forma, através da inspeção visual do gráfico 1.1, o número ótimo de fatores estaria entre 2 e 4. Outro procedimento, é o defendido por Harmam (1967), que considera que um fator só será relevante se explicar mais que 3% da variância total das variáveis, neste caso 4 fatores obedecem este critério, sendo responsáveis por 29,24% da variância total. A partir destes testes, tendo como base o princípio da parcimônia, o número de fatores comuns a serem utilizados será entre 2 e 4. Para definição do número exato, é necessário fazermos a rotação dos fatores para os casos já mencionados. 4.3 Extração e Rotação dos Fatores Como foi definido anteriormente, nesta terceira etapa serão usados os métodos de extração Principal Axis Factoring (PAF) e o de rotação Direct Oblimin. Em termos de consistência, para a extração de 2 fatores, tanto o fator 1 como o fator 2 apresentam coeficientes de fidedignidade (alfa de Cronbach) acima de 0,80, indicando um bom nível de constância e invariância dos fatores, ou seja, os fatores podem ser confiáveis6. Quando se executa a extração com 3 fatores, os fatores 1 e 2 continuam apresentando bons níveis de consistência7, entretanto, o valor do alfa de Cronbach para o fator 3 é de 0,42, nível considerado baixo, dando indícios que o fator quanto a precisão não é confiável. De outra forma, 6 Os alfas de Cronbach calculados foram de 0,8802 e 0,8914, para os fatores 1 e 2, respectivamente. 7 Os alfas de Cronbach calculados foram de 0,8785, 0,9137 e 0,4263, para os fatores 1, 2 e 3, respectivamente. 769 quanto a extração se dá para 4 fatores, os fatores 1 e 3 são considerados inconsistentes, enquanto os fatores 2 e 4 apresentam níveis satisfatórios e confiáveis8. Uma outra análise para fundamentar a decisão de quantos fatores utilizar, depreende-se da análise da matriz de correlação residual, a qual resulta da subtração da matriz de correlação original e a matriz de correlação reproduzida. Com relação a este critério, encontramos 24%, 20% e 17% de resíduos acima de 0,05, para o primeiro (2 fatores), segundo (3 fatores) e terceiro (4 fatores) casos, respectivamente. No entanto, conforme definido na teoria, os resíduos grandes (acima de 0,05) não podem ser superiores a 5%. Sendo assim, significa que há em todos os casos boa parte da variância comum que não é explicada pelos fatores extraídos. Com relação a independência dos fatores, os resultados mostram, em todos casos, que os fatores podem ser considerados estatisticamente independentes, dado que a correlação entre os fatores apresentam valores abaixo de 0,30, conforme as tabelas 1.2, 1.3 e 1.4 anexas. Conclusão A partir dos resultados da análise fatorial, parece mais coerente extrair apenas dois fatores, o fatores 1 e 2. Os critérios analisados afirmam que a explicação por meio destes sugerem um maior nível de consistência e confiabilidade, quando comparados às demais extrações realizadas. Convém ressaltar, que a consistência de um fator relaciona-se ao tamanho das cargas fatoriais e também ao número de itens que compõe o fator. Nos demais casos, como foi analisado na seção anterior, alguns fatores, de acordo com o critério de Cronbach, foram considerados inconsistentes e, portanto, de duvidosa validade. Assim sendo, desprezados para o estudo em questão. Conclui-se, portanto, pela utilização dos fatores 1 e 2, sendo estes os melhores representantes fatoriais das variáveis examinadas no presente estudo. 8 Os alfas de Cronbach calculados foram de 0,7687, 0,9002, 0,4909 e 0,8364, para os fatores 1, 2, 3 e 4, respectivamente. 770 Referências Bibliográficas PASQUALI, Luiz. Análise Fatorial para Pesquisadores. Laboratório de Pesquisa em Avaliação e Medida. UNB. 2000 VARGA, Gyorgy, VALLI, Marcos. Movimentos de Estrutura a Termo da Taxa de Juros Brasileira e Imunização. Economia Aplicada. USP – SP. 2001. PONDAAG, Miriam Cássia Mendonça. Análise Fatorial: TNVRI. Brasília, 1999. PALACIOS, Kátia P. Análise Fatorial do Teste Não Verbal de Raciocínio para Crianças – TNVR. Brasília, 1999. CAIXETA, Juliana Eugênia. Análise Fatorial do TNVRI. UNB, 1999. CHOI, Jay, DOUKAS, John. Volatility and Openness of Emerging Markets: Some Empirical Evidence. Emerging Capital Markets: Financial and Investment Issues. Greenwood Publishers: Westport. Pp. 35-45. 1998. 771 Anexos Tabela 1.1 - KMO and Bartlett's Test Kaiser-Meyer-Olkin Measure of Sampling Adequacy. .874 Bartlett's Test of Sphericity Approx. Chi-Square 7725.754 df Sig. 1770 .000 Fonte: SPSS 10.0 Tabela 1.2 - Factor Correlation Matrix Factor 1 2 1 1,000 -,285 2 -,285 1,000 Extraction Method: Principal Axis Factoring. Rotation Method: Oblimin with Kaiser Normalization. Factor 1.3 - Correlation Matrix Factor 1 2 3 1 1,000 -,193 ,248 2 -,193 1,000 -,263 3 ,248 -,263 1,000 Extraction Method: Principal Axis Factoring. Rotation Method: Oblimin with Kaiser Normalization. Tabela 1.4 - Factor Correlation Matrix Factor 1 2 3 4 1 1,000 -,188 ,209 -,316 2 -,188 1,000 -,291 ,176 3 ,209 -,291 1,000 -,163 4 -,316 ,176 -,163 1,000 Extraction Method: Principal Axis Factoring. Rotation Method: Oblimin with Kaiser Normalization. 772 Gráfico 1.1 – Scree Plot Scree Plot 12 10 8 6 Eigenvalue 4 2 0 1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 Component Number 773 Editora Sol Soft’s e Livros Ltda Rua Borges de Figueiredo, 932 Mooca, São Paulo, SP - CEP: 03110001 FONE: (11) 6292-1377 - FAX: (11) 6096-7062 E-mail: [email protected] 774