Revista do Centro Universitário Planalto do Distrito Federal
– UNIPLAN –
Volume 3
Nº 3
ISSN 1807-4855
Cesubra Scientia
Volume 3, Nº 3, 2006
ISSN 1807-4855
Sociedade Objetivo de Ensino Superior
Presidente
Doutor João Carlos Di Gênio
Diretor Administrativo
Administrador Hildebrando José Rossi Filho
Diretor Financeiro
Administrador Rudge Allegretti
Diretor Pedagógico
Professor Jorge Brihy
Centro Universitário Planalto do Distrito Federal
Reitor
Prof. Dr. Yugo Okida
Vice-Reitor
Prof. MS. Fabio Nogueira Carlucci
Pró-Reitor Acadêmico
Prof. Dr. Humberto Vendelino Richter
Pró-Reitor Administrativo
Prof. MS. Robson do Nascimento
Coordenadora Geral
Prof.(a) Maria Cecília Matos Grisi
Secretário Geral
Administrador Armindo Corrêa Brito
Comissão Editorial
Prof. Dr. Angel Rodolfo Baigorri
Prof. Dr. Carlos Alberto Fernandes de Oliveira
Prof.(a) Dr.(a) Cláudia da Silva Costa
Prof. Dr. Demóstenes Moreira
Prof. Dr. Eui Jung Chang
Prof. Dr. João Estevão Giunti Ribeiro
Prof.(a) Dr.(a) Maria Raquel Speri
Prof. Dr. Humberto Vendelino Richter
Produção Gráfica
Agência Práxis - Agência Modelo do Cesubra
Editoração Eletrônica
Geraldo de Assis Amaral
Revisão
Professora Claudete Matarazzo Nogueira Carlucci
Capa
Wilton Oliveira Cardoso
Matérias assinadas são de exclusiva responsabilidade dos autores. Direitos autorais reservados. Citação
parcial permitida com referência à fonte.
Cesubra Scientia
Volume 3, Nº 3, 2006
ISSN 1807-4855
SUMÁRIO
BRASÍLIA ESTADO PERFEITO X DESIGUALDADES SOCIAIS
TESE E ANTÍTESE
Leila Soares Teixeira............................................................................741
DESENVOLVIMENTO HISTÓRICO DA CRIPTOGRAFIA
Jorge Loureiro Dias...............................................................................749
ANÁLISE FATORIAL - UMA ANÁLISE DO TESTE NÃO VERBAL
DE RACIOCÍNIO PARA CRIANÇAS
Adriano Campos Menezes; Fernando Sabbi Melgarejo; Ronaldo
Augusto da Silva Fernandes..................................................................763
Brasília Estado Perfeito X Desigualdades Sociais
Tese e Antítese
Leila Soares Teixeira1
Resumo: O presente artigo trata da leitura da cidade de Brasília onde
esta aparece como um sistema que se comunica objetivamente ao
materializar aspectos individuais e sociais, particulares e universais,
buscando transformar e utilizar o urbanismo como forma de superação
ou diminuição das desigualdades sociais.
Palavras-chave: Instrumento, controle social, modernismo, equilíbrio,
desigualdade, planejamento.
1
Leila Soares Teixeira, Mestre em Arquitetura e Urbanismo.
Professora do Centro Universitário Planalto do Distrito Federal – UNIPLAN.
Endereço eletrônico: [email protected].
741
Introdução
Historicamente o urbanismo foi usado algumas vezes como
instrumento de controle social, e embora tenha sido um ideal modernista,
não se tornou possível gerar mudanças estruturais através deste.
Brasília nasceu como uma expressão de um projeto geo-político de
ocupação territorial, aliada a uma determinação governamental.
E como afirma Lúcio Costa nasceu pronta, onde poucas cidades ou
talvez nenhuma tenha sido concebida de forma tão inteira (Costa,1991).
Sendo esta basicamente vinculada a Carta de Atenas, recebeu
também outras influências como a Unidade de Vizinhança de Clarence
Perry2
Para analisar e formular qualquer tipo de conceito sobre Brasília, é
preciso em um primeiro momento resgatar o contexto social, político e
cultural da época de sua concepção onde o país vivia um clima de
euforia com a idéia desenvolvimentista de J.K.. O modelo era de
expansão e “modernização”. O país teve neste período de governo a
maior aceleração que um processo urbano tenha sofrido em comparação
a qualquer outro do mundo.
A concepção da cidade de Brasília traz em si um modelo
racionalista “Ela deve ser concebida não como simples organismo capaz
de preencher satisfatoriamente e sem esforço as funções vitais próprias
de uma cidade moderna qualquer, não apenas como urbs, mas como
civitas, possuidora dos atributos inerentes a uma capital. ... Cidade
planejada para o trabalho ordenado e eficiente, mas ao mesmo tempo
cidade viva e aprazível... a característica fundamental do plano era
permitir em cada área de vizinhança, constituída por quatro super
quadras a convivência de pessoas de padrões econômicos diferentes, e
isto sem mútuo constrangimento porquanto cada quadra teria
moradores de determinado padrão. Diluídas assim as diferenças do
status econômico ao longo do eixo rodoviário-residencial, a cidade não
ficaria estratificada em áreas rigidamente diferenciadas, e se teria
2
Vêr Holanda em O Espaço de Exceção. Brasília: Editora da Universidade de Brasília
742
demonstrado, na prática, como resolver, no sistema capitalista, o
problema social da coexistência urbana de classes.3”
Estas palavras evidenciam a preocupação de Lúcio Costa em
transformar e utilizar o urbanismo como forma de superação ou
diminuição das desigualdades sociais.
Hoje Brasília é como toda cidade de porte metropolitano cheia de
desequilíbrios sociais. Embora seja uma cidade única, sofre com a
realidade da dinâmica social do país que apresenta este desequilíbrio,
planejada e idealizada por Lúcio Costa, ainda assim não responde de
acordo com os aspectos práticos as expectativas da população da cidade.
Mas por outro, se apresenta como bela alcançando através do sujeito
uma totalidade.
“Quanto ao projeto é assim que sendo monumental e
cômodo, eficiente acolhedor e íntimo...” (Costa, 1991).
Marco Teórico
Planejamento urbano: um breve histórico
Até o pós guerra o estudo do espaço e das cidades eram reservados
a geógrafos e arquitetos que só trabalhavam a questão interna em sua
funcionalidade. Não se levava em conta os fatores econômicos, políticos
ou ideológicos que influenciavam diretamente no processo e na dinâmica
do crescimento das cidades. Os geógrafos se limitavam a descrição e
catalogação das mesmas4. Foi a partir da evolução do sistema capitalista
que ocorreu a explosão das cidades e a dinâmica espacial foi então
influenciada drasticamente, criando-se a necessidade de um estudo
agora com um âmbito maior. O interesse passou a ir além do catalogar, a
questão agora era, planejar e se necessário intervir.
“a Carta de Atenas abre todas as portas do urbanismo moderno.é
uma resposta ao atual caos das cidades. Colocada nas mãos de
autoridades ,detalhada, comentada, iluminada por uma explicação
3
Lúcio Costa, Relatório do Plano Piloto de Brasília, GDF, 1991, p. 20
“a geografia nesta época parece Ter sido de se apresentar como o campo de estudo da
terra sendo mais uma demonstração da relação homem e natureza”.(Gomes,1978:44)
4
743
suficiente, é o instrumento pelo qual será guiado o destino das cidades”
.(discurso de Gean Giradeaudoux – nº 4. CIAM- Carta de Atenas, 1950
Dentro deste contexto o fenômeno urbano metropolitano
consolidou-se nacionalmente reforçando a existência de regiões
(metropolitanas), fazendo emergir aglomerações urbanas de diferentes
portes.
Espaços assentados sobre diversos territórios pedindo suporte
material, infra estrutura (Habitação, equipamento e outros).
Houve neste processo uma velocidade e uma complexidade na
transformação, evidenciando o fato de que não se esgotaram as reflexões
nem é ultrapassado discutir e rediscutir o tema.
Brasília - cidade, o planejamento e os diversos atores
Como já foi abordado, qualquer que seja a análise feita esta não
pode ser desligada do contexto social. É preciso sempre partir deste
contexto e os problemas que o envolvem.
Instrumentos como a ilegalidade institucionalizada e a especulação
imobiliária apoiadas na convivência entre o poder público e
empreendedores, dá hoje, nova dimensão a cidade.
Diante das constatações e tendências , é preciso compreender que a
organização de um espaço passa por algo maior do que sua reconstrução
ou mero arranjo espacial onde as políticas estatais e suas ações têm que
ser analisadas como um processo onde deva constar a participação e
interação dos diversos atores envolvidos, moradores, associação
deputados, governo, e outros.
Brasília - Planejamento e Gestão democrática
A gestão democrática deve ser entendida como forma de planejar,
produzir, operar e governar as cidades , garantir o acesso a informações
e participação sobre os processos decisórios do poder local.
Esta gestão cria uma nova ordem legal urbana que promova
proteção legal e segurança jurídica para as pessoas da comunidade onde
a política de prevenção sustente uma medida essencial para evitar a
continuidade das ocupações de áreas consideradas de preservação e
744
proteção ambiental, sem deixar de contemplar o direito a moradia que é
reconhecido como um direito humano e está em diversos tratados
internacionais dos quais o estado Brasileiro participa.
“As chaves para o planejamento urbano estão nas quatro
funções: moradia, trabalho, lazer, circulação.”(LE
CORBUSIER,1957 - Citado em HOLSTOn. J. 1993).”
Esta para ter eficácia pressupõe a ação positiva do estado por meio
de execução de políticas públicas.
Observando-se que, nos últimos dez5 anos, Brasília viu-se
transformar radicalmente, a cidade hoje esta longe de uma proposta
racional de planejamento prévio para grande parte de suas “novas
cidades”, aqui e ali surgiram assentamentos , sem que as autoridades
competentes ousassem barrar.
O surgimento destas localidades se traduziu em um processo de
descrédito, ou desconfiança na força da ordem constituída e séria
desconfiança nas ordens normativas.
A uma nova realidade estampada na cidade. Onde houve uma
mudança agregando forças vindas de: mercado imobiliário, governo e
população.
Estas dimensões econômicas e territoriais sem o menor
planejamento trouxeram em si preocupações que causam a cidade
organizada um certo desconforto.
Estas situações resultam na total e rápida transformação da
paisagem do Distrito Federal. Onde a não preocupação com infra estruturas como; escolas, hospitais, lazer e outros, além do prejuízo
financeiro da ilegalidade que é gigantesco já que os impostos não podem
ser recolhidos.
Não há aí o entendimento de que a urbanização e organização de
uma cidade, passa pela organização de compromissos entre vários atores
sociais. E além do conjunto de intenções desses atores , não se leva em
conta o aspecto do lugar como; fisiográficos, bióticos, e antrópicos,
fazendo com que a cidade padeça em um palco de disputas corporativas
a luz da composição de forças onde diversos são os novos atores,
5
Correio Brasiliense, janeiro de 2005.
745
fazendo-se necessário a formulação de novas políticas para compensar
estas disputas.
“A cidade é, antes de mais nada, um sistema de costumes
e tradições, aos quais correspondem atitudes e sentimentos
organizados, que transcendem o mero agrupamento de
indivíduos e de convivências sociais.”(lefebvre).
“a crescente necessidade de enfrentar os problemas
psicológicos, técnicos, organizacionais e políticos da
urbanização maciça foi um dos canteiros em que
floresceram os movimentos modernistas.” (HARVEY D.
1993)
Considerações finais
A moradia é um bem ao qual a análise de direito de Propriedade se
ajusta com particular adequação. Como decorrência da heterogeneidade
de sua composição, permite que seja feita, variadas combinações e graus,
a compra dos serviços que presta (espaço, acessibilidade, amenidades e
outros) aos quais o consumidor associa diferentes níveis de utilidade.
A posse da habitação pode representar para o indivíduo, desde a
satisfação de poder e prestígio social a garantia de privacidade e
independência.
Os assentamentos irregulares estabelecem neste cenário (Brasília Distrito Federal) uma “cidade virtual”, que não se relaciona com as
condições reais de produção da cidade pelo mercado.
Estes novos espaços redesenham a realidade da cidade e vão de
frente com leis ineficientes as respostas destes problemas.
O Distrito Federal tem em sua lei orgânica a definição de que a
política de desenvolvimento urbano objetiva a melhor qualidade de vida
de sua população, a ocupação ordenada de seu território, o uso de bens e
serviços e a distribuição dos serviços e equipamentos públicos a todos os
cidadãos do lugar.
Diante deste contexto Planejar é um sonho? É apenas um quadro
desenhado pelo Arquiteto?
Platão afirmava que sonhos criam asas e voam. E que as metas
servem como modelos de movimento e comportamento.
746
Talvez quando um número suficiente de pessoas ver o quadro e
seguir o seu lampejo, a utopia encontrará seu lugar no mapa. “No céu há
um modelo de cidade assim, e aquele que quiser poderá contemplai-la, e
contemplado-a, orientar-se segundo o que viu. Mas se realmente existe,
algum dia haverá tal cidade na terra(...) elas irão agir de acordo com
as leis da cidade, e de nenhuma outra” (Platão).
Referências bibliográficas
AZUELA, Antonio - La política, el papel del Estado y la relación
Estado-Sociedad in: Políticas Urbanas y la urbanización de la política.
Universidad Autônoma Metropolitana, México, 1989.
CODEPLAN, (1995) : O Relatório Técnico sobre a Nova Capital da
República. Relatório.
COSTA, L. Relatório do Plano Piloto de Brasília. Brasília: GDF,
1991.
ESTATUTO DA CIDADE – Guia para implementação pelos
municípios e cidadão_Câmara Legislativa, Brasília-DF, 2001.
FINEP. Habitação Popular: inventário da ação do Governo. S.P.,
FINEP/projeto,1985.vol 2.
GOMES, Nelson Zanata; Desplazamiento de un organismo como uma
medida contínua de la conducta; (tese de mestrado) - México, UNAM,
1977.
GOTTDIENER, Mark. A produção social do espaço. Ed. EDUSP, S.P.,
1997.
HARVEY,D. Condição pós-moderna: uma pesquisa sobre as origens
da mudança cultural. São Paulo: Ed. Loyola, 1993.
747
HOLANDA, F. A Cidade e a Questão da beleza. In Anais do 4
SEDUR. Brasília: FAU-UnB, 1995.
HOLSTON, J. A cidade modernista: Uma crítica de Brasília e sua
utopia. S.P. : Cia. Das letras, 1993.
LA CARTA de Atenas: el Urbanismo de los CIAM. Buenos Aires: Ed.
Contemporânea, 1950. Tradução por Galfina Galvez de Williams.
LEFEBVRE, H. La Producion del l’espaçe. O retorno da dialética..
Paris, Anthropos 1981.
PAVIANI, A. Brasília: ideologia e realidade: espaço urbano em
questão. S.P.: Projeto Ed. Associados Ltda., 1986.
SAULE, Jr. N. Direito a Cidade: Trilhas legais para o direito as
cidades sustentáveis. Polis, S. P. , 1999.
748
Desenvolvimento Histórico da Criptografia
Jorge Loureiro Dias1
Resumo: A história da criptografia se confunde com a história da
Humanidade devido à inerente necessidade de segurança das
comunicações. Confunde-se, também, com a história da criptoanálise,
ciência rival que busca decifrar os algoritmos e chaves utilizadas para
criptografrar uma mensagem. O presente artigo procura apresentar os
principais fatos que marcaram o desenvolvimento histórico da
criptografia e criptoanálise, da Idade Antiga aos dias atuais. Também
serão apresentadas algumas iniciativas adotadas para inserir o Brasil no
cenário mundial da comunicação segura.
Palavras-chave: cifras, chave simétrica, criptografia, decriptografia,
informação, segurança.
1
Jorge Loureiro Dias é Professor do Centro Universitário Planalto do Distrito Federal.
Endereço eletrônico: [email protected]
749
Introdução
Na história da humanidade, sempre houve a necessidade de evitar
que informações confidenciais caíssem nas mãos de inimigos ou se
tornassem públicas.
As primeiras medidas adotadas para manutenção do sigilo
consistiam, basicamente, em esconder a mensagem , técnica que veio a
ser conhecida como esteganografia. Assim, mensagens eram escondidas
dentro de animais, tatuadas no couro cabeludo (ocultas depois que o
cabelo crescia), cobertas com cera e , mais recentemente, microfilmadas
e escondidas em pontos de um texto comum. Embora utilizada até hoje,
a esteganografia permite que a mensagem, uma vez descoberta, seja lida
facilmente.
Criptografia é a ciência da escrita de mensagens em cifras ou
códigos permitindo que só o destinatário a decifre e compreenda,
possibilitando uma comunicação segura.
Caminhando lado a lado com a criptografia, encontra-se sua maior
rival : a criptoanálise, cujo objetivo primordial é transformar a
mensagem criptografada em texto claro, desvendando o segredo.
Criptografia da idade antiga à idade moderna
Acredita-se que uma das primeiras utilizações da criptografia foi
feita pelo escriba do faraó Khnumhotep II, por volta de 1900 a.C, no
antigo Egito, que resolveu trocar trechos das escritas em argila que
indicavam os caminhos para os tesouros guardados nas pirâmides, de
forma que só os sacerdotes poderiam decifrá-los.
A criptografia também proliferou na Mesopotâmia, onde os
“intaglios” (peças de pedra com símbolos de identificação), funcionavam
como certificados rudimentares.
Os hebreus, por volta de 600 a 500 a.C, valiam-se das cifras
ATBASH, ALBAM, ATBAH , que consistiam da substituição simples
de uma letra por outra (substituição monoalfabética). O ATBASH foi
utilizado para escrever o “Livro do Profeta Jeremias” e correspondia a
trocar a primeira letra (Aleph) do alfabeto pela última (Taw) e assim
750
sucessivamente.
No alfabeto latino, a correspondência seria:
A
B
C
D
E
Z
Y
X
W
V
Tabela 1 – Cifra de ATBASH
F
U
G
T
H
S
I
R
J
Q
K
P
L
O
M
N
Assim, a palavra cifrada XIRKGLTIZURZ, corresponde ao texto
CRIPTOGRAFIA.
Um exemplo de criptografia de transposição é o bastão de Licurgo,
utilizado pelo general espartano Panasius, por volta de 475 a.C, que
consistia em escrever a mensagem em uma fita enrolada em um bastão
padrão. Ao término, a fita era desenrolada e entregue ao mensageiro que
a usava como cinto. Para decifrar o código, o destinatário simplesmente
enrolava a fita no seu bastão e lia o conteúdo.
Figura 1 – Bastão de Licurgo
751
O código de Políbio é um exemplo de cifra de substituição que
troca letras pela combinação de dois números referentes a sua posição.
1
2
3
4
5
1
A
B
C
D
E
2
F
G
H
I
J
3
K/Q
L
M
N
O
4
P
R
S
T
U
5
V
W
X
Y
Z
Figura 2 – Código de Políbio
Assim a palavra CRIPTOGRAFIA seria transmitida como:
134224414435224211212411.
Júlio César, por volta de 50 a.C, foi o criador da cifra mais famosa
da Antiguidade, o código de César, que consistia, basicamente, na
substituição de uma letra pela que lhe sucedia em três posições.
A B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
D E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
A
B
C
Figura 3 – Código de César
A palavra CRIPTOGRAFIA seria transmitida como
FULSWRJUDILD.
O código de César ainda é utilizado nos dias de hoje, alterando-se
o valor do deslocamento, como a cifra ROT13, de 1984, que usava
deslocamento de 13 letras (A=N). Outra variação é a utilização de uma
palavra-chave , como por exemplo TROCADO.
752
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
T
R
O
C
A
D
B
E
F
G
H
I
J
K
L
M
N
P
Q
R
S
U
V
W
X
Y
Figura 4 – Código de César com palavra-chave
Na Idade Média, a contribuição maior foi dada pelos árabes,
principalmente pelo temor da Inquisição, que assolava o mundo
ocidental.
Nos anos 700, al-Khalil, apresenta o método da “palavra
provável”, utilizado para decifrar mensagens.
Nos anos 800, al-Kindi, filósofo árabe e autor de mais de 290
livros, escreve um tratado sobre a utilização da “análise de freqüência”,
para decifrar mensagens. O método consiste em analisar a repetição de
uma letra na mensagem, e substituí-la pelas letras mais costumeiramente
usadas , como “a”, “e”, “o”, etc.
Com a chegada da Renascença, encerrando o período de trevas da
Idade Média, o estudo e aperfeiçoamento da criptografia ganham força,
incentivados principalmente pelos Governos, cientes de que informação
era poder.
No final dos anos 1400, Leon Battista Alberti, conhecido como "O
Pai da Criptologia Ocidental", apresenta a substituição polialfabética,
uma nova técnica que permitia que diferentes símbolos cifrados
pudessem representar o mesmo símbolo do texto claro, dificultando
sobremaneira a aplicação da análise de freqüência.
Nos anos 1500, Heinrich Cornelius Agrippa apresenta a cifra de
Pig Pen (Porco no chiqueiro), que substitui letras por símbolos.
Aperfeiçoando as idéias de Alberti, Blaise de Vigenère, em 1549,
apresenta a cifra de Vigenère, um dos marcos da criptografia e que
resistiu a todas as técnicas de criptoanálises por três séculos, até ser
quebrada por Babagge e Kasiski já nos anos 1800.
753
A B C D E F G H I
J K L M N O P Q R S T U V W X Y Z
0 A B C D E F G H I
J K L M N O P Q R S T U V W X Y Z
1 B C D E F G H I J K L M N O P Q R S T U V W X Y Z A
2 C D E F G H I J K L M N O P Q R S T U V W X Y Z A B
3 D E F G H I
J K L M N O P Q R S T U V W X Y Z A B C
4 E F G H I J K L M N O P Q R S T U V W X Y Z A B C D
5 F G H I J K L M N O P Q R S T U V W X Y Z A B C D E
6 G H I
J K L M N O P Q R S T U V W X Y Z A B C D E F
7 H I J K L M N O P Q R S T U V W X Y Z A B C D E F G
8 I J K L M N O P Q R S T U V W X Y Z A B C D E F G H
9 J K L M N O P Q R S T U V W X Y Z A B C D E F G H I
10 K L M N O P Q R S T U V W X Y Z A B C D E F G H I J
11 L M N O P Q R S T U V W X Y Z A B C D E F G H I
J K
12 M N O P Q R S T U V W X Y Z A B C D E F G H I J K L
13 N O P Q R S T U V W X Y Z A B C D E F G H I J K L M
14 O P Q R S T U V W X Y Z A B C D E F G H I
J K L M N
15 P Q R S T U V W X Y Z A B C D E F G H I J K L M N O
16 Q R S T U V W X Y Z A B C D E F G H I J K L M N O P
17 R S T U V W X Y Z A B C D E F G H I
J K L M N O P Q
18 S T U V W X Y Z A B C D E F G H I J K L M N O P Q R
19 T U V W X Y Z A B C D E F G H I J K L M N O P Q R S
20 U V W X Y Z A B C D E F G H I
J K L M N O P Q R S T
21 V W X Y Z A B C D E F G H I J K L M N O P Q R S T U
22 W X Y Z A B C D E F G H I J K L M N O P Q R S T U V
23 X Y Z A B C D E F G H I
J K L M N O P Q R S T U V W
24 Y Z A B C D E F G H I J K L M N O P Q R S T U V W X
25 Z A B C D E F G H I J K L M N O P Q R S T U V W X Y
Figura 5 – Carreiras de Vigenère.
754
A cifra de Vigenère é polialfabética e pode ser considerado como
uma variante do Código de César, só que, ao invés de deslocar cada letra
um número fixo de posições para obter a letra cifrada, o deslocamento é
variável e determinado por uma frase ou palavra-chave.
Abaixo, segue um exemplo de utilização de cifragem da frase
“cifra de Vigenère”, utilizando a palavra-chave “cripto” e a tabela de
Vigenère acima.
Texto Claro
C
I
F
R
A
D
E
V
I
G
E
N
E
R
E
Chave
C
R
I
P
T
O
C
R
I
P
T
O
C
R
I
Deslocamento 2
17
8
15 19 14
2
17
8
15 19 14
2
17
8
Z
N
G
G
M
Q
V
G
I
M
Cifrado
E
T
R
X
B
Figura 6 – Exemplo da cifra de Vigenère.
Com o passar dos anos, novas cifras foram surgindo, cada vez
mais sofisticadas devido aos avanços nas áreas da Matemática. Gottfried
Wilhelm von Leibniz (1646-1716), apresentou um estudo inovador que
lançou nova luz sobre o cálculo diferencial e integral, a máquina de
calcular e descreveu minuciosamente o sistema binário.
Como se pode notar, até o final da Idade Média a criptografia era
predominantemente manual e pautada na utilização de cifras
monoalfabéticas. Os métodos de análise de freqüência e palavra
provável provaram ser eficientes técnicas de criptoanálise, até o
surgimento da Cifra de Vigenère. A esteganografia também foi
fartamente utilizada nesta época.
Na Idade Moderna, cifras mais complexas proliferaram, graças aos
incentivos dos governantes, os avanços matemáticos e descobrimentos.
A utilização da criptografia era seletiva e utilizada, quase sempre, por
governantes e militares.
755
Criptografia contemporânea e atual
A Idade Contemporânea foi marcada por grandes avanços
tecnológicos e a Revolução Industrial.
Em 1795, Thomas Jefferson apresenta o “cilindro de Jefferson”,
que realiza criptografia polialfabética de forma rápida e eficiente.
Basicamente, escrevia-se a mensagem em uma linha e enviava-se uma
outra linha qualquer do cilindro para um destinatário que possuísse um
cilindro igual. Após arrumar os discos para refletir a linha criptografada,
o destinatário procurava a frase em claro em alguma das outras linhas.
Figura 7 – Cilindro de Jefferson.
Surgem, neste período, o código Braille, para os cegos e o código
Morse , para as transmissões telegráficas.
Em 1854, Charles Barbage quebra a cifra de Vigenère e apresenta
suas calculadoras : a máquina das diferenças e a máquina analítica,
precursoras dos computadores.
Em 1924 começam a surgir os primeiros protótipos de máquinas
de criptografar, como a máquina SIGABA (M-134-C), inventada nos
EUA ,por William F. Friedman, alcunhado o “pai da criptoanálise”,
pelos americanos.
No período da Segunda Guerra Mundial, os nazistas aperfeiçoam e
fazem uso intenso da máquina Enigma, composta de teclado com 26
letras, um quadro com 26 lâmpadas, um dispositivo denominado
"scrambler" constituído por três rotores e um quadro com cavilhas
denominado "Steckerboard" que aumentava o nível de segurança.
756
Cada tecla e cada lâmpada eram conectadas por 26 fios, os rotores
moviam-se de forma independente de modo a produzirem uma
correspondência entre a letra original e a cifrada. Nenhuma letra podia
ser cifrada por ela própria. Para complicar ainda mais os submarinos
alemães, conhecidos como “ U-Boat” , utilizavam Enigmas de 4 rotores.
Figura 8 – Máquina Enigma.
O indecifrável código da Enigma foi quebrado pela equipe
chefiada por Alan Turin, utilizando a máquina The Bombe e o
computador Colussus, virando a guerra para o lado dos aliados .
Por volta de 1970, começa o “boom” dos computadores. A IBM
apresenta a cifra Lúcifer ao NBS (National Bureau of Standards) o qual,
após avaliar o algoritmo com a ajuda da NSA (National Security
Agency), introduz algumas modificações (como as Caixas S e uma
chave menor) e adota a cifra como padrão de encriptação de dados para
os EUA o FIPS PUB-46, conhecido hoje como DES (Data Encryption
Standard).
Basicamente o DES funciona através dos seguintes passos:
• uma substituição fixa, chamada de permutação inicial, de 64 bits
em 64 bits;
• uma transformação, que depende de uma chave de 48 bits, e que
preserva a metade direita;
• uma troca das duas metades de 32 bits cada uma;
• repetem-se os passos 2 e 3 durante 16 vezes; e
• inversão da permutação inicial.
757
O DES é um algoritmo simétrico e, desde seu nascimento foi
considerado passível de quebra por meio do método da força bruta. Para
manter-se, o DES evoluiu, chegando ao 3DES, que de forma sumária é
executar o DES três vezes, na mensagem.
Em 1977, Ronald L. Rivest, Adi Shamir e Leonard M. Adleman
apresentam o algoritmo assimétrico RSA, base dos sistemas de chave
pública, que causaram uma verdadeira revolução no mundo da
criptologia. Além de trabalhar com funções matemáticas complexas,
realizando operações com números primos extremamente grandes, a
criptografia de chave pública eliminou o problema de transmissão da
chave, ponto frágil dos algoritmos simétricos. O usuário passou a ter um
par de chaves: uma privada, de conhecimento e posse apenas do usuário
e uma pública, de conhecimento geral. Qualquer mensagem
criptografada com uma das chaves só pode ser decriptografada com a
outra.
Em 1990, surge a Criptografia Quântica, que usa fótons únicos
para transmitir um fluxo de bits chave para uma posterior cifragem
Vernam da mensagem (ou outros usos).
Ainda nos anos 90, Phil Zimmerman apresentou ao mundo o PGP
(Pretty Good Privacy), programa de computador gratuito que, utilizando
padrões de criptografia assimétrica e simétrica , garantiu privacidade das
comunicações ao usuário comum e tornou-se padrão para cifrar
mensagens transmitidas pela Internet.
No mesmo período, surge a criptoanálise diferencial, desenvolvida
por Biham e Shamir. Utilizada para decifrar as mensagens criptografadas
pelo DES, esta técnica compara pares de textos em claro e pares de
textos cifrados, buscando padrões que possibilitem traduzir a mensagem.
Em 2000, depois de quase trinta anos como padrão, o DES não
resistiu aos progressos na criptoanálise e a capacidade de processamento
distribuída, sendo decifrado pela máquina EFF DES Cracker em 56 e
depois em 22 horas. Para substituí-lo o Governo Americano selecionou o
algoritmo de Rijndael , que deu origem ao Advanced Encryption
Standard (AES), padrão atual.
Do início da Idade Contemporânea aos dias atuais, a explosiva
758
evolução dos meios de comunicações e o advento da Internet fizeram
com que a criptografia passasse a ser uma necessidade de todos os
segmentos da sociedade. Máquinas mecânicas e digitais substituíram a
criptografia manual, tornando o processo de cifragem cada vez mais
complexo e pesado. O grande marco do período foi, sem dúvida, o
surgimento da criptografia assimétrica.
Criptografia no Brasil
Tradicionalmente, o Brasil, como a maior parte dos países , sempre
foi um consumidor de tecnologias de segurança, importando os meios
criptográficos necessários para salvaguardar suas comunicações.
Na década de 70, o Ministério das Relações Exteriores (MRE) e o
então Serviço Nacional de Informações (SNI), por determinação da
Presidência da República, iniciaram os trabalhos de criação do Centro de
Pesquisas e Desenvolvimento para Segurança das Comunicações
(CEPESC), com o objetivo principal de prover uma tecnologia de
segurança nacional, o mais independente possível dos produtos
estrangeiros.
Atualmente, vinculado à Agência Brasileira de Inteligência
(ABIN), o CEPESC dispõe de vários produtos criptográficos, como
telefone seguro com criptografia de voz e dados e o módulo
criptográfico portátil externo, para cifragem de dados de
microcomputador, todos com tecnologia totalmente nacional, inclusive
os algoritmos de criptografia.
Coube ao CEPESC, também, a criação e implementação, em
software básico, de módulos criptográficos destinados a proteger o
transporte dos resultados eleitorais entre as urnas e os computadores
totalizadores do “Sistema de Voto Eletrônico”, adotado pelo TSE, além
de autenticar e validar, digitalmente, os arquivos, códigos e programas
executáveis da urna eletrônica, bem como implementar e executar os
protocolos de estabelecimento e gerenciamento de chaves criptográficas.
Outra iniciativa do Governo Federal para desenvolvimento da
segurança da informação foi a criação, através da Medida Provisória
2200, de agosto de 2001, da Infra-Estrutura de Chaves Públicas
759
Brasileira, a ICP-Brasil, gerenciada pelo Instituto de Tecnologia da
Informação (ITI), da Casa Civil, com a finalidade de prover certificação
digital, utilizando criptografia assimétrica.
Utilizando o SERPRO como principal Autoridade Certificadora, a
ICP-Brasil já foi adotada por várias instituições, inclusive Secretaria da
Receita Federal, que, desde 2005, já implementou a certificação digital
na declaração do imposto de renda.
Conclusão
A necessidade de comunicar-se de forma sigilosa remonta ao
início da História da Humanidade.
Com o advento da escrita, aprimoram-se as técnicas de
manutenção de segredos, surgindo a esteganografia, criptografia e,
concomitantemente, a criptoanálise, tentando decifrar o que foi
transmitido.
Inicialmente restrita aos círculos do poder, com a massificação dos
meios de comunicação, a criptografia passou a ser uma necessidade
diária de cada cidadão. Correio eletrônico, sítios de bancos, comércio
eletrônico são exemplos de serviços que não podem sobreviver sem a
segurança oferecida pelos sistemas criptográficos.
Com o advento de computadores cada vez mais potentes, a
manutenção do segredo é apenas questão de tempo. O grande objetivo
atual é manter o tempo de decifração maior que o tempo de vida útil da
mensagem.
Novas perspectivas surgem a cada dia, como a criptografia
quântica, que tenta substituir a Matemática pela Física na elaboração de
segredos e a conjunção de técnicas criptográficas e biométricas, como os
leitores óticos de retina e outras partes do corpo, para identificação e
autorização de acesso a um recurso, fazendo com que você seja a sua
senha.
760
Referências bibliográficas
A Linha do Tempo da Criptografia medieval. Disponível em:
http://www.swimmer.org/morton/enigma.html. Acesso em 12/05/2006.
COUTINHO, S.C. Números inteiros e criptografia RSA. Rio de
Janeiro: IMPA/SBM, 1997.
MENEZES, A. J. et al. Handbook of applied cryptography. Boca
Raton, FL.: CRC Press, 1997.
Enigma Machine. Disponível em:
http://www.swimmer.org/morton/enigma.html. Acesso em 02/07/2006.
SINGH, Simon. O livro dos códigos. Record, 2001.
761
Análise fatorial. Uma Análise do Teste Não Verbal de Raciocínio
para Crianças
Adriano Campos Menezes 1
Fernando Sabbi Melgarejo 2
Ronaldo Augusto da Silva Fernandes 3
Resumo: O presente artigo mostra um estudo aplicado à análise fatorial,
utilizando como base de dados o Teste Não Verbal de Raciocínio para
crianças (TNVRI), desenvolvido por Pasquali (1997), tendo como
referência os princípios que orientaram a criação das matrizes
progressivas de Raven. Nesse sentido, analisam-se aspectos como
fatorabilidade, extração e rotação dos fatores, os quais são essenciais
para construção de um modelo de análise fatorial adequado, ou seja,
busca-se explicar a variância comum entre as variáveis de um
determinado campo do conhecimento, por um número menor de fatores,
reduzindo a ordem da matriz de covariância. O estudo demonstra a
importância e aplicabilidade da análise fatorial como instrumento para
predizer os fenômenos empíricos, por meio de uma representação
simplificada (conjunto reduzido de fatores).
Palavras-chave:
Análise
Fatorial;
Componentes
Fatorabilidade; Testes Psicológicos; Rotação de Fatores..
Principais;
1
Adriano Campos Menezes, Mestre e Doutorando da Universidade Católica de Brasília
– UCB em Economia de Empresas, Professor da Universidade Católica de Brasília UCB e Analista Sênior do Banco do Brasil.
Endereço Eletrônico – [email protected].
2
Fernando Sabbi Melgarejo, Mestre em Economia de Empresas pela Universidade
Católica de Brasília – UCB, Professor da Universidade Católica de Brasília - UCB e
Gerente de Divisão do Banco do Brasil.
Endereço Eletrônico: [email protected]
3
Ronaldo Augusto da Silva Fernandes, Mestre em Economia de Empresas pela
Universidade Católica de Brasília, Professor do Centro Universitário Planalto do
Distrito Federal - UNIPLAN.
Endereço Eletrônico: [email protected]
763
Introdução
O propósito deste estudo consiste em examinar a aplicabilidade
das técnicas estatísticas, utilizando a análise fatorial para o Teste Não
Verbal de Raciocínio para Crianças (TNVRI), desenvolvido Pasquali
(1997).
A importância da utilização estatística da análise fatorial, objetiva
explicar a variância comum entre as variáveis de um determinado campo
do conhecimento, por um número menor de fatores, ou seja, a redução
da ordem da matriz de covariância.
O presente artigo está dividido em quatro partes, incluindo esta.
Inicialmente, na seção 2, abordaremos o assunto efetuando uma vasta
revisão teórica sobre a aplicação estatística da análise fatorial no estudo
TNVRI e descrevemos os testes e os critérios adotados. Na seção 3, é
descrito o método de extração e rotação dos fatores relevantes para este
trabalho. Em seguida, na seção 4, foram expostos os principais
resultados, bem como as análises. Por fim, na última parte, as conclusões
decorrentes deste estudo aplicado.
2. Referencial teórico
Recentes estudos foram realizados aplicando os princípios da
análise fatorial no contexto de testes de raciocínio. Quanto ao TNVRI,
desenvolvido por Pasquali (1997), baseia-se nos princípios que
orientaram a criação das matrizes progressivas de Raven. A este
respeito, Pondaag (1999), Palácios (1999) e Caixeta (1999) são
unânimes em afirmar que o trabalho de Raven (1997) origina-se de três
vertentes teóricas.
De acordo com Pondaag (1999), a primeira vertente, “a teoria dos
fatores de Spearman (fator “g”) (1904ab, 1907, 1913,1927, 1938),
demonstra que as relações entre um série de variáveis (as
intercorrelações) podiam ser explicadas por um único grande fator,
chamado de fator geral. O que este fator não explica das variáveis
constitui algo específico de cada variável e, portanto, de interesse
secundário ou irrelevante”. A segunda vertente, a teoria de Gestalt,
764
segundo Caixeta (1999), “...revela-se na construção dos itens, ou seja,
eles foram elaborados de forma que a solução se baseasse na percepção
espacial ou lógica de uma gestalt (forma)”. Ainda segundo Caixeta
(1999), a última corrente, “fala de um desenvolvimento em etapas e
numa direção progressiva”.
Entretanto, Pondaag (1999) salienta que Pasquali (1997) não
considera necessário se admitir a teoria dos dois fatores para se poder
aproveitar das idéias de Spearman e de Raven. Em pesquisas feitas sobre
as matrizes progressivas de Raven, ele verificou que referidos testes são
compostos dos seguintes fatores: percepção da gestalt, raciocínio
analógico, raciocínio analógico abstrato e dedução reflexiva. Estes
fatores são altamente relacionados, o que define que os teste de Raven
medem um grande fator, o do raciocínio, em conseqüência disso, os
testes utilizaram a teoria dos dois fatores.
3. Metodologia
O método aplicado nesta pesquisa visa, fundamentalmente,
explicar a variância comum das variáveis por meio de um conjunto
reduzido de fatores. Destarte, para extração dos fatores utilizou-se o
método do Principal Axis Factoring (PAF), o qual, da mesma forma que
o Principal Components (PC), consiste em resolver uma equação eigen
(equação do valor próprio), sendo que as estimativas para comunalidades
representam o quadrado das correlações múltiplas. Na rotação dos
fatores emprega-se um método de rotação oblíqua proposto por Jennrich
e Sampson (1966), definido como Direct Oblimin, baseado na análise
direta das cargas fatoriais dos fatores primários.
Quanto aos critérios para se definir a fatorabilidade da matriz de
correlação, fez-se uso dos seguintes métodos estatísticos, quais sejam:
I. O tamanho da matriz da correlação – A fatorabilidade da matriz
é aceitável se, pelo menos, 50% das correlações estiverem fora do
intervalo de 0,30 e –0,30. Caso contrário, pode-se restringir a sua
fatorabilidade;
II. Teste de adequação da amostra de Kaiser-Meyer-Olkin (KMO)
– Se a matriz anti-imagem for 0, o KMO será igual a 1 e a matriz de
765
correlação é perfeitamente fatorizável. Quanto mais distante de um for
esta estatística, mais precária se torna a fatorabilidade da matriz de
covariância, pois indica que as variáveis não têm muita coisa em
comum. Kaiser (1974) caracteriza os valores do KMO como sendo: 0,90
– maravilhoso; 0,80 – meritório; 0,70 – mediano; 0,60 – medíocre; 0,50
– miserável; e os valores abaixo de 0,50 – inaceitáveis;
III. Quadrados dos coeficientes de correlações múltiplas (R2) –
mede a grandeza de associação linear entre as variáveis;
IV. O determinante da matriz de correlação – o valor do
determinante deve ser muito próximo de zero, indicando que a matriz
pode ser reduzida.
Tendo em vista que análise fatorial tende a expressar grande
número de variáveis por um conjunto reduzido de fatores, é necessário
definir critérios para escolha do número de fatores (extração), os quais
são relacionados a seguir:
I. Eigenvalues – de acordo com Kaiser (1974), este critério
consiste em eliminar os componentes e fatores que apresentem os
eigenvalues menores do que um, pois explica menos que a variância
total de uma única variável;
II. Teste scree – para Carttell (1966), tem por objetivo plotar os
eigenvalues e descobrir por inspeção visual onde os pontos que
representam os componentes passam de uma inclinação acentuada para
uma quase horizontal, retendo apenas os que se encontram a esquerda
deste ponto;
III. Critério Harman (1967) – neste critério são considerados os
fatores que explicam pelo menos 3% da variância total das variáveis, por
ser o nível mínimo de relevância para um determinado fator.
Após avaliados todos os critérios mencionados anteriormente, a
decisão de quantos fatores devem ser escolhidos, ainda depende da
análise da independência, da suficiência (matriz residual), e também da
consistência dos fatores, os quais são definidos a seguir:
I. Independência dos fatores – a correlação entre os fatores deve
situar-se abaixo de 0,30, caso contrário, haverá problemas de
multicolinearidades entre os fatores.
766
II. Matriz residual – esta matriz resulta da diferença entre a matriz
de correlação das variáveis observadas e a matriz reproduzida a partir da
matriz fatorial. Os resíduos acima de 0,05 são considerados elevados, e
aceita-se que somente 5% de tais resíduos sejam considerados grandes.
A rejeição desta hipótese indica que existe algum outro fator a ser
extraído, ou seja, os fatores extraídos não são suficientes.
III. Consistência do Fator – Baseia-se na análise do alfa de
Cronbach, a qual considera-se um fator dito consistente, se o seu
coeficiente de fidedignidade apresentar um alfa maior ou igual a 0,80.
4. Análises e Resultados
Neste estudo, a amostra é composta de um teste com 60 itens
aplicados a 600 alunos da escola pública, com idades entre 05 e 15 anos,
nível sócio-econômico médio ou baixo, residentes no estado do Rio
Grande do Sul e Distrito Federal. A construção do Teste Não Verbal de
Raciocínio para Crianças (TNVRI) foi baseada nos princípios que
orientaram a criação das Matrizes Progressivas de Raven (1902-1907),
cuja utilização atualmente é bastante comum. O tamanho da amostra
mostrou-se suficiente e adequada para análises. De acordo com Pondaag
(1999), quanto à adequação da amostra, a única regra que todos os
teóricos estão de acordo é que ela deve ter mais de 200 casos, exceto no
caso em que os fatores sejam poucos e bem fundamentados, situação em
que análise fatorial com até 50 casos pode fazer sentido4.
O SPSS (Statistics Package For the Social Sciences), por meio do
critério de Jenrich e Sampson (1966), rotação Oblíqua (Direct Oblimin),
utilizando-se o método de extração Principal Axis Factoring, foi
aplicado a esta base de dados. Como descrito anteriormente, a análise
através do método do Principal Axis Factoring resume-se basicamente
em quatro etapas, as quais serão exploradas a seguir.
4
“Há duas regras que auxiliam nesta decisão: se o pesquisador sabe mais ou menos o
número de fatores que a matriz contém deve usar 100 casos para cada fator; se o
pesquisador não tiver nenhuma idéia sobre o número de fatores contidos na matriz,
deve usar cerca de 10 casos para cada variável observada”. (Pondaag,1999)
767
4.1 Fatorabilidade da Matriz de Correlação
Após extração da matriz de correlação, é necessário, tendo em
vista a determinação dos fatores ou componentes principais, verificar se
esta pode ser considerada como fatorável5. Para isto, a fatorabilidade da
matriz de correlação será comprovada por meio da realização dos testes
estatísticos mencionados na seção 3.
Quanto ao tamanho das correlações, verificamos que apenas 7%
dessas estão fora do intervalo de 0,30 e –0,30, situação que, a princípio,
inviabiliza a análise fatorial. Entretanto, pelo resultado do teste de
adequação da amostra de Kaiser-Meyer-Olkin (KMO), a fatorabilidade
da matriz de correlação se apresenta viável, vis-à-vis o KMO de 0,874,
tabela 1.1 anexa. Para Kaiser (1974) apenas os valores acima de 0,50 são
adequados e ele classifica o resultado aqui obtido como meritório. Além
disso, os quadrados dos coeficientes de correlações múltiplas (R2), que
medem a grandeza de associação linear entre as variáveis, corroboram
com o KMO, pois a maioria dos R2 são superiores a 0,70. Finalmente,
para reforçar ainda mais as estatísticas supra citadas, o determinante da
matriz de correlação é muito próxima de zero, reforçando que a matriz
pode ser reduzida, não obstante que poderemos encontrar dificuldades,
no que pese as distorções advindas do tamanho inadequado das
correlações.
4.2 Número de Fatores ou Componentes
Nesta etapa, tem-se o intuito de determinar as quantidades ótimas
de fatores ou componentes principais, os quais serão fundamentais para
expressar as variáveis observadas em um número reduzido de variáveis
hipotéticas. Para tanto, a análise fatorial tem dois objetivos principais: o
primeiro expressa uma provável função linear entre as variáveis; e
segundo, reduzir a ordem da matriz de correlação para um número de
5
Segundo Pasquali (2000), caso as variáveis sejam independentes, não existirá fatores
ou componentes comuns, e a análise produzirá tantos fatores quantas forem as
variáveis.
768
componentes que seja menor que as variáveis observadas (Pasquali,
2000).
O primeiro critério que foi utilizado para definir o número de
fatores comuns entre as variáveis, consiste em observar as
recomendações de Kaiser (1974), que sugere rejeitar os componentes ou
fatores que apresentem eigenvalues menores do que um. Assim sendo,
19 fatores são escolhidos. Outro critério é o teste Scree, que de acordo
com Cattell (1966), sugere utilizar o gráfico para tomar decisão do
número de componentes importantes a reter. Desta forma, através da
inspeção visual do gráfico 1.1, o número ótimo de fatores estaria entre 2
e 4. Outro procedimento, é o defendido por Harmam (1967), que
considera que um fator só será relevante se explicar mais que 3% da
variância total das variáveis, neste caso 4 fatores obedecem este critério,
sendo responsáveis por 29,24% da variância total.
A partir destes testes, tendo como base o princípio da parcimônia,
o número de fatores comuns a serem utilizados será entre 2 e 4. Para
definição do número exato, é necessário fazermos a rotação dos fatores
para os casos já mencionados.
4.3 Extração e Rotação dos Fatores
Como foi definido anteriormente, nesta terceira etapa serão usados
os métodos de extração Principal Axis Factoring (PAF) e o de rotação
Direct Oblimin. Em termos de consistência, para a extração de 2 fatores,
tanto o fator 1 como o fator 2 apresentam coeficientes de fidedignidade
(alfa de Cronbach) acima de 0,80, indicando um bom nível de constância
e invariância dos fatores, ou seja, os fatores podem ser confiáveis6.
Quando se executa a extração com 3 fatores, os fatores 1 e 2 continuam
apresentando bons níveis de consistência7, entretanto, o valor do alfa de
Cronbach para o fator 3 é de 0,42, nível considerado baixo, dando
indícios que o fator quanto a precisão não é confiável. De outra forma,
6
Os alfas de Cronbach calculados foram de 0,8802 e 0,8914, para os fatores 1 e 2,
respectivamente.
7
Os alfas de Cronbach calculados foram de 0,8785, 0,9137 e 0,4263, para os fatores 1,
2 e 3, respectivamente.
769
quanto a extração se dá para 4 fatores, os fatores 1 e 3 são considerados
inconsistentes, enquanto os fatores 2 e 4 apresentam níveis satisfatórios
e confiáveis8. Uma outra análise para fundamentar a decisão de quantos
fatores utilizar, depreende-se da análise da matriz de correlação residual,
a qual resulta da subtração da matriz de correlação original e a matriz de
correlação reproduzida. Com relação a este critério, encontramos 24%,
20% e 17% de resíduos acima de 0,05, para o primeiro (2 fatores),
segundo (3 fatores) e terceiro (4 fatores) casos, respectivamente. No
entanto, conforme definido na teoria, os resíduos grandes (acima de
0,05) não podem ser superiores a 5%. Sendo assim, significa que há em
todos os casos boa parte da variância comum que não é explicada pelos
fatores extraídos. Com relação a independência dos fatores, os resultados
mostram, em todos casos, que os fatores podem ser considerados
estatisticamente independentes, dado que a correlação entre os fatores
apresentam valores abaixo de 0,30, conforme as tabelas 1.2, 1.3 e 1.4
anexas.
Conclusão
A partir dos resultados da análise fatorial, parece mais coerente
extrair apenas dois fatores, o fatores 1 e 2. Os critérios analisados
afirmam que a explicação por meio destes sugerem um maior nível de
consistência e confiabilidade, quando comparados às demais extrações
realizadas. Convém ressaltar, que a consistência de um fator relaciona-se
ao tamanho das cargas fatoriais e também ao número de itens que
compõe o fator. Nos demais casos, como foi analisado na seção anterior,
alguns fatores, de acordo com o critério de Cronbach, foram
considerados inconsistentes e, portanto, de duvidosa validade. Assim
sendo, desprezados para o estudo em questão.
Conclui-se, portanto, pela utilização dos fatores 1 e 2, sendo estes
os melhores representantes fatoriais das variáveis examinadas no
presente estudo.
8
Os alfas de Cronbach calculados foram de 0,7687, 0,9002, 0,4909 e 0,8364, para os
fatores 1, 2, 3 e 4, respectivamente.
770
Referências Bibliográficas
PASQUALI, Luiz. Análise Fatorial para Pesquisadores. Laboratório
de Pesquisa em Avaliação e Medida. UNB. 2000
VARGA, Gyorgy, VALLI, Marcos. Movimentos de Estrutura a
Termo da Taxa de Juros Brasileira e Imunização. Economia
Aplicada. USP – SP. 2001.
PONDAAG, Miriam Cássia Mendonça. Análise Fatorial: TNVRI.
Brasília, 1999.
PALACIOS, Kátia P. Análise Fatorial do Teste Não Verbal de
Raciocínio para Crianças – TNVR. Brasília, 1999.
CAIXETA, Juliana Eugênia. Análise Fatorial do TNVRI. UNB, 1999.
CHOI, Jay, DOUKAS, John. Volatility and Openness of Emerging
Markets: Some Empirical Evidence. Emerging Capital Markets:
Financial and Investment Issues. Greenwood Publishers: Westport. Pp.
35-45. 1998.
771
Anexos
Tabela 1.1 - KMO and Bartlett's Test
Kaiser-Meyer-Olkin Measure of
Sampling Adequacy.
.874
Bartlett's Test of Sphericity
Approx. Chi-Square
7725.754
df
Sig.
1770
.000
Fonte: SPSS 10.0
Tabela 1.2 - Factor Correlation Matrix
Factor
1
2
1
1,000
-,285
2
-,285
1,000
Extraction Method: Principal Axis Factoring. Rotation Method: Oblimin with Kaiser Normalization.
Factor 1.3 - Correlation Matrix
Factor
1
2
3
1
1,000
-,193
,248
2
-,193
1,000
-,263
3
,248
-,263
1,000
Extraction Method: Principal Axis Factoring. Rotation Method: Oblimin with Kaiser Normalization.
Tabela 1.4 - Factor Correlation Matrix
Factor
1
2
3
4
1
1,000
-,188
,209
-,316
2
-,188
1,000
-,291
,176
3
,209
-,291
1,000
-,163
4
-,316
,176
-,163
1,000
Extraction Method: Principal Axis Factoring. Rotation Method: Oblimin with Kaiser Normalization.
772
Gráfico 1.1 – Scree Plot
Scree Plot
12
10
8
6
Eigenvalue
4
2
0
1
4
7
10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58
Component Number
773
Editora Sol Soft’s e Livros Ltda
Rua Borges de Figueiredo, 932
Mooca, São Paulo, SP - CEP: 03110001
FONE: (11) 6292-1377 - FAX: (11) 6096-7062
E-mail: [email protected]
774
Download

Revista do Centro Universitário Planalto do Distrito Federal