UNIVERSIDADE FEDERAL FLUMINENSE
ALEXANDRE INÁCIO MEIRELES
SEGURANÇA DA INFORMAÇÃO
Niterói
2008
ALEXANDRE INÁCIO MEIRELES
SEGURANÇA DA INFORMAÇÃO
Trabalho de Conclusão de Curso submetido ao Curso de Tecnologia em Sistemas de Computação da Universidade
Federal Fluminense como requisito parcial para obtenção do Tecnólogo em Sistemas de Computação.
Orientador:
Leandro Soares de Sousa
NITERÓI
2008
ALEXANDRE INÁCIO MEIRELES
SEGURANÇA DA INFORMAÇÃO
Trabalho de Conclusão de Curso submetido ao Curso de Tecnologia em Sistemas de Computação da Universidade
Federal Fluminense como requisito parcial para obtenção do Tecnólogo em Sistemas de Computação.
Niterói, ___ de _______________ de 2008.
Banca Examinadora:
_________________________________________
Prof. Leandro Soares de Sousa, Msc. – Tutor Orientador
UFF - Universidade Federal Fluminense
_________________________________________
Prof. Cristiano Grijó Pitangui, Msc. – Avaliador
UFRJ – Universidade Federal do Rio de Janeiro
Dedico este trabalho a meus pais José Luiz
de Meireles e Maria Luiza Inácio de Meireles.
AGRADECIMENTOS
A minha namorada, que sempre me deu
apoio, e a minha irmã que sempre motivou.
Ao meu orientador Leandro Soares pelo estímulo e atenção que me concedeu durante o
desenvolvimento do trabalho.
Aos colegas de trabalho pelo incentivo e
apoio no desenvolvimento do trabalho.
A todos os meus familiares e amigos pelo
apoio e colaboração.
“Assim como todo o reino dividido é desfeito,
toda inteligência dividida em diversos estudos se confunde e enfraquece”.
Leonardo Da Vinci
RESUMO
O presente trabalho teve como objetivo realizar um estudo sobre as principais questões relativas à segurança da informação.
Em nossa abordagem, iniciamos pela conceituação do termo “segurança
da informação” e, também, traçamos um breve histórico com principais fatos que levaram esse tema a alcançar tamanha relevância.
Após a definição do contexto, classificamos as principais ameaças, dividindo este tema em segurança física e ataque aos sistemas de informação. De forma a evitar, ou pelo menos minimizar estes riscos, apresentamos diversas formas
de defesa contra esses ataques, tais como: criptografia, firewall, antivírus e assinatura digital.
Outros aspectos relevantes foram o que chamamos de “boas práticas” em
relação à segurança da informação, ou seja, uma política de segurança e os fatores
que levam ao seu sucesso ou fracasso.
Finalmente, colocamos uma “visão do futuro” desta área do conhecimento
bem como nossas conclusões e indicações para futuros trabalhos.
Palavras-chaves: Segurança da informação.
LISTA DE ILUSTRAÇÕES
Figura 1: Classificação das ameaças à segurança das informações.........................23
Figura 2: Criptografia de chaves públicas...................................................................43
Figura 3: Firewall composto de um gateway de aplicação.........................................46
LISTA DE TABELAS
Tabela 1: Os capítulos da Norma NBR ISSO/IEC 17799[8].......................................15
Tabela 2: Métodos de detecção de vírus....................................................................51
LISTA DE ABREVIATURAS E SIGLAS
TI – Tecnologia de Informação
CIO – Chief Information Officer
CPD – Centro Processamento de Dados
TCP – Transmission Control Protocol
IDS – Intrusion Detection System
NT – Nova Tecnologia
SATAN – Security Administrator’s Tool for analyzing networks
NMAP – Network Mapper
ISO – International Organization for Standardization
FTP – File Transfer Protocol
CPU – Central Processing Unit
SQL – Structured Query Language
SSL – Secure Socket Layer
UDP – User Datagram Protocol
SUMÁRIO
RESUMO......................................................................................................................7
LISTA DE ILUSTRAÇÕES..........................................................................................8
LISTA DE TABELAS.................................................................................................... 9
LISTA DE ABREVIATURAS E SIGLAS.....................................................................10
1 INTRODUÇÃO......................................................................................................... 12
2 SEGURANÇA DA INFORMAÇÃO...........................................................................14
3 PRINCIPAIS AMEAÇAS À SEGURANÇA DA INFORMAÇÃO ..............................23
4 ESTRATÉGIAS PARA A SEGURANÇA DA INFORMAÇÃO.................................. 41
5 “BOAS PRÁTICAS” EM RELAÇÃO À SEGURANÇA DA INFORMAÇÃO..............54
6 UMA VISÃO DE FUTURO....................................................................................... 58
7 CONCLUSÕES E TRABALHOS FUTUROS...........................................................60
REFERÊNCIAS BIBLIOGRÁFICAS...........................................................................61
REFERÊNCIAS BIBLIOGRÁFICAS...........................................................................61
12
1 INTRODUÇÃO
Este trabalho foi desenvolvido com o objetivo de abordar alguns dos mais
importantes tópicos em segurança da informação, iniciando com um breve histórico
e finalizando com algumas tendências para o futuro. Para tal, baseamo-nos em dados estatísticos e técnicas de ataques. Tais ataques visam derrubar sistemas, obter
informações confidenciais ou, simplesmente, demonstrarem falhas na segurança.
Sobre a proteção às informações, abordamos técnicas de defesa, ou seja, estratégias que devem ser usadas por funcionários das empresas, tanto aqueles com grande
conhecimento de informática quanto pelos que usam apenas o e-mail da empresa, e
também o que usuários domésticos devem fazer para ter segurança em suas informações.
Atualmente, a informação se tornou um bem tão importante para as pessoas e corporações, que as empresas investem milhões para conseguirem trocar informações da forma mais segura possível, ou seja, com confiabilidade, integridade e
disponibilidade. Devido ao valor deste bem, a informação, as empresas se tornaram
alvos de ataques, que visam entrar em seus sistemas e assim obter informações ou
até mesmo alterá-las. A grande importância deste tema despertou o meu interesse
para a realização de um estudo mais aprofundado sobre o assunto que teve como
conseqüência a elaboração deste trabalho.
O trabalho foi organizado da seguinte forma:
•
no Capítulo 2 tratamos do que é segurança de informação e apresentamos, também, um breve histórico;
•
no terceiro capítulo colocamos as principais ameaças à segurança
da informação;
13
•
no Capítulo 4 apresentamos as principais de estratégias para a segurança da informação;
•
o quinto capítulo apresenta, a título de exemplo, as “boas práticas”
de uma empresa em relação à segurança da informação;
•
no Capítulo 6 expomos uma visão de futuro, ou seja, para onde a
segurança da informação está se direcionando; e
•
finalmente, no sétimo capítulo, temos as conclusões do trabalho
bem como indicações para trabalhos futuros.
14
2 SEGURANÇA DA INFORMAÇÃO
Este capítulo introduz a segurança da informação, apresentando um breve histórico e sua evolução.
2.1
O QUE É SEGURANÇA DA INFORMAÇÃO
A segurança de Informação está relacionada com a proteção de um conjunto de dados, no sentido de preservar o valor que estes possuem para um indivíduo ou uma organização.
A informação compreende qualquer conteúdo que possa ser armazenado
ou transferido de algum modo, servindo a determinado propósito e sendo de utilidade ao ser humano ou a uma corporação (esta definição é do autor, se não for, cite a
fonte). Trata-se de tudo aquilo que permite a aquisição de conhecimento. Estas são
características básicas da segurança de informação, ou seja, os atributos de confidencialidade, integridade e disponibilidade. Esta segurança não se restringe apenas
aos sistemas computacionais, informações eletrônicas ou sistemas de armazenamento. O conceito se aplica a todos os aspectos de proteção às informações.
Atualmente, o conceito de segurança de informação está padronizado pela
norma ISO/IEC 17799 [8], cujos principais objetivos são de prover um guia de conduta (possibilitando que as organizações implementem políticas para a segurança
da informação de maneira apropriada), facilitar a negociação entre as organizações,
especialmente através do comércio eletrônico, e permitir a confiança no compartilha mento das informações.
15
Esta linha de pensamento é igualmente compartilhada por BEAL [5] (2001,
p. 2), ao citar que:
“Quando a empresa atua em parcerias com outras, ela pode precisar forne cer garantias aos seus parceiros de que quaisquer informações compartilhadas serão mantidas e processadas em um ambiente que não coloque em
risco sua confidencialidade, integridade e disponibilidade. É por isso que se
torna cada vez mais importante às corporações demonstrar sua conformidade com padrões como a NBR ISSO/IEC 17799”.
A Tabela 1 descreve a abrangência da Norma NBR ISSO/IEC, que tem a
pretensão de contemplar todos os aspectos da segurança da informação.
Tabela 1: Os capítulos da Norma NBR ISSO/IEC 17799[8]
Cap
1e2
Abrangência
Objetivos e Definições
3
Política de segurança
4
Objetivos
•
Segurança
Organizacional
Prover à direção uma orientação e apoio
para a segurança da informação.
•
Gerenciar a segurança da informação na
organização.
•
Manter a segurança dos recursos de processamento de informação e ativos de informação organizacionais acessados por
prestadores de serviços.
•
Manter a segurança da informação quando a responsabilidade pelo processamento da informação é terceirizada para uma
outra organização.
5
Classificação e controle
•
Manter a proteção adequada dos ativos
dos ativos
da organização e assegurar que os ativos
de informação
de informação recebam um nível adequado de proteção.
6
Segurança em pessoas
•
Reduzir os riscos de erro humano, roubo,
16
fraude ou uso indevido de instalações.
•
Assegurar que os usuários estão cientes
das ameaças e das preocupações de segurança da informação e estão equipados
para apoiar a política de segurança da organização durante a execução normal do
seu trabalho.
•
Minimizar dados originados pelos incidentes de segurança e mau funcionamento, e
monitorar e aprender com tais incidentes.
•
7
(a) prevenir acesso não autorizado, dano
Segurança física e do
e interferência às informações e instala-
Ambiente
ções físicas da organização; (b) prevenir
perda, dano ou comprometimento dos ativos, e a interrupção das atividades do negócio e (c) evitar exposição ou roubo de
informação e de recursos de processamento de informação.
•
8
(a) garantir a operação segura e correta
Gerenciamento das
dos recursos de processamento da infor-
Operações e comunica-
mação; (b) minimizar o risco de falhas
ções
nos sistemas; (c) proteger a integridade
do software e da informação; (d) manter a
integridade e disponibilidade dos serviços
de comunicação e processamento da informação; (e) garantir a salvaguarda das
informações na rede e a proteção da infra-estrutura de suporte; (f) prevenir danos aos ativos e interrupções das atividades do negócio e (g) prevenir a perda,
modificação ou mau uso de informações
trocadas entre organizações.
17
9
Controle de acesso
•
(a) controlar o acesso à informação; (b)
prevenir acessos não autorizados aos sistemas de informação; acesso não autorizado dos usuários; acesso não autorizado ao computador; acesso não autorizado
à informação contida nos sistemas de informação; (c) proteção dos serviços de
rede e (d) descobrir atividades não autorizadas.
10
Desenvolvimento e
•
(a) garantir que a segurança seja parte in-
Manutenção de
tegrante dos sistemas de informação; (b)
Sistemas
prevenir perda, modificação ou uso impróprio de dados do usuário nos sistemas
de aplicações; (c) proteger a confidencialidade, autenticidade ou integridade das
informações; (d) garantir que os projetos
de tecnologia da informação e as atividades de suporte serão conduzidos de maneira segura e (e) manter a segurança do
software e da informação do sistema de
aplicação.
11
Gestão da continuidade
•
Do negócio
Não permitir a interrupção das atividades
do negócio e proteger os processos críticos contra defeitos de falhas ou desastres significativos.
12
Conformidade
•
(a) evitar violação de qualquer lei criminal
ou civil, estatutos, regulamentações ou
obrigações contratuais e de quaisquer requisitos de segurança; (b) garantir conformidades dos sistemas com as políticas e
normas organizacionais de segurança e
(c) maximizar a eficácia e minimizar a in-
18
terferência no processo de auditoria de
sistema.
Fonte: NBR ISSO/IEC 17799, 2001, p. 1-5
2.2
UM BREVE HISTÓRICO E A EVOLUÇÃO DA SEGURANÇA DA INFORMAÇÃO
Desde a inserção do computador na década de 40 como dispositivo auxiliar para as mais variadas atividades, até os dias atuais, temos observado uma evolução constante nos modelos computacionais e tecnologias usadas para manipular,
armazenar e apresentar as informações.
Originalmente, os computadores foram ligados em rede para facilitar a troca de informações. As primeiras infra-estruturas de tecnologia da informação eram
baseadas nos grandes Mainframes1. O hardware evoluiu de tal maneira, que atualmente os negócios, na maioria das organizações, são impulsionados por pequenos
computadores com interfaces gráficas, simples e amigáveis.
O risco desta infra-estrutura está relacionado à exploração de vulnerabilidades que permitam comprometer a integridade, disponibilidade e confidencialidade
das informações.
Na tentativa de apresentar a evolução desta área do conhecimento, de forma sucinta, incluímos um breve retrospecto sobre avanço das ações relacionadas à
segurança da informação. Desta forma, identificamos marcos importantes na área.
1
Um mainframe é um computador de grande porte, dedicado ao processamento de um volume gran-
de de informações, cuja arquitetura é centralizada, ou seja, apenas “ele processa” as informações (a
definição é do autor, se não for, cite a referência).
19
Um resumo da evolução da Tecnologia da Informação pode ser encontrado nos estudos de O’BRIEN [6], (2001, p. 43). Apresentamos seus principais pontos
a seguir:
•
primeira geração: envolvia computadores enormes utilizando centenas ou milhares de tubos a vácuo para os seus circuitos de processamento e memória. Esses enormes computadores geravam
muito calor e seus tubos a vácuo tinham de ser freqüentemente
substituídos. Dessa forma, exigiam grande quantidade de energia
elétrica, ar condicionado e manutenção. Os computadores de primeira geração possuíam memórias principais de apenas alguns milhares de caracteres e velocidades de processamento de milissegundos. Utilizavam tambores magnéticos ou fitas para armazenamento secundário e cartões ou fita de papel perfurado como mídia
de entrada e saída.
•
segunda geração: utilizava transistores e outros dispositivos semicondutores sólidos que eram ligados a painéis de circuitos nos computadores através de cabos. Os circuitos transistorizados eram muitos menores e muito mais confiáveis, geravam pouco calor, eram
menos custosos e exigiam menor quantidade de energia elétrica
que os tubos a vácuo. Eram utilizados minúsculos núcleos magnéticos para a memória do computador ou para armazenamento interno. Muitos computadores da segunda geração tinham capacidades
de memória principal de menos de 100 kilobytes e velocidades de
processamento em microssegundos. Pacotes de disco magnético
removível foram introduzidos e a fita magnética surgiu como principal meio de entrada, saída e armazenamento secundário para instalações de grandes computadores.
•
terceira geração: esta geração assistiu ao desenvolvimento de
computadores que utilizavam circuitos integrados, nos quais milha-
20
res de elementos de circuito são engastados em minúsculos chips
de silício. As capacidades de memória principal aumentaram para
vários megabytes e as velocidades de processamento saltaram
para milhares de instruções por segundo, à medida que se tornavam comuns as capacidades de telecomunicações. Isto possibilitou
que os programas de sistemas operacionais passassem a entrar
em uso generalizado e supervisionando as atividades de muitos tipos de dispositivos periféricos e, também, o processamento de diversos programas ao mesmo tempo pelos mainframes. A tecnologia
do circuito integrado também possibilitou o desenvolvimento e uso
generalizado de pequenos computadores; estes chamados minicomputadores na terceira geração de computadores.
•
quarta geração: esta geração recorreu ao uso de tecnologia LSI
(integração de larga escala) e VLSI (integração de escala muito larga), que comprimem centenas de milhares ou milhões de transistores e outros elementos de circuito em cada chip. Isto permitiu o desenvolvimento de microprocessadores, nos quais todos os circuitos
de uma CPU estão contidos em um único chip com velocidade de
processamento de milhões de instruções por segundo. As capacidades de memória principal, que se estenderam de alguns megabytes a vários gigabytes, também puderam ser obtidas por chips de
memória que substituíram às memórias de núcleo magnético. Os
microcomputadores que utilizaram CPUs microprocessadoras e
uma série de dispositivos periféricos e pacotes de software de fácil
utilização para formar pequenos sistemas de computador pessoal
(PC, do inglês “Personal Computer”) ou redes cliente/servidor de
PCs e servidores conectados, são um marco de quarta geração de
computadores, que acelerou o downsizing2 dos sistemas de computadores.
2
Downsizing é uma técnica aplicada das abordagens contemporânea da Administração voltada a eli -
minar a burocracia corporativa desnecessária e focada no centro da pirâmide hierárquica (citar referência, caso a definição não seja sua)
21
•
quinta geração: ainda está em discussão se estamos ou não passando para uma quinta geração de computadores, já que o conceito
de gerações pode não mais se adequar às mudanças contínuas e
rápidas nas tecnologias de hardware, software, dados e rede de
computadores. Em todo o caso, podemos estar certos de que o progresso nos computadores continuará a acelerar-se e de que o desenvolvimento de tecnologias e aplicações baseadas na Internet
será uma das maiores forças que dirigirão a computação no século
XXI.
No período entre 2000 e 2004, observamos uma grande quantidade de incidentes de segurança provocados por falhas na infra-estrutura computacional. Desde então, muitos investimentos foram realizados para que as empresas tenham a
capacidade de manter continuamente a segurança de sua infra-estrutura computacional. Nesta época, as grandes corporações, como por exemplo, as do setor bancá rio, criaram áreas específicas de segurança da informação.
Para BEAL [6], (2001, p. 3), a tecnologia da informação vem atualmente
sendo utilizada com o objetivo de melhorar os processos internos, reduzir custos,
melhorar a qualidade e disponibilidade das informações importantes, interna e externamente à organização, e agregar valor aos serviços e produtos ofertados por uma
organização.
Após este período, quando a infra-estrutura já se mostrava relativamente
segura, os ataques migraram para os sistemas aplicativos. Diversas técnicas sofisticadas de ataques foram desenvolvidas, tais como: programas espiões, pichação de
páginas, injeção de códigos de consulta a bancos de dados (SQL injection), entre
outras.
Desta forma, por volta de 2004, os desenvolvedores de sistemas críticos
também tiveram de ser treinados nas disciplinas especificas da segurança da infor-
22
mação, incluindo as vulnerabilidades do protocolo TCP/IP, os principais conceitos de
criptografia e mecanismos de autenticação seguros para os usuários e sistemas.
Em meio a este turbilhão de avanços tecnológicos, vivenciamos a necessidade de aprimorar as equipes de TI 3 com relação à gestão corporativa e ao controle
das legislações. Neste quesito, o fato mais marcante foi o da criação da lei Sarbanes-Oxley (SOX) [9], que reescreveu, literalmente, as regras para a governança corporativa relativas à emissão de relatórios financeiros, e sob o grande volume de páginas da Lei reside uma premissa simples: a boa governança corporativa e as práticas éticas do negócio não são mais requintes, mas sim leis. Esta premissa exigiu
que os CIOs4 repensassem seus processos e controles de gestão dos sistemas e
usuários, porque a lei tornou explícita a responsabilidade pela existência e adequação do funcionamento da estrutura de controle.
No próximo capítulo apresentamos as principais ameaças à segurança da
informação.
3
TI – (Tecnologia da informação) um conjunto de todas as atividades e soluções providas por recur-
sos de computação (citar referência, caso não seja sua definição. Este conceito já foi apresentado no
segundo parágrafo da página 20. Assim, devia ser definido lá.)
4
CIOs – (Chief Information Officer) é um titulo de cargo dado ao responsável pela tecnologia da infor-
mação de uma empresa. (citar referência, caso não seja sua definição).
23
3 PRINCIPAIS AMEAÇAS À SEGURANÇA DA INFORMAÇÃO
Neste capítulo apresentamos as principais ameaças à segurança da informação, incluindo falhas de segurança física, tipos de ataques, vírus, riscos internos
e externos.
Podemos afirmar que uma ameaça é qualquer ação ou incidente com o
potencial de causar dano a uma organização através da revelação, modificação ou
destruição da informação ou pela negação de um serviço crítico [1]. Ameaças à segurança podem ser divididas entre ameaças humanas ou causadas por desastres da
natureza, conforme ilustrado na Figura 1.
Ameaças de Segurança
Humana
Desastres da Natureza
Crackers
Empregados
Enchentes
Hackers
mal treinados
Incêndios
Terremotos
Figura 1: Classificação das ameaças à segurança das informações
24
As ameaças à segurança relacionadas aos desastres da natureza são, na
maioria das vezes, imprevisíveis, mas veremos, na seqüência, que existem algumas
atitudes que podem ser tomadas que tendem a reduzir as perdas com esses incidentes. Quanto às ameaças relacionadas aos empregados, estas tendem a diminuir
com treinamento específico para todas as áreas que trabalham na empresa. Finalmente, temos as ameaças intencionais, ou seja, àquelas efetuadas por crackers ou
hackers que usam do seu grande conhecimento para invadir os sistemas visando alguma demonstração de poder ou a obtenção de lucro.
Dada a classificação apresentada na Figura 1, subdividimos estas questões em dois tópicos: a Subseção 3.1 trata das ameaças da natureza e de empregados mal treinados, e na 3.2 colocamos das ameaças oferecidas por crackers e
hackers, que nada mais são que outras formas de ameaças humanas.
3.1
SEGURANÇA FÍSICA
A “segurança física” compreende os aspectos relacionados aos eventos
nos quais exista algum contato físico anormal com os equipamentos.
Quando falamos em segurança física, devemos atentar para ameaças
sempre potencialmente presentes, mas nem sempre lembradas: incêndios, desabamentos, relâmpagos, raios, alagamentos, goteiras, vazamentos de gás, problemas
na rede elétrica, sabotagem, funcionários insatisfeitos ou demitidos, backups desatualizados ou em mídias não confiáveis, roubos, poeira, eletricidade estática, uso inadequado de recursos por desconhecimento ou negligência, treinamento inadequado,
acesso indevido de pessoas ao departamento de informática e etc. Como um exemplo da abrangência destas questões, no dia 11 de setembro uma empresa tinha
seus sistemas funcionando em uma das torres gêmeas e o seu backup site5 funcio5
Um backup site é, geralmente, uma cópia fiel dos principais ambientes de uma empresa (hardware e
software) e tem por objetivo, além oferecer uma alternativa para a continuidade dos trabalhos caso
25
nava na outra, obviamente esquecendo as questões humanas envolvidas. Esta empresa desapareceu devido a esta falha na estratégia de segurança física, tanto dos
equipamentos quanto dos sistemas, ou seja, as cópias de segurança devem estar
separadas por, no mínimo, 20 quilômetros.
Devemos prestar especial atenção aos seguintes fatores:
•
Variações térmicas - excesso de calor causa travamentos e destrói
mídias; e o excesso de frio congela fisicamente dispositivos mecânicos como discos rígidos;
•
Umidade - inimigo potencial de todas as mídias magnéticas;
•
Poeira - depositada nas cabeças de leitura e gravação dos drives,
pode destruir fisicamente um disquete ou uma fita;
•
Vapores e gases corrosivos - em qualquer incêndio, bastam 100ºC
para transformar a água cristalizada nas paredes, em vapor, que
destrói mídias e componentes;
•
Fumaça - fumaça do cigarro deposita uma camada de componentes
químicos nas cabeças de leitura e gravação dos drives, que pode
inviabilizar a utilização de disquetes e fitas; fumaça de incêndios
próximos é ainda mais perigosa;
•
Magnetismo - grande inimigo das mídias magnéticas. Pode destruir
as informações armazenadas em disquetes, fitas e discos rígidos;
•
Trepidação - pode afrouxar placas e componentes em geral, além
de destruir discos rígidos;
•
Falha de energia elétrica - grande risco potencial, à medida que paralisa totalmente todas as funções relacionadas à informática;
•
Queda nas comunicações - grande risco potencial, pois isola o site
do resto do mundo; risco de perda de dados;
•
Pane nos equipamentos - problema bastante comum e facilmente
resolvido com backup das informações e do hardware;
ocorra algum problema, manter cópias das informações mais relevantes para o negócio (Citar fonte
de definição, caso não seja sua). .
26
•
Pane na rede - isola um ou mais computadores de um mesmo site;
risco potencial de perda de dados;
•
Problemas nos sistemas operacionais - risco potencialmente explosivo, pois podem comprometer a integridade de todos os dados do
sistema e até mesmo inviabilizar a operação; eliminam a confiança
da equipe;
•
Problemas nos sistemas corporativos – este é um grande risco,
causam grandes transtornos e perdas de dados;
•
Paralisações, greves e piquetes - problema contornável se houver
condução política adequada;
•
Alcoolismo e drogas - risco de comportamento anômalo de funcionários, com conseqüências imprevisíveis;
•
Competitividade exacerbada entre pessoas pode levar à sabotagem, ou seja, alteração ou destruição de dados ou de cópias de segurança;
•
Falta de espírito de equipe - falta de coordenação, onde cada funcionário trabalha individualmente; risco de omissão ou duplicação de
procedimentos;
•
Inveja pessoal / profissional - pode levar um profissional a alterar ou
destruir dados de outro funcionário;
•
Furtos e roubos - conseqüências imprevisíveis. Podem inviabilizar
completamente os negócios da empresa;
•
Fraudes - modificação de dados, com vantagens para o elemento
agressor;
•
Sabotagem - modificação deliberada de qualquer ativo da empresa;
•
Seqüestros - ação contra pessoas que tenham alguma informação;
•
Espionagem industrial - captação não autorizada de software, dados ou comunicação;
•
Erros de usuários - de conseqüências imprevisíveis, desde problemas insignificantes até a perda de um faturamento inteiro; erros de
usuários costumam contaminar as cópias de segurança (backup)
quando não detectados a tempo;
27
•
Erros em backups - risco sério de perda de dados; o backup sempre deve ser verificado;
•
Uso inadequado dos sistemas - normalmente ocasionado por falta
de treinamento, falta de documentação adequada ou falta de capacidade de quem o utiliza;
•
Manipulação errada de arquivos - costuma causar perda de arquivos e pode contaminar as cópias de segurança;
•
Ausência / demissão de funcionário – isto é problemático se a pessoa ausente for à única que conhece determinados procedimentos;
•
Estresse / sobrecarga de trabalho - uma pessoa sobrecarregada é
mais propensa a cometer erros e adotar atitudes anti-sociais;
A segurança física é de extrema importância em qualquer empresa, pois,
sem ela, o risco de perda ou vazamento das informações fica evidentemente alto.
Uma política deve ser adotada para que os problemas relacionados anteriormente
sejam evitados. Esta política envolve um treinamento específico das áreas de recursos humanos, manutenção, pessoal de TI, usuários do sistema e, até mesmo, da
equipe de limpeza. Outro fator importante é investir num bom local de trabalho, pois,
por exemplo, ruídos excessivos entre outros fatores, podem deixar os funcionários
estressados e com isso, mais propensos a cometer falhas.
3.2
ATAQUES AOS SISTEMAS
De um modo geral, os ataques seguem uma metodologia, que normalmente usam as seguintes etapas: busca de informações, varredura, enumeração, obtenção de acesso, aumento de privilégios, consolidação de poder e limpeza de vestígios.
Para abordar este assunto utilizamos a classificação de Strauch, S. [2]
(1999, p26) :
28
•
Mecanismo de busca de informação;
•
Técnicas de ataques;
•
Ataques de interferência na comunicação;
•
Ataques diretos que exploram as vulnerabilidades da tecnologia; e
•
Ataques diretos que exploram falhas na implementação.
3.2.1 Mecanismo de Busca de informação
Para obter êxito precisamos do máximo de informações disponíveis sobre
o alvo. Entre elas estão o reconhecimento do sistema operacional e dos equipamentos, faixas de endereçamento IP, portas abertas com serviços disponíveis, tabelas
de roteamento, usuários válidos e respectivas senhas.
Os tópicos a seguir são meios de obter estas valiosas informações utilizadas na elaboração de ataques.
3.2.1.1 Engenharia Social.
Estas são práticas utilizadas para obter acesso às informações importantes ou sigilosas em organizações ou sistemas, geralmente por meio da enganação
ou exploração da confiança das pessoas. Para tal, o golpista pode se passar por outra pessoa, assumir outra personalidade, fingir que é um profissional de determinada
área, etc. É uma forma de entrar nas organizações que não necessita da força bruta
ou de erros nos equipamentos. Neste caso são exploradas as falhas de segurança
29
das próprias pessoas que, quando não treinados para se defender desses ataques,
podem ser facilmente manipuladas.
Na seqüência citamos as principais ferramentas utilizadas pelo praticante
da engenharia social:
•
Telefone - se passar por alguém, este é um dos mais típicos ataques de engenharia social, por exemplo, simular um atendimento
em help-desk;
•
Internet - coleta de informações – como, por exemplo, sites que fornecem identificação e passwords default, sites clonados etc,;
•
E-mail – Fakemail, ou seja, e-mail falso;
•
Pessoalmente - poder de persuasão, habilidade em saber conversar, este é um tipo de ataque mais raro;
•
Chats (bate papo) – assim como no telefone, fazer-se passar por alguém que na verdade não é, fica muito mais fácil pelos canais de
bate-papo, pois além de tudo, o envio fotos fica bem mais atrativo e
seduz mais facilmente para obter as informações que se deseja;
•
Correspondência (cartas) – não é o meio mais moderno sem dúvida, mas acredite, este é um recurso muito poderoso e que tem
como uma das maiores vítimas as pessoas mais idosas. Não somente idosos, mas principalmente aquelas que têm certa resistência à tecnologia. É muito fácil atualmente elaborar cartas e documentos com logomarcas e tudo mais, dando-se a impressão de que
se trata realmente daquela origem;
•
Spyware – software especializado em monitorar, de modo oculto, as
atividades do computador de um alvo;
•
Mergulho no lixo – uma questão relevante é que várias coisas que
são descartadas para o lixo, muitas vezes, contêm informações essenciais ao suposto engenheiro social; e
30
•
“Surfar” sobre os ombros – é o ato de observar uma pessoa digitando no teclado do computador para descobrir e roubar sua senha ou
outras informações do usuário.
Um exemplo de um ataque usando a engenharia social foi efetuado em
1994, um hacker francês chamado Anthony Zboralski que ligou para o escritório do
FBI em Washington, fingindo ser um representante do FBI trabalhando na embaixada dos Estados Unidos em Paris. Ele persuadiu a pessoa no outro lado da linha a
explicar como se conectar ao sistema de conferência por telefone do FBI. Depois,
eles acumularam uma conta de telefone de US$250.000,00 em sete meses.
3.2.1.2 VARREDURA DE PORTAS
A varredura de portas (do inglês “port scanning”), é o processo de se conectar as portas TCP e UDP do sistema-alvo para determinar quais serviços estão
em execução ou em estado de escuta. Esse processo é crucial para identificar o tipo
de sistema operacional e quais aplicativos estão em uso. Alguns serviços ativos podem permitir a um usuário não autorizado ter acesso a sistemas mal configurados ou
que estejam executando algum software que possua falhas de segurança conhecidas.
As técnicas mais utilizadas na varredura de portas são:
•
Varredura de conexão TCP: este tipo de varredura conecta-se a porta do alvo
e envia três pacotes (SYN,SYN/ACK, ACK). O pacote SYN mostra a intenção
do invasor em se conectar, o pacote SYN/ACK, enviado pelo alvo mostra que
o sistema ouviu a requisição, o pacote ACK do invasor mostra que a mensagem foi recebida. A inconveniência desse método é que ele é de fácil detecção pelo sistema alvo.
31
•
Varredura TCP/SYN: esta técnica é chamada de varredura semi-aberta, porque não é feita uma conexão TCP completa. Em vez disso, um pacote SYN é
enviado à porta-alvo. Se um SYN/ACK for recebido da porta-alvo, podemos
deduzir que ela está ouvindo, se um SYN/RST for recebido, normalmente isso
indica que ela não está escutando. Um RST/ACK será enviado ao alvo de forma que uma conexão completa nunca seja estabelecida, dificultando a identificação do invasor.
A varredura de portas normalmente é utilizada para determinar quais as
portas TCP ou UDP que estão ativas nos sistemas remotos. Detectar atividades de
varredura de portas é essencial para saber quando um ataque pode ocorrer e quem
poderá tentar realizá-lo. Os principais métodos de detecção de varredura de portas
são programas IDS (Intruction Detection Systems) baseados em rede ou um mecanismo baseado em host. Nos ambientes UNIX temos utilitários como o Seanlog da
Solar Designer ou o Psionic Portsentry do Projeto Abacus [11], que podem detectar
uma varredura. Nos ambientes Windows temos utilitários como o Genius 2.0 da Independent Software2 [14], que além de detectar a varredura, ainda identificam o endereço IP e o host do invasor. Devemos lembrar que se um padrão de varredura de
portas partindo de um sistema ou rede específica for detectado, ou seja, se alguém
está tentando obter um reconhecimento da sua instalação, isto indica que um ataque
em grande escala é eminente.
Embora seja difícil evitar que alguém lance uma sonda de varredura de
portas contra um sistema em particular, a exposição pode ser minimizada através da
desativação de todos os serviços desnecessários. Nos ambientes Unix isto pode ser
feito deixando como comentário serviços desnecessários no arquivo etc/inetd.conf
ou desativando a inicialização de serviços nos scripts de inicialização. No Windows a
atitude é semelhante, ou seja, todos os serviços desnecessários devem ser desativados.
Existem vários programas capazes de fazer varredura, mas, sem dúvida,
o pioneiro e mais popular é o software SATAN (Security Administrator´s Tool for
Analyzing Networks), desenvolvido por Dan Farmer e Wietse Venema (mais informa-
32
ções sobre este software estão disponíveis em [12]). Outros softwares, atualmente
populares, para se fazer varredura são: o Nessus desenvolvido pelo francês Renaud
Deraison, o NSS desenvolvido por Douglas O’Neal e o NMAP. O NMAP é uma exce lente ferramenta de sondagem, que executa em muitas plataformas Unix [7]. O
NMAP [13] realiza uma sondagem convencional das portas para descobrir quais delas estão abertas, em um host de destino, e também tenta iludir a detecção realizada
por sistemas de detecção de intrusão. Isto é feito usando o comando nmap –f. Com
isto, os cabeçalhos TCP de 20 bytes são fragmentados e, em muitos casos, evita a
detecção.
3.2.1.3 Recomendações contra busca de informações
É importante garantir algumas medidas de segurança contra a busca maliciosa de informações. Seguem abaixo algumas destas medidas, extraídas de McClure S. [3], (p.19):
•
Remover os dados públicos que possam ser retirados do site da empresa;
•
Manter atualizadas as informações sobre contatos técnicos, administrativos e
de cobrança de acordo com a necessidade;
•
Evitar números de telefones e contatos que viabilizem engenharia social; e
•
Restringir transferências de zona de servidores DNS. Para a implementação
desta medida, basta bloquear, via firewall, as conexões TCP à porta 53. Configurar servidores de nomes externos de modo a fornecer informações somente dos sistemas conectados diretamente à Internet.
33
3.2.2 Técnicas de Ataque
Na seqüência apresentamos alguns tipos de ataques muito utilizados atualmente, tais como: sniffing, pishing e ataques de negação de serviço.
3.2.1.4 Sniffing
Sniffing, em rede de computadores, é o procedimento realizado por uma
ferramenta conhecida principalmente por Sniffer, mas também encontrada pelas seguintes designações: Packet Sniffer, Analisador de Rede, Analisador de Protocolo,
Ethernet Sniffer em redes do padrão Ethernet ou ainda Wireless Sniffer, no caso das
redes sem fio, ou seja, redes wireless. Esta ferramenta, constituída por um software
ou hardware, é capaz de interceptar e registrar o tráfego de dados em uma rede de
computadores. Conforme o fluxo de dados trafega na rede, o sniffer captura cada
pacote e eventualmente decodifica e analisa o seu conteúdo de acordo com o protocolo definido em um RFC (Request For Call – Colocar em nota de rodapé – tem no
Kurose) ou por alguma outra especificação.
O sniffing pode ser utilizado com propósitos maliciosos, por invasores que
tentam capturar o tráfego da rede com diversos objetivos, dentre os quais podemos
citar: obter cópias de arquivos importantes durante sua transmissão, obter senhas
(que permitam estender o seu raio de penetração em um ambiente invadido) ou “escutar” as conversações em tempo real.
34
Segundo Strauch, S [2] (1999, p29):
“Este tipo de ataque vem se tornando freqüente na Internet. Este ataque é
geralmente o primeiro passo para ataques como hijacking attack e ip spoofing juntamente com SYN flooding. Para iniciar um ataque de sniffing, o
hacker primeiramente necessita obter um login e senha de um usuário válido no sistema, para que ele possa se logar na rede. Depois de entrar na
rede, o hacker instala um sniffer e começa a ter acesso ao conteúdo dos pacotes transmitidos na rede e, quando houver interesse, copia estes pacotes.
Assim, ele vai obtendo informações valiosas da rede e de seus usuários.
Quando duas máquinas quaisquer estão se comunicando, todo o tráfego entre elas passa em claro de máquina em máquina, da origem até o destino.
Na quase totalidade das vezes, a administração destas máquinas intermediárias é feita por terceiros e nada se pode afirmar quanto a sua honestidade.
Na maioria das vezes, não é nem possível se saber de antemão por quais
máquinas os pacotes passarão até atingir o destino. O problema que isso
causa é que todo o tráfego entre as duas máquinas que estão se comunicando pode ser visualizado ou alterado por qualquer uma das máquinas intermediárias. Este problema se torna ainda mais crítico quando se pretende
transmitir dados confidenciais ou críticos para a operação das duas entidades se comunicando.”
3.2.1.5 Pishing
É uma técnica de ataque na qual o atacante envia um e-mail para a possí vel vítima, fazendo se passar por anunciante de algum produto ou pedindo para o
usuário renovar seu cadastro e oferecendo um link para qual ele faça essa renovação, mas ao clicar no link ele pode instalar na sua máquina um programa espião,
que visa capturar seus dados particulares, principalmente senhas. Outra ação é que
esse link pode levar o usuário até um site muito parecido ao qual ele deseja acessar,
mas ao colocar suas informações, o site retorna uma mensagem de erro para o usuário; mas na verdade envia os dados para um cracker, que montou a página.
35
Recentemente tem sido registrada, todavia, uma nova modalidade de ataques phishing, que não é perpetrada através do envio de mensagens de e-mail. Trata-se de um tipo de golpe que redireciona os programas de navegação (browsers)
dos internautas para sites falsos. A essa nova categoria de crime tem sido dado o
nome de pharming.
O pharming opera pelo mesmo princípio do phishing, ou seja, fazendo os
internautas pensarem que estão acessando um site legítimo, quando na verdade
não estão. Mas ao contrário do phishing, o qual uma pessoa mais atenta pode evitar
simplesmente não respondendo ao e-mail fraudulento, o pharming é praticamente
impossível de ser detectado por um usuário comuns da Internet, que não tenha maiores conhecimentos técnicos. Nesse novo tipo de fraude, os agentes criminosos se
valem da disseminação de softwares maliciosos, que alteram o funcionamento do
programa de navegação (browser) da vítima. Quando esta tenta acessar um site de
um banco, por exemplo, o navegador infectado a redireciona para o spoof site (um
site falso com as mesmas características gráficas do site verdadeiro). No site copiado, então, ocorre à coleta das informações privadas e sensíveis da vítima, tais como
números de cartões de crédito, contas bancárias e senhas.
3.2.1.6 Ataques de negação de serviço (denial of service)
Como o próprio nome sugere, ou seja, ataque de negação de serviço (denial of service, DoS), seu objetivo é de tornar impossível, para os usuários legítimos,
a utilização dos serviços de um hospedeiro ou, até mesmo, de qualquer componente
da infra-estrutura da rede.
Os antigos mainframes continham defesas contra estes ataques, já os sistemas atuais são excessivamente vulneráveis em relação a eles. A situação vem piorando com as novas linguagens e ambientes de programação, nas quais é possível
alocar recursos sem maiores limitações. O Java e o Javascript são dois bons exem-
36
plos, pois estas linguagens podem manipular, com bastante liberdade, diversos recursos do sistema, possibilitando assim diversos ataques denial of service.
Os ataques de negação de serviço vêm crescendo muito atualmente, sendo que chegaram às manchetes em fevereiro de 2000 quando os sites do e-bay, do
yahoo, da CNN, entre outros de grande porte foram atacados.
3.2.3 Ataques de interferência na comunicação
Estes ataques são produzidos por hackers que agem através da interferência nas comunicações, exemplos destes tipos de ataque são o Hijacking Attack e
o ataque de dessincronização.
Hijacking Attack é um ataque no qual uma sessão TCP ativa, já estabelecida, é interceptada pelo atacante. Os ataques deste tipo podem ocorrer depois que
uma autenticação foi feita, permitindo ao atacante se passar por um usuário autori zado.
Já o ataque de dessincronização, segundo Strauch S. [2] (1999, p.36),
consiste em quebrar a conexão nos seus primeiros estágios e criar uma nova conexão com número de seqüência diferente:
•
Quando o atacante identifica que o servidor mandou um SYN/ACK para o cliente, ele manda ao servidor um pacote de RST e um pacote de abertura de
conexão SYN com os mesmos parâmetros (porta TCP), mas número de seqüência diferente (referenciado como ATAC-ACK0).
•
O servidor fecha a primeira conexão e reabre outra na mesma porta, mas
com outro número de seqüência (SRV-SEQ0) e envia o SYN/ACK ao cliente.
•
O atacante, detectando o SYN/ACK do servidor, envia um ACK para ele. O
servidor passa para o estado ESTABLISHED e o cliente que já havia recebido
um SYN/ACK do servidor também se encontra no estado ESTABLISHED.
37
3.2.4 Ataques diretos que exploram as vulnerabilidades da tecnologia
Estes ataques podem ser considerados os mais inteligentes, pois abusam
das fragilidades características dos próprios protocolos e utilizam-nas de forma diferente, obtendo, com isto, o acesso aos sistemas.
Em meados dos anos 70 surgiu o TCP/IP. Ele se mostrou um protocolo
leve e de baixo custo. Sobretudo, o TCP/IP garantia o funcionamento da rede mesmo que parte da mesma fosse destruída.
Em Segurança Máxima (2000, p49) [4], “em 1969, o Departamento de defesa americano, autorizou o desenvolvimento de
uma rede para seus centros de pesquisa. O principal interesse
era a capacidade dessa rede de suportar um ataque nuclear.
Se a União Soviética lançasse um primeiro golpe, a rede ainda
tinha de facilitar a comunicação. O projeto dessa rede tinha vários outros requisitos, o mais importante dos quais era esse: ele
tinha de operar independentemente de qualquer controle centralizado.”
Para possibilitar este tipo de comportamento, o protocolo IP foi desenvolvido com a capacidade de roteamento dos pacotes de forma descentralizada desde a
origem até o destino final.
Segundo Strauch, S (1999, p38)[2], “para possibilitar este tipo
de comportamento, o protocolo IP foi dotado da capacidade do
emissor de um pacote estabelecer a rota que o mesmo deveria
seguir ao ser enviado através da rede. Desta forma, mesmo
que uma parte da rede fosse derrubada, seria possível estabelecer caminhos alternativos para o tráfego e manter a comunicação.”
Apesar de interessante, este comportamento possibilita a existência de diversos ataques. Um exemplo disso, que é facilmente implementado e impossível de
38
ser impedido, senão com o uso de algum tipo de firewall, é a combinação IP spoofing com roteamento dirigido. O ataque se baseia na validação de um serviço ou de
um usuário feita com base no endereço IP da máquina que está se conectando.
Com o uso de pacotes direcionados, um atacante pode enviar pacotes para as máquinas de uma rede interna (LAN) como se fossem originados de uma máquina confiável. Desta forma, o invasor consegue estabelecer uma conexão válida para uma
máquina da rede interna com os mesmos direitos que teria se estivesse se conectando a partir de outra máquina. Caso houvesse a possibilidade do roteamento dirigido, os pacotes iriam ser direcionados para a máquina real e não para a máquina do
invasor, que não teria acesso aos dados retornados.
Outro ataque possível, ao esquema de roteamento da Internet, é o ataque
ao protocolo RIP, que faz a configuração dinâmica de rotas (atualmente ele é o protocolo mais utilizado na Internet). Os roteadores dinâmicos utilizam o protocolo RIP
para transmitir para outros roteadores (normalmente em broadcast) as melhores rotas para transmissão dos pacotes. Em geral, cada roteador anuncia para os outros
roteadores, de tempos em tempos, que ele é capaz de rotear pacotes para determinada rede, de tal forma que em pouco tempo, a partir destas mensagens, todos tem
uma tabela otimizada de roteamento. O problema principal do protocolo RIP, que é
aproveitado pelos hackers, é que as informações não são checadas. Um atacante
pode, portanto, enviar informações falsas ou maliciosas de roteamento para os ou tros roteadores, de tal forma que possa “fingir” que é outra máquina, pretensamente
confiável, provocando a interrupção dos serviços ou, até mesmo, gravando todos os
pacotes enviados para uma determinada máquina. Um ataque típico seria repassar
para os roteadores da rede a informação de que os pacotes enviados para uma determinada rede devem ser roteados através dele, o atacante, posteriormente, os envia para o destino correto. Durante a passagem dos pacotes, o atacante é capaz de
examinar seu conteúdo na busca por senhas ou outras informações que achar interessantes ou mesmo alterar seu conteúdo.
O ataque de fragmentação é um tipo de ataque no qual os hackers usam a
fragmentação a fim de mascarar e facilitar suas investigações e explorações. Alguns
sistemas de detecção de intrusão e dispositivos de filtragem de pacotes não aceitam
39
a remontagem dos pacotes e, portanto, não detectam ou bloqueiam atividade onde a
assinatura é dividida em múltiplos pacotes.
3.2.5 Ataques diretos que exploram falhas de implementação
Estes ataques diferem dos anteriores, pois podem ser corrigidos. De forma
a elucidar este tipo de ataque utilizamos, como exemplo, o Teardrop e o Ping O’Dea th.
No ataque Teardrop infinitos datagramas com os cabeçalhos corrompidos
e informações distorcidas (no início e final do pacote) são enviados para uma máquina que, se este não estiver protegida, terá o seu processamento interrompido causando seu travamento. Normalmente, o atacante coloca como endereço de início de
um fragmento, um valor posterior ao endereço de fim do fragmento. Na remontagem
dos fragmentos, essa operação vai gerar um número negativo. Com isso, muitos sistemas operacionais travam.
Já no ataque Ping O’Death segundo Strauch, S. [2] (1999, p44):
“este ataque foi descoberto e bastante explorado na Internet.
Ele consiste em se enviar um pacote IP com tamanho maior
que o máximo permitido (65535 bytes), para a máquina que se
deseja atacar. O pacote é enviado na forma de fragmentos (a
razão é que nenhum tipo de rede permite o tráfego de pacotes
deste tamanho) e quando a máquina destino tenta montar estes fragmentos, inúmeras situações podem ocorrer: A maioria
das máquinas trava, algumas reinicializam, outras abortam e
mostram mensagens no console, etc. Praticamente todas as
plataformas eram afetadas por este ataque, e todas as que não
tiveram correções de segurança instaladas, ainda o são. Este
ataque recebeu o nome de Ping O' Death porque as primeiras
ocorrências deste ataque foram a partir do programa Ping. En-
40
tretanto, qualquer pacote IP com mais de 65535 (pacote inválido) provoca o mesmo efeito.”
Felizmente, para estes tipos de ataque temos ferramentas que, instaladas
nos sistemas operacionais, bloqueiam sua atuação.
41
4 ESTRATÉGIAS PARA A SEGURANÇA DA INFORMAÇÃO
Este capítulo introduz as principais técnicas usadas para proteger a informação, tais como: criptografia, firewall, antivírus e assinatura digital.
4.1
CRIPTOGRAFIA
As redes de comunicação são normalmente inseguras. ma das formas de
proteger as mensagens de possíveis interceptações é a criptografia.
O termo criptografia surgiu da fusão das palavras gregas "Kryptós" e
"gráphein", que significam "oculto" e "escrever", respectivamente. Trata-se de um
conjunto de conceitos e técnicas que visa codificar uma informação de forma que somente o emissor e o receptor possam entendê-la, evitando que um intruso consiga
interpretá-la. Para isso, várias técnicas são usadas e muitas outras surgem com o
passar do tempo.
Segundo Garfinkel, S (1999, p188), existem 2 processos complementares: “Criptografia – processo pelo qual uma mensagem (o texto limpo) é transformada em uma
segunda mensagem (o texto cifrado) usando uma função complexa (o algoritmo de
criptografia) e uma chave criptográfica especial. Decifragem – o processo inverso,
pelo qual o texto cifrado é transformado no texto limpo, usando-se uma função complexa e uma chave de decifragem. Em alguns sistemas criptográficos, a chave criptográfica e a chave de decifragem são iguais em outros, são diferentes.”
42
A criptografia é utilizada para prover serviços de autenticação e integridade.
Nas mensagens de e-mail, isso permite ao usuário validar a mensagem recebida, ou seja, sua integridade a autenticidade, e não permite a um interceptador,
descobrir seu conteúdo.
4.1.1 Criptografia de chaves simétricas
É o modo pelo qual os usuários trocam informações fazendo uso do texto
cifrado, mas tanto o remetente quanto o destinatário tem que conhecer a chave para
cifrar e decifrar a mensagem.
Um dos padrões para criptografia que utilizam as chaves simétricas é conhecido como DES (Data encryption standard ou Padrão para Criptografia de Dados) desenvolvido em 1977 e atualizado em 1993 para uso comercial.
O DES codifica texto aberto em porções de 64 bits usando uma chave de
64 bits e tem como objetivo embaralhar completamente os dados e a chave, de
modo que todos os bits do texto cifrado dependam de todos os bits de dados e de
todos os bits da chave.
Outro padrão que deve suceder DES é o Advanced Encryption Standard
(AES), ou Padrão Avançado de Criptografia, em português. O AES processa dados
em blocos de 128 bits e pode funcionar com chaves de 128, 192 e 256 bits de comprimento. Também é conhecido algoritmo de Rijndael.
43
4.1.2 Criptografia de chaves públicas e privadas
É o modo pelo qual os usuários não necessitam compartilhar uma única
chave, como no caso de chaves simétricas, mas nesse caso são utilizadas duas
chaves: uma pública, que está à disposição de todos, e uma chave privada, que
apenas o destinatário conhece.
Utilizamos um exemplo de fácil compreensão para explicitar seu funcionamento. Vamos supor que Alexandre deseja se comunicar com Aline. Alexandre tem
duas chaves sendo que uma é pública, ou seja, todos têm acesso, e a outra privada,
que somente ele tem acesso; a mesma coisa ocorre com Aline. Alexandre criptografa a mensagem usando a chave pública de Aline utilizando um algoritmo criptográfico conhecido, e em seguida ele a envia para Aline, que ao receber a mensagem,
usa sua chave privada e um algoritmo de decriptação conhecido para decifrar a
mensagem. Note que apenas a chave privada de Aline pode decifrar a mensagem, e
esta é a grande vantagem do uso das chaves simétricas. O processo é demonstrado
na Figura 2 [1] (Kurose ed.3 pg 522).
Figura 2: Criptografia de chaves públicas
44
4.2
FIREWALL
Antes de qualquer coisa, devemos definir o que é um firewall. Com este
objetivo, citamos dois importantes autores nesta área:
De acordo com Kurose [1], (V3, p541): “Um firewall é uma combinação de hardware
e software que isola a rede interna de uma organização da Internet em geral, permitindo que alguns pacotes passem e bloqueando outros. Um firewall permite que um
administrador de rede controle o acesso entre o mundo externo e os recursos da
rede que administra, gerenciando o fluxo de tráfego de e para esses recursos.”
Em Segurança Máxima [4], (2000, p275), “um firewall é qualquer dispositivo projeta do para impedir que estranhos acessem uma rede. Esse dispositivo geralmente é
um computador independente (standalone), um roteador ou um firewall em uma cai xa (dispositivo de hardware proprietário). A unidade serve como o único ponto de en trada para seu site e avalia cada solicitação de conexão quando é recebida. Somente solicitações de conexão de hosts autorizados são processadas; as demais solicitações de conexão são descartadas”.
Os firewalls podem oferecer diversos tipos de proteção, listados na seqüência:
•
Bloquear tráfego não desejado;
•
Esconder sistemas vulneráveis;
•
Registrar tráfego dê e para uma rede privada;
•
Ocultar, para outras redes, dados como a topologia da rede, tipos de
dispositivos de rede, nomes dos sistemas e usuários internos; e
•
Prover autenticação mais robusta do que muitas outras aplicações.
45
Os sistemas firewall podem ser classificados em: filtro de pacotes, gateway de aplicação (proxy firewall), stateful firewall (firewall de estado da sessão), e
firewall de aplicação. Esta classificação é refletida nas próximas subseções.
4.2.1 Filtros de Pacotes
Estes sistemas analisam individualmente os pacotes à medida que estes
são transmitidos, verificando as informações das camadas de enlace (camada 2 do
modelo ISO/OSI) e de rede (camada 3 do modelo ISO/OSI). As regras podem ser
formadas indicando os endereços de rede (de origem e/ou destino) e as portas TCP
ou UDP envolvidas na conexão. A principal desvantagem desse tipo de tecnologia
reside na falta de controle de estado do pacote, o que permite que agentes maliciosos possam produzir pacotes simulados (com endereço IP falsificado, técnica conhecida como IP Spoofing), fora de contexto ou ainda para serem injetados em uma
sessão válida. Esta tecnologia foi amplamente utilizada nos equipamentos de 1 a Geração (incluindo roteadores), não realizando nenhum tipo de decodificação do protocolo ou análise na camada de aplicação.
4.2.2 Gateways de Aplicação ou Proxy Firewall
Os conceitos de Gateways de aplicação (application-level gateways) e
"bastion hosts" foram introduzidos por Marcus Ranum em 1995 [15]. O proxy6 firewall é um servidor que recebe o fluxo de comunicação, tratando as requisições
como se fossem partes de uma aplicação e originando um novo pedido sob a res6
Proxy é um tipo de servidor que atende a requisições repassando os dados a outros servidores (Ci-
tar referência, caso a definição não seja sua)
46
ponsabilidade do mesmo firewall (non-transparent proxy) para o servidor de destino
como mostra a Figura 3 [1] (Kurose ed.3 pg 545).
Figura 3: Firewall composto de um gateway de aplicação.
A resposta para o pedido é recebida pelo Firewall e analisada antes de ser
entregue para o solicitante original. Os gateways de aplicações conectam as redes
corporativas à Internet através de estações seguras (chamadas de bastion hosts)
que executam aplicativos especializados para tratar e filtrar os dados (os proxy firewalls). Estes gateways, ao receberem as requisições de acesso dos usuários e realizarem uma segunda conexão externa para receber estes dados, acabam por esconder a identidade dos usuários nestas requisições externas, oferecendo, assim,
uma proteção adicional contra a ação dos crackers.
Para cada novo serviço que aparece na Internet, o fabricante deve desenvolver o seu correspondente agente de proxy. Isto pode demorar meses, tornando o
cliente vulnerável enquanto o fabricante não liberta o agente específico. A instalação, manutenção e atualização dos agentes do proxy requerem serviços especializados e podem ser bastante complexos e custosos.
Os proxies introduzem perda de desempenho na rede, já que as mensagens devem ser processadas pelo agente do proxy. Por exemplo, o serviço FTP
47
manda um pedido ao agente do proxy para FTP, que por sua vez interpreta a solicitação e fala com o servidor FTP externo para completar o pedido.
Um alento para estas questões, que envolvem complexidade, maior lentidão e custo, é que a tecnologia atual permite que o custo de implementação seja
bastante reduzido ao utilizar CPUs de alto desempenho e baixo custo, bem como
sistemas operacionais abertos (Linux), porém, exige-se manutenção específica para
assegurar que seja mantido nível de segurança adequado (ex: aplicação de correções e configuração adequada dos servidores).
4.2.3 Stateful Firewall (Firewall de Estado de Sessão)
Os firewalls de estado foram introduzidos originalmente em 1991 pela empresa DEC com o produto SEAL, porém este não foi além 1994, já que os israelenses da Checkpoint avançaram nesta tecnologia e tomaram este mercado. Isto foi feito através do produto Firewall-1, que utilizava a tecnologia patenteada chamada de
“Stateful inspection”, com a capacidade para identificar o protocolo dos pacotes em
trânsito e "prever" respostas legítimas. Na verdade, o firewall guardava o estado de
todas as últimas transações efetuadas e inspecionava o tráfego para evitar pacotes
ilegítimos.
Posteriormente, surgiram vários aperfeiçoamentos, que introduziram o
Deep Packet Inspection, também conhecido como tecnologia SMLI (Stateful MultiLayer Inspection), ou seja, a Inspeção de Total de todas as Camadas do modelo
ISO/OSI (7 camadas). Esta tecnologia permitiu que o firewall decodificasse o pacote,
ou seja, interpretando o tráfego sob a perspectiva do cliente/servidor, ou seja, do
protocolo propriamente dito e incluiu técnicas específicas de identificação de ata ques.
Com a tecnologia SMLI/Deep Packet Inspection o firewall utiliza mecanismos otimizados de verificação de tráfego para analisá-los sob a perspectiva da tabe-
48
la de estado de conexões legítimas. Simultaneamente, os pacotes também vão sendo comparados a padrões legítimos de tráfego, de forma a identificar possíveis ataques ou anomalias. Esta combinação permite que novos padrões de tráfego sejam
entendidos como serviços e possam ser adicionados às regras de validação em poucos minutos.
Supostamente, a manutenção e instalação tornaram-se mais eficientes
(em termos de custo e tempo de execução), pois a solução se concentra no modelo
conceitual do TCP/IP. Porém, com o avançar da tecnologia e dos padrões de tráfego
da Internet, projetos complexos de firewall para grandes redes de serviço podem ser
tão custosos e demorados quanto em uma implementação tradicional.
4.2.4 Firewall de Aplicação
Com a explosão do comércio eletrônico percebeu-se que mesmo a última
tecnologia em filtragem de pacotes TCP/IP poderia não ser tão efetiva quanto se esperava. Com todos os investimentos despendidos em tecnologia de stateful firewalls,
os ataques continuavam a prosperar de forma avassaladora. Somente a filtragem
dos pacotes de rede não era mais suficiente. Os ataques passaram a se concentrar
nas características (e vulnerabilidades) específicas de cada aplicação. Percebeu-se
então que havia a necessidade de desenvolver um novo método que pudesse analisar as particularidades de cada protocolo e tomar decisões que pudessem evitar ataques maliciosos contra uma rede.
Apesar do projeto original do TIS Firewall, concebido por Marcos Ranum,
já estar orientado para a verificação dos métodos de protocolos de comunicação, o
conceito atual de Firewall de Aplicação nasceu principalmente devido ao fato de exigir-se a concentração de esforços de análise em protocolos específicos, tais como
dos servidores Web e suas conexões HTTP. A primeira implementação comercial
nasceu em 2000 com a empresa israelense Sanctum, porém o conceito ainda não
havia sido amplamente difundido para justificar uma adoção prática.
49
Se comparado com o modelo tradicional de Firewall, orientado as redes de
dados, o firewall de aplicação é freqüentemente instalado junto à plataforma da aplicação, atuando como uma espécie de procurador para o acesso ao servidor (proxy).
Alguns projetos de código-aberto, como por exemplo o ModSecurity [2]
para servidores Apache, tem por objetivo facilitar a disseminação do conceito para
as aplicações Web. Esta estratégia apresenta as seguintes vantagens em relação as
outros tipos de tecnologia:
•
Pode suprir a deficiência dos modelos tradicionais e mapear todas
as transações específicas que acontecem na camada da aplicação Web proprietária.
•
Por ser um terminador do tráfego SSL, este pode avaliar transações
criptografadas (HTTPS), que originalmente passariam despercebidas ou não
analisadas por firewalls tradicionais de rede.
E suas principais desvantagens em relação a outros tipos são:
•
Pelo fato de embutir uma grande capacidade de avaliação técnica dos métodos disponibilizados por uma aplicação (Web), este tipo de firewall exige um
grande poder computacional -- geralmente traduzido para um grande custo de
investimento.
•
Ao interceptar aplicações Web e suas interações com o cliente (Browser),
pode acabar por provocar alguma incompatibilidade no padrão de transações
(fato que exigirá, sem sombra de dúvidas, um profundo trabalho de avaliação
por parte dos implementadores).
Alguns especialistas ou engenheiros de tecnologia refutam a tecnologia
baseando-se nas seguintes argumentações:
50
•
A tecnologia introduz mais um ponto de falha sem adicionar signifi-
cativos avanços na tecnologia de proteção.
•
Firewall, IDS (Intrusion Detection System ou sistema de detecção
de intrusos) e IPS (Intrusion Prevention System ou sistema de prevenção de
intrusos) já seriam suficientes para cobrir grande parte dos riscos associados
à aplicação Web.
•
A tecnologia ainda precisa amadurecer o suficiente para ser consi-
derada como um componente indispensável de uma arquitetura de segurança.
Certamente esses argumentos serão bastante discutidos ao longo dos
próximos anos como um imperativo para determinar a sobrevivência desta tecnologia no futuro.
4.3
ANTIVÍRUS
Antivírus é um programa ou software especificamente desenvolvido para
detectar, anular e eliminar de um computador vírus e outros tipos de códigos maliciosos.
Um antivírus realiza basicamente três funções: detectar, identificar e remover os vírus. A detecção é feita de maneira proativa, ativa e reativa, ou seja, um ví rus é detectado antes de ser executado, durante a execução e após a execução,
respectivamente.
Existem vários produtos com esse intuito no mercado, a diferença entre
eles está no método de detecção, no custo e nas funcionalidades.
51
Basicamente existem três métodos de detecção, apresentados na Tabela:
Tabela 2: Métodos de detecção de vírus
Detecção es- examina os programas executáveis sem executá-los. Podem ser
tática
usados para detectar código infectado antes de este ser introduzido
no sistema;
Detecção por para se propagar, um vírus deve infectar outros programas que serinterceptação virão de hospedeiros. Alguns sistemas de detecção servem para interceptar a execução destes tipos de atividades. As ferramentas,
que fazem este tipo de detecção, interrompem a execução de programas infectados assim que o vírus tenta se replicar ou se tornar
residente;
Detecção de todos os vírus causam modificação de executáveis em seu processo
modificação
de replicação. Como conseqüência, a presença de vírus pode ser
detectada através de busca de modificações não esperadas em arquivos executáveis. Este processo também é chamado de teste de
integridade. Cabe ressaltar que este tipo de detecção só funciona
após o executável infectado ter sido introduzido no sistema e o vírus
já tiver sido replicado.
Como foi introduzido anteriormente, existem vários antivírus no mercado,
mas a principal medida do usuário é manter sempre o seu antivírus atualizado, pois
é importante para a segurança de nossas informações que a base de vírus seja incrementada com novas descobertas de novos vírus ou de novas variantes. Novos
ataques ocorrem todos os dias, mas com o antivírus atualizado é provável que você
consiga se defender destes ataques.
52
4.4
ASSINATURA DIGITAL
As transações eletrônicas estão cada vez mais sendo utilizadas e assumindo um papel significativo dentro de muitas empresas. Estas empresas, que oferecem serviços online e comércio eletrônico, precisam de mecanismos que aumentem a confidencialidade das transações eletrônicas.
Para Kurose [1], (2004, p530) “Você assina cheques, comprovantes de operação de cartões de crédito, documentos legais e
cartas. Sua assinatura atesta o fato de que você (e não outra
pessoa) conhece o conteúdo do documento e/ou concorda com
ele. No mundo digital, freqüentemente se quer indicar o dono
ou o criador de um documento ou deixar claro que alguém concorda com o conteúdo de um documento. A assinatura digital é
uma técnica criptográfica usada para cumprir essas finalidades
no mundo digital”.
Da mesma forma que nas assinaturas por escrito, as assinaturas digitais
devem ser verificáveis, não falsificáveis e incontestáveis. Isto significa que deve ser
possível provar que o documento assinado por uma pessoa foi assinado por ela
mesma e somente aquele indivíduo poderia ter assinado o documento. Isso se consegue facilmente através de técnicas de criptografia de chaves públicas e privadas,
conforme descrito na seção 4.1.2.
Um exemplo de utilização de assinatura digital: Um comprador interessado
em algum produto precisaria obter uma chave pública junto a uma CA, certification
authority, que é uma entidade pública ou mesmo privada, que estabelece previamente a identidade do futuro portador do certificado digital, por meio dos documentos necessários, e emite esse certificado. O processo de obter uma chave pública
junto a uma CA serve para gerar um par de chaves pública-privada. O comprador
envia a chave pública com uma informação válida sobre a organização para uma RA
(Registration Authority) e solicita um certificado. A RA verifica a identidade do comprador baseado na informação fornecida (real) e garante a identidade do comprador
53
para a CA, que poderia então emitir o certificado. Uma vez certificado, o comprador
pode assinar eletronicamente o seu pedido de compras. O vendedor que está recebendo o pedido de compras pode obter o certificado do comprador e a lista de revo gação de certificados para a CA que emitiu o certificado do comprador. Verificando a
validade do certificado, o vendedor assegura-se que recebeu uma chave pública válida para o comprador; verificando a assinatura no pedido de compra; desta forma o
vendedor assegura-se que o pedido não foi alterado após a emissão do mesmo pelo
comprador. Uma vez que as validades do certificado e da assinatura estão estabelecidas, o vendedor pode despachar o produto solicitado pelo comprador com a certe za de que o comprador realmente pediu tal produto.
54
5 “BOAS PRÁTICAS” EM RELAÇÃO À SEGURANÇA DA
INFORMAÇÃO
Neste capítulo abordaremos um conjunto de “boas práticas” para a segurança da informação. Isso significa utilizar uma política de segurança e um conjunto
de ações simples que qualquer usuário pode efetuar tomando alguns cuidados e
com um pouco de orientação para alcançar um certo nível de segurança nas informações.
5.1
POLÍTICA DE SEGURANÇA DE INFORMAÇÃO
Numa empresa deve se adotar uma política de segurança. Esta deve funcionar como um instrumento que define como os funcionários, bem como todos os
colaboradores, devem agir à frente de um computador.
Uma política de segurança não define procedimentos específicos de manipulação e proteção da informação, mas atribui direitos e responsabilidade as pessoas (usuários, administradores de redes e sistemas, funcionários, gerentes, etc...),
ou seja, cada pessoa vai saber suas expectativas e suas atribuições em relação à
segurança dos recursos computacionais com os quais trabalham.
Uma política de segurança deve cobrir os seguintes aspectos preliminares: a abrangência e escopo de atuação da política de segurança, as normas e os
regulamentos (aos quais a política está subordinada) e quem têm autoridade para
sancionar, implementar e fiscalizar o cumprimento da política de segurança.
55
Esta política também deve definir como vão ser os meios de distribuição
da política, com que freqüência essa política é revisada, o uso da política de senhas,
os requisitos para a formação das senhas, a validade das senhas, o reuso da senha,
as senhas default, e a utilização de contas de acesso. A utilização de softwares e informações, incluindo questões de instalação, licenciamento e copyright, a proteção e
o uso das informações, o uso aceitável de recursos como e-mail e Internet, direito à
privacidade e condições nas quais esse direito pode ser violado pelo provedor dos
recursos (a organização). Os direitos e responsabilidades do provedor de recursos,
tais como: backup, uso de antivírus, diretrizes para configuração e instalação de
equipamentos na rede, autoridade para conceder e revogar autorizações de acesso,
conectar e desconectar sistemas e equipamentos de rede, alocar e registrar endereços e nomes de sistemas e equipamentos, monitoramento de sistemas e equipamentos de rede, normas de segurança física, ações previstas em caso de violação
da política, diretrizes para tratamento e resposta aos incidentes de segurança bem
como as penalidades cabíveis.
Cabe ressaltar que os parágrafos acima não são usados exaustivamente
nem tampouco se aplicam a todos os casos, pois cada organização possui um ambiente distinto e os seus próprios requisitos de segurança, portanto, deve desenvolver
uma política de segurança que se molde a essas peculiaridades. É recomendável
que às organizações que possuam uma rede wireless incorporem uma política específica para este tipo de rede.
5.2
FATORES DE SUCESSO PARA UMA POLÍTICA DE SEGURANÇA
Um dos fatores que contribuem para o sucesso de uma política de segurança é o apoio por parte da administração superior. Tal política deve apresentar algumas características: deve ser ampla, cobrindo todos os aspectos que envolvem a
segurança dos recursos computacionais e da informação sob responsabilidade da
organização; ser periodicamente atualizada, de forma a refletir as mudanças na organização; deve ter um indivíduo ou um grupo responsável por verificar se a política
56
esta sendo respeitada; e deve estar disponível em um local de fácil acesso aos usuários, como por exemplo, na Intranet7 (citar referência, caso a definição não seja
sua) da organização.
Todos os usuários da organização devem tomar conhecimento da política
e manifestar a sua concordância em submeter-se a ela, antes de obter acesso aos
recursos computacionais.
Dentre os itens acima, o apoio por parte da administração superior é essencial. Se a política de segurança não for encampada pela administração, ela rapidamente será deixada de lado pelos demais setores da organização. Além disso, é
importante que os seus membros dêem o exemplo no que diz respeito à observância
ao conteúdo da política de segurança.
5.3
FATORES DE INSUCESSO PARA UMA POLITICA DE SEGURANÇA
Os seguintes fatores de insucesso na aceitação de uma política de segurança e podem levá-la ao fracasso:
•
a política não deve ser demasiadamente detalhada ou restritiva (o
excesso de detalhes na política pode causar confusão ou dificuldades na sua implementação);
•
não devem ser abertas exceções para indivíduos ou grupos; e
•
a política não deve estar atrelada a softwares e/ou hardwares específicos.
Neste capítulo introduzimos as políticas de segurança, ou seja, o que é
essencial para uma empresa implementar uma boa política de segurança e para que
se possa alcançar os resultados ideais para segurança da informação.
7
Intranet é uma rede de computadores privada que assenta sobre a suíte de protocolos da internet
57
58
6 UMA VISÃO DE FUTURO
Neste capítulo abordamos a evolução da segurança da informação e
quais as previsões para este assunto daqui a alguns anos.
Um dos caminhos da segurança da informação, defendido pela engenharia social, é que as pessoas representam o maior fator de vulnerabilidade da segurança da informação dentro das empresas, ou seja, disseminado uma cultura preventiva para evitar riscos não supõe uma paranóia coletiva, mas requerer atenção
dos empregados.
Outro caminho da segurança da informação, talvez, seja de se tornar uma
commodity. Dependendo do ponto de vista, talvez já o seja. Se analisarmos a segurança da informação pela perspectiva tecnológica, certamente hoje já existem ferramentas automatizadas e diversas empresas prestadoras de serviços que terceirizam
a configuração e monitoração de servidores e firewalls. Porém, se olharmos pela
perspectiva do gerenciamento de identidades digitais de usuários de sistemas, análi se de riscos de terceirização de processos de negócios e TI, estratégia e governança de segurança para a empresa e relacionamento com parceiros, percebemos que
ainda existe a necessidade de especialização e capacitação de recursos para se obter resultados adequados.
Um possível reflexo desta evolução pode ser uma aproximação das áreas
de segurança de TI das empresas com as disciplinas de análise de risco, afastandoa gradativamente da operação tradicional de tecnologia.
59
Para os próximos anos esperamos que, além dos contínuos investimentos
na segurança da Web, as empresas também estarão mais focadas nas possibilidades de expandir a utilização de seus sistemas a partir de dispositivos móveis de tele fonia celular, pois é um mercado que tende a se expandir muito. O amadurecimento
da tecnologia, a queda do preço dos aparelhos e a disseminação da utilização pela
população, tornam quase obrigatória a disponibilidade de um meio de relacionamento entre empresas e clientes por este canal. Porém, não devemos nos ater apenas
às transações convencionais de consulta a extratos, pagamento de contas recorrentes ou aquisição de produtos de baixo valor como músicas e créditos de jogos eletrô nicos. Diferentes formas de relacionamento estão sendo testadas ao redor do mundo de acordo com as necessidades e regulamentações específicas. Estas novidades
podem representar grandes oportunidades ou riscos de continuidade para empresas
brasileiras, dependendo de seu modelo de negócio.
A associação entre operadoras de telefonia celular e bancos permite a criação das carteiras eletrônicas dentro dos telefones e abre novas oportunidades de
geração de receita para ambos. Estas carteiras permitem a utilização do dispositivo
como cartão de crédito, pagamento de serviços e produtos por meio de aproximação
(touch and pay) e compra de conteúdo digital (música e vídeo).
As perspectivas na área de segurança da informação para os próximos
anos são muito promissoras. Todas estas formas inovadoras de relacionamento com
clientes exigirão trabalho aprofundado das equipes técnicas nas questões de funcionalidade, disponibilidade e processos operacionais periféricos, além de avaliações
de vulnerabilidades e monitoração contínua contra fraudes. Cabe aos especialistas
discutir as oportunidades nas respectivas empresas com o objetivo de envolveremse desde a fase de concepção do projeto, agregando valor às áreas de negócios e
minimizando riscos e perdas financeiras.
60
7 CONCLUSÕES E TRABALHOS FUTUROS
Com o desenvolvimento deste trabalho, pude perceber que é de suma importância que todos entendam que as ameaças são reais aos sistemas de tecnolo gia da informação. Por isso devemos projetar e implementar políticas de segurança
que nos protejam destas ameaças e termos como base um planejamento voltado a
esses objetivos. É sabido que não existe um ambiente 100% seguro, mas sistemas
muito fáceis de serem invadidos são inaceitáveis no mercado atual.
Ficou claro que as técnicas para proteger as informações de sua empresa
devem ser aplicadas, sejam através do investimento no treinamento de funcionários
ou em tecnologias de segurança (e vimos que as duas têm de caminhar juntas, pois
não adianta só investir na segurança e não orientar os funcionários). Estas estratégias e técnicas devem fazer parte do dia a dia das corporações, pois a informação re presenta um dos bens mais importantes de uma empresa e não pode correr riscos
desnecessários.
O objetivo do desenvolvimento deste trabalho foi de aprofundar meus conhecimentos nesta área, que me interessou bastante. Desta forma, pretendo cada
vez mais, adquirir novos conhecimentos através de cursos na área e, com o avanço
dos meus estudos, pretendo fazer um mestrado.
61
REFERÊNCIAS BIBLIOGRÁFICAS
[1] James F. Kurose, Keith W. Ross. “Redes de computadores e a Internet”, Curitiba,
PR, Humana Editorial, 2003, Ano 4, Nº 44, Maio de 2003.
[2] STRAUCH, Suzana B. “Aspectos de Segurança no protocolo IP”, Porto Alegre:
PPGC da UFRG, 1999.
[3] MCCLURE, S; SCAMBRAY, J; KURTZ, G. “Hackers Expostos – Segredos e soluções para segurança de redes”, São Paulo: MAKRON Books, 2000.
[4] Anônimo, “Segurança Máxima”: o guia de um hacker para proteger seu site na Internet e sua rede”, Rio de Janeiro: Campus, 2000.
[5] BEAL, A. “Segurança de tecnologia da informação” - BS7799. Disponível em
http://www.securenet.com.br/artigo.php?artigo=100 Acesso em : 30 Maio. 2008.
[6] O’Brien, J. “Sistemas de Informação – as decisões gerenciais na era da Internet.”
Ed. 9 - São Paulo: saraiva, 2001.
[7] Fyodor, NMAP (Network Mapper), www.insecure.org/nmap, disponível em Abril
de 2008.
[8] Associação Brasileira de Normas Técnicas – ABNT.NBR ISSO/IEC 17799: Tecnologia da Informação – código de prática para a gestão da segurança da informação, 2001.
62
[9] http://imaster.uol.com.br/artigo/5096/direito/...
...o_que_e_lei_sarbanes-oxley_e_quais_os_impactos_na_ti/ acessado em 12 de junho de 2008.
[10] NORTHCUT, S; NOVAK, J; MCLACHLAN, D. Segurança e Prevenção em Redes: São Paulo: Berkeley Brasil, 2001.
[11] http://www.psionic.com acessado em 21/10/2008
[12] http://.pop-rs.rnp.br/~berthold/work/satan.html acessado em 21/10/2008
[13] http://ultradownloads.com.br/download/Nmap/ acessado em 23/10/2008
[14] http://www.sinerz.com/genius acessado em 12/10/2002
[15] http:// br-linux.org/artigos/dicas_bastion.htm acessado em 31/10/2008
Download

2 segurança da informação - Instituto de Computação