UNIVERSIDADE FEDERAL DE JUIZ DE FORA
INSTITUTO DE CIÊNCIAS EXATAS
DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO
CONSOLIDAÇÃO DAS PRÁTICAS DE MONITORAMENTO E
OTIMIZAÇÃO DE PROJETOS DE SERVIDORES PARA PERMITIR
O CRESCIMENTO INTELIGENTE DAS ORGANIZAÇÕES A BAIXOS
CUSTOS
Fábio Monteiro Soares
Rodrigo Fernandes Matos
JUIZ DE FORA
SETEMBRO, 2013
CONSOLIDAÇÃO DAS PRÁTICAS DE MONITORAMENTO E OTIMIZAÇÃO DE
PROJETOS DE SERVIDORES PARA PERMITIR O CRESCIMENTO
INTELIGENTE DAS ORGANIZAÇÕES A BAIXOS CUSTOS
FÁBIO MONTEIRO SOARES
RODRIGO FERNANDES MATOS
Universidade Federal de Juiz de Fora
Instituto de Ciências Exatas
Departamento de Ciência da Computação
Pós Graduação em Redes de Computadores
Orientador: Prof. Eduardo Barrére
JUIZ DE FORA
SETEMBRO, 2013
CONSOLIDAÇÃO DAS PRÁTICAS DE MONITORAMENTO E OTIMIZAÇÃO DE
PROJETOS DE SERVIDORES PARA PERMITIR O CRESCIMENTO
INTELIGENTE DAS ORGANIZAÇÕES A BAIXOS CUSTOS
Fábio Monteiro Soares
Rodrigo Fernandes Matos
MONOGRAFIA SUBMETIDA AO CORPO DOCENTE DO INSTITUTO DE
CIÊNCIAS EXATAS DA UNIVERSIDADE FEDERAL DE JUIZ DE FORA COMO
PARTE INTEGRANTE DOS REQUISITOS NECESSÁRIOS PARA OBTENÇÃO
DO TÍTULO DE ESPECIALISTA EM REDES DE COMPUTADORES.
Aprovada por:
___________________________________________
Professor Eduardo Barrére, Doutor
Engenharia de Sistemas e Computação
JUIZ DE FORA
SETEMBRO, 2013
em
AGRADECIMENTOS
Ao nosso orientador, professor Eduardo Barrére, pelo acompanhamento pontual do
desenvolvimento deste tema.
Aos professores do curso, que nos deram a base para argumentarmos tecnicamente a
solução.
Ao coordenador, que nos permitiu o contato com outros profissionais e organizou o
programa de aulas de acordo com as necessidades principais do mercado.
À empresa, que nos permitiu testar a solução defendida neste trabalho.
SUMÁRIO
1 INTRODUÇÃO ............................................................................... 12
2 CONCEITOS .................................................................................. 14
2.1 COMPUTAÇÃO EM NUVEM ...................................................................... 14
2.1.1 Aspectos da Segurança da Informação ...........................................................21
2.1.2 Aspectos da Segurança Física do Ambiente ....................................................24
2.1.3 SLA (Service Level Agreement ou Acordo de Nível de Serviço) ......................25
2.1.4 TCO (Total Cost of Ownership ou Custo Total de Propriedade) .......................26
2.2 GERÊNCIA DE REDES .............................................................................. 27
2.2.1 O Protocolo SNMP ...........................................................................................29
2.2.2 Os Agentes e os Gerentes ...............................................................................30
2.2.3 Soluções de Mercado: Freeware x Paga .........................................................31
2.4 VIRTUALIZAÇÃO DE SERVIDORES ......................................................... 33
2.4.2 Suíte VMWare .................................................................................................36
2.4.2.1 VCenter .....................................................................................................36
2.4.2.2 VSphere ....................................................................................................36
2.4.2.3 VConverter ................................................................................................37
2.5 MONITORAMENTO REMOTO ................................................................... 38
2.5.1 SNMP: Monitoramento de Variáveis Computacionais ......................................38
2.5.2 Arduíno: Monitoramento de Variáveis Analógicas ............................................43
2.5.3 Controle de Variáveis do Ambiente da Sala de Servidores ..............................43
2.5.4 Telemetria e SMS como Contingência da Solução ..........................................44
2.6 GESTÃO DE TI NAS EMPRESAS .............................................................. 45
2.6.1 Empresas de Pequeno e Médio Porte..............................................................45
2.6.2 Visão da TI como área de negócio: Custo ou Investimento? ............................47
2.6.3 Planejamento Orçamentário da Solução ..........................................................48
2.6.4 Justificativas do Investimento Proposto ...........................................................48
2.6.4.1 TI Verde: responsabilidade ambiental .......................................................49
2.6.4.2 Economia do espaço físico ........................................................................50
2.6.4.3 Expansão sem aumento do quadro funcional ............................................51
2.6.5 Proteção ao Investimento ................................................................................51
2.6.5.1 Normas ISO (22301 e 27000) ....................................................................51
2.6.5.2 Backup ......................................................................................................53
3 OS CENÁRIOS .............................................................................. 56
3.1 PRIMEIRO - ESTRUTURA INTERNA COM SERVIDORES FÍSICOS
INDEPENDENTES............................................................................................ 56
3.2 SEGUNDO - ESTRUTURA EXTERNA COM SERVIDORES NA NUVEM . 62
3.3 TERCEIRO - ESTRUTURA INTERNA COM SERVIDORES
VIRTUALIZADOS.............................................................................................. 72
4 AS MELHORES PRÁTICAS .......................................................... 75
4.1 PROJETO DA SALA DE SERVIDORES ..................................................... 75
4.1.1 Coleta e Análise das Informações do Ambiente ...............................................75
4.1.2 Definição dos Sensores de Ambiente ..............................................................78
4.1.3 Instalação, Configuração e Testes de Monitoramento......................................78
4.2 PROJETO DE VIRTUALIZAÇÃO DE SERVIDORES ................................. 79
4.2.1 Sizing da Infraestrutura para Virtualização .......................................................79
4.2.2 Escolha da versão do VMWare ........................................................................83
4.2.3 Conversão de Servidores Físicos para Virtuais ................................................83
4.2.4 Inicialização e Monitoramento do Novo Ambiente ............................................83
4.3 DOCUMENTAÇÃO ..................................................................................... 84
4.3.1 Documentação dos Riscos ..............................................................................84
4.3.2 Definição das Limitações do Novo Cenário ......................................................85
5 CONSIDERAÇÕES FINAIS ........................................................... 86
6 REFERÊNCIAS BIBLIOGRÁFICAS .............................................. 87
LISTA DE TABELAS
Tabela 1 – Comparativo das Características PRTG x Zabbix (FINDTHEBEST, 2013) .....32
Tabela 2 – Demonstrativo dos Critérios de Classificação de MPME´s (KASSAI, 1997) ...46
Tabela 3 – Configuração do Servidor Firewall (AUTORES, 2013) ...................................57
Tabela 4 – Configuração do Servidor de Arquivo (AUTORES, 2013) ...............................57
Tabela 5 – Configuração do Servidor de Banco de Dados (AUTORES, 2013) ................58
Tabela 6 – Configuração do Servidor de Backup (AUTORES, 2013) ...............................58
Tabela 7 – Configuração do Servidor de Aplicações (AUTORES, 2013)..........................59
Tabela 8 – Configuração do Servidor de Business Intelligence (AUTORES, 2013) .........59
Tabela 9 – Configuração do de Helpdesk / Tarifador / Impressão (AUTORES, 2013)......60
Tabela 10 – Configuração do Servidor de VPN Cemig (AUTORES, 2013) ......................60
Tabela 11 – Instâncias Reservadas de Utilização Média (AWS, 2013) ............................62
Tabela 12 – Configuração dos Servidores (GONTIJO, 2013) ..........................................80
Tabela 13 – Configuração dos Switches (GONTIJO, 2013) .............................................81
Tabela 14 – Configuração dos Storage (GONTIJO, 2013) ...............................................81
Tabela 15 – Configuração do Sistema de Virtualização (GONTIJO, 2013) ......................83
LISTA DE GRÁFICOS
Gráfico 1 – Impacto da Computação em Nuvem nos Negócios (KPMG, 2011) ................17
Gráfico 2 – Principais Desafios e Preocupações em Adotar a Nuvem (KPMG, 2011) ......22
Gráfico 3 – Orçamento para Nuvem como Despesas Anuais de TI (KPMG, 2011) ..........27
LISTA DE FIGURAS
Figura 1 – Computação em Nuvem (WIKIPEDIA, 2013) ..................................................15
Figura 2 – Problemas do Modelo Tradicional (RAMOS, 2013) .........................................19
Figura 3 – Escalonamento de Recursos em Nuvem (RAMOS, 2013) ..............................19
Figura 4 – Arquitetura Típica do Gerenciamento de Redes (MENEZES; SILVA, 1998) ...31
Figura 5 – Microsoft Cluster Server: CPU idle time (ZABBIX, 2013) ................................39
Figura 6 – PostgreSQL: Network Utilization (Ethernet) (ZABBIX, 2013) ...........................40
Figura 7 – Apache e MySQL (ZABBIX, 2013) ..................................................................41
Figura 8 – Dashboard (ZABBIX, 2013) ............................................................................42
Figura 9 – Mapeamento da Estrutura de Servidores (AUTORES, 2013) ..........................61
Figura 10 – Acessando Endereço AWS para Cadastro (AWS, 2013) ..............................63
Figura 11 – Inserindo E-mail para Cadastro na AWS (AWS, 2013)..................................63
Figura 12 – Inserindo Nome e Senha para Cadastro na AWS (AWS, 2013) ....................64
Figura 13 – Inserindo Dados do Cartão de Crédito (AWS, 2013) .....................................64
Figura 14 – Inserindo a Senha de uma Conta Criada (AWS, 2013) .................................64
Figura 15 – Escolha da Região da Instância (AWS, 2013) ...............................................65
Figura 16 – Instâncias em Execução (AWS, 2013) ..........................................................65
Figura 17 – Criando uma Instância – Launch Instance (AWS, 2013) ...............................65
Figura 18 – Criando uma Instância – Classic Wizard (AWS, 2013) ..................................66
Figura 19 – Sistema Operacional instalado na Nova Instância (AWS, 2013) ...................66
Figura 20 – Seleção da Zona Disponível (AWS, 2013) ....................................................66
Figura 21 – Seleção Kernel ID e Tamanho do Disco (AWS, 2013) ..................................67
Figura 22 – Edição para Alterar o Tamanho do Disco (AWS, 2013).................................67
Figura 23 – Geração do Par de Chaves para Acesso SSH (AWS, 2013) .........................68
Figura 24 – Criação de um Novo Grupo de Segurança (AWS, 2013) ..............................68
Figura 25 - ID da Instância Criada (AWS, 2013) ..............................................................68
Figura 26 – Iniciando a Instância (AWS, 2013) ................................................................68
Figura 27 – Visualização do DNS para Acesso Remoto (AWS, 2013) .............................69
Figura 28 – Nomeação das Máquinas Criadas (AWS, 2013) ...........................................69
Figura 29 – Importando da Chave PEM (AWS, 2013) ......................................................69
Figura 30 – Selecionando o Arquivo .PEM para Conversão (AWS, 2013) .......................70
Figura 31 – Salvando a Chave em Formato .PPK (AWS, 2013) ......................................70
Figura 32 – Nome Máquina ou IP (AWS, 2013) ...............................................................70
Figura 33 – Selecionando Chave Privada para Autenticação .PPK (AWS, 2013) ............70
Figura 34 – Confirmação de Mensagem de Segurança (AWS, 2013) ..............................71
Figura 35 – Infraestrutura VMWare (AUTORES, 2013) ....................................................74
Figura 36 – RAID 10 (WIKIPEDIA, 2013) .........................................................................82
RESUMO
Com medidas simples e eficazes, que envolvem a consolidação ferramentas
de monitoramento remoto e a otimização das estruturas internas de TI, a gestão do
ambiente e a resposta a incidentes se tornam mais rápidas e os investimentos
perfeitamente justificáveis. A ideia é criar um modelo que possa ser aplicado aos mais
diversos tipos de situação e que possam apoiar os gestores nas tomadas de decisão.
Palavras-Chave: Monitoramento remoto, SNMP, virtualização, cloud computing, storage.
12
1 INTRODUÇÃO
Os serviços oferecidos pela TI de pequenas e médias empresas aumentaram em
complexidade, disponibilidade, tempo de resposta, tolerância a falhas e números de
usuários. Esta demanda elevada por recursos não tolera infraestrutura obsoleta e sem a
possibilidade de upgrade, pois componentes fora de linha são mais caros, demorados e
de difícil substituição. Este estudo visa não só apoiar o gestor nas novas aquisições, mas
permitir que a demanda cresça proporcionalmente em trinta e seis meses, tempo médio
adotado nos processos anuais de planejamento orçamentário (budget e forecast), de
acordo com as melhores práticas observadas em empresas privadas (SOUZA, 2012).
Economizar energia demonstra o comprometimento da organização com o meio
ambiente, a redução do espaço físico organiza melhor a sala de servidores, a automação
e o monitoramento remoto dão mais segurança ao gestor e reduz o tempo de resposta a
incidentes de risco, a virtualização garante a disponibilidade, simplifica os processos e
aprimora a tolerância a falhas, permitindo que o gestor assuma outras tarefas sem a
necessidade do aumento do quadro de funcionários. Segundo Menascé (2005) algumas
das vantagens da virtualização podem ser definidas:

Segurança: usando máquinas virtuais, pode ser definido qual é o melhor ambiente
para executar cada tarefa, com diferentes ferramentas e requerimentos de
segurança e o sistema operacional mais adequado para cada serviço. Além disso,
cada máquina virtual é isolada das demais. Usando uma máquina virtual para
cada serviço, a vulnerabilidade de um não prejudica os demais.

Confiança e disponibilidade: a falha de um software não impede o funcionamento
dos demais, devido ao isolamento entre as máquinas virtuais.

Custo: a redução de custos é possível de ser alcançada com a consolidação de
pequenos servidores em outros mais poderosos. Essa redução pode variar de
29% a 64%, de acordo com estudos da IBM. Nisso está incluída a redução do
consumo de energia, como por exemplo, a substituição de dez ou mais servidores
físicos por dois virtualizados. A reutilização das máquinas substituídas nas filiais
da empresa, seja para o compartilhamento de arquivos ou firewall de rede, é
perfeitamente aceitável para um número menor de usuários, sem a necessidade
de mais investimentos.

Adaptação às diferentes cargas de trabalho: variações na carga de trabalho
podem ser tratadas facilmente. Ferramentas autônomas podem realocar recursos
de uma máquina virtual para a outra, garantindo o desempenho em situações
críticas.
13

Balanceamento de carga: toda máquina virtual está encapsulada no núcleo do
sistema virtualizado. Sendo assim é fácil trocar a máquina virtual de plataforma, a
fim de aumentar o seu desempenho.

Suporte a aplicações legadas: quando uma empresa decide migrar para um novo
Sistema Operacional, é possível manter o antigo sendo executado em uma
máquina virtual, o que reduz os custos com a migração. Vale ainda lembrar que a
virtualização pode ser útil para aplicações que são executadas em hardware
legado, que está sujeito a falhas e tem altos custos de manutenção. Sendo assim,
é possível executar essas aplicações em hardwares mais novos, com custo de
manutenção mais baixo e maior confiabilidade.
O monitoramento remoto é uma garantia a mais que oferecemos neste trabalho,
para dar autonomia ao gestor de TI com ferramentas de controle do ambiente, reduzindo
a ocorrência de incidentes de alto risco para a organização. O uso de celulares no
processo de emissão de alertas e recebimento de comandos remotos demonstra a
preocupação na contingência dos serviços essenciais da organização.
O trabalho aqui apresentado está estruturado da seguinte forma: no Capítulo 1 é
descrita a introdução do trabalho; no Capítulo 2 são abordados os conceitos sobre
computação em nuvem, gerência de redes, programação de scripts, virtualização de
servidores, monitoramento remoto, gestão de TI e TI verde; no Capítulo 3 alguns cenários
são expostos a fim de comparação entre as diversas estruturas que podem ser utilizadas
pelas organizações; no Capítulo 4, as melhores práticas para a projeção das salas de
servidores, a virtualização de servidores e documentações geradas enfatizando a norma
ISO/IEC 22301:2013. Por fim, no Capítulo 5 têm-se as considerações finais do trabalho
de conclusão do curso relatando a sua importância para o crescimento inteligente das
organizações.
14
2 CONCEITOS
2.1 COMPUTAÇÃO EM NUVEM
Com a crescente busca de recursos de TI para o aumento de produtividade e,
consequentemente, de redução de seus custos, as organizações tem a necessidade de
buscar novas tecnologias que ajudam na sua produção e no relacionamento com os seus
clientes. Uma possibilidade que pode ajudar as empresas é a utilização da computação
em nuvem ou cloud computing que visa fornecer infraestrutura, plataforma e software
como serviço sob demanda, de acordo com que a empresa necessita. A implantação da
computação em nuvem é possível devido ao crescimento das tecnologias e do aumento
significativo das telecomunicações, tornando o acesso à Internet mais amplo e eficiente.
Diversos são as definições encontradas para a computação em nuvem. Abaixo listamos
algumas referências.
Taurion (2009, p.2) define computação em nuvem como sendo “um conjunto
de recursos como capacidade de processamento, armazenamento, conectividade,
plataformas, aplicações e serviços disponibilizados na Internet”.
Isaca (2009), afirma que:
[...] computação em nuvem é como um modelo para permitir o acesso à
rede sob demanda, de forma conveniente, a um conjunto compartilhado
de recursos de computação configuráveis (por exemplo, redes,
servidores, armazenamento, aplicativos e serviços) que podem ser
rapidamente fornecidos e lançados com o mínimo esforço de gestão ou
interação do prestador de serviço.
Chirigati (2009) defende que computação em nuvem
[...] é um novo modelo de computação emergente que move todos os
dados e as aplicações dos usuários para grandes centros de
armazenamento. Com isso, as aplicações e os sistemas de hardware
são distribuídos na forma de serviços baseados na Internet.
Para Infowester (2013), computação em nuvem é “à ideia de utilizarmos, em
qualquer lugar e independente de plataforma, as mais variadas aplicações por meio da
Internet com a mesma facilidade de tê-las instaladas em nossos próprios computadores”.
Analisando as definições mencionadas acima se abstrai que computação em
nuvem ou cloud computing é a migração de toda a estrutura de servidores de uma
organização para amplos data centers tornando o acesso as aplicações e informações de
qualquer lugar através de conexão com a Internet.
15
Na Figura 1 pode-se observar um exemplo simples da estrutura da
computação em nuvem. Nota-se que a nuvem (Internet) contém os modelos de serviços
de aplicação, plataforma e infraestrutura que são acessados em qualquer momento e a
qualquer lugar pelos dispositivos, tais; laptops, desktops, smartphones, tablets e servers.
Figura 1 – Computação em Nuvem (WIKIPEDIA, 2013)
A computação em nuvem vem crescendo e até 2015 o tamanho de
informações trafegadas em nuvem elevará em 12 vezes, passando de 130 exabytes
registrados em 2010 para 1.6 zetabytes. A taxa anual de crescimento é de 66%. No
Brasil, as pequenas e médias empresas deverão seguir essa tendência de crescimento já
que muitas não possuem setor de TI e muito dinheiro para investir na área
(COMPUTERWORLD, 2011).
Centralizar infraestrutura, plataforma e software na nuvem agrega diversos
benefícios para as organizações. Para isso, a computação em nuvem possui cinco
características fundamentais oferecendo serviços de qualidade para as empresas. MELL
e GRANCE (2011) destacam algumas características da computação em nuvem:

Self-service sob demanda: as organizações podem adquirir recursos
computacionais como armazenamento, processamento, memória em um
servidor de acordo com o que precisar sem a ajuda de interação humana;
16

Amplo acesso à rede: as organizações podem acessar os serviços na
nuvem por mecanismos padrões como celulares, tablets, notebooks,
desktops, pois os recursos estão disponíveis através da rede;

Pooling
de
recursos:
as
organizações
podem
adquirir
recursos
computacionais que são agrupados para atender diversos consumidores
de acordo com a sua demanda e esses recursos podem ser especificados
em um nível maior de abstração, por exemplo, o país, o estado ou o
datacenter;

Elasticidade
rápida:
as
organizações
podem
adquirir
recursos
computacionais rapidamente na quantidade que desejar, podendo ser
automaticamente, de acordo com a sua demanda;

Serviço
medido:
as
organizações
utilizam
somente
os
recursos
computacionais que necessitam, sendo assim, deve-se medir a utilização
dos serviços em nuvem de forma transparente, monitorando, controlando
e reportando o uso dos recursos utilizados, por exemplo, armazenamento,
processamento, largura de banda.
Segundo Taurion (2009, p.25):
[...] antes da sua adoção da tecnologia é necessário um planejamento
adequado, no qual as estratégias e políticas de compartilhamento de
recursos dentro da organização devem ser cuidadosamente desenhadas
e definidas.
De acordo com suas necessidades e poder de investimento as organizações
podem resolver em convergir para computação em nuvem verificando os quatro modelos
de implantação: nuvem privada, nuvem comunitária, nuvem pública e nuvem híbrida
(ISACA, 2009).
No modelo de implantação de nuvem privada todos os recursos de TI são
realizados pela organização e gerenciados pela mesma ou por terceiros podendo ficar no
seu próprio data center ou não. Nesse modelo o risco para a segurança é mínimo e o
dimensionamento e a facilidade dos serviços não são os mesmo que a nuvem pública.
Neste outro modelo de implantação de nuvem, a comunitária, todos os
recursos de TI são distribuídos por diversas organizações que tem os mesmos interesses
e gerenciados pela mesma ou por terceiros podendo ficar no seu próprio data center ou
não. O risco de segurança e o dimensionamento e a facilidade dos serviços são os
mesmos da nuvem privada, porém nesse modelo as informações são guardadas junto
com as informações dos seus concorrentes.
17
Em um modelo de implantação de nuvem pública todos os recursos de TI são
acessíveis a todos em geral ou a uma organização e essa nuvem pertence a uma
empresa que vende os seus serviços a diversos clientes. O risco de segurança, o
dimensionamento, a facilidade dos serviços, o armazenamento das informações em
conjunto são os mesmos da nuvem comunitária mais as informações podem ser
armazenadas em locais distintos e sua recuperação pode ser difícil.
Já o modelo de implantação de nuvem híbrida combina duas ou mais nuvens
(pública, privada ou comunitária) que estão juntas pelo padrão de uma tecnologia ou do
seu proprietário, que pode fazer portabilidade de informações e aplicativos sendo
entidades únicas e exclusivas. Por fazer junção de diversos modelos de implantação
agrega risco para a segurança, porém classificar e rotular as informações beneficia o
gerente de segurança porque associa informações ao tipo de nuvem correta.
No Gráfico 1 em pesquisa realizada pela KPMG (2011), indica as alternativas
que melhor descreve o impacto da computação em nuvem nos modelos de negócios das
organizações. Como se pode observar a redução de custos (50%) foi a principal razão
para implementação da computação em nuvem. Também destaca-se a mudança do
modelo de negócio (32%), a interação com clientes e fornecedores (39%), o
gerenciamento com maior transparência nas operações (32%), a aceleração de tempo
para mercado (35%) e outros (1%). Somente (12%) das respostas não terá nenhum
impacto no modelo de negócio.
Irá mudar fundamentalmente o modelo de
negócio
32%
Irá mudar a interação com clientes e
fornecedores
39%
Irá fornecer gerenciamento com maior
transparências nas operações
32%
Irá reduzir os custos
50%
Irá acelerar o tempo de lançar um produto
35%
Nenhum impacto significativo
12%
Outros
1%
0%
10%
20%
30%
40%
50%
Gráfico 1 – Impacto da Computação em Nuvem nos Negócios (KPMG, 2011)
60%
18
Uma das principais vantagens de utilizar a computação em nuvem é a
redução dos seus custos, pois a organização irá pagar somente pelo o que foi utilizado.
Conforme sua necessidade, a organização pode alocar mais recursos, não gerando
gastos desnecessários na aquisição de recursos de TI que podem ficar obsoletos.
Para Isaca (2009),
[...] embora a promessa de economia financeira seja um ponto bastante
atraente da computação em nuvem, muito possivelmente, a melhor
opção para as empresas é a simplificação de processos e o aumento de
inovação. Com ela, é possível aumentar a produtividade e transformar os
processos de negócio através de meios que eram extremamente caros
antes do sistema de nuvem.
Dentre os benefícios da computação em nuvem, destacam-se (ISACA, 2009):

Contenção de despesas: como não há obtenção e manutenção de
infraestrutura os serviços da nuvem demanda pouca despesa inicial e
como os serviços que precisa são sob demanda a organização pagará
pelo o que usar;

Imediatismo: como os serviços na nuvem estão disponíveis em larga
escala (armazenamento, processamento, memória, etc.) uma organização
poderá configurar e usar um serviço em um único dia, diferente de projeto
tradicional de TI requer certo tempo para ser desenvolvido, configurado e
aplicado levando semanas ou meses;

Disponibilidade: as empresas que disponibilizam serviços na nuvem têm
muita infraestrutura e bastante largura de banda para prover acesso de
alta velocidade, armazenamento e aplicativos, com caminhos redundantes
e balanceamento de carga garantindo o funcionamento de sistemas e
serviços;

Eficiência: com a destinação de recursos de TI e informações para a
nuvem as organizações podem focar empenho em pesquisas e
desenvolvimento para os seus negócios, gerando vantagens comerciais;

Resiliência: no caso de um desastre, as empresas que disponibilizam
serviços
em
nuvem
possuem
espelhamento
dos
serviços
e
balanceamento de carga de tráfego para garantir o funcionamento dos
seus serviços;

Dimensionamento: como os provedores de acesso as nuvens administram
grandes Data Centers, os serviços ofertados possuem muita elasticidade
e dimensionamento aos recursos de TI.
19
Na Figura 2 abaixo alguns gráficos são listados sobre o modelo tradicional de
recursos de uma organização. Nota-se que a linha vermelha é a capacidade tradicional
da infraestrutura e a linha azul é a necessidade de TI. É possível observar que ocorre um
grande desperdício computacional e que, ao necessitar de uma demanda maior dos
recursos a capacidade não comporta, em consequência, clientes ficam insatisfeitos.
Figura 2 – Problemas do Modelo Tradicional (RAMOS, 2013)
Na Figura 3 abaixo os mesmo gráficos são listados, contudo, agora, sobre os
recursos na nuvem. É possível observar que conforme a necessidade de TI aumenta ou
diminui e até mesmo para, a capacidade de dimensionamento sob demanda que a
nuvem oferece é fundamental para que não ocorram desperdício e clientes insatisfeitos.
Figura 3 – Escalonamento de Recursos em Nuvem (RAMOS, 2013)
20
São muitas as vantagens da utilização da computação em nuvem, contudo,
ela apresenta também alguns desafios que devem ser analisadas pela organização a fim
de refletir sobre empregar ou não a computação em nuvem nos seus negócios.
Como seu ativo mais precioso, a informação, ficará armazenada em locais
longínquos e indefinidos, naturalmente algumas questões são discutidas: Onde estão as
informações? As informações estão seguras? Como um provedor de serviços na nuvem
pode garantir a segurança das informações? A segurança é uma das questões que mais
afetam nas decisões das organizações em adotar a utilização da computação em nuvem
nos negócios, dentre outros estão a escalabilidade, disponibilidade, confiabilidade,
interoperabilidade.
Analisar a segurança é o principal desafio para uma organização ao empregar
a computação em nuvem já que suas informações que anteriormente estavam
localizadas nos seus próprios servidores agora estão em Data Centers que não sabem a
localização de suas informações e as informações que estão guardadas junto as suas
(KAUFMAN, 2009 apud CHIRIGATI, 2009). Os provedores de serviços são responsáveis
por proteger a privacidade dos usuários e a integridade das informações (DIKAIAKOS et
al., 2009 apud CHIRIGATI, 2009).
Uma
característica
imprescindível
na
computação
em
nuvem
é
a
escalabilidade, ou seja, de acordo com a sua demanda as organizações podem ter
recursos computacionais na quantidade que desejar. As aplicações e as informações
precisam ser elásticas o suficiente, pois algumas implementações para fazer aplicações e
informações elásticas não são simples (SUN, 2009a apud CHIRIGATI, 2009).
Apesar dos provedores de serviços na nuvem terem enorme infraestrutura e
poder de largura de banda as organizações são receosas sobre a disponibilidade das
informações. Elas necessitam que suas aplicações e informações estejam sempre
disponíveis (SUN, 2009a apud CHIRIGATI, 2009).
Obtém-se a confiabilidade de uma aplicação quando a mesma não falha com
grande frequência e, caso ocorra alguma falha, o mesmo não perca informações (SUN,
2009a apud CHIRIGATI, 2009).
A interoperabilidade acontece quando as organizações trabalham com seus
aplicativos e com suas informações em diversas nuvens, ou seja, as aplicações e
informações não estão exclusivamente em uma nuvem. Atualmente várias aplicações
estão sendo desenvolvidas considerando diversas nuvens e plataformas (DIKAIAKOS et
al., 2009 apud CHIRIGATI, 2009).
21
2.1.1 Aspectos da Segurança da Informação
Para as organizações a informação é um bem de valor inestimável devido a
sua importância para a geração de negócios, pois é dela que a empresa precisa para
sobreviver e crescer. Qualquer vulnerabilidade que a informação está sujeita permitindo
ameaças que aumentam os riscos, incomoda as organizações.
Os três princípios da segurança da informação são: confidencialidade,
disponibilidade e integridade. A perda de algum desses três princípios geram impactos
nos negócios das organizações. Sêmola (2003, p.45) menciona esses três princípios
como:

Confidencialidade: “toda informação deve ser protegida de acordo com
graus de sigilo de seu conteúdo, visando à limitação de seu acesso e uso
apenas às pessoas para quem elas são destinadas”;

Disponibilidade: “toda informação gerada ou adquirida por um indivíduo ou
instituição deve estar disponível aos seus usuários, no momento em que
os mesmos delas necessitem para qualquer finalidade”;

Integridade: “toda a informação deve ser mantida na mesma condição em
que foi disponibilizada pelo seu proprietário, visando protegê-la contra
alterações indevidas, intencionais ou acidentais”.
De acordo com Taurion (2009, p.8):
[...] as empresas geralmente são cautelosas quanto à maneira como
lidam com seus ativos de informação e não experimentam facilmente
novos sistemas de TI. As preocupações com segurança e confiabilidade
ainda vão agir como barreiras de entrada durante alguns anos.
No modelo tradicional de computação os profissionais de TI tem total poder
sobre suas estruturas de tecnologia, ou seja, como seus servidores, aplicações e
informações estão localmente dentro da organização eles executam diversos
procedimentos de segurança para que não ocorram problemas de vazamento de
informações, contudo, sabe-se que nem sempre todas as medidas de segurança
adotadas são totalmente seguras. Quando se faz a migração dos recursos de TI
juntamente com suas informações para a nuvem a segurança é uma das maiores
preocupações e desafios na implantação e utilização da computação em nuvem já que
não se conhece onde estão as informações, se as mesmas estão seguras, como é
realizada essa segurança. As informações estão sempre sujeitas as vulnerabilidades e a
utilização de medidas que venham ajudar na segurança diminui os riscos.
22
Dentre os principais desafios e preocupações das organizações para adotar
um ambiente em nuvem a segurança se destaca para assegurar que suas informações
fiquem em um ambiente confiável como relatado no Gráfico 2. Cabe destacar também a
preocupação com o desempenho em nuvem, os problemas relacionados integração e
interoperabilidade dos sistemas, a governança de TI, a perda de controle sobre as
informações dos clientes e problemas com a disponibilidade.
Segurança
44%
Performance
29%
Dificuldade de integração da nuvem e os sistemas
existentes
20%
Governança de TI
18%
Perda de controle sobre os dados com relação aos
clientes
16%
Disponibilidade
15%
Medindo ROI
15%
Conformidade regulamentar
14%
Tempo de resposta
13%
Falta confiança na capacidade das empresas em fazer a
nuvem
Não tem certeza da promessa que a nuvem pode ser
realizado
13%
13%
Dificuldade em fazer negócio para adotar a nuvem
12%
Falta de oportunidade para customização
9%
Insatisfação das ofertas / preços pelos vendedores
8%
Outros
2%
0%
5% 10% 15% 20% 25% 30% 35% 40% 45% 50%
Gráfico 2 – Principais Desafios e Preocupações em Adotar a Nuvem (KPMG, 2011)
Em relatório (GARTNER, 2008 apud BRODKIN, 2008) faz uma avaliação dos
riscos da segurança na computação em nuvem:

Acesso privilegiado de usuários: com o processamento das informações
pelos provedores de serviços, consequentemente fora das organizações
trazem riscos as mesmas, pois a empresa não tem controle sobre os
serviços terceirizados "físicos, lógicos e de pessoal" como internamente
dentro da organização. Adquira o máximo de informação sobre os
provedores de serviços que gerenciaram suas informações.

Conformidade regulamentar: as organizações tem responsabilidade pela
segurança e integridade das suas informações mesmo sendo gerenciada
pelo provedor de serviços. Para garantir segurança os provedores de
23
serviços tradicionais são propensos a auditores externos e certificações
de segurança;

Localização das informações: a organização que utiliza computação em
nuvem pode não saber onde suas informações estão armazenadas, por
exemplo, nem se quer o país no qual a informação está guardada. Peça
aos provedores de serviços compromisso para armazenar e processar
informações em jurisdições específicas para fazer um contrato que
cumpra a privacidade loca da organização;

Segregação das informações: as informações da organização na nuvem
são guardadas no mesmo ambiente com informações de outros clientes.
A criptografia é eficaz, ajuda, mas não é a solução para tudo. O provedor
de serviços deve provar que sua criptografia foi feita por especialistas;

Recuperação das informações: um provedor de serviços na nuvem é
responsável pelas informações da organização em caso de um desastre
mesmo a organização não conhecendo o lugar onde se encontra suas
informações. Saiba com o seu provedor de serviços se ele é capaz de
recuperar suas informações e qual o tempo vai demandar;

Apoio a investigação: realizar uma investigação de atividade ilegal em
computação em nuvem pode ser impossível. Verifique com o provedor de
serviços para obter um contrato para fazer uma investigação;

Viabilidade em longo prazo: geralmente, os provedores de serviços na
nuvem já são empresas grandes e, ao que tudo indica, nunca vai falir ou
ser comprado por uma empresa maior. Caso ocorra esse evento a
organização
precisa
ter
garantias
da
disponibilidade
das
suas
informações;
Para uma empresa que se diz pequena ou média e, que geralmente, o setor
de TI é bem reduzido, realizar uma segurança apropriada nas suas informações pode ser
uma tarefa difícil. Ao empregar a computação em nuvem essas empresas vão obter além
das vantagens uma proteção mais adequada do provedor de serviços na nuvem.
Taurion (2009, p. 64) diz que “muitas vezes os procedimentos de segurança
do provedor são mais adequados que os de muitas empresas de pequeno e médio
porte”.
24
2.1.2 Aspectos da Segurança Física do Ambiente
Outro aspecto sobre a segurança das informações que uma organização
deve ficar atenta é sobre a segurança física de onde ficarão suas informações, ou seja, a
segurança nas instalações físicas do data center da nuvem contratada onde suas
informações estão armazenadas pois, qualquer falha na segurança física do ambiente,
uma informação crucial para a organização pode ser roubada acarretando perdas
irreparáveis ao seu negócio.
Segundo Microsoft (2009)
[...] um dos modos em que a segurança física mudou foi no uso de
sistemas técnicos para automatizar o processo de autorização de acesso
e autenticação de certos controles conforme o progresso da tecnologia
de segurança.
A proteção física do ambiente de um data center é realizada por diversas
formas: somente as pessoas autorizadas acessam o data center e até mesmo níveis de
acesso dentro do data center de acordo com o cargo do profissional, utilização de
biometria para controlar os acessos, instalação de câmeras internamente e externamente
para o monitoramento de toda a movimentação do data center, pessoal especializado em
segurança para maior segurança do ambiente são alguns exemplos que evitam o
vazamento de informação através do acesso não autorizado de pessoas.
Alguns exemplos para verificar a segurança física são (MICROSOFT, 2009):

Restringir acesso aos profissionais do data center;

Lidar com requisitos de dados de alto impacto para os negócios;

Centralizar o gerenciamento de acesso a ativos físicos.
Uma alternativa para as empresas ao fazer o uso de computação em nuvem
é, através do Acordo de Nível de Serviço (SLA), garantir em contrato a proteção de suas
informações sobre todos os aspectos de segurança, inclusive sobre a segurança física de
onde estão guardadas suas informações.
Apesar do crescimento exponencial da computação em nuvem, a segurança
é vista como um dos principais gargalos para sua adoção dentre as empresas mesmo
sabendo de todas as suas vantagens. Todos os aspectos relacionados à segurança da
informação
devem
ser
cuidadosamente analisado
pela
organização
para sua
implementação já que sua informação estará constantemente manipulada e qualquer
problema na sua confidencialidade e integridade gera impactos em seus negócios.
25
2.1.3 SLA (Service Level Agreement ou Acordo de Nível de Serviço)
Muitos são os fatores que implicam na migração da computação tradicional
para a computação em nuvem. Entretanto, as organizações precisam ter garantias de
que os serviços que os provedores de serviços irão prestar funcionem para que não
ocorra nenhum incidente em seus negócios. Algumas questões que podem ser levadas
em consideração, por exemplo, são: Qual a garantia de disponibilidade que um provedor
de serviços oferece? Qual a sua segurança? Quanto tempo um serviço pode ficar fora do
ar para uma organização? Para responder a essas questões e outras é que existe o SLA
que acorda o nível de serviços entre prestadores de serviços e consumidores. No SLA
que está exposto como será o armazenamento, segurança, disponibilidade das
informações.
Taurion (2009, p. 43)
[...] Os contratos devem ser elaborados com cuidado para não
incorporarem em custos adicionais, que estavam ocultos ou passaram
despercebidos na negociação. Por exemplo, o contrato implementa
alguma forma de compensação em caso de falhas ou indisponibilidade?
Existe desconto concedido à medida que o volume de utilização for
aumentando? Quem arca com os custos de uma eventual migração, por
parte do provedor, da plataforma tecnológica e que pode afetar os
aplicativos da empresa?
Segundo Isaca (2009), o SLA “é uma das ferramentas mais eficazes que a
empresa pode usar para garantir a proteção adequada das informações confiadas ao
sistema de nuvem”.
Para Wikipédia (2013), um SLA é “um acordo firmado entre a área de TI e seu
cliente interno, que descreve o serviço de TI, suas metas de nível de serviço, além dos
papéis e responsabilidades das partes envolvidas no acordo.”
Um SLA contém (CLOUD COMPUTING USE CASE DISCUSSION GROUP,
2010):

um conjunto de serviços que o fornecedor irá entregar;

uma definição completa, específica de cada serviço;

as responsabilidades do fornecedor e do consumidor;

um conjunto de métricas para determinar se o provedor está entregando o
serviço como prometido;

um mecanismo de auditoria para monitorar o serviço;

as medidas disponíveis para o consumidor e fornecedor se os termos do
SLA não são cumpridas;

como o SLA vai mudar ao longo do tempo.
26
Isaca (2009) afirma:
[...] A estruturação de um SLA completo e detalhado que inclui direitos
específicos de auditoria ajudará a empresa no gerenciamento de suas
informações, uma vez que elas saem da organização e são
transportadas, armazenadas ou processadas no sistema de nuvem.
Fazer um contrato de nível de serviço entre uma organização e o provedor de
serviços é de extrema importância para a confiabilidade no ambiente em nuvem já que no
SLA estarão descritos todas as regras de cada serviço contratado entre as partes.
2.1.4 TCO (Total Cost of Ownership ou Custo Total de Propriedade)
Segundo Oka (2012), o TCO “se destina basicamente a fazer uma estimativa
financeira de todos os custos diretos e indiretos associados com ativos e seu ciclo de
vida”.
Wikipédia (2013) define TCO como
[...] uma estimativa financeira projetada para consumidores e gerentes
de empresas a avaliar os custos diretos e indiretos relacionados à
compra de todo o investimento importante, tal como softwares e
hardwares, além do gasto inerente de tais produtos para mantê-los em
funcionamento, ou seja, os gastos para que se continue proprietário
daquilo que foi adquirido.
O TCO pode ser entendido como um cálculo dos custos investidos em
recursos de TI e dos custos para sustentar esses recursos em funcionamento durante o
seu ciclo de vida na organização.
Como as organizações na computação em nuvem utiliza os serviços de
acordo com a sua demanda, ou seja, paga os provedores de serviços pelo o que é
utilizado, os gastos com infraestrutura de TI encolhem o seu custo total de propriedade
realizando uma economia para a empresa. O TCO ajuda os profissionais de TI a avaliar
se é viável que um projeto seja realizado na computação tradicional ou na computação
em nuvem.
Taurion (2009, p.24) afirma que:
[...] computação em nuvem é uma excelente alternativa para se criar um
Data Center virtual, usando-se milhares de servidores, internos e/ou
externos à organização, interligados pela Internet e redes de banda
larga, a um custo de propriedade bem menor, principalmente
considerando-se a utilização da capacidade ociosa, já adquirida.
27
Em cinco anos o custo total de propriedade para desenvolver, implantar e
gerenciar aplicações na infraestrutura em nuvem da Amazon pode-se obter uma
economia de 70% comparando com recursos de TI dentro da organização. O ROI nesses
anos ficou em 626 (PERRY; HENDRICK, 2012).
A computação em nuvem reduz significativamente o TCO de uma empresa.
No Gráfico 3 é mostrado o orçamento estimado para a nuvem como um porcentagem das
despesas anuais de TI. Observa-se o crescimento dos orçamentos para implementação
da computação em nuvem de 2011 para 2012. Das empresas pesquisadas 17% terão
mais que 20% do orçamento dedicado aos serviços em nuvem.
2011
2012
0%
5%
1-2%
9%
13%
6%
3-5%
24%
11%
20%
6-10%
13%
11-20%
6%
Mais que 20%
24%
19%
17%
16%
17%
Não sabe
0%
5%
10%
15%
20%
25%
30%
Gráfico 3 – Orçamento para Nuvem como Despesas Anuais de TI (KPMG, 2011)
2.2 GERÊNCIA DE REDES
As redes de computadores são formadas por centenas ou milhares de
dispositivos que, atualmente, são utilizadas pelas organizações independente do seu
tamanho, sejam elas micro, pequena, média ou grandes empresas. Uma rede é de
fundamental importância para o funcionamento dos seus processos, fazendo a
comunicação dos diversos recursos existentes na organização. Para o bom
funcionamento das redes de computadores e de seus sistemas é que existe a gerência
28
de redes. O gerenciamento é realizado através de ferramentas pelas quais podem ser
verificados inúmeros recursos.
Estatísticas apontam que 30% do valor investido em uma rede de
computadores está ligado a aquisição de hardware e, os outros 70%, está no
investimento da manutenção e suporte (LESSA, 1999).
Lessa (1999) define gerência de redes como “uma atividade que contribui
decisivamente para o funcionamento continuado da rede, garantindo que a qualidade dos
serviços oferecidos mantenha-se em níveis satisfatórios pelo maior tempo possível”.
Para Menezes e Silva (1998) o gerenciamento de redes é “o processo de
controlar uma rede de computadores de tal modo que seja possível maximizar sua
eficiência e produtividade”.
De acordo com Pinheiro (2002) gerenciamento de redes é definido:
[...] como a coordenação (controle de atividades e monitoração de uso)
de recursos materiais (modems, roteadores, etc.) e ou lógicos
(protocolos), fisicamente distribuídos na rede, assegurando, na medida
do possível, confiabilidade, tempos de resposta aceitáveis e segurança
das informações.
Examinando os conceitos acima citados pode-se chegar a uma conclusão
que a gerência de redes é o processo de monitorar continuamente todos os dispositivos
que compõem uma rede para aumentar o seu desempenho.
A gerência de redes possui cinco áreas que são conhecidas como FCAPS
(WIKIPEDIA, 2013):

Gerência de falhas: realiza a detecção, isolamento, notificação e correção
dos problemas encontrados em hardware ou software na rede;

Gerência de configuração: realiza os registros e manutenção de diversos
parâmetros de configuração dos serviços na rede;

Gerência de contabilidade: realiza os registros da utilização da rede pelos
usuários para que seja feito a cobrança ou a regulamentação do seu uso;

Gerência de desempenho: realiza a aferição e disponibilização das
informações de desempenho dos serviços na rede;

Gerência de segurança: realiza a proteção do acesso a rede evitando a
utilização errada pelos usuários, intencional ou não.
29
2.2.1 O Protocolo SNMP
Para que seja realizado o gerenciamento de redes foi proposto o protocolo
SNMP (Simple Network Management Protocol). Como o seu próprio nome diz é um
protocolo bem simples, de fácil implementação, que gerencia roteadores, servidores,
estações de trabalho entre outros dispositivos de redes. O SNMP utiliza o protocolo de
transporte UDP (User Datagram Protocol) e é o principal protocolo utilizado no
gerenciamento de redes.
Segundo Pinheiro (2002),
[...] o sucesso do SNMP reside no fato de ter sido ele o primeiro
protocolo de gerenciamento não proprietário, público, fácil de ser
implementado e que possibilita o gerenciamento efetivo de ambientes
heterogêneos.
O protocolo SNMP determina mensagens, unidades de dados de protocolo
PDU (Protocol Data Unit) que são trocadas na comunicação entre o agente e o gerente.
Essas mensagens SNMP podem ser (LIMA, 1997):

get-request-PDU: o gerente transmite esse tipo de mensagem para o
agente requisitando o valor de uma variável;

get-next-request-PDU: o gerente emprega esse tipo de mensagem
requisitando o valor da próxima variável após variáveis que foram
especificadas;

set-request-PDU: o gerente transmite esse tipo de mensagem para o
agente requisitando a mudança do valor de uma variável;

get-response-PDU: o agente transmite esse tipo de mensagem ao gerente
para notificar o valor de uma variável que foi requisitado;

trap-PDU: o agente transmite esse tipo de mensagem ao gerente
notificando um evento que ocorreu.
Desde a sua criação, o protocolo SNMP evoluiu e passou por atualizações. A
IETF (Internet Engineering Task Force) é o órgão responsável pela padronização dos
protocolos da Internet através das RFCs (Request for Comments) que especifica todos os
padrões de cada protocolo.
Atualmente, existem três versões para o protocolo SNMP (MENEZES; SILVA,
1998):

SNMPv1: nessa versão pela sua aplicação simples o protocolo SNMP tem
algumas falhas de segurança, de suporte para a transferência de grandes
blocos de dados e estratégias de gerenciamento de rede centralizado;
30

SNMPv2: já essa outra versão tem a finalidade de acabar com as falhas
da versão anterior, contudo, as falhas de segurança não foram sanadas;

SNMPv3: na última versão do protocolo SNMP foi solucionado as falhas
de segurança aplicando autenticação, criptografia e controle de acesso.
2.2.2 Os Agentes e os Gerentes
Uma ferramenta de gerenciamento de redes pelo protocolo SNMP emprega
dois personagens, o agente e o gerente, que trocam informações entre si para verificar e
corrigir eventuais falhas nos dispositivos de uma rede, melhorando assim o seu
desempenho.
De acordo com Pinheiro (2002) define um processo agente “quando parte de
uma aplicação distribuída irá executar as diretivas enviadas pelo processo gerente”.
Menezes e Silva (1998) afirmam agente como “entidades que fazem a
interface com os dispositivos a serem gerenciados.”
O agente é instalado em cada dispositivo de rede que será gerenciado,
capturando informações do trabalho dos objetos depositando essas informações na MIB
(Management Information Base) para repassar essas informações ao gerente quando
requisitado ou ocorrendo alguma falha notificando o gerente.
Pinheiro (2002) menciona um processo gerente como
[...] parte de uma aplicação distribuída que tem a responsabilidade de
uma ou mais atividades de gerenciamento, ou seja, ele transmite
operações de gerenciamento (actions) aos agentes e recebe notificações
(events) destes.
Menezes e Silva (1998) dizem que um gerente “é um agente que possui o
NMA (network management application). O NMA pode ser entendido como uma
aplicação que inclui uma interface de operador para permitir a um usuário autorizado
gerenciar a rede.”
O gerente faz a busca das informações dos objetos nos dispositivos de rede
que estão sendo gerenciados pelos agentes ou pode receber do agente uma notificação
de uma falha sem ser solicitado, analisando essas informações recebidas ou que fez a
busca a fim de gerenciar o trabalho desses objetos.
A comunicação entre o agente e o gerente é apresentada na Figura 4. Podese verificar que o gerente solicita informações ao agente que responde prontamente com
a informação e, também, observa-se que o agente reporta falhas ao gerente sem a sua
requisição.
31
Figura 4 – Arquitetura Típica do Gerenciamento de Redes (MENEZES; SILVA, 1998)
2.2.3 Soluções de Mercado: Freeware x Paga
O PRTG, ferramenta baseada em sistemas Windows, permite monitorar
tráfegos através do SNMP v1, v2 e v3 e de outras ferramentas de monitoria. Apesar de
ser um software proprietário, possui sua versão gratuita, onde suas ferramentas são
limitadas. Na versão completa, suporta diferentes tipos de equipamentos, fornecendo
análise aprofundada e concisa em relatórios. O PRTG oferece cinco diferentes interfaces
de gerenciamento sendo duas via Web, uma para plataforma Windows, uma para
Android e uma para o iOS, fechando assim uma boa gama de dispositivos móveis. É
ótimo para quem precisa de um gerenciamento e que não tem um bom nível de
conhecimento.
O Zabbix, que atualmente está em sua versão 1.8 estável, une a maioria da
gama de ferramenta disponível no NAGIOS, com uma boa praticidade, característica do
PRTG. O Zabbix é baseado em PHP-APACHE e utiliza banco Mysql ou Postgres. Existe
boa documentação em português, porém as versões não estáveis possuem uma
morosidade em suas traduções.
Esse sistema é ótimo para quem possui um bom conhecimento em Linux e
SNMP, porém não precisa de uma ferramenta prática em sua configuração. O Zabbix
possui alertas em Jamber, e-mail e scripts que podem ser customizados. Um exemplo é
utilizar modems 3G para o envio de SMS para seu celular. Seus mapas emitem sinais
sonoros e visuais de acordo com a gravidade do evento.
A escolha do Zabbix foi definida por ser gratuita e operar em compatibilidade
com sistemas Linux, visando reduzir os custos de propriedade da empresa (TCO).
32
Na Tabela 1 pode-se observa uma comparação dos programas de gerência
de redes PRTG e Zabbix.
Tabela 1 – Comparativo das Características PRTG x Zabbix (FINDTHEBEST, 2013)
Características
Deployment Model
License
Product Name
Company
Maximum Manageable Nodes
Price
Functionality
Performance Management
Features
PRTG
On Premise / Client-Server
Online / Software as a Service
(SaaS)
Proprietary
PRTG Network Monitor
Paessler AG
10.000
PAID
Fault Management
Configuration Management
Accounting Management
Performance Management
Security Management
Availability Monitoring
Avg Response Time Data
Bandwidth Utilization Data
Conditional Alerts
CPU Load Data
Device Disk Space Data
Hardware Monitoring
Interface Error Data
Memory Utilization
Server Platforms
Windows
Client Operating Systems
Windows Vista
Product Website
Phone Number
Sales Email
PRTG Network Monitor
(paessler.com)
1 (972) 783-2253
[email protected]
ZABBIX
On Premise / Client-Server
Open Source
ZABBIX
ZABBIX SIA
–
FREE
Fault Management
Performance Management
Availability Monitoring
Conditional Alerts
CPU Load Data
Device Disk Space Data
Device Temperature Monitoring
Hardware Monitoring
Historical Logs
Memory Utilization
BSD
Linux/Unix
Solaris
CentOS
Debian
Fedora
Ubuntu
Windows 2000
Windows 7
Windows Vista
Windows XP S2
ZABBIX (zabbix.com)
1 (877) 492-2249
[email protected]
33
2.4 VIRTUALIZAÇÃO DE SERVIDORES
Manter um servidor provendo cada serviço em uma organização gera uma
enorme
ociosidade
desses
computadores,
pois
o
poder
de
processamento,
armazenamento e memória é muito maior do que um serviço precisa para ser executado.
Essa ociosidade aumenta os custos de manter vários servidores dentro de uma empresa.
Para aproveitar melhor os recursos de hardware de um computador utiliza-se a
virtualização que consiste em usar uma máquina real para executar máquinas virtuais
independentes e, consequentemente, fornecendo vários serviços utilizando somente uma
máquina real.
Alguns fatores podem ser mencionados para tornar a virtualização de
servidores popular, como o encolhimento dos gastos com o ambiente de TI em até 60%,
o crescimento da utilização dos servidores, maior eficiência operacional e agilidade no
gerenciamento (STRIANESE, 2010).
Para Coelho, Calzavara e Lucia (2008) a virtualização
[...] consiste na emulação de ambientes isolados, capazes de rodar
diferentes sistemas operacionais dentro de uma mesma máquina,
aproveitando ao máximo a capacidade do hardware, que muitas vezes
fica ociosa em determinados períodos do dia, da semana ou do mês.
Segundo Strianese (2010) virtualização “consiste em um processo que
permite, por meio do compartilhamento de hardware, a criação de inúmeras outras
máquinas a partir de um único equipamento”.
Infowester (2013) define virtualização como “soluções computacionais que
permitem a execução de vários sistemas operacionais e seus respectivos softwares a
partir de uma única máquina, seja ela um desktop convencional ou um potente servidor.”
A virtualização de servidores pode ser entendida como a utilização dos
recursos computacionais de uma máquina real para gerar outras máquinas virtuais com
seus respectivos sistemas operacionais usufruindo melhor da qualidade do hardware
existente no computador.
Fazer a virtualização de servidores traz inúmeras vantagens, dentre as quais
algumas se destacam (INFOWESTER, 2013):

Melhor aproveitamento da infraestrutura existente: executando os serviços
em um servidor desfruta-se melhor da capacidade de processamento do
equipamento;

O parque de máquinas é menor: usufruindo melhor dos recursos
computacionais
não
se
tem
a
necessidade
de
adquirir
novos
34
equipamentos e, em consequência, gastos com instalação, espaço físico,
refrigeração, manutenção, consumo de energia, dentro outros fatores;

Gerenciamento centralizado: o monitoramento de cada serviço é
simplificado, pois o gerenciamento é centralizado;

Implementação mais rápida: de acordo com a aplicação que será utilizada
o tempo para realizar a sua implementação é mais acelerado;

Uso de sistemas legados: sustentar uma aplicação antiga é viável pois é
possível manter uma máquina virtual com o seu ambiente;

Diversidade de plataformas: obter uma variedade de plataformas podendo
fazer testes de desempenho de aplicações para elas;

Ambiente de testes: aferir novas aplicações ou atualizações antes de
implementar diminuindo assim os riscos de procedimentos desse tipo;

Segurança e confiabilidade: uma vulnerabilidade de segurança que venha
a acontecer em uma máquina virtual não atinge as demais, pois o trabalho
de cada máquina virtual independe de outras máquinas virtuais;

Migração e ampliação mais fácil: é amplo o ganho em agilidade para
aumentar a infraestrutura ou alterar serviços dentro de um ambiente de
virtualização.
2.4.1 Soluções de Mercado: Freeware x Paga
Comparando o Citrix XenServer, Microsoft Windows Server 2008 R2 Hyper-V,
Red Hat Enterprise Virtualization e VMware vSphere, usando o mesmo hardware, mesma
topologia de rede, rodando as mesmas máquinas virtuais e ferramentas de análise
executadas em Linux e Windows, foram verificadas a configuração de host, criação de
templates e clonagem de máquinas virtuais, atualizações e correções, snapshots e
backups, opções de scripts, além de recursos mais avançados como balanceamento de
carga.
As quatro soluções combinam desempenho excelente com um conjunto rico
de ferramentas de gerenciamento, mas a VMware ainda leva um pouco de vantagem,
talvez em razão de seu tempo de mercado. A ferramenta do fornecedor possui
funcionalidades avançadas que as outras ainda não têm, além de mostrar um nível de
consistência e precisão que ainda não foram alcançadas pelos outros. Em relação ao
desempenho, os quatro são parecidos, mas as principais diferenças emergiram nos
testes de carga, no qual o Hyper-V da Microsoft e o XenServer, da Citrix, tiveram um
desempenho prejudicado. Rodando em servidor Windows, os melhores resultados vieram
dos hypervisors da Microsoft e da VMware. Rodando em Linux, os produtos da Citrix,
35
Red Hat e VMware tiveram resultados sólidos, com uma pequena desvantagem para a
Microsoft. A migração em tempo real de máquinas virtuais, alta disponibilidade e
balanceamento de carga que eram exclusivos da VMware, agora estão presentes em
todos, mas a VMware ainda é a única capaz de fazer migrações em tempo real de
storage. Quanto aos recursos avançados de gerenciamento de memória, somente
VMware e Red Hat oferecem recursos completos.
A complexidade do modelo de licenças é um quesito importante a ser levado
em consideração. Os modelos utilizados pela VMware e Microsoft são os mais
complexos. A VMware oferece diversos níveis de vSphere, cada um com um conjunto de
recursos diferentes, cobrados por socket físico. A Microsoft oferece o Hyper-V como parte
do Windows Server 2008 R2, com uma licença corporativa permitindo quatro servidores
rodando o mesmo sistema operacional em um servidor físico, além de uma licença para
datacenter que permite rodar um número ilimitado de máquinas virtuais por servidor
físico.
O XenServer, da Citrix, é cobrado por servidor, não importando a capacidade
do mesmo. Como a VMware, a Citrix oferece diversos níveis de sistema. O Red Hat
Enterprise Virtualization é o mais simples (e barato), com uma única taxa anual por
servidor físico, com opções de suporte em meio período ou no sistema 24x7.
Em uma avaliação geral, o Hyper-V, da Microsoft, é o que chega mais perto
da vSphere, da VMware, nas funcionalidades gerais de gerenciamento. No entanto, a
Microsoft possui uma gestão de funções espalhadas em diversas ferramentas, enquanto
os demais têm a vantagem de concentrar tudo em um único servidor de gerenciamento.
O XenServer, da Citrix, combina uma excelente performance com Linux,
implantação rápida, mas algumas funções avançadas requerem configurações adicionais
e outras ferramentas de suporte. Uma desvantagem é o fato de que todas as operações
de gestão de máquina virtual são serializadas, tomando mais tempo para realizar
algumas ações, como ligar ou desligar máquinas. Limitação que impacta na
gerenciabilidade e escalabilidade.
O Red Hat Enterprise Virtualization, por sua vez, também é de rápida
instalação e tem as funcionalidades primárias de gerenciamento, mas ainda tem alguns
problemas em relação à gestão de host e à alta disponibilidade. A sua performance é
sólida tanto com sistemas Windows e Linux e é o mais próximo do VMware quando o
assunto é um sistema com ingredientes para um ambiente altamente escalável.
Em resumo, todos os fornecedores fornecem recursos suficientes para uma
variedade de tamanhos de ambientes, mas a VMware ainda se demonstra o mais maduro
36
e rico em recursos, motivo pelo qual, apesar do preço da licença, esta ferramenta foi a
escolhida em nosso projeto.
2.4.2 Suíte VMWare
A suíte VCloud VMware é uma ferramenta que contribui para as organizações
na implantação de uma infraestrutura em nuvem completa que disponibiliza os serviços
rapidamente reduzindo as operações de TI e provê SLAs superior para os aplicativos
(VMWARE, 2012).
Os principais benefícios são (VMWARE, 2012):

Aumentar a capacidade de resposta da TI aos negócios;

Simplificar e automatize o gerenciamento das operações de TI;

Oferecer os melhores SLAs a todos os aplicativos.
2.4.2.1 VCenter
O VCenter é um programa que gerencia todos os hosts VSphere e as
máquinas virtuais do data center utilizando somente um único console concedendo aos
administradores de TI a melhorar o console, reduzindo as tarefas e diminuindo a
dificuldade e o custo ao gerenciar ambientes de TI. O VCenter provê uma plataforma
dimensionável e extensível para o gerenciamento proativo da virtualização, oferecendo
uma completa visualização da infraestrutura virtual (VMWARE, 2011).
Seus principais recursos são (VMWARE, 2011):

Controle centralizado e ampla visibilidade: acesso remoto em qualquer
lugar, monitoramento em tempo real dos elementos virtuais dinâmicos,
disparadores de alarmes personalizáveis e pesquisa de inventário e
navegação simplificados;

Gerenciamento proativo de ambientes do vSphere: provisionamento
rápido e gerenciamento de patches simplificado, alocação dinâmica de
recursos para garantir
SLAs,
automação do fluxo
de
trabalho,
disponibilidade do vCenter Server;

Dimensionamento e extensibilidade: gerenciamento em ampla escala e
arquitetura aberta.
2.4.2.2 VSphere
O VSphere é um sistema operacional em nuvem, que modifica data centers
em infraestrutura de computação em nuvem simples usando os recursos da virtualização
admitindo que as empresas de TI provenha serviços de TI confiáveis utilizando os
37
recursos internos e externos com segurança. O VSphere diminui o os custos
operacionais e amplia o controle dos serviços de TI fornecidos, além de proporcionar qual
sistema operacional, aplicativos e hardware que serão usados internamente ou utilizando
recursos externos (VMWARE, 2009).
Possui três edições, a standard, a enterprise e enterprise plus cada qual com
suas funcionalidades. Com o VSphere a TI pode prestar contrato de nível de serviço dos
aplicativos utilizados ao menor custo total de propriedade (VMWARE, 2012).
Atualmente o VSphere se encontra na versão 5.1.
Dentre os principais benefícios do VSphere pode-se citar (VMWARE, 2012):

Eficiência por meio da utilização e automação: pode-se conseguir uma
taxa de consolidação de cerca de 15:1 e ampliar a utilização de hardware
de 5% a 15% para até 80% não acarretando problemas no desempenho;

Redução consideravelmente os custos de TI: diminua as despesas de
capital em até 70% e operacionais em até 30% alcançando custos de
infraestrutura de TI de 20% a 30% menor para aplicativos em execução;

Agilidade com controle: a alteração das necessidades de negócios são
prontamente atendidas com total segurança e controle sem a intervenção
humana na infraestrutura garantindo disponibilidade, dimensionamento e
desempenho para os aplicativos em execução;

Liberdade de escolha: com a padronização da plataforma pode-se usufruir
dos ativos de TI existentes junto a nova geração de serviços de TI e com
APIs abertas aperfeiçoa-se o VSphere.
2.4.2.3 VConverter
O VConverter é uma ferramenta que realizar conversões rápidas e confiáveis
sem que haja interrupções de máquinas físicas baseadas em Windows e Linux para
máquinas virtuais VMware. Também é possível fazer a conversão de máquinas virtuais
entre as plataformas VMware e imagem de discos de terceiros como Parallels Desktop,
Symantec System Recovery, Norton Ghost, Acronis, StorageCraft, Microsoft Virtual
Server ou Virtual PC e máquinas virtuais Microsoft Hyper-V Server (VMWARE, 2013).
Algumas das funções do VConverter, de acordo com VMware (2013) são:

faz diversas conversões simultâneas aceitando implementação de
virtualização em larga escala;

desativa e realiza uma cópia real do estado do sistema operacional
de origem antes de migrar as informações assegurando a
confiabilidade da conversão;
38

efetua as conversões sem interrupções, sem tempo de inatividade ou
reinicialização do servidor de origem;

através de cópia setorial amplia a clonagem e a velocidade da
conversão;

suporte para clonagem frio (tipo de conversão que requer tempo de
inatividade do servidor) além de clonagem quente;

gerenciamento centralizado admitindo aos usuários realizar o
monitoramento simultâneo de conversões remotas e locais;

assistente de simples utilização que diminui os passos para
conversão;

suporte para clonagem remoto e local permitindo conversões em
locais remotos como filiais.
2.5 MONITORAMENTO REMOTO
Todo o negócio da empresa gira em torno das suas informações e, é de
extrema importância, a sua disponibilidade, confiabilidade e integridade. Dentro da
organização, no setor de TI está localizado o seu data center que é onde todos os seus
servidores dentre outros equipamentos estão localizados. Esses servidores são de
arquivos, aplicações, backup, firewall, impressão, helpdesk, etc. necessários para o
andamento dos negócios das organizações. Manter a segurança no ambiente do data
center controlando o acesso de pessoas, a rede da empresa, o acesso à internet, a
execução dos aplicativos, a umidade e temperatura da sala, sistemas de detecção de
incêndio, monitoramento das informações e outros diversos componentes é de extrema
importância. Realizar o planejamento do ambiente de onde será o data center, bem
como, analisar todos os equipamentos que serão utilizados é importante para assegurar
a segurança e o consumo de energia elétrica um dos grandes vilões do uso de data
center já que é utilizado muita energia nos computadores e principalmente nos
resfriadores para manter a temperatura dentro do ambiente.
Para garantir a segurança das informações, sua disponibilidade, integridade e
confiabilidade utilizam diversas formas e ferramentas para o monitoramento de todas as
variáveis que envolvem o data center de uma organização. Algumas dessas serão
verificadas abaixo.
2.5.1 SNMP: Monitoramento de Variáveis Computacionais
Como foi visto no item 2.2.1 o SNMP é um protocolo simples que é utilizado
para fazer o gerenciamento de redes administrando assim, os recursos de TI de uma
39
organização. Abaixo estão listados alguns exemplos de monitoramento do programa de
gerenciamento de redes Zabbix.
Nesse gráfico pode-se verificar o histórico do tempo de ociosidade da CPU do
servidor Microsoft Cluster Server, vide Figura 5.
Figura 5 – Microsoft Cluster Server: CPU idle time (ZABBIX, 2013)
40
Nesse outro gráfico pode-se observar o tráfego gerado na rede pelo acesso
ao banco de dados PostgreSQL, vide Figura 6.
Figura 6 – PostgreSQL: Network Utilization (Ethernet) (ZABBIX, 2013)
41
Nesse gráfico pode-se conferir alguns parâmetros do Apache e MySQL: a
utilização de CPU, a utilização da memória disponível e carregamento de disco, vide
Figura 7.
Figura 7 – Apache e MySQL (ZABBIX, 2013)
42
Agora se pode verificar o dashboard, um painel que realiza o monitoramento
de diversas variáveis: estado do Zabbix, estado do sistema, estado das máquinas, os
últimos alertas acontecidos e o monitoramento Web, vide Figura 8.
Figura 8 – Dashboard (ZABBIX, 2013)
Inúmeras são as variáveis computacionais que podem ser controladas e
monitoradas pelo Zabbix ajudando os profissionais de tecnologia no suporte e na
manutenção dos recursos de TI usados na manipulação das informações em uma
organização.
43
2.5.2 Arduíno: Monitoramento de Variáveis Analógicas
No data center, além das variáveis dos recursos de TI que devem ser
controlados como visto anteriormente realizado pelo protocolo SNMP, variáveis de
infraestrutura também precisam ser monitoradas para manter o ambiente em
funcionamento.
O arduino baseia-se em uma placa que recebe alguma programação para
realizar o monitoramento de diversos dispositivos através de sensores conectados, por
exemplo, sensor de temperatura, sensor de movimento, sensor de umidade dentre vários
outros tipos de sensores que podem ser utilizados para alertar sobre algum problema que
venha a acontecer.
Segundo Arduino (2013), arduino "é uma plataforma de computação física
aberta baseada em uma placa de micro controlador simples e um ambiente de
desenvolvimento para escrever software para a placa".
De acordo com Beckingham (2011) o arduino "é um microprocessador de
software livre barato, adaptável e programável, capaz de ler entrada de dados na forma
de voltagem em seus pinos analógicos".
Em relação a outras plataformas de micro controladores o arduino possui
algumas vantagens (ARDUINO, 2013):

barato, o custo é relativamente baixo;

multiplataforma, o software pode ser executado em Windows, Linux e
Macintosh OSX;

ambiente de programação simples;

software de código aberto e extensível;

hardware com código aberto e extensível.
Para garantir a disponibilidade dos recursos de TI é importante que haja um
monitoramento 24x7x365 das variáveis que podem causar algum tipo de incidente na
infraestrutura de um data center. O arduino ajuda nesse controle com inúmeras
vantagens como foi visto acima comparando com outros sistemas com o custo elevado.
2.5.3 Controle de Variáveis do Ambiente da Sala de Servidores
Vários fatores podem influenciar no funcionamento de um data center em
uma organização. O monitoramento em tempo real do ambiente onde estão localizados
os servidores é de vital importância, pois, o mesmo, prevê acontecimentos que podem
acarretar no mau andamento do trabalho desses servidores e, assim, determinar ações
corretivas antes que os mesmos aconteçam.
44
Para Cowan e Gaskins (2008)
[...] O monitoramento de equipamentos não é suficiente – o ambiente em
volta deve ser exibido holisticamente e analisado proativamente em
busca de ameaças e intrusões. Tais ameaças incluem temperaturas de
entrada de servidor excessivas, vazamentos de água e acesso humano
não autorizado ao data center ou ações impróprias realizadas por
pessoal no data center.
Toda a infraestrutura da sala dos servidores precisa ser gerenciada a fim de
ajudar aos profissionais responsáveis pela gestão da TI da empresa. Ele será alertado
sobre algum incidente gerado para tomar decisão tão logo ao ser alertado para que os
sistemas não parem e pode também extrair relatórios sobre o andamento de todas as
variáveis que podem causar algum incidente tomando medidas necessárias para a
solução de um incidente futuro.
Alguns exemplos de ameaças físicas que podem potencialmente gerar
incidente em um data center são (COWAN; GASKINS, 2012):

Ameaças à qualidade do ar ao equipamento de TI (temperatura,
umidade);

Vazamentos de líquidos;

Presença humana ou atividade incomum;

Ameaças à qualidade do ar ao pessoal (substâncias aéreas estranhas);

Ameaça de fumaça e fogo no data center.
2.5.4 Telemetria e SMS como Contingência da Solução
Recursos tecnológicos dos mais variados podem ser aplicados de forma a
aprimorar a solução e controle de riscos ao negócio. A telemetria aliada ao SMS é uma
forma de controlar o ambiente a distância.
A Telemetria pode ser entendida como a capacidade de se medir ou controlar
variáveis de ambiente estando fora dele e o SMS (ou envio de mensagens curtas) como
meio de interação e monitoramento destes parâmetros. Isto requer apenas um aparelho
celular com capacidade de envio de mensagens SMS e uma linha ativa em qualquer
operadora de telefonia móvel. A escolha se dará principalmente pela qualidade do sinal
no local a ser monitorado.
Para que os parâmetros sejam controlados, cada variável analisada
(temperatura, umidade, detecção de movimentos na sala, etc.) deverá possuir em seu
sistema uma forma capturar as leituras periódicas através de programas de computador
específicos e que possam ser lidos periodicamente para efeito de comparação e envio da
45
análise resultante via SMS ao gestor de TI. Por exemplo, se a temperatura da sala não
pode exceder os vinte graus centígrados, o termômetro digital deverá ler as temperaturas
periodicamente e analisá-las disparando o envio de SMS caso seja detectada qualquer
anomalia nos limites determinados.
Desta forma, os ativos estarão protegidos e supervisionados a distância, não
sendo necessário manter pessoas no local em turnos variados este monitoramento.
2.6 GESTÃO DE TI NAS EMPRESAS
2.6.1 Empresas de Pequeno e Médio Porte
A definição do porte de uma empresa não segue uma regra rígida, pois
depende de critérios quantitativos e qualitativos que diferentes entidades e governos
adotam de acordo com as suas necessidades.
Segundo Kassai (1997), as vantagens dos critérios de natureza quantitativa
são:

permitem a determinação do porte da empresa;

são mais fáceis de serem coletados;

permitem o emprego de medidas de tendência no tempo;

possibilitam análises comparativas;

são de uso corrente nos setores institucionais públicos e privados.
Os critérios adotados pelos diversos órgãos e países podem ser observados
conforme a Tabela 2.
46
Tabela 2 – Demonstrativo dos Critérios de Classificação de MPME´s (KASSAI, 1997)
Para este estudo adotaremos o critério do SEBRAE para a Indústria, visto que
o faturamento em si não é determinante para a infraestrutura que estamos propondo,
mas sim a quantidade de usuários que farão acesso simultâneo, impactando
proporcionalmente no desempenho dos sistemas de informação.
47
2.6.2 Visão da TI como área de negócio: Custo ou Investimento?
Nesse mundo globalizado em que os negócios estão inseridos, é de
conhecimento que uma organização necessita de recursos tecnológicos para o
andamento e crescimento dos negócios, caso contrário, os seus negócios podem entrar
em declínio e até mesmo ser extinto. A organização precisa gerenciar o seu bem mais
precioso, a informação, pois é através dela que a empresa vai se diferenciar de suas
concorrentes alavancando assim os seus negócios.
Para realizar o gerenciamento das informações a organização precisa manter
recursos de TI atualizados (hardware, software e serviços) e, consequentemente, se
gasta dinheiro para a aquisição desses novos recursos, mas é essencial ter uma
infraestrutura completa, apropriada para apoiar os negócios da empresa. Esse
despendimento é visto como custo ou investimento? Para ficar claro o profissional de TI
precisa saber o que é o custo e o que é investimento.
Segundo Moreira (2013), o investimento é “a aplicação de capital visando o
aumento da capacidade produtiva da empresa, esperando que os lucros obtidos sejam
maiores que o capital investido”.
O custo, de acordo com Moreira (2013), “são todos os gastos necessários
para criar, produzir ou comercializar produtos e serviços da empresa”.
Moreira (2013) menciona:
[..] É muito mais apropriado dizer então que o investimento é sempre
feito nas empresas, e não em TI, porque é da diferença entre a receita
da venda de seus produtos e dos custos necessários a sua elaboração e
venda que resultarão os fluxos de caixa esperados, e não diretamente
dos ativos de TI. Os ativos de TI contribuirão para a geração destes
fluxos de caixa, mas não são eles que serão comercializados.
Baseada nas informações verificadas acima se chega à conclusão que os
gastos em recursos de TI são custos, como por exemplo, gastos em matérias primas,
energia, propaganda. Esses gastos geram valor para produtos e serviços da empresa,
ficando com maior valor de mercado que os gastos para produzi-los (MOREIRA, 2013).
Entretanto, mesmo que na teoria verificada o gasto de TI seja um custo para
a organização, muitas empresas já veem esse despedimento de capital como um
investimento, um diferencial competitivo para os seus negócios em comparação com
seus concorrentes. Isso não quer dizer necessariamente que quanto mais recursos
tecnológicos a organização manter será mais competitiva que seus concorrentes mas sim
a melhor empregabilidade dos seus recursos atuais e futuras aquisições.
48
2.6.3 Planejamento Orçamentário da Solução
Dizer que orçamento é dever exclusivo do profissional de administração
aliado ao departamento de controladoria é coisa do passado. Para o profissional de TI,
um bom planejamento orçamentário pode ser a garantia de sua permanência no
emprego, que demonstra alinhamento da solução técnica com os requisitos do negócio.
Saber orçar uma solução futura, conhecendo as deficiências e as direções
que o negócio pode tomar, requer habilidade e tato nas negociações, obtidas
principalmente através da prática. Anualmente o profissional de TI deve se reunir com
executivos financeiros, compradores e diretores, para apresentar o seu plano de
investimentos para o setor de tecnologia. Afinal, sem sistema as empresas não
sobrevivem.
Um planejamento orçamentário é a tradução em valores daquilo que o gestor
de TI tem em mente como Projeto. Se existem reclamações periódicas de que um serviço
não atende a contento determinados clientes internos, ele precisa ser avaliado. Se for
diagnosticado que o serviço em questão precisa de um upgrade, então é hora de pensar
em um projeto que expanda a capacidade de atendimento deste ponto de melhoria
detectado. Orçamentos desta solução deverão ser solicitados a diversas empresas,
analisando cuidadosamente as condições de pagamento, prazos de atendimento,
garantias, etc. Uma vez de posse do valor da solução mais adequada, o mesmo deverá
ser destacado, resumidamente, na planilha de Planejamento Orçamentário Anual,
perfeitamente justificável. Caso o investimento não seja aprovado, não cabe a decisão ao
gestor de TI, mas ele precisa estar ciente e comunicar os riscos aos níveis gerenciais
imediatamente acima para não ser penalizado.
2.6.4 Justificativas do Investimento Proposto
Não é fácil para os profissionais de TI solicitar novos recursos de TI que
precisam ser adquiridos pela organização para a melhoria dos serviços utilizados em
seus processos. Nem sempre os diretores estão dispostos a liberar verbas para essa
melhoria, pois é mais um custo que a empresa terá de fazer. A justificativa nesse caso é
de extrema importância para que os superiores vejam o retorno que esse investimento
pode gerar mais negócios para a organização.
De acordo com Moreira (2013)
[..] Para se justificar os investimentos em TI é necessário identificar os
custos relacionados aos ativos de TI, considerando recursos de
hardware, software e de pessoal. A TI, vista como investimento, gerencia
informação, que por sua vez necessita de manutenção, proporcionando
49
qualidade e eficácia nos processos e atividades, agregando valor ao
negócio da organização.
Para justificar o investimento em TI, Taurion (2002) se referiu a três passos:

nos negócios o que se entende são os números, ou seja, o
profissional de TI precisa saber informações sobre faturamento, custo,
rentabilidade,
retorno
do
investimento,
estoque
para
aliar
o
investimento necessário as informações financeiras;

os planos da TI estão em conformidade com as metas do negócio da
organização, colaborando para que o objetivo seja obtido;

a TI deve ser vista como um apoio para a organização desenvolvendo
novas oportunidades para os negócios.
A governança de TI pode ajudar no processo dos investimentos realizados
pois ela ajusta os interesses relacionados ao negócio da organização com as condutas
relacionadas ao departamento de TI.
Para Peres apud Carvalho (2007) a governança de TI
[..] é um conjunto de práticas, padrões e relacionamentos estruturados,
assumidos por executivos, gestores, técnicos e usuários de TI de uma
organização, com a finalidade de garantir controles efetivos, ampliar os
processos de segurança, minimizar os riscos, ampliar o desempenho,
otimizar a aplicação de recursos, reduzir os custos, suportar as melhores
decisões e consequentemente alinhar TI aos negócios.
Qualquer tipo de investimento feito na área de TI dentro de uma organização
deve visar sempre o aperfeiçoamento da produtividade reduzindo os custos.
2.6.4.1 TI Verde: responsabilidade ambiental
Antes, as organizações dividiam cada serviço utilizado em um servidor, por
exemplo, um servidor somente para e-mail, para arquivos, para gerenciamento de banco
de dados dentre muitos outros que usam o poder de processamento durante algum
momento, contudo, em sua grande parte do tempo fica ocioso. Com essa ociosidade dos
servidores
muita
energia
é
consumida
sem
que
haja
a
necessidade
e,
consequentemente, afetando o meio ambiente. Pensando na preocupação com o meio
ambiente, as organizações começam a verificar boas práticas para a utilização dos seus
recursos de TI, sobretudo nos seus data centers, surgindo assim o conceito de TI verde.
Segundo Affonso (2010) a TI verde é
50
[...] a ideia de que é possível criar e utilizar tecnologias que levarão ao
crescimento sem agredir o meio ambiente, sempre com foco no aumento
de produtividade, o que em si já representa uma grande contribuição
para redução de uso dos recursos naturais.
Jones (2010) define TI verde como “apenas a criação de uma infraestrutura
de TI que utiliza menos recursos — principalmente, a energia”.
Importante mencionar que a energia absorvida não é somente a utilizada por
computadores, mas também a energia para sustentar seu resfriamento e gerenciamento
pela rede da organização (JONES, 2010).
O aumento do poder de processamento do computador com a implementação
de processadores com vários núcleos e com a utilização da virtualização dos servidores,
um computador servidor passou a fazer o trabalho de vários servidores provendo assim
vários serviços em um único equipamento, aumentando sua capacidade de utilização e
diminuindo ao máximo o tempo de ociosidade do mesmo. Por esse motivo, uma
organização já reduz o gasto de energia resultando também em redução dos seus
custos.
De acordo com Jones (2010)
[...] O verdadeiro truque para alcançar a TI verde é aceitar o fato de que
seus ativos de TI atuais são fixos. Você não vai perder muitos servidores
físicos. Entretanto, o que você pode fazer é ter uma ideia melhor da
utilização dos servidores atuais e de quais servidores são mais
eficientes. Identifique quais os servidores que produzem mais carga de
trabalho com menos energia. Ao identificar as máquinas mais eficientes
e aquelas com capacidade extra, você pode começar a consolidar as
tarefas lentamente — usando a virtualização, na maioria dos casos — e,
talvez, a reduzir um pouco os custos de energia.
Para Affonso, a “TI Verde não é sobre gastos desnecessários e dores de
cabeças, mas sobre compras inteligentes e soluções eficientes, onde ganha a empresa, o
funcionário, e todas as outras pessoas no planeta”.
2.6.4.2 Economia do espaço físico
Soluções de virtualização visam economizar espaço físico antes ocupados
por diversos servidores físicos espalhados num mesmo ambiente. Neste trabalho oito
servidores são resumidos para simplesmente dois físicos, o que faz uma enorme
diferença em termos de organização, manutenção e economia de energia, já que os
esforços estão concentrados em menos equipamentos.
51
2.6.4.3 Expansão sem aumento do quadro funcional
Mais servidores, maior capacidade de armazenamento e processamento da
informação não é necessariamente proporcional ao aumento da infraestrutura em termos
de dimensão do espaço físico. Com as técnicas de virtualização propostas neste
trabalho, teremos uma melhor organização do espaço e controle do ambiente, através de
recursos de monitoramento a distância, como a Telemetria com SMS e o emprego de
ferramentas da Gerência de Redes que verificam situações como sobrecarga do
processador, espaço em disco, etc. Programas como o Zabbix citado no item 2.5 facilita
bastante a vida do administrador, que apesar de expandir sua capacidade de
atendimento, reduz proporcionalmente a quantidade de esforço para mantê-la, não
necessitando novas contratações profissionais para acompanhar o crescimento.
2.6.5 Proteção ao Investimento
2.6.5.1 Normas ISO (22301 e 27000)
A ISO (International Organization for Standardization ou Organização
Internacional para Padronização) é uma entidade que padroniza normas internacionais
em diversos segmentos. No Brasil ela é representada pela ABNT (Associação Brasileira
de Normas Técnicas). Dentre todas as normas ISO existentes, o presente trabalho
abordará a ISO 22301 que menciona sobre a gestão de continuidade de negócios e a
ISO 27000 que expões várias normas sobre questões de segurança da informação.
Segundo Módulo (2013)
[...] No atentado terrorista de 1993 ao World Trade Center, 150
empresas das 350 afetadas não conseguiram sobreviver ao incidente.
Por outro lado, nos ataques de 11 de setembro de 2001, as empresas
afetadas que tinham planos de gestão de riscos e de continuidade de
negócios bem desenvolvidos e testados retornaram às atividades dentro
de poucos dias.
Diversas falhas e incidentes podem acontecer em uma organização fazendo
com que seus negócios sejam seriamente afetados ou quiçá, interrompidos. Isso é muito
grave para a empresa, pois ela verá toda sua reputação ser devorada diante a seus
clientes. A norma ISO 22301 é justamente para tratar dos incidentes e falhas, dando
assim, a continuidade nos negócios da organização caso aconteça algum problema. Com
a implementação da norma ISO 22301 a empresa estará mais alinhada caso ocorra
alguma suspenção de algum serviço.
52
Para Correa (2012) a norma ISO 22301
[...] especifica os requisitos para planejar, estabelecer, implementar,
operar, monitorar, rever, manter e melhorar continuamente um sistema
de gestão documentado de modo a preparar para, responder e recuperar
de eventos que possam interromper o funcionamento normal de uma
empresa, quando os mesmos ocorrerem.
Furacões, tsunamis, inundações, vulcões, ataques terroristas, paralisação dos
recursos de TI e telecomunicações que não foram planejados são alguns exemplos de
incidentes que podem levar a interrupção do negócio de uma empresa caso não tenha
uma gestão de continuidade dos negócios implementada.
A organização que realiza a gestão de continuidade dos negócios agrega
vários benefícios, como (CORREA, 2012):

Proteção de valor para os acionistas;

Melhor compreensão do negócio, obtido através da identificação e análise
de riscos;

Resiliência operacional que resulta da implementação de redução de
risco;

O tempo de inatividade é reduzido quando processos alternativos e
soluções alternativas são identificadas;

Documentos e Registros vitais podem ser mantidos e protegidos;

Melhora da eficácia operacional através de um programa de reengenharia
de processos de negócios e/ou de TI;

Preservação no mercado, garantindo a continuidade da prestação de
serviços;

Melhoria da segurança em geral.
É de conhecimento dos profissionais de TI, o quão é importante para a
organização a proteção de seu bem mais precioso, a informação e, todos os recursos
tecnológicos envolvidos no manuseio dessa informação, inclusive todas as pessoas da
empresa que estão envolvidas no processo do negócio. A perda da confiabilidade,
disponibilidade e integridade pode acarretar danos irreparáveis para a organização. Para
a proteção da informação a ISO criou a norma 27000 que padroniza os assuntos
relacionados a segurança da informação dentro da empresa.
A família ISO 27000 é dividida:

ISO 27001 – Sistema de Gestão de Segurança da Informação;

ISO 27002 – Código de Prática para a Gestão de Segurança da
Informação;
53

ISO 27003 – Diretrizes para Implantação de um Sistema de Gestão da
Segurança da Informação;

ISO 27004 – Métricas para a Gestão da Segurança da Informação;

ISO 27005 – Gestão de Risco da Segurança da Informação.
Dentre as normas citadas acima, as mais conhecidas pelos profissionais que
trabalham com a TI nas empresas são a ISO 27001 e a ISO 27002.
Segundo Palma (2011) a norma ISO 27001 “ajuda a empresa a adotar um
sistema de gestão da segurança da Informação que permita mitigar os riscos de
segurança atribuídos a seus ativos e adequar as necessidades a área de negócio”.
Para Palma (2011) a ISO 27002 “é um código de práticas com um conjunto
completo de controles que auxiliam aplicação do Sistema de Gestão da Segurança da
Informação, facilitando atingir os requisitos especificados pela Norma ISO 27001.”
2.6.5.2 Backup
As informações de uma organização é um bem de valor intangível, ou seja,
impalpável, não se pode mencionar o seu valor pois é com suas informações que a
empresa sobrevive e faz os seus negócios. A perda de alguma informação acarretará
problemas sérios para a organização. Não se pode fazer uma proteção 100% das
informações que trafegam dentro de uma empresa e, é por esse motivo, que existe o
backup das informações, pois através das cópias de segurança é que pode-se recuperar
informações caso venha a ocorrer perda das mesmas.
Moreira (2001, p. 84) define backup como “uma importante atividade no
processo de segurança dos dados de uma empresa. Independente do porte e da
atividade da empresa, todas, sem exceção, devem praticá-lo”.
Alguns cuidados a verificar durante o backup (CERT.br, 2012, p.52):

mantenha seus backups atualizados, de acordo com a frequência de
alteração dos dados;

mantenha seus backups em locais seguros, bem condicionados (longe de
poeira, muito calor ou umidade) e com acesso restrito (apenas de pessoas
autorizadas);

configure para que seus backups sejam realizados automaticamente e
certifique-se de que eles estejam realmente sendo feitos (backups
manuais estão mais propensos a erros e esquecimento);
54

além dos backups periódicos, sempre faça backups antes de efetuar
grandes alterações no sistema (adição de hardware, atualização do
sistema operacional, etc.) e de enviar o computador para manutenção;

armazene dados sensíveis em formato criptografado;

mantenha backups redundantes, ou seja, várias cópias, para evitar perder
seus dados em um incêndio, inundação, furto ou pelo uso de mídias
defeituosas (você pode escolher pelo menos duas das seguintes
possibilidades: sua casa, seu escritório e um repositório remoto);

cuidado com mídias obsoletas (disquetes já foram muito usados para
backups, porém, atualmente, acessá-los têm-se se tornado cada vez mais
complicado pela dificuldade em encontrar computadores com leitores
deste tipo de mídia e pela degradação natural do material);

assegure-se de conseguir recuperar seus backups (a realização de testes
periódicos pode evitar a péssima surpresa de descobrir que os dados
estão corrompidos, em formato obsoleto ou que você não possui mais o
programa de recuperação);

mantenha seus backups organizados e identificados (você pode etiquetálos ou nomeá-los com informações que facilitem a localização, como tipo
do dado armazenado e data de gravação);

copie dados que você considere importantes e evite aqueles que podem
ser obtidos de fontes externas confiáveis, como os referentes ao sistema
operacional ou aos programas instalados;

nunca recupere um backup se desconfiar que ele contém dados não
confiáveis.
Também, de acordo com Cert.br (2012, p.53) cuidados deve ser tomados ao
realizar backup online:

observe a disponibilidade do serviço e procure escolher um com poucas
interrupções (alta disponibilidade);

observe o tempo estimado de transmissão de dados (tanto para
realização do backup quanto para recuperação dos dados). Dependendo
da banda disponível e da quantidade de dados a ser copiada (ou
recuperada), o backup online pode se tornar impraticável;

seja seletivo ao escolher o serviço. Observe critérios como suporte, tempo
no mercado (há quanto tempo o serviço é oferecido), a opinião dos
demais usuários e outras referências que você possa ter;
55

leve em consideração o tempo que seus arquivos são mantidos, o espaço
de armazenagem e a política de privacidade e de segurança;

procure aqueles nos quais seus dados trafeguem pela rede de forma
criptografada (caso não haja esta possibilidade, procure você mesmo
criptografar os dados antes de enviá-los).
De acordo com MOREIRA:
[...] é importante que se tenha uma cópia do backup em um local
protegido, mas de fácil acesso para que se tenha agilidade, caso precise
utilizá-lo. É de fundamental importância que se tenha outro backup, se
necessário, criptografado (melhor), em outro prédio e com acesso
controlado para ser usado no momento de uma necessidade (2001,
p.85).
Executar o backup das informações é de extrema importância para a
organização caso aconteça algum incidente. Outro fator importante é fazer a verificação
do backup para assegurar a integridade das informações. Por último, e não menos
importante, certificar do local onde o backup é armazenado é essencial para sua
recuperação.
56
3 OS CENÁRIOS
3.1 PRIMEIRO - ESTRUTURA INTERNA COM SERVIDORES FÍSICOS
INDEPENDENTES
Este primeiro cenário é o mais tradicional encontrado na maioria das
organizações já que conta com servidores em formato torre adquiridos a medida da
necessidade. No início, quando não se tem um planejamento adequado ou uma demanda
que justifique investimento maior, essa perece ser a opção mais correta.
Usando como exemplo uma empresa de médio porte num caso real,
podemos considerar como fundamentais os seguintes servidores: Firewall / Gateway,
Arquivos, Backup, Banco de Dados, Aplicações, Business Intelligence, Helpdesk /
Tarifador / Impressão, VPN CEMIG.
Cada serviço explicitado acima corresponde a um equipamento configurado
individualmente. As configurações foram definidas em função de cada necessidade, com
uma demanda de crescimento modesta, visto que a empresa é uma multinacional com
potencial de crescimento alto em função de aquisições externas, podendo-se prever que
em menos de três anos muitos dos ativos adquiridos estarão obsoletos ou não suportarão
a estrutura, sugerindo um upgrade. Além disso, como os modelos são diferentes entre si,
as peças de reposição para uma emergência (discos rígidos sobressalentes, fontes de
alimentação, placas de rede, etc.) terão que ser adquiridas em grandes quantidades (pelo
menos uma por equipamento). Por exemplo, o que faz um servidor de arquivos no
período das 22h às 07h, sendo que não há funcionários na empresa? O mesmo serve
para o servidor de banco de dados, de business intelligence e de abertura de chamados.
Já o servidor de backup atua exatamente nos horários livres, sem movimento, pois
exigem bastante da rede durante as cópias, o que faria dele um equipamento ocioso das
08h às 20h.
Na questão ambiental verifica-se no tocante a refrigeração do ambiente e no
consumo elevado de energia elétrica, principalmente nos momentos em que a estrutura
estiver ociosa.
Mas garantir as informações é mais confortável, visto que o firewall ativo e
atualizado já garantiria em parte a integridade dos dados da organização. Então resta a
dúvida: manter uma estrutura obsoleta e custosa, em prol da proteção da concorrência e
dos hackers?
Partindo deste modelo e realizando um orçamento com base nas informações
a seguir, pode-se traduzir o investimento neste modelo com sendo, a princípio, o “menos
57
oneroso”. Considerando oito servidores a um custo médio de R$ 5 mil cada, com R$ 40
mil todos estarão em uso. Ainda assim, não está contando com as licenças de uso dos
softwares, adquiridas a parte. Vai funcionar bem até que tenha que criar um novo
ambiente para testes ou mesmo se um deles sair do ar durante o horário comercial. É o
barato que sai caro. Quanto custa para a empresa manter um servidor extra parado
aguardando o defeito surgir para ele entrar em ação? E os testes ou homologações de
novos produtos? Os departamentos de TI das empresas deveriam ser verdadeiros
laboratórios, onde tudo deve ser testado antes de entrar em produção. Nesta situação
pode-se afirmar que este será um dos mais caros modelos a ser adotado. Isso sem
contar com a dificuldade de se realizar atualizações nas máquinas depois de um ou dois
anos de uso, devido à escassez de peças.
Tabela 3 – Configuração do Servidor Firewall (AUTORES, 2013)
Configuração do Servidor Firewall
Modelo
Processador
Memória
Armazenamento
Rede
Sistema Operacional
HP Proliant G2 com fonte ATX 500W
1 Processador Xeon 3.2GHz de 2 núcleos
4GB memória RAM DIMM DDR2
1 Disco rígido SCSI 36GB
2 placas Ethernet 10/100/1000 Mbps
Linux Endian versão 2.5.1
Esta máquina controla o acesso externo de 50 usuários simultâneos durante
dez horas por dia, em média. Também promove o redirecionamento de portas para
outros servidores internos a rede, como os de aplicação e banco de dados, permitindo
acesso remoto ao ERP da empresa por funcionários de outras plantas. Os gargalos
operacionais estão relacionados diretamente ao tráfego intenso entre as placas de rede,
o consumo excessivo de processamento no controle dos filtros por palavras-chave,
bloqueio de URLs das listas de controle de acesso (ACLs) e do espaço em disco para o
armazenamento de sites em cache para acelerar o carregamento de páginas web e
download de conteúdo comum.
Tabela 4 – Configuração do Servidor de Arquivo (AUTORES, 2013)
Configuração do Servidor de Arquivo
Modelo
Processador
Memória
Armazenamento
Rede
Sistema Operacional
HP Proliant G2 com fonte ATX 500W
2 Processadores Xeon 3.2GHz de 2 núcleos
4GB memória RAM DIMM DDR2
2 Discos rígidos SCSI 72GB em RAID10
1 placa Ethernet 10/100/1000 Mbps
Linux Suse Enterprise versão 10
58
Esta máquina compartilha o acesso aos arquivos dos departamentos entre 50
usuários simultâneos durante dez horas por dia, em média. Também executa uma rotina
diária de backup destes arquivos, através de scripts em Shell e os envia
automaticamente ao diretório compartilhado com o servidor de backup. Os gargalos
operacionais estão relacionados ao tráfego intenso na rede para leitura e gravação nos
discos (I/O Bounds), que devem atender a diversas requisições simultâneas. O tamanho
das partições é o limite para a expansão do sistema. Memória RAM e processamento são
os menos requisitados.
Tabela 5 – Configuração do Servidor de Banco de Dados (AUTORES, 2013)
Configuração do Servidor de Banco de Dados
Dell PowerEdge T420 com 2 fontes reduntantes
Modelo
ATX 500W
Processador
2 Processadores Xeon 3.2GHz de 4 núcleos
Memória
8GB memória RAM DIMM DDR3 1333Mhz
Armazenamento
4 Discos rígidos SAS 146GB em RAID10
Rede
1 placa Ethernet 10/100/1000 Mbps
Sistema Operacional
Linux Suse Enterprise versão 11
Esta máquina provê o acesso a base de dados ERP de seis países (Brasil,
Chile, Colômbia, Bolívia, México e Peru), para acesso interno e externo por 24 horas
diárias. Isso significa alta disponibilidade e pode ser explicado pelo fato de os países
possuírem fusos horários diferentes e o servidor ser acessado durante as madrugadas
para realizar as cópias de segurança e atualização dos painéis do sistema de Business
Intelligence a cada duas horas. Isso faz dele o mais crítico da estrutura, por isso a
presença de quatro discos em RAID 10. Suporta a falha de até dois discos sem
comprometer as informações, somente a performance. Nele tudo é importante, pois
memória RAM, processamento e leitura/gravação em discos são altamente requisitados.
Tabela 6 – Configuração do Servidor de Backup (AUTORES, 2013)
Configuração do Servidor de Backup
Gabinete Torre sem marca com placa mãe Intel e
Modelo
fonte ATX 500W
Processador
1 Processador Core 2 Duo 2.0GHz de 4 núcleos
Memória
4GB memória RAM DIMM DDR2
Armazenamento
2 Discos rígidos SATA 1TB sem RAID
Rede
1 placa Ethernet 10/100/1000 Mbps
Sistema Operacional
Linux Suse Enterprise versão 10
59
Esta máquina realiza o backup periódico do Outlook dos clientes internos,
armazenando os arquivos em partições bem definidas, oferece diretórios compartilhados
e protegidos para servirem de repositórios das cópias de segurança de outros servidores
(arquivo). Também realizam a replicação dos dados do disco rígido interno 1 para o disco
2, em momentos de ociosidade, para não sobrecarregarem a rede e como contingência
em caso de falha de um dos discos. Os gargalos operacionais estão no intenso tráfego
de rede devido à transferência de arquivos grandes, velocidade e capacidade de
gravação dos discos rígidos, visando manter uma maior quantidade de dias. Memória
RAM e processamento são os menos requisitados.
Tabela 7 – Configuração do Servidor de Aplicações (AUTORES, 2013)
Configuração do Servidor de Aplicações
Modelo
Processador
Memória
Armazenamento
Rede
Sistema Operacional
HP Proliant G2 com fonte ATX 500W
2 Processadores Xeon 3.2GHz de 2 núcleos
4GB memória RAM DIMM DDR2
2 Discos rígidos SCSI 72GB em RAID1
1 placa Ethernet 10/100/1000 Mbps
Windows 2003 Server
Esta máquina provê o acesso interno e externo aos aplicativos do ERP entre
50 usuários simultâneos durante dez horas por dia, em média. Ele é o intermediário entre
as requisições dos usuários e os acessos ao banco de dados Progress, que fica em outro
servidor. Os gargalos operacionais estão relacionados ao tráfego intenso na rede para
leitura e gravação nos discos (I/O Bounds) tanto dele como nos discos do servidor de
banco de dados. Processamento é bastante requisitado para gerenciar as filas de
processos de usuários ávidos por informações.
Tabela 8 – Configuração do Servidor de Business Intelligence (AUTORES, 2013)
Configuração do Servidor de Business Intelligence
Dell PowerEdge T310 com 2 fontes reduntantes
Modelo
ATX 500W
Processador
2 Processadores Xeon 2.9GHz de 4 núcleos
Memória
8GB memória RAM DIMM DDR3 1333Mhz
Armazenamento
2 Discos rígidos SAS 146GB em RAID1
Rede
1 placa Ethernet 10/100/1000 Mbps
Sistema Operacional
Windows 2008 Server com Microsoft SQL 2008
O equipamento atua servindo os usuários com um sistema de Business
Intelligence que se resume a painéis atualizados a cada duas horas que demonstram as
vendas dos seis países controlados pelo ERP (Brasil, Chile, Colômbia, Bolívia, México e
60
Peru). Ao todo são 20 usuários simultâneos realizando todos os tipos de operações de
filtragem do Datawarehouse contido no servidor. Este sistema que chamaremos de DW
extrai, transforma e grava os dados coletados a cada duas horas do ERP para
disponibilizá-los, devidamente tratados, aos usuários do BI. Como o trabalho é realizado
sobre uma base extraída da principal não há preocupações com a preservação dos
dados, pois podem ser extraídos novamente a qualquer momento. Ele fica disponível
durante o horário comercial, mas os gargalos operacionais estão relacionados não só ao
tráfego na rede para leitura nos discos e sim ao processamento das bases de todos os
países a cada duas horas que demanda um elevado uso de memória RAM e
processador, podendo faltar recursos do sistema durante as consultas ao banco DW. A
memória RAM ainda é mais sobrecarregada, pois a estratégia do software Qlikview,
responsável pela elaboração dos painéis, é transferir os dados do banco para a memória
visando agilizar a busca pela informação.
Tabela 9 – Configuração do de Helpdesk / Tarifador / Impressão (AUTORES, 2013)
Configuração do Servidor de Helpdesk / Tarifador / Impressão
Modelo
Processador
Memória
Armazenamento
Rede
Sistema Operacional
HP Proliant G2 com fonte ATX 500W
1 Processador Xeon 3.2GHz de 2 núcleos
4GB memória RAM DIMM DDR2
1 Discos rígido SCSI 72GB sem RAID
1 placa Ethernet 10/100/1000 Mbps
Windows 2003 Server
Responsável por manter o portal de chamados ativo durante 24 horas,
também registra as chamadas de entrada e saída da central telefônica da fábrica
(tarifador conectado via porta serial) além de monitorar as impressões dos 50 usuários
conectados à rede interna. Não foram identificados gargalos operacionais, porém há um
elevado tráfego na rede durante o acesso ao portal de chamados em horário comercial e
nas requisições de impressão. A captura das chamadas telefônicas não consome tantos
recursos. Portanto memória RAM e processamento são os menos requisitados.
Tabela 10 – Configuração do Servidor de VPN Cemig (AUTORES, 2013)
Configuração do Servidor de VPN Cemig
Gabinete Torre sem marca com placa mãe Intel e
Modelo
fonte ATX 500W
1 Processador Pentium 4 HT 3.0Ghz de 2
Processador
núcleos
Memória
2GB memória RAM DIMM DDR
Armazenamento
1 Discos rígido SATA 320GB sem RAID
Rede
1 placa Ethernet 10/100 Mbps
Sistema Operacional
Linux Endian versão 2.4.1 Community Edition
61
Esta máquina realiza o monitoramento da rede elétrica e dos medidores de
energia da CEMIG através de uma VPN criada a partir do tunelamento da conexão
pública (Internet) com a rede da concessionária e a fábrica. Filtros colocados como
regras, impedem o acesso externo não autorizado, assim como o fato dele possuir
apenas uma placa de rede. Não existem gargalos neste servidor, pelo fato das
requisições serem isoladas, pouco comuns, apenas um acesso por vez e sem
concorrência. O mais importante nesta configuração é a alta disponibilidade dos serviços
prestados pelo equipamento, já que é o responsável pelo monitoramento, portanto
precisa detectar qualquer tipo de variação na rede elétrica e alertar a concessionária
antes que um incidente se transforme em acidente.
Na Figura 9 pode-se verificar como é mapeada toda a estrutura dos
servidores citados acima na estrutura interna com servidores físicos independentes.
ESTAÇÃO
TRABALHO
2
ESTAÇÃO
TRABALHO
N
BARRAMENTO ETHERNET PRINCIPAL
ESTAÇÃO
TRABALHO
1
SERVIDOR
BANCO DE DADOS
SERVIDOR
BUSINESS INTELLIGENCE
SERVIDOR
BACKUP
SWITCH PRINCIPAL
SERVIDOR
ARQUIVOS
SERVIDOR
INTERNET
SERVIDOR
VPN-CEMIG
ROTEADOR WWW
SERVIDOR
APLICAÇÕES
Figura 9 – Mapeamento da Estrutura de Servidores
SERVIDOR
HELPDESK
62
3.2 SEGUNDO - ESTRUTURA EXTERNA COM SERVIDORES NA NUVEM
No capítulo 3.1 foram vistos algumas das vantagens e desvantagens de
manter servidores internos, mas os piores casos não foram considerados. Diversos são
os exemplos de empresas que perderam tudo porque não tinham replicação dos dados
em locais externos e sofreram com incêndios, inundações e tremores, ou até mesmo
simples tempestades que provocam a queima de servidores por indução eletromagnética.
Tudo está sujeito aos fenômenos da natureza, assim como aos roubos de informações. É
aí que entram os servidores hospedados fora do perímetro industrial, em outros países,
ou em múltiplos locais. Pode-se considerar o caso da Amazon, que provê a hospedagem
de servidores escalonáveis em múltiplos sites espalhados pelo mundo, garantindo a
contingência da informação dos seus clientes com o AWS (Amazon Web Service).
Apesar disso, o que dizer da segurança destes dados? É possível que uma empresa
como a Amazon garanta, através de um contrato de confidencialidade, que os dados de
seus clientes jamais serão acessados por terceiros não autorizados? E o custo para
assumirmos estes riscos, compensa?
Um comparativo simples, para ilustrar os custos de se manter a estrutura
interna ou externa à organização, supondo que a estrutura adotada na Amazon seja
similar às configurações descritas no item 3.1. Para isso, estima-se o uso de instâncias,
que seriam os servidores ativos e cobrados por hora, segundo a Tabela X. Aprecia-se um
tráfego médio de dados de oito servidores em nuvem.
Tabela 11 – Instâncias Reservadas de Utilização Média (AWS, 2013)
63
Logo, os custos para manter uma estrutura mediana com instâncias médias a
0,528 centavos de dólar a hora, para oito servidores durante 24 horas por dia, por
exemplo, obtém-se uma fatura mensal de 3.000,00 dólares + 1.540,00 dólares de taxa
inicial no ano. Ao final de 12 meses, o gasto seria de aproximadamente 37,5 mil dólares
ou 82,5 mil reais na taxa de conversão do dólar de 2,2 para o real. Imaginando que a
demanda sempre tende a aumentar, os gastos na prática serão superiores ao estimado.
Ao longo de três anos o investimento nesta arquitetura pode superar os 250 mil reais.
Além disso, qualquer outro serviço que for acrescentado a estrutura original vai requerer
um reajuste na mensalidade, já que novas instâncias serão criadas.
Criando uma conta no AWS para teste
Vamos utilizar o AWS para hospedar os serviços de virtualização de
máquinas na Web, a custo zero. Para tanto, será necessário acessar o endereço
http://aws.amazon.com/pt/ e clicar em Cadastrar-se, vide Figura 10.
Figura 10 – Acessando Endereço AWS para Cadastro (AWS, 2013)
Preencha os dados solicitados, e-mail, nome e senha para iniciar o uso do
AWS e criar suas próprias máquinas virtuais, vide Figuras 11 e 12.
Figura 11 – Inserindo E-mail para Cadastro na AWS (AWS, 2013)
64
Figura 12 – Inserindo Nome e Senha para Cadastro na AWS (AWS, 2013)
A criação de uma conta no AWS, mesmo que FREE, exige a inclusão de um
cartão de crédito válido para eventuais débitos, como por exemplo: se ultrapassarem 12
meses que a conta foi criada (ainda que não a movimente), se extrapolar o número de
horas predefinido na política de acesso gratuito ou se alocar algum recurso pago, eles
não hesitarão em cobrar pelos serviços utilizados, vide Figura 13.
Figura 13 – Inserindo Dados do Cartão de Crédito (AWS, 2013)
Para tal controle, existe no perfil do administrador, um local para conferir o
uso da conta. Uma vez criada a conta, basta efetuar login e iniciar o uso da ferramenta
online, vide Figura 14.
Figura 14 – Inserindo a Senha de uma Conta Criada (AWS, 2013)
65
Caso a sua conta já esteja criada ou se souber o número da conta AWS,
pode logar diretamente através do site, onde 918753073852 é o número da conta AWS:
https://918753073852.signin.aws.amazon.com/console.
Criação das Máquinas Virtuais Ubuntu de 64 bits com 8GB de Disco
Antes de iniciar a criação de máquinas, deve-se observar o número de
instâncias em execução na sua região atual. A região pode ser escolhida no canto
superior direito da tela, Figura 15, e as instâncias na parte superior, dentro de Resources,
vide Figura 16.
Figura 15 – Escolha da Região da Instância (AWS, 2013)
Figura 16 – Instâncias em Execução (AWS, 2013)
Caso a região escolhida possua mais de 20 instâncias em execução, troque-a
por outra da lista acima. Caso contrário, não poderá instanciar nenhuma outra máquina
neste ambiente. Outra opção seria parar as instâncias em execução. Seguindo os
passos, clique em Launch Instance, Figura 17, e em Classic Wizard, Figura 18, para
seguir com a criação da máquina Linux Virtual.
Figura 17 – Criando uma Instância – Launch Instance (AWS, 2013)
66
Figura 18 – Criando uma Instância – Classic Wizard (AWS, 2013)
Escolha o sistema operacional do servidor Ubuntu 64 bits, vide Figura 19. Os
ícones “estrela” identificam os perfis gratuitos.
Figura 19 – Sistema Operacional instalado na Nova Instância (AWS, 2013)
Mantenha as opções a seguir no padrão informado, exceto Availability Zone,
que é obrigatório, vide Figura 20.
Figura 20 – Seleção da Zona Disponível (AWS, 2013)
67
Escolha o Kernel ID e o tamanho do disco da nova instância, vide Figura 21.
Figura 21 – Seleção Kernel ID e Tamanho do Disco (AWS, 2013)
Observe se o tamanho do disco rígido está de acordo. Qualquer divergência,
clique Edit, vide Figura 22.
Figura 22 – Edição para Alterar o Tamanho do Disco (AWS, 2013)
Geração do Par de Chaves para Acesso SSH nas Máquinas Virtuais
Por questões de segurança, é importante criar um par de chaves (.pem ou
.ppk) para permitir o acesso via SSH. Assim que definir o nome da chave, clique sobre a
opção “Create & Download your Key Pair” para descarregá-la, vide Figura 23.
68
Figura 23 – Geração do Par de Chaves para Acesso SSH (AWS, 2013)
No próximo passo você pode criar um novo grupo de segurança com base em
suas próprias regras de filtragem de portas e endereços permitindo as portas 22 (SSH) e
80 (HTTP) , vide Figura 24.
Figura 24 – Criação de um Novo Grupo de Segurança (AWS, 2013)
Anote a sua instância para localizá-la posteriormente na lista, caso queira
parar a máquina ou terminá-la (excluir), vide Figura 25. Ao pressionar o botão Close, a
instância será inicializada. Acompanhe o Status para iniciar o uso da máquina ,vide
Figura 26.
Figura 25 - ID da Instância Criada (AWS, 2013)
Figura 26 – Iniciando a Instância (AWS, 2013)
69
Clique sobre a instância referente a sua máquina para localizar a informação
do DNS para acesso remoto e configuração do servidor via SSH, destacado na cor
amarela, vide Figura 27.
Figura 27 – Visualização do DNS para Acesso Remoto (AWS, 2013)
Uma dica interessante para organizar melhor as máquinas criadas é dar um
nome sugestivo a elas, evitando memorizar códigos de instância, vide Figura 28.
Figura 28 – Nomeação das Máquinas Criadas (AWS, 2013)
Para acessar a máquina via SSH, utilize o Putty, um programa para acesso
remoto gratuito em modo texto. Com o Putty usaremos para acessar o servidor via SSH.
O Puttygen usaremos para converter a chave de segurança criada anteriormente com a
extensão PEM para o formato PPK, padrão do programa, vide Figuras 29, 30 e 31.
Figura 29 – Importando da Chave PEM (AWS, 2013)
70
Figura 30 – Selecionando o Arquivo .PEM para Conversão (AWS, 2013)
Figura 31 – Salvando a Chave em Formato .PPK (AWS, 2013)
Confirme a mensagem de erro sobre deixar a senha de proteção da chave
convertida em branco clicando em “Yes” e salve a nova chave privada PPK. Acesse o
PuTTY, preencha os campos “Host Name” em Session, “Private Key File for
Authentication” em SSH/Auth, vide Figuras 32 e 33, e pressione Open para logar no
servidor.
Figura 32 – Nome Máquina ou IP (AWS, 2013)
Figura 33 – Selecionando Chave Privada para Autenticação .PPK (AWS, 2013)
71
Após confirmar a mensagem de segurança a seguir, vide Figura 34, entre
com o usuário ‘ubuntu’ e tenha acesso ao bash Linux.
Figura 34 – Confirmação de Mensagem de Segurança (AWS, 2013)
Para cada servidor interno do item 3.1 siga todos os passos acima
novamente. É possível reproduzir todos eles, adaptando a quantidade de memória, disco
rígido, placas de rede e sistema operacional. O que ilustramos corresponde ao sistema
Linux para atender ao servidor de Backup.
Nesse ponto começam os problemas, pois apesar da simplicidade em
configurar os servidores virtuais, alguns pontos precisam ser avaliados como pode-se ver
a seguir:
1. Para quaisquer operações de leitura e gravação nos servidores, é
necessário o acesso à Internet;
2. Dependendo do tamanho do arquivo a ser acessado e do horário
(acessos concorrentes) pode ser inviável trabalhar;
3. A confidencialidade das informações armazenadas na nuvem pode ser
contestada;
4. Para o sistema de Firewall/Gateway da rede convencional e do
monitoramento da CEMIG via VPN, a hospedagem em outro país pode
ser um transtorno se pensarmos nos atrasos que podem ocorrer devido
ao número de saltos entre as estações;
5. O servidor de impressão se tornaria inviável, já que exigiria a presença
física de impressoras conectadas aos servidores virtuais ou a criação de
uma VPN para tal controle, tornando a administração muito complexa e
custosa;
6. O servidor de Business Intelligence, que se conecta à fonte de dados
externa do servidor de banco de dados a cada duas horas, consumiria
72
muita banda encarecendo o plano devido ao volume de transferência
mensal de bytes entre os servidores.
Estas são pequenas amostras que podem ser rapidamente identificadas e
que pesam muito na decisão de virtualizar todo o parque da empresa, principalmente no
Brasil em que as redes de dados de alta velocidade são caras e às vezes não atingem os
valores desejados em regiões diferentes das grandes metrópoles.
Em relação ao diagrama ilustrado deste cenário, a visão é extremamente
simplificada, uma vez que só teríamos um roteador mantendo a Internet ativa na empresa
e todo o resto hospedado virtualmente, como uma página da Web. E é esta visão
simplificada que na maioria das vezes ilude o administrador que não imagina as
implicações de se entregar toda a administração a terceiros.
3.3 TERCEIRO - ESTRUTURA INTERNA COM SERVIDORES VIRTUALIZADOS
Neste tópico será abordado o melhor dos dois mundos: uma estrutura de
nuvem interna a empresa, com as mesmas garantias de funcionamento e manutenção da
integridade dos dados.
É neste momento que será utilizado a virtualização: se existem equipamentos
ociosos, porque não utilizar este potencial em processamento extra para os demais
equipamentos do parque em horários de pico? É uma decisão inteligente, pois conservase a energia destinada ao funcionamento da estrutura para o aproveitamento de 100% do
que foi investido. E durante a noite, quando os serviços estacionarem, outros entram em
ação para darem continuidade ao trabalho, com menos sobrecarga, mais rápido,
sobrando espaço para a implementação de outras funções ou até mesmo prolongar a
vida útil dos equipamentos, diminuindo a demanda por investimentos ao longo dos anos.
Isso sem falar do quesito segurança, pois toda a tratativa é feita internamente.
Para esta comparação, empregar-se-á o cenário de dois hosts bem
dimensionados para suportarem todo o processamento analisado anteriormente e prever
um crescimento da demanda em até 30% (10% ao ano até o final de três anos). O
software para virtualização escolhido foi o conceituado VMWare, que em nossas análises
se mostrou o melhor custo benefício para essa solução.
Esta solução não está aqui somente para ilustrar o funcionamento de um
ambiente interno virtualizado, mas sim para provar que sem sombra de dúvidas, é a
melhor opção para pequenas e médias empresas que querem investir o pouco que pode
ser reservado a TI em algo realmente proveitoso. Reunindo o que há de melhor em
infraestrutura de servidores, com o máximo aproveitamento de recursos e com a
segurança de um datacenter em nuvem.
73
O VMWare foi escolhido pela sua praticidade, suporte e formas de
licenciamento, que pode inclusive, em alguns casos, ser gratuito. Sabe-se que o suporte
é necessário em qualquer instituição séria e responsável, pois problemas podem ocorrer,
e dependendo da gravidade ou do grau de disponibilidade do ambiente, minutos
significam milhões. Ainda assim, recursos podem ser acrescentados às versões originais
que se diferenciam basicamente pela quantidade de tarefas que podem ser
automatizadas para o administrador de rede, como por exemplo: desligar hosts ociosos
quando o consumo estiver abaixo de determinado percentual, migração automática de
máquinas virtuais entre hosts caso um deles venha a falhar, realocação de recursos
físicos sob demanda (memória, espaço em disco, processador, etc.) em tempo real.
Em termos de custos este cenário é o mais sensato, pois é o que permite a
maior flexibilidade de todos quando se fala em atender às demandas reprimidas. O
crescimento progressivo com o mínimo de intervenções é o foco deste modelo. Com algo
em torno de R$ 50 mil é possível montar uma infraestrutura como a ilustrada na Figura
10, contemplando os oito servidores físicos em sua plataforma virtual e com a
possibilidade de serem criadas outras máquinas dentro do mesmo ambiente que não
estavam previstas inicialmente. Isso pode ser usado para os ambientes de homologação
ou a criação de novos serviços, sem a necessidade de se investir. Além disso, o sistema
tem as características de alta disponibilidade pela presença de dois hosts (máquinas
principais que controlam toda a estrutura da nuvem interna) e o Storage, essencial para a
preservação da integridade dos dados e velocidade de resposta do ambiente às mais
diversas solicitações dos usuários.
Eis o cenário proposto de forma gráfica na Figura 35, em quatro camadas,
onde a superior representa as máquinas físicas virtualizadas, a segunda contém os dois
hosts responsáveis por controlar toda a infraestrutura, a terceira, com os dois Switches
para redundância e a última camada, que compreende o Storage, responsável pelo
armazenamento dos dados de todo o ambiente.
74
Figura 35 – Infraestrutura VMWare
75
4 AS MELHORES PRÁTICAS
4.1 PROJETO DA SALA DE SERVIDORES
4.1.1 Coleta e Análise das Informações do Ambiente
Para este item, podem-se realizar análises de diversas formas, seja
observando o comportamento de cada servidor, usando especificações padrões de
fabricantes ou mesmo superdimensionando a infraestrutura. A forma mais sensata seria
coletando informações de cada servidor em tempo real durante uma semana, com o
ambiente operando normalmente, de forma que os picos sejam observados, assim como
os momentos de ociosidade. A ferramenta escolhida foi o DPACK (Dell Performance
Analysis Collection Kit), pois ela é gratuita e a análise é feita posteriormente por um
programa de análise e coleta de dados da DELL, gratuito, mas que gera um arquivo .iokit,
criptografado para ser lido apenas pelo fornecedor. Mas o programa oferece também a
saída para arquivo XML, de linguagem aberta, para desenvolvedores. E este que será
usado para analisar os dados coletados pela ferramenta durante sete dias.
Segue o procedimento simples para coleta de performance do ambiente.
Rode a ferramenta nas máquinas de produção do seu ambiente para possibilitar o
dimensionamento da solução. É essencial que todos os servidores do ambiente de
produção sejam inclusos no processo de coleta, na versão Windows através do botão
Adicionar servidor remoto ou Add Remote Server, ou ainda gerando um arquivo .iokit
individualmente em cada um dos servidores Linux. Em ambos os ambientes você pode
instalar em um único servidor e adicionar os demais, neste mesmo servidor onde
executou a instalação.
Versão Windows
http://www.dell.com/support/drivers/us/en/555/DriverDetails?DriverId=N79N0
Versão Linux
http://www.dell.com/support/drivers/us/en/555/DriverDetails?DriverId=MMYM3
Procedimento para servidores Windows:

Abra o arquivo ZIP;

Rode o arquivo DellPack.exe;

Concorde com os Termos e Condições;

Adicione todos servidores do ambiente a partir do botão Adicionar servidor
remoto ou Add Remote Server;
76

Selecione o tempo de duração do monitoramento (é recomendado que
você rode o teste por 24h para um resultado mais efetivo);

Clique em Iniciar captura ou Start Capture;

Complete com as informações para contato;

Selecione o local para salvar o arquivo .iokit;

Após o tempo de execução encaminhe por e-mail para a sua pessoa de
contato na DELL ou acesse o site e transfira mesmo não sendo cliente
DELL.
Procedimento para servidores Linux:

Faça o download do arquivo dpackv1.tar.gz e salve no servidor Linux;

Crie uma pasta temporária e descompacte o arquivo tar;

> mkdir dp

> mv dpack.tar.gz dp/dpack.tar.gz

> cd dp

> tar -xvf dpack.tar.gz

> Rode o arquivo binário dellpack:

Selecionar a opção 1 no menu de ações e após o tempo de execução
./dellpack
encaminhe por e-mail para a sua pessoa de contato na DELL ou acesse o
site e transfira mesmo não sendo cliente DELL.
Observação: tanto na versão Windows como na Linux você pode optar por
pedir a criação de um arquivo extra em XML. No Linux é a opção 7 do Menu, pois é modo
texto.
Esse XML contém as informações do arquivo com extensão iokit, só que de
forma descompactada. Se abrir e conseguir interpretar as tags, não precisa do iokit.
Ao término da coleta, o arquivo iokit será gerado no mesmo diretório de
instalação da ferramenta (por padrão) ou você pode determinar o local.
Uma vez de posse do arquivo iokit, basta encaminhá-lo para uma revenda a
qual possui uma conta corporativa ou mesmo dizer que não é cliente para receber o
retorno da análise de performance do seu ambiente. O arquivo iokit (pode ser até mais de
um)
deverá
ser
enviado
através
do
próprio
site
da
DELL
em
http://www.dell.com/solutions-dpack/us/en/04/enduser.
Este sistema foi desenvolvido pela DELL para facilitar o sizing (ou
dimensionamento) de servidores, comprovando a necessidade real de investimento. Isso
facilita bastante a argumentação perante a diretoria da empresa para sugerir
investimentos ou justificá-los diante do budget definido para o ano.
77
Importante

No Windows: Para coletar mais de 24 horas, basta executar Dellpack.exe
da linha de comando (MS-DOS) com a opção /extended: Dellpack.exe
/extended;

No Linux: A opção de coleta estendida para Linux é - extended ou -e.
As informações coletadas se referem apenas à utilização de recursos no
ambiente. Nenhuma informação armazenada nos servidores será copiada nesse
processo. No arquivo para download se encontra o contrato que detalha o compromisso
da Dell com a confidencialidade dessas informações.
Uma vez coletadas as informações, teremos algo nos resultados do tipo:
consumo de banda, consumo de disco e de memória RAM, uso do processador, taxa de
transferência máxima de leitura e gravação, etc. De posse destes dados, pode-se partir
para a escolha dos componentes ideais para suprir a demanda do ambiente.
Exemplo do conteúdo do arquivo XML que avaliou o servidor de banco de
dados:
<?xml version="1.0" encoding="utf-8"?>
<!-- This is an uncompressed copy of the xml data embedded into the iokit file. -->
<plog version="11" collector="linux" collectorVersion="1.5.0.288392" localStart="635025126130000000"
localEnd="635030310130000000" machineCount="4" deviceCount="8" entryCount="51842"
binaryLen="456973" contactFirstName="Rodrigo" contactLastName="Matos" contactCompany="Onduline do
Brasil Ltda" contactPhone="0055 32 3691-9427" contactEmail="[email protected]"
adler32="1423754279">
<machines>
<machine protocol="linuxlocalsysstats" name="dbserver" id="0" os="SUSE Linux Enterprise Server 11
(x86_64)" connErrors="0" physMem="16285996.0">
<app name="branding-SLES" version="11"/>
</machine>
</machines>
<devices>
<device name="sda" machineID="0" id="1" blockSize="512" blocks="1169686528" blocksFree="909991656"
blocksUsed="259694872" clusterId="2" scrubs="0" serialNumber="SDELLPERC H710"/>
<device name="sda" machineID="4" id="5" blockSize="512" blocks="1953525168" blocksFree="693840920"
blocksUsed="1259684248" clusterId="6" scrubs="0" serialNumber="SATA WDC WD10EARS-00 WDWMAV52614586"/>
<device name="sdb" machineID="4" id="8" blockSize="512" blocks="1953525168" blocksFree="638745120"
blocksUsed="1314780048" clusterId="9" scrubs="0" serialNumber="SATA WDC WD10EARS-00 WDWMAV52584013"/>
<device name="hda" machineID="11" id="12" blockSize="512" blocks="8388604" blocksFree="0"
blocksUsed="8388604" clusterId="13" scrubs="0"/>
<device name="sda" machineID="11" id="14" blockSize="512" blocks="71132000" blocksFree="70036624"
blocksUsed="1095376" clusterId="15" scrubs="0"/>
<device name="cciss!c0d0" machineID="16" id="17" blockSize="512" blocks="71122560" blocksFree="0"
blocksUsed="71122560" clusterId="18" scrubs="0"/>
<device name="cciss!c0d1" machineID="16" id="19" blockSize="512" blocks="142253280" blocksFree="0"
blocksUsed="142253280" clusterId="20" scrubs="0"/>
<device name="hda" machineID="16" id="21" blockSize="512" blocks="8388604" blocksFree="0"
blocksUsed="8388604" clusterId="22" scrubs="0"/>
</devices>
<entries>
<macentry machine="0" freeMem="3834756.0" cpu="0.0" max="100.0" ts="635025126130000000"/>
<entry dev="1" ri="0.0" wi="0.0" rbps="0.0" wbps="0.0" rz="241.4" wz="213.4" rl="2.5" wl="76.5" qd="0.0"
ts="635025126130000000"/>
<macentry machine="16" freeMem="31316.0" cpu="0.0" max="100.0" ts="635025126130000000"/>
78
<entry dev="17" ri="0.0" wi="0.0" rbps="0.0" wbps="0.0" rz="0.0" wz="0.0" rl="0.0" wl="0.0" qd="0.0"
ts="635025126130000000"/>
</entries>
</plog>
4.1.2 Definição dos Sensores de Ambiente
Buscando o equilíbrio entre o investimento realizado e sua proteção, nada
mais sensato que definir alguns sensores que irão monitorar o comportamento de
variáveis como temperatura do ambiente, câmeras com sensores de movimento contra
invasão e biometria para autorizar a entrada no datacenter.
Controladores de temperatura e umidade são simples de serem obtidos em
sites de comércio eletrônico nacionais ou estrangeiros, por um valor entre 20 e 40 reais.
Todos acompanham um CD de instalação dos drivers e um programa de monitoramento
e envio de SMS/e-mail para o administrador caso a temperatura/umidade do ambiente
supere o limite predefinido.
Para as câmeras, uma simples com foco fixo e conexão USB (WebCam) já é
suficiente e o valor não mais do que 50 reais adquiridas em lojas de informática locais. O
programa de monitoramento pode ser pago ou gratuito. Dos pagos recomendamos o
Webcam7 e dos gratuitos, o SpyCam. Ambos possuem recursos de definição de
sensibilidade, transmissão de áudio e vídeo para um repositório FTP, local ou envio de
imagens por e-mail. Podem acionar as câmeras por movimento ou deixá-las gravando
ininterruptamente.
Fechaduras biométricas são os itens mais caros do projeto, girando em torno
de 800 reais, mas que desempenham um importante papel na segurança física do
ambiente contra a entrada de pessoas não autorizadas. As fechaduras mais comuns são
as acionadas por digitais ou teclados alfanuméricos. As mais caras contam inclusive com
Interface USB ou Ethernet, para a coleta de dados a distância, para efeito de auditoria.
4.1.3 Instalação, Configuração e Testes de Monitoramento
Os sensores de temperatura e umidade podem ser instalados sobre a mesa
ou rack e conectado via barramento USB do servidor que será utilizado para tal
monitoramento. Qualquer um cujo sistema operacional seja Windows pode ser utilizado,
desde que possua conexões USB disponíveis. Com o CD de instalação dos drivers do
sensor o mesmo passa a ser reconhecido e o programa que o acompanha deverá ser
ajustado com os dados da temperatura/umidade limites do ambiente e pelo um e-mail
precisa ser configurado para envio automático de mensagens.
Para as câmeras com detecção de movimentos, basta a conexão USB
disponível e a instalação e configuração de um software com os recursos mencionados
79
anteriormente. Se o programa oferecer o recurso do envio de snapshots quando um
alarme é detectado, fica simples gerenciar o ambiente, pois qualquer invasão detectada
será imediatamente comunicada por e-mail em flashes contendo bitmaps de miniaturas
das telas capturadas.
As fechaduras biométricas podem ser instaladas em quaisquer modelos de
portas, sejam de madeira maciça ou não, de ferro, etc. O ideal é o acompanhamento de
um profissional, marceneiro ou serralheiro, para ajustar corretamente os furos, que nem
sempre casarão com os da antiga. A biometria é mantida com a ajuda de pilhas ou
baterias e chaves extras para o caso de tudo falhar. Algumas contam com teclados
numéricos que facilitam o cadastramento das senhas e a auditoria de acessos, exigida
por muitas empresas.
Os testes são simples. Para a temperatura, basta desligar os equipamentos
de ar condicionado que refrigeram o ambiente e aguardar que o alarme soe. Só assim
veremos a eficiência dos sensores atuando preventivamente na tentativa de avisar o
administrador por e-mail. As câmeras podem ser avaliadas com o simples movimento
dentro do ambiente, que provocaria a câmera a disparar snapshots sucessivos por email. Já a fechadura biométrica pode ser testada na tentativa de entrar no ambiente por
uma pessoa credenciada e outra não.
4.2 PROJETO DE VIRTUALIZAÇÃO DE SERVIDORES
4.2.1 Sizing da Infraestrutura para Virtualização
De acordo com os resultados obtidos no DPACK da DELL, pode-se afirmar
que a estrutura a seguir comporta todos os servidores físicos e um potencial de
crescimento de 30%, para atender a uma possível demanda reprimida ou pelo menos
atender durante o período da garantia, em geral, de trinta e seis meses. Adotamos a
DELL como fornecedor principal, pois a empresa possuía todos os componentes
necessários para a elaboração deste cenário. Outros fornecedores foram consultados,
como a IBM e a HP, que possuem configurações similares, mas mesclam as soluções
com fabricantes OEM independentes. Nesta solução, quando todos os componentes são
de um único fornecedor ganhamos no preço, na garantia e condições especiais de
fornecimento.
Configuração dos Hosts
80
Serão duas máquinas que suportarão o sistema operacional de virtualização
VMWare vSphere 5.1, trabalhando em redundância para garantirem a alta disponibilidade
do sistema. Ambos os servidores terão a configuração de acordo com a Tabela X:
Tabela 12 – Configuração dos Servidores (GONTIJO, 2013)
Item
Descrição
PowerEdge T420
(1) Servidor Torre de 2 Soquetes
Add-in Network Adapter
(2) Placas de rede Broadcom® 5719 Quad Port de 1GB
Gerenciamento Integrado
(1) iDRAC 7 Express
Chassis Configuration
(1) Chassis with up to 8, 3.5" Hot-Plug Hard Drives
Configuração de HD
(1) RAID for H710P/H710/H310 (1-16 HDDs)
Controladora Primária
(1) Controladora PERC H710, 512MB NV Cache
Processador
(1) Intel® Xeon® E5-2407 2.20GHz Quad-Core, 10M Cache, 6.4GT/s QPI
Memória
(4) Memórias de 16GB, 1333MHz (RDIMM)
Disco Rígido
(2) Discos rígidos de 300GB SAS, 15K RPM Hot-Plug de 3.5"
Disco Óptico Interno
(1) Unidade de SATA DVD-ROM
Power Supply
(2) Fonte Redundante Hot Plug, 495W
Garantia
3 anos de ProSupport com atendimento no local
VALOR POR UNIDADE
R$ 10.000,00
Seguem algumas explicações sobre a configuração escolhida.
Importante a escolha de no mínimo dois hosts iguais, para manter a
compatibilidade entre os sistemas no caso da falta de um deles. A licença do VMWare
mencionado aqui permite até três hosts no mesmo valor, cada um com dois
processadores, não importa a quantidade de núcleos de cada um (dual-core, quad-core,
six-core ou octa-core).
As controladoras são necessárias para permitir a conexão dos discos SAS
internamente e com o Storage, cotado a seguir. Cada controladora comporta uma taxa de
transferência na prática de 200MB/s, sendo necessárias duas para promover a
redundância.
Os discos dos hosts não são os mais importantes, visto que apenas serão
úteis para a instalação do sistema operacional. Dê preferência aos hotplugs, pois em
caso de queima de um deles a substituição pode ser feita com o servidor ligado.
Fontes redundantes são essenciais para não permitirem ao host ser desligado
caso uma das entradas de alimentação de energia falte.
81
Atenção especial para a quantidade de memória, pois ela foi definida
somando as quantidades de cada servidor físico como o mínimo necessário e dobrando a
capacidade, para uma estimativa futura de três anos.
Configuração da Rede
Dois switches de rede gerenciáveis, 24 portas GigE cada, com possibilidade
de expansão através de empilhamento com porta específica de alta velocidade. As duas
unidades foram escolhidas para que cada controladora seja conectada em seu respectivo
switch garantindo a redundância da rede.
Tabela 13 – Configuração dos Switches (GONTIJO, 2013)
Item
Descrição
PowerConnect 6224
Switch 24 portas Gigabit gerenciável
Empilhamento
Módulo de empilhamento 48Gpbs com cabo de 1m
Garantia
Vitalícia com 3 anos de suporte no local
VALOR POR UNIDADE
R$ 2.500,00
Configuração do Storage
Para que os dados sejam acessados, não basta apenas configurar os hosts e
a rede, é necessário criar um local na rede que permita salvar as informações trocadas
entre os clientes e suportar um volume enorme de leituras e escritas em disco. Os
Storages ou SANs são locais na rede que funcionam como um repositório composto por
um grupo de discos rígidos organizados em RAID para permitirem a perda de no máximo
dois deles sem prejuízos à organização. Isso significa que, mesmo em produção, caso
haja a queima de um dos discos do Storage, os equipamentos permanecerão
funcionando normalmente até a troca daquele que apresentou defeito. Existe uma perda
na performance do sistema, mas insignificante, já que todo o grupo foi projetado para alto
desempenho. Sendo assim, segue a configuração recomendada para este cenário:
Tabela 14 – Configuração dos Storage (GONTIJO, 2013)
Item
Dell Equallogic
Descrição
PS6100X x 01
Capacidade de Expansão Máximo 16 membros por grupo
Controladoras
Duas com 8GB cache de backup High Availability e Failover
Discos rígidos
7.2TB de capacidade, 10K SAS, 12x 600GB
Conexões de rede
4 Portas 1GbE (Cooper) por controladora
82
Configuração dos discos
Suporta RAID 6, RAID 10, e RAID 50
Fonte de energia
Duas Fontes de Energia redundantes de 1080 Watts
Montagem no rack
Trilhos deslizantes Dell ReadyRails™ II estático
Garantia
3 anos ProSupport 24x7 com atendimento no local
VALOR POR UNIDADE
R$ 20.000,00
O RAID 1+0, ou 10, escolhido para essa configuração exige ao menos 4
discos rígidos. Cada par será espelhado, garantindo redundância, e os pares serão
distribuídos, melhorando o desempenho. Até a metade dos discos pode falhar
simultaneamente, sem colocar o conjunto a perder, desde que não falhem os dois discos
de um espelho qualquer — razão pela qual se usam discos de lotes diferentes de cada
‘lado’ do espelho. É o nível recomendado para bases de dados, por ser o mais seguro e
dos mais velozes, assim como qualquer outro uso onde a necessidade de economia não
se sobreponha à segurança e desempenho.
Figura 36 – RAID 10 (WIKIPEDIA, 2013)
A capacidade dos discos foi escolhida pela soma de tudo o que se gasta
atualmente e projetando o consumo para os próximos três anos, conforme histórico da
empresa. Uma conta simples para estimar uma capacidade aproximada seria triplicar
aquilo que existe hoje na estrutura.
83
Duas controladoras com failover permitem que, caso uma deixe de operar, as
informações continuem sendo lidas e gravadas nos discos sem a perda de dados até a
sua substituição.
Configuração do Sistema de Virtualização
Tabela 15 – Configuração do Sistema de Virtualização (GONTIJO, 2013)
Item
Descrição
Suite VMWare
vSphere 5.1 Essencial Plus
vCenter
Server Essentials e ESXi para 3 hosts
Agentes
vCenter 8-way vSMP
Update Manager
Recuperação de dados e alta disponibilidade
Limitações e licenças
3 máquinas e com dois processadores cada
VALOR POR UNIDADE R$ 5.000,00
4.2.2 Escolha da versão do VMWare
Optaremos pela versão 5.1 do vSphere por ser a mais nova e estável da suíte
VMWare. O ambiente escolhido é compatível com esta versão, principalmente as
controladoras SAS e as interfaces de rede Ethernet, pois sem elas não será possível
concretizar o projeto. A compatibilidade pode ser verificada antes da compra com o
fabricante do hardware ou no próprio site da VMWare, que disponibiliza uma lista dos
fabricantes compatíveis com a versão 5.1.
4.2.3 Conversão de Servidores Físicos para Virtuais
Usaremos o próprio conversor gratuito fornecido pela VMWare para converter
servidores físicos em virtuais, com o mínimo esforço. O tempo estimado para a
conversão de cada máquina é de uma hora e 99% de acuracidade.
4.2.4 Inicialização e Monitoramento do Novo Ambiente
A primeira parte do projeto consiste em montar os equipamentos da forma
como ilustrado no item 3.3, onde os dois hosts escolhidos com configurações mais
robustas se conectarão ao storage diretamente e também ao Switch, através da
controladora SAS. Com links de alta velocidade, essa é a melhor configuração para
desempenho. O Switch se conecta aos demais componentes da rede e promove a
integração de todos, além de ser um caminho alternativo (redundante) para o acesso dos
hosts aos discos.
84
Com os hosts no ar, vamos à instalação da suíte do VMWare, com direito ao
vSphere e vCenter.
Com a solução VMWare instalada, fica mais fácil. Os hosts hospedarão a
solução VMWare e as máquinas virtuais criadas em ambos. A necessidade de se ter dois
componentes é em virtude da alta disponibilidade, que exige a presença de outra
máquina idêntica, pois caso haja um sinistro, a que estiver sã pode assumir o conjunto
sem problemas, até que tudo se resolva.
Os testes são simples: usaremos o vConverter para converter as máquinas
físicas em virtuais (cerca de uma hora por servidor, em média). As máquinas VMDK
virtualizadas podem ser copiadas diretamente aos servidores e inicializadas a partir do
vSphere. Poucos ajustes são necessários e em minutos temos o ambiente de testes em
operação. Feitas as devidas comparações de integridade entre as bases, podemos
assumir o teste como base de produção e interromper o funcionamento paralelo das
máquinas físicas obsoletas. Estes servidores antigos podem ser redirecionados a outras
filiais como apoio ou para testes sem comprometerem a nova estrutura.
4.3 DOCUMENTAÇÃO
4.3.1 Documentação dos Riscos
Riscos existem em todas as atividades de negócios. Mapeá-los corretamente
sempre será um desafio. Mas em ambientes como este que foi proposto, os riscos
existem, mas a maioria pode ser identificada e tratada. Os riscos aqui relacionados se
aplicam na maioria das empresas. Casos específicos precisam ser vistos a parte.
Risco
de
incêndio:
podem
ser
contornados
com
os
sensores de
temperatura/umidade instalados na sala ou sensores de fumaça, que não foram
detalhados. Eles não evitam o incêndio, apenas comunicam o incidente potencial de
maneira preventiva. Caso ocorra, o ambiente precisa ser preparado com extintores
automáticos com base em substâncias inibidoras de combustão. Outro fator importante
na minimização deste risco é o backup sistemático de toda a infraestrutura diariamente
para fora da empresa, por exemplo, na filial.
Risco de roubo da informação: as câmeras vigiam 24h enquanto o controle de
acesso biométrico dificulta o acesso de pessoas não autorizadas. Mesmo assim, o fato
não impede o roubo, apenas avisa o administrador do evento e toma as medidas
cabíveis. Um backup diário fora da empresa é essencial para mitigar este risco.
Risco de inundação: menos comum, geralmente empresas deveriam construir
as salas de servidores ao final dos corredores, em pisos mais elevados. Jamais em
subsolos.
85
Risco de desabamento: com tantos prédios caindo ao redor do mundo, este
não seria diferente. Estruturas antigas não suportam tanta modernidade e ficam
saturadas, quando não são provocadas por fenômenos naturais. Neste caso não há
muito que se fazer senão monitorar pela câmera de vigilância.
Riscos de Incompatibilidades de Conversão: nos casos em que a
compatibilidade dos sistemas operacionais com o VMWare, responsável pela
virtualização das máquinas físicas, não for observada, o risco de falha na transformação
dos dados pode ser impeditivo para lançar o projeto em produção, caso os servidores
envolvidos sejam essenciais ao funcionamento da empresa.
4.3.2 Definição das Limitações do Novo Cenário
Este novo cenário é capaz de reproduzir os oito servidores, anteriormente
físicos, e ainda guardar um potencial de crescimento de demandas reprimidas. A solução
se limita a demonstrar a técnica de análise e coleta de dados para o correto
dimensionamento dos componentes, sugerir algumas configurações de nuvens privadas
com base nos resultados obtidos e monitorar variáveis de ambiente para minimização de
riscos potenciais à sala de servidores, com pouco investimento.
Além disso, é importante levar em consideração alguns fatores para o
sucesso do projeto:

A execução do serviço requer levantamento prévio de requisitos;

Um profissional da empresa deve acompanhar a implementação, se
terceirizada;

A empresa deve obter com antecedência todos os softwares e licenças a
serem instaladas, inclusive das máquinas virtuais;

A conversão bem sucedida depende de compatibilidade com o ambiente
VMware, pois sistemas operacionais não homologados não têm
conversão garantida.
86
5 CONSIDERAÇÕES FINAIS
A constante busca das empresas em fazer mais por menos nos obriga a
encontrar alternativas viáveis economicamente sem deixar de atender às mais exigentes
solicitações do mercado. A evolução tecnológica nos permite montar sistemas de alto
desempenho dentro da própria estrutura corporativa, prática um tanto quanto avessa
àquela defendida e tão badalada nuvem. Mas, com este trabalho, buscamos exatamente
comprovar o fato de que dos três cenários propostos, o mais sensato seria admitir uma
estrutura interna virtualizada que simula o comportamento de uma nuvem sem as
preocupações com o sigilo das informações compartilhadas, além de um maior controle
sobre as intervenções técnicas. Como o âmbito abordado envolveu pequenas e médias
empresas, essa solução é perfeitamente aceitável e justificável. E este foi um dos
motivos que nos inspirou na elaboração deste trabalho rico em detalhes, para embasar
com propriedade a argumentação dos gestores de tecnologia que almejam aumentar a
sua capacidade de atendimento aos clientes internos sem investir quantias exorbitantes.
O que demonstramos não é a verdade absoluta, logo, as realidades precisam
ser adaptadas para que as soluções se encaixem perfeitamente. São apenas diretrizes
que cabem ser avaliadas na busca pelo melhor custo-benefício, usando estudos de caso
reais para a comprovação da eficácia do projeto. Vale lembrar dois conceitos importantes
para concluirmos este trabalho: CAPEX (capital expenditure - despesas de capital ou
investimento em bens de capital) e OPEX (operational expenditure - custo associado à
manutenção dos equipamentos e aos gastos de consumíveis e outras despesas
operacionais). A aplicação destas práticas só surtirá efeito caso o planejamento
orçamentário da solução esteja alinhado às estratégias de investimento previstas pela
corporação. Se temos abertura para negociarmos em infraestrutura (compra de ativos), a
liberação de verbas CAPEX atende a defesa de nosso terceiro cenário. Caso a empresa
disponibilize apenas o orçamento para a contratação de serviços (OPEX), teremos que
optar pelo segundo cenário e disponibilizar, impreterivelmente, toda a infraestrutura nas
nuvens. Por isso a importância da TI estar alinhada as estratégias do negócio e permitir a
correta elaboração do plano orçamentário, visando a expansão consciente da
organização.
87
6 REFERÊNCIAS BIBLIOGRÁFICAS
AFFONSO, Reinaldo. A importância da Tecnologia Verde. 2010. iMasters. Disponível
em: <http://imasters.com.br/artigo/18360/tendencias/a-importancia-da-tecnologia-verde/>.
Acesso em: 07 setembro. 2013.
ARDUINO. Getting Started with Arduino. 2013. Disponível em:
<http://arduino.cc/en/Guide/Introduction>. Acesso em: 11 setembro. 2013.
AWS. Amazon Web Services. 2013. Disponível em: <http://aws.amazon.com/pt/>.
Acesso em: 07 setembro. 2013.
BECKINGHAM, Colin. Registro de dados com hardware e software livre no setor de
energia. 2011. IBM. Disponível em: <http://www.ibm.com/developerworks/br/library/osarduinophp/index.html>. Acesso em: 11 setembro. 2013.
BRODKIN, Jon. Gartner: Seven cloud-computing security risks. 2008. Network World.
Disponível em: <http://www.networkworld.com/news/2008/070208-cloud.html>.
Acesso em: 21 agosto. 2013.
CARVALHO, Carlos Augusto da Costa. O que é governança de TI?. 2007. Disponível
em: <http://itweb.com.br/voce-informa/o-que-e-governanca-de-ti/>. Acesso em: 25
setembro. 2013.
CERT.br. Cartilha de Segurança para Internet. 2012. Disponível em:
<http://cartilha.cert.br>. Acesso em: 12 agosto. 2013.
CHIRIGATI, Fernando Seabra. Computação em Nuvem. 2009. Disponível em: <
http://www.gta.ufrj.br/ensino/eel879/trabalhos_vf_2009_2/seabra>. Acesso em: 14
agosto. 2013.
CLOUD COMPUTING USE CASE DISCUSSION GROUP. Cloud Computing Use
Cases White Paper. 2010. Disponível em:
<http://opencloudmanifesto.org/Cloud_Computing_Use_Cases_Whitepaper-4_0.pdf>.
Acesso em: 21 agosto. 2013.
COELHO, Fabio de Azevedo; CALZAVARA, Gustavo Santos; LUCIA, Ricardo.
Virtualização - VMware e Xen. 2008. Disponível em:
<http://www.gta.ufrj.br/grad/09_1/versao-final/virtualizacao/index.html>. Acesso em: 28
agosto. 2013.
COMPUTERWORLD. Tráfego na nuvem aumentará 66% até 2015, projeta Cisco.
2011. Disponível em: < http://computerworld.uol.com.br/tecnologia/2011/11/29/trafego-nanuvem-aumentara-66-ate-2015-projeta-cisco>. Acesso em: 14 agosto. 2013.
CORREA, Marcelo. ISO 22301 JÁ ESTÁ AÍ!. 2012. TI especialistas. Disponível em:
<http://www.tiespecialistas.com.br/2012/06/iso-22301-ja-esta-ai-2/#.UkDiGoafifh>. Acesso
em: 20 setembro. 2013.
FINDTHEBEST. PRTG Network Monitor vs ZABBIX. 2013. Disponível em:
<http://network-management.findthebest.com/compare/57-60/PRTG-Network-Monitor-vsZABBIX>. Acesso em: 29 setembro. 2013.
88
GONTIJO, Carina. Proposta Comercial V3 - Onduline - Valspe. Endereço [on-line]
Disponível: [email protected] de [email protected], 10 setembro,
2013.
ISACA. Computação em nuvem: benefícios para o negócio com perspectivas de
segurança, governança e qualidade. 2009. Disponível em:
<http://www.isaca.org/Knowledge-Center/Research/ResearchDeliverables/Pages/CloudComputing-Business-Benefits-With-Security-Governance-and-AssurancePerspective.aspx>. Acesso em: 16 agosto. 2013.
JONES, Don. TI verde: Sustentabilidade - Sua empresa se importa com ela?. 2010.
TechNet Magazine. Disponível em: <http://technet.microsoft.com/ptbr/magazine/ff808319.aspx>. Acesso em: 07 setembro. 2013
INFOWESTER. O que é cloud computing (computação nas nuvens)?. 2013.
Disponível em: <http://www.infowester.com/cloudcomputing.php>. Acesso em: 13 agosto.
2013.
_________. O que é virtualização e para que serve?. 2013. Disponível em:
<http://www.infowester.com/virtualizacao.php>. Acesso em: 28 agosto. 2013.
KASSAI, Silvia. As Empresas de Pequeno Porte e a Contabilidade. Caderno de
Estudos, São Paulo, FIPECAFI, v.9, n.15, p.60-74, janeiro/julho 1997.
KPMG. Clarity in the Cloud: A global study of the business adoption of Cloud. 2011.
Disponível em:
<http://www.kpmg.com/Global/en/IssuesAndInsights/ArticlesPublications/Documents/
cloud-clarity.pdf >. Acesso em: 19 agosto. 2013.
LESSA, Demian. O Protocolo de Gerenciamento RMON. Rede Nacional de Ensino e
Pesquisa, NewsGeneration, Rio de Janeiro, v.3, n.1, 15 janeiro 1999.
LIMA, M. M. A. E.. Introdução a Gerenciamento de Redes TCP/IP. Rede Nacional de
Ensino e Pesquisa, NewsGeneration, Rio de Janeiro, v.1, n.3, 01 agosto 1997.
MELL, Peter; GRANCE Timothy. The NIST Definition of Cloud Computing. 2011.
Disponível em: < http://csrc.nist.gov/publications/nistpubs/800-145/SP800-145.pdf>.
Acesso em: 15 agosto. 2013
MENASCÉ, Daniel A. Virtualization: Concepts, Applications, and Performance
Modeling. 2005. Disponível em: <http://www.cs.gmu.edu/~menasce/papers/menascecmg05-virtualization.pdf>. Acesso em: 01 agosto. 2013.
MENEZES, Elionildo da Silva; SILVA, Pedro Luciano Leite. Gerenciamento de Redes:
Estudos de Protocolos. 1998. Disponível em:
<http://www.di.ufpe.br/~flash/ais98/gerrede/gerrede.html>. Acesso em: 23 agosto. 2013.
MICROSOFT. Segurança na Nuvem da Microsoft Infraestrutura. 2009. Disponível em:
<http://download.microsoft.com/download/E/9/F/E9F60B35-AB0A-4F70-BE04629E98861742/SecuringtheMSCloudMay09_pt-br.pdf>. Acesso em: 23 agosto. 2013.
MÓDULO. Continuidade de negócios: tendência global. 2013. Disponível em:
<http://modulo.com.br/comunidade/noticias/3072-continuidade-de-negocios-tendenciaglobal>. Acesso em: 20 setembro. 2013.
89
MOREIRA, Felipe Matos. TI - Investimento ou Custo. 2013. Disponível em:
<http://ccitecnologia.com.br/blog/ti-investimento-ou-custo/>. Acesso em: 14 setembro.
2013.
MOREIRA, Stringasci Nilton. Segurança Mínima: uma Visão Corporativa da
segurança de informações. Rio de Janeiro: Axcel Books, 2001.
OKA, Alan Yukio. TCO ganha força com a computação em nuvem. 2012. Disponível
em: < http://www.dualtec.com.br/blog/2012/10/09/tco-ganha-forca-com-a-computacaoem-nuvem>. Acesso em: 22 agosto. 2013
PALMA, Fernando. ISO 27001 e ISO 27002. 2011. Disponível em:
<http://www.portalgsti.com.br/2011/05/iso-27001-e-27002.html>. Acesso em: 20
setembro. 2013.
PERRY, Randy; HENDRICK, Stephen D. The Business Value of Amazon Web
Services Accelerates Over Time. 2012. IDC. Disponível em:
<http://media.amazonwebservices.com/idc_aws_business_value_report_2012.pdf>.
Acesso em: 22 agosto. 2013.
PINHEIRO, José Maurício dos Santos. Gerenciamento de Redes de Computadores.
2002. Disponível em: <http://www.allnetcom.com.br/upload/GerenciamentodeRedes.pdf>.
Acesso em: 23 agosto. 2013.
RAMOS, Rodrigo. O que é computação em nuvem e por que eu devo usar?. 2013.
iMasters. Disponível em: <http://imasters.com.br/infra/cloud/o-que-e-computacao-emnuvem-e-por-que-eu-devo-usar>. Acesso em: 14 agosto. 2013.
SÊMOLA, Marcos. Gestão da Segurança da Informação: uma Visão Executiva. Rio de
Janeiro: Campus, 2003.
SOUZA, Valter Carielo de Paula. Orçamento: Pode o Beyond Budgeting Sucumbir o
Atual Budget. 2012. Disponível em:<http://pt.scribd.com/doc/123082898/Budget-eForecast>. Acesso em: 01 agosto. 2013.
STRIANESE, Anibal. Virtualização: a TI virtual. 2010. Disponível em:
<http://www.baguete.com.br/artigos/907/anibal-strianese/11/11/2010/virtualizacao-a-tivirtual>. Acesso em: 28 agosto. 2013.
TAURION, Cezar. Cloud Computing: computação em nuvem: transformando o
mundo da tecnologia da informação. Rio de Janeiro: Brasport, 2009.
_________. Admirável negócio novo. 2002. TIMaster. Disponível em:
<http://www.timaster.com.br/revista/artigos/main_artigo.asp?codigo=518>. Acesso em: 25
setembro. 2013.
VMWARE. vCenter Converter. 2013. Disponível em: <
http://www.vmware.com/br/products/converter>. Acesso em: 02 setembro. 2013.
_________. VMware vSphere 4 - A melhor plataforma para a criação de infraestruturas em nuvem. 2009. Disponível em:
<http://www.vmware.com/files/br/pdf/VMW_09Q1_BRO_vSphere_BR_A4_P4_R6.pdf>.
Acesso em: 03 setembro. 2013.
90
_________. VMware vSphere - Standard Edition e Standard with Operations
Management Edition. 2012. Disponível em:
<http://www.vmware.com/files/br/pdf/VMware-vSphere-Standard-Edition-Datasheet.pdf>.
Acesso em: 03 setembro. 2013.
_________. VMware vCenter Server - Unifica e simplifica o gerenciamento da
virtualização. 2011. Disponível em: <http://www.vmware.com/files/br/pdf/VMwarevCenter-Server-Datasheet.pdf>. Acesso em: 03 setembro. 2013.
_________. VMware vCloud Suite. 2012. Disponível em:
<http://www.vmware.com/files/br/pdf/products/vCloud/VMware-vCloud-SuiteDatasheet.pdf>. Acesso em: 05 setembro. 2013.
WIKIPEDIA. Computação em Nuvem. 2013. Disponível em:
<http://pt.wikipedia.org/wiki/Computa%C3%A7%C3%A3o_em_nuvem>. Acesso em: 14
agosto. 2013.
_________. Acordo de Nível de Serviço. 2013. Disponível em:
<http://pt.wikipedia.org/wiki/Acordo_de_n%C3%ADvel_de_servi%C3%A7o>. Acesso em:
21 agosto. 2013.
_________. Gerência de Redes. 2013. Disponível em:
<http://pt.wikipedia.org/wiki/Ger%C3%AAncia_de_redes>. Acesso em: 27 agosto. 2013.
_________. Total Cost of Ownership. 2013. Disponível em:
<http://pt.wikipedia.org/wiki/Total_cost_of_ownership>. Acesso em: 22 agosto. 2013.
_________. Raid. 2013. Disponível em: <http://pt.wikipedia.org/wiki/RAID#RAID_1.2B0>.
Acesso em: 24 setembro. 2013.
ZABBIX. Zabbix Monitoring Solution Screenshots. 2013. Disponível em:
<http://www.zabbix.com/screenshots.php>. Acesso em: 09 setembro. 2013.
Download

TCC dos alunos da turma 2012: Fabio Rodrigo