UNIVERSIDADE FEDERAL DE JUIZ DE FORA INSTITUTO DE CIÊNCIAS EXATAS DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO CONSOLIDAÇÃO DAS PRÁTICAS DE MONITORAMENTO E OTIMIZAÇÃO DE PROJETOS DE SERVIDORES PARA PERMITIR O CRESCIMENTO INTELIGENTE DAS ORGANIZAÇÕES A BAIXOS CUSTOS Fábio Monteiro Soares Rodrigo Fernandes Matos JUIZ DE FORA SETEMBRO, 2013 CONSOLIDAÇÃO DAS PRÁTICAS DE MONITORAMENTO E OTIMIZAÇÃO DE PROJETOS DE SERVIDORES PARA PERMITIR O CRESCIMENTO INTELIGENTE DAS ORGANIZAÇÕES A BAIXOS CUSTOS FÁBIO MONTEIRO SOARES RODRIGO FERNANDES MATOS Universidade Federal de Juiz de Fora Instituto de Ciências Exatas Departamento de Ciência da Computação Pós Graduação em Redes de Computadores Orientador: Prof. Eduardo Barrére JUIZ DE FORA SETEMBRO, 2013 CONSOLIDAÇÃO DAS PRÁTICAS DE MONITORAMENTO E OTIMIZAÇÃO DE PROJETOS DE SERVIDORES PARA PERMITIR O CRESCIMENTO INTELIGENTE DAS ORGANIZAÇÕES A BAIXOS CUSTOS Fábio Monteiro Soares Rodrigo Fernandes Matos MONOGRAFIA SUBMETIDA AO CORPO DOCENTE DO INSTITUTO DE CIÊNCIAS EXATAS DA UNIVERSIDADE FEDERAL DE JUIZ DE FORA COMO PARTE INTEGRANTE DOS REQUISITOS NECESSÁRIOS PARA OBTENÇÃO DO TÍTULO DE ESPECIALISTA EM REDES DE COMPUTADORES. Aprovada por: ___________________________________________ Professor Eduardo Barrére, Doutor Engenharia de Sistemas e Computação JUIZ DE FORA SETEMBRO, 2013 em AGRADECIMENTOS Ao nosso orientador, professor Eduardo Barrére, pelo acompanhamento pontual do desenvolvimento deste tema. Aos professores do curso, que nos deram a base para argumentarmos tecnicamente a solução. Ao coordenador, que nos permitiu o contato com outros profissionais e organizou o programa de aulas de acordo com as necessidades principais do mercado. À empresa, que nos permitiu testar a solução defendida neste trabalho. SUMÁRIO 1 INTRODUÇÃO ............................................................................... 12 2 CONCEITOS .................................................................................. 14 2.1 COMPUTAÇÃO EM NUVEM ...................................................................... 14 2.1.1 Aspectos da Segurança da Informação ...........................................................21 2.1.2 Aspectos da Segurança Física do Ambiente ....................................................24 2.1.3 SLA (Service Level Agreement ou Acordo de Nível de Serviço) ......................25 2.1.4 TCO (Total Cost of Ownership ou Custo Total de Propriedade) .......................26 2.2 GERÊNCIA DE REDES .............................................................................. 27 2.2.1 O Protocolo SNMP ...........................................................................................29 2.2.2 Os Agentes e os Gerentes ...............................................................................30 2.2.3 Soluções de Mercado: Freeware x Paga .........................................................31 2.4 VIRTUALIZAÇÃO DE SERVIDORES ......................................................... 33 2.4.2 Suíte VMWare .................................................................................................36 2.4.2.1 VCenter .....................................................................................................36 2.4.2.2 VSphere ....................................................................................................36 2.4.2.3 VConverter ................................................................................................37 2.5 MONITORAMENTO REMOTO ................................................................... 38 2.5.1 SNMP: Monitoramento de Variáveis Computacionais ......................................38 2.5.2 Arduíno: Monitoramento de Variáveis Analógicas ............................................43 2.5.3 Controle de Variáveis do Ambiente da Sala de Servidores ..............................43 2.5.4 Telemetria e SMS como Contingência da Solução ..........................................44 2.6 GESTÃO DE TI NAS EMPRESAS .............................................................. 45 2.6.1 Empresas de Pequeno e Médio Porte..............................................................45 2.6.2 Visão da TI como área de negócio: Custo ou Investimento? ............................47 2.6.3 Planejamento Orçamentário da Solução ..........................................................48 2.6.4 Justificativas do Investimento Proposto ...........................................................48 2.6.4.1 TI Verde: responsabilidade ambiental .......................................................49 2.6.4.2 Economia do espaço físico ........................................................................50 2.6.4.3 Expansão sem aumento do quadro funcional ............................................51 2.6.5 Proteção ao Investimento ................................................................................51 2.6.5.1 Normas ISO (22301 e 27000) ....................................................................51 2.6.5.2 Backup ......................................................................................................53 3 OS CENÁRIOS .............................................................................. 56 3.1 PRIMEIRO - ESTRUTURA INTERNA COM SERVIDORES FÍSICOS INDEPENDENTES............................................................................................ 56 3.2 SEGUNDO - ESTRUTURA EXTERNA COM SERVIDORES NA NUVEM . 62 3.3 TERCEIRO - ESTRUTURA INTERNA COM SERVIDORES VIRTUALIZADOS.............................................................................................. 72 4 AS MELHORES PRÁTICAS .......................................................... 75 4.1 PROJETO DA SALA DE SERVIDORES ..................................................... 75 4.1.1 Coleta e Análise das Informações do Ambiente ...............................................75 4.1.2 Definição dos Sensores de Ambiente ..............................................................78 4.1.3 Instalação, Configuração e Testes de Monitoramento......................................78 4.2 PROJETO DE VIRTUALIZAÇÃO DE SERVIDORES ................................. 79 4.2.1 Sizing da Infraestrutura para Virtualização .......................................................79 4.2.2 Escolha da versão do VMWare ........................................................................83 4.2.3 Conversão de Servidores Físicos para Virtuais ................................................83 4.2.4 Inicialização e Monitoramento do Novo Ambiente ............................................83 4.3 DOCUMENTAÇÃO ..................................................................................... 84 4.3.1 Documentação dos Riscos ..............................................................................84 4.3.2 Definição das Limitações do Novo Cenário ......................................................85 5 CONSIDERAÇÕES FINAIS ........................................................... 86 6 REFERÊNCIAS BIBLIOGRÁFICAS .............................................. 87 LISTA DE TABELAS Tabela 1 – Comparativo das Características PRTG x Zabbix (FINDTHEBEST, 2013) .....32 Tabela 2 – Demonstrativo dos Critérios de Classificação de MPME´s (KASSAI, 1997) ...46 Tabela 3 – Configuração do Servidor Firewall (AUTORES, 2013) ...................................57 Tabela 4 – Configuração do Servidor de Arquivo (AUTORES, 2013) ...............................57 Tabela 5 – Configuração do Servidor de Banco de Dados (AUTORES, 2013) ................58 Tabela 6 – Configuração do Servidor de Backup (AUTORES, 2013) ...............................58 Tabela 7 – Configuração do Servidor de Aplicações (AUTORES, 2013)..........................59 Tabela 8 – Configuração do Servidor de Business Intelligence (AUTORES, 2013) .........59 Tabela 9 – Configuração do de Helpdesk / Tarifador / Impressão (AUTORES, 2013)......60 Tabela 10 – Configuração do Servidor de VPN Cemig (AUTORES, 2013) ......................60 Tabela 11 – Instâncias Reservadas de Utilização Média (AWS, 2013) ............................62 Tabela 12 – Configuração dos Servidores (GONTIJO, 2013) ..........................................80 Tabela 13 – Configuração dos Switches (GONTIJO, 2013) .............................................81 Tabela 14 – Configuração dos Storage (GONTIJO, 2013) ...............................................81 Tabela 15 – Configuração do Sistema de Virtualização (GONTIJO, 2013) ......................83 LISTA DE GRÁFICOS Gráfico 1 – Impacto da Computação em Nuvem nos Negócios (KPMG, 2011) ................17 Gráfico 2 – Principais Desafios e Preocupações em Adotar a Nuvem (KPMG, 2011) ......22 Gráfico 3 – Orçamento para Nuvem como Despesas Anuais de TI (KPMG, 2011) ..........27 LISTA DE FIGURAS Figura 1 – Computação em Nuvem (WIKIPEDIA, 2013) ..................................................15 Figura 2 – Problemas do Modelo Tradicional (RAMOS, 2013) .........................................19 Figura 3 – Escalonamento de Recursos em Nuvem (RAMOS, 2013) ..............................19 Figura 4 – Arquitetura Típica do Gerenciamento de Redes (MENEZES; SILVA, 1998) ...31 Figura 5 – Microsoft Cluster Server: CPU idle time (ZABBIX, 2013) ................................39 Figura 6 – PostgreSQL: Network Utilization (Ethernet) (ZABBIX, 2013) ...........................40 Figura 7 – Apache e MySQL (ZABBIX, 2013) ..................................................................41 Figura 8 – Dashboard (ZABBIX, 2013) ............................................................................42 Figura 9 – Mapeamento da Estrutura de Servidores (AUTORES, 2013) ..........................61 Figura 10 – Acessando Endereço AWS para Cadastro (AWS, 2013) ..............................63 Figura 11 – Inserindo E-mail para Cadastro na AWS (AWS, 2013)..................................63 Figura 12 – Inserindo Nome e Senha para Cadastro na AWS (AWS, 2013) ....................64 Figura 13 – Inserindo Dados do Cartão de Crédito (AWS, 2013) .....................................64 Figura 14 – Inserindo a Senha de uma Conta Criada (AWS, 2013) .................................64 Figura 15 – Escolha da Região da Instância (AWS, 2013) ...............................................65 Figura 16 – Instâncias em Execução (AWS, 2013) ..........................................................65 Figura 17 – Criando uma Instância – Launch Instance (AWS, 2013) ...............................65 Figura 18 – Criando uma Instância – Classic Wizard (AWS, 2013) ..................................66 Figura 19 – Sistema Operacional instalado na Nova Instância (AWS, 2013) ...................66 Figura 20 – Seleção da Zona Disponível (AWS, 2013) ....................................................66 Figura 21 – Seleção Kernel ID e Tamanho do Disco (AWS, 2013) ..................................67 Figura 22 – Edição para Alterar o Tamanho do Disco (AWS, 2013).................................67 Figura 23 – Geração do Par de Chaves para Acesso SSH (AWS, 2013) .........................68 Figura 24 – Criação de um Novo Grupo de Segurança (AWS, 2013) ..............................68 Figura 25 - ID da Instância Criada (AWS, 2013) ..............................................................68 Figura 26 – Iniciando a Instância (AWS, 2013) ................................................................68 Figura 27 – Visualização do DNS para Acesso Remoto (AWS, 2013) .............................69 Figura 28 – Nomeação das Máquinas Criadas (AWS, 2013) ...........................................69 Figura 29 – Importando da Chave PEM (AWS, 2013) ......................................................69 Figura 30 – Selecionando o Arquivo .PEM para Conversão (AWS, 2013) .......................70 Figura 31 – Salvando a Chave em Formato .PPK (AWS, 2013) ......................................70 Figura 32 – Nome Máquina ou IP (AWS, 2013) ...............................................................70 Figura 33 – Selecionando Chave Privada para Autenticação .PPK (AWS, 2013) ............70 Figura 34 – Confirmação de Mensagem de Segurança (AWS, 2013) ..............................71 Figura 35 – Infraestrutura VMWare (AUTORES, 2013) ....................................................74 Figura 36 – RAID 10 (WIKIPEDIA, 2013) .........................................................................82 RESUMO Com medidas simples e eficazes, que envolvem a consolidação ferramentas de monitoramento remoto e a otimização das estruturas internas de TI, a gestão do ambiente e a resposta a incidentes se tornam mais rápidas e os investimentos perfeitamente justificáveis. A ideia é criar um modelo que possa ser aplicado aos mais diversos tipos de situação e que possam apoiar os gestores nas tomadas de decisão. Palavras-Chave: Monitoramento remoto, SNMP, virtualização, cloud computing, storage. 12 1 INTRODUÇÃO Os serviços oferecidos pela TI de pequenas e médias empresas aumentaram em complexidade, disponibilidade, tempo de resposta, tolerância a falhas e números de usuários. Esta demanda elevada por recursos não tolera infraestrutura obsoleta e sem a possibilidade de upgrade, pois componentes fora de linha são mais caros, demorados e de difícil substituição. Este estudo visa não só apoiar o gestor nas novas aquisições, mas permitir que a demanda cresça proporcionalmente em trinta e seis meses, tempo médio adotado nos processos anuais de planejamento orçamentário (budget e forecast), de acordo com as melhores práticas observadas em empresas privadas (SOUZA, 2012). Economizar energia demonstra o comprometimento da organização com o meio ambiente, a redução do espaço físico organiza melhor a sala de servidores, a automação e o monitoramento remoto dão mais segurança ao gestor e reduz o tempo de resposta a incidentes de risco, a virtualização garante a disponibilidade, simplifica os processos e aprimora a tolerância a falhas, permitindo que o gestor assuma outras tarefas sem a necessidade do aumento do quadro de funcionários. Segundo Menascé (2005) algumas das vantagens da virtualização podem ser definidas: Segurança: usando máquinas virtuais, pode ser definido qual é o melhor ambiente para executar cada tarefa, com diferentes ferramentas e requerimentos de segurança e o sistema operacional mais adequado para cada serviço. Além disso, cada máquina virtual é isolada das demais. Usando uma máquina virtual para cada serviço, a vulnerabilidade de um não prejudica os demais. Confiança e disponibilidade: a falha de um software não impede o funcionamento dos demais, devido ao isolamento entre as máquinas virtuais. Custo: a redução de custos é possível de ser alcançada com a consolidação de pequenos servidores em outros mais poderosos. Essa redução pode variar de 29% a 64%, de acordo com estudos da IBM. Nisso está incluída a redução do consumo de energia, como por exemplo, a substituição de dez ou mais servidores físicos por dois virtualizados. A reutilização das máquinas substituídas nas filiais da empresa, seja para o compartilhamento de arquivos ou firewall de rede, é perfeitamente aceitável para um número menor de usuários, sem a necessidade de mais investimentos. Adaptação às diferentes cargas de trabalho: variações na carga de trabalho podem ser tratadas facilmente. Ferramentas autônomas podem realocar recursos de uma máquina virtual para a outra, garantindo o desempenho em situações críticas. 13 Balanceamento de carga: toda máquina virtual está encapsulada no núcleo do sistema virtualizado. Sendo assim é fácil trocar a máquina virtual de plataforma, a fim de aumentar o seu desempenho. Suporte a aplicações legadas: quando uma empresa decide migrar para um novo Sistema Operacional, é possível manter o antigo sendo executado em uma máquina virtual, o que reduz os custos com a migração. Vale ainda lembrar que a virtualização pode ser útil para aplicações que são executadas em hardware legado, que está sujeito a falhas e tem altos custos de manutenção. Sendo assim, é possível executar essas aplicações em hardwares mais novos, com custo de manutenção mais baixo e maior confiabilidade. O monitoramento remoto é uma garantia a mais que oferecemos neste trabalho, para dar autonomia ao gestor de TI com ferramentas de controle do ambiente, reduzindo a ocorrência de incidentes de alto risco para a organização. O uso de celulares no processo de emissão de alertas e recebimento de comandos remotos demonstra a preocupação na contingência dos serviços essenciais da organização. O trabalho aqui apresentado está estruturado da seguinte forma: no Capítulo 1 é descrita a introdução do trabalho; no Capítulo 2 são abordados os conceitos sobre computação em nuvem, gerência de redes, programação de scripts, virtualização de servidores, monitoramento remoto, gestão de TI e TI verde; no Capítulo 3 alguns cenários são expostos a fim de comparação entre as diversas estruturas que podem ser utilizadas pelas organizações; no Capítulo 4, as melhores práticas para a projeção das salas de servidores, a virtualização de servidores e documentações geradas enfatizando a norma ISO/IEC 22301:2013. Por fim, no Capítulo 5 têm-se as considerações finais do trabalho de conclusão do curso relatando a sua importância para o crescimento inteligente das organizações. 14 2 CONCEITOS 2.1 COMPUTAÇÃO EM NUVEM Com a crescente busca de recursos de TI para o aumento de produtividade e, consequentemente, de redução de seus custos, as organizações tem a necessidade de buscar novas tecnologias que ajudam na sua produção e no relacionamento com os seus clientes. Uma possibilidade que pode ajudar as empresas é a utilização da computação em nuvem ou cloud computing que visa fornecer infraestrutura, plataforma e software como serviço sob demanda, de acordo com que a empresa necessita. A implantação da computação em nuvem é possível devido ao crescimento das tecnologias e do aumento significativo das telecomunicações, tornando o acesso à Internet mais amplo e eficiente. Diversos são as definições encontradas para a computação em nuvem. Abaixo listamos algumas referências. Taurion (2009, p.2) define computação em nuvem como sendo “um conjunto de recursos como capacidade de processamento, armazenamento, conectividade, plataformas, aplicações e serviços disponibilizados na Internet”. Isaca (2009), afirma que: [...] computação em nuvem é como um modelo para permitir o acesso à rede sob demanda, de forma conveniente, a um conjunto compartilhado de recursos de computação configuráveis (por exemplo, redes, servidores, armazenamento, aplicativos e serviços) que podem ser rapidamente fornecidos e lançados com o mínimo esforço de gestão ou interação do prestador de serviço. Chirigati (2009) defende que computação em nuvem [...] é um novo modelo de computação emergente que move todos os dados e as aplicações dos usuários para grandes centros de armazenamento. Com isso, as aplicações e os sistemas de hardware são distribuídos na forma de serviços baseados na Internet. Para Infowester (2013), computação em nuvem é “à ideia de utilizarmos, em qualquer lugar e independente de plataforma, as mais variadas aplicações por meio da Internet com a mesma facilidade de tê-las instaladas em nossos próprios computadores”. Analisando as definições mencionadas acima se abstrai que computação em nuvem ou cloud computing é a migração de toda a estrutura de servidores de uma organização para amplos data centers tornando o acesso as aplicações e informações de qualquer lugar através de conexão com a Internet. 15 Na Figura 1 pode-se observar um exemplo simples da estrutura da computação em nuvem. Nota-se que a nuvem (Internet) contém os modelos de serviços de aplicação, plataforma e infraestrutura que são acessados em qualquer momento e a qualquer lugar pelos dispositivos, tais; laptops, desktops, smartphones, tablets e servers. Figura 1 – Computação em Nuvem (WIKIPEDIA, 2013) A computação em nuvem vem crescendo e até 2015 o tamanho de informações trafegadas em nuvem elevará em 12 vezes, passando de 130 exabytes registrados em 2010 para 1.6 zetabytes. A taxa anual de crescimento é de 66%. No Brasil, as pequenas e médias empresas deverão seguir essa tendência de crescimento já que muitas não possuem setor de TI e muito dinheiro para investir na área (COMPUTERWORLD, 2011). Centralizar infraestrutura, plataforma e software na nuvem agrega diversos benefícios para as organizações. Para isso, a computação em nuvem possui cinco características fundamentais oferecendo serviços de qualidade para as empresas. MELL e GRANCE (2011) destacam algumas características da computação em nuvem: Self-service sob demanda: as organizações podem adquirir recursos computacionais como armazenamento, processamento, memória em um servidor de acordo com o que precisar sem a ajuda de interação humana; 16 Amplo acesso à rede: as organizações podem acessar os serviços na nuvem por mecanismos padrões como celulares, tablets, notebooks, desktops, pois os recursos estão disponíveis através da rede; Pooling de recursos: as organizações podem adquirir recursos computacionais que são agrupados para atender diversos consumidores de acordo com a sua demanda e esses recursos podem ser especificados em um nível maior de abstração, por exemplo, o país, o estado ou o datacenter; Elasticidade rápida: as organizações podem adquirir recursos computacionais rapidamente na quantidade que desejar, podendo ser automaticamente, de acordo com a sua demanda; Serviço medido: as organizações utilizam somente os recursos computacionais que necessitam, sendo assim, deve-se medir a utilização dos serviços em nuvem de forma transparente, monitorando, controlando e reportando o uso dos recursos utilizados, por exemplo, armazenamento, processamento, largura de banda. Segundo Taurion (2009, p.25): [...] antes da sua adoção da tecnologia é necessário um planejamento adequado, no qual as estratégias e políticas de compartilhamento de recursos dentro da organização devem ser cuidadosamente desenhadas e definidas. De acordo com suas necessidades e poder de investimento as organizações podem resolver em convergir para computação em nuvem verificando os quatro modelos de implantação: nuvem privada, nuvem comunitária, nuvem pública e nuvem híbrida (ISACA, 2009). No modelo de implantação de nuvem privada todos os recursos de TI são realizados pela organização e gerenciados pela mesma ou por terceiros podendo ficar no seu próprio data center ou não. Nesse modelo o risco para a segurança é mínimo e o dimensionamento e a facilidade dos serviços não são os mesmo que a nuvem pública. Neste outro modelo de implantação de nuvem, a comunitária, todos os recursos de TI são distribuídos por diversas organizações que tem os mesmos interesses e gerenciados pela mesma ou por terceiros podendo ficar no seu próprio data center ou não. O risco de segurança e o dimensionamento e a facilidade dos serviços são os mesmos da nuvem privada, porém nesse modelo as informações são guardadas junto com as informações dos seus concorrentes. 17 Em um modelo de implantação de nuvem pública todos os recursos de TI são acessíveis a todos em geral ou a uma organização e essa nuvem pertence a uma empresa que vende os seus serviços a diversos clientes. O risco de segurança, o dimensionamento, a facilidade dos serviços, o armazenamento das informações em conjunto são os mesmos da nuvem comunitária mais as informações podem ser armazenadas em locais distintos e sua recuperação pode ser difícil. Já o modelo de implantação de nuvem híbrida combina duas ou mais nuvens (pública, privada ou comunitária) que estão juntas pelo padrão de uma tecnologia ou do seu proprietário, que pode fazer portabilidade de informações e aplicativos sendo entidades únicas e exclusivas. Por fazer junção de diversos modelos de implantação agrega risco para a segurança, porém classificar e rotular as informações beneficia o gerente de segurança porque associa informações ao tipo de nuvem correta. No Gráfico 1 em pesquisa realizada pela KPMG (2011), indica as alternativas que melhor descreve o impacto da computação em nuvem nos modelos de negócios das organizações. Como se pode observar a redução de custos (50%) foi a principal razão para implementação da computação em nuvem. Também destaca-se a mudança do modelo de negócio (32%), a interação com clientes e fornecedores (39%), o gerenciamento com maior transparência nas operações (32%), a aceleração de tempo para mercado (35%) e outros (1%). Somente (12%) das respostas não terá nenhum impacto no modelo de negócio. Irá mudar fundamentalmente o modelo de negócio 32% Irá mudar a interação com clientes e fornecedores 39% Irá fornecer gerenciamento com maior transparências nas operações 32% Irá reduzir os custos 50% Irá acelerar o tempo de lançar um produto 35% Nenhum impacto significativo 12% Outros 1% 0% 10% 20% 30% 40% 50% Gráfico 1 – Impacto da Computação em Nuvem nos Negócios (KPMG, 2011) 60% 18 Uma das principais vantagens de utilizar a computação em nuvem é a redução dos seus custos, pois a organização irá pagar somente pelo o que foi utilizado. Conforme sua necessidade, a organização pode alocar mais recursos, não gerando gastos desnecessários na aquisição de recursos de TI que podem ficar obsoletos. Para Isaca (2009), [...] embora a promessa de economia financeira seja um ponto bastante atraente da computação em nuvem, muito possivelmente, a melhor opção para as empresas é a simplificação de processos e o aumento de inovação. Com ela, é possível aumentar a produtividade e transformar os processos de negócio através de meios que eram extremamente caros antes do sistema de nuvem. Dentre os benefícios da computação em nuvem, destacam-se (ISACA, 2009): Contenção de despesas: como não há obtenção e manutenção de infraestrutura os serviços da nuvem demanda pouca despesa inicial e como os serviços que precisa são sob demanda a organização pagará pelo o que usar; Imediatismo: como os serviços na nuvem estão disponíveis em larga escala (armazenamento, processamento, memória, etc.) uma organização poderá configurar e usar um serviço em um único dia, diferente de projeto tradicional de TI requer certo tempo para ser desenvolvido, configurado e aplicado levando semanas ou meses; Disponibilidade: as empresas que disponibilizam serviços na nuvem têm muita infraestrutura e bastante largura de banda para prover acesso de alta velocidade, armazenamento e aplicativos, com caminhos redundantes e balanceamento de carga garantindo o funcionamento de sistemas e serviços; Eficiência: com a destinação de recursos de TI e informações para a nuvem as organizações podem focar empenho em pesquisas e desenvolvimento para os seus negócios, gerando vantagens comerciais; Resiliência: no caso de um desastre, as empresas que disponibilizam serviços em nuvem possuem espelhamento dos serviços e balanceamento de carga de tráfego para garantir o funcionamento dos seus serviços; Dimensionamento: como os provedores de acesso as nuvens administram grandes Data Centers, os serviços ofertados possuem muita elasticidade e dimensionamento aos recursos de TI. 19 Na Figura 2 abaixo alguns gráficos são listados sobre o modelo tradicional de recursos de uma organização. Nota-se que a linha vermelha é a capacidade tradicional da infraestrutura e a linha azul é a necessidade de TI. É possível observar que ocorre um grande desperdício computacional e que, ao necessitar de uma demanda maior dos recursos a capacidade não comporta, em consequência, clientes ficam insatisfeitos. Figura 2 – Problemas do Modelo Tradicional (RAMOS, 2013) Na Figura 3 abaixo os mesmo gráficos são listados, contudo, agora, sobre os recursos na nuvem. É possível observar que conforme a necessidade de TI aumenta ou diminui e até mesmo para, a capacidade de dimensionamento sob demanda que a nuvem oferece é fundamental para que não ocorram desperdício e clientes insatisfeitos. Figura 3 – Escalonamento de Recursos em Nuvem (RAMOS, 2013) 20 São muitas as vantagens da utilização da computação em nuvem, contudo, ela apresenta também alguns desafios que devem ser analisadas pela organização a fim de refletir sobre empregar ou não a computação em nuvem nos seus negócios. Como seu ativo mais precioso, a informação, ficará armazenada em locais longínquos e indefinidos, naturalmente algumas questões são discutidas: Onde estão as informações? As informações estão seguras? Como um provedor de serviços na nuvem pode garantir a segurança das informações? A segurança é uma das questões que mais afetam nas decisões das organizações em adotar a utilização da computação em nuvem nos negócios, dentre outros estão a escalabilidade, disponibilidade, confiabilidade, interoperabilidade. Analisar a segurança é o principal desafio para uma organização ao empregar a computação em nuvem já que suas informações que anteriormente estavam localizadas nos seus próprios servidores agora estão em Data Centers que não sabem a localização de suas informações e as informações que estão guardadas junto as suas (KAUFMAN, 2009 apud CHIRIGATI, 2009). Os provedores de serviços são responsáveis por proteger a privacidade dos usuários e a integridade das informações (DIKAIAKOS et al., 2009 apud CHIRIGATI, 2009). Uma característica imprescindível na computação em nuvem é a escalabilidade, ou seja, de acordo com a sua demanda as organizações podem ter recursos computacionais na quantidade que desejar. As aplicações e as informações precisam ser elásticas o suficiente, pois algumas implementações para fazer aplicações e informações elásticas não são simples (SUN, 2009a apud CHIRIGATI, 2009). Apesar dos provedores de serviços na nuvem terem enorme infraestrutura e poder de largura de banda as organizações são receosas sobre a disponibilidade das informações. Elas necessitam que suas aplicações e informações estejam sempre disponíveis (SUN, 2009a apud CHIRIGATI, 2009). Obtém-se a confiabilidade de uma aplicação quando a mesma não falha com grande frequência e, caso ocorra alguma falha, o mesmo não perca informações (SUN, 2009a apud CHIRIGATI, 2009). A interoperabilidade acontece quando as organizações trabalham com seus aplicativos e com suas informações em diversas nuvens, ou seja, as aplicações e informações não estão exclusivamente em uma nuvem. Atualmente várias aplicações estão sendo desenvolvidas considerando diversas nuvens e plataformas (DIKAIAKOS et al., 2009 apud CHIRIGATI, 2009). 21 2.1.1 Aspectos da Segurança da Informação Para as organizações a informação é um bem de valor inestimável devido a sua importância para a geração de negócios, pois é dela que a empresa precisa para sobreviver e crescer. Qualquer vulnerabilidade que a informação está sujeita permitindo ameaças que aumentam os riscos, incomoda as organizações. Os três princípios da segurança da informação são: confidencialidade, disponibilidade e integridade. A perda de algum desses três princípios geram impactos nos negócios das organizações. Sêmola (2003, p.45) menciona esses três princípios como: Confidencialidade: “toda informação deve ser protegida de acordo com graus de sigilo de seu conteúdo, visando à limitação de seu acesso e uso apenas às pessoas para quem elas são destinadas”; Disponibilidade: “toda informação gerada ou adquirida por um indivíduo ou instituição deve estar disponível aos seus usuários, no momento em que os mesmos delas necessitem para qualquer finalidade”; Integridade: “toda a informação deve ser mantida na mesma condição em que foi disponibilizada pelo seu proprietário, visando protegê-la contra alterações indevidas, intencionais ou acidentais”. De acordo com Taurion (2009, p.8): [...] as empresas geralmente são cautelosas quanto à maneira como lidam com seus ativos de informação e não experimentam facilmente novos sistemas de TI. As preocupações com segurança e confiabilidade ainda vão agir como barreiras de entrada durante alguns anos. No modelo tradicional de computação os profissionais de TI tem total poder sobre suas estruturas de tecnologia, ou seja, como seus servidores, aplicações e informações estão localmente dentro da organização eles executam diversos procedimentos de segurança para que não ocorram problemas de vazamento de informações, contudo, sabe-se que nem sempre todas as medidas de segurança adotadas são totalmente seguras. Quando se faz a migração dos recursos de TI juntamente com suas informações para a nuvem a segurança é uma das maiores preocupações e desafios na implantação e utilização da computação em nuvem já que não se conhece onde estão as informações, se as mesmas estão seguras, como é realizada essa segurança. As informações estão sempre sujeitas as vulnerabilidades e a utilização de medidas que venham ajudar na segurança diminui os riscos. 22 Dentre os principais desafios e preocupações das organizações para adotar um ambiente em nuvem a segurança se destaca para assegurar que suas informações fiquem em um ambiente confiável como relatado no Gráfico 2. Cabe destacar também a preocupação com o desempenho em nuvem, os problemas relacionados integração e interoperabilidade dos sistemas, a governança de TI, a perda de controle sobre as informações dos clientes e problemas com a disponibilidade. Segurança 44% Performance 29% Dificuldade de integração da nuvem e os sistemas existentes 20% Governança de TI 18% Perda de controle sobre os dados com relação aos clientes 16% Disponibilidade 15% Medindo ROI 15% Conformidade regulamentar 14% Tempo de resposta 13% Falta confiança na capacidade das empresas em fazer a nuvem Não tem certeza da promessa que a nuvem pode ser realizado 13% 13% Dificuldade em fazer negócio para adotar a nuvem 12% Falta de oportunidade para customização 9% Insatisfação das ofertas / preços pelos vendedores 8% Outros 2% 0% 5% 10% 15% 20% 25% 30% 35% 40% 45% 50% Gráfico 2 – Principais Desafios e Preocupações em Adotar a Nuvem (KPMG, 2011) Em relatório (GARTNER, 2008 apud BRODKIN, 2008) faz uma avaliação dos riscos da segurança na computação em nuvem: Acesso privilegiado de usuários: com o processamento das informações pelos provedores de serviços, consequentemente fora das organizações trazem riscos as mesmas, pois a empresa não tem controle sobre os serviços terceirizados "físicos, lógicos e de pessoal" como internamente dentro da organização. Adquira o máximo de informação sobre os provedores de serviços que gerenciaram suas informações. Conformidade regulamentar: as organizações tem responsabilidade pela segurança e integridade das suas informações mesmo sendo gerenciada pelo provedor de serviços. Para garantir segurança os provedores de 23 serviços tradicionais são propensos a auditores externos e certificações de segurança; Localização das informações: a organização que utiliza computação em nuvem pode não saber onde suas informações estão armazenadas, por exemplo, nem se quer o país no qual a informação está guardada. Peça aos provedores de serviços compromisso para armazenar e processar informações em jurisdições específicas para fazer um contrato que cumpra a privacidade loca da organização; Segregação das informações: as informações da organização na nuvem são guardadas no mesmo ambiente com informações de outros clientes. A criptografia é eficaz, ajuda, mas não é a solução para tudo. O provedor de serviços deve provar que sua criptografia foi feita por especialistas; Recuperação das informações: um provedor de serviços na nuvem é responsável pelas informações da organização em caso de um desastre mesmo a organização não conhecendo o lugar onde se encontra suas informações. Saiba com o seu provedor de serviços se ele é capaz de recuperar suas informações e qual o tempo vai demandar; Apoio a investigação: realizar uma investigação de atividade ilegal em computação em nuvem pode ser impossível. Verifique com o provedor de serviços para obter um contrato para fazer uma investigação; Viabilidade em longo prazo: geralmente, os provedores de serviços na nuvem já são empresas grandes e, ao que tudo indica, nunca vai falir ou ser comprado por uma empresa maior. Caso ocorra esse evento a organização precisa ter garantias da disponibilidade das suas informações; Para uma empresa que se diz pequena ou média e, que geralmente, o setor de TI é bem reduzido, realizar uma segurança apropriada nas suas informações pode ser uma tarefa difícil. Ao empregar a computação em nuvem essas empresas vão obter além das vantagens uma proteção mais adequada do provedor de serviços na nuvem. Taurion (2009, p. 64) diz que “muitas vezes os procedimentos de segurança do provedor são mais adequados que os de muitas empresas de pequeno e médio porte”. 24 2.1.2 Aspectos da Segurança Física do Ambiente Outro aspecto sobre a segurança das informações que uma organização deve ficar atenta é sobre a segurança física de onde ficarão suas informações, ou seja, a segurança nas instalações físicas do data center da nuvem contratada onde suas informações estão armazenadas pois, qualquer falha na segurança física do ambiente, uma informação crucial para a organização pode ser roubada acarretando perdas irreparáveis ao seu negócio. Segundo Microsoft (2009) [...] um dos modos em que a segurança física mudou foi no uso de sistemas técnicos para automatizar o processo de autorização de acesso e autenticação de certos controles conforme o progresso da tecnologia de segurança. A proteção física do ambiente de um data center é realizada por diversas formas: somente as pessoas autorizadas acessam o data center e até mesmo níveis de acesso dentro do data center de acordo com o cargo do profissional, utilização de biometria para controlar os acessos, instalação de câmeras internamente e externamente para o monitoramento de toda a movimentação do data center, pessoal especializado em segurança para maior segurança do ambiente são alguns exemplos que evitam o vazamento de informação através do acesso não autorizado de pessoas. Alguns exemplos para verificar a segurança física são (MICROSOFT, 2009): Restringir acesso aos profissionais do data center; Lidar com requisitos de dados de alto impacto para os negócios; Centralizar o gerenciamento de acesso a ativos físicos. Uma alternativa para as empresas ao fazer o uso de computação em nuvem é, através do Acordo de Nível de Serviço (SLA), garantir em contrato a proteção de suas informações sobre todos os aspectos de segurança, inclusive sobre a segurança física de onde estão guardadas suas informações. Apesar do crescimento exponencial da computação em nuvem, a segurança é vista como um dos principais gargalos para sua adoção dentre as empresas mesmo sabendo de todas as suas vantagens. Todos os aspectos relacionados à segurança da informação devem ser cuidadosamente analisado pela organização para sua implementação já que sua informação estará constantemente manipulada e qualquer problema na sua confidencialidade e integridade gera impactos em seus negócios. 25 2.1.3 SLA (Service Level Agreement ou Acordo de Nível de Serviço) Muitos são os fatores que implicam na migração da computação tradicional para a computação em nuvem. Entretanto, as organizações precisam ter garantias de que os serviços que os provedores de serviços irão prestar funcionem para que não ocorra nenhum incidente em seus negócios. Algumas questões que podem ser levadas em consideração, por exemplo, são: Qual a garantia de disponibilidade que um provedor de serviços oferece? Qual a sua segurança? Quanto tempo um serviço pode ficar fora do ar para uma organização? Para responder a essas questões e outras é que existe o SLA que acorda o nível de serviços entre prestadores de serviços e consumidores. No SLA que está exposto como será o armazenamento, segurança, disponibilidade das informações. Taurion (2009, p. 43) [...] Os contratos devem ser elaborados com cuidado para não incorporarem em custos adicionais, que estavam ocultos ou passaram despercebidos na negociação. Por exemplo, o contrato implementa alguma forma de compensação em caso de falhas ou indisponibilidade? Existe desconto concedido à medida que o volume de utilização for aumentando? Quem arca com os custos de uma eventual migração, por parte do provedor, da plataforma tecnológica e que pode afetar os aplicativos da empresa? Segundo Isaca (2009), o SLA “é uma das ferramentas mais eficazes que a empresa pode usar para garantir a proteção adequada das informações confiadas ao sistema de nuvem”. Para Wikipédia (2013), um SLA é “um acordo firmado entre a área de TI e seu cliente interno, que descreve o serviço de TI, suas metas de nível de serviço, além dos papéis e responsabilidades das partes envolvidas no acordo.” Um SLA contém (CLOUD COMPUTING USE CASE DISCUSSION GROUP, 2010): um conjunto de serviços que o fornecedor irá entregar; uma definição completa, específica de cada serviço; as responsabilidades do fornecedor e do consumidor; um conjunto de métricas para determinar se o provedor está entregando o serviço como prometido; um mecanismo de auditoria para monitorar o serviço; as medidas disponíveis para o consumidor e fornecedor se os termos do SLA não são cumpridas; como o SLA vai mudar ao longo do tempo. 26 Isaca (2009) afirma: [...] A estruturação de um SLA completo e detalhado que inclui direitos específicos de auditoria ajudará a empresa no gerenciamento de suas informações, uma vez que elas saem da organização e são transportadas, armazenadas ou processadas no sistema de nuvem. Fazer um contrato de nível de serviço entre uma organização e o provedor de serviços é de extrema importância para a confiabilidade no ambiente em nuvem já que no SLA estarão descritos todas as regras de cada serviço contratado entre as partes. 2.1.4 TCO (Total Cost of Ownership ou Custo Total de Propriedade) Segundo Oka (2012), o TCO “se destina basicamente a fazer uma estimativa financeira de todos os custos diretos e indiretos associados com ativos e seu ciclo de vida”. Wikipédia (2013) define TCO como [...] uma estimativa financeira projetada para consumidores e gerentes de empresas a avaliar os custos diretos e indiretos relacionados à compra de todo o investimento importante, tal como softwares e hardwares, além do gasto inerente de tais produtos para mantê-los em funcionamento, ou seja, os gastos para que se continue proprietário daquilo que foi adquirido. O TCO pode ser entendido como um cálculo dos custos investidos em recursos de TI e dos custos para sustentar esses recursos em funcionamento durante o seu ciclo de vida na organização. Como as organizações na computação em nuvem utiliza os serviços de acordo com a sua demanda, ou seja, paga os provedores de serviços pelo o que é utilizado, os gastos com infraestrutura de TI encolhem o seu custo total de propriedade realizando uma economia para a empresa. O TCO ajuda os profissionais de TI a avaliar se é viável que um projeto seja realizado na computação tradicional ou na computação em nuvem. Taurion (2009, p.24) afirma que: [...] computação em nuvem é uma excelente alternativa para se criar um Data Center virtual, usando-se milhares de servidores, internos e/ou externos à organização, interligados pela Internet e redes de banda larga, a um custo de propriedade bem menor, principalmente considerando-se a utilização da capacidade ociosa, já adquirida. 27 Em cinco anos o custo total de propriedade para desenvolver, implantar e gerenciar aplicações na infraestrutura em nuvem da Amazon pode-se obter uma economia de 70% comparando com recursos de TI dentro da organização. O ROI nesses anos ficou em 626 (PERRY; HENDRICK, 2012). A computação em nuvem reduz significativamente o TCO de uma empresa. No Gráfico 3 é mostrado o orçamento estimado para a nuvem como um porcentagem das despesas anuais de TI. Observa-se o crescimento dos orçamentos para implementação da computação em nuvem de 2011 para 2012. Das empresas pesquisadas 17% terão mais que 20% do orçamento dedicado aos serviços em nuvem. 2011 2012 0% 5% 1-2% 9% 13% 6% 3-5% 24% 11% 20% 6-10% 13% 11-20% 6% Mais que 20% 24% 19% 17% 16% 17% Não sabe 0% 5% 10% 15% 20% 25% 30% Gráfico 3 – Orçamento para Nuvem como Despesas Anuais de TI (KPMG, 2011) 2.2 GERÊNCIA DE REDES As redes de computadores são formadas por centenas ou milhares de dispositivos que, atualmente, são utilizadas pelas organizações independente do seu tamanho, sejam elas micro, pequena, média ou grandes empresas. Uma rede é de fundamental importância para o funcionamento dos seus processos, fazendo a comunicação dos diversos recursos existentes na organização. Para o bom funcionamento das redes de computadores e de seus sistemas é que existe a gerência 28 de redes. O gerenciamento é realizado através de ferramentas pelas quais podem ser verificados inúmeros recursos. Estatísticas apontam que 30% do valor investido em uma rede de computadores está ligado a aquisição de hardware e, os outros 70%, está no investimento da manutenção e suporte (LESSA, 1999). Lessa (1999) define gerência de redes como “uma atividade que contribui decisivamente para o funcionamento continuado da rede, garantindo que a qualidade dos serviços oferecidos mantenha-se em níveis satisfatórios pelo maior tempo possível”. Para Menezes e Silva (1998) o gerenciamento de redes é “o processo de controlar uma rede de computadores de tal modo que seja possível maximizar sua eficiência e produtividade”. De acordo com Pinheiro (2002) gerenciamento de redes é definido: [...] como a coordenação (controle de atividades e monitoração de uso) de recursos materiais (modems, roteadores, etc.) e ou lógicos (protocolos), fisicamente distribuídos na rede, assegurando, na medida do possível, confiabilidade, tempos de resposta aceitáveis e segurança das informações. Examinando os conceitos acima citados pode-se chegar a uma conclusão que a gerência de redes é o processo de monitorar continuamente todos os dispositivos que compõem uma rede para aumentar o seu desempenho. A gerência de redes possui cinco áreas que são conhecidas como FCAPS (WIKIPEDIA, 2013): Gerência de falhas: realiza a detecção, isolamento, notificação e correção dos problemas encontrados em hardware ou software na rede; Gerência de configuração: realiza os registros e manutenção de diversos parâmetros de configuração dos serviços na rede; Gerência de contabilidade: realiza os registros da utilização da rede pelos usuários para que seja feito a cobrança ou a regulamentação do seu uso; Gerência de desempenho: realiza a aferição e disponibilização das informações de desempenho dos serviços na rede; Gerência de segurança: realiza a proteção do acesso a rede evitando a utilização errada pelos usuários, intencional ou não. 29 2.2.1 O Protocolo SNMP Para que seja realizado o gerenciamento de redes foi proposto o protocolo SNMP (Simple Network Management Protocol). Como o seu próprio nome diz é um protocolo bem simples, de fácil implementação, que gerencia roteadores, servidores, estações de trabalho entre outros dispositivos de redes. O SNMP utiliza o protocolo de transporte UDP (User Datagram Protocol) e é o principal protocolo utilizado no gerenciamento de redes. Segundo Pinheiro (2002), [...] o sucesso do SNMP reside no fato de ter sido ele o primeiro protocolo de gerenciamento não proprietário, público, fácil de ser implementado e que possibilita o gerenciamento efetivo de ambientes heterogêneos. O protocolo SNMP determina mensagens, unidades de dados de protocolo PDU (Protocol Data Unit) que são trocadas na comunicação entre o agente e o gerente. Essas mensagens SNMP podem ser (LIMA, 1997): get-request-PDU: o gerente transmite esse tipo de mensagem para o agente requisitando o valor de uma variável; get-next-request-PDU: o gerente emprega esse tipo de mensagem requisitando o valor da próxima variável após variáveis que foram especificadas; set-request-PDU: o gerente transmite esse tipo de mensagem para o agente requisitando a mudança do valor de uma variável; get-response-PDU: o agente transmite esse tipo de mensagem ao gerente para notificar o valor de uma variável que foi requisitado; trap-PDU: o agente transmite esse tipo de mensagem ao gerente notificando um evento que ocorreu. Desde a sua criação, o protocolo SNMP evoluiu e passou por atualizações. A IETF (Internet Engineering Task Force) é o órgão responsável pela padronização dos protocolos da Internet através das RFCs (Request for Comments) que especifica todos os padrões de cada protocolo. Atualmente, existem três versões para o protocolo SNMP (MENEZES; SILVA, 1998): SNMPv1: nessa versão pela sua aplicação simples o protocolo SNMP tem algumas falhas de segurança, de suporte para a transferência de grandes blocos de dados e estratégias de gerenciamento de rede centralizado; 30 SNMPv2: já essa outra versão tem a finalidade de acabar com as falhas da versão anterior, contudo, as falhas de segurança não foram sanadas; SNMPv3: na última versão do protocolo SNMP foi solucionado as falhas de segurança aplicando autenticação, criptografia e controle de acesso. 2.2.2 Os Agentes e os Gerentes Uma ferramenta de gerenciamento de redes pelo protocolo SNMP emprega dois personagens, o agente e o gerente, que trocam informações entre si para verificar e corrigir eventuais falhas nos dispositivos de uma rede, melhorando assim o seu desempenho. De acordo com Pinheiro (2002) define um processo agente “quando parte de uma aplicação distribuída irá executar as diretivas enviadas pelo processo gerente”. Menezes e Silva (1998) afirmam agente como “entidades que fazem a interface com os dispositivos a serem gerenciados.” O agente é instalado em cada dispositivo de rede que será gerenciado, capturando informações do trabalho dos objetos depositando essas informações na MIB (Management Information Base) para repassar essas informações ao gerente quando requisitado ou ocorrendo alguma falha notificando o gerente. Pinheiro (2002) menciona um processo gerente como [...] parte de uma aplicação distribuída que tem a responsabilidade de uma ou mais atividades de gerenciamento, ou seja, ele transmite operações de gerenciamento (actions) aos agentes e recebe notificações (events) destes. Menezes e Silva (1998) dizem que um gerente “é um agente que possui o NMA (network management application). O NMA pode ser entendido como uma aplicação que inclui uma interface de operador para permitir a um usuário autorizado gerenciar a rede.” O gerente faz a busca das informações dos objetos nos dispositivos de rede que estão sendo gerenciados pelos agentes ou pode receber do agente uma notificação de uma falha sem ser solicitado, analisando essas informações recebidas ou que fez a busca a fim de gerenciar o trabalho desses objetos. A comunicação entre o agente e o gerente é apresentada na Figura 4. Podese verificar que o gerente solicita informações ao agente que responde prontamente com a informação e, também, observa-se que o agente reporta falhas ao gerente sem a sua requisição. 31 Figura 4 – Arquitetura Típica do Gerenciamento de Redes (MENEZES; SILVA, 1998) 2.2.3 Soluções de Mercado: Freeware x Paga O PRTG, ferramenta baseada em sistemas Windows, permite monitorar tráfegos através do SNMP v1, v2 e v3 e de outras ferramentas de monitoria. Apesar de ser um software proprietário, possui sua versão gratuita, onde suas ferramentas são limitadas. Na versão completa, suporta diferentes tipos de equipamentos, fornecendo análise aprofundada e concisa em relatórios. O PRTG oferece cinco diferentes interfaces de gerenciamento sendo duas via Web, uma para plataforma Windows, uma para Android e uma para o iOS, fechando assim uma boa gama de dispositivos móveis. É ótimo para quem precisa de um gerenciamento e que não tem um bom nível de conhecimento. O Zabbix, que atualmente está em sua versão 1.8 estável, une a maioria da gama de ferramenta disponível no NAGIOS, com uma boa praticidade, característica do PRTG. O Zabbix é baseado em PHP-APACHE e utiliza banco Mysql ou Postgres. Existe boa documentação em português, porém as versões não estáveis possuem uma morosidade em suas traduções. Esse sistema é ótimo para quem possui um bom conhecimento em Linux e SNMP, porém não precisa de uma ferramenta prática em sua configuração. O Zabbix possui alertas em Jamber, e-mail e scripts que podem ser customizados. Um exemplo é utilizar modems 3G para o envio de SMS para seu celular. Seus mapas emitem sinais sonoros e visuais de acordo com a gravidade do evento. A escolha do Zabbix foi definida por ser gratuita e operar em compatibilidade com sistemas Linux, visando reduzir os custos de propriedade da empresa (TCO). 32 Na Tabela 1 pode-se observa uma comparação dos programas de gerência de redes PRTG e Zabbix. Tabela 1 – Comparativo das Características PRTG x Zabbix (FINDTHEBEST, 2013) Características Deployment Model License Product Name Company Maximum Manageable Nodes Price Functionality Performance Management Features PRTG On Premise / Client-Server Online / Software as a Service (SaaS) Proprietary PRTG Network Monitor Paessler AG 10.000 PAID Fault Management Configuration Management Accounting Management Performance Management Security Management Availability Monitoring Avg Response Time Data Bandwidth Utilization Data Conditional Alerts CPU Load Data Device Disk Space Data Hardware Monitoring Interface Error Data Memory Utilization Server Platforms Windows Client Operating Systems Windows Vista Product Website Phone Number Sales Email PRTG Network Monitor (paessler.com) 1 (972) 783-2253 [email protected] ZABBIX On Premise / Client-Server Open Source ZABBIX ZABBIX SIA – FREE Fault Management Performance Management Availability Monitoring Conditional Alerts CPU Load Data Device Disk Space Data Device Temperature Monitoring Hardware Monitoring Historical Logs Memory Utilization BSD Linux/Unix Solaris CentOS Debian Fedora Ubuntu Windows 2000 Windows 7 Windows Vista Windows XP S2 ZABBIX (zabbix.com) 1 (877) 492-2249 [email protected] 33 2.4 VIRTUALIZAÇÃO DE SERVIDORES Manter um servidor provendo cada serviço em uma organização gera uma enorme ociosidade desses computadores, pois o poder de processamento, armazenamento e memória é muito maior do que um serviço precisa para ser executado. Essa ociosidade aumenta os custos de manter vários servidores dentro de uma empresa. Para aproveitar melhor os recursos de hardware de um computador utiliza-se a virtualização que consiste em usar uma máquina real para executar máquinas virtuais independentes e, consequentemente, fornecendo vários serviços utilizando somente uma máquina real. Alguns fatores podem ser mencionados para tornar a virtualização de servidores popular, como o encolhimento dos gastos com o ambiente de TI em até 60%, o crescimento da utilização dos servidores, maior eficiência operacional e agilidade no gerenciamento (STRIANESE, 2010). Para Coelho, Calzavara e Lucia (2008) a virtualização [...] consiste na emulação de ambientes isolados, capazes de rodar diferentes sistemas operacionais dentro de uma mesma máquina, aproveitando ao máximo a capacidade do hardware, que muitas vezes fica ociosa em determinados períodos do dia, da semana ou do mês. Segundo Strianese (2010) virtualização “consiste em um processo que permite, por meio do compartilhamento de hardware, a criação de inúmeras outras máquinas a partir de um único equipamento”. Infowester (2013) define virtualização como “soluções computacionais que permitem a execução de vários sistemas operacionais e seus respectivos softwares a partir de uma única máquina, seja ela um desktop convencional ou um potente servidor.” A virtualização de servidores pode ser entendida como a utilização dos recursos computacionais de uma máquina real para gerar outras máquinas virtuais com seus respectivos sistemas operacionais usufruindo melhor da qualidade do hardware existente no computador. Fazer a virtualização de servidores traz inúmeras vantagens, dentre as quais algumas se destacam (INFOWESTER, 2013): Melhor aproveitamento da infraestrutura existente: executando os serviços em um servidor desfruta-se melhor da capacidade de processamento do equipamento; O parque de máquinas é menor: usufruindo melhor dos recursos computacionais não se tem a necessidade de adquirir novos 34 equipamentos e, em consequência, gastos com instalação, espaço físico, refrigeração, manutenção, consumo de energia, dentro outros fatores; Gerenciamento centralizado: o monitoramento de cada serviço é simplificado, pois o gerenciamento é centralizado; Implementação mais rápida: de acordo com a aplicação que será utilizada o tempo para realizar a sua implementação é mais acelerado; Uso de sistemas legados: sustentar uma aplicação antiga é viável pois é possível manter uma máquina virtual com o seu ambiente; Diversidade de plataformas: obter uma variedade de plataformas podendo fazer testes de desempenho de aplicações para elas; Ambiente de testes: aferir novas aplicações ou atualizações antes de implementar diminuindo assim os riscos de procedimentos desse tipo; Segurança e confiabilidade: uma vulnerabilidade de segurança que venha a acontecer em uma máquina virtual não atinge as demais, pois o trabalho de cada máquina virtual independe de outras máquinas virtuais; Migração e ampliação mais fácil: é amplo o ganho em agilidade para aumentar a infraestrutura ou alterar serviços dentro de um ambiente de virtualização. 2.4.1 Soluções de Mercado: Freeware x Paga Comparando o Citrix XenServer, Microsoft Windows Server 2008 R2 Hyper-V, Red Hat Enterprise Virtualization e VMware vSphere, usando o mesmo hardware, mesma topologia de rede, rodando as mesmas máquinas virtuais e ferramentas de análise executadas em Linux e Windows, foram verificadas a configuração de host, criação de templates e clonagem de máquinas virtuais, atualizações e correções, snapshots e backups, opções de scripts, além de recursos mais avançados como balanceamento de carga. As quatro soluções combinam desempenho excelente com um conjunto rico de ferramentas de gerenciamento, mas a VMware ainda leva um pouco de vantagem, talvez em razão de seu tempo de mercado. A ferramenta do fornecedor possui funcionalidades avançadas que as outras ainda não têm, além de mostrar um nível de consistência e precisão que ainda não foram alcançadas pelos outros. Em relação ao desempenho, os quatro são parecidos, mas as principais diferenças emergiram nos testes de carga, no qual o Hyper-V da Microsoft e o XenServer, da Citrix, tiveram um desempenho prejudicado. Rodando em servidor Windows, os melhores resultados vieram dos hypervisors da Microsoft e da VMware. Rodando em Linux, os produtos da Citrix, 35 Red Hat e VMware tiveram resultados sólidos, com uma pequena desvantagem para a Microsoft. A migração em tempo real de máquinas virtuais, alta disponibilidade e balanceamento de carga que eram exclusivos da VMware, agora estão presentes em todos, mas a VMware ainda é a única capaz de fazer migrações em tempo real de storage. Quanto aos recursos avançados de gerenciamento de memória, somente VMware e Red Hat oferecem recursos completos. A complexidade do modelo de licenças é um quesito importante a ser levado em consideração. Os modelos utilizados pela VMware e Microsoft são os mais complexos. A VMware oferece diversos níveis de vSphere, cada um com um conjunto de recursos diferentes, cobrados por socket físico. A Microsoft oferece o Hyper-V como parte do Windows Server 2008 R2, com uma licença corporativa permitindo quatro servidores rodando o mesmo sistema operacional em um servidor físico, além de uma licença para datacenter que permite rodar um número ilimitado de máquinas virtuais por servidor físico. O XenServer, da Citrix, é cobrado por servidor, não importando a capacidade do mesmo. Como a VMware, a Citrix oferece diversos níveis de sistema. O Red Hat Enterprise Virtualization é o mais simples (e barato), com uma única taxa anual por servidor físico, com opções de suporte em meio período ou no sistema 24x7. Em uma avaliação geral, o Hyper-V, da Microsoft, é o que chega mais perto da vSphere, da VMware, nas funcionalidades gerais de gerenciamento. No entanto, a Microsoft possui uma gestão de funções espalhadas em diversas ferramentas, enquanto os demais têm a vantagem de concentrar tudo em um único servidor de gerenciamento. O XenServer, da Citrix, combina uma excelente performance com Linux, implantação rápida, mas algumas funções avançadas requerem configurações adicionais e outras ferramentas de suporte. Uma desvantagem é o fato de que todas as operações de gestão de máquina virtual são serializadas, tomando mais tempo para realizar algumas ações, como ligar ou desligar máquinas. Limitação que impacta na gerenciabilidade e escalabilidade. O Red Hat Enterprise Virtualization, por sua vez, também é de rápida instalação e tem as funcionalidades primárias de gerenciamento, mas ainda tem alguns problemas em relação à gestão de host e à alta disponibilidade. A sua performance é sólida tanto com sistemas Windows e Linux e é o mais próximo do VMware quando o assunto é um sistema com ingredientes para um ambiente altamente escalável. Em resumo, todos os fornecedores fornecem recursos suficientes para uma variedade de tamanhos de ambientes, mas a VMware ainda se demonstra o mais maduro 36 e rico em recursos, motivo pelo qual, apesar do preço da licença, esta ferramenta foi a escolhida em nosso projeto. 2.4.2 Suíte VMWare A suíte VCloud VMware é uma ferramenta que contribui para as organizações na implantação de uma infraestrutura em nuvem completa que disponibiliza os serviços rapidamente reduzindo as operações de TI e provê SLAs superior para os aplicativos (VMWARE, 2012). Os principais benefícios são (VMWARE, 2012): Aumentar a capacidade de resposta da TI aos negócios; Simplificar e automatize o gerenciamento das operações de TI; Oferecer os melhores SLAs a todos os aplicativos. 2.4.2.1 VCenter O VCenter é um programa que gerencia todos os hosts VSphere e as máquinas virtuais do data center utilizando somente um único console concedendo aos administradores de TI a melhorar o console, reduzindo as tarefas e diminuindo a dificuldade e o custo ao gerenciar ambientes de TI. O VCenter provê uma plataforma dimensionável e extensível para o gerenciamento proativo da virtualização, oferecendo uma completa visualização da infraestrutura virtual (VMWARE, 2011). Seus principais recursos são (VMWARE, 2011): Controle centralizado e ampla visibilidade: acesso remoto em qualquer lugar, monitoramento em tempo real dos elementos virtuais dinâmicos, disparadores de alarmes personalizáveis e pesquisa de inventário e navegação simplificados; Gerenciamento proativo de ambientes do vSphere: provisionamento rápido e gerenciamento de patches simplificado, alocação dinâmica de recursos para garantir SLAs, automação do fluxo de trabalho, disponibilidade do vCenter Server; Dimensionamento e extensibilidade: gerenciamento em ampla escala e arquitetura aberta. 2.4.2.2 VSphere O VSphere é um sistema operacional em nuvem, que modifica data centers em infraestrutura de computação em nuvem simples usando os recursos da virtualização admitindo que as empresas de TI provenha serviços de TI confiáveis utilizando os 37 recursos internos e externos com segurança. O VSphere diminui o os custos operacionais e amplia o controle dos serviços de TI fornecidos, além de proporcionar qual sistema operacional, aplicativos e hardware que serão usados internamente ou utilizando recursos externos (VMWARE, 2009). Possui três edições, a standard, a enterprise e enterprise plus cada qual com suas funcionalidades. Com o VSphere a TI pode prestar contrato de nível de serviço dos aplicativos utilizados ao menor custo total de propriedade (VMWARE, 2012). Atualmente o VSphere se encontra na versão 5.1. Dentre os principais benefícios do VSphere pode-se citar (VMWARE, 2012): Eficiência por meio da utilização e automação: pode-se conseguir uma taxa de consolidação de cerca de 15:1 e ampliar a utilização de hardware de 5% a 15% para até 80% não acarretando problemas no desempenho; Redução consideravelmente os custos de TI: diminua as despesas de capital em até 70% e operacionais em até 30% alcançando custos de infraestrutura de TI de 20% a 30% menor para aplicativos em execução; Agilidade com controle: a alteração das necessidades de negócios são prontamente atendidas com total segurança e controle sem a intervenção humana na infraestrutura garantindo disponibilidade, dimensionamento e desempenho para os aplicativos em execução; Liberdade de escolha: com a padronização da plataforma pode-se usufruir dos ativos de TI existentes junto a nova geração de serviços de TI e com APIs abertas aperfeiçoa-se o VSphere. 2.4.2.3 VConverter O VConverter é uma ferramenta que realizar conversões rápidas e confiáveis sem que haja interrupções de máquinas físicas baseadas em Windows e Linux para máquinas virtuais VMware. Também é possível fazer a conversão de máquinas virtuais entre as plataformas VMware e imagem de discos de terceiros como Parallels Desktop, Symantec System Recovery, Norton Ghost, Acronis, StorageCraft, Microsoft Virtual Server ou Virtual PC e máquinas virtuais Microsoft Hyper-V Server (VMWARE, 2013). Algumas das funções do VConverter, de acordo com VMware (2013) são: faz diversas conversões simultâneas aceitando implementação de virtualização em larga escala; desativa e realiza uma cópia real do estado do sistema operacional de origem antes de migrar as informações assegurando a confiabilidade da conversão; 38 efetua as conversões sem interrupções, sem tempo de inatividade ou reinicialização do servidor de origem; através de cópia setorial amplia a clonagem e a velocidade da conversão; suporte para clonagem frio (tipo de conversão que requer tempo de inatividade do servidor) além de clonagem quente; gerenciamento centralizado admitindo aos usuários realizar o monitoramento simultâneo de conversões remotas e locais; assistente de simples utilização que diminui os passos para conversão; suporte para clonagem remoto e local permitindo conversões em locais remotos como filiais. 2.5 MONITORAMENTO REMOTO Todo o negócio da empresa gira em torno das suas informações e, é de extrema importância, a sua disponibilidade, confiabilidade e integridade. Dentro da organização, no setor de TI está localizado o seu data center que é onde todos os seus servidores dentre outros equipamentos estão localizados. Esses servidores são de arquivos, aplicações, backup, firewall, impressão, helpdesk, etc. necessários para o andamento dos negócios das organizações. Manter a segurança no ambiente do data center controlando o acesso de pessoas, a rede da empresa, o acesso à internet, a execução dos aplicativos, a umidade e temperatura da sala, sistemas de detecção de incêndio, monitoramento das informações e outros diversos componentes é de extrema importância. Realizar o planejamento do ambiente de onde será o data center, bem como, analisar todos os equipamentos que serão utilizados é importante para assegurar a segurança e o consumo de energia elétrica um dos grandes vilões do uso de data center já que é utilizado muita energia nos computadores e principalmente nos resfriadores para manter a temperatura dentro do ambiente. Para garantir a segurança das informações, sua disponibilidade, integridade e confiabilidade utilizam diversas formas e ferramentas para o monitoramento de todas as variáveis que envolvem o data center de uma organização. Algumas dessas serão verificadas abaixo. 2.5.1 SNMP: Monitoramento de Variáveis Computacionais Como foi visto no item 2.2.1 o SNMP é um protocolo simples que é utilizado para fazer o gerenciamento de redes administrando assim, os recursos de TI de uma 39 organização. Abaixo estão listados alguns exemplos de monitoramento do programa de gerenciamento de redes Zabbix. Nesse gráfico pode-se verificar o histórico do tempo de ociosidade da CPU do servidor Microsoft Cluster Server, vide Figura 5. Figura 5 – Microsoft Cluster Server: CPU idle time (ZABBIX, 2013) 40 Nesse outro gráfico pode-se observar o tráfego gerado na rede pelo acesso ao banco de dados PostgreSQL, vide Figura 6. Figura 6 – PostgreSQL: Network Utilization (Ethernet) (ZABBIX, 2013) 41 Nesse gráfico pode-se conferir alguns parâmetros do Apache e MySQL: a utilização de CPU, a utilização da memória disponível e carregamento de disco, vide Figura 7. Figura 7 – Apache e MySQL (ZABBIX, 2013) 42 Agora se pode verificar o dashboard, um painel que realiza o monitoramento de diversas variáveis: estado do Zabbix, estado do sistema, estado das máquinas, os últimos alertas acontecidos e o monitoramento Web, vide Figura 8. Figura 8 – Dashboard (ZABBIX, 2013) Inúmeras são as variáveis computacionais que podem ser controladas e monitoradas pelo Zabbix ajudando os profissionais de tecnologia no suporte e na manutenção dos recursos de TI usados na manipulação das informações em uma organização. 43 2.5.2 Arduíno: Monitoramento de Variáveis Analógicas No data center, além das variáveis dos recursos de TI que devem ser controlados como visto anteriormente realizado pelo protocolo SNMP, variáveis de infraestrutura também precisam ser monitoradas para manter o ambiente em funcionamento. O arduino baseia-se em uma placa que recebe alguma programação para realizar o monitoramento de diversos dispositivos através de sensores conectados, por exemplo, sensor de temperatura, sensor de movimento, sensor de umidade dentre vários outros tipos de sensores que podem ser utilizados para alertar sobre algum problema que venha a acontecer. Segundo Arduino (2013), arduino "é uma plataforma de computação física aberta baseada em uma placa de micro controlador simples e um ambiente de desenvolvimento para escrever software para a placa". De acordo com Beckingham (2011) o arduino "é um microprocessador de software livre barato, adaptável e programável, capaz de ler entrada de dados na forma de voltagem em seus pinos analógicos". Em relação a outras plataformas de micro controladores o arduino possui algumas vantagens (ARDUINO, 2013): barato, o custo é relativamente baixo; multiplataforma, o software pode ser executado em Windows, Linux e Macintosh OSX; ambiente de programação simples; software de código aberto e extensível; hardware com código aberto e extensível. Para garantir a disponibilidade dos recursos de TI é importante que haja um monitoramento 24x7x365 das variáveis que podem causar algum tipo de incidente na infraestrutura de um data center. O arduino ajuda nesse controle com inúmeras vantagens como foi visto acima comparando com outros sistemas com o custo elevado. 2.5.3 Controle de Variáveis do Ambiente da Sala de Servidores Vários fatores podem influenciar no funcionamento de um data center em uma organização. O monitoramento em tempo real do ambiente onde estão localizados os servidores é de vital importância, pois, o mesmo, prevê acontecimentos que podem acarretar no mau andamento do trabalho desses servidores e, assim, determinar ações corretivas antes que os mesmos aconteçam. 44 Para Cowan e Gaskins (2008) [...] O monitoramento de equipamentos não é suficiente – o ambiente em volta deve ser exibido holisticamente e analisado proativamente em busca de ameaças e intrusões. Tais ameaças incluem temperaturas de entrada de servidor excessivas, vazamentos de água e acesso humano não autorizado ao data center ou ações impróprias realizadas por pessoal no data center. Toda a infraestrutura da sala dos servidores precisa ser gerenciada a fim de ajudar aos profissionais responsáveis pela gestão da TI da empresa. Ele será alertado sobre algum incidente gerado para tomar decisão tão logo ao ser alertado para que os sistemas não parem e pode também extrair relatórios sobre o andamento de todas as variáveis que podem causar algum incidente tomando medidas necessárias para a solução de um incidente futuro. Alguns exemplos de ameaças físicas que podem potencialmente gerar incidente em um data center são (COWAN; GASKINS, 2012): Ameaças à qualidade do ar ao equipamento de TI (temperatura, umidade); Vazamentos de líquidos; Presença humana ou atividade incomum; Ameaças à qualidade do ar ao pessoal (substâncias aéreas estranhas); Ameaça de fumaça e fogo no data center. 2.5.4 Telemetria e SMS como Contingência da Solução Recursos tecnológicos dos mais variados podem ser aplicados de forma a aprimorar a solução e controle de riscos ao negócio. A telemetria aliada ao SMS é uma forma de controlar o ambiente a distância. A Telemetria pode ser entendida como a capacidade de se medir ou controlar variáveis de ambiente estando fora dele e o SMS (ou envio de mensagens curtas) como meio de interação e monitoramento destes parâmetros. Isto requer apenas um aparelho celular com capacidade de envio de mensagens SMS e uma linha ativa em qualquer operadora de telefonia móvel. A escolha se dará principalmente pela qualidade do sinal no local a ser monitorado. Para que os parâmetros sejam controlados, cada variável analisada (temperatura, umidade, detecção de movimentos na sala, etc.) deverá possuir em seu sistema uma forma capturar as leituras periódicas através de programas de computador específicos e que possam ser lidos periodicamente para efeito de comparação e envio da 45 análise resultante via SMS ao gestor de TI. Por exemplo, se a temperatura da sala não pode exceder os vinte graus centígrados, o termômetro digital deverá ler as temperaturas periodicamente e analisá-las disparando o envio de SMS caso seja detectada qualquer anomalia nos limites determinados. Desta forma, os ativos estarão protegidos e supervisionados a distância, não sendo necessário manter pessoas no local em turnos variados este monitoramento. 2.6 GESTÃO DE TI NAS EMPRESAS 2.6.1 Empresas de Pequeno e Médio Porte A definição do porte de uma empresa não segue uma regra rígida, pois depende de critérios quantitativos e qualitativos que diferentes entidades e governos adotam de acordo com as suas necessidades. Segundo Kassai (1997), as vantagens dos critérios de natureza quantitativa são: permitem a determinação do porte da empresa; são mais fáceis de serem coletados; permitem o emprego de medidas de tendência no tempo; possibilitam análises comparativas; são de uso corrente nos setores institucionais públicos e privados. Os critérios adotados pelos diversos órgãos e países podem ser observados conforme a Tabela 2. 46 Tabela 2 – Demonstrativo dos Critérios de Classificação de MPME´s (KASSAI, 1997) Para este estudo adotaremos o critério do SEBRAE para a Indústria, visto que o faturamento em si não é determinante para a infraestrutura que estamos propondo, mas sim a quantidade de usuários que farão acesso simultâneo, impactando proporcionalmente no desempenho dos sistemas de informação. 47 2.6.2 Visão da TI como área de negócio: Custo ou Investimento? Nesse mundo globalizado em que os negócios estão inseridos, é de conhecimento que uma organização necessita de recursos tecnológicos para o andamento e crescimento dos negócios, caso contrário, os seus negócios podem entrar em declínio e até mesmo ser extinto. A organização precisa gerenciar o seu bem mais precioso, a informação, pois é através dela que a empresa vai se diferenciar de suas concorrentes alavancando assim os seus negócios. Para realizar o gerenciamento das informações a organização precisa manter recursos de TI atualizados (hardware, software e serviços) e, consequentemente, se gasta dinheiro para a aquisição desses novos recursos, mas é essencial ter uma infraestrutura completa, apropriada para apoiar os negócios da empresa. Esse despendimento é visto como custo ou investimento? Para ficar claro o profissional de TI precisa saber o que é o custo e o que é investimento. Segundo Moreira (2013), o investimento é “a aplicação de capital visando o aumento da capacidade produtiva da empresa, esperando que os lucros obtidos sejam maiores que o capital investido”. O custo, de acordo com Moreira (2013), “são todos os gastos necessários para criar, produzir ou comercializar produtos e serviços da empresa”. Moreira (2013) menciona: [..] É muito mais apropriado dizer então que o investimento é sempre feito nas empresas, e não em TI, porque é da diferença entre a receita da venda de seus produtos e dos custos necessários a sua elaboração e venda que resultarão os fluxos de caixa esperados, e não diretamente dos ativos de TI. Os ativos de TI contribuirão para a geração destes fluxos de caixa, mas não são eles que serão comercializados. Baseada nas informações verificadas acima se chega à conclusão que os gastos em recursos de TI são custos, como por exemplo, gastos em matérias primas, energia, propaganda. Esses gastos geram valor para produtos e serviços da empresa, ficando com maior valor de mercado que os gastos para produzi-los (MOREIRA, 2013). Entretanto, mesmo que na teoria verificada o gasto de TI seja um custo para a organização, muitas empresas já veem esse despedimento de capital como um investimento, um diferencial competitivo para os seus negócios em comparação com seus concorrentes. Isso não quer dizer necessariamente que quanto mais recursos tecnológicos a organização manter será mais competitiva que seus concorrentes mas sim a melhor empregabilidade dos seus recursos atuais e futuras aquisições. 48 2.6.3 Planejamento Orçamentário da Solução Dizer que orçamento é dever exclusivo do profissional de administração aliado ao departamento de controladoria é coisa do passado. Para o profissional de TI, um bom planejamento orçamentário pode ser a garantia de sua permanência no emprego, que demonstra alinhamento da solução técnica com os requisitos do negócio. Saber orçar uma solução futura, conhecendo as deficiências e as direções que o negócio pode tomar, requer habilidade e tato nas negociações, obtidas principalmente através da prática. Anualmente o profissional de TI deve se reunir com executivos financeiros, compradores e diretores, para apresentar o seu plano de investimentos para o setor de tecnologia. Afinal, sem sistema as empresas não sobrevivem. Um planejamento orçamentário é a tradução em valores daquilo que o gestor de TI tem em mente como Projeto. Se existem reclamações periódicas de que um serviço não atende a contento determinados clientes internos, ele precisa ser avaliado. Se for diagnosticado que o serviço em questão precisa de um upgrade, então é hora de pensar em um projeto que expanda a capacidade de atendimento deste ponto de melhoria detectado. Orçamentos desta solução deverão ser solicitados a diversas empresas, analisando cuidadosamente as condições de pagamento, prazos de atendimento, garantias, etc. Uma vez de posse do valor da solução mais adequada, o mesmo deverá ser destacado, resumidamente, na planilha de Planejamento Orçamentário Anual, perfeitamente justificável. Caso o investimento não seja aprovado, não cabe a decisão ao gestor de TI, mas ele precisa estar ciente e comunicar os riscos aos níveis gerenciais imediatamente acima para não ser penalizado. 2.6.4 Justificativas do Investimento Proposto Não é fácil para os profissionais de TI solicitar novos recursos de TI que precisam ser adquiridos pela organização para a melhoria dos serviços utilizados em seus processos. Nem sempre os diretores estão dispostos a liberar verbas para essa melhoria, pois é mais um custo que a empresa terá de fazer. A justificativa nesse caso é de extrema importância para que os superiores vejam o retorno que esse investimento pode gerar mais negócios para a organização. De acordo com Moreira (2013) [..] Para se justificar os investimentos em TI é necessário identificar os custos relacionados aos ativos de TI, considerando recursos de hardware, software e de pessoal. A TI, vista como investimento, gerencia informação, que por sua vez necessita de manutenção, proporcionando 49 qualidade e eficácia nos processos e atividades, agregando valor ao negócio da organização. Para justificar o investimento em TI, Taurion (2002) se referiu a três passos: nos negócios o que se entende são os números, ou seja, o profissional de TI precisa saber informações sobre faturamento, custo, rentabilidade, retorno do investimento, estoque para aliar o investimento necessário as informações financeiras; os planos da TI estão em conformidade com as metas do negócio da organização, colaborando para que o objetivo seja obtido; a TI deve ser vista como um apoio para a organização desenvolvendo novas oportunidades para os negócios. A governança de TI pode ajudar no processo dos investimentos realizados pois ela ajusta os interesses relacionados ao negócio da organização com as condutas relacionadas ao departamento de TI. Para Peres apud Carvalho (2007) a governança de TI [..] é um conjunto de práticas, padrões e relacionamentos estruturados, assumidos por executivos, gestores, técnicos e usuários de TI de uma organização, com a finalidade de garantir controles efetivos, ampliar os processos de segurança, minimizar os riscos, ampliar o desempenho, otimizar a aplicação de recursos, reduzir os custos, suportar as melhores decisões e consequentemente alinhar TI aos negócios. Qualquer tipo de investimento feito na área de TI dentro de uma organização deve visar sempre o aperfeiçoamento da produtividade reduzindo os custos. 2.6.4.1 TI Verde: responsabilidade ambiental Antes, as organizações dividiam cada serviço utilizado em um servidor, por exemplo, um servidor somente para e-mail, para arquivos, para gerenciamento de banco de dados dentre muitos outros que usam o poder de processamento durante algum momento, contudo, em sua grande parte do tempo fica ocioso. Com essa ociosidade dos servidores muita energia é consumida sem que haja a necessidade e, consequentemente, afetando o meio ambiente. Pensando na preocupação com o meio ambiente, as organizações começam a verificar boas práticas para a utilização dos seus recursos de TI, sobretudo nos seus data centers, surgindo assim o conceito de TI verde. Segundo Affonso (2010) a TI verde é 50 [...] a ideia de que é possível criar e utilizar tecnologias que levarão ao crescimento sem agredir o meio ambiente, sempre com foco no aumento de produtividade, o que em si já representa uma grande contribuição para redução de uso dos recursos naturais. Jones (2010) define TI verde como “apenas a criação de uma infraestrutura de TI que utiliza menos recursos — principalmente, a energia”. Importante mencionar que a energia absorvida não é somente a utilizada por computadores, mas também a energia para sustentar seu resfriamento e gerenciamento pela rede da organização (JONES, 2010). O aumento do poder de processamento do computador com a implementação de processadores com vários núcleos e com a utilização da virtualização dos servidores, um computador servidor passou a fazer o trabalho de vários servidores provendo assim vários serviços em um único equipamento, aumentando sua capacidade de utilização e diminuindo ao máximo o tempo de ociosidade do mesmo. Por esse motivo, uma organização já reduz o gasto de energia resultando também em redução dos seus custos. De acordo com Jones (2010) [...] O verdadeiro truque para alcançar a TI verde é aceitar o fato de que seus ativos de TI atuais são fixos. Você não vai perder muitos servidores físicos. Entretanto, o que você pode fazer é ter uma ideia melhor da utilização dos servidores atuais e de quais servidores são mais eficientes. Identifique quais os servidores que produzem mais carga de trabalho com menos energia. Ao identificar as máquinas mais eficientes e aquelas com capacidade extra, você pode começar a consolidar as tarefas lentamente — usando a virtualização, na maioria dos casos — e, talvez, a reduzir um pouco os custos de energia. Para Affonso, a “TI Verde não é sobre gastos desnecessários e dores de cabeças, mas sobre compras inteligentes e soluções eficientes, onde ganha a empresa, o funcionário, e todas as outras pessoas no planeta”. 2.6.4.2 Economia do espaço físico Soluções de virtualização visam economizar espaço físico antes ocupados por diversos servidores físicos espalhados num mesmo ambiente. Neste trabalho oito servidores são resumidos para simplesmente dois físicos, o que faz uma enorme diferença em termos de organização, manutenção e economia de energia, já que os esforços estão concentrados em menos equipamentos. 51 2.6.4.3 Expansão sem aumento do quadro funcional Mais servidores, maior capacidade de armazenamento e processamento da informação não é necessariamente proporcional ao aumento da infraestrutura em termos de dimensão do espaço físico. Com as técnicas de virtualização propostas neste trabalho, teremos uma melhor organização do espaço e controle do ambiente, através de recursos de monitoramento a distância, como a Telemetria com SMS e o emprego de ferramentas da Gerência de Redes que verificam situações como sobrecarga do processador, espaço em disco, etc. Programas como o Zabbix citado no item 2.5 facilita bastante a vida do administrador, que apesar de expandir sua capacidade de atendimento, reduz proporcionalmente a quantidade de esforço para mantê-la, não necessitando novas contratações profissionais para acompanhar o crescimento. 2.6.5 Proteção ao Investimento 2.6.5.1 Normas ISO (22301 e 27000) A ISO (International Organization for Standardization ou Organização Internacional para Padronização) é uma entidade que padroniza normas internacionais em diversos segmentos. No Brasil ela é representada pela ABNT (Associação Brasileira de Normas Técnicas). Dentre todas as normas ISO existentes, o presente trabalho abordará a ISO 22301 que menciona sobre a gestão de continuidade de negócios e a ISO 27000 que expões várias normas sobre questões de segurança da informação. Segundo Módulo (2013) [...] No atentado terrorista de 1993 ao World Trade Center, 150 empresas das 350 afetadas não conseguiram sobreviver ao incidente. Por outro lado, nos ataques de 11 de setembro de 2001, as empresas afetadas que tinham planos de gestão de riscos e de continuidade de negócios bem desenvolvidos e testados retornaram às atividades dentro de poucos dias. Diversas falhas e incidentes podem acontecer em uma organização fazendo com que seus negócios sejam seriamente afetados ou quiçá, interrompidos. Isso é muito grave para a empresa, pois ela verá toda sua reputação ser devorada diante a seus clientes. A norma ISO 22301 é justamente para tratar dos incidentes e falhas, dando assim, a continuidade nos negócios da organização caso aconteça algum problema. Com a implementação da norma ISO 22301 a empresa estará mais alinhada caso ocorra alguma suspenção de algum serviço. 52 Para Correa (2012) a norma ISO 22301 [...] especifica os requisitos para planejar, estabelecer, implementar, operar, monitorar, rever, manter e melhorar continuamente um sistema de gestão documentado de modo a preparar para, responder e recuperar de eventos que possam interromper o funcionamento normal de uma empresa, quando os mesmos ocorrerem. Furacões, tsunamis, inundações, vulcões, ataques terroristas, paralisação dos recursos de TI e telecomunicações que não foram planejados são alguns exemplos de incidentes que podem levar a interrupção do negócio de uma empresa caso não tenha uma gestão de continuidade dos negócios implementada. A organização que realiza a gestão de continuidade dos negócios agrega vários benefícios, como (CORREA, 2012): Proteção de valor para os acionistas; Melhor compreensão do negócio, obtido através da identificação e análise de riscos; Resiliência operacional que resulta da implementação de redução de risco; O tempo de inatividade é reduzido quando processos alternativos e soluções alternativas são identificadas; Documentos e Registros vitais podem ser mantidos e protegidos; Melhora da eficácia operacional através de um programa de reengenharia de processos de negócios e/ou de TI; Preservação no mercado, garantindo a continuidade da prestação de serviços; Melhoria da segurança em geral. É de conhecimento dos profissionais de TI, o quão é importante para a organização a proteção de seu bem mais precioso, a informação e, todos os recursos tecnológicos envolvidos no manuseio dessa informação, inclusive todas as pessoas da empresa que estão envolvidas no processo do negócio. A perda da confiabilidade, disponibilidade e integridade pode acarretar danos irreparáveis para a organização. Para a proteção da informação a ISO criou a norma 27000 que padroniza os assuntos relacionados a segurança da informação dentro da empresa. A família ISO 27000 é dividida: ISO 27001 – Sistema de Gestão de Segurança da Informação; ISO 27002 – Código de Prática para a Gestão de Segurança da Informação; 53 ISO 27003 – Diretrizes para Implantação de um Sistema de Gestão da Segurança da Informação; ISO 27004 – Métricas para a Gestão da Segurança da Informação; ISO 27005 – Gestão de Risco da Segurança da Informação. Dentre as normas citadas acima, as mais conhecidas pelos profissionais que trabalham com a TI nas empresas são a ISO 27001 e a ISO 27002. Segundo Palma (2011) a norma ISO 27001 “ajuda a empresa a adotar um sistema de gestão da segurança da Informação que permita mitigar os riscos de segurança atribuídos a seus ativos e adequar as necessidades a área de negócio”. Para Palma (2011) a ISO 27002 “é um código de práticas com um conjunto completo de controles que auxiliam aplicação do Sistema de Gestão da Segurança da Informação, facilitando atingir os requisitos especificados pela Norma ISO 27001.” 2.6.5.2 Backup As informações de uma organização é um bem de valor intangível, ou seja, impalpável, não se pode mencionar o seu valor pois é com suas informações que a empresa sobrevive e faz os seus negócios. A perda de alguma informação acarretará problemas sérios para a organização. Não se pode fazer uma proteção 100% das informações que trafegam dentro de uma empresa e, é por esse motivo, que existe o backup das informações, pois através das cópias de segurança é que pode-se recuperar informações caso venha a ocorrer perda das mesmas. Moreira (2001, p. 84) define backup como “uma importante atividade no processo de segurança dos dados de uma empresa. Independente do porte e da atividade da empresa, todas, sem exceção, devem praticá-lo”. Alguns cuidados a verificar durante o backup (CERT.br, 2012, p.52): mantenha seus backups atualizados, de acordo com a frequência de alteração dos dados; mantenha seus backups em locais seguros, bem condicionados (longe de poeira, muito calor ou umidade) e com acesso restrito (apenas de pessoas autorizadas); configure para que seus backups sejam realizados automaticamente e certifique-se de que eles estejam realmente sendo feitos (backups manuais estão mais propensos a erros e esquecimento); 54 além dos backups periódicos, sempre faça backups antes de efetuar grandes alterações no sistema (adição de hardware, atualização do sistema operacional, etc.) e de enviar o computador para manutenção; armazene dados sensíveis em formato criptografado; mantenha backups redundantes, ou seja, várias cópias, para evitar perder seus dados em um incêndio, inundação, furto ou pelo uso de mídias defeituosas (você pode escolher pelo menos duas das seguintes possibilidades: sua casa, seu escritório e um repositório remoto); cuidado com mídias obsoletas (disquetes já foram muito usados para backups, porém, atualmente, acessá-los têm-se se tornado cada vez mais complicado pela dificuldade em encontrar computadores com leitores deste tipo de mídia e pela degradação natural do material); assegure-se de conseguir recuperar seus backups (a realização de testes periódicos pode evitar a péssima surpresa de descobrir que os dados estão corrompidos, em formato obsoleto ou que você não possui mais o programa de recuperação); mantenha seus backups organizados e identificados (você pode etiquetálos ou nomeá-los com informações que facilitem a localização, como tipo do dado armazenado e data de gravação); copie dados que você considere importantes e evite aqueles que podem ser obtidos de fontes externas confiáveis, como os referentes ao sistema operacional ou aos programas instalados; nunca recupere um backup se desconfiar que ele contém dados não confiáveis. Também, de acordo com Cert.br (2012, p.53) cuidados deve ser tomados ao realizar backup online: observe a disponibilidade do serviço e procure escolher um com poucas interrupções (alta disponibilidade); observe o tempo estimado de transmissão de dados (tanto para realização do backup quanto para recuperação dos dados). Dependendo da banda disponível e da quantidade de dados a ser copiada (ou recuperada), o backup online pode se tornar impraticável; seja seletivo ao escolher o serviço. Observe critérios como suporte, tempo no mercado (há quanto tempo o serviço é oferecido), a opinião dos demais usuários e outras referências que você possa ter; 55 leve em consideração o tempo que seus arquivos são mantidos, o espaço de armazenagem e a política de privacidade e de segurança; procure aqueles nos quais seus dados trafeguem pela rede de forma criptografada (caso não haja esta possibilidade, procure você mesmo criptografar os dados antes de enviá-los). De acordo com MOREIRA: [...] é importante que se tenha uma cópia do backup em um local protegido, mas de fácil acesso para que se tenha agilidade, caso precise utilizá-lo. É de fundamental importância que se tenha outro backup, se necessário, criptografado (melhor), em outro prédio e com acesso controlado para ser usado no momento de uma necessidade (2001, p.85). Executar o backup das informações é de extrema importância para a organização caso aconteça algum incidente. Outro fator importante é fazer a verificação do backup para assegurar a integridade das informações. Por último, e não menos importante, certificar do local onde o backup é armazenado é essencial para sua recuperação. 56 3 OS CENÁRIOS 3.1 PRIMEIRO - ESTRUTURA INTERNA COM SERVIDORES FÍSICOS INDEPENDENTES Este primeiro cenário é o mais tradicional encontrado na maioria das organizações já que conta com servidores em formato torre adquiridos a medida da necessidade. No início, quando não se tem um planejamento adequado ou uma demanda que justifique investimento maior, essa perece ser a opção mais correta. Usando como exemplo uma empresa de médio porte num caso real, podemos considerar como fundamentais os seguintes servidores: Firewall / Gateway, Arquivos, Backup, Banco de Dados, Aplicações, Business Intelligence, Helpdesk / Tarifador / Impressão, VPN CEMIG. Cada serviço explicitado acima corresponde a um equipamento configurado individualmente. As configurações foram definidas em função de cada necessidade, com uma demanda de crescimento modesta, visto que a empresa é uma multinacional com potencial de crescimento alto em função de aquisições externas, podendo-se prever que em menos de três anos muitos dos ativos adquiridos estarão obsoletos ou não suportarão a estrutura, sugerindo um upgrade. Além disso, como os modelos são diferentes entre si, as peças de reposição para uma emergência (discos rígidos sobressalentes, fontes de alimentação, placas de rede, etc.) terão que ser adquiridas em grandes quantidades (pelo menos uma por equipamento). Por exemplo, o que faz um servidor de arquivos no período das 22h às 07h, sendo que não há funcionários na empresa? O mesmo serve para o servidor de banco de dados, de business intelligence e de abertura de chamados. Já o servidor de backup atua exatamente nos horários livres, sem movimento, pois exigem bastante da rede durante as cópias, o que faria dele um equipamento ocioso das 08h às 20h. Na questão ambiental verifica-se no tocante a refrigeração do ambiente e no consumo elevado de energia elétrica, principalmente nos momentos em que a estrutura estiver ociosa. Mas garantir as informações é mais confortável, visto que o firewall ativo e atualizado já garantiria em parte a integridade dos dados da organização. Então resta a dúvida: manter uma estrutura obsoleta e custosa, em prol da proteção da concorrência e dos hackers? Partindo deste modelo e realizando um orçamento com base nas informações a seguir, pode-se traduzir o investimento neste modelo com sendo, a princípio, o “menos 57 oneroso”. Considerando oito servidores a um custo médio de R$ 5 mil cada, com R$ 40 mil todos estarão em uso. Ainda assim, não está contando com as licenças de uso dos softwares, adquiridas a parte. Vai funcionar bem até que tenha que criar um novo ambiente para testes ou mesmo se um deles sair do ar durante o horário comercial. É o barato que sai caro. Quanto custa para a empresa manter um servidor extra parado aguardando o defeito surgir para ele entrar em ação? E os testes ou homologações de novos produtos? Os departamentos de TI das empresas deveriam ser verdadeiros laboratórios, onde tudo deve ser testado antes de entrar em produção. Nesta situação pode-se afirmar que este será um dos mais caros modelos a ser adotado. Isso sem contar com a dificuldade de se realizar atualizações nas máquinas depois de um ou dois anos de uso, devido à escassez de peças. Tabela 3 – Configuração do Servidor Firewall (AUTORES, 2013) Configuração do Servidor Firewall Modelo Processador Memória Armazenamento Rede Sistema Operacional HP Proliant G2 com fonte ATX 500W 1 Processador Xeon 3.2GHz de 2 núcleos 4GB memória RAM DIMM DDR2 1 Disco rígido SCSI 36GB 2 placas Ethernet 10/100/1000 Mbps Linux Endian versão 2.5.1 Esta máquina controla o acesso externo de 50 usuários simultâneos durante dez horas por dia, em média. Também promove o redirecionamento de portas para outros servidores internos a rede, como os de aplicação e banco de dados, permitindo acesso remoto ao ERP da empresa por funcionários de outras plantas. Os gargalos operacionais estão relacionados diretamente ao tráfego intenso entre as placas de rede, o consumo excessivo de processamento no controle dos filtros por palavras-chave, bloqueio de URLs das listas de controle de acesso (ACLs) e do espaço em disco para o armazenamento de sites em cache para acelerar o carregamento de páginas web e download de conteúdo comum. Tabela 4 – Configuração do Servidor de Arquivo (AUTORES, 2013) Configuração do Servidor de Arquivo Modelo Processador Memória Armazenamento Rede Sistema Operacional HP Proliant G2 com fonte ATX 500W 2 Processadores Xeon 3.2GHz de 2 núcleos 4GB memória RAM DIMM DDR2 2 Discos rígidos SCSI 72GB em RAID10 1 placa Ethernet 10/100/1000 Mbps Linux Suse Enterprise versão 10 58 Esta máquina compartilha o acesso aos arquivos dos departamentos entre 50 usuários simultâneos durante dez horas por dia, em média. Também executa uma rotina diária de backup destes arquivos, através de scripts em Shell e os envia automaticamente ao diretório compartilhado com o servidor de backup. Os gargalos operacionais estão relacionados ao tráfego intenso na rede para leitura e gravação nos discos (I/O Bounds), que devem atender a diversas requisições simultâneas. O tamanho das partições é o limite para a expansão do sistema. Memória RAM e processamento são os menos requisitados. Tabela 5 – Configuração do Servidor de Banco de Dados (AUTORES, 2013) Configuração do Servidor de Banco de Dados Dell PowerEdge T420 com 2 fontes reduntantes Modelo ATX 500W Processador 2 Processadores Xeon 3.2GHz de 4 núcleos Memória 8GB memória RAM DIMM DDR3 1333Mhz Armazenamento 4 Discos rígidos SAS 146GB em RAID10 Rede 1 placa Ethernet 10/100/1000 Mbps Sistema Operacional Linux Suse Enterprise versão 11 Esta máquina provê o acesso a base de dados ERP de seis países (Brasil, Chile, Colômbia, Bolívia, México e Peru), para acesso interno e externo por 24 horas diárias. Isso significa alta disponibilidade e pode ser explicado pelo fato de os países possuírem fusos horários diferentes e o servidor ser acessado durante as madrugadas para realizar as cópias de segurança e atualização dos painéis do sistema de Business Intelligence a cada duas horas. Isso faz dele o mais crítico da estrutura, por isso a presença de quatro discos em RAID 10. Suporta a falha de até dois discos sem comprometer as informações, somente a performance. Nele tudo é importante, pois memória RAM, processamento e leitura/gravação em discos são altamente requisitados. Tabela 6 – Configuração do Servidor de Backup (AUTORES, 2013) Configuração do Servidor de Backup Gabinete Torre sem marca com placa mãe Intel e Modelo fonte ATX 500W Processador 1 Processador Core 2 Duo 2.0GHz de 4 núcleos Memória 4GB memória RAM DIMM DDR2 Armazenamento 2 Discos rígidos SATA 1TB sem RAID Rede 1 placa Ethernet 10/100/1000 Mbps Sistema Operacional Linux Suse Enterprise versão 10 59 Esta máquina realiza o backup periódico do Outlook dos clientes internos, armazenando os arquivos em partições bem definidas, oferece diretórios compartilhados e protegidos para servirem de repositórios das cópias de segurança de outros servidores (arquivo). Também realizam a replicação dos dados do disco rígido interno 1 para o disco 2, em momentos de ociosidade, para não sobrecarregarem a rede e como contingência em caso de falha de um dos discos. Os gargalos operacionais estão no intenso tráfego de rede devido à transferência de arquivos grandes, velocidade e capacidade de gravação dos discos rígidos, visando manter uma maior quantidade de dias. Memória RAM e processamento são os menos requisitados. Tabela 7 – Configuração do Servidor de Aplicações (AUTORES, 2013) Configuração do Servidor de Aplicações Modelo Processador Memória Armazenamento Rede Sistema Operacional HP Proliant G2 com fonte ATX 500W 2 Processadores Xeon 3.2GHz de 2 núcleos 4GB memória RAM DIMM DDR2 2 Discos rígidos SCSI 72GB em RAID1 1 placa Ethernet 10/100/1000 Mbps Windows 2003 Server Esta máquina provê o acesso interno e externo aos aplicativos do ERP entre 50 usuários simultâneos durante dez horas por dia, em média. Ele é o intermediário entre as requisições dos usuários e os acessos ao banco de dados Progress, que fica em outro servidor. Os gargalos operacionais estão relacionados ao tráfego intenso na rede para leitura e gravação nos discos (I/O Bounds) tanto dele como nos discos do servidor de banco de dados. Processamento é bastante requisitado para gerenciar as filas de processos de usuários ávidos por informações. Tabela 8 – Configuração do Servidor de Business Intelligence (AUTORES, 2013) Configuração do Servidor de Business Intelligence Dell PowerEdge T310 com 2 fontes reduntantes Modelo ATX 500W Processador 2 Processadores Xeon 2.9GHz de 4 núcleos Memória 8GB memória RAM DIMM DDR3 1333Mhz Armazenamento 2 Discos rígidos SAS 146GB em RAID1 Rede 1 placa Ethernet 10/100/1000 Mbps Sistema Operacional Windows 2008 Server com Microsoft SQL 2008 O equipamento atua servindo os usuários com um sistema de Business Intelligence que se resume a painéis atualizados a cada duas horas que demonstram as vendas dos seis países controlados pelo ERP (Brasil, Chile, Colômbia, Bolívia, México e 60 Peru). Ao todo são 20 usuários simultâneos realizando todos os tipos de operações de filtragem do Datawarehouse contido no servidor. Este sistema que chamaremos de DW extrai, transforma e grava os dados coletados a cada duas horas do ERP para disponibilizá-los, devidamente tratados, aos usuários do BI. Como o trabalho é realizado sobre uma base extraída da principal não há preocupações com a preservação dos dados, pois podem ser extraídos novamente a qualquer momento. Ele fica disponível durante o horário comercial, mas os gargalos operacionais estão relacionados não só ao tráfego na rede para leitura nos discos e sim ao processamento das bases de todos os países a cada duas horas que demanda um elevado uso de memória RAM e processador, podendo faltar recursos do sistema durante as consultas ao banco DW. A memória RAM ainda é mais sobrecarregada, pois a estratégia do software Qlikview, responsável pela elaboração dos painéis, é transferir os dados do banco para a memória visando agilizar a busca pela informação. Tabela 9 – Configuração do de Helpdesk / Tarifador / Impressão (AUTORES, 2013) Configuração do Servidor de Helpdesk / Tarifador / Impressão Modelo Processador Memória Armazenamento Rede Sistema Operacional HP Proliant G2 com fonte ATX 500W 1 Processador Xeon 3.2GHz de 2 núcleos 4GB memória RAM DIMM DDR2 1 Discos rígido SCSI 72GB sem RAID 1 placa Ethernet 10/100/1000 Mbps Windows 2003 Server Responsável por manter o portal de chamados ativo durante 24 horas, também registra as chamadas de entrada e saída da central telefônica da fábrica (tarifador conectado via porta serial) além de monitorar as impressões dos 50 usuários conectados à rede interna. Não foram identificados gargalos operacionais, porém há um elevado tráfego na rede durante o acesso ao portal de chamados em horário comercial e nas requisições de impressão. A captura das chamadas telefônicas não consome tantos recursos. Portanto memória RAM e processamento são os menos requisitados. Tabela 10 – Configuração do Servidor de VPN Cemig (AUTORES, 2013) Configuração do Servidor de VPN Cemig Gabinete Torre sem marca com placa mãe Intel e Modelo fonte ATX 500W 1 Processador Pentium 4 HT 3.0Ghz de 2 Processador núcleos Memória 2GB memória RAM DIMM DDR Armazenamento 1 Discos rígido SATA 320GB sem RAID Rede 1 placa Ethernet 10/100 Mbps Sistema Operacional Linux Endian versão 2.4.1 Community Edition 61 Esta máquina realiza o monitoramento da rede elétrica e dos medidores de energia da CEMIG através de uma VPN criada a partir do tunelamento da conexão pública (Internet) com a rede da concessionária e a fábrica. Filtros colocados como regras, impedem o acesso externo não autorizado, assim como o fato dele possuir apenas uma placa de rede. Não existem gargalos neste servidor, pelo fato das requisições serem isoladas, pouco comuns, apenas um acesso por vez e sem concorrência. O mais importante nesta configuração é a alta disponibilidade dos serviços prestados pelo equipamento, já que é o responsável pelo monitoramento, portanto precisa detectar qualquer tipo de variação na rede elétrica e alertar a concessionária antes que um incidente se transforme em acidente. Na Figura 9 pode-se verificar como é mapeada toda a estrutura dos servidores citados acima na estrutura interna com servidores físicos independentes. ESTAÇÃO TRABALHO 2 ESTAÇÃO TRABALHO N BARRAMENTO ETHERNET PRINCIPAL ESTAÇÃO TRABALHO 1 SERVIDOR BANCO DE DADOS SERVIDOR BUSINESS INTELLIGENCE SERVIDOR BACKUP SWITCH PRINCIPAL SERVIDOR ARQUIVOS SERVIDOR INTERNET SERVIDOR VPN-CEMIG ROTEADOR WWW SERVIDOR APLICAÇÕES Figura 9 – Mapeamento da Estrutura de Servidores SERVIDOR HELPDESK 62 3.2 SEGUNDO - ESTRUTURA EXTERNA COM SERVIDORES NA NUVEM No capítulo 3.1 foram vistos algumas das vantagens e desvantagens de manter servidores internos, mas os piores casos não foram considerados. Diversos são os exemplos de empresas que perderam tudo porque não tinham replicação dos dados em locais externos e sofreram com incêndios, inundações e tremores, ou até mesmo simples tempestades que provocam a queima de servidores por indução eletromagnética. Tudo está sujeito aos fenômenos da natureza, assim como aos roubos de informações. É aí que entram os servidores hospedados fora do perímetro industrial, em outros países, ou em múltiplos locais. Pode-se considerar o caso da Amazon, que provê a hospedagem de servidores escalonáveis em múltiplos sites espalhados pelo mundo, garantindo a contingência da informação dos seus clientes com o AWS (Amazon Web Service). Apesar disso, o que dizer da segurança destes dados? É possível que uma empresa como a Amazon garanta, através de um contrato de confidencialidade, que os dados de seus clientes jamais serão acessados por terceiros não autorizados? E o custo para assumirmos estes riscos, compensa? Um comparativo simples, para ilustrar os custos de se manter a estrutura interna ou externa à organização, supondo que a estrutura adotada na Amazon seja similar às configurações descritas no item 3.1. Para isso, estima-se o uso de instâncias, que seriam os servidores ativos e cobrados por hora, segundo a Tabela X. Aprecia-se um tráfego médio de dados de oito servidores em nuvem. Tabela 11 – Instâncias Reservadas de Utilização Média (AWS, 2013) 63 Logo, os custos para manter uma estrutura mediana com instâncias médias a 0,528 centavos de dólar a hora, para oito servidores durante 24 horas por dia, por exemplo, obtém-se uma fatura mensal de 3.000,00 dólares + 1.540,00 dólares de taxa inicial no ano. Ao final de 12 meses, o gasto seria de aproximadamente 37,5 mil dólares ou 82,5 mil reais na taxa de conversão do dólar de 2,2 para o real. Imaginando que a demanda sempre tende a aumentar, os gastos na prática serão superiores ao estimado. Ao longo de três anos o investimento nesta arquitetura pode superar os 250 mil reais. Além disso, qualquer outro serviço que for acrescentado a estrutura original vai requerer um reajuste na mensalidade, já que novas instâncias serão criadas. Criando uma conta no AWS para teste Vamos utilizar o AWS para hospedar os serviços de virtualização de máquinas na Web, a custo zero. Para tanto, será necessário acessar o endereço http://aws.amazon.com/pt/ e clicar em Cadastrar-se, vide Figura 10. Figura 10 – Acessando Endereço AWS para Cadastro (AWS, 2013) Preencha os dados solicitados, e-mail, nome e senha para iniciar o uso do AWS e criar suas próprias máquinas virtuais, vide Figuras 11 e 12. Figura 11 – Inserindo E-mail para Cadastro na AWS (AWS, 2013) 64 Figura 12 – Inserindo Nome e Senha para Cadastro na AWS (AWS, 2013) A criação de uma conta no AWS, mesmo que FREE, exige a inclusão de um cartão de crédito válido para eventuais débitos, como por exemplo: se ultrapassarem 12 meses que a conta foi criada (ainda que não a movimente), se extrapolar o número de horas predefinido na política de acesso gratuito ou se alocar algum recurso pago, eles não hesitarão em cobrar pelos serviços utilizados, vide Figura 13. Figura 13 – Inserindo Dados do Cartão de Crédito (AWS, 2013) Para tal controle, existe no perfil do administrador, um local para conferir o uso da conta. Uma vez criada a conta, basta efetuar login e iniciar o uso da ferramenta online, vide Figura 14. Figura 14 – Inserindo a Senha de uma Conta Criada (AWS, 2013) 65 Caso a sua conta já esteja criada ou se souber o número da conta AWS, pode logar diretamente através do site, onde 918753073852 é o número da conta AWS: https://918753073852.signin.aws.amazon.com/console. Criação das Máquinas Virtuais Ubuntu de 64 bits com 8GB de Disco Antes de iniciar a criação de máquinas, deve-se observar o número de instâncias em execução na sua região atual. A região pode ser escolhida no canto superior direito da tela, Figura 15, e as instâncias na parte superior, dentro de Resources, vide Figura 16. Figura 15 – Escolha da Região da Instância (AWS, 2013) Figura 16 – Instâncias em Execução (AWS, 2013) Caso a região escolhida possua mais de 20 instâncias em execução, troque-a por outra da lista acima. Caso contrário, não poderá instanciar nenhuma outra máquina neste ambiente. Outra opção seria parar as instâncias em execução. Seguindo os passos, clique em Launch Instance, Figura 17, e em Classic Wizard, Figura 18, para seguir com a criação da máquina Linux Virtual. Figura 17 – Criando uma Instância – Launch Instance (AWS, 2013) 66 Figura 18 – Criando uma Instância – Classic Wizard (AWS, 2013) Escolha o sistema operacional do servidor Ubuntu 64 bits, vide Figura 19. Os ícones “estrela” identificam os perfis gratuitos. Figura 19 – Sistema Operacional instalado na Nova Instância (AWS, 2013) Mantenha as opções a seguir no padrão informado, exceto Availability Zone, que é obrigatório, vide Figura 20. Figura 20 – Seleção da Zona Disponível (AWS, 2013) 67 Escolha o Kernel ID e o tamanho do disco da nova instância, vide Figura 21. Figura 21 – Seleção Kernel ID e Tamanho do Disco (AWS, 2013) Observe se o tamanho do disco rígido está de acordo. Qualquer divergência, clique Edit, vide Figura 22. Figura 22 – Edição para Alterar o Tamanho do Disco (AWS, 2013) Geração do Par de Chaves para Acesso SSH nas Máquinas Virtuais Por questões de segurança, é importante criar um par de chaves (.pem ou .ppk) para permitir o acesso via SSH. Assim que definir o nome da chave, clique sobre a opção “Create & Download your Key Pair” para descarregá-la, vide Figura 23. 68 Figura 23 – Geração do Par de Chaves para Acesso SSH (AWS, 2013) No próximo passo você pode criar um novo grupo de segurança com base em suas próprias regras de filtragem de portas e endereços permitindo as portas 22 (SSH) e 80 (HTTP) , vide Figura 24. Figura 24 – Criação de um Novo Grupo de Segurança (AWS, 2013) Anote a sua instância para localizá-la posteriormente na lista, caso queira parar a máquina ou terminá-la (excluir), vide Figura 25. Ao pressionar o botão Close, a instância será inicializada. Acompanhe o Status para iniciar o uso da máquina ,vide Figura 26. Figura 25 - ID da Instância Criada (AWS, 2013) Figura 26 – Iniciando a Instância (AWS, 2013) 69 Clique sobre a instância referente a sua máquina para localizar a informação do DNS para acesso remoto e configuração do servidor via SSH, destacado na cor amarela, vide Figura 27. Figura 27 – Visualização do DNS para Acesso Remoto (AWS, 2013) Uma dica interessante para organizar melhor as máquinas criadas é dar um nome sugestivo a elas, evitando memorizar códigos de instância, vide Figura 28. Figura 28 – Nomeação das Máquinas Criadas (AWS, 2013) Para acessar a máquina via SSH, utilize o Putty, um programa para acesso remoto gratuito em modo texto. Com o Putty usaremos para acessar o servidor via SSH. O Puttygen usaremos para converter a chave de segurança criada anteriormente com a extensão PEM para o formato PPK, padrão do programa, vide Figuras 29, 30 e 31. Figura 29 – Importando da Chave PEM (AWS, 2013) 70 Figura 30 – Selecionando o Arquivo .PEM para Conversão (AWS, 2013) Figura 31 – Salvando a Chave em Formato .PPK (AWS, 2013) Confirme a mensagem de erro sobre deixar a senha de proteção da chave convertida em branco clicando em “Yes” e salve a nova chave privada PPK. Acesse o PuTTY, preencha os campos “Host Name” em Session, “Private Key File for Authentication” em SSH/Auth, vide Figuras 32 e 33, e pressione Open para logar no servidor. Figura 32 – Nome Máquina ou IP (AWS, 2013) Figura 33 – Selecionando Chave Privada para Autenticação .PPK (AWS, 2013) 71 Após confirmar a mensagem de segurança a seguir, vide Figura 34, entre com o usuário ‘ubuntu’ e tenha acesso ao bash Linux. Figura 34 – Confirmação de Mensagem de Segurança (AWS, 2013) Para cada servidor interno do item 3.1 siga todos os passos acima novamente. É possível reproduzir todos eles, adaptando a quantidade de memória, disco rígido, placas de rede e sistema operacional. O que ilustramos corresponde ao sistema Linux para atender ao servidor de Backup. Nesse ponto começam os problemas, pois apesar da simplicidade em configurar os servidores virtuais, alguns pontos precisam ser avaliados como pode-se ver a seguir: 1. Para quaisquer operações de leitura e gravação nos servidores, é necessário o acesso à Internet; 2. Dependendo do tamanho do arquivo a ser acessado e do horário (acessos concorrentes) pode ser inviável trabalhar; 3. A confidencialidade das informações armazenadas na nuvem pode ser contestada; 4. Para o sistema de Firewall/Gateway da rede convencional e do monitoramento da CEMIG via VPN, a hospedagem em outro país pode ser um transtorno se pensarmos nos atrasos que podem ocorrer devido ao número de saltos entre as estações; 5. O servidor de impressão se tornaria inviável, já que exigiria a presença física de impressoras conectadas aos servidores virtuais ou a criação de uma VPN para tal controle, tornando a administração muito complexa e custosa; 6. O servidor de Business Intelligence, que se conecta à fonte de dados externa do servidor de banco de dados a cada duas horas, consumiria 72 muita banda encarecendo o plano devido ao volume de transferência mensal de bytes entre os servidores. Estas são pequenas amostras que podem ser rapidamente identificadas e que pesam muito na decisão de virtualizar todo o parque da empresa, principalmente no Brasil em que as redes de dados de alta velocidade são caras e às vezes não atingem os valores desejados em regiões diferentes das grandes metrópoles. Em relação ao diagrama ilustrado deste cenário, a visão é extremamente simplificada, uma vez que só teríamos um roteador mantendo a Internet ativa na empresa e todo o resto hospedado virtualmente, como uma página da Web. E é esta visão simplificada que na maioria das vezes ilude o administrador que não imagina as implicações de se entregar toda a administração a terceiros. 3.3 TERCEIRO - ESTRUTURA INTERNA COM SERVIDORES VIRTUALIZADOS Neste tópico será abordado o melhor dos dois mundos: uma estrutura de nuvem interna a empresa, com as mesmas garantias de funcionamento e manutenção da integridade dos dados. É neste momento que será utilizado a virtualização: se existem equipamentos ociosos, porque não utilizar este potencial em processamento extra para os demais equipamentos do parque em horários de pico? É uma decisão inteligente, pois conservase a energia destinada ao funcionamento da estrutura para o aproveitamento de 100% do que foi investido. E durante a noite, quando os serviços estacionarem, outros entram em ação para darem continuidade ao trabalho, com menos sobrecarga, mais rápido, sobrando espaço para a implementação de outras funções ou até mesmo prolongar a vida útil dos equipamentos, diminuindo a demanda por investimentos ao longo dos anos. Isso sem falar do quesito segurança, pois toda a tratativa é feita internamente. Para esta comparação, empregar-se-á o cenário de dois hosts bem dimensionados para suportarem todo o processamento analisado anteriormente e prever um crescimento da demanda em até 30% (10% ao ano até o final de três anos). O software para virtualização escolhido foi o conceituado VMWare, que em nossas análises se mostrou o melhor custo benefício para essa solução. Esta solução não está aqui somente para ilustrar o funcionamento de um ambiente interno virtualizado, mas sim para provar que sem sombra de dúvidas, é a melhor opção para pequenas e médias empresas que querem investir o pouco que pode ser reservado a TI em algo realmente proveitoso. Reunindo o que há de melhor em infraestrutura de servidores, com o máximo aproveitamento de recursos e com a segurança de um datacenter em nuvem. 73 O VMWare foi escolhido pela sua praticidade, suporte e formas de licenciamento, que pode inclusive, em alguns casos, ser gratuito. Sabe-se que o suporte é necessário em qualquer instituição séria e responsável, pois problemas podem ocorrer, e dependendo da gravidade ou do grau de disponibilidade do ambiente, minutos significam milhões. Ainda assim, recursos podem ser acrescentados às versões originais que se diferenciam basicamente pela quantidade de tarefas que podem ser automatizadas para o administrador de rede, como por exemplo: desligar hosts ociosos quando o consumo estiver abaixo de determinado percentual, migração automática de máquinas virtuais entre hosts caso um deles venha a falhar, realocação de recursos físicos sob demanda (memória, espaço em disco, processador, etc.) em tempo real. Em termos de custos este cenário é o mais sensato, pois é o que permite a maior flexibilidade de todos quando se fala em atender às demandas reprimidas. O crescimento progressivo com o mínimo de intervenções é o foco deste modelo. Com algo em torno de R$ 50 mil é possível montar uma infraestrutura como a ilustrada na Figura 10, contemplando os oito servidores físicos em sua plataforma virtual e com a possibilidade de serem criadas outras máquinas dentro do mesmo ambiente que não estavam previstas inicialmente. Isso pode ser usado para os ambientes de homologação ou a criação de novos serviços, sem a necessidade de se investir. Além disso, o sistema tem as características de alta disponibilidade pela presença de dois hosts (máquinas principais que controlam toda a estrutura da nuvem interna) e o Storage, essencial para a preservação da integridade dos dados e velocidade de resposta do ambiente às mais diversas solicitações dos usuários. Eis o cenário proposto de forma gráfica na Figura 35, em quatro camadas, onde a superior representa as máquinas físicas virtualizadas, a segunda contém os dois hosts responsáveis por controlar toda a infraestrutura, a terceira, com os dois Switches para redundância e a última camada, que compreende o Storage, responsável pelo armazenamento dos dados de todo o ambiente. 74 Figura 35 – Infraestrutura VMWare 75 4 AS MELHORES PRÁTICAS 4.1 PROJETO DA SALA DE SERVIDORES 4.1.1 Coleta e Análise das Informações do Ambiente Para este item, podem-se realizar análises de diversas formas, seja observando o comportamento de cada servidor, usando especificações padrões de fabricantes ou mesmo superdimensionando a infraestrutura. A forma mais sensata seria coletando informações de cada servidor em tempo real durante uma semana, com o ambiente operando normalmente, de forma que os picos sejam observados, assim como os momentos de ociosidade. A ferramenta escolhida foi o DPACK (Dell Performance Analysis Collection Kit), pois ela é gratuita e a análise é feita posteriormente por um programa de análise e coleta de dados da DELL, gratuito, mas que gera um arquivo .iokit, criptografado para ser lido apenas pelo fornecedor. Mas o programa oferece também a saída para arquivo XML, de linguagem aberta, para desenvolvedores. E este que será usado para analisar os dados coletados pela ferramenta durante sete dias. Segue o procedimento simples para coleta de performance do ambiente. Rode a ferramenta nas máquinas de produção do seu ambiente para possibilitar o dimensionamento da solução. É essencial que todos os servidores do ambiente de produção sejam inclusos no processo de coleta, na versão Windows através do botão Adicionar servidor remoto ou Add Remote Server, ou ainda gerando um arquivo .iokit individualmente em cada um dos servidores Linux. Em ambos os ambientes você pode instalar em um único servidor e adicionar os demais, neste mesmo servidor onde executou a instalação. Versão Windows http://www.dell.com/support/drivers/us/en/555/DriverDetails?DriverId=N79N0 Versão Linux http://www.dell.com/support/drivers/us/en/555/DriverDetails?DriverId=MMYM3 Procedimento para servidores Windows: Abra o arquivo ZIP; Rode o arquivo DellPack.exe; Concorde com os Termos e Condições; Adicione todos servidores do ambiente a partir do botão Adicionar servidor remoto ou Add Remote Server; 76 Selecione o tempo de duração do monitoramento (é recomendado que você rode o teste por 24h para um resultado mais efetivo); Clique em Iniciar captura ou Start Capture; Complete com as informações para contato; Selecione o local para salvar o arquivo .iokit; Após o tempo de execução encaminhe por e-mail para a sua pessoa de contato na DELL ou acesse o site e transfira mesmo não sendo cliente DELL. Procedimento para servidores Linux: Faça o download do arquivo dpackv1.tar.gz e salve no servidor Linux; Crie uma pasta temporária e descompacte o arquivo tar; > mkdir dp > mv dpack.tar.gz dp/dpack.tar.gz > cd dp > tar -xvf dpack.tar.gz > Rode o arquivo binário dellpack: Selecionar a opção 1 no menu de ações e após o tempo de execução ./dellpack encaminhe por e-mail para a sua pessoa de contato na DELL ou acesse o site e transfira mesmo não sendo cliente DELL. Observação: tanto na versão Windows como na Linux você pode optar por pedir a criação de um arquivo extra em XML. No Linux é a opção 7 do Menu, pois é modo texto. Esse XML contém as informações do arquivo com extensão iokit, só que de forma descompactada. Se abrir e conseguir interpretar as tags, não precisa do iokit. Ao término da coleta, o arquivo iokit será gerado no mesmo diretório de instalação da ferramenta (por padrão) ou você pode determinar o local. Uma vez de posse do arquivo iokit, basta encaminhá-lo para uma revenda a qual possui uma conta corporativa ou mesmo dizer que não é cliente para receber o retorno da análise de performance do seu ambiente. O arquivo iokit (pode ser até mais de um) deverá ser enviado através do próprio site da DELL em http://www.dell.com/solutions-dpack/us/en/04/enduser. Este sistema foi desenvolvido pela DELL para facilitar o sizing (ou dimensionamento) de servidores, comprovando a necessidade real de investimento. Isso facilita bastante a argumentação perante a diretoria da empresa para sugerir investimentos ou justificá-los diante do budget definido para o ano. 77 Importante No Windows: Para coletar mais de 24 horas, basta executar Dellpack.exe da linha de comando (MS-DOS) com a opção /extended: Dellpack.exe /extended; No Linux: A opção de coleta estendida para Linux é - extended ou -e. As informações coletadas se referem apenas à utilização de recursos no ambiente. Nenhuma informação armazenada nos servidores será copiada nesse processo. No arquivo para download se encontra o contrato que detalha o compromisso da Dell com a confidencialidade dessas informações. Uma vez coletadas as informações, teremos algo nos resultados do tipo: consumo de banda, consumo de disco e de memória RAM, uso do processador, taxa de transferência máxima de leitura e gravação, etc. De posse destes dados, pode-se partir para a escolha dos componentes ideais para suprir a demanda do ambiente. Exemplo do conteúdo do arquivo XML que avaliou o servidor de banco de dados: <?xml version="1.0" encoding="utf-8"?> <!-- This is an uncompressed copy of the xml data embedded into the iokit file. --> <plog version="11" collector="linux" collectorVersion="1.5.0.288392" localStart="635025126130000000" localEnd="635030310130000000" machineCount="4" deviceCount="8" entryCount="51842" binaryLen="456973" contactFirstName="Rodrigo" contactLastName="Matos" contactCompany="Onduline do Brasil Ltda" contactPhone="0055 32 3691-9427" contactEmail="[email protected]" adler32="1423754279"> <machines> <machine protocol="linuxlocalsysstats" name="dbserver" id="0" os="SUSE Linux Enterprise Server 11 (x86_64)" connErrors="0" physMem="16285996.0"> <app name="branding-SLES" version="11"/> </machine> </machines> <devices> <device name="sda" machineID="0" id="1" blockSize="512" blocks="1169686528" blocksFree="909991656" blocksUsed="259694872" clusterId="2" scrubs="0" serialNumber="SDELLPERC H710"/> <device name="sda" machineID="4" id="5" blockSize="512" blocks="1953525168" blocksFree="693840920" blocksUsed="1259684248" clusterId="6" scrubs="0" serialNumber="SATA WDC WD10EARS-00 WDWMAV52614586"/> <device name="sdb" machineID="4" id="8" blockSize="512" blocks="1953525168" blocksFree="638745120" blocksUsed="1314780048" clusterId="9" scrubs="0" serialNumber="SATA WDC WD10EARS-00 WDWMAV52584013"/> <device name="hda" machineID="11" id="12" blockSize="512" blocks="8388604" blocksFree="0" blocksUsed="8388604" clusterId="13" scrubs="0"/> <device name="sda" machineID="11" id="14" blockSize="512" blocks="71132000" blocksFree="70036624" blocksUsed="1095376" clusterId="15" scrubs="0"/> <device name="cciss!c0d0" machineID="16" id="17" blockSize="512" blocks="71122560" blocksFree="0" blocksUsed="71122560" clusterId="18" scrubs="0"/> <device name="cciss!c0d1" machineID="16" id="19" blockSize="512" blocks="142253280" blocksFree="0" blocksUsed="142253280" clusterId="20" scrubs="0"/> <device name="hda" machineID="16" id="21" blockSize="512" blocks="8388604" blocksFree="0" blocksUsed="8388604" clusterId="22" scrubs="0"/> </devices> <entries> <macentry machine="0" freeMem="3834756.0" cpu="0.0" max="100.0" ts="635025126130000000"/> <entry dev="1" ri="0.0" wi="0.0" rbps="0.0" wbps="0.0" rz="241.4" wz="213.4" rl="2.5" wl="76.5" qd="0.0" ts="635025126130000000"/> <macentry machine="16" freeMem="31316.0" cpu="0.0" max="100.0" ts="635025126130000000"/> 78 <entry dev="17" ri="0.0" wi="0.0" rbps="0.0" wbps="0.0" rz="0.0" wz="0.0" rl="0.0" wl="0.0" qd="0.0" ts="635025126130000000"/> </entries> </plog> 4.1.2 Definição dos Sensores de Ambiente Buscando o equilíbrio entre o investimento realizado e sua proteção, nada mais sensato que definir alguns sensores que irão monitorar o comportamento de variáveis como temperatura do ambiente, câmeras com sensores de movimento contra invasão e biometria para autorizar a entrada no datacenter. Controladores de temperatura e umidade são simples de serem obtidos em sites de comércio eletrônico nacionais ou estrangeiros, por um valor entre 20 e 40 reais. Todos acompanham um CD de instalação dos drivers e um programa de monitoramento e envio de SMS/e-mail para o administrador caso a temperatura/umidade do ambiente supere o limite predefinido. Para as câmeras, uma simples com foco fixo e conexão USB (WebCam) já é suficiente e o valor não mais do que 50 reais adquiridas em lojas de informática locais. O programa de monitoramento pode ser pago ou gratuito. Dos pagos recomendamos o Webcam7 e dos gratuitos, o SpyCam. Ambos possuem recursos de definição de sensibilidade, transmissão de áudio e vídeo para um repositório FTP, local ou envio de imagens por e-mail. Podem acionar as câmeras por movimento ou deixá-las gravando ininterruptamente. Fechaduras biométricas são os itens mais caros do projeto, girando em torno de 800 reais, mas que desempenham um importante papel na segurança física do ambiente contra a entrada de pessoas não autorizadas. As fechaduras mais comuns são as acionadas por digitais ou teclados alfanuméricos. As mais caras contam inclusive com Interface USB ou Ethernet, para a coleta de dados a distância, para efeito de auditoria. 4.1.3 Instalação, Configuração e Testes de Monitoramento Os sensores de temperatura e umidade podem ser instalados sobre a mesa ou rack e conectado via barramento USB do servidor que será utilizado para tal monitoramento. Qualquer um cujo sistema operacional seja Windows pode ser utilizado, desde que possua conexões USB disponíveis. Com o CD de instalação dos drivers do sensor o mesmo passa a ser reconhecido e o programa que o acompanha deverá ser ajustado com os dados da temperatura/umidade limites do ambiente e pelo um e-mail precisa ser configurado para envio automático de mensagens. Para as câmeras com detecção de movimentos, basta a conexão USB disponível e a instalação e configuração de um software com os recursos mencionados 79 anteriormente. Se o programa oferecer o recurso do envio de snapshots quando um alarme é detectado, fica simples gerenciar o ambiente, pois qualquer invasão detectada será imediatamente comunicada por e-mail em flashes contendo bitmaps de miniaturas das telas capturadas. As fechaduras biométricas podem ser instaladas em quaisquer modelos de portas, sejam de madeira maciça ou não, de ferro, etc. O ideal é o acompanhamento de um profissional, marceneiro ou serralheiro, para ajustar corretamente os furos, que nem sempre casarão com os da antiga. A biometria é mantida com a ajuda de pilhas ou baterias e chaves extras para o caso de tudo falhar. Algumas contam com teclados numéricos que facilitam o cadastramento das senhas e a auditoria de acessos, exigida por muitas empresas. Os testes são simples. Para a temperatura, basta desligar os equipamentos de ar condicionado que refrigeram o ambiente e aguardar que o alarme soe. Só assim veremos a eficiência dos sensores atuando preventivamente na tentativa de avisar o administrador por e-mail. As câmeras podem ser avaliadas com o simples movimento dentro do ambiente, que provocaria a câmera a disparar snapshots sucessivos por email. Já a fechadura biométrica pode ser testada na tentativa de entrar no ambiente por uma pessoa credenciada e outra não. 4.2 PROJETO DE VIRTUALIZAÇÃO DE SERVIDORES 4.2.1 Sizing da Infraestrutura para Virtualização De acordo com os resultados obtidos no DPACK da DELL, pode-se afirmar que a estrutura a seguir comporta todos os servidores físicos e um potencial de crescimento de 30%, para atender a uma possível demanda reprimida ou pelo menos atender durante o período da garantia, em geral, de trinta e seis meses. Adotamos a DELL como fornecedor principal, pois a empresa possuía todos os componentes necessários para a elaboração deste cenário. Outros fornecedores foram consultados, como a IBM e a HP, que possuem configurações similares, mas mesclam as soluções com fabricantes OEM independentes. Nesta solução, quando todos os componentes são de um único fornecedor ganhamos no preço, na garantia e condições especiais de fornecimento. Configuração dos Hosts 80 Serão duas máquinas que suportarão o sistema operacional de virtualização VMWare vSphere 5.1, trabalhando em redundância para garantirem a alta disponibilidade do sistema. Ambos os servidores terão a configuração de acordo com a Tabela X: Tabela 12 – Configuração dos Servidores (GONTIJO, 2013) Item Descrição PowerEdge T420 (1) Servidor Torre de 2 Soquetes Add-in Network Adapter (2) Placas de rede Broadcom® 5719 Quad Port de 1GB Gerenciamento Integrado (1) iDRAC 7 Express Chassis Configuration (1) Chassis with up to 8, 3.5" Hot-Plug Hard Drives Configuração de HD (1) RAID for H710P/H710/H310 (1-16 HDDs) Controladora Primária (1) Controladora PERC H710, 512MB NV Cache Processador (1) Intel® Xeon® E5-2407 2.20GHz Quad-Core, 10M Cache, 6.4GT/s QPI Memória (4) Memórias de 16GB, 1333MHz (RDIMM) Disco Rígido (2) Discos rígidos de 300GB SAS, 15K RPM Hot-Plug de 3.5" Disco Óptico Interno (1) Unidade de SATA DVD-ROM Power Supply (2) Fonte Redundante Hot Plug, 495W Garantia 3 anos de ProSupport com atendimento no local VALOR POR UNIDADE R$ 10.000,00 Seguem algumas explicações sobre a configuração escolhida. Importante a escolha de no mínimo dois hosts iguais, para manter a compatibilidade entre os sistemas no caso da falta de um deles. A licença do VMWare mencionado aqui permite até três hosts no mesmo valor, cada um com dois processadores, não importa a quantidade de núcleos de cada um (dual-core, quad-core, six-core ou octa-core). As controladoras são necessárias para permitir a conexão dos discos SAS internamente e com o Storage, cotado a seguir. Cada controladora comporta uma taxa de transferência na prática de 200MB/s, sendo necessárias duas para promover a redundância. Os discos dos hosts não são os mais importantes, visto que apenas serão úteis para a instalação do sistema operacional. Dê preferência aos hotplugs, pois em caso de queima de um deles a substituição pode ser feita com o servidor ligado. Fontes redundantes são essenciais para não permitirem ao host ser desligado caso uma das entradas de alimentação de energia falte. 81 Atenção especial para a quantidade de memória, pois ela foi definida somando as quantidades de cada servidor físico como o mínimo necessário e dobrando a capacidade, para uma estimativa futura de três anos. Configuração da Rede Dois switches de rede gerenciáveis, 24 portas GigE cada, com possibilidade de expansão através de empilhamento com porta específica de alta velocidade. As duas unidades foram escolhidas para que cada controladora seja conectada em seu respectivo switch garantindo a redundância da rede. Tabela 13 – Configuração dos Switches (GONTIJO, 2013) Item Descrição PowerConnect 6224 Switch 24 portas Gigabit gerenciável Empilhamento Módulo de empilhamento 48Gpbs com cabo de 1m Garantia Vitalícia com 3 anos de suporte no local VALOR POR UNIDADE R$ 2.500,00 Configuração do Storage Para que os dados sejam acessados, não basta apenas configurar os hosts e a rede, é necessário criar um local na rede que permita salvar as informações trocadas entre os clientes e suportar um volume enorme de leituras e escritas em disco. Os Storages ou SANs são locais na rede que funcionam como um repositório composto por um grupo de discos rígidos organizados em RAID para permitirem a perda de no máximo dois deles sem prejuízos à organização. Isso significa que, mesmo em produção, caso haja a queima de um dos discos do Storage, os equipamentos permanecerão funcionando normalmente até a troca daquele que apresentou defeito. Existe uma perda na performance do sistema, mas insignificante, já que todo o grupo foi projetado para alto desempenho. Sendo assim, segue a configuração recomendada para este cenário: Tabela 14 – Configuração dos Storage (GONTIJO, 2013) Item Dell Equallogic Descrição PS6100X x 01 Capacidade de Expansão Máximo 16 membros por grupo Controladoras Duas com 8GB cache de backup High Availability e Failover Discos rígidos 7.2TB de capacidade, 10K SAS, 12x 600GB Conexões de rede 4 Portas 1GbE (Cooper) por controladora 82 Configuração dos discos Suporta RAID 6, RAID 10, e RAID 50 Fonte de energia Duas Fontes de Energia redundantes de 1080 Watts Montagem no rack Trilhos deslizantes Dell ReadyRails™ II estático Garantia 3 anos ProSupport 24x7 com atendimento no local VALOR POR UNIDADE R$ 20.000,00 O RAID 1+0, ou 10, escolhido para essa configuração exige ao menos 4 discos rígidos. Cada par será espelhado, garantindo redundância, e os pares serão distribuídos, melhorando o desempenho. Até a metade dos discos pode falhar simultaneamente, sem colocar o conjunto a perder, desde que não falhem os dois discos de um espelho qualquer — razão pela qual se usam discos de lotes diferentes de cada ‘lado’ do espelho. É o nível recomendado para bases de dados, por ser o mais seguro e dos mais velozes, assim como qualquer outro uso onde a necessidade de economia não se sobreponha à segurança e desempenho. Figura 36 – RAID 10 (WIKIPEDIA, 2013) A capacidade dos discos foi escolhida pela soma de tudo o que se gasta atualmente e projetando o consumo para os próximos três anos, conforme histórico da empresa. Uma conta simples para estimar uma capacidade aproximada seria triplicar aquilo que existe hoje na estrutura. 83 Duas controladoras com failover permitem que, caso uma deixe de operar, as informações continuem sendo lidas e gravadas nos discos sem a perda de dados até a sua substituição. Configuração do Sistema de Virtualização Tabela 15 – Configuração do Sistema de Virtualização (GONTIJO, 2013) Item Descrição Suite VMWare vSphere 5.1 Essencial Plus vCenter Server Essentials e ESXi para 3 hosts Agentes vCenter 8-way vSMP Update Manager Recuperação de dados e alta disponibilidade Limitações e licenças 3 máquinas e com dois processadores cada VALOR POR UNIDADE R$ 5.000,00 4.2.2 Escolha da versão do VMWare Optaremos pela versão 5.1 do vSphere por ser a mais nova e estável da suíte VMWare. O ambiente escolhido é compatível com esta versão, principalmente as controladoras SAS e as interfaces de rede Ethernet, pois sem elas não será possível concretizar o projeto. A compatibilidade pode ser verificada antes da compra com o fabricante do hardware ou no próprio site da VMWare, que disponibiliza uma lista dos fabricantes compatíveis com a versão 5.1. 4.2.3 Conversão de Servidores Físicos para Virtuais Usaremos o próprio conversor gratuito fornecido pela VMWare para converter servidores físicos em virtuais, com o mínimo esforço. O tempo estimado para a conversão de cada máquina é de uma hora e 99% de acuracidade. 4.2.4 Inicialização e Monitoramento do Novo Ambiente A primeira parte do projeto consiste em montar os equipamentos da forma como ilustrado no item 3.3, onde os dois hosts escolhidos com configurações mais robustas se conectarão ao storage diretamente e também ao Switch, através da controladora SAS. Com links de alta velocidade, essa é a melhor configuração para desempenho. O Switch se conecta aos demais componentes da rede e promove a integração de todos, além de ser um caminho alternativo (redundante) para o acesso dos hosts aos discos. 84 Com os hosts no ar, vamos à instalação da suíte do VMWare, com direito ao vSphere e vCenter. Com a solução VMWare instalada, fica mais fácil. Os hosts hospedarão a solução VMWare e as máquinas virtuais criadas em ambos. A necessidade de se ter dois componentes é em virtude da alta disponibilidade, que exige a presença de outra máquina idêntica, pois caso haja um sinistro, a que estiver sã pode assumir o conjunto sem problemas, até que tudo se resolva. Os testes são simples: usaremos o vConverter para converter as máquinas físicas em virtuais (cerca de uma hora por servidor, em média). As máquinas VMDK virtualizadas podem ser copiadas diretamente aos servidores e inicializadas a partir do vSphere. Poucos ajustes são necessários e em minutos temos o ambiente de testes em operação. Feitas as devidas comparações de integridade entre as bases, podemos assumir o teste como base de produção e interromper o funcionamento paralelo das máquinas físicas obsoletas. Estes servidores antigos podem ser redirecionados a outras filiais como apoio ou para testes sem comprometerem a nova estrutura. 4.3 DOCUMENTAÇÃO 4.3.1 Documentação dos Riscos Riscos existem em todas as atividades de negócios. Mapeá-los corretamente sempre será um desafio. Mas em ambientes como este que foi proposto, os riscos existem, mas a maioria pode ser identificada e tratada. Os riscos aqui relacionados se aplicam na maioria das empresas. Casos específicos precisam ser vistos a parte. Risco de incêndio: podem ser contornados com os sensores de temperatura/umidade instalados na sala ou sensores de fumaça, que não foram detalhados. Eles não evitam o incêndio, apenas comunicam o incidente potencial de maneira preventiva. Caso ocorra, o ambiente precisa ser preparado com extintores automáticos com base em substâncias inibidoras de combustão. Outro fator importante na minimização deste risco é o backup sistemático de toda a infraestrutura diariamente para fora da empresa, por exemplo, na filial. Risco de roubo da informação: as câmeras vigiam 24h enquanto o controle de acesso biométrico dificulta o acesso de pessoas não autorizadas. Mesmo assim, o fato não impede o roubo, apenas avisa o administrador do evento e toma as medidas cabíveis. Um backup diário fora da empresa é essencial para mitigar este risco. Risco de inundação: menos comum, geralmente empresas deveriam construir as salas de servidores ao final dos corredores, em pisos mais elevados. Jamais em subsolos. 85 Risco de desabamento: com tantos prédios caindo ao redor do mundo, este não seria diferente. Estruturas antigas não suportam tanta modernidade e ficam saturadas, quando não são provocadas por fenômenos naturais. Neste caso não há muito que se fazer senão monitorar pela câmera de vigilância. Riscos de Incompatibilidades de Conversão: nos casos em que a compatibilidade dos sistemas operacionais com o VMWare, responsável pela virtualização das máquinas físicas, não for observada, o risco de falha na transformação dos dados pode ser impeditivo para lançar o projeto em produção, caso os servidores envolvidos sejam essenciais ao funcionamento da empresa. 4.3.2 Definição das Limitações do Novo Cenário Este novo cenário é capaz de reproduzir os oito servidores, anteriormente físicos, e ainda guardar um potencial de crescimento de demandas reprimidas. A solução se limita a demonstrar a técnica de análise e coleta de dados para o correto dimensionamento dos componentes, sugerir algumas configurações de nuvens privadas com base nos resultados obtidos e monitorar variáveis de ambiente para minimização de riscos potenciais à sala de servidores, com pouco investimento. Além disso, é importante levar em consideração alguns fatores para o sucesso do projeto: A execução do serviço requer levantamento prévio de requisitos; Um profissional da empresa deve acompanhar a implementação, se terceirizada; A empresa deve obter com antecedência todos os softwares e licenças a serem instaladas, inclusive das máquinas virtuais; A conversão bem sucedida depende de compatibilidade com o ambiente VMware, pois sistemas operacionais não homologados não têm conversão garantida. 86 5 CONSIDERAÇÕES FINAIS A constante busca das empresas em fazer mais por menos nos obriga a encontrar alternativas viáveis economicamente sem deixar de atender às mais exigentes solicitações do mercado. A evolução tecnológica nos permite montar sistemas de alto desempenho dentro da própria estrutura corporativa, prática um tanto quanto avessa àquela defendida e tão badalada nuvem. Mas, com este trabalho, buscamos exatamente comprovar o fato de que dos três cenários propostos, o mais sensato seria admitir uma estrutura interna virtualizada que simula o comportamento de uma nuvem sem as preocupações com o sigilo das informações compartilhadas, além de um maior controle sobre as intervenções técnicas. Como o âmbito abordado envolveu pequenas e médias empresas, essa solução é perfeitamente aceitável e justificável. E este foi um dos motivos que nos inspirou na elaboração deste trabalho rico em detalhes, para embasar com propriedade a argumentação dos gestores de tecnologia que almejam aumentar a sua capacidade de atendimento aos clientes internos sem investir quantias exorbitantes. O que demonstramos não é a verdade absoluta, logo, as realidades precisam ser adaptadas para que as soluções se encaixem perfeitamente. São apenas diretrizes que cabem ser avaliadas na busca pelo melhor custo-benefício, usando estudos de caso reais para a comprovação da eficácia do projeto. Vale lembrar dois conceitos importantes para concluirmos este trabalho: CAPEX (capital expenditure - despesas de capital ou investimento em bens de capital) e OPEX (operational expenditure - custo associado à manutenção dos equipamentos e aos gastos de consumíveis e outras despesas operacionais). A aplicação destas práticas só surtirá efeito caso o planejamento orçamentário da solução esteja alinhado às estratégias de investimento previstas pela corporação. Se temos abertura para negociarmos em infraestrutura (compra de ativos), a liberação de verbas CAPEX atende a defesa de nosso terceiro cenário. Caso a empresa disponibilize apenas o orçamento para a contratação de serviços (OPEX), teremos que optar pelo segundo cenário e disponibilizar, impreterivelmente, toda a infraestrutura nas nuvens. Por isso a importância da TI estar alinhada as estratégias do negócio e permitir a correta elaboração do plano orçamentário, visando a expansão consciente da organização. 87 6 REFERÊNCIAS BIBLIOGRÁFICAS AFFONSO, Reinaldo. A importância da Tecnologia Verde. 2010. iMasters. Disponível em: <http://imasters.com.br/artigo/18360/tendencias/a-importancia-da-tecnologia-verde/>. Acesso em: 07 setembro. 2013. ARDUINO. Getting Started with Arduino. 2013. Disponível em: <http://arduino.cc/en/Guide/Introduction>. Acesso em: 11 setembro. 2013. AWS. Amazon Web Services. 2013. Disponível em: <http://aws.amazon.com/pt/>. Acesso em: 07 setembro. 2013. BECKINGHAM, Colin. Registro de dados com hardware e software livre no setor de energia. 2011. IBM. Disponível em: <http://www.ibm.com/developerworks/br/library/osarduinophp/index.html>. Acesso em: 11 setembro. 2013. BRODKIN, Jon. Gartner: Seven cloud-computing security risks. 2008. Network World. Disponível em: <http://www.networkworld.com/news/2008/070208-cloud.html>. Acesso em: 21 agosto. 2013. CARVALHO, Carlos Augusto da Costa. O que é governança de TI?. 2007. Disponível em: <http://itweb.com.br/voce-informa/o-que-e-governanca-de-ti/>. Acesso em: 25 setembro. 2013. CERT.br. Cartilha de Segurança para Internet. 2012. Disponível em: <http://cartilha.cert.br>. Acesso em: 12 agosto. 2013. CHIRIGATI, Fernando Seabra. Computação em Nuvem. 2009. Disponível em: < http://www.gta.ufrj.br/ensino/eel879/trabalhos_vf_2009_2/seabra>. Acesso em: 14 agosto. 2013. CLOUD COMPUTING USE CASE DISCUSSION GROUP. Cloud Computing Use Cases White Paper. 2010. Disponível em: <http://opencloudmanifesto.org/Cloud_Computing_Use_Cases_Whitepaper-4_0.pdf>. Acesso em: 21 agosto. 2013. COELHO, Fabio de Azevedo; CALZAVARA, Gustavo Santos; LUCIA, Ricardo. Virtualização - VMware e Xen. 2008. Disponível em: <http://www.gta.ufrj.br/grad/09_1/versao-final/virtualizacao/index.html>. Acesso em: 28 agosto. 2013. COMPUTERWORLD. Tráfego na nuvem aumentará 66% até 2015, projeta Cisco. 2011. Disponível em: < http://computerworld.uol.com.br/tecnologia/2011/11/29/trafego-nanuvem-aumentara-66-ate-2015-projeta-cisco>. Acesso em: 14 agosto. 2013. CORREA, Marcelo. ISO 22301 JÁ ESTÁ AÍ!. 2012. TI especialistas. Disponível em: <http://www.tiespecialistas.com.br/2012/06/iso-22301-ja-esta-ai-2/#.UkDiGoafifh>. Acesso em: 20 setembro. 2013. FINDTHEBEST. PRTG Network Monitor vs ZABBIX. 2013. Disponível em: <http://network-management.findthebest.com/compare/57-60/PRTG-Network-Monitor-vsZABBIX>. Acesso em: 29 setembro. 2013. 88 GONTIJO, Carina. Proposta Comercial V3 - Onduline - Valspe. Endereço [on-line] Disponível: [email protected] de [email protected], 10 setembro, 2013. ISACA. Computação em nuvem: benefícios para o negócio com perspectivas de segurança, governança e qualidade. 2009. Disponível em: <http://www.isaca.org/Knowledge-Center/Research/ResearchDeliverables/Pages/CloudComputing-Business-Benefits-With-Security-Governance-and-AssurancePerspective.aspx>. Acesso em: 16 agosto. 2013. JONES, Don. TI verde: Sustentabilidade - Sua empresa se importa com ela?. 2010. TechNet Magazine. Disponível em: <http://technet.microsoft.com/ptbr/magazine/ff808319.aspx>. Acesso em: 07 setembro. 2013 INFOWESTER. O que é cloud computing (computação nas nuvens)?. 2013. Disponível em: <http://www.infowester.com/cloudcomputing.php>. Acesso em: 13 agosto. 2013. _________. O que é virtualização e para que serve?. 2013. Disponível em: <http://www.infowester.com/virtualizacao.php>. Acesso em: 28 agosto. 2013. KASSAI, Silvia. As Empresas de Pequeno Porte e a Contabilidade. Caderno de Estudos, São Paulo, FIPECAFI, v.9, n.15, p.60-74, janeiro/julho 1997. KPMG. Clarity in the Cloud: A global study of the business adoption of Cloud. 2011. Disponível em: <http://www.kpmg.com/Global/en/IssuesAndInsights/ArticlesPublications/Documents/ cloud-clarity.pdf >. Acesso em: 19 agosto. 2013. LESSA, Demian. O Protocolo de Gerenciamento RMON. Rede Nacional de Ensino e Pesquisa, NewsGeneration, Rio de Janeiro, v.3, n.1, 15 janeiro 1999. LIMA, M. M. A. E.. Introdução a Gerenciamento de Redes TCP/IP. Rede Nacional de Ensino e Pesquisa, NewsGeneration, Rio de Janeiro, v.1, n.3, 01 agosto 1997. MELL, Peter; GRANCE Timothy. The NIST Definition of Cloud Computing. 2011. Disponível em: < http://csrc.nist.gov/publications/nistpubs/800-145/SP800-145.pdf>. Acesso em: 15 agosto. 2013 MENASCÉ, Daniel A. Virtualization: Concepts, Applications, and Performance Modeling. 2005. Disponível em: <http://www.cs.gmu.edu/~menasce/papers/menascecmg05-virtualization.pdf>. Acesso em: 01 agosto. 2013. MENEZES, Elionildo da Silva; SILVA, Pedro Luciano Leite. Gerenciamento de Redes: Estudos de Protocolos. 1998. Disponível em: <http://www.di.ufpe.br/~flash/ais98/gerrede/gerrede.html>. Acesso em: 23 agosto. 2013. MICROSOFT. Segurança na Nuvem da Microsoft Infraestrutura. 2009. Disponível em: <http://download.microsoft.com/download/E/9/F/E9F60B35-AB0A-4F70-BE04629E98861742/SecuringtheMSCloudMay09_pt-br.pdf>. Acesso em: 23 agosto. 2013. MÓDULO. Continuidade de negócios: tendência global. 2013. Disponível em: <http://modulo.com.br/comunidade/noticias/3072-continuidade-de-negocios-tendenciaglobal>. Acesso em: 20 setembro. 2013. 89 MOREIRA, Felipe Matos. TI - Investimento ou Custo. 2013. Disponível em: <http://ccitecnologia.com.br/blog/ti-investimento-ou-custo/>. Acesso em: 14 setembro. 2013. MOREIRA, Stringasci Nilton. Segurança Mínima: uma Visão Corporativa da segurança de informações. Rio de Janeiro: Axcel Books, 2001. OKA, Alan Yukio. TCO ganha força com a computação em nuvem. 2012. Disponível em: < http://www.dualtec.com.br/blog/2012/10/09/tco-ganha-forca-com-a-computacaoem-nuvem>. Acesso em: 22 agosto. 2013 PALMA, Fernando. ISO 27001 e ISO 27002. 2011. Disponível em: <http://www.portalgsti.com.br/2011/05/iso-27001-e-27002.html>. Acesso em: 20 setembro. 2013. PERRY, Randy; HENDRICK, Stephen D. The Business Value of Amazon Web Services Accelerates Over Time. 2012. IDC. Disponível em: <http://media.amazonwebservices.com/idc_aws_business_value_report_2012.pdf>. Acesso em: 22 agosto. 2013. PINHEIRO, José Maurício dos Santos. Gerenciamento de Redes de Computadores. 2002. Disponível em: <http://www.allnetcom.com.br/upload/GerenciamentodeRedes.pdf>. Acesso em: 23 agosto. 2013. RAMOS, Rodrigo. O que é computação em nuvem e por que eu devo usar?. 2013. iMasters. Disponível em: <http://imasters.com.br/infra/cloud/o-que-e-computacao-emnuvem-e-por-que-eu-devo-usar>. Acesso em: 14 agosto. 2013. SÊMOLA, Marcos. Gestão da Segurança da Informação: uma Visão Executiva. Rio de Janeiro: Campus, 2003. SOUZA, Valter Carielo de Paula. Orçamento: Pode o Beyond Budgeting Sucumbir o Atual Budget. 2012. Disponível em:<http://pt.scribd.com/doc/123082898/Budget-eForecast>. Acesso em: 01 agosto. 2013. STRIANESE, Anibal. Virtualização: a TI virtual. 2010. Disponível em: <http://www.baguete.com.br/artigos/907/anibal-strianese/11/11/2010/virtualizacao-a-tivirtual>. Acesso em: 28 agosto. 2013. TAURION, Cezar. Cloud Computing: computação em nuvem: transformando o mundo da tecnologia da informação. Rio de Janeiro: Brasport, 2009. _________. Admirável negócio novo. 2002. TIMaster. Disponível em: <http://www.timaster.com.br/revista/artigos/main_artigo.asp?codigo=518>. Acesso em: 25 setembro. 2013. VMWARE. vCenter Converter. 2013. Disponível em: < http://www.vmware.com/br/products/converter>. Acesso em: 02 setembro. 2013. _________. VMware vSphere 4 - A melhor plataforma para a criação de infraestruturas em nuvem. 2009. Disponível em: <http://www.vmware.com/files/br/pdf/VMW_09Q1_BRO_vSphere_BR_A4_P4_R6.pdf>. Acesso em: 03 setembro. 2013. 90 _________. VMware vSphere - Standard Edition e Standard with Operations Management Edition. 2012. Disponível em: <http://www.vmware.com/files/br/pdf/VMware-vSphere-Standard-Edition-Datasheet.pdf>. Acesso em: 03 setembro. 2013. _________. VMware vCenter Server - Unifica e simplifica o gerenciamento da virtualização. 2011. Disponível em: <http://www.vmware.com/files/br/pdf/VMwarevCenter-Server-Datasheet.pdf>. Acesso em: 03 setembro. 2013. _________. VMware vCloud Suite. 2012. Disponível em: <http://www.vmware.com/files/br/pdf/products/vCloud/VMware-vCloud-SuiteDatasheet.pdf>. Acesso em: 05 setembro. 2013. WIKIPEDIA. Computação em Nuvem. 2013. Disponível em: <http://pt.wikipedia.org/wiki/Computa%C3%A7%C3%A3o_em_nuvem>. Acesso em: 14 agosto. 2013. _________. Acordo de Nível de Serviço. 2013. Disponível em: <http://pt.wikipedia.org/wiki/Acordo_de_n%C3%ADvel_de_servi%C3%A7o>. Acesso em: 21 agosto. 2013. _________. Gerência de Redes. 2013. Disponível em: <http://pt.wikipedia.org/wiki/Ger%C3%AAncia_de_redes>. Acesso em: 27 agosto. 2013. _________. Total Cost of Ownership. 2013. Disponível em: <http://pt.wikipedia.org/wiki/Total_cost_of_ownership>. Acesso em: 22 agosto. 2013. _________. Raid. 2013. Disponível em: <http://pt.wikipedia.org/wiki/RAID#RAID_1.2B0>. Acesso em: 24 setembro. 2013. ZABBIX. Zabbix Monitoring Solution Screenshots. 2013. Disponível em: <http://www.zabbix.com/screenshots.php>. Acesso em: 09 setembro. 2013.